ABOUT THE SPEAKER
Erin Marie Saltman - Policy researcher
Dr. Erin Marie Saltman manages Facebook's counterterrorism and counter-extremism policy work for Europe, the Middle East and Africa.

Why you should listen

Dr. Erin Marie Saltman's background and expertise includes both Far Right and Islamist extremist processes of radicalization within a range of regional and socio-political contexts. Her research and publications have focused on the evolving nature of online extremism and terrorismgender dynamics within violent extremist organizations and youth radicalization. Saltman has previously held senior research positions at Quilliam Foundation and the Institute for Strategic Dialogue, where she managed international programs. She has also worked with local activists, artists and techies to challenge violent extremism.

As Facebook's Counterterrorism Policy Manager based in London, Saltman regularly speaks with both governments and NGOs on issues related to how Facebook counters terrorism and violent extremism. She has also helped establish the Global Internet Forum to Counter Terrorism, bringing together leading industry partners (Facebook, Google, Microsoft and Twitter) with smaller startups and tech companies to create cross-platform knowledge sharing, technology solutions and research. 

Saltman remains a Research Fellow at the Institute for Strategic Dialogue. She is a graduate of Columbia University (BA) and University College London (MA and PhD). View her articles and publications here.

More profile about the speaker
Erin Marie Saltman | Speaker | TED.com
TEDxGhent

Erin Marie Saltman: How young people join violent extremist groups -- and how to stop them

Erin Marie Saltman: Comment les jeunes adhèrent à des groupes extrémistes violents et comment les en empêcher

Filmed:
1,214,427 views

Les terroristes et les extrémistes ne sont pas tous des sociopathes naturellement violents, ils sont recrutés et radicalisés délibérément via un processus qui ne suit pas un modèle précis. Erin Marie Saltman parle des facteurs d'attraction et de répulsion poussant les gens à adhérer à des groupes extrémistes et explique des méthodes innovantes pour empêcher et contrer la radicalisation.
- Policy researcher
Dr. Erin Marie Saltman manages Facebook's counterterrorism and counter-extremism policy work for Europe, the Middle East and Africa. Full bio

Double-click the English transcript below to play the video.

00:12
So in 2011, I alteredaltéré my nameprénom
0
833
3398
En 2011, j'ai changé de nom
00:16
so that I could participateparticiper
in FarJusqu'à maintenant Right youthjeunesse campcamp in HungaryHongrie.
1
4255
3976
afin de pouvoir participer à un camp
de jeunes de l'extrême droite en Hongrie.
00:20
I was doing a PhDPh.d. looking at
youthjeunesse politicalpolitique socializationsocialisation --
2
8794
4366
J'étais en doctorat, étudiant
la socialisation politique des jeunes --
00:25
why youngJeune people were developingdéveloppement
politicalpolitique ideologiesidéologies
3
13184
3071
pourquoi les jeunes développaient
des idéologies politiques
00:28
in a post-communistpostcommuniste settingréglage,
4
16279
2010
dans un environnement post-communiste --
00:30
and I saw that a lot
of youngJeune people I was talkingparlant to
5
18313
3233
j'ai vu que beaucoup
des jeunes auxquels je parlais
00:33
were joiningjoindre the FarJusqu'à maintenant Right,
6
21570
1600
adhéraient à l'extrême-droite
00:35
and this was astoundingétonnant to me.
7
23194
2156
et j'ai trouvé cela stupéfiant.
00:37
So I wanted to enrolls’inscrire in this youthjeunesse campcamp
8
25374
2295
Alors j'ai voulu m'inscrire
à ce camp de jeunes
00:39
to get a better understandingcompréhension
of why people were joiningjoindre.
9
27693
3136
pour mieux comprendre
pourquoi les gens y adhéraient.
00:42
So a colleaguecollègue enrolledinscrits me,
10
30853
1557
Un collègue m'a inscrite
00:44
and my last nameprénom soundsdes sons
a little bitbit too JewishJuif.
11
32434
2928
et mon nom de famille
a une consonance trop juive.
00:47
So ErinErin got turnedtourné into IrIRénana,
12
35680
2745
Erin s'est transformé en Iréna
00:50
and SaltmanSaltman got turnedtourné into Sós,
13
38449
2200
et Saltman en Sós,
00:52
whichlequel meansveux dire "saltysalé" in HungarianHongrois.
14
40673
2921
qui veut dire « salé » en hongrois.
00:55
And in HungarianHongrois,
your last nameprénom goesva first,
15
43618
2310
En hongrois,
le nom de famille vient d'abord
00:57
so my JamesJames BondBond nameprénom
turnedtourné into "SaltySalé IrenaIrena,"
16
45952
4414
donc mon nom d'espionne
s'est transformé en « Salée Irena »,
01:02
whichlequel is not something
I would have naturallynaturellement chosenchoisi for myselfmoi même.
17
50390
3483
ce qui n'est pas quelque chose
que j'aurais naturellement choisi.
01:06
But going to this campcamp,
18
54280
1907
Mais en allant à ce camp,
01:08
I was furtherplus loin shockedchoqué to realizeprendre conscience de
that it was actuallyréellement really funamusement.
19
56211
4523
j'ai été encore plus choquée de réaliser
que c'était très amusant.
01:13
They talkeda parlé very little about politicspolitique.
20
61180
2215
Ils ont très peu parlé de politique.
01:15
It was mostlyla plupart learningapprentissage how to ridebalade horsesles chevaux,
21
63419
3013
C'était principalement
apprendre à monter à cheval,
01:18
shootingtournage a bowarc and arrowflèche,
22
66456
1868
tirer avec un arc et des flèches,
01:20
livevivre musicla musique at night,
23
68348
1687
de la musique le soir,
01:22
freegratuit foodaliments and alcoholde l'alcool,
24
70059
1969
de la nourriture et de l'alcool gratuits,
01:24
alsoaussi some air-gunCanon à air targetcible practiceentraine toi
25
72052
2866
du tir sur cible avec des armes
à air comprimé
01:26
usingen utilisant mainstreamcourant dominant politicians'des politiciens
facesvisages as targetscibles.
26
74942
3654
avec pour cible le visage
des principaux politiciens.
01:30
And this seemedsemblait like a very,
actuallyréellement, friendlyamical, inclusivecompris groupgroupe
27
78620
3727
Cela semblait être un groupe
très amical et ouvert
01:34
untiljusqu'à you startedcommencé talkingparlant or mentioningmentionner
anything to do with the RomaRoma populationpopulation,
28
82371
5413
jusqu'à ce que vous mentionniez quoi que
ce soit en lien avec la population rom,
01:39
JewishJuif people or immigrantsimmigrés,
29
87808
2262
les juifs ou les immigrants,
01:42
and then the discoursediscours would becomedevenir
very hate-basedaxée sur la haine very quicklyrapidement.
30
90094
4150
alors le discours se basait
très vite sur la haine.
01:46
So it led me into my work now,
31
94843
2810
Cela m'a menée à mon travail actuel
01:49
where we posepose the questionquestion,
32
97677
2381
où nous posons la question :
01:52
"Why do people joinjoindre
violentviolent extremistextrémiste movementsmouvements,
33
100082
3040
« Pourquoi les gens adhèrent-ils
à des mouvements extrémistes violents
01:55
and how do we effectivelyefficacement
countercompteur these processesprocessus?"
34
103146
3031
et comment contrer
efficacement ces processus ? »
01:58
In the aftermathconséquences of horriblehorrible
atrocitiesatrocités and attacksattaques
35
106573
3291
Dans le sillage d'horribles
atrocités et attaques
02:01
in placesdes endroits like BelgiumBelgique, FranceFrance,
but all over the worldmonde,
36
109888
3363
dans des endroits comme la Belgique,
la France mais à travers le monde,
02:05
sometimesparfois it's easierPlus facile for us to think,
37
113275
1833
il est parfois plus simple de penser :
02:07
"Well, these mustdoit be sociopathssociopathes,
38
115132
1945
« Ce doit être des sociopathes,
02:09
these mustdoit be naturallynaturellement
violentviolent individualspersonnes.
39
117101
3064
ce doit être des individus
naturellement violents.
02:12
They mustdoit have something wrongfaux
with theirleur upbringingéducation."
40
120189
2596
Quelque chose doit clocher
dans leur éducation. »
02:14
And what's really tragictragique
41
122809
2087
Ce qui est tragique
02:16
is that oftentimessouvent there's no one profileVoir le profil.
42
124920
2191
est que, souvent,
il n'y a pas de profil unique.
02:19
ManyDe nombreux people come
from educatedéduqué backgroundsarrière-plans,
43
127135
3254
Beaucoup de gens sont éduqués,
02:22
differentdifférent socioeconomicsocioéconomiques backgroundsarrière-plans,
44
130413
2096
sont d'origines
socio-économiques diverses,
02:24
menHommes and womenfemmes, differentdifférent agesâge,
45
132533
2848
des hommes et des femmes, différents âges,
02:27
some with familiesdes familles, some singleunique.
46
135405
2278
certains ayant une famille,
d'autres célibataires.
02:29
So why? What is this allureallure?
47
137707
2655
Pourquoi ? Qu'est-ce qui les attire ?
02:32
And this is what
I want to talk you throughpar,
48
140386
2049
C'est de cela dont je veux vous parler,
02:34
as well as how do we
challengedéfi this in a modernmoderne eraère?
49
142459
2887
ainsi que comment remettre cela
en question à l'ère moderne.
02:38
We do know, throughpar researchrecherche,
50
146711
1483
Nous savons, grâce à des études,
02:40
that there are quiteassez a numbernombre
of differentdifférent things
51
148218
2356
qu'il y a un certain nombre
de choses différentes
02:42
that affectaffecter somebody'squelqu'un est
processprocessus of radicalizationradicalisation,
52
150598
3351
qui influencent le processus
de radicalisation de quelqu'un
02:45
and we categorizecatégoriser these
into pushpousser and pulltirer factorsfacteurs.
53
153973
2770
catégorisées en facteurs
d'attraction et de répulsion.
02:48
And these are prettyjoli much similarsimilaire
for FarJusqu'à maintenant Right, neo-NaziNéo-nazis groupsgroupes
54
156767
3413
Ces choses sont similaires pour
les groupes d'extrême-droite, néo-nazis,
02:52
all the way to IslamistIslamiste extremistextrémiste
and terroristactivités terroristes groupsgroupes.
55
160204
2904
jusqu'aux groupes islamistes
extrémistes et terroristes.
02:55
And pushpousser factorsfacteurs are basicallyen gros
what makesfait du you vulnerablevulnérable
56
163663
3858
Les facteurs de répulsion
sont ce qui vous rend vulnérable
02:59
to a processprocessus of radicalizationradicalisation,
57
167545
1858
à un processus de radicalisation,
03:01
to joiningjoindre a violentviolent extremistextrémiste groupgroupe.
58
169427
2206
à l'adhésion à un groupe
extrémiste violent.
03:03
And these can be
a lot of differentdifférent things,
59
171657
2126
Cela peut être beaucoup
de choses différentes,
03:05
but roughlygrossièrement, a sensesens of alienationaliénation,
a sensesens of isolationisolement,
60
173807
3913
en général : un sentiment d'aliénation ;
un sentiment d'isolement ;
03:09
questioninginterrogatoire your ownposséder identityidentité,
61
177744
2151
un questionnement de son identité ;
03:11
but alsoaussi feelingsentiment that your in-groupendogroupe
is underen dessous de attackattaque,
62
179919
2826
mais également le sentiment
que votre groupe est attaqué
03:14
and your in groupgroupe mightpourrait be basedbasé
on a nationalitynationalité or an ethnicityorigine ethnique
63
182769
3793
et votre groupe peut être basé
sur une nationalité, une ethnie
03:18
or a religionreligion,
64
186586
1326
ou une religion ;
03:19
and feelingsentiment that largerplus grand powerspouvoirs around you
are doing nothing to help.
65
187936
3611
un sentiment que les puissances
autour de vous ne font rien pour aider.
03:24
Now, pushpousser factorsfacteurs aloneseul
do not make you a violentviolent extremistextrémiste,
66
192075
3421
Les facteurs de répulsion seuls
ne font pas de vous un extrémiste violent
03:27
because if that were the factfait,
67
195520
1430
car si c'était le cas,
03:28
those sameMême factorsfacteurs would go
towardsvers a groupgroupe like the RomaRoma populationpopulation,
68
196974
3270
les mêmes facteurs s'appliqueraient
à un groupe tel que la population rom
03:32
and they're not
a violentlyviolemment mobilizedmobilisé groupgroupe.
69
200268
2781
et ce n'est pas un groupe
violemment mobilisé.
03:35
So we have to look at the pulltirer factorsfacteurs.
70
203073
2287
Nous devons considérer
les facteurs d'attraction.
03:37
What are these violentviolent
extremistextrémiste organizationsorganisations offeringoffre
71
205384
3310
Qu'offrent ces organisations
extrémistes violentes
03:40
that other groupsgroupes are not offeringoffre?
72
208718
1945
que d'autres groupes n'offrent pas ?
03:42
And actuallyréellement, this is usuallyd'habitude
very positivepositif things,
73
210687
2563
Ce sont en général
des choses très positives,
03:45
very seeminglyapparemment empoweringautonomiser things,
74
213274
2017
très stimulantes,
03:47
suchtel as brotherhoodFraternité and sisterhoodsororité
75
215315
2463
telles que la fraternité
et un sentiment d'appartenance.
03:49
and a sensesens of belongingappartenance,
76
217802
1334
03:51
as well as givingdonnant somebodyquelqu'un
a spiritualspirituel purposeobjectif,
77
219160
2874
Ils offrent également
un objectif spirituel,
03:54
a divinedivine purposeobjectif
to buildconstruire a utopianutopique societysociété
78
222058
3715
un objectif divin de construction
d'une société utopique
03:57
if theirleur goalsbuts can be metrencontré,
79
225797
1921
si leurs buts sont atteints,
03:59
but alsoaussi a sensesens of empowermentautonomisation
and adventureaventure.
80
227742
2751
mais aussi un sentiment
d'émancipation et d'aventure.
04:02
When we look
at foreignétranger terroristactivités terroristes fighterscombattants,
81
230517
2043
Les combattants terroristes étrangers
04:04
we see youngJeune menHommes
with the windvent in theirleur haircheveux
82
232584
2691
sont des jeunes hommes
avec les cheveux dans le vent,
04:07
out in the desertdésert
and womenfemmes going to joinjoindre them
83
235299
2546
dans le désert
et des femmes les rejoignent
04:09
to have nuptialsmariage out in the sunsetle coucher du soleil.
84
237869
2641
pour la nuit au coucher du soleil.
04:12
It's very romanticromantique, and you becomedevenir a herohéros.
85
240534
3820
C'est très romantique,
vous devenez un héros.
04:16
For bothtous les deux menHommes and womenfemmes,
that's the propagandapropagande beingétant givendonné.
86
244378
2888
Pour les hommes et les femmes,
c'est la propagande présentée.
04:19
So what extremistextrémiste groupsgroupes are very good at
87
247667
2642
Les groupes extrémistes sont très bons
04:22
is takingprise a very complicatedcompliqué,
confusingdéroutant, nuancednuancée worldmonde
88
250333
4826
pour prendre un monde
très compliqué, déroutant et nuancé
04:27
and simplifyingsimplifier that worldmonde
into blacknoir and whiteblanc,
89
255183
3243
et simplifier ce monde en noir et blanc,
04:30
good and evilmal.
90
258450
1210
en bien et mal.
04:31
And you becomedevenir what is good,
91
259684
1881
Vous devenez ce qui est bon
04:33
challengingdifficile what is evilmal.
92
261589
1855
et défiez ce qui est mal.
04:36
So I want to talk a little bitbit
about ISISISIS, DaeshDaesh,
93
264541
3864
J'aimerais parler un peu de Daech,
04:40
because they have been a gameJeu changerchangeur
in how we look at these processesprocessus,
94
268429
4378
car ils ont changé la donne
concernant notre regard sur ces processus,
04:44
and throughpar a lot of the materialMatériel
and theirleur tacticstactiques.
95
272831
3206
via leur matériel et leurs tactiques.
04:48
They're very much a modernmoderne movementmouvement.
96
276061
2548
C'est un mouvement très moderne.
04:50
One of the aspectsaspects is the internetl'Internet
and the usageusage of socialsocial mediamédias,
97
278925
4485
L'un des aspects est internet
et l'utilisation des réseaux sociaux,
04:55
as we'venous avons all seenvu in headlinesManchettes
tweetinggazouille and videosvidéos of beheadingsdécapitations.
98
283434
4382
nous avons tous vu les gros titres,
les tweets et les vidéos de décapitations.
04:59
But the internetl'Internet aloneseul
does not radicalizeradicaliser you.
99
287840
2475
Mais internet seul ne vous radicalise pas.
05:02
The internetl'Internet is a tooloutil.
100
290339
1207
Internet est un outil.
05:03
You don't go onlineen ligne shoppingachats for shoeschaussures
101
291570
1856
En achetant des chaussures en ligne,
05:05
and accidentallyaccidentellement becomedevenir a jihadistdjihadiste.
102
293450
1798
vous ne devenez pas un djihadiste.
05:07
HoweverCependant, what the InternetInternet
does do is it is a catalystcatalyseur.
103
295793
3389
Cependant, internet est un catalyseur.
05:11
It providesfournit toolsoutils and scaleéchelle and rapidityrapidité
104
299206
4119
Il fournit des outils,
une échelle, une rapidité
05:15
that doesn't existexister elsewhereautre part.
105
303349
1508
qui n'existent pas ailleurs.
05:16
And with ISISISIS, all of a suddensoudain,
106
304881
2461
Avec l'EI, tout à coup,
05:19
this ideaidée of a cloakedmasqué, darkfoncé figurefigure
of a jihadistdjihadiste changedmodifié for us.
107
307366
5318
l'idée de ce visage sombre et masqué
d'un djihadiste a changé.
05:24
All of a suddensoudain,
we were in theirleur kitchenscuisines.
108
312708
2055
Tout à coup, nous étions
dans leur cuisine.
05:26
We saw what they were eatingen mangeant for dinnerdîner.
109
314787
1999
Nous avons vu
ce qu'ils mangeaient le soir.
05:28
They were tweetinggazouille.
110
316810
1151
Ils tweetaient.
05:29
We had foreignétranger terroristactivités terroristes fighterscombattants
tweetinggazouille in theirleur ownposséder languageslangues.
111
317985
3158
Des combattants terroristes étrangers
tweetaient dans leur langue.
05:33
We had womenfemmes going out there
talkingparlant about theirleur weddingmariage day,
112
321167
2952
Des femmes se manifestaient,
parlant de leur mariage,
05:36
about the birthsnaissances of theirleur childrenles enfants.
113
324143
1747
de la naissance de leurs enfants.
05:37
We had gamingjeu cultureCulture, all of a suddensoudain,
114
325914
1897
Il y avait une culture de jeux vidéo
05:39
and referencesles références
to GrandGrand TheftVol AutoAuto beingétant madefabriqué.
115
327835
3166
et des références à Grand Theft Auto.
05:43
So all of a suddensoudain, they were homeyaccueillante.
116
331471
2461
Tout à coup, ils étaient accueillants.
05:45
They becamedevenu humanHumain.
117
333956
1151
Ils sont devenus humains.
05:47
And the problemproblème
is that tryingen essayant to countercompteur it,
118
335131
2214
Le problème est
qu'en essayant de contrer cela,
05:49
lots of governmentsGouvernements
and socialsocial mediamédias companiesentreprises
119
337369
2310
beaucoup de gouvernements
et de réseaux sociaux
05:51
just trieda essayé to censorcenseur.
120
339703
1151
ont essayé la censure.
Comment se débarrasser
du contenu terroriste ?
05:52
How do we get riddébarrasser of terroristactivités terroristes contentcontenu?
121
340878
1991
05:54
And it becamedevenu a cat-and-mousechat et la souris gameJeu
122
342893
1655
C'est un jeu du chat et de la souris
05:56
where we would see accountscomptes takenpris down
and they'dils auraient just come back up,
123
344572
3204
où des comptes étaient supprimés
et revenaient immédiatement,
05:59
and an arrogancearrogance around somebodyquelqu'un
havingayant a 25thth accountCompte
124
347800
3113
il y avait de l'arrogance
pour quelqu'un ayant un 25ème compte
06:02
and materialMatériel that was
disseminateddisséminée everywherepartout.
125
350937
3094
et du contenu disséminé partout.
06:06
But we alsoaussi saw a dangerousdangereux trendtendance --
126
354055
2021
Nous avons observé
une tendance dangereuse --
06:08
violentviolent extremistsextrémistes know the rulesrègles
and regulationsrèglements of socialsocial mediamédias, too.
127
356100
5008
les extrémistes violents aussi
connaissent les règles
et règlements des réseaux sociaux.
06:13
So we would see a banalbanal
conversationconversation with a recruiterrecruteur
128
361132
4000
Nous voyions une conversation banale
avec un recruteur
06:17
startdébut on a mainstreamcourant dominant platformPlate-forme,
129
365156
1973
sur une plateforme grand public
06:19
and at the pointpoint
at whichlequel that conversationconversation
130
367153
2081
et quand la conversation
allait devenir illégale,
06:21
was going to becomedevenir illegalillégal,
131
369258
1340
06:22
they would jumpsaut to a smallerplus petit,
lessMoins regulatedréglementé,
132
370622
2501
ils passaient à une plateforme
plus petite, moins réglementée,
06:25
more encryptedcrypté platformPlate-forme.
133
373147
1623
plus cryptée.
06:26
So all of a suddensoudain, we couldn'tne pouvait pas
trackPiste where that conversationconversation wentest allé.
134
374794
3533
Tout à coup, nous ne pouvions pas
localiser où était cette conversation.
06:30
So this is a problemproblème with censorshipcensure,
135
378351
1862
C'est un problème avec la censure,
06:32
whichlequel is why we need to developdévelopper
alternativessolutions de rechange to censorshipcensure.
136
380237
3232
c'est pourquoi nous devons développer
des alternatives à la censure.
06:36
ISISISIS is alsoaussi a game-changerjeu-changeur
because it's state-buildingrenforcement de l’État.
137
384035
3350
Daech a aussi changé la donne
car il vise à créer un État.
06:39
It's not just recruitingrecrutement combatantscombattants;
138
387409
2112
Il n'y a pas que le recrutement
de combattants,
06:41
it's tryingen essayant to buildconstruire a stateEtat.
139
389545
1862
il vise à créer un État.
06:43
And what that meansveux dire is all of a suddensoudain,
140
391431
1940
Cela signifie que tout à coup,
06:45
your recruitmentrecrutement modelmaquette is much more broadvaste.
141
393395
2000
le modèle de recrutement est plus large.
06:47
You're not just tryingen essayant to get fighterscombattants --
142
395419
2049
Il ne s'agit pas que
d'avoir des combattants,
06:49
now you need architectsarchitectes, engineersingénieurs,
accountantscomptables, hackerspirates and womenfemmes.
143
397492
4266
il faut des architectes, des ingénieurs,
des comptables, des pirates et des femmes.
06:53
We'veNous avons actuallyréellement seenvu
a hugeénorme increaseaugmenter of womenfemmes going
144
401782
2390
Nous avons vu une forte
augmentation des femmes
06:56
in the last 24, but especiallynotamment 12 monthsmois.
145
404196
3499
adhérant les 24 et surtout
les 12 derniers mois.
06:59
Some countriesdes pays, one in fourquatre
of the people going over to joinjoindre
146
407719
2889
Dans certains pays, une personne
sur quatre rejoignant le combat
07:02
are now womenfemmes.
147
410632
1239
est une femme.
07:03
And so, this really changeschangements
148
411895
1368
Cela change vraiment
07:05
who we're tryingen essayant to countercompteur
this processprocessus with.
149
413287
2782
pour qui nous essayons
de contrer ce processus.
07:08
Now, not all doomcondamner and gloommorosité.
150
416679
1651
Tout n'est pas sombre.
07:10
So the restdu repos I'd like to talk about
some of the positivepositif things
151
418354
2960
J'aimerais parler de choses positives
07:13
and the newNouveau innovationinnovation in tryingen essayant
to preventprévenir and countercompteur violentviolent extremismextrémisme.
152
421338
3844
et de l'innovation pour essayer
de prévenir et de contrer
le terrorisme violent.
07:17
PreventingPrévention is very differentdifférent
than counteringdans la lutte,
153
425206
2273
Prévenir et contrer
sont deux choses différentes
07:19
and actuallyréellement, you can think of it
in medicalmédical termstermes.
154
427503
2556
et vous pouvez le voir
comme des termes médicaux.
07:22
So preventativepréventif medicinemédicament is,
155
430083
2222
La médecine préventive,
07:24
how do we make it
so you are naturallynaturellement resilientrésiliente
156
432329
3174
c'est s'assurer que vous soyez
naturellement résistants
07:27
to this processprocessus of radicalizationradicalisation,
157
435527
2500
à ce processus de radicalisation
07:30
whereastandis que that is going to be differentdifférent
158
438051
1862
tandis que cela sera différent
07:31
if somebodyquelqu'un is alreadydéjà showingmontrer
a symptomsymptôme or a signsigne
159
439937
2659
si quelqu'un présente déjà
des symptômes ou un signe
07:34
of belongingappartenance to a violentviolent
extremistextrémiste ideologyidéologie.
160
442620
2881
d'appartenance à une idéologie
extrémiste violente.
07:37
And so in preventativepréventif measuresles mesures,
161
445525
1547
Dans les mesures préventives,
07:39
we're talkingparlant more
about really broadvaste groupsgroupes of people
162
447096
2691
nous parlons plus
de larges groupes de gens
07:41
and exposureexposition to ideasidées
163
449811
1817
et de l'exposition à des idées
07:43
to make them resilientrésiliente.
164
451652
1767
pour les rendre résistants.
07:45
WhereasAlors que it's very differentdifférent
165
453443
1516
Cela est très différent
07:46
if somebodyquelqu'un is startingdépart to questionquestion
and agreese mettre d'accord with certaincertain things onlineen ligne,
166
454983
3825
si quelqu'un se pose des questions
et est d'accord avec des choses en ligne.
07:50
and it's alsoaussi very differentdifférent
if somebodyquelqu'un alreadydéjà has a swastikacroix gammée tattootatouage
167
458832
3849
C'est aussi très différent si quelqu'un
a déjà un tatouage de croix gammée
07:54
and is very much embeddedintégré withindans a groupgroupe.
168
462705
2048
et est très intégré à un groupe.
07:56
How do you reachatteindre them?
169
464777
1434
Comment établir le contact ?
07:58
So I'd like to go throughpar threeTrois examplesexemples
of eachchaque one of those levelsles niveaux
170
466785
3682
J'aimerais évoquer trois exemples
de chacun de ces trois niveaux
08:02
and talk you throughpar
171
470491
1215
et vous expliquer
08:03
what some of the newNouveau waysfaçons
of engagingengageant with people are becomingdevenir.
172
471730
3316
certaines des nouvelles méthodes
pour engager le dialogue avec les gens.
08:07
One is "ExtremeExtrême DialogueDialogue,"
173
475374
1413
Il y a « Dialogue extrême »,
08:08
and it's an educationaléducatif programprogramme
that we helpedaidé developdévelopper.
174
476811
3080
c'est un programme éducatif
que nous avons aidé à développer.
08:11
This one is from CanadaCanada,
175
479915
2381
Il vient du Canada
08:14
and it's meantsignifiait to createcréer dialoguesDialogues
withindans a classroomSalle de classe settingréglage,
176
482320
4095
et il est censé créer des dialogues
dans une salle de classe
08:18
usingen utilisant storytellingnarration,
177
486439
1532
grâce à la narration,
08:19
because violentviolent extremismextrémisme
can be very harddifficile to try to explainExplique,
178
487995
3151
car l'extrémisme violent peut être
très difficile à expliquer,
08:23
especiallynotamment to youngerplus jeune individualspersonnes.
179
491170
1699
en particulier aux plus jeunes.
08:25
So we have a networkréseau of formerancien extremistsextrémistes
and survivorssurvivants of extremismextrémisme
180
493305
3913
Nous avons un réseau d'anciens extrémistes
et de survivants de l'extrémisme
08:29
that tell theirleur storieshistoires throughpar videovidéo
and createcréer question-givingremise des question to classroomssalles de classe,
181
497242
3937
qui racontent leur histoire en vidéo
et soulèvent des questions pour la classe
08:33
to startdébut a conversationconversation about the topicsujet.
182
501203
2303
afin de lancer
une conversation sur ce sujet.
08:35
These two examplesexemples showmontrer ChristianneChristianne,
183
503530
2532
Ces deux exemples montrent
comment Christiane,
08:38
who lostperdu her sonfils,
184
506086
1151
qui a perdu son fils
08:39
who radicalizedradicalisé and dieddécédés
fightingcombat for ISISISIS,
185
507261
2493
qui s'est radicalisé et est mort
en se battant pour l'EI,
08:41
and DanielDaniel is a formerancien neo-NaziNéo-nazis
186
509778
1667
et Daniel, ancien néo-nazi,
08:43
who was an extremelyextrêmement violentviolent neo-NaziNéo-nazis,
187
511469
2358
qui était un néo-nazi extrêmement violent.
08:45
and they posepose questionsdes questions about theirleur livesvies
and where they're at and regretle regret,
188
513851
4158
Ils posent des questions sur leur vie,
où ils en sont et ce qu'ils regrettent,
08:50
and forceObliger a classroomSalle de classe
to have a dialoguedialogue around it.
189
518033
2650
poussant la classe
à avoir un dialogue à ce sujet.
08:53
Now, looking at that middlemilieu rangegamme
of individualspersonnes,
190
521175
2985
En considérant cette plage
moyenne d'individus,
08:56
actuallyréellement, we need a lot
of civilcivil societysociété voicesvoix.
191
524184
2699
nous avons besoin de beaucoup
de voix de la société civile.
08:58
How do you interactinteragir with people
that are looking for informationinformation onlineen ligne,
192
526907
3445
Comment interagir avec des gens
cherchant des informations en ligne,
09:02
that are startingdépart to toyjouet with an ideologyidéologie,
193
530376
2342
commençant à jouer avec une idéologie,
09:04
that are doing those searchingrecherche
identityidentité questionsdes questions?
194
532742
3064
se posant ces questions
à la recherche de leur identité ?
09:07
How do we providefournir alternativessolutions de rechange for that?
195
535830
2142
Comment fournir des alternatives ?
09:09
And that's when we combinecombiner
largegrand groupsgroupes of civilcivil societysociété voicesvoix
196
537996
3390
C'est là que nous combinons de grands
groupes de voix de la société civile
09:13
with creativesCreatives, techiestechies,
appapplication developersles développeurs, artistsartistes, comedianscomédiens,
197
541410
4531
avec des créateurs, des technophiles,
des développeurs d'applications,
des artistes, des comédiens
09:17
and we can createcréer really specifiedspécifié contentcontenu
198
545965
2683
et nous pouvons créer
du contenu spécifique
09:20
and actuallyréellement, onlineen ligne, disseminatediffuser it
to very strategicstratégique audiencespublic.
199
548672
4294
et le disséminer en ligne
aux publics stratégiques.
09:24
So one exampleExemple would be
creatingcréer a satiricalsatirique videovidéo
200
552990
2803
Un exemple serait de créer
une vidéo satirique
09:27
whichlequel makesfait du funamusement of IslamophobiaIslamophobie,
201
555817
2499
qui se moque de l'islamophobie
09:30
and targetingciblage it
to 15- to 20-year-olds-ans onlineen ligne
202
558340
3936
et de cibler en ligne
les gens de 15 à 20 ans
09:34
that have an interestintérêt in whiteblanc powerPuissance musicla musique
203
562300
2247
qui sont intéressés
par la musique du pouvoir blanc
09:36
and livevivre specificallyPlus précisément in ManchesterManchester.
204
564571
2399
et vivent à Manchester.
09:38
We can use these marketingcommercialisation toolsoutils
to be very specificspécifique,
205
566994
3031
Nous pouvons utiliser ces outils
de marketing pour être spécifiques
09:42
so that we know
when somebody'squelqu'un est viewingvisualisation, watchingen train de regarder
206
570049
2723
afin de savoir que,
quand quelqu'un regarde
09:44
and engagingengageant with that contentcontenu,
207
572796
1489
et s'intéresse à ce contenu,
09:46
it's not just the averagemoyenne personla personne,
it's not me or you --
208
574309
2630
ce n'est pas une personne ordinaire,
ni moi ni vous,
09:48
it's a very specificspécifique audiencepublic
that we are looking to engageengager with.
209
576963
3107
c'est un public spécifique
avec lequel nous voulons interagir.
09:52
Even more downstreamen aval, we developeddéveloppé
a pilotpilote programprogramme calledappelé "One to One,"
210
580704
3699
Encore plus en aval, nous avons développé
un programme, « Tête à tête »,
09:56
where we tooka pris formerancien extremistsextrémistes
211
584427
1549
où d'anciens extrémistes
09:58
and we had them reachatteindre out directlydirectement
to a groupgroupe of labeledétiqueté neofascistsneofascists
212
586000
4864
prenaient directement contact
avec un groupe classifié comme néofasciste
10:02
as well as IslamistIslamiste extremistsextrémistes,
213
590888
1624
et des extrémistes islamistes
10:04
and put directdirect messagesmessages throughpar FacebookFacebook
MessengerMessager into theirleur inboxboîte de réception, sayingen disant,
214
592536
3815
en envoyant dans leur boîte de réception
sur Facebook des messages disant :
10:08
"Hey, I see where you're going.
I've been there.
215
596375
2286
« Hé ! J'ai vu où tu allais.
Je suis passé par là.
10:10
If you want to talk, I'm here."
216
598685
1542
Si tu veux parler, je suis là. »
10:12
Now, we kindgentil of expectedattendu deathdécès threatsmenaces
from this sortTrier of interactioninteraction.
217
600251
3254
Nous nous attendions à des menaces
de mort avec ces interactions.
10:15
It's a little alarmingalarmant to have
a formerancien neo-NaziNéo-nazis say, "Hey, how are you?"
218
603529
4420
C'est alarmant qu'un ancien néo-nazi
vous demande comment ça va.
10:19
But actuallyréellement, we founda trouvé
that around 60 percentpour cent
219
607973
2207
Nous avons découvert qu'environ 60%
10:22
of the people reachedatteint out to respondeda répondu,
220
610204
2554
des personnes contactées répondaient
10:24
and of that, around anotherun autre 60 percentpour cent
had sustainedsoutenu engagementengagement,
221
612782
4085
et, parmi elles, environ 60%
avaient une discussion pérenne,
10:28
meaningsens that they were
havingayant conversationsconversations
222
616891
2056
elles avaient des conversations
10:30
with the hardestle plus dur people to reachatteindre
about what they were going throughpar,
223
618971
3216
avec des gens difficiles à atteindre
quant à ce qu'ils traversaient,
10:34
plantingla plantation seedsdes graines of doubtdoute
224
622211
1151
plantant des doutes
10:35
and givingdonnant them alternativessolutions de rechange
for talkingparlant about these subjectssujets,
225
623386
2992
et leur offrant des alternatives
pour parler de ces sujets
10:38
and that's really importantimportant.
226
626402
1350
et c'est très important.
10:41
So what we're tryingen essayant to do
227
629061
2223
Ce que nous essayons de faire,
10:43
is actuallyréellement bringapporter
unlikelyimprobable sectorssecteurs to the tabletable.
228
631308
2905
c'est de rassembler des gens
de secteurs invraisemblables.
10:46
We have amazingincroyable activistsmilitants
all over the worldmonde,
229
634237
2326
Nous avons de super activistes
à travers le monde
10:48
but oftentimessouvent,
theirleur messagesmessages are not strategicstratégique
230
636587
2366
mais souvent, leurs messages
ne sont pas stratégiques
10:50
or they don't actuallyréellement reachatteindre
the audiencespublic they want to reachatteindre.
231
638977
2906
ou n'atteignent pas les publics cibles.
10:53
So we work with networksréseaux
of formerancien extremistsextrémistes.
232
641907
2239
Nous travaillons avec
ces réseaux d'anciens extrémistes,
10:56
We work with networksréseaux of youngJeune people
in differentdifférent partsles pièces of the worldmonde.
233
644170
3429
des réseaux de jeunes gens
dans divers endroits du monde.
10:59
And we work with them
to bringapporter the techtechnologie sectorsecteur to the tabletable
234
647623
2770
Nous travaillons avec eux
pour rassemble les technophiles,
11:02
with artistsartistes and creativesCreatives
and marketingcommercialisation expertisecompétence
235
650417
2818
des artistes, des créatifs,
des experts du marketing
11:05
so that we can actuallyréellement have
a more robustrobuste and challengingdifficile of extremismextrémisme
236
653259
5001
afin de contester
de façon plus robuste l'extrémisme
11:10
that workstravaux togetherensemble.
237
658284
1300
en travaillant ensemble.
11:12
So I would say
that if you are in the audiencepublic
238
660074
2580
Je dirais que si vous êtes dans le public
11:14
and you happense produire to be a graphicgraphique designerdesigner,
239
662678
2699
et que vous êtes graphiste,
11:17
a poetpoète, a marketingcommercialisation expertexpert,
240
665401
2182
poète, expert en marketing,
11:19
somebodyquelqu'un that workstravaux in PRPR,
241
667607
1909
un attaché de presse,
11:21
a comediancomédien --
242
669540
1353
comédien --
11:22
you mightpourrait not think
that this is your sectorsecteur,
243
670917
2151
vous pensez peut-être
que ce n'est pas votre secteur
11:25
but actuallyréellement, the skillscompétences
that you have right now
244
673092
2739
mais les compétences que vous avez
11:27
mightpourrait be exactlyexactement what is needednécessaire
245
675855
2003
pourraient être ce qu'il nous faut
11:29
to help challengedéfi extremismextrémisme effectivelyefficacement.
246
677882
2309
pour aider à contrer
efficacement l'extrémisme.
11:32
Thank you.
247
680215
1151
Merci.
11:33
(ApplauseApplaudissements)
248
681390
4213
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Erin Marie Saltman - Policy researcher
Dr. Erin Marie Saltman manages Facebook's counterterrorism and counter-extremism policy work for Europe, the Middle East and Africa.

Why you should listen

Dr. Erin Marie Saltman's background and expertise includes both Far Right and Islamist extremist processes of radicalization within a range of regional and socio-political contexts. Her research and publications have focused on the evolving nature of online extremism and terrorismgender dynamics within violent extremist organizations and youth radicalization. Saltman has previously held senior research positions at Quilliam Foundation and the Institute for Strategic Dialogue, where she managed international programs. She has also worked with local activists, artists and techies to challenge violent extremism.

As Facebook's Counterterrorism Policy Manager based in London, Saltman regularly speaks with both governments and NGOs on issues related to how Facebook counters terrorism and violent extremism. She has also helped establish the Global Internet Forum to Counter Terrorism, bringing together leading industry partners (Facebook, Google, Microsoft and Twitter) with smaller startups and tech companies to create cross-platform knowledge sharing, technology solutions and research. 

Saltman remains a Research Fellow at the Institute for Strategic Dialogue. She is a graduate of Columbia University (BA) and University College London (MA and PhD). View her articles and publications here.

More profile about the speaker
Erin Marie Saltman | Speaker | TED.com