ABOUT THE SPEAKER
Yasmin Green - Geopolitical technologist
Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. focused on solving global security challenges through technology.

Why you should listen

Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. (formerly Google Ideas), focused on using tech tools to make the world safer, both on and offline. She has experience leading projects in some of the world’s toughest environments, including Iran, Syria, the UAE and Nigeria. In 2012, she led a multi-partner coalition to launch Against Violent Extremism, the world's first online network of former violent extremists and survivors of terrorism. Based on her own interviews with ISIS defectors and jailed recruits, last year Yasmin launched the Redirect Method, a new deployment of targeted advertising and video to confront online radicalization.

Green is a senior advisor on innovation to Oxford Analytica, a member of the Aspen Cyber Strategy Group, and until 2015 co-chaired the European Commission's Working Group on Online Radicalization. She was named one of Fortune's "40 Under 40" most influential young leaders in 2017, and in 2016 she was named one of Fast Company's "Most Creative People in Business."

More profile about the speaker
Yasmin Green | Speaker | TED.com
TED2018

Yasmin Green: How technology can fight extremism and online harassment

Yasmin Green: Comment la technologie peut lutter contre l'extrémisme et le cyber-harcèlement

Filmed:
2,460,759 views

La technologie peut-elle protéger les gens des menaces telles que l'extrémisme violent, la censure et la persécution ? Dans cette intervention révélatrice, la technologiste Yasmin Green détaille les programmes pionniers lancés chez Jigsaw (une unité au sein d'Alphabet Inc., l'ensemble d'entreprises qui comprend notamment Google) pour lutter contre la radicalisation et le cyber-harcèlement, y compris un projet qui pourrait donner aux gens laissant des commentaires un retour en temps réel sur la manière dont leurs mots pourraient être interprétés et qui a déjà permis d'augmenter le nombre d'espaces de dialogue. « Si nous pensions que nous pouvions développer un internet isolé du côté obscur de l'humanité, nous avions tort, dit Green. Nous devons nous lancer complètement dans la compréhension des problèmes et la création de solutions qui sont aussi humaines que les problèmes qu'elles ont l'ambition de résoudre. »
- Geopolitical technologist
Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. focused on solving global security challenges through technology. Full bio

Double-click the English transcript below to play the video.

00:13
My relationshiprelation with the internetl'Internet
remindsrappelle me of the setupprogramme d’installation
0
1131
4411
Ma relation avec internet
me rappelle le début stéréotypé
00:17
to a clichclichéd horrorhorreur moviefilm.
1
5566
1833
d'un film d'horreur.
00:19
You know, the blissfullybéatement happycontent familyfamille
movesse déplace in to theirleur perfectparfait newNouveau home,
2
7867
4386
La famille parfaitement heureuse
emménage dans sa parfaite nouvelle maison,
00:24
excitedexcité about theirleur perfectparfait futureavenir,
3
12277
2281
enthousiaste au sujet
de son parfait avenir,
00:26
and it's sunnyensoleillée outsideà l'extérieur
and the birdsdes oiseaux are chirpinggazouillis ...
4
14582
3521
il fait beau dehors
et les oiseaux pépient...
00:30
And then it getsobtient darkfoncé.
5
18857
1839
Puis la nuit tombe.
00:32
And there are noisesdes bruits from the atticgrenier.
6
20720
2348
Il y a des bruits dans le grenier.
00:35
And we realizeprendre conscience de that that perfectparfait
newNouveau housemaison isn't so perfectparfait.
7
23092
4345
Nous réalisons que cette parfaite
nouvelle maison n'est pas si parfaite.
00:40
When I startedcommencé workingtravail at GoogleGoogle in 2006,
8
28485
3131
Quand j'ai commencé à travailler
chez Google en 2006,
00:43
FacebookFacebook was just a two-year-olddeux ans,
9
31640
1767
Facebook n'avait que deux ans
00:45
and TwitterTwitter hadn'tn'avait pas yetencore been bornnée.
10
33431
2012
et Twitter n'était pas encore né.
00:47
And I was in absoluteabsolu aweAWE
of the internetl'Internet and all of its promisepromettre
11
35848
4410
J'étais totalement émerveillée
par internet et sa promesse
00:52
to make us closerplus proche
12
40282
1437
de nous rapprocher,
00:53
and smarterplus intelligent
13
41743
1296
de nous rendre
plus intelligents et plus libres.
00:55
and more freegratuit.
14
43063
1214
00:57
But as we were doing the inspiringinspirant work
of buildingbâtiment searchchercher enginesles moteurs
15
45265
3714
Alors que nous créions
des moteurs de recherche,
01:01
and video-sharingpartage de vidéos sitesdes sites
and socialsocial networksréseaux,
16
49003
2886
des sites de partage de vidéos
et des réseaux sociaux,
01:04
criminalscriminels, dictatorsdictateurs and terroristsles terroristes
were figuringfigurer out
17
52907
4304
les criminels, les dictateurs
et les terroristes comprenaient
01:09
how to use those sameMême
platformsplateformes againstcontre us.
18
57235
3202
comment utiliser
ces mêmes plateformes contre nous.
01:13
And we didn't have
the foresightprospective to stop them.
19
61417
2455
Nous n'avons pas eu la clairvoyance
de les en empêcher.
01:16
Over the last fewpeu yearsannées, geopoliticalgéopolitique
forcesles forces have come onlineen ligne to wreakSemez havocravages.
20
64746
5099
Ces dernières années,
des forces géopolitiques
ont causé des ravages en ligne.
01:21
And in responseréponse,
21
69869
1169
En réponse à cela,
01:23
GoogleGoogle supportedprise en charge a fewpeu colleaguescollègues and me
to setensemble up a newNouveau groupgroupe calledappelé JigsawScie sauteuse,
22
71062
4778
Google a soutenu quelques collègues et moi
dans la création d'un groupe, Jigsaw,
01:27
with a mandatemandat to make people saferplus sûr
from threatsmenaces like violentviolent extremismextrémisme,
23
75864
4596
ayant pour mandat de protéger les gens
des menaces comme l'extrémisme violent,
01:32
censorshipcensure, persecutionpersécution --
24
80484
2078
la censure, la persécution...
01:35
threatsmenaces that feel very personalpersonnel to me
because I was bornnée in IranIran,
25
83186
4117
Des menaces qui me semblent
très personnelles car je suis née en Iran
01:39
and I left in the aftermathconséquences
of a violentviolent revolutionrévolution.
26
87327
2929
et je suis partie au lendemain
d'une révolution violente.
01:43
But I've come to realizeprendre conscience de
that even if we had all of the resourcesRessources
27
91525
4346
Mais j'ai réalisé que,
même si nous avions toutes les ressources
01:47
of all of the technologyLa technologie
companiesentreprises in the worldmonde,
28
95895
2858
de toutes les entreprises
de technologie du monde,
01:51
we'dmer still failéchouer
29
99595
1230
nous échouerions
01:53
if we overlookednégligé one criticalcritique ingredientingrédient:
30
101586
2948
si nous négligions un ingrédient crucial :
01:57
the humanHumain experiencesexpériences of the victimsles victimes
and perpetratorsauteurs of those threatsmenaces.
31
105653
5789
les expériences humaines des victimes
et des auteurs de ces menaces.
02:04
There are manybeaucoup challengesdéfis
I could talk to you about todayaujourd'hui.
32
112935
2736
Je pourrais vous parler
de nombreux défis aujourd'hui.
02:07
I'm going to focusconcentrer on just two.
33
115695
1504
Je vais me concentrer sur deux.
02:09
The first is terrorismterrorisme.
34
117623
2079
Le premier est le terrorisme.
02:13
So in ordercommande to understandcomprendre
the radicalizationradicalisation processprocessus,
35
121563
2557
Afin de comprendre
le processus de radicalisation,
02:16
we metrencontré with dozensdouzaines of formerancien membersmembres
of violentviolent extremistextrémiste groupsgroupes.
36
124144
4287
nous avons rencontré
des dizaines d'anciens membres
de groupes extrémistes violents.
02:21
One was a BritishBritannique schoolgirlécolière,
37
129590
2483
Parmi eux, il y avait
une écolière britannique
02:25
who had been takenpris off of a planeavion
at LondonLondres HeathrowHeathrow
38
133049
3699
qui avait été sortie d'un avion
à l'aéroport de Londres
02:28
as she was tryingen essayant to make her way
to SyriaSyrie to joinjoindre ISISISIS.
39
136772
4692
alors qu'elle essayait
d'aller en Syrie pour rejoindre Daech.
02:34
And she was 13 yearsannées oldvieux.
40
142281
1931
Elle avait 13 ans.
02:37
So I satsam down with her and her fatherpère,
and I said, "Why?"
41
145792
4625
Nous avons discuté avec elle et son père
et j'ai demandé : « Pourquoi ? »
02:42
And she said,
42
150441
1717
Elle a dit :
02:44
"I was looking at picturesdes photos
of what life is like in SyriaSyrie,
43
152182
3639
« Je regardais des photos
de ce à quoi la vie ressemblait en Syrie
02:47
and I thought I was going to go
and livevivre in the IslamicIslamique DisneyDisney WorldMonde."
44
155845
3510
et je pensais que j'allais vivre
dans un Disneyland islamique. »
02:52
That's what she saw in ISISISIS.
45
160527
2084
Voilà ce qu'elle a vu en Daech.
02:54
She thought she'dcabanon meetrencontrer and marrymarier
a jihadidjihadistes BradBrad PittPitt
46
162635
3492
Elle pensait qu'elle allait rencontrer
et épouser un Brad Pitt djihadiste,
02:58
and go shoppingachats in the mallcentre commercial all day
and livevivre happilyHeureusement ever after.
47
166151
3058
aller faire du shopping
toute la journée et vivre heureuse.
03:02
ISISISIS understandscomprend what drivesdisques people,
48
170977
2824
Daech comprend ce qui motive les gens
03:05
and they carefullysoigneusement craftartisanat a messagemessage
for eachchaque audiencepublic.
49
173825
3544
et ils élaborent soigneusement
un message pour chaque public.
03:11
Just look at how manybeaucoup languageslangues
50
179122
1511
Regardez en combien de langues
03:12
they translateTraduire theirleur
marketingcommercialisation materialMatériel into.
51
180657
2273
leur matériel promotionnel est traduit.
03:15
They make pamphletsbrochures,
radioradio showsmontre and videosvidéos
52
183677
2661
Ils créent des brochures,
des émissions de radio, des vidéos,
03:18
in not just EnglishAnglais and ArabicArabe,
53
186362
1973
pas seulement en anglais et en arabe
03:20
but GermanAllemand, RussianRusse,
FrenchFrançais, TurkishTurc, KurdishKurde,
54
188359
4767
mais en allemand, en russe,
en français, en turc, en kurde,
03:25
HebrewHébreu,
55
193150
1672
en hébreu,
03:26
MandarinMandarin ChineseChinois.
56
194846
1741
en mandarin.
03:29
I've even seenvu an ISIS-producedISIS-produit
videovidéo in signsigne languagela langue.
57
197309
4192
J'ai même vu une vidéo
produite par Daech en langue des signes.
03:34
Just think about that for a secondseconde:
58
202605
1884
Réfléchissez-y un instant :
03:36
ISISISIS tooka pris the time and madefabriqué the efforteffort
59
204513
2308
Daech a pris le temps et a fait l'effot
03:38
to ensureassurer theirleur messagemessage is reachingatteindre
the deafsourd and harddifficile of hearingaudition.
60
206845
3804
de s'assurer que son message touche
les sourds et malentendants.
03:45
It's actuallyréellement not tech-savvinessTech-sens
61
213143
2144
Ce n'est pas leur savoir-faire
technologique
03:47
that is the reasonraison why
ISISISIS winsgagne heartscœurs and mindsesprits.
62
215311
2595
qui permet de conquérir
les cœurs et les esprits.
03:49
It's theirleur insightperspicacité into the prejudicespréjugés,
the vulnerabilitiesvulnérabilités, the desiresdésirs
63
217930
4163
C'est leur connaissance des préjugés,
des vulnérabilités, des désirs
03:54
of the people they're tryingen essayant to reachatteindre
64
222117
1774
des gens qu'ils tentent d'atteindre
03:55
that does that.
65
223915
1161
qui le leur permet.
03:57
That's why it's not enoughassez
66
225718
1429
Il ne suffit donc pas
03:59
for the onlineen ligne platformsplateformes
to focusconcentrer on removingenlever recruitingrecrutement materialMatériel.
67
227171
4239
que les plateformes en ligne
se concentrent sur le retrait
des contenus de recrutement.
04:04
If we want to have a shotcoup
at buildingbâtiment meaningfulsignificatif technologyLa technologie
68
232518
3581
Si nous voulons avoir une chance
de développer une technologie utile
04:08
that's going to countercompteur radicalizationradicalisation,
69
236123
1874
pour lutter contre la radicalisation,
04:10
we have to startdébut with the humanHumain
journeypériple at its corecoeur.
70
238021
2979
nous devons commencer
par le voyage humain qui est en son cœur.
04:13
So we wentest allé to IraqIrak
71
241884
2187
Nous sommes allés en Irak
pour parler à des jeunes hommes
convaincus par la promesse de Daech
04:16
to speakparler to youngJeune menHommes
who'dqui aurait boughtacheté into ISIS'sDe ISIS promisepromettre
72
244095
2831
04:18
of heroismhéroïsme and righteousnessjustice,
73
246950
3191
d'héroïsme et de vertu,
04:22
who'dqui aurait takenpris up armsbras to fightbats toi for them
74
250165
1847
qui avaient pris les armes pour eux
04:24
and then who'dqui aurait defectedfait défection
75
252036
1338
et qui s'étaient enfuis
04:25
after they witnessedété témoin
the brutalitybrutalité of ISIS'sDe ISIS ruleRègle.
76
253398
3021
après avoir été témoins
de la brutalité du règne de Daech.
04:28
And I'm sittingséance there in this makeshiftfortune
prisonprison in the northNord of IraqIrak
77
256880
3192
Je me suis retrouvée dans cette prison
de fortune dans le nord de l'Irak
04:32
with this 23-year-old-Age who had actuallyréellement
trainedqualifié as a suicidesuicide bomberBombardier
78
260096
4550
avec ce jeune de 23 ans qui avait été
formé pour être un kamikaze
04:36
before defectingfaire défection.
79
264670
1552
avant de s'enfuir.
04:39
And he saysdit,
80
267080
1158
Il disait :
04:41
"I arrivedarrivée in SyriaSyrie fullplein of hopeespérer,
81
269119
3220
« Je suis arrivé en Syrie plein d'espoir
04:44
and immediatelyimmédiatement, I had two
of my prizedprisé possessionspossessions confiscatedconfisqués:
82
272363
4365
et immédiatement, deux de mes biens
les plus précieux ont été confisqués :
04:48
my passportpasseport and my mobilemobile phonetéléphone."
83
276752
2933
mon passeport et mon téléphone portable. »
04:52
The symbolssymboles of his physicalphysique
and digitalnumérique libertyliberté
84
280140
2406
Les symboles de sa liberté
physique et numérique
04:54
were takenpris away from him on arrivalarrivée.
85
282570
1760
lui ont été ôtés à son arrivée.
04:57
And then this is the way he describeddécrit
that momentmoment of lossperte to me.
86
285248
3510
Voici comment il m'a décrit
ce moment de perte.
05:01
He said,
87
289356
1586
Il a dit :
05:02
"You know in 'Tom' Tom and JerryJerry,'
88
290966
2329
« Vous savez, dans « Tom et Jerry »,
05:06
when JerryJerry wants to escapeéchapper,
and then TomTom locksserrures the doorporte
89
294192
3103
quand Jerry veut s'échapper
et que Tom ferme la porte à clé
05:09
and swallowshirondelles the keyclé
90
297319
1156
et avale la clé
05:10
and you see it bulgingrenflement out
of his throatgorge as it travelsvoyages down?"
91
298499
3551
et vous la voyez passer dans sa gorge ? »
05:14
And of coursecours, I really could see
the imageimage that he was describingdécrivant,
92
302446
3153
Bien sûr, je pouvais voir
l'image qu'il décrivait
05:17
and I really did connectrelier with the feelingsentiment
that he was tryingen essayant to conveytransmettre,
93
305623
3661
et l'associer au sentiment
qu'il essayait de communiquer,
05:21
whichlequel was one of doomcondamner,
94
309308
2021
le sentiment d'être condamné,
05:23
when you know there's no way out.
95
311353
1789
quand vous savez qu'il n'y a pas d'issue.
05:26
And I was wonderingme demandant:
96
314551
1289
Je me suis demandé :
05:28
What, if anything,
could have changedmodifié his mindesprit
97
316644
2682
qu'est-ce qui aurait pu
lui faire changer d'avis
05:31
the day that he left home?
98
319350
1240
le jour où il est parti ?
05:32
So I askeda demandé,
99
320614
1250
J'ai demandé :
05:33
"If you knewa connu everything that you know now
100
321888
3178
« Si vous saviez tout ce que
vous savez maintenant
05:37
about the sufferingSouffrance
and the corruptionla corruption, the brutalitybrutalité --
101
325090
3051
sur la souffrance,
la corruption, la brutalité,
05:40
that day you left home,
102
328165
1415
le jour où vous êtes parti,
seriez-vous parti ? »
05:41
would you still have gonedisparu?"
103
329604
1679
05:43
And he said, "Yes."
104
331786
1711
Il a dit : « Oui. »
05:45
And I thought, "HolySainte crapmerde, he said 'Yes' Oui.'"
105
333846
2282
Et j'ai pensé :
« Merde, il a dit « oui ». »
05:48
And then he said,
106
336694
1219
Puis il a dit :
05:49
"At that pointpoint, I was so brainwashedun lavage de cerveau,
107
337937
3001
« À ce moment-là, j'avais subi
un tel lavage de cerveau,
05:52
I wasn'tn'était pas takingprise in
any contradictorycontradictoires informationinformation.
108
340962
3244
je n'assimilais plus aucune
information contradictoire.
05:56
I couldn'tne pouvait pas have been swayedbalancé."
109
344744
1555
Je n'aurais pas pu être influencé.
05:59
"Well, what if you knewa connu
everything that you know now
110
347235
2527
- Et si vous aviez su
tout ce que vous savez maintenant
06:01
sixsix monthsmois before the day that you left?"
111
349786
2098
six mois avant le jour
où vous êtes parti ?
06:05
"At that pointpoint, I think it probablyProbablement
would have changedmodifié my mindesprit."
112
353345
3131
- A ce moment-là, je pense
que j'aurais probablement changé d'avis. »
06:10
RadicalizationRadicalisation isn't
this yes-or-noOui / non choicechoix.
113
358138
3397
La radicalisation n'est pas
un choix simple entre oui et non.
06:14
It's a processprocessus, duringpendant whichlequel
people have questionsdes questions --
114
362007
2977
C'est un processus, durant lequel
les gens ont des questions
06:17
about ideologyidéologie, religionreligion,
the livingvivant conditionsconditions.
115
365008
3776
au sujet de l'idéologie, la religion,
les conditions de vie.
06:20
And they're comingvenir onlineen ligne for answersréponses,
116
368808
2766
Et ils cherchent les réponses en ligne,
06:23
whichlequel is an opportunityopportunité to reachatteindre them.
117
371598
1917
ce qui offre une opportunité
de les atteindre.
06:25
And there are videosvidéos onlineen ligne
from people who have answersréponses --
118
373905
3014
Il y a des vidéos en ligne
venant de gens ayant des réponses :
des transfuges, par exemple,
racontant l'histoire de leur voyage
06:28
defectorstransfuges, for exampleExemple,
tellingrécit the storyrécit of theirleur journeypériple
119
376943
2876
06:31
into and out of violencela violence;
120
379843
1583
vers la violence et leur retour ;
06:33
storieshistoires like the one from that man
I metrencontré in the IraqiIrakien prisonprison.
121
381450
3487
des histoires comme celle d'un homme
rencontré dans une prison irakienne.
06:37
There are localsdes locaux who'vequi a uploadedtéléchargé
cellcellule phonetéléphone footagemétrage
122
385914
2590
Ce sont des locaux
qui ont publié des vidéos
06:40
of what life is really like
in the caliphatecalifat underen dessous de ISIS'sDe ISIS ruleRègle.
123
388528
3503
de ce qu'est vraiment la vie
dans le califat sous le règne de Daech.
06:44
There are clericsaux clercs who are sharingpartage
peacefulpaisible interpretationsinterprétations of IslamIslam.
124
392055
3735
Il y a des religieux qui partagent
des interprétations pacifiques de l'islam.
06:48
But you know what?
125
396830
1150
Mais vous savez quoi ?
06:50
These people don't generallygénéralement have
the marketingcommercialisation prowessprouesses of ISISISIS.
126
398004
3020
Ces gens n'ont en général pas le talent
que Daech a pour le marketing.
06:54
They riskrisque theirleur livesvies to speakparler up
and confrontaffronter terroristactivités terroristes propagandapropagande,
127
402049
4532
Ils risquent leur vie pour s'exprimer
et s'opposer à la propagande terroriste
06:58
and then they tragicallytragiquement
don't reachatteindre the people
128
406605
2211
et, tragiquement,
ils ne touchent pas les gens
07:00
who mostles plus need to hearentendre from them.
129
408840
1682
qui ont le plus besoin de les entendre.
07:03
And we wanted to see
if technologyLa technologie could changechangement that.
130
411173
2612
Nous voulions voir si la technologie
pouvait changer cela.
07:06
So in 2016, we partnereden partenariat avec with MoonshotMoonshot CVECVE
131
414205
4183
En 2016, nous avons établi
un partenariat avec Moonshot CVE
07:10
to pilotpilote a newNouveau approachapproche
to counteringdans la lutte radicalizationradicalisation
132
418412
3180
afin d'expérimenter une approche
pour lutter contre la radicalisation
07:13
calledappelé the "RedirectRedirect MethodMéthode."
133
421616
1780
appelée « Méthode de Redirection ».
07:16
It usesles usages the powerPuissance of onlineen ligne advertisingLa publicité
134
424453
3012
Elle utilise le pouvoir
de la publicité en ligne
07:19
to bridgepont the gapécart betweenentre
those susceptiblesensible to ISIS'sDe ISIS messagingMessagerie
135
427489
4514
pour rapprocher ceux qui sont
réceptifs au message de Daech
07:24
and those crediblecrédible voicesvoix
that are debunkingDémystification that messagingMessagerie.
136
432027
3760
et ces voix crédibles
qui réfutent ce message.
07:28
And it workstravaux like this:
137
436633
1150
Cela fonctionne ainsi :
07:29
someoneQuelqu'un looking for extremistextrémiste materialMatériel --
138
437807
1961
quelqu'un cherchant
du contenu extrémiste,
07:31
say they searchchercher
for "How do I joinjoindre ISISISIS?" --
139
439792
2990
cherchant, disons,
« Comment rejoindre Daech ? »,
07:34
will see an adun d appearapparaître
140
442806
2476
verra apparaître une publicité
07:37
that invitesinvite them to watch a YouTubeYouTube videovidéo
of a clericclerc, of a defectortransfuge --
141
445306
4882
qui l'invite à regarder une vidéo YouTube
d'un religieux, d'un transfuge ;
07:42
someoneQuelqu'un who has an authenticauthentique answerrépondre.
142
450212
2310
quelqu'un qui a une réponse authentique.
07:44
And that targetingciblage is basedbasé
not on a profileVoir le profil of who they are,
143
452546
3623
Ce ciblage est basé,
non pas sur un profil de leur identité,
07:48
but of determiningdéterminer something
that's directlydirectement relevantpertinent
144
456193
3053
mais sur la détermination
d'une chose pertinente
07:51
to theirleur queryrequête or questionquestion.
145
459270
1708
pour leur interrogation ou question.
07:54
DuringAu cours de our eight-weekhuit semaines pilotpilote
in EnglishAnglais and ArabicArabe,
146
462122
2842
Durant notre pilote de huit semaines
en anglais et en arabe,
07:56
we reachedatteint over 300,000 people
147
464988
3279
nous avons touché
plus de 300 000 personnes
08:00
who had expressedexprimé an interestintérêt in
or sympathyla sympathie towardsvers a jihadidjihadistes groupgroupe.
148
468291
5545
ayant exprimé de l'intérêt
ou de la sympathie
pour un groupe djihadiste.
08:06
These people were now watchingen train de regarder videosvidéos
149
474626
2264
Ces gens regardent maintenant des vidéos
08:08
that could preventprévenir them
from makingfabrication devastatingdévastateur choicesles choix.
150
476914
3340
qui pourraient les empêcher
de prendre des décisions dévastatrices.
08:13
And because violentviolent extremismextrémisme
isn't confinedconfinées to any one languagela langue,
151
481405
3727
Puisque l'extrémisme violent n'est pas
limité à une langue en particulier,
08:17
religionreligion or ideologyidéologie,
152
485156
1804
une religion ou une idéologie,
08:18
the RedirectRedirect MethodMéthode is now
beingétant deployeddéployé globallyglobalement
153
486984
3501
la méthode de redirection est en cours
de déploiement à l'échelle mondiale
08:22
to protectprotéger people beingétant courtedcourtisé onlineen ligne
by violentviolent ideologuesidéologues,
154
490509
3804
afin de protéger les gens courtisés
en ligne par des idéologues violents,
08:26
whetherqu'il s'agisse they're IslamistsIslamistes,
whiteblanc supremacistspartisans de la suprématie
155
494337
2596
que ce soient des islamistes,
des suprémacistes blancs
08:28
or other violentviolent extremistsextrémistes,
156
496957
2103
ou d'autres extrémistes violents,
08:31
with the goalobjectif of givingdonnant them the chancechance
to hearentendre from someoneQuelqu'un
157
499084
2873
avec l'objectif de leur donner
une chance d'entendre quelqu'un
08:33
on the other sidecôté of that journeypériple;
158
501981
2091
ayant suivi ce chemin ;
08:36
to give them the chancechance to choosechoisir
a differentdifférent pathchemin.
159
504096
2839
leur donner une chance
de choisir un autre chemin.
08:40
It turnsse tourne out that oftensouvent the badmal guys
are good at exploitingexploitant the internetl'Internet,
160
508749
5980
Il s'avère que souvent les méchants
savent bien exploiter internet,
08:46
not because they're some kindgentil
of technologicaltechnologique geniusesgénies,
161
514753
3744
pas parce qu'ils sont
des génies de la technologie,
08:50
but because they understandcomprendre
what makesfait du people tickcocher.
162
518521
2985
mais parce qu'ils comprennent
ce qui fait réagir les gens.
08:54
I want to give you a secondseconde exampleExemple:
163
522855
2369
Je veux vous donner un second exemple :
08:58
onlineen ligne harassmentharcèlement.
164
526019
1391
le cyber-harcèlement.
09:00
OnlineEn ligne harassersharceleurs alsoaussi work
to figurefigure out what will resonaterésonner
165
528629
3363
Les cyber-harceleurs cherchent aussi
ce qui va faire écho
09:04
with anotherun autre humanHumain beingétant.
166
532016
1615
pour un autre être humain.
09:05
But not to recruitrecrue them like ISISISIS does,
167
533655
3110
Pas pour les recruter comme le fait Daech,
09:08
but to causecause them paindouleur.
168
536789
1275
mais pour les blesser.
09:11
ImagineImaginez this:
169
539259
1342
Imaginez :
09:13
you're a womanfemme,
170
541347
1659
vous êtes une femme,
09:15
you're marriedmarié,
171
543030
1413
vous êtes mariée,
09:16
you have a kidenfant.
172
544467
1154
vous avez un enfant.
09:18
You postposter something on socialsocial mediamédias,
173
546834
1784
Vous postez sur les réseaux sociaux
09:20
and in a replyrépondre,
you're told that you'lltu vas be rapedviolé,
174
548642
2886
et dans une réponse,
on vous dit que vous serez violée,
09:24
that your sonfils will be watchingen train de regarder,
175
552577
1560
que votre fils regardera,
09:26
detailsdétails of when and where.
176
554825
1856
avec des détails sur quand et où.
09:29
In factfait, your home addressadresse
is put onlineen ligne for everyonetoutes les personnes to see.
177
557148
3143
En fait, votre adresse
est mise en ligne publiquement.
09:33
That feelsse sent like a prettyjoli realréal threatmenace.
178
561580
2007
Cela semble être une menace plutôt réelle.
09:37
Do you think you'dtu aurais go home?
179
565113
1656
Pensez-vous que
vous rentreriez chez vous ?
09:39
Do you think you'dtu aurais continuecontinuer doing
the thing that you were doing?
180
567999
3048
Pensez-vous que vous continueriez
à faire ce que vous faisiez ?
09:43
Would you continuecontinuer doing that thing
that's irritatingirritant your attackerattaquant?
181
571071
3220
Continueriez-vous à faire cette chose
qui irrite votre agresseur ?
09:48
OnlineEn ligne abuseabuser de has been this perversepervers artart
182
576016
3096
Le cyber-harcèlement est l'art pervers
09:51
of figuringfigurer out what makesfait du people angryen colère,
183
579136
3468
de découvrir ce qui
met les gens en colère,
09:54
what makesfait du people afraidpeur,
184
582628
2132
ce qui les effraie,
09:56
what makesfait du people insecureinsécurité,
185
584784
1641
ce qui les dérange,
09:58
and then pushingen poussant those pressurepression pointspoints
untiljusqu'à they're silencedréduite au silence.
186
586449
3067
et puis d'appuyer sur ces points
de pression jusqu'à les faire taire.
10:02
When onlineen ligne harassmentharcèlement goesva uncheckedUnchecked,
187
590333
2304
Quand les cyber-harceleurs
restent impunis,
10:04
freegratuit speechdiscours is stifledétouffé.
188
592661
1667
la liberté de parole est étouffée.
10:07
And even the people
hostingHébergement the conversationconversation
189
595196
2127
Même les gens qui animent la conversation
10:09
throwjeter up theirleur armsbras and call it quitsferme de façon inattendue,
190
597347
1834
lèvent les bras au ciel
et jettent l'éponge,
10:11
closingfermeture theirleur commentcommentaire sectionssections
and theirleur forumsforums altogetherau total.
191
599205
2957
désactivant complètement
les commentaires et les forums.
10:14
That meansveux dire we're actuallyréellement
losingperdant spacesles espaces onlineen ligne
192
602186
2849
Cela signifie que nous perdons
des espaces en ligne
10:17
to meetrencontrer and exchangeéchange ideasidées.
193
605059
1987
où se rencontrer et échanger des idées.
10:19
And where onlineen ligne spacesles espaces remainrester,
194
607939
2163
Là où les espaces en ligne demeurent,
10:22
we descenddescendre into echoécho chamberschambres
with people who think just like us.
195
610126
4470
nous descendons dans des chambres d'écho
avec des gens qui pensent comme nous.
10:27
But that enablespermet
the spreadpropager of disinformationdésinformation;
196
615688
2499
Mais cela permet la prolifération
de la désinformation ;
10:30
that facilitatesfacilite polarizationpolarisation.
197
618211
2184
cela facilite la polarisation.
10:34
What if technologyLa technologie insteadau lieu
could enableactiver empathyempathie at scaleéchelle?
198
622508
5269
Et si, au lieu de cela, la technologie
favorisait l'empathie à grande échelle ?
10:40
This was the questionquestion
that motivatedmotivés our partnershipPartenariat
199
628451
2486
C'était la question
qui a motivé notre partenariat
avec l'équipe de lutte
contre les abus de Google, Wikipédia
10:42
with Google'sDe Google CounterCompteur AbuseAbus teaméquipe,
200
630961
1819
10:44
WikipediaWikipedia
201
632804
1178
10:46
and newspapersjournaux like the NewNouveau YorkYork TimesFois.
202
634006
1934
et des journaux
tels que le New York Times.
10:47
We wanted to see if we could buildconstruire
machine-learningapprentissage automatique modelsdes modèles
203
635964
2876
Nous voulions élaborer des modèles
d'apprentissage automatique
10:50
that could understandcomprendre
the emotionalémotif impactimpact of languagela langue.
204
638864
3606
qui pouvaient comprendre
l'incidence émotionnelle du langage.
10:55
Could we predictprédire whichlequel commentscommentaires
were likelyprobable to make someoneQuelqu'un elseautre leavelaisser
205
643062
3610
Pouvions-nous prévoir quels commentaires
allaient pousser quelqu'un à quitter
10:58
the onlineen ligne conversationconversation?
206
646696
1374
la conversation en ligne ?
11:00
And that's no mean featfeat.
207
648515
3887
Ce n'est pas une mince affaire.
11:04
That's no trivialbanal accomplishmentaccomplissement
208
652426
1566
Ce n'est pas un exploit trivial
11:06
for AIAI to be ablecapable to do
something like that.
209
654016
2563
d'avoir une IA capable
de faire une telle chose.
11:08
I mean, just considerconsidérer
these two examplesexemples of messagesmessages
210
656603
3729
Considérez ces deux exemples de messages
11:12
that could have been sentenvoyé to me last weekla semaine.
211
660356
2224
qu'on aurait pu m'envoyer
la semaine dernière.
11:15
"BreakCasser a legjambe at TEDTED!"
212
663517
1879
« Merde pour TED ! »
11:17
... and
213
665420
1164
et
11:18
"I'll breakPause your legsjambes at TEDTED."
214
666608
2126
« Tu seras une merde à TED ».
11:20
(LaughterRires)
215
668758
1246
(Rires)
11:22
You are humanHumain,
216
670028
1513
Vous êtes humains,
11:23
that's why that's an obviousévident
differencedifférence to you,
217
671565
2210
c'est pourquoi la différence
vous paraît évidente
11:25
even thoughbien que the wordsmots
are prettyjoli much the sameMême.
218
673799
2224
même si les mots
sont plus ou moins les mêmes.
11:28
But for AIAI, it takes some trainingentraînement
to teachapprendre the modelsdes modèles
219
676047
3079
Pour une IA, il faut un entraînement
pour apprendre aux modèles
11:31
to recognizereconnaître that differencedifférence.
220
679150
1571
à reconnaître cette différence.
11:32
The beautybeauté of buildingbâtiment AIAI
that can tell the differencedifférence
221
680745
3245
La beauté de la conception d'une IA
qui peut faire la différence
11:36
is that AIAI can then scaleéchelle to the sizeTaille
of the onlineen ligne toxicitytoxicité phenomenonphénomène,
222
684014
5050
est que cette IA
peut s'étendre à l'échelle
du phénomène de toxicité en ligne
11:41
and that was our goalobjectif in buildingbâtiment
our technologyLa technologie calledappelé PerspectivePoint de vue.
223
689088
3287
et c'était notre objectif
lors de l'élaboration
de notre technologie, Perspective.
11:45
With the help of PerspectivePoint de vue,
224
693056
1427
Avec l'aide de Perspective,
11:46
the NewNouveau YorkYork TimesFois, for exampleExemple,
225
694507
1583
le New York Times, par exemple,
11:48
has increasedaugmenté spacesles espaces
onlineen ligne for conversationconversation.
226
696114
2487
a accru l'espace de conversation en ligne.
11:51
Before our collaborationcollaboration,
227
699005
1310
Avant notre collaboration,
11:52
they only had commentscommentaires enabledactivée
on just 10 percentpour cent of theirleur articlesdes articles.
228
700339
4305
les commentaires n'étaient activés
que sur 10% de leurs articles.
11:57
With the help of machinemachine learningapprentissage,
229
705495
1644
Avec notre apprentissage automatique,
11:59
they have that numbernombre up to 30 percentpour cent.
230
707163
1897
ils ont augmenté ce nombre à 30%.
12:01
So they'veils ont tripledtriplé it,
231
709084
1156
Ils l'ont triplé
12:02
and we're still just gettingobtenir startedcommencé.
232
710264
1917
et ce n'est que le début.
12:04
But this is about way more than just
makingfabrication moderatorsModérateurs more efficientefficace.
233
712872
3461
Il est question de bien plus que
de rendre les modérateurs plus efficaces.
12:10
Right now I can see you,
234
718076
1850
Actuellement, je peux vous voir
12:11
and I can gaugejauge how what I'm sayingen disant
is landingatterrissage with you.
235
719950
3294
et je peux évaluer comment
vous recevez ce que je dis.
12:16
You don't have that opportunityopportunité onlineen ligne.
236
724370
1879
Vous n'avez pas
cette opportunité en ligne.
12:18
ImagineImaginez if machinemachine learningapprentissage
could give commentersintervenants,
237
726558
3635
Imaginez si l'apprentissage automatique
pouvait offrir aux commentateurs,
12:22
as they're typingdactylographie,
238
730217
1162
pendant qu'ils tapent,
12:23
real-timetemps réél feedbackretour d'information about how
theirleur wordsmots mightpourrait landterre,
239
731403
3347
un retour en temps réel quant à comment
leurs mots pourraient être pris,
12:27
just like facialsoin du visage expressionsexpressions do
in a face-to-faceface à face conversationconversation.
240
735609
3024
comme le font les expressions faciales
lors d'une conversation en face à face.
12:32
MachineMachine learningapprentissage isn't perfectparfait,
241
740926
1842
L'apprentissage automatique
n'est pas parfait
12:34
and it still makesfait du plentybeaucoup of mistakeserreurs.
242
742792
2394
et fait encore plein d'erreurs.
12:37
But if we can buildconstruire technologyLa technologie
243
745210
1557
Mais en créant une technologie
12:38
that understandscomprend the emotionalémotif
impactimpact of languagela langue,
244
746791
3293
qui comprend l'incidence
émotionnelle du langage,
12:42
we can buildconstruire empathyempathie.
245
750108
1460
nous développons l'empathie.
12:43
That meansveux dire that we can have
dialoguedialogue betweenentre people
246
751592
2425
Nous pouvons avoir un dialogue
entre des personnes
12:46
with differentdifférent politicspolitique,
247
754041
1816
ayant différentes opinions politiques,
12:47
differentdifférent worldviewsvisions du monde,
248
755881
1216
conceptions du monde et valeurs.
12:49
differentdifférent valuesvaleurs.
249
757121
1246
12:51
And we can reinvigoraterevigorer the spacesles espaces onlineen ligne
that mostles plus of us have givendonné up on.
250
759359
4775
Nous pouvons relancer les espaces en ligne
que beaucoup d'entre nous ont délaissés.
12:57
When people use technologyLa technologie
to exploitexploit and harmnuire othersautres,
251
765857
3785
Quand les gens utilisent la technologie
pour exploiter et blesser les autres,
13:01
they're preyings’attaquant on our humanHumain fearscraintes
and vulnerabilitiesvulnérabilités.
252
769666
3642
ils s'attaquent à nos peurs
et vulnérabilités humaines.
13:06
If we ever thought
that we could buildconstruire an internetl'Internet
253
774461
3508
Si nous pensions que nous pouvions
développer un internet
13:09
insulatedisolation from the darkfoncé sidecôté of humanityhumanité,
254
777993
2578
isolé du côté obscur de l'humanité,
13:12
we were wrongfaux.
255
780595
1184
nous avions tort.
13:14
If we want todayaujourd'hui to buildconstruire technologyLa technologie
256
782361
2270
Si nous voulons aujourd'hui
créer des technologies
13:16
that can overcomesurmonter
the challengesdéfis that we facevisage,
257
784655
3127
pouvant surmonter les défis
auxquels nous faisons face,
13:19
we have to throwjeter our entiretout selvesSelves
into understandingcompréhension the issuesproblèmes
258
787806
4043
nous devons nous lancer complètement
dans la compréhension des problèmes
13:23
and into buildingbâtiment solutionssolutions
259
791873
1893
et l'élaboration de solutions
13:25
that are as humanHumain as the problemsproblèmes
they aimobjectif to solverésoudre.
260
793790
3782
qui sont aussi humaines que les problèmes
qu'elles ont l'ambition de résoudre.
13:30
Let's make that happense produire.
261
798071
1513
Mettons-nous au travail !
13:31
Thank you.
262
799924
1150
Merci.
13:33
(ApplauseApplaudissements)
263
801098
3277
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Juliet Vdt

▲Back to top

ABOUT THE SPEAKER
Yasmin Green - Geopolitical technologist
Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. focused on solving global security challenges through technology.

Why you should listen

Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. (formerly Google Ideas), focused on using tech tools to make the world safer, both on and offline. She has experience leading projects in some of the world’s toughest environments, including Iran, Syria, the UAE and Nigeria. In 2012, she led a multi-partner coalition to launch Against Violent Extremism, the world's first online network of former violent extremists and survivors of terrorism. Based on her own interviews with ISIS defectors and jailed recruits, last year Yasmin launched the Redirect Method, a new deployment of targeted advertising and video to confront online radicalization.

Green is a senior advisor on innovation to Oxford Analytica, a member of the Aspen Cyber Strategy Group, and until 2015 co-chaired the European Commission's Working Group on Online Radicalization. She was named one of Fortune's "40 Under 40" most influential young leaders in 2017, and in 2016 she was named one of Fast Company's "Most Creative People in Business."

More profile about the speaker
Yasmin Green | Speaker | TED.com