ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités

Filmed:
2,866,905 views

Nous créons une dystopie alimentée par l'intelligence artificielle, un clic à la fois, dit la techno-sociologue Zeynep Tufekci. Dans une intervention révélatrice, elle détaille comment les mêmes algorithmes que des entreprises comme Facebook, Google et Amazon utilisent pour vous faire cliquer sur des publicités sont également utilisés pour organisez votre accès aux informations politiques et sociales. Les machines ne sont même pas la vraie menace. Nous devons comprendre comment les personnes au pouvoir pourraient utiliser l'IA pour nous contrôler et comment nous pouvons y répondre.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voicevoix fearscraintes
of artificialartificiel intelligenceintelligence,
0
760
3536
Quand les gens expriment de la peur
envers l'intelligence artificielle,
00:16
very oftensouvent, they invokeinvoquer imagesimages
of humanoidHumanoïde robotsdes robots runcourir amokAmok.
1
4320
3976
très souvent, ils évoquent des images
de robots humanoïdes qui se déchaînent.
00:20
You know? TerminatorTerminator?
2
8320
1240
Vous voyez ? Terminator ?
00:22
You know, that mightpourrait be
something to considerconsidérer,
3
10400
2336
Ce pourrait être à considérer
00:24
but that's a distantloin threatmenace.
4
12760
1856
mais c'est une menace très lointaine.
00:26
Or, we fretvous inquiétez pas about digitalnumérique surveillancesurveillance
5
14640
3456
Ou nous nous tracassons
au sujet de la surveillance numérique
00:30
with metaphorsmétaphores from the pastpassé.
6
18120
1776
avec des métaphores du passé.
00:31
"1984," GeorgeGeorge Orwell'sOrwell "1984,"
7
19920
2656
« 1984 » de George Orwell
00:34
it's hittingfrappe the bestsellerbestseller listslistes again.
8
22600
2280
est à nouveau parmi les livres
les plus vendus.
00:37
It's a great booklivre,
9
25960
1416
C'est un super livre,
00:39
but it's not the correctcorrect dystopiadystopia
for the 21stst centurysiècle.
10
27400
3880
mais ce n'est pas la bonne dystopie
pour le 21e siècle.
00:44
What we need to fearpeur mostles plus
11
32080
1416
Ce que nous devons craindre
00:45
is not what artificialartificiel intelligenceintelligence
will do to us on its ownposséder,
12
33520
4776
n'est pas ce que
l'intelligence artificielle fera seule,
00:50
but how the people in powerPuissance
will use artificialartificiel intelligenceintelligence
13
38320
4736
mais comment les gens au pouvoir
utiliseront l'intelligence artificielle
00:55
to controlcontrôle us and to manipulatemanipuler us
14
43080
2816
pour nous contrôler et nous manipuler
00:57
in novelroman, sometimesparfois hiddencaché,
15
45920
3136
de façons nouvelles, parfois cachées,
01:01
subtlesubtil and unexpectedinattendu waysfaçons.
16
49080
3016
subtiles et inattendues.
01:04
Much of the technologyLa technologie
17
52120
1856
La plupart des technologies
01:06
that threatensmenace our freedomliberté
and our dignitydignité in the near-termà court terme futureavenir
18
54000
4336
qui menacent notre liberté
et notre dignité dans un avenir proche
01:10
is beingétant developeddéveloppé by companiesentreprises
19
58360
1856
sont développées par des entreprises
01:12
in the businessEntreprise of capturingcapturer
and sellingvente our dataLes données and our attentionattention
20
60240
4936
dans le domaine
de l'enregistrement et de la vente
de nos données et notre attention
01:17
to advertisersannonceurs and othersautres:
21
65200
2256
à des publicitaires et autres :
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialartificiel intelligenceintelligence has startedcommencé
bolsteringle renforcement theirleur businessEntreprise as well.
24
74040
5496
L'intelligence artificielle a également
commencé à stimuler leur marché.
01:31
And it maymai seemsembler
like artificialartificiel intelligenceintelligence
25
79560
2096
On pourrait croire
que l'intelligence artificielle
01:33
is just the nextprochain thing after onlineen ligne adsles publicités.
26
81680
2856
sera la suite des publicités en ligne.
01:36
It's not.
27
84560
1216
Ce n'est pas le cas.
01:37
It's a jumpsaut in categoryCatégorie.
28
85800
2456
C'est un saut dans la catégorie.
01:40
It's a wholeentier differentdifférent worldmonde,
29
88280
2576
C'est un monde complètement différent
01:42
and it has great potentialpotentiel.
30
90880
2616
qui a un énorme potentiel.
01:45
It could accelerateaccélérer our understandingcompréhension
of manybeaucoup areaszones of studyétude and researchrecherche.
31
93520
6920
Ça pourrait accélérer
notre compréhension
de nombreux domaines
d'étude et de recherche.
01:53
But to paraphraseparaphrase
a famouscélèbre HollywoodHollywood philosopherphilosophe,
32
101120
3496
Pour paraphraser un célèbre
philosophe hollywoodien :
01:56
"With prodigiousprodigieuse potentialpotentiel
comesvient prodigiousprodigieuse riskrisque."
33
104640
3640
« Un grand pouvoir implique
de grandes responsabilités. »
02:01
Now let's look at a basicde base factfait
of our digitalnumérique livesvies, onlineen ligne adsles publicités.
34
109120
3936
Considérons un fait fondamental
de nos vies numériques : les publicités.
02:05
Right? We kindgentil of dismissrejeter them.
35
113080
2896
Nous les ignorons.
02:08
They seemsembler crudebrut, ineffectiveinefficace.
36
116000
1976
Elles semblent grossières, inefficaces.
02:10
We'veNous avons all had the experienceexpérience
of beingétant followedsuivi on the webweb
37
118000
4256
Nous avons tous été suivis sur internet
par une pub basée sur une chose
que nous avions cherchée ou lue.
02:14
by an adun d basedbasé on something
we searchedcherché or readlis.
38
122280
2776
02:17
You know, you look up a pairpaire of bootsbottes
39
125080
1856
Vous cherchez un paire de bottes
02:18
and for a weekla semaine, those bootsbottes are followingSuivant
you around everywherepartout you go.
40
126960
3376
et pendant une semaine, ces bottes
vous suivent partout où vous allez.
02:22
Even after you succumbSuccombez and buyacheter them,
they're still followingSuivant you around.
41
130360
3656
Même après avoir succombé
et les avoir achetées,
elles vous suivent encore.
02:26
We're kindgentil of inuredhabitué to that kindgentil
of basicde base, cheappas cher manipulationmanipulation.
42
134040
3016
Nous sommes un peu protégés
contre cette manipulation bon marché.
02:29
We rollrouleau our eyesles yeux and we think,
"You know what? These things don't work."
43
137080
3400
Nous levons les yeux au ciel et pensons :
« Ça ne marche pas. »
02:33
ExceptSauf, onlineen ligne,
44
141720
2096
Mis à part qu'en ligne,
02:35
the digitalnumérique technologiesles technologies are not just adsles publicités.
45
143840
3600
les technologies numériques
ne sont pas que des publicités.
02:40
Now, to understandcomprendre that,
let's think of a physicalphysique worldmonde exampleExemple.
46
148240
3120
Pour le comprendre, réfléchissons
à un exemple du monde physique.
02:43
You know how, at the checkoutCheckout counterscompteurs
at supermarketssupermarchés, nearprès the cashiercaissier,
47
151840
4656
Vous savez comment à la caisse
au supermarché, près du caissier,
02:48
there's candybonbons and gumgomme
at the eyeœil levelniveau of kidsdes gamins?
48
156520
3480
il y a des bonbons et chewing-gums
à hauteur des yeux des enfants ?
02:52
That's designedconçu to make them
whinese lamenter at theirleur parentsParents
49
160800
3496
C'est conçu pour les faire pleurnicher
auprès de leurs parents
02:56
just as the parentsParents
are about to sortTrier of checkvérifier out.
50
164320
3080
alors que les parents
sont sur le point de payer.
03:00
Now, that's a persuasionpersuasion architecturearchitecture.
51
168040
2640
C'est une architecture de persuasion.
03:03
It's not niceagréable, but it kindgentil of workstravaux.
52
171160
3096
Ce n'est pas sympa, mais ça marche.
03:06
That's why you see it
in everychaque supermarketsupermarché.
53
174280
2040
C'est pourquoi vous le voyez partout.
03:08
Now, in the physicalphysique worldmonde,
54
176720
1696
Dans le monde physique,
03:10
suchtel persuasionpersuasion architecturesarchitectures
are kindgentil of limitedlimité,
55
178440
2496
de telles architectures
de persuasion sont limitées
03:12
because you can only put
so manybeaucoup things by the cashiercaissier. Right?
56
180960
4816
car on ne peut mettre qu'un certain nombre
de choses près de la caisse.
03:17
And the candybonbons and gumgomme,
it's the sameMême for everyonetoutes les personnes,
57
185800
4296
Les bonbons et chewing-gums
sont les mêmes pour tout le monde,
03:22
even thoughbien que it mostlyla plupart workstravaux
58
190120
1456
même si ça fonctionne
03:23
only for people who have
whinygeignard little humanshumains besideà côté de them.
59
191600
4040
surtout pour les gens ayant des petits
êtres pleurnichant à leurs côtés.
03:29
In the physicalphysique worldmonde,
we livevivre with those limitationslimites.
60
197160
3920
Dans le monde physique,
nous vivons avec ces limites.
03:34
In the digitalnumérique worldmonde, thoughbien que,
61
202280
1936
Dans le monde numérique cependant,
03:36
persuasionpersuasion architecturesarchitectures
can be builtconstruit at the scaleéchelle of billionsdes milliards
62
204240
4320
les architectures de persuasion
peuvent être adaptées
pour des milliards de personnes,
03:41
and they can targetcible, inferinférer, understandcomprendre
63
209840
3856
elles peuvent cibler,
déduire, comprendre
03:45
and be deployeddéployé at individualspersonnes
64
213720
2896
et être déployées pour des individus,
03:48
one by one
65
216640
1216
un par un,
03:49
by figuringfigurer out your weaknessesfaiblesses,
66
217880
2136
en déterminant nos faiblesses
03:52
and they can be sentenvoyé
to everyone'stout le monde phonetéléphone privateprivé screenécran,
67
220040
5616
et elles peuvent être envoyées
sur l'écran privé des téléphones
03:57
so it's not visiblevisible to us.
68
225680
2256
afin que ce ne soit pas
visible à nos yeux.
03:59
And that's differentdifférent.
69
227960
1256
C'est différent.
04:01
And that's just one of the basicde base things
that artificialartificiel intelligenceintelligence can do.
70
229240
3576
Ce n'est qu'une chose basique dont
est capable l'intelligence artificielle.
04:04
Now, let's take an exampleExemple.
71
232840
1336
Prenons un exemple.
04:06
Let's say you want to sellvendre
planeavion ticketsdes billets to VegasVegas. Right?
72
234200
2696
Vous voulez vendre
des billets d'avion pour Las Vegas.
04:08
So in the oldvieux worldmonde, you could think
of some demographicsdémographie to targetcible
73
236920
3496
Dans l'ancien monde, vous pensiez
à des segments démographiques à cibler
04:12
basedbasé on experienceexpérience
and what you can guessdeviner.
74
240440
2520
d'après votre expérience
et ce que vous pouvez imaginer.
04:15
You mightpourrait try to advertisefaire de la publicité to, oh,
75
243560
2816
Vous pourriez faire de la publicité
04:18
menHommes betweenentre the agesâge of 25 and 35,
76
246400
2496
aux hommes ayant entre 25 et 35 ans
04:20
or people who have
a highhaute limitlimite on theirleur creditcrédit cardcarte,
77
248920
3936
ou aux gens qui ont une limite élevée
sur leur carte de crédit
04:24
or retiredà la retraite couplescouples. Right?
78
252880
1376
ou aux couples à la retraite.
04:26
That's what you would do in the pastpassé.
79
254280
1816
C'est ce que vous auriez fait.
04:28
With biggros dataLes données and machinemachine learningapprentissage,
80
256120
2896
Avec le big data
et l'apprentissage des machines,
04:31
that's not how it workstravaux anymoreplus.
81
259040
1524
ça ne marche plus comme ça.
04:33
So to imagineimaginer that,
82
261320
2176
Pour l'imaginer,
04:35
think of all the dataLes données
that FacebookFacebook has on you:
83
263520
3856
pensez à toutes les données
que Facebook a sur vous :
04:39
everychaque statusstatut updatemettre à jour you ever typedtapé,
84
267400
2536
tous les status tapés,
04:41
everychaque MessengerMessager conversationconversation,
85
269960
2016
toutes les conversations Messenger,
04:44
everychaque placeendroit you loggedconnecté in from,
86
272000
1880
tous vos lieux de connexion,
04:48
all your photographsphotographies
that you uploadedtéléchargé there.
87
276400
3176
toutes les photos
que vous avez téléchargées.
04:51
If you startdébut typingdactylographie something
and changechangement your mindesprit and deleteeffacer it,
88
279600
3776
Si vous tapez quelque chose,
changez d'avis et le supprimez,
04:55
FacebookFacebook keepsgarde those
and analyzesanalyses them, too.
89
283400
3200
Facebook le garde et l'analyse également.
04:59
IncreasinglyPlus en plus, it triesessais
to matchrencontre you with your offlinehors ligne dataLes données.
90
287160
3936
De plus en plus, il essaye
de vous relier à vos données hors ligne.
05:03
It alsoaussi purchasesachats
a lot of dataLes données from dataLes données brokerscourtiers en.
91
291120
3176
Il achète également des données
auprès de courtiers de données.
05:06
It could be everything
from your financialfinancier recordsEnregistrements
92
294320
3416
Ce pourrait être n'importe quoi,
de vos documents financiers
05:09
to a good chunktronçon of your browsingla navigation historyhistoire.
93
297760
2120
à votre historique de recherche.
05:12
Right? In the US,
suchtel dataLes données is routinelyrégulièrement collectedrecueilli,
94
300360
5416
Aux Etats-Unis, de telles données
sont systématiquement collectées,
05:17
collatedrassemblées and soldvendu.
95
305800
1960
comparées et vendues.
05:20
In EuropeL’Europe, they have tougherplus difficile rulesrègles.
96
308320
2440
En Europe, les règles sont plus strictes.
05:23
So what happensarrive then is,
97
311680
2200
Ce qu'il se passe alors c'est que,
05:26
by churningbarattage throughpar all that dataLes données,
these machine-learningapprentissage automatique algorithmsalgorithmes --
98
314920
4016
en fouillant toutes ces données,
ces algorithmes d'apprentissage
des machines --
05:30
that's why they're calledappelé
learningapprentissage algorithmsalgorithmes --
99
318960
2896
ils sont appelés algorithmes
d'apprentissage pour cette raison --
05:33
they learnapprendre to understandcomprendre
the characteristicscaractéristiques of people
100
321880
4096
ils apprennent à comprendre
les caractéristiques des gens
05:38
who purchasedacheté ticketsdes billets to VegasVegas before.
101
326000
2520
ayant déjà acheté
des billets pour Las Vegas.
05:41
When they learnapprendre this from existingexistant dataLes données,
102
329760
3536
Quand ils l'apprennent
de données existantes,
05:45
they alsoaussi learnapprendre
how to applyappliquer this to newNouveau people.
103
333320
3816
ils apprennent aussi comment
l'appliquer à de nouvelles personnes.
05:49
So if they're presentedprésenté with a newNouveau personla personne,
104
337160
3056
Face à une nouvelle personne,
05:52
they can classifyclasser whetherqu'il s'agisse that personla personne
is likelyprobable to buyacheter a ticketbillet to VegasVegas or not.
105
340240
4640
ils peuvent classifier
si cette personne a des chances
d'acheter un billet pour Las Vegas ou pas.
05:57
Fine. You're thinkingen pensant,
an offeroffre to buyacheter ticketsdes billets to VegasVegas.
106
345720
5456
Bien. Vous vous dites qu'une offre
pour acheter des billets pour Las Vegas,
06:03
I can ignoreignorer that.
107
351200
1456
vous pouvez l'ignorer.
06:04
But the problemproblème isn't that.
108
352680
2216
Mais le problème n'est pas là.
06:06
The problemproblème is,
109
354920
1576
Le problème,
c'est que nous ne comprenons plus vraiment
06:08
we no longerplus long really understandcomprendre
how these complexcomplexe algorithmsalgorithmes work.
110
356520
4136
comment fonctionnent
ces algorithmes complexes.
06:12
We don't understandcomprendre
how they're doing this categorizationcatégorisation.
111
360680
3456
Nous ne comprenons pas
comment ils font cette catégorisation.
06:16
It's giantgéant matricesmatrices,
thousandsmilliers of rowslignes and columnscolonnes,
112
364160
4416
Ce sont d'énormes matrices,
des milliers de lignes et colonnes,
06:20
maybe millionsdes millions of rowslignes and columnscolonnes,
113
368600
1960
peut-être même des millions,
06:23
and not the programmersprogrammeurs
114
371320
2640
et ni les programmeurs,
06:26
and not anybodyn'importe qui who looksregards at it,
115
374760
1680
ni quiconque les regardant,
06:29
even if you have all the dataLes données,
116
377440
1496
même avec toutes les données,
06:30
understandscomprend anymoreplus
how exactlyexactement it's operatingen fonctionnement
117
378960
4616
ne comprend plus
comment ça opère exactement,
06:35
any more than you'dtu aurais know
what I was thinkingen pensant right now
118
383600
3776
pas plus que vous ne sauriez
ce que je pense en ce moment
06:39
if you were shownmontré
a crosstraverser sectionsection of my braincerveau.
119
387400
3960
si l'on vous montrait
une coupe transversale de mon cerveau.
06:44
It's like we're not programmingla programmation anymoreplus,
120
392360
2576
C'est comme si nous ne programmions plus,
06:46
we're growingcroissance intelligenceintelligence
that we don't trulyvraiment understandcomprendre.
121
394960
4400
nous élevons une intelligence
que nous ne comprenons pas vraiment.
06:52
And these things only work
if there's an enormousénorme amountmontant of dataLes données,
122
400520
3976
Ces choses fonctionnent seulement
s'il y a un énorme volume de données,
06:56
so they alsoaussi encourageencourager
deepProfond surveillancesurveillance on all of us
123
404520
5096
elles pourraient donc aussi encourager
une surveillance intensifiée à notre égard
07:01
so that the machinemachine learningapprentissage
algorithmsalgorithmes can work.
124
409640
2336
afin que les algorithmes
d'apprentissage marchent.
C'est pour ça que Facebook veut
collecter toutes les données sur vous.
07:04
That's why FacebookFacebook wants
to collectcollecte all the dataLes données it can about you.
125
412000
3176
07:07
The algorithmsalgorithmes work better.
126
415200
1576
Les algorithmes marchent mieux.
07:08
So let's pushpousser that VegasVegas exampleExemple a bitbit.
127
416800
2696
Allons un peu plus loin
avec cet exemple de Las Vegas.
07:11
What if the systemsystème
that we do not understandcomprendre
128
419520
3680
Et si le système
que nous ne comprenons pas
07:16
was pickingcueillette up that it's easierPlus facile
to sellvendre VegasVegas ticketsdes billets
129
424200
5136
déterminait qu'il est plus simple
de vendre des billets pour Las Vegas
07:21
to people who are bipolarbipolaire
and about to enterentrer the manicmaniaque phasephase de.
130
429360
3760
aux gens bipolaires qui sont sur le point
d'entrer dans la phase maniaque.
07:25
SuchCes people tendtendre to becomedevenir
overspendersoverspenders, compulsivecompulsif gamblersGamblers.
131
433640
4920
De telles personnes ont tendance
à dépenser et parier de façon compulsive.
07:31
They could do this, and you'dtu aurais have no clueindice
that's what they were pickingcueillette up on.
132
439280
4456
Ils pourraient le faire, vous ignoreriez
que c'était là leur conclusion.
07:35
I gavea donné this exampleExemple
to a bunchbouquet of computerordinateur scientistsscientifiques onceune fois que
133
443760
3616
Une fois, j'ai donné cet exemple
à quelques informaticiens
07:39
and afterwardsensuite, one of them camevenu up to me.
134
447400
2056
et après, l'un d'eux est venu me voir.
07:41
He was troubledtroublé and he said,
"That's why I couldn'tne pouvait pas publishpublier it."
135
449480
3520
Il était préoccupé : « C'est pour ça
que je n'ai pas pu le publier ».
07:45
I was like, "Couldn'tNe pouvait pas publishpublier what?"
136
453600
1715
J'ai dit : « Publier quoi ? »
07:47
He had trieda essayé to see whetherqu'il s'agisse you can indeedeffectivement
figurefigure out the onsetdébut of maniaMania
137
455800
5856
Il avait essayé de voir s'il l'on pouvait
détecter le début d'une manie
07:53
from socialsocial mediamédias postsmessages
before clinicalclinique symptomssymptômes,
138
461680
3216
d'après les posts sur les réseaux sociaux
avant les symptômes cliniques
07:56
and it had workedtravaillé,
139
464920
1776
et ça avait fonctionné,
07:58
and it had workedtravaillé very well,
140
466720
2056
ça avait très bien fonctionné,
08:00
and he had no ideaidée how it workedtravaillé
or what it was pickingcueillette up on.
141
468800
4880
et il n'avait aucune idée de comment
ça marchait ou ce que ça détectait.
08:06
Now, the problemproblème isn't solvedrésolu
if he doesn't publishpublier it,
142
474840
4416
Le problème n'est pas résolu
s'il ne le publie pas
08:11
because there are alreadydéjà companiesentreprises
143
479280
1896
car il y a déjà des entreprises
08:13
that are developingdéveloppement
this kindgentil of technologyLa technologie,
144
481200
2536
qui développent ce genre de technologie
08:15
and a lot of the stuffdes trucs
is just off the shelfplateau.
145
483760
2800
et beaucoup de choses existent déjà.
08:19
This is not very difficultdifficile anymoreplus.
146
487240
2576
Ce n'est plus très compliqué.
08:21
Do you ever go on YouTubeYouTube
meaningsens to watch one videovidéo
147
489840
3456
Vous arrive-t-il d'aller sur YouTube
pour regarder une vidéo
08:25
and an hourheure laterplus tard you've watchedregardé 27?
148
493320
2360
et, une heure plus tard,
d'en avoir regardées 27 ?
08:28
You know how YouTubeYouTube
has this columncolonne on the right
149
496760
2496
Vous voyez cette colonne
que YouTube a sur la droite,
08:31
that saysdit, "Up nextprochain"
150
499280
2216
qui dit « A suivre »
08:33
and it autoplaysautoplays something?
151
501520
1816
et qui se lance automatiquement ?
08:35
It's an algorithmalgorithme de
152
503360
1216
C'est un algorithme
08:36
pickingcueillette what it thinkspense
that you mightpourrait be interestedintéressé in
153
504600
3616
qui choisit ce qu'il pense
qui pourrait vous intéresser
08:40
and maybe not find on your ownposséder.
154
508240
1536
et que vous ne trouveriez pas seul.
08:41
It's not a humanHumain editoréditeur.
155
509800
1256
Ce n'est pas un humain,
08:43
It's what algorithmsalgorithmes do.
156
511080
1416
ce sont des algorithmes.
08:44
It pickspics up on what you have watchedregardé
and what people like you have watchedregardé,
157
512520
4736
Il considère ce que vous avez regardé
et ce que d'autres comme vous ont regardé
08:49
and infersinfère that that mustdoit be
what you're interestedintéressé in,
158
517280
4216
et il déduit que ce doit être
ce qui vous intéresse,
08:53
what you want more of,
159
521520
1255
ce dont vous voulez voir plus
08:54
and just showsmontre you more.
160
522799
1336
et vous en montre plus.
08:56
It soundsdes sons like a benignbénin
and usefulutile featurefonctionnalité,
161
524159
2201
Ça semble être une fonction
bénigne et utile,
08:59
exceptsauf when it isn't.
162
527280
1200
mais ça ne l'est pas.
09:01
So in 2016, I attendedont participé à ralliesles rallyes
of then-candidatealors candidats à l’adhésion DonaldDonald TrumpTrump
163
529640
6960
En 2016, j'ai été à des rassemblements
du candidat Donald Trump
09:09
to studyétude as a scholarérudit
the movementmouvement supportingsoutenir les him.
164
537840
3336
pour étudier en tant que chercheuse
le mouvement le soutenant.
09:13
I studyétude socialsocial movementsmouvements,
so I was studyingen train d'étudier it, too.
165
541200
3456
J'étudie les mouvements sociaux,
alors j'étudiais ça aussi.
09:16
And then I wanted to writeécrire something
about one of his ralliesles rallyes,
166
544680
3336
Puis j'ai voulu écrire quelque chose
au sujet d'un de ses rassemblements
09:20
so I watchedregardé it a fewpeu timesfois on YouTubeYouTube.
167
548040
1960
alors je l'ai regardé sur YouTube.
09:23
YouTubeYouTube startedcommencé recommendingrecommander to me
168
551240
3096
YouTube a commencé à me recommander
09:26
and autoplayinglecture automatique to me
whiteblanc supremacistsuprématie de la race videosvidéos
169
554360
4256
et à lancer automatiquement
des vidéos de suprématistes blancs
09:30
in increasingen augmentant ordercommande of extremismextrémisme.
170
558640
2656
étant de plus en plus extrémistes.
09:33
If I watchedregardé one,
171
561320
1816
Si j'en regardais une,
09:35
it servedservi up one even more extremeextrême
172
563160
2976
il m'en recommandait une
encore plus extrême
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
et la lançais automatiquement.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersSanders contentcontenu,
174
568320
4536
Si vous regardez du contenu
d'Hillary Clinton ou Bernie Sanders,
09:44
YouTubeYouTube recommendsrecommande
and autoplaysautoplays conspiracyconspiration left,
175
572880
4696
YouTube recommande et lance
des vidéos gauchistes de conspiration
09:49
and it goesva downhillune descente from there.
176
577600
1760
et plus ça va, plus ça empire.
09:52
Well, you mightpourrait be thinkingen pensant,
this is politicspolitique, but it's not.
177
580480
3056
Vous pensez peut-être
que c'est de la politique, mais non.
09:55
This isn't about politicspolitique.
178
583560
1256
Il ne s'agit pas de politique.
09:56
This is just the algorithmalgorithme de
figuringfigurer out humanHumain behaviorcomportement.
179
584840
3096
Ce n'est qu'un algorithme
déterminant le comportement humain.
09:59
I onceune fois que watchedregardé a videovidéo
about vegetarianismvégétarisme on YouTubeYouTube
180
587960
4776
Une fois, j'ai regardé une vidéo
sur le végétarisme sur YouTube
10:04
and YouTubeYouTube recommendedrecommandé
and autoplayedautoplayed a videovidéo about beingétant veganvégétalien.
181
592760
4936
et YouTube a recommandé et lancé
une vidéo sur le fait d'être végétalien.
10:09
It's like you're never
hardcoreHardcore enoughassez for YouTubeYouTube.
182
597720
3016
Vous n'êtes jamais
assez extrême pour YouTube.
10:12
(LaughterRires)
183
600760
1576
(Rires)
10:14
So what's going on?
184
602360
1560
Que se passe-t-il ?
10:16
Now, YouTube'sDe YouTube algorithmalgorithme de is proprietarypropriété industrielle,
185
604520
3536
L'algorithme de YouTube est propriétaire,
10:20
but here'svoici what I think is going on.
186
608080
2360
mais voici ce qui, à mon avis, se passe.
10:23
The algorithmalgorithme de has figuredfiguré out
187
611360
2096
L'algorithme a déterminé
10:25
that if you can enticeinciter les people
188
613480
3696
que si vous pouvez pousser les gens
10:29
into thinkingen pensant that you can
showmontrer them something more hardcoreHardcore,
189
617200
3736
à penser que vous pouvez leur montrer
quelque chose de plus extrême,
10:32
they're more likelyprobable to stayrester on the sitesite
190
620960
2416
ils ont plus de chances
de rester sur le site
10:35
watchingen train de regarder videovidéo after videovidéo
going down that rabbitlapin holetrou
191
623400
4416
à regarder vidéo sur vidéo,
descendant dans le terrier du lapin
10:39
while GoogleGoogle servessert them adsles publicités.
192
627840
1680
pendant que Google leur sert des pubs.
10:43
Now, with nobodypersonne mindinggarde
the ethicsdéontologie of the storele magasin,
193
631760
3120
Puisque personne ne fait attention
à l'éthique du magasin,
10:47
these sitesdes sites can profileVoir le profil people
194
635720
4240
ces sites peuvent profiler des gens
10:53
who are JewJuif hatershaters,
195
641680
1920
comme haïssant les juifs,
10:56
who think that JewsJuifs are parasitesparasites
196
644360
2480
pensant que les juifs sont des parasites,
11:00
and who have suchtel explicitexplicite
anti-SemiticAntisémites contentcontenu,
197
648320
4920
qui ont du contenu
anti-sémite très explicite,
11:06
and let you targetcible them with adsles publicités.
198
654080
2000
et vous laisser les cibler avec des pubs.
11:09
They can alsoaussi mobilizemobiliser algorithmsalgorithmes
199
657200
3536
Ils peuvent mobiliser les algorithmes
11:12
to find for you look-alikelook-alike audiencespublic,
200
660760
3136
pour trouver des publics similaires,
11:15
people who do not have suchtel explicitexplicite
anti-SemiticAntisémites contentcontenu on theirleur profileVoir le profil
201
663920
5576
des gens n'ayant pas de contenu
anti-sémite si explicite sur leur profil
11:21
but who the algorithmalgorithme de detectsdétecte
maymai be susceptiblesensible to suchtel messagesmessages,
202
669520
6176
mais que les algorithmes détectent
comme étant sensibles à de tels messages,
11:27
and letspermet you targetcible them with adsles publicités, too.
203
675720
1920
et vous laisser les cibler avec des pubs.
11:30
Now, this maymai sounddu son
like an implausiblepeu plausible exampleExemple,
204
678680
2736
Ça peut sembler être
un exemple peu plausible,
11:33
but this is realréal.
205
681440
1320
mais c'est vrai.
11:35
ProPublicaProPublica investigatedenquêté this
206
683480
2136
ProPublica a enquêté sur ça
11:37
and founda trouvé that you can indeedeffectivement
do this on FacebookFacebook,
207
685640
3616
et a découvert que vous pouviez
vraiment le faire sur Facebook
11:41
and FacebookFacebook helpfullyutilement
offeredoffert up suggestionssuggestions
208
689280
2416
et Facebook, serviable,
offrait des suggestions
11:43
on how to broadenélargir that audiencepublic.
209
691720
1600
sur comment étendre ce public.
11:46
BuzzFeedBuzzFeed trieda essayé it for GoogleGoogle,
and very quicklyrapidement they founda trouvé,
210
694720
3016
BuzzFeed l'a essayé pour Google
et a rapidement découvert
11:49
yepYep, you can do it on GoogleGoogle, too.
211
697760
1736
que vous pouvez le faire sur Google.
11:51
And it wasn'tn'était pas even expensivecoûteux.
212
699520
1696
Ce n'était même pas cher.
11:53
The ProPublicaProPublica reporterjournaliste
spentdépensé about 30 dollarsdollars
213
701240
4416
Le reporter de ProPublica
a dépensé environ 30 dollars
11:57
to targetcible this categoryCatégorie.
214
705680
2240
pour cibler cette catégorie.
12:02
So last yearan, DonaldDonald Trump'sDe Trump
socialsocial mediamédias managerdirecteur discloseddivulgués
215
710600
5296
L'année dernière, le responsable
des réseaux sociaux de Donald Trump
a révélé utiliser les dark posts
de Facebook pour démobiliser les gens,
12:07
that they were usingen utilisant FacebookFacebook darkfoncé postsmessages
to demobilizedémobiliser people,
216
715920
5336
12:13
not to persuadepersuader them,
217
721280
1376
pas pour les persuader,
12:14
but to convinceconvaincre them not to votevote at all.
218
722680
2800
mais pour les convaincre
de ne pas voter du tout.
12:18
And to do that,
they targetedciblé specificallyPlus précisément,
219
726520
3576
Pour ce faire,
ils ont spécifiquement ciblé,
12:22
for exampleExemple, African-AmericanAfro-américain menHommes
in keyclé citiesvilles like PhiladelphiaPhiladelphia,
220
730120
3896
par exemple, les hommes afro-américains
dans des villes clés comme Philadelphie
12:26
and I'm going to readlis
exactlyexactement what he said.
221
734040
2456
et je vais lire exactement ce qu'il a dit.
12:28
I'm quotingciter.
222
736520
1216
Je cite.
12:29
They were usingen utilisant "nonpublicNonPublic postsmessages
223
737760
3016
Ils utilisaient « des posts non publics
12:32
whosedont viewershipnombre de téléspectateurs the campaigncampagne controlscontrôles
224
740800
2176
dont la campagne contrôle l'audience
12:35
so that only the people
we want to see it see it.
225
743000
3776
afin que seuls les voient les gens
dont nous voulons qu'ils les voient.
12:38
We modeledmodélisé this.
226
746800
1216
Nous l'avons façonné.
12:40
It will dramaticallydramatiquement affectaffecter her abilitycapacité
to turntour these people out."
227
748040
4720
Ça affectera considérablement
sa capacité à retourner ces gens. »
12:45
What's in those darkfoncé postsmessages?
228
753720
2280
Qu'y a-t-il dans ces dark posts ?
12:48
We have no ideaidée.
229
756480
1656
Nous l'ignorons.
12:50
FacebookFacebook won'thabitude tell us.
230
758160
1200
Facebook refuse de le dire.
12:52
So FacebookFacebook alsoaussi algorithmicallyalgorithmiquement
arrangesorganise the postsmessages
231
760480
4376
Facebook arrange également
algorithmiquement les posts
12:56
that your friendscopains put on FacebookFacebook,
or the pagespages you followsuivre.
232
764880
3736
que vos amis mettent sur Facebook
ou des pages que vous suivez.
13:00
It doesn't showmontrer you
everything chronologicallypar ordre chronologique.
233
768640
2216
Il ne vous montre pas tout
chronologiquement.
13:02
It putsmet the ordercommande in the way
that the algorithmalgorithme de thinkspense will enticeinciter les you
234
770880
4816
Il le met dans l'ordre qui,
selon l'algorithme, devrait vous pousser
13:07
to stayrester on the sitesite longerplus long.
235
775720
1840
à rester plus longtemps sur le site.
13:11
Now, so this has a lot of consequencesconséquences.
236
779040
3376
Ça a de nombreuses conséquences.
13:14
You maymai be thinkingen pensant
somebodyquelqu'un is snubbingsnober you on FacebookFacebook.
237
782440
3800
Vous pensez peut-être que quelqu'un
vous ignore sur Facebook.
13:18
The algorithmalgorithme de maymai never
be showingmontrer your postposter to them.
238
786800
3256
L'algorithme ne lui montre
peut-être jamais vos posts.
13:22
The algorithmalgorithme de is prioritizingprioriser
some of them and buryingenterrant the othersautres.
239
790080
5960
L'algorithme en priorise certains
et en enterre d'autres.
13:29
ExperimentsExpériences showmontrer
240
797320
1296
Des expériences montrent
13:30
that what the algorithmalgorithme de pickspics to showmontrer you
can affectaffecter your emotionsémotions.
241
798640
4520
que ce que l'algorithme
choisit de vous montrer
peut influencer vos émotions.
13:36
But that's not all.
242
804600
1200
Mais ce n'est pas tout.
13:38
It alsoaussi affectsaffecte politicalpolitique behaviorcomportement.
243
806280
2360
Ça influence aussi
votre comportement politique.
13:41
So in 2010, in the midtermà mi-parcours electionsélections,
244
809360
4656
En 2010, aux élections de mi-mandat,
13:46
FacebookFacebook did an experimentexpérience
on 61 millionmillion people in the US
245
814040
5896
Facebook a conduit une expérience
sur 61 millions de personnes américaines
13:51
that was discloseddivulgués after the factfait.
246
819960
1896
qui a été révélée après les faits.
13:53
So some people were shownmontré,
"TodayAujourd'hui is electionélection day,"
247
821880
3416
Certaines personnes ont vu
« Aujourd'hui, c'est jour d'élection »,
13:57
the simplerplus simple one,
248
825320
1376
le plus simple,
13:58
and some people were shownmontré
the one with that tinyminuscule tweakTweak
249
826720
3896
et certaines personnes ont vu
celui avec ce petit ajustement
14:02
with those little thumbnailsvignettes
250
830640
2096
avec les petites photos
14:04
of your friendscopains who clickedun clic sur on "I votedvoté."
251
832760
2840
de vos amis ayant cliqué
sur « j'ai voté ».
14:09
This simplesimple tweakTweak.
252
837000
1400
Ce simple ajustement.
14:11
OK? So the picturesdes photos were the only changechangement,
253
839520
4296
D'accord ? Les photos étaient
la seule modification
14:15
and that postposter shownmontré just onceune fois que
254
843840
3256
et ce post montré qu'une seule fois
14:19
turnedtourné out an additionalsupplémentaires 340,000 votersélecteurs
255
847120
6056
a attiré 340 000 électeurs supplémentaires
14:25
in that electionélection,
256
853200
1696
dans cette élection,
14:26
accordingselon to this researchrecherche
257
854920
1696
d'après cette recherche
14:28
as confirmedconfirmé by the voterélecteur rollsRouleaux.
258
856640
2520
et la liste des électeurs l'a confirmé.
14:32
A flukecoup de chance? No.
259
860920
1656
Un hasard ? Non.
14:34
Because in 2012,
they repeatedrépété the sameMême experimentexpérience.
260
862600
5360
Parce qu'en 2012, ils ont reconduit
cette même expérience.
14:40
And that time,
261
868840
1736
A cette époque-là,
14:42
that civiccivique messagemessage shownmontré just onceune fois que
262
870600
3296
ce message civique montré une seule fois
14:45
turnedtourné out an additionalsupplémentaires 270,000 votersélecteurs.
263
873920
4440
a attiré 270 000 électeurs
supplémentaires.
14:51
For referenceréférence, the 2016
US presidentialprésidentiel electionélection
264
879160
5216
En guise de référence,
l'élection présidentielle de 2016
14:56
was decideddécidé by about 100,000 votesvotes.
265
884400
3520
s'est jouée à environ 100 000 votes.
15:01
Now, FacebookFacebook can alsoaussi
very easilyfacilement inferinférer what your politicspolitique are,
266
889360
4736
Facebook peut aussi très facilement
déduire vos opinions politiques,
15:06
even if you've never
discloseddivulgués them on the sitesite.
267
894120
2256
même si vous ne les avez pas
révélées sur le site.
15:08
Right? These algorithmsalgorithmes
can do that quiteassez easilyfacilement.
268
896400
2520
Ces algorithmes peuvent
le faire assez facilement.
15:11
What if a platformPlate-forme with that kindgentil of powerPuissance
269
899960
3896
Et si une plateforme avec un tel pouvoir
15:15
decidesdécide to turntour out supporterssupporters
of one candidatecandidat over the other?
270
903880
5040
décidait de retourner les partisans
d'un candidat pour l'autre ?
15:21
How would we even know about it?
271
909680
2440
Comment le saurions-nous ?
15:25
Now, we startedcommencé from someplaceun endroit
seeminglyapparemment innocuousinnofensif --
272
913560
4136
Nous sommes partis de quelque chose
semble-t-il inoffensif --
15:29
onlineen ligne addsajoute followingSuivant us around --
273
917720
2216
les pubs nous suivant partout en ligne --
15:31
and we'venous avons landeda atterri someplaceun endroit elseautre.
274
919960
1840
et sommes arrivés ailleurs.
15:35
As a publicpublic and as citizenscitoyens,
275
923480
2456
En tant que public et citoyens,
15:37
we no longerplus long know
if we're seeingvoyant the sameMême informationinformation
276
925960
3416
nous ne savons plus
si nous voyons les mêmes informations
15:41
or what anybodyn'importe qui elseautre is seeingvoyant,
277
929400
1480
ou ce que voient les autres
15:43
and withoutsans pour autant a commoncommun basisbase of informationinformation,
278
931680
2576
et sans base d'informations commune,
15:46
little by little,
279
934280
1616
peu à peu,
15:47
publicpublic debatedébat is becomingdevenir impossibleimpossible,
280
935920
3216
le débat public devient impossible
15:51
and we're just at
the beginningdébut stagesétapes of this.
281
939160
2976
et nous n'en sommes
qu'aux premières phases.
15:54
These algorithmsalgorithmes can quiteassez easilyfacilement inferinférer
282
942160
3456
Ces algorithmes peuvent facilement déduire
15:57
things like your people'sles gens ethnicityorigine ethnique,
283
945640
3256
des choses comme votre ethnie,
vos opinions religieuses, politiques,
16:00
religiousreligieux and politicalpolitique viewsvues,
personalitypersonnalité traitstraits,
284
948920
2336
vos traits de personnalité,
16:03
intelligenceintelligence, happinessbonheur,
use of addictiveaddictif substancessubstances,
285
951280
3376
votre intelligence, votre bonheur,
votre usage de substances addictives,
16:06
parentalparental separationséparation, ageâge and genderssexes,
286
954680
3136
la situation maritale de vos parents,
votre âge et votre sexe,
16:09
just from FacebookFacebook likesaime.
287
957840
1960
uniquement grâce
aux « J'aime » de Facebook.
16:13
These algorithmsalgorithmes can identifyidentifier protestersmanifestants
288
961440
4056
Ces algorithmes peuvent
identifier des manifestants
16:17
even if theirleur facesvisages
are partiallypartiellement concealedcaché.
289
965520
2760
même si leur visage
est partiellement caché.
16:21
These algorithmsalgorithmes maymai be ablecapable
to detectdétecter people'sles gens sexualsexuel orientationorientation
290
969720
6616
Ces algorithmes peuvent peut-être
détecter l'orientation sexuelle des gens
16:28
just from theirleur datingsortir ensemble profileVoir le profil picturesdes photos.
291
976360
3200
simplement grâce à leur photo de profil
sur un site de rencontres.
16:33
Now, these are probabilisticprobabiliste guessesconjectures,
292
981560
2616
Ce sont des conjectures statistiques,
16:36
so they're not going
to be 100 percentpour cent right,
293
984200
2896
ils n'auront pas raison à 100%,
16:39
but I don't see the powerfulpuissant resistingrésistant
the temptationtentation to use these technologiesles technologies
294
987120
4896
mais je ne vois pas les puissants résister
à la tentation d'utiliser ces technologies
16:44
just because there are
some falsefaux positivespositifs,
295
992040
2176
simplement parce qu'il y a
des faux positifs,
16:46
whichlequel will of coursecours createcréer
a wholeentier other layercouche of problemsproblèmes.
296
994240
3256
ce qui, bien sûr, créera
un couche supplémentaire de problèmes.
16:49
ImagineImaginez what a stateEtat can do
297
997520
2936
Imaginez ce qu'un Etat peut faire
16:52
with the immenseimmense amountmontant of dataLes données
it has on its citizenscitoyens.
298
1000480
3560
avec l'énorme volume de données
qu'il a sur ces citoyens.
16:56
ChinaLa Chine is alreadydéjà usingen utilisant
facevisage detectiondétection technologyLa technologie
299
1004680
4776
La Chine utilise déjà
une technologie de détection du visage
17:01
to identifyidentifier and arrestarrêter people.
300
1009480
2880
pour identifier et arrêter des gens.
17:05
And here'svoici the tragedyla tragédie:
301
1013280
2136
Voici la tragédie :
17:07
we're buildingbâtiment this infrastructureInfrastructure
of surveillancesurveillance authoritarianismautoritarisme
302
1015440
5536
nous instaurons cette infrastructure
de surveillance d’autoritarisme
17:13
merelyseulement to get people to clickCliquez on adsles publicités.
303
1021000
2960
simplement pour que les gens
cliquent sur des pubs.
17:17
And this won'thabitude be
Orwell'sOrwell authoritarianismautoritarisme.
304
1025240
2576
Ce ne sera pas l’autoritarisme d'Orwell.
17:19
This isn't "1984."
305
1027839
1897
Ce n'est pas « 1984 ».
17:21
Now, if authoritarianismautoritarisme
is usingen utilisant overtmanifeste fearpeur to terrorizeterroriser us,
306
1029760
4576
Si l'autoritarisme une peur déclarée
pour nous terroriser,
17:26
we'llbien all be scaredeffrayé, but we'llbien know it,
307
1034359
2897
nous aurons tous peur
mais nous le saurons,
17:29
we'llbien hatehaine it and we'llbien resistrésister it.
308
1037280
2200
nous détesterons ça et résisterons.
17:32
But if the people in powerPuissance
are usingen utilisant these algorithmsalgorithmes
309
1040880
4416
Mais si les gens au pouvoir
utilisent ces algorithmes
17:37
to quietlytranquillement watch us,
310
1045319
3377
pour nous surveiller discrètement,
17:40
to judgejuge us and to nudgecoup de pouce us,
311
1048720
2080
pour nous juger et nous inciter,
17:43
to predictprédire and identifyidentifier
the troublemakersfauteurs de troubles and the rebelsrebelles,
312
1051720
4176
pour prédire et identifier
les fauteurs de trouble et les rebelles,
17:47
to deploydéployer persuasionpersuasion
architecturesarchitectures at scaleéchelle
313
1055920
3896
pour déployer une architecture
de persuasion à grande échelle
17:51
and to manipulatemanipuler individualspersonnes one by one
314
1059840
4136
et pour manipuler les individus un par un
17:56
usingen utilisant theirleur personalpersonnel, individualindividuel
weaknessesfaiblesses and vulnerabilitiesvulnérabilités,
315
1064000
5440
grâce à leurs faiblesses et vulnérabilités
personnelles et individuelles
18:02
and if they're doing it at scaleéchelle
316
1070720
2200
et s'ils le font à grande échelle
18:06
throughpar our privateprivé screensécrans
317
1074080
1736
via nos écrans privés
18:07
so that we don't even know
318
1075840
1656
afin que nous ne sachions même pas
18:09
what our fellowcompagnon citizenscitoyens
and neighborsvoisins are seeingvoyant,
319
1077520
2760
ce que les autres citoyens
et nos voisins voient,
18:13
that authoritarianismautoritarisme
will envelopEnvelop us like a spider'stoile d’araignée webweb
320
1081560
4816
l'autoritarisme nous enveloppera
tel une toile d'araignée
18:18
and we maymai not even know we're in it.
321
1086400
2480
et nous ignorons même
que nous sommes dans la toile.
18:22
So Facebook'sDe Facebook marketmarché capitalizationcapitalisation
322
1090440
2936
La capitalisation du marché de Facebook
18:25
is approachings’approchant halfmoitié a trillionbillion dollarsdollars.
323
1093400
3296
approche le demi milliard de dollars.
18:28
It's because it workstravaux great
as a persuasionpersuasion architecturearchitecture.
324
1096720
3120
C'est parce que c'est une très bonne
architecture de persuasion.
18:33
But the structurestructure of that architecturearchitecture
325
1101760
2816
Mais la structure de cette architecture
18:36
is the sameMême whetherqu'il s'agisse you're sellingvente shoeschaussures
326
1104600
3216
est la même que vous vendiez
des chaussures
18:39
or whetherqu'il s'agisse you're sellingvente politicspolitique.
327
1107840
2496
ou de la politique.
18:42
The algorithmsalgorithmes do not know the differencedifférence.
328
1110360
3120
Les algorithmes
ne connaissent pas la différence.
18:46
The sameMême algorithmsalgorithmes setensemble looseen vrac uponsur us
329
1114240
3296
Les mêmes algorithmes utilisés sur nous
18:49
to make us more pliablepliable for adsles publicités
330
1117560
3176
pour nous rendre plus malléables
face aux publicités
18:52
are alsoaussi organizingorganiser our politicalpolitique,
personalpersonnel and socialsocial informationinformation flowsles flux,
331
1120760
6736
organisent aussi nos flux d'informations
politiques, personnelles et sociales
18:59
and that's what's got to changechangement.
332
1127520
1840
et ça doit changer.
19:02
Now, don't get me wrongfaux,
333
1130240
2296
Ne vous méprenez pas,
19:04
we use digitalnumérique platformsplateformes
because they providefournir us with great valuevaleur.
334
1132560
3680
nous utilisons les plateformes numériques
car elles ont beaucoup de valeur.
19:09
I use FacebookFacebook to keep in touchtoucher
with friendscopains and familyfamille around the worldmonde.
335
1137120
3560
J'utilise Facebook pour garder contact
avec des amis et de la famille
à travers le monde.
19:14
I've writtenécrit about how crucialcrucial
socialsocial mediamédias is for socialsocial movementsmouvements.
336
1142000
5776
J'ai écrit sur l'importance des réseaux
sociaux pour les mouvements sociaux.
19:19
I have studiedétudié how
these technologiesles technologies can be used
337
1147800
3016
J'ai étudié comment ces technologies
peuvent être utilisées
19:22
to circumventcontourner censorshipcensure around the worldmonde.
338
1150840
2480
pour contourner la censure
à travers le monde.
19:27
But it's not that the people who runcourir,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Ce n'est pas que les dirigeants
de Facebook ou Google
19:33
are maliciouslyavec malveillance and deliberatelydélibérément tryingen essayant
340
1161720
2696
essayent perfidement et délibérément
19:36
to make the countryPays
or the worldmonde more polarizedpolarisé
341
1164440
4456
de polariser plus le pays ou le monde
19:40
and encourageencourager extremismextrémisme.
342
1168920
1680
et d'encourager l'extrémisme.
19:43
I readlis the manybeaucoup
well-intentionedbien intentionné statementsdéclarations
343
1171440
3976
J'ai lu les nombreuses déclarations
bien intentionnées
19:47
that these people put out.
344
1175440
3320
que ces gens ont publiées.
19:51
But it's not the intentintention or the statementsdéclarations
people in technologyLa technologie make that mattermatière,
345
1179600
6056
Mais ce n'est pas l'intention
ou les déclarations
des gens dans les technologies
qui comptent,
19:57
it's the structuresles structures
and businessEntreprise modelsdes modèles they're buildingbâtiment.
346
1185680
3560
ce sont les structures
et les modèles commerciaux qu'ils créent.
20:02
And that's the corecoeur of the problemproblème.
347
1190360
2096
C'est le cœur du problème.
20:04
EitherOu l’autre FacebookFacebook is a giantgéant con
of halfmoitié a trillionbillion dollarsdollars
348
1192480
4720
Soit Facebook est un escroc
d'un demi milliard de dollars
20:10
and adsles publicités don't work on the sitesite,
349
1198200
1896
et les pubs ne marchent pas sur le site,
20:12
it doesn't work
as a persuasionpersuasion architecturearchitecture,
350
1200120
2696
ça ne marche pas
comme une architecture de persuasion
20:14
or its powerPuissance of influenceinfluence
is of great concernpréoccupation.
351
1202840
4120
ou son pouvoir d'influence
est très préoccupant.
20:20
It's eithernon plus one or the other.
352
1208560
1776
C'est l'un ou l'autre.
20:22
It's similarsimilaire for GoogleGoogle, too.
353
1210360
1600
Il en va de même pour Google.
20:24
So what can we do?
354
1212880
2456
Que pouvons-nous faire ?
20:27
This needsBesoins to changechangement.
355
1215360
1936
Ça doit changer.
20:29
Now, I can't offeroffre a simplesimple reciperecette,
356
1217320
2576
Je ne peux pas offrir de recette simple
20:31
because we need to restructurerestructuration de la
357
1219920
2256
car nous devons restructurer
20:34
the wholeentier way our
digitalnumérique technologyLa technologie operatesfonctionne.
358
1222200
3016
tout le fonctionnement
de notre technologie numérique.
20:37
Everything from the way
technologyLa technologie is developeddéveloppé
359
1225240
4096
Tout, de la façon dont
la technologie est développée
20:41
to the way the incentivesmesures incitatives,
economicéconomique and otherwiseautrement,
360
1229360
3856
à la façon dont les incitations,
économiques et autres,
20:45
are builtconstruit into the systemsystème.
361
1233240
2280
sont intégrées au système.
20:48
We have to facevisage and try to dealtraiter with
362
1236480
3456
Nous devons faire face et gérer
20:51
the lackmanquer de of transparencytransparence
createdcréé by the proprietarypropriété industrielle algorithmsalgorithmes,
363
1239960
4656
le manque de transparence créé
par les algorithmes propriétaires,
20:56
the structuralde construction challengedéfi
of machinemachine learning'sde l’apprentissage opacityopacité,
364
1244640
3816
le défi structurel de l'opacité
de l'apprentissage des machines,
21:00
all this indiscriminatetraumatiques dataLes données
that's beingétant collectedrecueilli about us.
365
1248480
3400
toutes ces données
aveuglément collectées sur nous.
21:05
We have a biggros tasktâche in frontde face of us.
366
1253000
2520
Nous avons devant nous
une tâche importante.
21:08
We have to mobilizemobiliser our technologyLa technologie,
367
1256160
2680
Nous devons mobiliser notre technologie,
21:11
our creativityla créativité
368
1259760
1576
notre créativité
21:13
and yes, our politicspolitique
369
1261360
1880
et oui, notre science politique
21:16
so that we can buildconstruire
artificialartificiel intelligenceintelligence
370
1264240
2656
pour créer une intelligence artificielle
21:18
that supportsprend en charge us in our humanHumain goalsbuts
371
1266920
3120
qui soutient nos objectifs humains
21:22
but that is alsoaussi constrainedcontraint
by our humanHumain valuesvaleurs.
372
1270800
3920
mais qui est aussi contrainte
par nos valeurs humaines.
21:27
And I understandcomprendre this won'thabitude be easyfacile.
373
1275600
2160
Je comprends que ce ne sera pas simple.
21:30
We mightpourrait not even easilyfacilement agreese mettre d'accord
on what those termstermes mean.
374
1278360
3600
Nous ne serons pas facilement d'accord
sur le sens de ces termes.
21:34
But if we take seriouslysérieusement
375
1282920
2400
Mais si nous prenons au sérieux
21:38
how these systemssystèmes that we
dependdépendre on for so much operatefonctionner,
376
1286240
5976
le fonctionnement de ces systèmes
dont nous sommes si dépendants,
21:44
I don't see how we can postponeremettre à plus tard
this conversationconversation anymoreplus.
377
1292240
4120
je ne vois pas comment nous pouvons
encore retarder cette conversation.
21:49
These structuresles structures
378
1297200
2536
Ces structures organisent
notre fonctionnement
21:51
are organizingorganiser how we functionfonction
379
1299760
4096
21:55
and they're controllingcontrôler
380
1303880
2296
et elles contrôlent
ce que nous pouvons faire ou non.
21:58
what we can and we cannotne peux pas do.
381
1306200
2616
22:00
And manybeaucoup of these ad-financedfinancés par la publicité platformsplateformes,
382
1308840
2456
Beaucoup de ces plateformes
financées par les pubs
22:03
they boastse vanter that they're freegratuit.
383
1311320
1576
se proclament gratuites.
22:04
In this contextle contexte, it meansveux dire
that we are the productproduit that's beingétant soldvendu.
384
1312920
4560
Dans ce contexte, ça signifie
que nous sommes le produit qui est vendu.
22:10
We need a digitalnumérique economyéconomie
385
1318840
2736
Nous avons besoin
d'une économie numérique
22:13
where our dataLes données and our attentionattention
386
1321600
3496
où nos données et notre attention
22:17
is not for salevente to the highest-biddingplus haut-enchères
authoritarianautoritaire or demagoguedémagogue.
387
1325120
5080
ne sont pas à vendre à l'autoritariste
ou au démagogue le plus offrant.
22:23
(ApplauseApplaudissements)
388
1331160
3800
(Applaudissements)
22:30
So to go back to
that HollywoodHollywood paraphraseparaphrase,
389
1338480
3256
Pour revenir à cette paraphrase
hollywoodienne,
22:33
we do want the prodigiousprodigieuse potentialpotentiel
390
1341760
3736
nous voulons que le grand pouvoir
22:37
of artificialartificiel intelligenceintelligence
and digitalnumérique technologyLa technologie to blossomBlossom,
391
1345520
3200
de l'intelligence artificielle
et de la technologie numérique fleurisse
22:41
but for that, we mustdoit facevisage
this prodigiousprodigieuse menacemenace,
392
1349400
4936
mais pour ça , nous devons
faire face à une grande menace,
22:46
open-eyedOpen-Eyed and now.
393
1354360
1936
les yeux ouverts et maintenant.
22:48
Thank you.
394
1356320
1216
Merci.
22:49
(ApplauseApplaudissements)
395
1357560
4640
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com