ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: L'intelligence artificielle rend la morale humaine plus importante

Filmed:
1,648,711 views

L'intelligence artificielle est arrivée et nous sommes prêts à l'utiliser pour prendre des décisions subjectives. Mais la façon complexe dont l'IA grossit et s'améliore fait qu'elle est difficile à comprendre et encore plus à contrôler. Dans cet exposé de mise en garde, Zeynep Tufekci explique comment les machines intelligentes peuvent échouer de façons qui ne correspondent pas aux schémas d'erreurs humaines -- et de façons inattendues et imprévues. « Nous ne pouvons pas sous-traiter nos responsabilités aux machines, dit-elle. Nous devons nous accrocher encore plus aux valeurs et éthiques humaines. »
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedcommencé my first jobemploi
as a computerordinateur programmerprogrammeur
0
739
4122
Mon premier travail
était programmeuse informatique
durant ma première année à l'université --
00:16
in my very first yearan of collegeUniversité --
1
4885
1956
00:18
basicallyen gros, as a teenageradolescent.
2
6865
1507
quand j'étais adolescente.
00:20
SoonBientôt after I startedcommencé workingtravail,
3
8889
1732
Peu après avoir commencé
à écrire des programmes en entreprise,
00:22
writingl'écriture softwareLogiciel in a companycompagnie,
4
10645
1610
00:24
a managerdirecteur who workedtravaillé at the companycompagnie
camevenu down to where I was,
5
12799
3635
un responsable de l'entreprise
est venu me voir
00:28
and he whisperedchuchoté to me,
6
16458
1268
et m'a murmuré :
00:30
"Can he tell if I'm lyingmensonge?"
7
18229
2861
« Peut-il dire si je mens ? »
00:33
There was nobodypersonne elseautre in the roomchambre.
8
21806
2077
Il n'y avait personne d'autre
dans la pièce.
00:37
"Can who tell if you're lyingmensonge?
And why are we whisperingchuchotant?"
9
25032
4389
« Qui peut dire si vous mentez ?
Et pourquoi chuchotez-vous ? »
00:42
The managerdirecteur pointedpointu
at the computerordinateur in the roomchambre.
10
30266
3107
Le responsable a pointé du doigt
l'ordinateur dans la pièce.
00:45
"Can he tell if I'm lyingmensonge?"
11
33397
3096
« Peut-il dire si je mens ? »
00:49
Well, that managerdirecteur was havingayant
an affairaffaire with the receptionistréceptionniste.
12
37613
4362
Ce responsable avait une aventure
avec la réceptionniste.
00:53
(LaughterRires)
13
41999
1112
(Rires)
00:55
And I was still a teenageradolescent.
14
43135
1766
J'étais toujours adolescente.
00:57
So I whisper-shoutedWhisper-cria back to him,
15
45447
2019
J'ai lui ai murmuré-crié :
00:59
"Yes, the computerordinateur can tell
if you're lyingmensonge."
16
47490
3624
« Oui, l'ordinateur peut dire
si vous mentez. »
01:03
(LaughterRires)
17
51138
1806
(Rires)
01:04
Well, I laughedri, but actuallyréellement,
the laugh'sde rire on me.
18
52968
2923
J'ai rigolé, mais c'est de moi
qu'on peut se moquer.
01:07
NowadaysDe nos jours, there are computationalcalcul systemssystèmes
19
55915
3268
Il y a aujourd'hui
des systèmes informatiques
01:11
that can sussSuss out
emotionalémotif statesÉtats and even lyingmensonge
20
59207
3548
qui peuvent repérer
les états émotionnels et les mensonges
01:14
from processingEn traitement humanHumain facesvisages.
21
62779
2044
en traitant les informations
du visage humain.
01:17
AdvertisersAnnonceurs and even governmentsGouvernements
are very interestedintéressé.
22
65248
4153
Les publicitaires et les gouvernements
sont très intéressés.
01:22
I had becomedevenir a computerordinateur programmerprogrammeur
23
70319
1862
J'étais devenue programmeuse informatique
01:24
because I was one of those kidsdes gamins
crazyfou about mathmath and sciencescience.
24
72205
3113
car j'étais l'une de ces gamines
folles de maths et de sciences.
01:27
But somewherequelque part alongle long de the lineligne
I'd learnedappris about nuclearnucléaire weaponsarmes,
25
75942
3108
Mais, en chemin, j'avais découvert
les armes nucléaires
01:31
and I'd gottenobtenu really concernedconcerné
with the ethicsdéontologie of sciencescience.
26
79074
2952
et je me sentais très concernée
par l'éthique de la science.
01:34
I was troubledtroublé.
27
82050
1204
J'étais troublée.
01:35
HoweverCependant, because of familyfamille circumstancesconditions,
28
83278
2641
Cependant, du fait
de circonstances familiales,
01:37
I alsoaussi needednécessaire to startdébut workingtravail
as soonbientôt as possiblepossible.
29
85943
3298
je devais aussi commencer à travailler
aussi vite que possible.
01:41
So I thought to myselfmoi même, hey,
let me pickchoisir a technicaltechnique fieldchamp
30
89265
3299
Je me suis dit :
« Choisis un domaine technique
01:44
where I can get a jobemploi easilyfacilement
31
92588
1796
où tu peux avoir un emploi facilement
01:46
and where I don't have to dealtraiter
with any troublesomegênants questionsdes questions of ethicsdéontologie.
32
94408
4018
et où je n'ai pas à gérer
des questions d'éthique difficiles. »
01:51
So I pickedchoisi computersdes ordinateurs.
33
99022
1529
J'ai donc choisi l'informatique.
01:52
(LaughterRires)
34
100575
1104
(Rires)
01:53
Well, haha, haha, haha!
All the laughsdes rires are on me.
35
101703
3410
Eh bien, ah ah ah !
On peut se moquer de moi.
01:57
NowadaysDe nos jours, computerordinateur scientistsscientifiques
are buildingbâtiment platformsplateformes
36
105137
2754
Aujourd'hui, les informaticiens
construisent des plateformes
01:59
that controlcontrôle what a billionmilliard
people see everychaque day.
37
107915
4209
qui contrôlent chaque jour
ce que voient un milliard de personnes.
02:05
They're developingdéveloppement carsdes voitures
that could decidedécider who to runcourir over.
38
113052
3822
Ils développent des voitures
pouvant décider qui écraser.
02:09
They're even buildingbâtiment machinesmachines, weaponsarmes,
39
117707
3213
Ils construisent même
des machines, des armes
qui pourraient tuer
des êtres humains dans une guerre.
02:12
that mightpourrait killtuer humanHumain beingsêtres in warguerre.
40
120944
2285
02:15
It's ethicsdéontologie all the way down.
41
123253
2771
Il y a de l'éthique partout.
02:19
MachineMachine intelligenceintelligence is here.
42
127183
2058
L'intelligence artificielle est arrivée.
02:21
We're now usingen utilisant computationcalcul
to make all sortTrier of decisionsles décisions,
43
129823
3474
Nous utilisons l'informatique
pour prendre toutes sortes de décisions,
02:25
but alsoaussi newNouveau kindssortes of decisionsles décisions.
44
133321
1886
y compris de nouvelles décisions.
02:27
We're askingdemandant questionsdes questions to computationcalcul
that have no singleunique right answersréponses,
45
135231
5172
Nous posons à l'informatique
des questions auxquelles
il n'y a pas d'unique bonne réponse,
02:32
that are subjectivesubjectif
46
140427
1202
qui sont subjectives,
02:33
and open-endedouvert and value-ladenchargés de valeurs.
47
141653
2325
ouvertes et reposent sur des valeurs.
02:36
We're askingdemandant questionsdes questions like,
48
144002
1758
Nous posons des questions comme :
02:37
"Who should the companycompagnie hirelouer?"
49
145784
1650
« Qui devrait-on embaucher ? »
02:40
"WhichQui updatemettre à jour from whichlequel friendami
should you be shownmontré?"
50
148096
2759
« Quelles nouvelles de quel ami
devrait-on vous montrer ? »
02:42
"WhichQui convictforçat is more
likelyprobable to reoffendrécidive?"
51
150879
2266
« Quel prisonnier
va probablement récidiver ? »
02:45
"WhichQui newsnouvelles itemarticle or moviefilm
should be recommendedrecommandé to people?"
52
153514
3054
« Quel nouvel objet ou film
devrait être recommandé aux gens ? »
02:48
Look, yes, we'venous avons been usingen utilisant
computersdes ordinateurs for a while,
53
156592
3372
Cela fait un certain temps
que nous utilisons des ordinateurs
02:51
but this is differentdifférent.
54
159988
1517
mais c'est différent.
02:53
This is a historicalhistorique twistTwist,
55
161529
2067
C'est un changement historique :
02:55
because we cannotne peux pas anchorancre computationcalcul
for suchtel subjectivesubjectif decisionsles décisions
56
163620
5337
car on ne peut pas utiliser l'informatique
pour des décisions si subjectives
03:00
the way we can anchorancre computationcalcul
for flyingen volant airplanesavions, buildingbâtiment bridgesdes ponts,
57
168981
5420
comme on utilise l'informatique
pour piloter un avion, construire un pont,
03:06
going to the moonlune.
58
174425
1259
aller sur la Lune.
03:08
Are airplanesavions saferplus sûr?
Did the bridgepont swaybalancement and falltomber?
59
176449
3259
Les avions sont-ils plus sûrs ?
Un pont a-t-il bougé et est tombé ?
03:11
There, we have agreed-uponconvenues,
fairlyéquitablement clearclair benchmarkspoints de repère,
60
179732
4498
Là, nous nous accordons
sur des repères assez clairs
03:16
and we have lawslois of naturela nature to guideguider us.
61
184254
2239
et les lois de la nature nous guident.
03:18
We have no suchtel anchorspoints d’ancrage and benchmarkspoints de repère
62
186517
3394
Nous n'avons pas de tels ancres et repères
03:21
for decisionsles décisions in messydésordonné humanHumain affairsaffaires.
63
189935
3963
pour les décisions
des affaires complexes humaines.
03:25
To make things more complicatedcompliqué,
our softwareLogiciel is gettingobtenir more powerfulpuissant,
64
193922
4237
Pour compliquer encore les choses,
nos logiciels gagnent en puissance
03:30
but it's alsoaussi gettingobtenir lessMoins
transparenttransparent and more complexcomplexe.
65
198183
3773
mais sont aussi moins transparents
et plus complexes.
03:34
RecentlyRécemment, in the pastpassé decadedécennie,
66
202542
2040
Récemment, les dix dernières années,
03:36
complexcomplexe algorithmsalgorithmes
have madefabriqué great stridespas de géant.
67
204606
2729
les algorithmes complexes
ont fait de grandes avancées.
03:39
They can recognizereconnaître humanHumain facesvisages.
68
207359
1990
Ils peuvent reconnaître
les visages humains,
03:41
They can decipherdéchiffrer handwritingécriture manuscrite.
69
209985
2055
déchiffrer l'écriture,
03:44
They can detectdétecter creditcrédit cardcarte fraudfraude
70
212436
2066
détecter la fraude à la carte bancaire,
03:46
and blockbloc spamSpam
71
214526
1189
bloquer le spam,
03:47
and they can translateTraduire betweenentre languageslangues.
72
215739
2037
traduire d'une langue à une autre,
03:49
They can detectdétecter tumorstumeurs in medicalmédical imagingd’imagerie.
73
217800
2574
détecter les tumeurs en imagerie médicale,
03:52
They can beatbattre humanshumains in chesséchecs and Go.
74
220398
2205
battre les humains aux échecs et au go.
03:55
Much of this progressle progrès comesvient
from a methodméthode calledappelé "machinemachine learningapprentissage."
75
223264
4504
Beaucoup de ces progrès
découlent d'une méthode :
« l'apprentissage de la machine ».
04:00
MachineMachine learningapprentissage is differentdifférent
than traditionaltraditionnel programmingla programmation,
76
228175
3187
Cette méthode est différente
de la programmation traditionnelle
04:03
where you give the computerordinateur
detaileddétaillées, exactexact, painstakingpainstaking instructionsinstructions.
77
231386
3585
où l'on donne des instructions détaillées,
exactes, méticuleuses à l'ordinateur.
04:07
It's more like you take the systemsystème
and you feedalimentation it lots of dataLes données,
78
235378
4182
Cela ressemble plus
à un système nourri de données,
04:11
includingcomprenant unstructurednon structurées dataLes données,
79
239584
1656
dont des données non structurées,
04:13
like the kindgentil we generateGénérer
in our digitalnumérique livesvies.
80
241264
2278
comme celles générées
par notre vie numérique.
04:15
And the systemsystème learnsapprend
by churningbarattage throughpar this dataLes données.
81
243566
2730
Le système apprend
en parcourant ces données.
04:18
And alsoaussi, cruciallycrucialement,
82
246669
1526
Et aussi, c'est crucial,
04:20
these systemssystèmes don't operatefonctionner
underen dessous de a single-answerseule réponse logiclogique.
83
248219
4380
ces systèmes n'utilisent pas la logique
de la réponse unique.
04:24
They don't produceproduire a simplesimple answerrépondre;
it's more probabilisticprobabiliste:
84
252623
2959
Ils ne produisent pas une seule réponse,
c'est plus probabiliste :
04:27
"This one is probablyProbablement more like
what you're looking for."
85
255606
3483
« Celle-ci est probablement
plus proche de ce que vous cherchez. »
04:32
Now, the upsideà l'envers is:
this methodméthode is really powerfulpuissant.
86
260023
3070
L'avantage est que cette méthode
est très puissante.
04:35
The headtête of Google'sDe Google AIAI systemssystèmes calledappelé it,
87
263117
2076
Le chef de l'IA chez Google l'a appelée :
04:37
"the unreasonabledéraisonnable effectivenessefficacité of dataLes données."
88
265217
2197
« l'efficacité irraisonnable
des données ».
04:39
The downsideinconvénient is,
89
267791
1353
L'inconvénient est :
04:41
we don't really understandcomprendre
what the systemsystème learnedappris.
90
269738
3071
nous ne comprenons pas vraiment
ce que le système a appris.
04:44
In factfait, that's its powerPuissance.
91
272833
1587
En fait, c'est sa force.
04:46
This is lessMoins like givingdonnant
instructionsinstructions to a computerordinateur;
92
274946
3798
C'est moins comme donner
des instructions à un ordinateur ;
04:51
it's more like trainingentraînement
a puppy-machine-creaturechiot-machine-créature
93
279200
4064
plus comme entraîner
une machine-chiot-créature
04:55
we don't really understandcomprendre or controlcontrôle.
94
283288
2371
que nous ne comprenons
ni ne contrôlons vraiment.
04:58
So this is our problemproblème.
95
286362
1551
Voilà notre problème.
05:00
It's a problemproblème when this artificialartificiel
intelligenceintelligence systemsystème getsobtient things wrongfaux.
96
288427
4262
C'est un problème quand cette intelligence
artificielle comprend mal les choses.
05:04
It's alsoaussi a problemproblème
when it getsobtient things right,
97
292713
3540
C'est aussi un problème
quand elle comprend les choses
05:08
because we don't even know whichlequel is whichlequel
when it's a subjectivesubjectif problemproblème.
98
296277
3628
car on ne sait pas différencier
ces situations pour un problème subjectif.
05:11
We don't know what this thing is thinkingen pensant.
99
299929
2339
Nous ignorons ce que pense cette chose.
05:15
So, considerconsidérer a hiringembauche algorithmalgorithme de --
100
303493
3683
Considérez un algorithme d'embauche --
05:20
a systemsystème used to hirelouer people,
usingen utilisant machine-learningapprentissage automatique systemssystèmes.
101
308123
4311
un système utilisé pour embaucher des gens
en utilisant l'apprentissage des machines.
05:25
SuchCes a systemsystème would have been trainedqualifié
on previousprécédent employees'employés dataLes données
102
313052
3579
Un tel système aurait été entraîné
sur les données des employés
05:28
and instructeda chargé to find and hirelouer
103
316655
2591
et chargé de trouver et embaucher
05:31
people like the existingexistant
highhaute performersartistes interprètes ou exécutants in the companycompagnie.
104
319270
3038
des gens similaires à ceux
les plus performants de l'entreprise.
05:34
SoundsSons good.
105
322814
1153
Cela semble bien.
05:35
I onceune fois que attendedont participé à a conferenceconférence
106
323991
1999
Une fois, j'ai assisté à une conférence
qui réunissait responsables
des ressources humaines et des dirigeants,
05:38
that broughtapporté togetherensemble
humanHumain resourcesRessources managersles gestionnaires and executivescadres supérieurs,
107
326014
3125
05:41
high-levelhaut niveau people,
108
329163
1206
des gens de haut niveau,
05:42
usingen utilisant suchtel systemssystèmes in hiringembauche.
109
330393
1559
avec de tels systèmes d'embauche.
05:43
They were supersuper excitedexcité.
110
331976
1646
Ils étaient très excités.
05:45
They thought that this would make hiringembauche
more objectiveobjectif, lessMoins biasedbiaisé,
111
333646
4653
Ils pensaient que cela rendrait l'embauche
plus objective, moins biaisée
05:50
and give womenfemmes
and minoritiesminorités a better shotcoup
112
338323
3000
et donnerait plus de chances
aux femmes et minorités
05:53
againstcontre biasedbiaisé humanHumain managersles gestionnaires.
113
341347
2188
face à des responsables RH partiaux.
05:55
And look -- humanHumain hiringembauche is biasedbiaisé.
114
343559
2843
L'embauche humaine est partiale.
05:59
I know.
115
347099
1185
Je sais.
06:00
I mean, in one of my earlyde bonne heure jobsemplois
as a programmerprogrammeur,
116
348308
3005
Dans l'un de mes premiers postes
en tant que programmeuse,
06:03
my immediateimmédiat managerdirecteur would sometimesparfois
come down to where I was
117
351337
3868
ma responsable directe
venait parfois me voir
06:07
really earlyde bonne heure in the morningMatin
or really lateen retard in the afternoonaprès midi,
118
355229
3753
très tôt le matin
ou très tard l'après-midi
06:11
and she'dcabanon say, "ZeynepZeynep,
let's go to lunchle déjeuner!"
119
359006
3062
et elle disait : « Zeinep,
allons déjeuner ! »
06:14
I'd be puzzledperplexe by the weirdbizarre timingtiming.
120
362724
2167
L'heure étrange me laissait perplexe.
06:16
It's 4pmPM. LunchDéjeuner?
121
364915
2129
Il est 16h, déjeuner ?
06:19
I was brokecassé, so freegratuit lunchle déjeuner. I always wentest allé.
122
367068
3094
J'étais fauchée, le déjeuner était gratuit
donc j'y allais toujours.
06:22
I laterplus tard realizedréalisé what was happeningévénement.
123
370618
2067
Plus tard, j'ai réalisé
ce qu'il se passait.
06:24
My immediateimmédiat managersles gestionnaires
had not confesseda avoué to theirleur higher-upsplus-UPS
124
372709
4546
Mes responsables directs
n'avaient pas dit à leurs responsables
06:29
that the programmerprogrammeur they hiredembauché
for a serioussérieux jobemploi was a teenadolescent girlfille
125
377279
3113
qu'ils avaient embauché
pour un travail sérieux une adolescente
06:32
who woreportait jeansjeans and sneakersbaskets to work.
126
380416
3930
qui portait un jeans
et des baskets au travail.
06:37
I was doing a good jobemploi,
I just lookedregardé wrongfaux
127
385174
2202
Je faisais du bon travail
mais mon allure clochait,
06:39
and was the wrongfaux ageâge and genderle genre.
128
387400
1699
j'avais les mauvais âge et sexe.
06:41
So hiringembauche in a gender-sexe- and race-blindcourse aveugle way
129
389123
3346
Embaucher d'une manière
aveugle à la couleur et au sexe
06:44
certainlycertainement soundsdes sons good to me.
130
392493
1865
me semble très bien.
06:47
But with these systemssystèmes,
it is more complicatedcompliqué, and here'svoici why:
131
395031
3341
Mais avec ces systèmes,
c'est plus compliqué, voici pourquoi :
06:50
CurrentlyActuellement, computationalcalcul systemssystèmes
can inferinférer all sortssortes of things about you
132
398968
5791
actuellement, les systèmes informatiques
peuvent déduire beaucoup vous concernant
06:56
from your digitalnumérique crumbsmiettes,
133
404783
1872
grâce à vos miettes numériques,
06:58
even if you have not
discloseddivulgués those things.
134
406679
2333
même si vous n'avez rien révélé.
07:01
They can inferinférer your sexualsexuel orientationorientation,
135
409506
2927
Ils peuvent déduire
votre orientation sexuelle,
07:04
your personalitypersonnalité traitstraits,
136
412994
1306
vos traits de personnalité,
07:06
your politicalpolitique leaningstendances.
137
414859
1373
vos tendances politiques.
07:08
They have predictiveprédictive powerPuissance
with highhaute levelsles niveaux of accuracyprécision.
138
416830
3685
Ils ont des pouvoirs prédictifs
ayant une exactitude élevée.
07:13
RememberN’oubliez pas -- for things
you haven'tn'a pas even discloseddivulgués.
139
421362
2578
Pour des choses
que vous n'avez pas révélées.
07:15
This is inferenceinférence.
140
423964
1591
C'est de la déduction.
07:17
I have a friendami who developeddéveloppé
suchtel computationalcalcul systemssystèmes
141
425579
3261
J'ai une amie qui a développé
de tels systèmes informatiques
07:20
to predictprédire the likelihoodprobabilité
of clinicalclinique or postpartumaprès l’accouchement depressiondépression
142
428864
3641
pour prévoir la probabilité
d'une dépression clinique ou post-partum
07:24
from socialsocial mediamédias dataLes données.
143
432529
1416
grâce à vos médias sociaux.
07:26
The resultsrésultats are impressiveimpressionnant.
144
434676
1427
Les résultats sont impressionnants.
07:28
Her systemsystème can predictprédire
the likelihoodprobabilité of depressiondépression
145
436492
3357
Son système peut prévoir
les risques de dépression
07:31
monthsmois before the onsetdébut of any symptomssymptômes --
146
439873
3903
des mois avant l'apparition
de tout symptôme --
07:35
monthsmois before.
147
443800
1373
des mois avant.
07:37
No symptomssymptômes, there's predictionprédiction.
148
445197
2246
Aucun symptôme mais une prédiction.
07:39
She hopesespère it will be used
for earlyde bonne heure interventionintervention. Great!
149
447467
4812
Elle espère que cela sera utilisé
pour des interventions précoces, super !
07:44
But now put this in the contextle contexte of hiringembauche.
150
452911
2040
Mais mettez cela
dans le contexte de l'embauche.
07:48
So at this humanHumain resourcesRessources
managersles gestionnaires conferenceconférence,
151
456027
3046
Lors de cette conférence
de responsables des ressources humaines,
07:51
I approachedapproché a high-levelhaut niveau managerdirecteur
in a very largegrand companycompagnie,
152
459097
4709
j'ai approché une responsable
d'une très grande entreprise
07:55
and I said to her, "Look,
what if, unbeknownstà l’insu to you,
153
463830
4578
et lui ai dit : « Et si, à votre insu,
08:00
your systemsystème is weedingsarclage out people
with highhaute futureavenir likelihoodprobabilité of depressiondépression?
154
468432
6549
votre système éliminait les gens
avec de forts risques de dépression ?
08:07
They're not depresseddéprimé now,
just maybe in the futureavenir, more likelyprobable.
155
475761
3376
Ils ne sont pas en dépression
mais ont plus de risques pour l'avenir.
08:11
What if it's weedingsarclage out womenfemmes
more likelyprobable to be pregnantEnceinte
156
479923
3406
Et s'il éliminait les femmes
ayant plus de chances d'être enceintes
08:15
in the nextprochain yearan or two
but aren'tne sont pas pregnantEnceinte now?
157
483353
2586
dans un ou deux ans
mais ne le sont pas actuellement ?
08:18
What if it's hiringembauche aggressiveagressif people
because that's your workplacelieu de travail cultureCulture?"
158
486844
5636
Et s'il embauchait des gens agressifs
car c'est la culture de l'entreprise ? »
08:25
You can't tell this by looking
at genderle genre breakdownsventilations.
159
493173
2691
On ne peut pas le dire en regardant
la répartition par sexe.
08:27
Those maymai be balancedéquilibré.
160
495888
1502
Cela peut être équilibré.
08:29
And sincedepuis this is machinemachine learningapprentissage,
not traditionaltraditionnel codingcodage,
161
497414
3557
Puisque c'est de l'apprentissage
de la machine, non du code traditionnel,
08:32
there is no variablevariable there
labeledétiqueté "higherplus haute riskrisque of depressiondépression,"
162
500995
4907
il n'y a pas de variables appelées
« plus de risques de dépression »,
08:37
"higherplus haute riskrisque of pregnancygrossesse,"
163
505926
1833
« plus de risques d'être enceinte »,
08:39
"aggressiveagressif guy scaleéchelle."
164
507783
1734
« échelle d'agressivité d'un mec ».
08:41
Not only do you not know
what your systemsystème is selectingen sélectionnant on,
165
509995
3679
Non seulement vous ignorez
ce que votre système utilise pour choisir,
08:45
you don't even know
where to begincommencer to look.
166
513698
2323
mais vous ignorez où chercher.
08:48
It's a blacknoir boxboîte.
167
516045
1246
C'est une boîte noire.
08:49
It has predictiveprédictive powerPuissance,
but you don't understandcomprendre it.
168
517315
2807
Elle a un pouvoir prédictif
mais vous ne le comprenez pas.
08:52
"What safeguardsmesures de sauvegarde," I askeda demandé, "do you have
169
520486
2369
J'ai demandé : « Quelle garantie avez-vous
08:54
to make sure that your blacknoir boxboîte
isn't doing something shadyShady?"
170
522879
3673
pour vous assurer que votre boîte noire
ne fait rien de louche ? »
09:00
She lookedregardé at me as if I had
just steppedétagé on 10 puppychiot tailsqueues.
171
528863
3878
Elle m'a regardée comme
si je venais de l'insulter.
09:04
(LaughterRires)
172
532765
1248
(Rires)
09:06
She staredregardé at me and she said,
173
534037
2041
Elle m'a fixée et m'a dit :
09:08
"I don't want to hearentendre
anotherun autre wordmot about this."
174
536556
4333
« Je ne veux rien entendre de plus. »
09:13
And she turnedtourné around and walkedmarcha away.
175
541458
2034
Puis elle s'est tournée et est partie.
09:16
MindEsprit you -- she wasn'tn'était pas rudegrossier.
176
544064
1486
Elle n'était pas impolie.
09:17
It was clearlyclairement: what I don't know
isn't my problemproblème, go away, deathdécès stareregard.
177
545574
6308
C'était clairement du :
« ce que j'ignore n'est pas mon problème,
allez-vous en, regard meurtrier ».
09:23
(LaughterRires)
178
551906
1246
(Rires)
09:25
Look, suchtel a systemsystème
maymai even be lessMoins biasedbiaisé
179
553862
3839
Un tel système pourrait être moins biaisé
09:29
than humanHumain managersles gestionnaires in some waysfaçons.
180
557725
2103
que les responsables humains.
09:31
And it could make monetarymonétaire sensesens.
181
559852
2146
Et il pourrait être monétairement censé.
09:34
But it could alsoaussi leadconduire
182
562573
1650
Mais il pourrait aussi mener
09:36
to a steadystable but stealthyfurtif
shuttingfermeture out of the jobemploi marketmarché
183
564247
4748
à une fermeture du marché du travail
stable mais dissimulée
09:41
of people with higherplus haute riskrisque of depressiondépression.
184
569019
2293
pour les gens avec
plus de risques de dépression.
09:43
Is this the kindgentil of societysociété
we want to buildconstruire,
185
571753
2596
Est-ce le genre de société
que nous voulons bâtir,
09:46
withoutsans pour autant even knowingconnaissance we'venous avons doneterminé this,
186
574373
2285
sans même savoir que nous l'avons fait,
09:48
because we turnedtourné decision-makingla prise de décision
to machinesmachines we don't totallytotalement understandcomprendre?
187
576682
3964
car nous avons confié
la prise de décisions à des machines
que nous ne comprenons pas vraiment ?
09:53
AnotherUn autre problemproblème is this:
188
581265
1458
Un autre problème :
09:55
these systemssystèmes are oftensouvent trainedqualifié
on dataLes données generatedgénéré by our actionsactes,
189
583314
4452
ces systèmes sont souvent entraînés
sur des données générées par nos actions,
09:59
humanHumain imprintsempreintes.
190
587790
1816
des empreintes humaines.
10:02
Well, they could just be
reflectingrefléter our biasesbiais,
191
590188
3808
Elles pourraient refléter nos préjugés
10:06
and these systemssystèmes
could be pickingcueillette up on our biasesbiais
192
594020
3593
et ces systèmes pourraient
apprendre nos préjugés,
10:09
and amplifyingamplifier them
193
597637
1313
les amplifier
10:10
and showingmontrer them back to us,
194
598974
1418
et nous les retourner
10:12
while we're tellingrécit ourselvesnous-mêmes,
195
600416
1462
alors que nous nous disons :
10:13
"We're just doing objectiveobjectif,
neutralneutre computationcalcul."
196
601902
3117
« Nous ne faisons que de l'informatique
neutre et objective. »
10:18
ResearchersChercheurs founda trouvé that on GoogleGoogle,
197
606314
2677
Des chercheurs chez Google ont découvert
10:22
womenfemmes are lessMoins likelyprobable than menHommes
to be shownmontré jobemploi adsles publicités for high-payingrémunérés jobsemplois.
198
610134
5313
qu'on a moins de chances de montrer
aux femmes plutôt qu'aux hommes
des offres d'emploi avec un salaire élevé.
10:28
And searchingrecherche for African-AmericanAfro-américain namesdes noms
199
616463
2530
Et chercher des noms afro-américains
10:31
is more likelyprobable to bringapporter up adsles publicités
suggestingsuggérant criminalcriminel historyhistoire,
200
619017
4706
a plus de chances de retourner
des publicités suggérant
un historique criminel,
10:35
even when there is noneaucun.
201
623747
1567
même quand il n'y en a pas.
10:38
SuchCes hiddencaché biasesbiais
and black-boxboîte noire algorithmsalgorithmes
202
626693
3549
De tels préjugés cachés
et des algorithmes boîte noire
10:42
that researchersdes chercheurs uncoverdécouvrir sometimesparfois
but sometimesparfois we don't know,
203
630266
3973
qui sont parfois découverts
par les chercheurs, parfois non,
10:46
can have life-alteringqui change la vie consequencesconséquences.
204
634263
2661
peuvent avoir des conséquences
qui changent la vie.
10:49
In WisconsinWisconsin, a defendantdéfendeur
was sentencedcondamné to sixsix yearsannées in prisonprison
205
637958
4159
Dans le Wisconsin, un prévenu
a été condamné à 6 ans de prison
10:54
for evadingse soustraire the policepolice.
206
642141
1355
pour avoir échappé à la police.
10:56
You maymai not know this,
207
644824
1186
Vous l'ignorez peut-être
10:58
but algorithmsalgorithmes are increasinglyde plus en plus used
in parolelibération conditionnelle and sentencingdétermination de la peine decisionsles décisions.
208
646034
3998
mais des algorithmes sont utilisés
pour les probations et les condamnations.
11:02
He wanted to know:
How is this scoreBut calculatedcalculé?
209
650056
2955
Nous voulions savoir
comment ce score était calculé.
11:05
It's a commercialcommercial blacknoir boxboîte.
210
653795
1665
C'est une boîte noire commerciale.
11:07
The companycompagnie refuseda refusé to have its algorithmalgorithme de
be challengedcontesté in openouvrir courttribunal.
211
655484
4205
L'entreprise a refusé que l'on conteste
son algorithme en audience publique.
11:12
But ProPublicaProPublica, an investigatived’enquête
nonprofitnon lucratif, auditedaudités that very algorithmalgorithme de
212
660396
5532
Mais ProPublica, une organisation
d'enquête, a audité cet algorithme
11:17
with what publicpublic dataLes données they could find,
213
665952
2016
avec des données publiques
11:19
and founda trouvé that its outcomesrésultats were biasedbiaisé
214
667992
2316
et a découvert
que les résultats étaient biaisés,
11:22
and its predictiveprédictive powerPuissance
was dismallamentable, barelyà peine better than chancechance,
215
670332
3629
que son pouvoir prédictif était mauvais,
à peine meilleur que la chance,
11:25
and it was wronglyà tort labelingl’étiquetage
blacknoir defendantsdéfendeurs as futureavenir criminalscriminels
216
673985
4416
et qu'il étiquetait les prévenus noirs
comme de futurs criminels
11:30
at twicedeux fois the ratetaux of whiteblanc defendantsdéfendeurs.
217
678425
3895
avec un taux deux fois plus élevé
que pour les prévenus blancs.
11:35
So, considerconsidérer this caseCas:
218
683891
1564
Considérez ce cas :
11:38
This womanfemme was lateen retard
pickingcueillette up her godsistergodsister
219
686103
3852
cette femme était en retard
pour récupérer sa filleule
11:41
from a schoolécole in BrowardBroward CountyComté de, FloridaFloride,
220
689979
2075
à une école du comté de Broward,
en Floride,
11:44
runningfonctionnement down the streetrue
with a friendami of hersla sienne.
221
692757
2356
elle courait dans la rue
avec une amie à elle.
11:47
They spottedtacheté an unlockeddéverrouillé kid'sdes gamins bikebicyclette
and a scooterscooter on a porchporche
222
695137
4099
Elles ont repéré une bécane et un vélo
non attachés sur un porche
11:51
and foolishlybêtement jumpedsauté on it.
223
699260
1632
et ont bêtement sauté dessus.
11:52
As they were speedingexcès de vitesse off,
a womanfemme camevenu out and said,
224
700916
2599
Alors qu'elles partaient,
une femme est sortie et a dit :
11:55
"Hey! That's my kid'sdes gamins bikebicyclette!"
225
703539
2205
« Hey ! C'est la bécane de mon fils ! »
11:57
They droppedchuté it, they walkedmarcha away,
but they were arrestedarrêté.
226
705768
3294
Elles l'ont lâchée, sont parties
mais ont été arrêtées.
12:01
She was wrongfaux, she was foolishstupide,
but she was alsoaussi just 18.
227
709086
3637
Elle avait tort, elle a été idiote
mais elle n'avait que 18 ans.
12:04
She had a couplecouple of juvenilejuvénile misdemeanorsdélits.
228
712747
2544
Adolescente, elle avait commis
quelques méfaits.
12:07
MeanwhilePendant ce temps, that man had been arrestedarrêté
for shopliftingvol à l’étalage in Home DepotDépôt --
229
715808
5185
Pendant ce temps, cet homme a été arrêté
pour vol chez Home Depot --
12:13
85 dollars'dollars worthvaut of stuffdes trucs,
a similarsimilaire pettypetit crimela criminalité.
230
721017
2924
pour une valeur de 85$,
un crime mineur similaire.
12:16
But he had two prioravant
armedarmé robberyvol qualifié convictionsdéclarations de culpabilité.
231
724766
4559
Mais il avait deux condamnations
pour vol à main armée.
12:21
But the algorithmalgorithme de scoreda marqué her
as highhaute riskrisque, and not him.
232
729955
3482
L'algorithme l'a considérée elle,
comme étant un risque important, pas lui.
12:26
Two yearsannées laterplus tard, ProPublicaProPublica founda trouvé
that she had not reoffendedrécidivé.
233
734746
3874
Deux ans plus tard, ProPublica a découvert
qu'elle n'avait pas récidivé.
Son casier judiciaire compliquait
sa recherche d'emploi.
12:30
It was just harddifficile to get a jobemploi
for her with her recordrecord.
234
738644
2550
12:33
He, on the other handmain, did reoffendrécidive
235
741218
2076
Lui, d'un autre côté, avait récidivé
12:35
and is now servingportion an eight-yearhuit ans
prisonprison termterme for a laterplus tard crimela criminalité.
236
743318
3836
et avait été condamné à 8 ans
pour un autre crime.
12:40
ClearlyClairement, we need to auditvérification our blacknoir boxesdes boites
237
748088
3369
Clairement, nous devons
auditer nos boîtes noires
12:43
and not have them have
this kindgentil of uncheckedUnchecked powerPuissance.
238
751481
2615
et ne pas leur laisser
ce genre de pouvoir incontrôlé.
12:46
(ApplauseApplaudissements)
239
754120
2879
(Applaudissements)
12:50
AuditsAudits are great and importantimportant,
but they don't solverésoudre all our problemsproblèmes.
240
758087
4242
Les audits sont importants,
mais ils ne résolvent pas
tous nos problèmes.
12:54
Take Facebook'sDe Facebook powerfulpuissant
newsnouvelles feedalimentation algorithmalgorithme de --
241
762353
2748
Prenez le puissant algorithme
du fil d'actualités Facebook,
12:57
you know, the one that ranksrangs everything
and decidesdécide what to showmontrer you
242
765125
4843
celui qui classe tout
et décide quoi vous montrer
13:01
from all the friendscopains and pagespages you followsuivre.
243
769992
2284
des amis et des pages que vous suivez.
13:04
Should you be shownmontré anotherun autre babybébé picturephoto?
244
772898
2275
Devrait-on vous montrer
une autre photo de bébé ?
13:07
(LaughterRires)
245
775197
1196
(Rires)
13:08
A sullenmaussade noteRemarque from an acquaintanceconnaissance?
246
776417
2596
Une note maussade d'une connaissance ?
13:11
An importantimportant but difficultdifficile newsnouvelles itemarticle?
247
779449
1856
Une actualité importante mais dure ?
13:13
There's no right answerrépondre.
248
781329
1482
Il n'y a pas de bonne réponse.
13:14
FacebookFacebook optimizesoptimise
for engagementengagement on the sitesite:
249
782835
2659
Facebook optimise
pour vous engager envers le site :
13:17
likesaime, sharesactions, commentscommentaires.
250
785518
1415
les j'aime, partages, commentaires.
13:20
In AugustAoût of 2014,
251
788168
2696
En août 2014,
des manifestations ont éclaté
à Ferguson, dans le Missouri,
13:22
protestsprotestations brokecassé out in FergusonFerguson, MissouriMissouri,
252
790888
2662
13:25
after the killingmeurtre of an African-AmericanAfro-américain
teenageradolescent by a whiteblanc policepolice officerofficier,
253
793574
4417
après qu'un adolescent afro-américain
a été tué par un officier de police blanc
13:30
underen dessous de murkyglauque circumstancesconditions.
254
798015
1570
dans des circonstances douteuses.
13:31
The newsnouvelles of the protestsprotestations was all over
255
799974
2007
La nouvelle des manifestations remplissait
mon fil d'actualité Twitter non filtré
13:34
my algorithmicallyalgorithmiquement
unfilterednon filtré TwitterTwitter feedalimentation,
256
802005
2685
13:36
but nowherenulle part on my FacebookFacebook.
257
804714
1950
mais n'était pas sur mon Facebook.
13:39
Was it my FacebookFacebook friendscopains?
258
807182
1734
Était-ce mes amis Facebook ?
13:40
I disableddésactivée Facebook'sDe Facebook algorithmalgorithme de,
259
808940
2032
J'ai désactivé l'algorithme Facebook,
13:43
whichlequel is harddifficile because FacebookFacebook
keepsgarde wantingvouloir to make you
260
811472
2848
ce qui est difficile car Facebook
veut vous faire passer
13:46
come underen dessous de the algorithm'sd’algorithme controlcontrôle,
261
814344
2036
sous le contrôle de l'algorithme,
13:48
and saw that my friendscopains
were talkingparlant about it.
262
816404
2238
et j'ai vu que mes amis en parlaient.
13:50
It's just that the algorithmalgorithme de
wasn'tn'était pas showingmontrer it to me.
263
818666
2509
C'est juste que l'algorithme
ne me le montrait pas.
13:53
I researcheddocumenté this and founda trouvé
this was a widespreadrépandu problemproblème.
264
821199
3042
Après des recherches, j'ai découvert
que le problème est répandu.
13:56
The storyrécit of FergusonFerguson
wasn'tn'était pas algorithm-friendlyrespectueux de l’algorithme.
265
824265
3813
L'histoire de Ferguson
ne plaisait pas à l'algorithme.
14:00
It's not "likablesympathique."
266
828102
1171
Ce n'était pas « aimable »,
qui allait cliquer sur « j'aime » ?
14:01
Who'sQui de going to clickCliquez on "like?"
267
829297
1552
14:03
It's not even easyfacile to commentcommentaire on.
268
831500
2206
Ce n'est même pas facile à commenter.
14:05
WithoutSans likesaime and commentscommentaires,
269
833730
1371
Sans j'aime et commentaires,
14:07
the algorithmalgorithme de was likelyprobable showingmontrer it
to even fewermoins people,
270
835125
3292
l'algorithme allait le montrer
à un nombre décroissant de gens,
14:10
so we didn't get to see this.
271
838441
1542
donc nous ne pouvions le voir.
14:12
InsteadAu lieu de cela, that weekla semaine,
272
840946
1228
Cette semaine-là,
14:14
Facebook'sDe Facebook algorithmalgorithme de highlighteda souligné this,
273
842198
2298
Facebook a plutôt souligné ceci,
14:16
whichlequel is the ALSALS IceGlace BucketSeau ChallengeDéfi.
274
844520
2226
le Ice Bucket Challenge.
14:18
WorthyDigne causecause; dumpdéverser icela glace watereau,
donatefaire un don to charitycharité, fine.
275
846770
3742
Cause méritante, lâcher d'eau glacée,
donner à une charité, très bien.
14:22
But it was supersuper algorithm-friendlyrespectueux de l’algorithme.
276
850536
1904
Cela plaisait beaucoup à l'algorithme.
14:25
The machinemachine madefabriqué this decisiondécision for us.
277
853219
2613
La machine a pris
cette décision pour nous.
14:27
A very importantimportant
but difficultdifficile conversationconversation
278
855856
3497
Une conversation
très importante mais difficile
14:31
mightpourrait have been smotheredétouffé,
279
859377
1555
aurait pu être étouffée
14:32
had FacebookFacebook been the only channelcanal.
280
860956
2696
si Facebook avait été le seul canal.
14:36
Now, finallyenfin, these systemssystèmes
can alsoaussi be wrongfaux
281
864117
3797
Finalement, ces systèmes
peuvent aussi avoir tort
14:39
in waysfaçons that don't resembleressemblent à des humanHumain systemssystèmes.
282
867938
2736
de façons qui ne ressemblent pas
aux systèmes humains.
14:42
Do you guys rememberrappelles toi WatsonWatson,
IBM'sIBM machine-intelligencemachine-intelligence systemsystème
283
870698
2922
Vous souvenez-vous de Watson,
le système d'IA d'IBM
14:45
that wipedessuyé the floorsol
with humanHumain contestantscandidats à la direction on JeopardyJeopardy?
284
873644
3128
qui a éliminé les participants humains
dans Jeopardy ?
14:49
It was a great playerjoueur.
285
877131
1428
C'était un super joueur.
14:50
But then, for FinalFinale JeopardyJeopardy,
WatsonWatson was askeda demandé this questionquestion:
286
878583
3569
Mais, pour la finale de Jeopardy,
on a posé cette question à Watson :
14:54
"Its largestplus grand airportaéroport is namednommé
for a WorldMonde WarGuerre IIII herohéros,
287
882659
2932
« Le plus grand aéroport
ayant le nom d'un héros de 39-45,
le second plus grand
pour une bataille de 39-45. »
14:57
its second-largestdeuxième
for a WorldMonde WarGuerre IIII battlebataille."
288
885615
2252
14:59
(HumsBourdonne FinalFinale JeopardyJeopardy musicla musique)
289
887891
1378
(Signal sonore de fin)
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humanshumains got it right.
291
890788
1370
Les deux humains avaient raison.
15:04
WatsonWatson, on the other handmain,
answeredrépondu "TorontoToronto" --
292
892697
4348
Watson, par contre,
a répondu « Toronto » --
15:09
for a US cityville categoryCatégorie!
293
897069
1818
à une question
sur les villes des États-Unis !
15:11
The impressiveimpressionnant systemsystème alsoaussi madefabriqué an errorErreur
294
899596
2901
L'impressionnant système
a aussi fait une erreur
15:14
that a humanHumain would never make,
a second-graderélève de deuxième année wouldn'tne serait pas make.
295
902521
3651
qu'un humain ne ferait jamais,
qu'un CE1 ne ferait jamais.
15:18
Our machinemachine intelligenceintelligence can failéchouer
296
906823
3109
Notre intelligence artificielle
peut échouer
15:21
in waysfaçons that don't fiten forme
errorErreur patternsmodèles of humanshumains,
297
909956
3100
de façons ne correspondant pas
aux schémas d'erreurs humaines,
15:25
in waysfaçons we won'thabitude expectattendre
and be preparedpréparé for.
298
913080
2950
de façons inattendues et imprévues.
15:28
It'dIl serait be lousypouilleux not to get a jobemploi
one is qualifiedqualifié for,
299
916054
3638
Il serait lamentable de ne pas obtenir
un emploi pour lequel on est qualifié
15:31
but it would tripletripler sucksucer
if it was because of stackempiler overflowdépassement de capacité
300
919716
3727
mais ce serait pire si c'était à cause
d'un dépassement de pile
15:35
in some subroutinesous-routine.
301
923467
1432
dans une sous-routine.
15:36
(LaughterRires)
302
924923
1579
(Rires)
15:38
In MayMai of 2010,
303
926526
2786
En mai 2010,
15:41
a flashflash crashcrash on WallMur StreetRue
fueledalimenté by a feedbackretour d'information loopboucle
304
929336
4044
un crash éclair sur Wall Street
alimenté par une boucle de rétroaction
15:45
in WallMur Street'sDe la rue "sellvendre" algorithmalgorithme de
305
933404
3028
dans un algorithme de vente de Wall Street
15:48
wipedessuyé a trillionbillion dollarsdollars
of valuevaleur in 36 minutesminutes.
306
936456
4184
a fait perdre mille milliards de dollars
en 36 minutes.
15:53
I don't even want to think
what "errorErreur" meansveux dire
307
941722
2187
Je refuse de penser
au sens du mot « erreur »
15:55
in the contextle contexte of lethalmortel
autonomousautonome weaponsarmes.
308
943933
3589
dans le contexte des armes
mortelles autonomes.
16:01
So yes, humanshumains have always madefabriqué biasesbiais.
309
949894
3790
Oui, les humains
ont toujours été partiaux.
16:05
DecisionDécision makersles décideurs and gatekeeperscontrôleurs d’accès,
310
953708
2176
Les preneurs de décision et gardiens,
16:07
in courtstribunaux, in newsnouvelles, in warguerre ...
311
955908
3493
dans les tribunaux,
les actualités, en guerre...
16:11
they make mistakeserreurs;
but that's exactlyexactement my pointpoint.
312
959425
3038
Ils font des erreurs ;
mais c'est de cela dont je parle.
16:14
We cannotne peux pas escapeéchapper
these difficultdifficile questionsdes questions.
313
962487
3521
Nous ne pouvons pas échapper
à ces questions difficiles.
16:18
We cannotne peux pas outsourceexternaliser
our responsibilitiesresponsabilités to machinesmachines.
314
966596
3516
Nous ne pouvons pas sous-traiter
nos responsabilités aux machines.
16:22
(ApplauseApplaudissements)
315
970676
4208
(Applaudissements)
16:29
ArtificialArtificiel intelligenceintelligence does not give us
a "Get out of ethicsdéontologie freegratuit" cardcarte.
316
977089
4447
L'intelligence artificielle n'offre pas
une carte « sortie de l'éthique ».
16:34
DataDonnées scientistscientifique FredFred BenensonBenenson
callsappels this math-washingMath-lavage.
317
982742
3381
Le scientifique des données Fred Benenson
qualifie cela de lavage des maths.
16:38
We need the oppositecontraire.
318
986147
1389
Il nous faut l'opposé.
16:39
We need to cultivatecultiver algorithmalgorithme de suspicionsoupçons,
scrutinyexamen and investigationenquête.
319
987560
5388
Nous devons cultiver la suspicion,
le contrôle et l'enquête de l'algorithme.
16:45
We need to make sure we have
algorithmicalgorithmique accountabilityresponsabilité,
320
993380
3198
Nous devons nous assurer
de la responsabilité des algorithmes,
16:48
auditingl’audit and meaningfulsignificatif transparencytransparence.
321
996602
2445
les auditer et avoir
une transparence significative.
16:51
We need to acceptAcceptez
that bringingapportant mathmath and computationcalcul
322
999380
3234
Nous devons accepter
qu'apporter les maths et l'informatique
16:54
to messydésordonné, value-ladenchargés de valeurs humanHumain affairsaffaires
323
1002638
2970
dans les affaires humaines
désordonnées et basées sur des valeurs
16:57
does not bringapporter objectivityobjectivité;
324
1005632
2384
n'apporte pas l'objectivité
17:00
ratherplutôt, the complexitycomplexité of humanHumain affairsaffaires
invadesenvahit the algorithmsalgorithmes.
325
1008040
3633
mais plutôt que la complexité
des affaires humaines
envahit les algorithmes.
17:04
Yes, we can and we should use computationcalcul
326
1012148
3487
Nous devrions utiliser l'informatique
17:07
to help us make better decisionsles décisions.
327
1015659
2014
pour prendre de meilleures décisions.
17:09
But we have to ownposséder up
to our moralmoral responsibilityresponsabilité to judgmentjugement,
328
1017697
5332
Mais nous devons assumer
notre responsabilité morale de jugement
17:15
and use algorithmsalgorithmes withindans that frameworkcadre,
329
1023053
2818
et utiliser les algorithmes dans ce cadre,
17:17
not as a meansveux dire to abdicateabdiquer
and outsourceexternaliser our responsibilitiesresponsabilités
330
1025895
4935
pas comme un moyen d'abdiquer
et sous-traiter nos responsabilités
17:22
to one anotherun autre as humanHumain to humanHumain.
331
1030854
2454
d'un humain à un autre.
17:25
MachineMachine intelligenceintelligence is here.
332
1033807
2609
L'intelligence artificielle est arrivée.
17:28
That meansveux dire we mustdoit holdtenir on ever tighterplus serré
333
1036440
3421
Cela signifie que nous devons
nous accrocher encore plus
17:31
to humanHumain valuesvaleurs and humanHumain ethicsdéontologie.
334
1039885
2147
aux valeurs et éthiques humaines.
17:34
Thank you.
335
1042056
1154
Merci.
17:35
(ApplauseApplaudissements)
336
1043234
5020
(Applaudissements)
Translated by Thomas P.
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com