ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: L'ère de la confiance absolue dans le Big Data doit prendre fin

Filmed:
1,391,460 views

Les algorithmes déterminent qui peut obtenir un prêt, un entretien, une assurance ou beaucoup d'autres choses encore -- mais ce n'est pas pour ça qu'ils rendent les choses équitables. Cathy O'Neil, mathématicienne et scientifique de données, a inventé un nom pour les algorithmes qui sont secrets, importants et dangereux : « armes de destruction math-ive ». Apprenez-en plus sur les intentions cachées derrière les formules.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgorithmes are everywherepartout.
0
975
1596
Les algorithmes sont partout.
00:16
They sortTrier and separateséparé
the winnersgagnants from the losersperdants.
1
4111
3125
Ils trient et séparent
les vainqueurs des perdants.
00:20
The winnersgagnants get the jobemploi
2
8019
2264
Les vainqueurs obtiennent le poste
ou une bonne offre de carte de crédit.
00:22
or a good creditcrédit cardcarte offeroffre.
3
10307
1743
00:24
The losersperdants don't even get an interviewentretien
4
12074
2651
Les perdants n'obtiennent
même pas un entretien
00:27
or they payPayer more for insuranceAssurance.
5
15590
1777
ou paient leur assurance plus cher.
00:30
We're beingétant scoreda marqué with secretsecret formulasformules
that we don't understandcomprendre
6
18197
3549
On nous classe avec des formules secrètes
que nous ne comprenons pas
00:34
that oftensouvent don't have systemssystèmes of appealcharme.
7
22675
3217
qui n'offrent pas souvent
de systèmes de recours.
00:39
That begssupplie the questionquestion:
8
27240
1296
La question se pose donc :
00:40
What if the algorithmsalgorithmes are wrongfaux?
9
28560
2913
et si les algorithmes sont faux ?
00:45
To buildconstruire an algorithmalgorithme de you need two things:
10
33100
2040
Deux choses constituent un algorithme :
00:47
you need dataLes données, what happenedarrivé in the pastpassé,
11
35164
1981
des données historiques,
00:49
and a definitiondéfinition of successSuccès,
12
37169
1561
et une définition du succès,
00:50
the thing you're looking for
and oftensouvent hopingen espérant for.
13
38754
2457
ce que l'on espère trouver.
00:53
You traintrain an algorithmalgorithme de
by looking, figuringfigurer out.
14
41235
5037
On forme un algorithme
en observant, en comprenant,
00:58
The algorithmalgorithme de figureschiffres out
what is associatedassocié with successSuccès.
15
46296
3419
l'algorithme trouve ce que
l'on associe au succès,
01:01
What situationsituation leadspistes to successSuccès?
16
49739
2463
la situation qui mène au succès.
En fait,
tout le monde utilise des algorithmes
01:04
ActuallyEn fait, everyonetoutes les personnes usesles usages algorithmsalgorithmes.
17
52881
1762
sans forcément les formaliser
en les écrivant.
01:06
They just don't formalizeformaliser them
in writtenécrit codecode.
18
54667
2718
01:09
Let me give you an exampleExemple.
19
57409
1348
Voici un exemple :
chaque jour, en cuisinant
je me sers d'un algorithme.
01:10
I use an algorithmalgorithme de everychaque day
to make a mealrepas for my familyfamille.
20
58781
3316
Les données que j'utilise
01:14
The dataLes données I use
21
62121
1476
sont les ingrédients à disposition,
01:16
is the ingredientsIngrédients in my kitchencuisine,
22
64394
1659
le temps dont je dispose,
01:18
the time I have,
23
66077
1527
l'ambition que j'ai,
01:19
the ambitionambition I have,
24
67628
1233
01:20
and I curatevicaire that dataLes données.
25
68885
1709
et je conserve ces données.
Je ne considère pas les paquets
de ramen comme de la nourriture.
01:22
I don't countcompter those little packagespaquets
of ramenramen noodlesnouilles as foodaliments.
26
70618
4251
(Rires)
01:26
(LaughterRires)
27
74893
1869
01:28
My definitiondéfinition of successSuccès is:
28
76786
1845
Ma définition du succès est :
01:30
a mealrepas is successfulréussi
if my kidsdes gamins eatmanger vegetablesdes légumes.
29
78655
2659
un repas est réussi si mes enfants
mangent des légumes.
Si mon fils était aux commandes,
ce serait différent.
01:34
It's very differentdifférent
from if my youngestle plus jeune sonfils were in chargecharge.
30
82181
2854
01:37
He'dIl serait say successSuccès is if
he getsobtient to eatmanger lots of NutellaNutella.
31
85059
2788
Pour lui, le succès serait
de manger plein de Nutella.
Mais c'est moi qui choisis
ce qu'est le succès.
01:41
But I get to choosechoisir successSuccès.
32
89179
2226
01:43
I am in chargecharge. My opinionopinion mattersimporte.
33
91429
2707
Je commande. C'est mon avis qui compte.
01:46
That's the first ruleRègle of algorithmsalgorithmes.
34
94160
2675
C'est la première règle des algorithmes.
01:48
AlgorithmsAlgorithmes are opinionsdes avis embeddedintégré in codecode.
35
96859
3180
Les algorithmes sont des opinions
intégrées dans du code.
01:53
It's really differentdifférent from what you think
mostles plus people think of algorithmsalgorithmes.
36
101562
3663
C'est très différent de ce que
les gens pensent des algorithmes.
01:57
They think algorithmsalgorithmes are objectiveobjectif
and truevrai and scientificscientifique.
37
105249
4504
Ils pensent que les algorithmes sont
objectifs, vrais et scientifiques.
02:02
That's a marketingcommercialisation tricktour.
38
110387
1699
C'est une astuce marketing.
02:05
It's alsoaussi a marketingcommercialisation tricktour
39
113269
2125
C'en est une autre
02:07
to intimidateintimider you with algorithmsalgorithmes,
40
115418
3154
de vous intimider avec des algorithmes,
de vous faire croire et craindre
les algorithmes,
02:10
to make you trustconfiance and fearpeur algorithmsalgorithmes
41
118596
3661
car vous croyez et craignez
les mathématiques.
02:14
because you trustconfiance and fearpeur mathematicsmathématiques.
42
122281
2018
02:17
A lot can go wrongfaux when we put
blindaveugle faithFoi in biggros dataLes données.
43
125567
4830
Tout peut mal tourner quand on a
une foi aveugle dans le Big Data.
Voici Kiri Soares. Elle est directrice
d'un lycée à Brooklyn.
02:23
This is KiriKiri SoaresSoares.
She's a highhaute schoolécole principalprincipal in BrooklynBrooklyn.
44
131684
3373
En 2011, elle m'a dit que ses
professeurs étaient classés
02:27
In 2011, she told me
her teachersenseignants were beingétant scoreda marqué
45
135081
2586
02:29
with a complexcomplexe, secretsecret algorithmalgorithme de
46
137691
2727
par un algorithme complexe et secret
appelé le « modèle de valeur ajoutée ».
02:32
calledappelé the "value-addedà valeur ajoutée modelmaquette."
47
140442
1489
02:34
I told her, "Well, figurefigure out
what the formulaformule is, showmontrer it to me.
48
142505
3092
Je lui ai dit : « Trouve la formule,
montre-la moi,
et je vais te l'expliquer. »
02:37
I'm going to explainExplique it to you."
49
145621
1541
02:39
She said, "Well, I trieda essayé
to get the formulaformule,
50
147186
2141
Elle m'a dit :
« J'ai essayé de la trouver,
mais le Ministère de l'éducation
m'a dit que c'était des "maths"
02:41
but my DepartmentDépartement of EducationÉducation contactcontact
told me it was mathmath
51
149351
2772
02:44
and I wouldn'tne serait pas understandcomprendre it."
52
152147
1546
et que je ne comprendrais pas. »
Il y a pire.
02:47
It getsobtient worsepire.
53
155266
1338
Le New York Post a invoqué la loi
sur la liberté d'information,
02:48
The NewNouveau YorkYork PostPublier filedClassé
a FreedomLiberté of InformationInformations ActLoi sur les requestdemande,
54
156628
3530
02:52
got all the teachers'enseignantes namesdes noms
and all theirleur scoresscores
55
160182
2959
a obtenu les noms des enseignants
ainsi que leur classement,
02:55
and they publishedpublié them
as an actacte of teacher-shamingenseignant-honte.
56
163165
2782
et les ont publiés
pour humilier les enseignants.
02:59
When I trieda essayé to get the formulasformules,
the sourcela source codecode, throughpar the sameMême meansveux dire,
57
167084
3860
Quand j'ai tenté d'avoir les formules,
le code source, par les mêmes moyens,
03:02
I was told I couldn'tne pouvait pas.
58
170968
2149
on m'a dit que je ne pouvais pas.
03:05
I was deniedrefusé.
59
173141
1236
On me les a refusés.
03:06
I laterplus tard founda trouvé out
60
174401
1174
Plus tard, j'ai découvert
03:07
that nobodypersonne in NewNouveau YorkYork CityVille
had accessaccès to that formulaformule.
61
175599
2866
que personne à New York n'avait
accès à cette formule.
03:10
No one understoodcompris it.
62
178489
1305
Personne ne la comprenait.
03:13
Then someoneQuelqu'un really smartintelligent
got involvedimpliqué, GaryGary RubensteinRubenstein.
63
181929
3224
Puis quelqu'un de très malin
s'en est mêlé, Gary Rubinstein.
03:17
He founda trouvé 665 teachersenseignants
from that NewNouveau YorkYork PostPublier dataLes données
64
185177
3621
Il a trouvé 665 enseignants
des données du New York Post
03:20
that actuallyréellement had two scoresscores.
65
188822
1866
qui avaient deux notes.
03:22
That could happense produire if they were teachingenseignement
66
190712
1881
Cela peut arriver s'ils enseignaient
03:24
seventhseptième gradequalité mathmath and eighthhuitième gradequalité mathmath.
67
192617
2439
les maths en cinquième et en quatrième.
03:27
He decideddécidé to plotterrain them.
68
195080
1538
Il a décidé d'en faire un graphique.
03:28
EachChaque dotpoint representsreprésente a teacherprof.
69
196642
1993
Chaque point représente un enseignant.
03:31
(LaughterRires)
70
199104
2379
(Rires)
03:33
What is that?
71
201507
1521
Qu'est-ce que c'est ?
03:35
(LaughterRires)
72
203052
1277
(Rires)
03:36
That should never have been used
for individualindividuel assessmentévaluation.
73
204353
3446
Ça n'aurait jamais dû être utilisé
pour des évaluations individuelles.
03:39
It's almostpresque a randomau hasard numbernombre generatorGénérateur.
74
207823
1926
On dirait presque un générateur aléatoire.
03:41
(ApplauseApplaudissements)
75
209773
2946
(Applaudissements)
03:44
But it was.
76
212743
1162
Mais ça l'a été.
Voici Sarah Wysocki.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
03:47
She got firedmis à la porte, alongle long de
with 205 other teachersenseignants,
78
215129
2175
Elle a été virée
avec 205 autres enseignants
03:49
from the WashingtonWashington, DCDC schoolécole districtdistrict,
79
217328
2662
du secteur scolaire de Washington,
03:52
even thoughbien que she had great
recommendationsrecommandations from her principalprincipal
80
220014
2909
malgré les excellentes
recommandations de son directeur
03:54
and the parentsParents of her kidsdes gamins.
81
222947
1428
et des parents de ses élèves.
Je sais ce que bon nombre
d'entre vous pensent,
03:57
I know what a lot
of you guys are thinkingen pensant,
82
225390
2032
03:59
especiallynotamment the dataLes données scientistsscientifiques,
the AIAI expertsexperts here.
83
227446
2487
surtout les scientifiques de données,
vous vous dites que vous ne feriez jamais
un algorithme aussi incohérent.
04:01
You're thinkingen pensant, "Well, I would never make
an algorithmalgorithme de that inconsistentinconsistant."
84
229957
4226
Mais les algorithmes peuvent mal tourner,
04:06
But algorithmsalgorithmes can go wrongfaux,
85
234853
1683
04:08
even have deeplyprofondément destructivedestructrice effectseffets
with good intentionsintentions.
86
236560
4598
voire avoir des effets destructeurs
avec de bonnes intentions.
04:14
And whereastandis que an airplaneavion
that's designedconçu badlymal
87
242531
2379
Alors que quand un avion
mal conçu s'écrase,
04:16
crashesdes accidents to the earthTerre and everyonetoutes les personnes seesvoit it,
88
244934
2001
tout le monde le voit,
04:18
an algorithmalgorithme de designedconçu badlymal
89
246959
1850
un algorithme mal conçu, lui,
04:22
can go on for a long time,
silentlyen mode silencieux wreakingen train de faire havocravages.
90
250245
3865
peut continuer longtemps
à faire des ravages en silence.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
Voici Roger Ailes.
04:29
(LaughterRires)
92
257342
2000
(Rires)
04:32
He foundedfondé FoxFox NewsNouvelles in 1996.
93
260524
2388
Il a fondé Fox News en 1996.
04:35
More than 20 womenfemmes complaineds’est plaint
about sexualsexuel harassmentharcèlement.
94
263436
2581
Plus de 20 femmes se sont plaintes
de harcèlement sexuel,
04:38
They said they weren'tn'étaient pas allowedpermis
to succeedréussir at FoxFox NewsNouvelles.
95
266041
3235
elles ont dit ne pas avoir eu le droit
de réussir chez Fox News.
04:41
He was oustedévincé last yearan,
but we'venous avons seenvu recentlyrécemment
96
269300
2520
Il a été viré l'an dernier,
mais on a vu récemment
04:43
that the problemsproblèmes have persisteda persisté.
97
271844
2670
que ces problèmes persistent.
04:47
That begssupplie the questionquestion:
98
275654
1400
On peut se demander :
04:49
What should FoxFox NewsNouvelles do
to turntour over anotherun autre leaffeuille?
99
277078
2884
que devrait faire Fox News
pour tourner la page ?
04:53
Well, what if they replacedremplacé
theirleur hiringembauche processprocessus
100
281245
3041
Et s'ils remplaçaient leur procédure
de recrutement
04:56
with a machine-learningapprentissage automatique algorithmalgorithme de?
101
284310
1654
par un algorithme ?
04:57
That soundsdes sons good, right?
102
285988
1595
Ça a l'air bien, non ?
04:59
Think about it.
103
287607
1300
Pensez-y.
05:00
The dataLes données, what would the dataLes données be?
104
288931
2105
Les données,
quelles seraient les données ?
05:03
A reasonableraisonnable choicechoix would be the last
21 yearsannées of applicationsapplications to FoxFox NewsNouvelles.
105
291060
4947
Un choix raisonnable serait les
candidatures des 21 dernières années.
05:08
ReasonableRaisonnable.
106
296031
1502
Raisonnable.
05:09
What about the definitiondéfinition of successSuccès?
107
297557
1938
Et la définition du succès ?
Le choix raisonnable serait,
05:11
ReasonableRaisonnable choicechoix would be,
108
299921
1324
05:13
well, who is successfulréussi at FoxFox NewsNouvelles?
109
301269
1778
mais qui a du succès chez Fox News ?
05:15
I guessdeviner someoneQuelqu'un who, say,
stayedséjourné there for fourquatre yearsannées
110
303071
3580
À mon avis, quelqu'un qui y est resté
au moins quatre ans,
05:18
and was promotedpromu at leastmoins onceune fois que.
111
306675
1654
qui a été promu au moins une fois.
05:20
SoundsSons reasonableraisonnable.
112
308816
1561
Ça m'a l'air raisonnable.
05:22
And then the algorithmalgorithme de would be trainedqualifié.
113
310401
2354
Et puis l'algorithme serait mis au point.
05:24
It would be trainedqualifié to look for people
to learnapprendre what led to successSuccès,
114
312779
3877
Mis au point pour sonder les gens,
apprendre ce qui les a conduits au succès,
05:29
what kindgentil of applicationsapplications
historicallyhistoriquement led to successSuccès
115
317219
4318
quels types de candidatures ont
historiquement mené au succès
05:33
by that definitiondéfinition.
116
321561
1294
par cette définition.
05:36
Now think about what would happense produire
117
324200
1775
Pensez à ce qu'il pourrait se passer
05:37
if we appliedappliqué that
to a currentactuel poolpiscine of applicantscandidats.
118
325999
2555
si on appliquait cela
à un groupe actuel de candidats.
05:41
It would filterfiltre out womenfemmes
119
329119
1629
Le filtrage éliminerait les femmes
05:43
because they do not look like people
who were successfulréussi in the pastpassé.
120
331663
3930
car elles ne ressemblent pas aux gens
qui ont eu du succès dans le passé.
05:51
AlgorithmsAlgorithmes don't make things fairjuste
121
339752
2537
Les algorithmes ne rendent pas
les choses équitables
05:54
if you just blithelyallègrement,
blindlyaveuglément applyappliquer algorithmsalgorithmes.
122
342313
2694
si on les applique aveuglément,
avec négligence.
05:57
They don't make things fairjuste.
123
345031
1482
Ils n'instaurent pas l'équité.
05:58
They repeatrépéter our pastpassé practicespratiques,
124
346537
2128
Ils reproduisent nos pratiques du passé,
06:00
our patternsmodèles.
125
348689
1183
nos habitudes.
06:01
They automateautomatiser the statusstatut quoquo.
126
349896
1939
Ils automatisent le statu quo.
06:04
That would be great
if we had a perfectparfait worldmonde,
127
352718
2389
Cela aurait été bien
si nous avions un monde parfait,
06:07
but we don't.
128
355905
1312
mais ce n'est pas le cas.
06:09
And I'll addajouter that mostles plus companiesentreprises
don't have embarrassingembarrassant lawsuitspoursuites judiciaires,
129
357241
4102
De plus, la plupart des sociétés ne
font pas l'objet de poursuites honteuses
06:14
but the dataLes données scientistsscientifiques in those companiesentreprises
130
362446
2588
mais les scientifiques de données
dans ces sociétés
06:17
are told to followsuivre the dataLes données,
131
365058
2189
sont invités à suivre les données,
06:19
to focusconcentrer on accuracyprécision.
132
367271
2143
à se concentrer sur la précision.
Imaginez ce que ça veut dire :
06:22
Think about what that meansveux dire.
133
370273
1381
06:23
Because we all have biasbiais,
it meansveux dire they could be codifyingcodification de la sexismsexisme
134
371678
4027
parce que nous avons tous un parti pris,
cela veut dire qu'ils pourraient coder
des idées sexistes, entre autres.
06:27
or any other kindgentil of bigotrybigoterie.
135
375729
1836
06:31
Thought experimentexpérience,
136
379488
1421
Petit exercice de réflexion
06:32
because I like them:
137
380933
1509
parce que j'aime en faire :
06:35
an entirelyentièrement segregatedséparé societysociété --
138
383574
2975
une société entièrement en proie
à la ségrégation --
06:40
raciallyraciste segregatedséparé, all townsles villes,
all neighborhoodsquartiers
139
388247
3328
à la ségrégation raciale, dans toutes
les villes, tous les voisinages
06:43
and where we sendenvoyer the policepolice
only to the minorityminorité neighborhoodsquartiers
140
391599
3037
et où la police va seulement
dans les quartiers de minorité
06:46
to look for crimela criminalité.
141
394660
1193
à la recherche de crimes.
06:48
The arrestarrêter dataLes données would be very biasedbiaisé.
142
396451
2219
Les données policières seraient
complètement biaisées.
06:51
What if, on topHaut of that,
we founda trouvé the dataLes données scientistsscientifiques
143
399851
2575
Et si, en plus, on trouvait
des experts en données
06:54
and paidpayé the dataLes données scientistsscientifiques to predictprédire
where the nextprochain crimela criminalité would occurse produire?
144
402450
4161
et qu'on les payait pour qu'ils nous
prédisent le lieu du prochain crime ?
06:59
MinorityMinorité neighborhoodquartier.
145
407275
1487
Le quartier des minorités.
07:01
Or to predictprédire who the nextprochain
criminalcriminel would be?
146
409285
3125
Ou encore qu'ils prédisent qui serait
le prochain criminel ?
07:04
A minorityminorité.
147
412888
1395
Un membre d'une minorité.
07:07
The dataLes données scientistsscientifiques would bragBrag
about how great and how accurateprécis
148
415949
3541
Les experts en données se vanteraient
de l'excellence et de l'exactitude
de leur modèle,
07:11
theirleur modelmaquette would be,
149
419514
1297
07:12
and they'dils auraient be right.
150
420835
1299
et ils auraient raison.
07:15
Now, realityréalité isn't that drasticdrastiques,
but we do have severesévère segregationsségrégations
151
423951
4615
Bien sûr, la réalité n'est pas comme ça,
mais la ségrégation existe tout de même
07:20
in manybeaucoup citiesvilles and townsles villes,
152
428590
1287
dans beaucoup d'endroits,
07:21
and we have plentybeaucoup of evidencepreuve
153
429901
1893
et nous avons assez de preuves
07:23
of biasedbiaisé policingmaintien de l’ordre
and justiceJustice systemsystème dataLes données.
154
431818
2688
que les données policières et judiciaires
sont biaisées.
07:27
And we actuallyréellement do predictprédire hotspotspoints chauds,
155
435632
2815
Et nous prédisons vraiment
les zones sensibles,
07:30
placesdes endroits where crimescrimes will occurse produire.
156
438471
1530
là où les crimes seront commis,
07:32
And we do predictprédire, in factfait,
the individualindividuel criminalitycriminalité,
157
440401
3866
et nous prédisons aussi, en fait,
les infractions individuelles,
commises par un seul individu.
07:36
the criminalitycriminalité of individualspersonnes.
158
444291
1770
07:38
The newsnouvelles organizationorganisation ProPublicaProPublica
recentlyrécemment lookedregardé into
159
446972
3963
L'agence de presse « ProPublica »
s'est récemment penchée
sur l'un de ces algorithmes
de « risque de récidive »,
07:42
one of those "recidivismrécidive riskrisque" algorithmsalgorithmes,
160
450959
2024
comme on les appelle,
07:45
as they're calledappelé,
161
453007
1163
utilisé par les juges en Floride
pendant la détermination de la peine.
07:46
beingétant used in FloridaFloride
duringpendant sentencingdétermination de la peine by judgesjuges.
162
454194
3194
07:50
BernardBernard, on the left, the blacknoir man,
was scoreda marqué a 10 out of 10.
163
458411
3585
Bernard, à gauche, l'homme noir,
a obtenu un 10 sur 10.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
Dylan, à droite, 3 sur 10.
07:57
10 out of 10, highhaute riskrisque.
3 out of 10, lowfaible riskrisque.
165
465210
2501
10 sur 10 risque élevé,
3 sur 10, risque faible.
08:00
They were bothtous les deux broughtapporté in
for drugdrogue possessionpossession.
166
468598
2385
Tous deux ont été jugés pour
possession de drogue.
08:03
They bothtous les deux had recordsEnregistrements,
167
471007
1154
Tous deux avaient un casier,
08:04
but DylanDylan had a felonyFelony
168
472185
2806
mais Dylan avait déjà commis un crime,
08:07
but BernardBernard didn't.
169
475015
1176
ce qui n'était pas le cas de Bernard.
08:09
This mattersimporte, because
the higherplus haute scoreBut you are,
170
477818
3066
C'est important, car plus le score
est élevé,
08:12
the more likelyprobable you're beingétant givendonné
a longerplus long sentencephrase.
171
480908
3473
plus il est probable que la sentence
soit longue.
08:18
What's going on?
172
486294
1294
Qu'est-ce qu'il se passe ?
08:20
DataDonnées launderingblanchiment d’argent.
173
488526
1332
Un blanchiment de données.
08:22
It's a processprocessus by whichlequel
technologiststechnologues hidecacher uglylaid truthsvérités
174
490930
4427
C'est un processus de technologues
pour cacher des vérités gênantes
08:27
insideà l'intérieur blacknoir boxboîte algorithmsalgorithmes
175
495381
1821
dans des algorithmes « boîte noire »
08:29
and call them objectiveobjectif;
176
497226
1290
soi-disant objectifs,
08:31
call them meritocraticméritocratique.
177
499320
1568
soi-disant méritocratiques.
08:35
When they're secretsecret,
importantimportant and destructivedestructrice,
178
503118
2385
Quand ces algorithmes sont secrets,
importants et destructifs,
08:37
I've coinedinventé a termterme for these algorithmsalgorithmes:
179
505527
2487
je leur ai inventé un nom :
08:40
"weaponsarmes of mathmath destructiondestruction."
180
508038
1999
« armes de destruction math-ive ».
08:42
(LaughterRires)
181
510061
1564
(Rires)
08:43
(ApplauseApplaudissements)
182
511649
3054
(Applaudissements)
08:46
They're everywherepartout,
and it's not a mistakeerreur.
183
514727
2354
Ils sont partout, et ce n'est pas
une erreur !
08:49
These are privateprivé companiesentreprises
buildingbâtiment privateprivé algorithmsalgorithmes
184
517695
3723
Il s'agit de compagnie privées,
qui créent des algorithmes privés,
08:53
for privateprivé endsprend fin.
185
521442
1392
à des fins privées.
08:55
Even the onesceux I talkeda parlé about
for teachersenseignants and the publicpublic policepolice,
186
523214
3214
Même ceux dont j'ai parlé,
pour les professeurs et la police,
08:58
those were builtconstruit by privateprivé companiesentreprises
187
526452
1869
ont été mis au point
par des sociétés privées
09:00
and soldvendu to the governmentgouvernement institutionsinstitutions.
188
528345
2231
et vendus au gouvernement.
Ils appellent ça
leur « recette secrète »,
09:02
They call it theirleur "secretsecret saucesauce" --
189
530600
1873
09:04
that's why they can't tell us about it.
190
532497
2128
et donc ne peuvent pas
nous en parler.
09:06
It's alsoaussi privateprivé powerPuissance.
191
534649
2220
C'est aussi du pouvoir privé.
09:09
They are profitingprofitant for wieldingbrandissant
the authorityautorité of the inscrutableimpénétrable.
192
537924
4695
Ils tirent profit en donnant de
l'autorité à ce qu'on ne comprend pas.
09:17
Now you mightpourrait think,
sincedepuis all this stuffdes trucs is privateprivé
193
545114
2934
Vous pourriez penser,
puisque tout ceci est privé,
et qu'il y a concurrence,
09:20
and there's competitioncompétition,
194
548072
1158
09:21
maybe the freegratuit marketmarché
will solverésoudre this problemproblème.
195
549254
2306
que le marché libre pourrait
résoudre ce problème.
09:23
It won'thabitude.
196
551584
1249
Eh bien non.
09:24
There's a lot of moneyargent
to be madefabriqué in unfairnessinjustice.
197
552857
3120
Il y a beaucoup d'argent à gagner
grâce à l'injustice.
09:29
AlsoAussi, we're not economicéconomique rationalrationnel agentsagents.
198
557127
3369
De plus, nous ne sommes pas
des acteurs économiques rationnels.
09:33
We all are biasedbiaisé.
199
561031
1292
Nous sommes tous partiaux.
09:34
We're all racistraciste and bigotedbigote
in waysfaçons that we wishsouhait we weren'tn'étaient pas,
200
562960
3377
Nous sommes tous racistes et intolérants
sans le vouloir,
09:38
in waysfaçons that we don't even know.
201
566361
2019
sans parfois même le savoir.
09:41
We know this, thoughbien que, in aggregateagrégat,
202
569352
3081
Globalement, pourtant, nous le savons,
09:44
because sociologistssociologues
have consistentlyconstamment demonstrateddémontré this
203
572457
3220
car les sociologues l'ont
sans cesse démontré
09:47
with these experimentsexpériences they buildconstruire,
204
575701
1665
avec ces expériences
09:49
where they sendenvoyer a bunchbouquet
of applicationsapplications to jobsemplois out,
205
577390
2568
où ils envoient des candidatures
à qualifications égales
09:51
equallyégalement qualifiedqualifié but some
have white-soundingblanc-sondage namesdes noms
206
579982
2501
mais certaines avec des noms « blancs »
et d'autres avec des noms « noirs » :
09:54
and some have black-soundingnoir-sondage namesdes noms,
207
582507
1706
09:56
and it's always disappointingdécevante,
the resultsrésultats -- always.
208
584237
2694
les résultats sont toujours décevants.
Toujours.
Donc, nous sommes
porteurs de préjugés,
09:59
So we are the onesceux that are biasedbiaisé,
209
587510
1771
10:01
and we are injectingpar injection those biasesbiais
into the algorithmsalgorithmes
210
589305
3429
et nous les injectons dans les algorithmes
10:04
by choosingchoisir what dataLes données to collectcollecte,
211
592758
1812
en choisissant
les données à collecter
10:06
like I chosechoisi not to think
about ramenramen noodlesnouilles --
212
594594
2743
comme quand j'ai choisi
de mettre les ramen de côté,
car ce n'était pas pertinent.
10:09
I decideddécidé it was irrelevantsans importance.
213
597361
1625
10:11
But by trustingfaire confiance à the dataLes données that's actuallyréellement
pickingcueillette up on pastpassé practicespratiques
214
599010
5684
Mais en se basant sur des données
qui reprennent des pratiques passées
10:16
and by choosingchoisir the definitiondéfinition of successSuccès,
215
604718
2014
et en définissant soi-même la réussite,
10:18
how can we expectattendre the algorithmsalgorithmes
to emergeémerger unscathedindemne?
216
606756
3983
comment peut-on s'attendre à ce que
les algorithmes en sortent indemnes ?
10:22
We can't. We have to checkvérifier them.
217
610763
2356
On ne peut pas. On doit les contrôler.
On doit contrôler leur équité.
10:26
We have to checkvérifier them for fairnesséquité.
218
614165
1709
10:27
The good newsnouvelles is,
we can checkvérifier them for fairnesséquité.
219
615898
2711
La bonne nouvelle, c'est qu'on peut
contrôler leur équité.
10:30
AlgorithmsAlgorithmes can be interrogatedinterrogé,
220
618633
3352
Les algorithmes peuvent être interrogés,
10:34
and they will tell us
the truthvérité everychaque time.
221
622009
2034
et ils diront la vérité à chaque fois.
10:36
And we can fixréparer them.
We can make them better.
222
624067
2493
Et on peut les corriger,
les améliorer.
10:38
I call this an algorithmicalgorithmique auditvérification,
223
626584
2375
J'appelle ça
un « audit algorithmique »,
10:40
and I'll walkmarche you throughpar it.
224
628983
1679
et je vais vous l'expliquer.
10:42
First, dataLes données integrityintégrité checkvérifier.
225
630686
2196
D'abord, vérification
de l'intégrité des données.
10:46
For the recidivismrécidive riskrisque
algorithmalgorithme de I talkeda parlé about,
226
634132
2657
Pour l'algorithme « risque de récidive »
dont j'ai parlé,
10:49
a dataLes données integrityintégrité checkvérifier would mean
we'dmer have to come to termstermes with the factfait
227
637582
3573
cette vérification impliquera qu'il
faudra se rendre compte du fait
10:53
that in the US, whitesblancs and blacksnoirs
smokefumée potpot at the sameMême ratetaux
228
641179
3526
qu'aux États-Unis, blancs et noirs
fument la même quantité de joints,
mais que les noirs ont bien plus de
chance d'être arrêtés,
10:56
but blacksnoirs are farloin more likelyprobable
to be arrestedarrêté --
229
644729
2485
10:59
fourquatre or fivecinq timesfois more likelyprobable,
dependingen fonction, dépendemment on the arearégion.
230
647238
3184
quatre ou cinq fois plus selon la région.
A quoi ressemble ce préjugé
dans les autres catégories de crime,
11:03
What is that biasbiais looking like
in other crimela criminalité categoriescategories,
231
651317
2826
et comment en tient-on compte ?
11:06
and how do we accountCompte for it?
232
654167
1451
11:08
SecondSeconde, we should think about
the definitiondéfinition of successSuccès,
233
656162
3039
Ensuite, on doit réfléchir
à la définition du succès,
11:11
auditvérification that.
234
659225
1381
la contrôler.
11:12
RememberN’oubliez pas -- with the hiringembauche
algorithmalgorithme de? We talkeda parlé about it.
235
660630
2752
Vous vous souvenez,
l'algorithme de recrutement ?
Quelqu'un qui reste plus de quatre ans
et est promu une fois ?
11:15
SomeoneQuelqu'un who staysreste for fourquatre yearsannées
and is promotedpromu onceune fois que?
236
663406
3165
11:18
Well, that is a successfulréussi employeeemployé,
237
666595
1769
Eh bien, cet employé est performant,
11:20
but it's alsoaussi an employeeemployé
that is supportedprise en charge by theirleur cultureCulture.
238
668388
3079
mais cet aussi un employé soutenu
par sa culture.
11:24
That said, alsoaussi it can be quiteassez biasedbiaisé.
239
672089
1926
Cela peut donc aussi être biaisé.
11:26
We need to separateséparé those two things.
240
674039
2065
Nous devons séparer ces deux idées.
11:28
We should look to
the blindaveugle orchestraOrchestre auditionaudition
241
676128
2426
Nous devrions prendre
les auditions à l'aveugle
11:30
as an exampleExemple.
242
678578
1196
comme exemple.
11:31
That's where the people auditioningauditionner
are behindderrière a sheetdrap.
243
679798
2756
Celles où les gens auditionnent
derrière un drap.
11:34
What I want to think about there
244
682946
1931
Ce à quoi je pense ici,
11:36
is the people who are listeningécoute
have decideddécidé what's importantimportant
245
684901
3417
c'est que les gens qui écoutent
ont décidé de ce qui est important,
11:40
and they'veils ont decideddécidé what's not importantimportant,
246
688342
2029
et de ce qui ne l'est pas,
et ils ne se laissent pas distraire
par cela.
11:42
and they're not gettingobtenir
distracteddistraits by that.
247
690395
2059
11:44
When the blindaveugle orchestraOrchestre
auditionsauditions startedcommencé,
248
692961
2749
Quand les auditions d'orchestre
à l'aveugle ont commencé,
11:47
the numbernombre of womenfemmes in orchestrasorchestres
wentest allé up by a factorfacteur of fivecinq.
249
695734
3444
le nombre de femmes dans les orchestres
s'est multiplié par 5.
Ensuite, nous devons tenir compte
de la précision.
11:52
NextProchaine, we have to considerconsidérer accuracyprécision.
250
700253
2015
Le modèle de « valeur-ajoutée » pour
professeurs échouerait dans ce cas-là.
11:55
This is where the value-addedà valeur ajoutée modelmaquette
for teachersenseignants would failéchouer immediatelyimmédiatement.
251
703233
3734
11:59
No algorithmalgorithme de is perfectparfait, of coursecours,
252
707578
2162
Aucun algorithme n'est parfait,
évidemment,
12:02
so we have to considerconsidérer
the errorsles erreurs of everychaque algorithmalgorithme de.
253
710620
3605
donc nous devons examiner les
erreurs de tous les algorithmes.
12:06
How oftensouvent are there errorsles erreurs,
and for whomqui does this modelmaquette failéchouer?
254
714836
4359
Reviennent-elles souvent,
et pour qui est-ce que le modèle échoue ?
12:11
What is the costCoût of that failureéchec?
255
719850
1718
Quel est le coût de cet échec ?
12:14
And finallyenfin, we have to considerconsidérer
256
722434
2207
Enfin, nous devons prendre en compte
12:17
the long-termlong terme effectseffets of algorithmsalgorithmes,
257
725973
2186
l'effet à long terme des algorithmes,
12:20
the feedbackretour d'information loopsboucles that are engenderingengendrer.
258
728866
2207
les boucles de réactions
qu'ils engendrent.
12:23
That soundsdes sons abstractabstrait,
259
731586
1236
Cela semble abstrait,
12:24
but imagineimaginer if FacebookFacebook engineersingénieurs
had consideredpris en considération that
260
732846
2664
mais imaginez, si les ingénieurs
de Facebook y avaient pensé
12:28
before they decideddécidé to showmontrer us
only things that our friendscopains had postedposté.
261
736270
4855
avant de décider de nous montrer
seulement les publications de nos amis.
12:33
I have two more messagesmessages,
one for the dataLes données scientistsscientifiques out there.
262
741761
3234
J'ai encore deux messages, un pour
les scientifiques de données ici.
12:37
DataDonnées scientistsscientifiques: we should
not be the arbitersarbitres of truthvérité.
263
745450
3409
Nous ne devrions pas être
les arbitres de la vérité.
12:41
We should be translatorstraducteurs
of ethicaléthique discussionsdiscussions that happense produire
264
749520
3783
Nous devrions être les traducteurs
des discussions d'ordre éthique
12:45
in largerplus grand societysociété.
265
753327
1294
de la société en général.
12:47
(ApplauseApplaudissements)
266
755579
2133
(Applaudissements)
12:49
And the restdu repos of you,
267
757736
1556
Et pour le reste d'entre vous,
12:52
the non-datadonnées non- scientistsscientifiques:
268
760011
1396
qui n'êtes pas du milieu,
12:53
this is not a mathmath testtester.
269
761431
1498
ceci n'est pas un test de math.
12:55
This is a politicalpolitique fightbats toi.
270
763632
1348
C'est une bataille politique.
12:58
We need to demanddemande accountabilityresponsabilité
for our algorithmicalgorithmique overlordssuzerains.
271
766587
3907
Nous devons réclamer des comptes
à nos souverains algorithmiques.
13:04
(ApplauseApplaudissements)
272
772118
1499
(Applaudissements)
13:05
The eraère of blindaveugle faithFoi
in biggros dataLes données mustdoit endfin.
273
773641
4225
L'ère de la confiance absolue
dans le Big Data doit prendre fin.
13:09
Thank you very much.
274
777890
1167
Merci beaucoup.
13:11
(ApplauseApplaudissements)
275
779081
5303
(Applaudissements)
Translated by Pauline Forêt
Reviewed by Shadia Ramsahye

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com