ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: Vremea încrederii oarbe în volumele mari de date (big data) trebuie să ia sfârșit

Filmed:
1,391,460 views

Algoritmii decid cine primește un împrumut, cine obține un interviu pentru un loc de muncă, cine obține asigurare și multe alte lucruri, dar asta nu înseamnă și că, automat, decizia lor e corectă. Cathy O'Neil, matematician și specialist în știința datelor, a inventat o denumire pentru algoritmii care sunt secreți, importanți și dăunători: „arme de distrugere matematică”. Aflați mai multe despre agenda secretă din spatele formulelor.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgoritmi are everywherepretutindeni.
0
975
1596
Algoritmii sunt pretutindeni.
00:16
They sortfel and separatesepara
the winnerscâştigătorii from the losersînvinşi.
1
4111
3125
Sortează și separă
învingătorii de învinși.
00:20
The winnerscâştigătorii get the jobloc de munca
2
8019
2264
Învingătorii obțin locul de muncă
sau oferta bună pentru cardul de credit.
00:22
or a good creditcredit cardcard offeroferi.
3
10307
1743
00:24
The losersînvinşi don't even get an interviewinterviu
4
12074
2651
Învinșii n-au parte nici măcar de interviu
00:27
or they paya plati more for insuranceasigurare.
5
15590
1777
sau plătesc mai mult pentru asigurare.
00:30
We're beingfiind scoreda marcat with secretsecret formulasformule
that we don't understanda intelege
6
18197
3549
Suntem evaluați cu formule secrete
pe care nu le înțelegem
00:34
that oftende multe ori don't have systemssisteme of appealrecurs.
7
22675
3217
și care, adesea, nu pot fi contestate.
00:39
That begsimploră the questionîntrebare:
8
27240
1296
Asta impune întrebarea:
și dacă algoritmii conțin erori?
00:40
What if the algorithmsalgoritmi are wronggresit?
9
28560
2913
00:45
To buildconstrui an algorithmAlgoritmul you need two things:
10
33100
2040
E nevoie de două lucruri pentru algoritmi:
date, ce s-a întâmplat în trecut,
00:47
you need datadate, what happeneds-a întâmplat in the pasttrecut,
11
35164
1981
și o definiție a succesului,
a ceea ce cauți și speri să obții.
00:49
and a definitiondefiniție of successsucces,
12
37169
1561
00:50
the thing you're looking for
and oftende multe ori hopingîn speranța for.
13
38754
2457
00:53
You traintren an algorithmAlgoritmul
by looking, figuringimaginind out.
14
41235
5037
Algoritmul se formează
observând, descifrând.
00:58
The algorithmAlgoritmul figurescifrele out
what is associatedasociate with successsucces.
15
46296
3419
Algoritmul deduce
ce se asociază cu succesul,
01:01
What situationsituatie leadsOportunitati to successsucces?
16
49739
2463
care situație conduce către succes.
01:04
ActuallyDe fapt, everyonetoata lumea usesutilizări algorithmsalgoritmi.
17
52881
1762
De fapt, toată lumea folosește algoritmi,
dar nu formalizați în scris.
01:06
They just don't formalizeformaliza them
in writtenscris codecod.
18
54667
2718
Vă dau un exemplu.
01:09
Let me give you an exampleexemplu.
19
57409
1348
Folosesc zilnic un algoritm
ca să pregătesc masa pentru familia mea.
01:10
I use an algorithmAlgoritmul everyfiecare day
to make a mealmasă for my familyfamilie.
20
58781
3316
Datele pe care le folosesc
01:14
The datadate I use
21
62121
1476
01:16
is the ingredientsingrediente in my kitchenbucătărie,
22
64394
1659
sunt ingredientele din bucătărie,
timpul disponibil,
01:18
the time I have,
23
66077
1527
01:19
the ambitionambiţie I have,
24
67628
1233
ambiția pe care o am,
apoi organizez datele.
01:20
and I curatepreot that datadate.
25
68885
1709
01:22
I don't countnumara those little packagespachete
of ramenramen noodlestaitei as foodalimente.
26
70618
4251
Nu consider mâncare
pachețelele de tăieței ramen.
(Râsete)
01:26
(LaughterRâs)
27
74893
1869
01:28
My definitiondefiniție of successsucces is:
28
76786
1845
Definiția mea a succesului e:
01:30
a mealmasă is successfulde succes
if my kidscopii eatmânca vegetableslegume.
29
78655
2659
o masă e reușită
când copiii mei mănâncă legume.
E foarte diferită de a mezinului meu
care, dacă ar fi după el,
01:34
It's very differentdiferit
from if my youngestcel mai tânăr sonfiu were in chargeîncărca.
30
82181
2854
01:37
He'dEl ar say successsucces is if
he getsdevine to eatmânca lots of NutellaNutella.
31
85059
2788
ar zice că succesul înseamnă
să mănânce multă Nutella.
01:41
But I get to choosealege successsucces.
32
89179
2226
Dar eu sunt cea care alege succesul.
Eu conduc. Părerea mea contează.
01:43
I am in chargeîncărca. My opinionopinie matterschestiuni.
33
91429
2707
Asta e prima regulă a algoritmilor.
01:46
That's the first ruleregulă of algorithmsalgoritmi.
34
94160
2675
Algoritmii sunt păreri încorporate în cod.
01:48
AlgorithmsAlgoritmi are opinionsopinii embeddedîncorporat in codecod.
35
96859
3180
01:53
It's really differentdiferit from what you think
mostcel mai people think of algorithmsalgoritmi.
36
101562
3663
E foarte diferit de ce credeți voi
că majoritatea crede despre algoritmi.
Ei cred că algoritmii
sunt obiectivi, adevărați și științifici.
01:57
They think algorithmsalgoritmi are objectiveobiectiv
and trueAdevărat and scientificștiințific.
37
105249
4504
02:02
That's a marketingmarketing tricktruc.
38
110387
1699
Ăsta e un truc de marketing.
02:05
It's alsode asemenea a marketingmarketing tricktruc
39
113269
2125
Și tot un truc al marketingului
02:07
to intimidateintimida you with algorithmsalgoritmi,
40
115418
3154
e să vă intimideze cu algoritmi,
02:10
to make you trustîncredere and fearfrică algorithmsalgoritmi
41
118596
3661
să vă încredeți
și să vă temeți de algoritmi,
pentru că vă încredeți
și vă temeți de matematică.
02:14
because you trustîncredere and fearfrică mathematicsmatematică.
42
122281
2018
02:17
A lot can go wronggresit when we put
blindORB faithcredinţă in bigmare datadate.
43
125567
4830
Pot apărea multe probleme când avem
încredere oarbă în volume mari de date.
02:23
This is KiriKiri SoaresSoares.
She's a highînalt schoolşcoală principalprincipal in BrooklynBrooklyn.
44
131684
3373
Ea e Kiri Soares, directoarea
unui liceu din Brooklyn.
În 2011 mi-a zis că profesorii ei
erau evaluați
02:27
In 2011, she told me
her teachersprofesori were beingfiind scoreda marcat
45
135081
2586
cu un algoritm complex și secret,
02:29
with a complexcomplex, secretsecret algorithmAlgoritmul
46
137691
2727
numit „modelul valoare adăugată”.
02:32
calleddenumit the "value-addedvaloare adăugată modelmodel."
47
140442
1489
02:34
I told her, "Well, figurefigura out
what the formulaformulă is, showspectacol it to me.
48
142505
3092
I-am zis: „Află care e formula,
arată-mi-o și ți-o explic.”
02:37
I'm going to explainexplica it to you."
49
145621
1541
02:39
She said, "Well, I triedîncercat
to get the formulaformulă,
50
147186
2141
Ea a zis: „Am încercat să obțin formula,
dar la Departamentul de Educație
02:41
but my DepartmentDepartamentul of EducationEducaţie contacta lua legatura
told me it was mathmatematica
51
149351
2772
mi s-a zis că e matematică
și n-o să înțeleg.”
02:44
and I wouldn'tnu ar fi understanda intelege it."
52
152147
1546
02:47
It getsdevine worsemai rau.
53
155266
1338
Se poate și mai rău.
02:48
The NewNoi YorkYork PostPost fileddepusă
a FreedomLibertatea of InformationInformaţii ActActul requestcerere,
54
156628
3530
New York Post a solicitat, conform
Legii privind libertatea de informare,
și a obținut numele
tuturor profesorilor și punctajele lor
02:52
got all the teachers'cadrelor didactice namesnumele
and all theiral lor scoresscoruri
55
160182
2959
02:55
and they publishedpublicat them
as an actact of teacher-shamingruşinos de profesor.
56
163165
2782
și le-a publicat pentru a-i blama public.
02:59
When I triedîncercat to get the formulasformule,
the sourcesursă codecod, throughprin the samela fel meansmijloace,
57
167084
3860
Când am încercat să obțin formula,
codul sursă, cu aceleași mijloace,
03:02
I was told I couldn'tnu a putut.
58
170968
2149
mi s-a zis că nu se poate.
Mi s-a refuzat.
03:05
I was deniednegat.
59
173141
1236
Mai târziu am aflat
03:06
I latermai tarziu foundgăsite out
60
174401
1174
că nimeni din New York
n-avea acces la acea formulă.
03:07
that nobodynimeni in NewNoi YorkYork CityCity
had accessacces to that formulaformulă.
61
175599
2866
Nimeni n-o înțelegea.
03:10
No one understoodînțeles it.
62
178489
1305
03:13
Then someonecineva really smartinteligent
got involvedimplicat, GaryGary RubensteinRubenstein.
63
181929
3224
Apoi s-a implicat cineva
foarte inteligent: Gary Rubinstein.
03:17
He foundgăsite 665 teachersprofesori
from that NewNoi YorkYork PostPost datadate
64
185177
3621
A descoperit că 665 de profesori
din datele de la New York Post
aveau, de fapt, două punctaje.
03:20
that actuallyde fapt had two scoresscoruri.
65
188822
1866
03:22
That could happenîntâmpla if they were teachingînvățătură
66
190712
1881
Asta se putea întâmpla dacă predau
03:24
seventhal șaptelea gradecalitate mathmatematica and eighthAl optulea gradecalitate mathmatematica.
67
192617
2439
matematică de clasa a șaptea și a opta.
A decis să facă un grafic.
03:27
He decideda decis to plotintrigă them.
68
195080
1538
03:28
EachFiecare dotpunct representsreprezintă a teacherprofesor.
69
196642
1993
Fiecare punct reprezintă un profesor.
03:31
(LaughterRâs)
70
199104
2379
(Râsete)
03:33
What is that?
71
201507
1521
Ce-i asta?
(Râsete)
03:35
(LaughterRâs)
72
203052
1277
N-ar fi trebuit să fie niciodată
folosit pentru evaluare personală.
03:36
That should never have been used
for individualindividual assessmentevaluare.
73
204353
3446
E mai degrabă un generator
de numere aleatorii.
03:39
It's almostaproape a randomîntâmplător numbernumăr generatorgenerator.
74
207823
1926
(Aplauze)
03:41
(ApplauseAplauze)
75
209773
2946
Dar a fost.
03:44
But it was.
76
212743
1162
Ea e Sarah Wysocki.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
A fost concediată,
împreună cu alți 205 profesori,
03:47
She got fireddat afara, alongde-a lungul
with 205 other teachersprofesori,
78
215129
2175
din districtul școlar al Washington DC,
03:49
from the WashingtonWashington, DCDC schoolşcoală districtdistrict,
79
217328
2662
deși avea recomandări excelente
de la director și părinții copiilor.
03:52
even thoughdeşi she had great
recommendationsrecomandări from her principalprincipal
80
220014
2909
03:54
and the parentspărinţi of her kidscopii.
81
222947
1428
03:57
I know what a lot
of you guys are thinkinggândire,
82
225390
2032
Știu ce gândesc mulți dintre voi,
mai ales experții în date
și inteligență artificială.
03:59
especiallyin mod deosebit the datadate scientistsoamenii de știință,
the AIAI expertsexperți here.
83
227446
2487
Vă ziceți: „N-aș face niciodată
un algoritm așa de inconsecvent.”
04:01
You're thinkinggândire, "Well, I would never make
an algorithmAlgoritmul that inconsistentnepotrivit."
84
229957
4226
04:06
But algorithmsalgoritmi can go wronggresit,
85
234853
1683
Dar algoritmii pot da greș,
pot avea chiar efecte profund distructive
în ciuda bunelor intenții.
04:08
even have deeplyprofund destructivedistructive effectsefecte
with good intentionsintenţiile.
86
236560
4598
04:14
And whereasîntrucât an airplaneavion
that's designedproiectat badlyprost
87
242531
2379
Dar în timp ce un avion
care e prost conceput
se prăbușește și poate fi văzut de toți,
04:16
crashesaccidente to the earthPământ and everyonetoata lumea seesvede it,
88
244934
2001
un algoritm prost conceput
04:18
an algorithmAlgoritmul designedproiectat badlyprost
89
246959
1850
04:22
can go on for a long time,
silentlyîn tăcere wreakingwreaking havochaos.
90
250245
3865
poate să funcționeze mult timp
făcând ravagii pe ascuns.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
El e Roger Ailes.
(Râsete)
04:29
(LaughterRâs)
92
257342
2000
04:32
He foundedfondat FoxFox NewsStiri in 1996.
93
260524
2388
A fondat Fox News în 1996.
04:35
More than 20 womenfemei complaineds-au plans
about sexualsexual harassmenthărţuire.
94
263436
2581
Peste 20 de femei
s-au plâns de hărțuire sexuală.
Au zis că nu li s-a permis
să aibă succes la Fox News.
04:38
They said they weren'tnu au fost allowedpermis
to succeeda reusi at FoxFox NewsStiri.
95
266041
3235
04:41
He was ousteddemis last yearan,
but we'vene-am seenvăzut recentlyrecent
96
269300
2520
A fost demis anul trecut,
dar am văzut recent
că problemele au persistat.
04:43
that the problemsProbleme have persistedau persistat.
97
271844
2670
04:47
That begsimploră the questionîntrebare:
98
275654
1400
Asta impune întrebarea:
04:49
What should FoxFox NewsStiri do
to turnviraj over anothero alta leaffrunze?
99
277078
2884
ce ar trebui să facă Fox News
pentru a întoarce pagina?
04:53
Well, what if they replacedînlocuit
theiral lor hiringangajare processproces
100
281245
3041
Cum ar fi dacă ar înlocui
procesul de recrutare
cu algoritmi de învățare automatizată?
04:56
with a machine-learningmasina de învăţare algorithmAlgoritmul?
101
284310
1654
04:57
That soundssunete good, right?
102
285988
1595
Sună bine, nu?
04:59
Think about it.
103
287607
1300
Gândiți-vă la asta.
Care ar fi datele?
05:00
The datadate, what would the datadate be?
104
288931
2105
O alegere rezonabilă ar fi cererile
de angajare din ultimii 21 de ani.
05:03
A reasonablerezonabil choicealegere would be the last
21 yearsani of applicationsaplicații to FoxFox NewsStiri.
105
291060
4947
Rezonabilă.
05:08
ReasonableRezonabil.
106
296031
1502
05:09
What about the definitiondefiniție of successsucces?
107
297557
1938
Dar definiția succesului?
05:11
ReasonableRezonabil choicealegere would be,
108
299921
1324
Alegerea rezonabilă ar fi...
păi, cine are succes la Fox News?
05:13
well, who is successfulde succes at FoxFox NewsStiri?
109
301269
1778
Presupun că cineva care, să zicem,
a lucrat acolo patru ani
05:15
I guessghici someonecineva who, say,
stayedau stat there for fourpatru yearsani
110
303071
3580
05:18
and was promotedpromovat at leastcel mai puţin onceo singura data.
111
306675
1654
și a fost promovat cel puțin o dată.
05:20
SoundsSunete reasonablerezonabil.
112
308816
1561
Sună rezonabil.
Apoi algoritmul ar fi instruit.
05:22
And then the algorithmAlgoritmul would be traineddresat.
113
310401
2354
Va fi instruit să caute oameni,
ca să înțeleagă ce a condus la succes,
05:24
It would be traineddresat to look for people
to learnînvăța what led to successsucces,
114
312779
3877
05:29
what kinddrăguț of applicationsaplicații
historicallyistoricește led to successsucces
115
317219
4318
ce fel de cereri de angajare
au condus de-a lungul timpului la succes,
conform definiției.
05:33
by that definitiondefiniție.
116
321561
1294
05:36
Now think about what would happenîntâmpla
117
324200
1775
Acum gândiți-vă ce s-ar întâmpla
05:37
if we appliedaplicat that
to a currentactual poolpiscină of applicantssolicitanţii.
118
325999
2555
dacă am aplica asta
unui grup actual de candidați.
05:41
It would filterfiltru out womenfemei
119
329119
1629
Ar filtra femeile,
05:43
because they do not look like people
who were successfulde succes in the pasttrecut.
120
331663
3930
pentru că ele nu par genul
care să fi avut succes în trecut.
05:51
AlgorithmsAlgoritmi don't make things fairechitabil
121
339752
2537
Algoritmii nu fac lucrurile echitabile,
dacă-i aplici fără griji și discernământ.
05:54
if you just blithelyblithely,
blindlyorbeşte applyaplica algorithmsalgoritmi.
122
342313
2694
Nu fac lucrurile echitabile.
05:57
They don't make things fairechitabil.
123
345031
1482
05:58
They repeatrepeta our pasttrecut practicespractici,
124
346537
2128
Ei repetă procedeele noastre din trecut,
tiparele noastre.
06:00
our patternsmodele.
125
348689
1183
06:01
They automateautomatiza the statusstare quoquo.
126
349896
1939
Automatizează status quo-ul.
06:04
That would be great
if we had a perfectperfect worldlume,
127
352718
2389
Asta ar fi minunat
dacă am trăi într-o lume perfectă,
06:07
but we don't.
128
355905
1312
dar nu trăim.
Adaug că majoritatea companiilor
n-au procese de judecată jenante,
06:09
And I'll addadăuga that mostcel mai companiescompanii
don't have embarrassingjenant lawsuitsprocese,
129
357241
4102
06:14
but the datadate scientistsoamenii de știință in those companiescompanii
130
362446
2588
dar specialiștilor în date
din acele companii
06:17
are told to followurma the datadate,
131
365058
2189
li se spune să urmărească datele,
să se concentreze pe acuratețe.
06:19
to focusconcentra on accuracyprecizie.
132
367271
2143
06:22
Think about what that meansmijloace.
133
370273
1381
Gândiți-vă ce înseamnă asta.
06:23
Because we all have biaspărtinire,
it meansmijloace they could be codifyingcodificare sexismsexismul
134
371678
4027
Pentru că toți avem prejudecăți,
înseamnă că ar putea codifica
discriminarea sexuală
sau orice alt fel de intoleranță.
06:27
or any other kinddrăguț of bigotrybigotism.
135
375729
1836
06:31
Thought experimentexperiment,
136
379488
1421
Un experiment de gândire,
pentru că-mi plac:
06:32
because I like them:
137
380933
1509
06:35
an entirelyîn întregime segregatedsegregate societysocietate --
138
383574
2975
o societate complet scindată,
06:40
raciallyrasial segregatedsegregate, all townsorașe,
all neighborhoodscartiere
139
388247
3328
divizată religios, toate orașele,
toate cartierele,
și în care trimitem poliția
doar în cartierele cu minorități
06:43
and where we sendtrimite the policepolitie
only to the minorityminoritate neighborhoodscartiere
140
391599
3037
pentru a cerceta delicte.
06:46
to look for crimecrimă.
141
394660
1193
06:48
The arrestarestare datadate would be very biasedpărtinitor.
142
396451
2219
Datele arestărilor
ar fi foarte părtinitoare.
06:51
What if, on toptop of that,
we foundgăsite the datadate scientistsoamenii de știință
143
399851
2575
Ce-ar fi dacă, în plus,
am găsi specialiștii în date
și i-am plăti ca să prezică
unde ar avea loc următoarea infracțiune?
06:54
and paidplătit the datadate scientistsoamenii de știință to predictprezice
where the nextUrmător → crimecrimă would occuravea loc?
144
402450
4161
06:59
MinorityMinoritate neighborhoodCartier.
145
407275
1487
Cartierul cu minorități.
07:01
Or to predictprezice who the nextUrmător →
criminalpenal would be?
146
409285
3125
Sau să prezică cine ar fi
următorul infractor?
07:04
A minorityminoritate.
147
412888
1395
Un cetățean minoritar.
07:07
The datadate scientistsoamenii de știință would braglauda
about how great and how accurateprecis
148
415949
3541
Specialiștii în date s-ar lăuda
cu cât de grozav și precis
ar fi modelul lor
07:11
theiral lor modelmodel would be,
149
419514
1297
07:12
and they'dle-ar be right.
150
420835
1299
și ar avea dreptate.
07:15
Now, realityrealitate isn't that drasticdrastice,
but we do have severesever segregationssegregations
151
423951
4615
Realitatea nu-i așa de drastică,
dar avem diviziuni profunde
în multe orașe și comune,
07:20
in manymulți citiesorase and townsorașe,
152
428590
1287
și avem destule dovezi
07:21
and we have plentymulțime of evidenceevidență
153
429901
1893
în acțiunile părtinitoare ale poliției
și datele sistemului judiciar.
07:23
of biasedpărtinitor policingpoliţie
and justicejustiţie systemsistem datadate.
154
431818
2688
07:27
And we actuallyde fapt do predictprezice hotspotsHotspot-urile,
155
435632
2815
Și chiar prezicem punctele critice,
locurile unde se desfășoară infracțiunile.
07:30
placeslocuri where crimescrime will occuravea loc.
156
438471
1530
07:32
And we do predictprezice, in factfapt,
the individualindividual criminalitycriminalitate,
157
440401
3866
Și chiar prezicem, de fapt,
infracțiunile individuale,
infracțiunile indivizilor.
07:36
the criminalitycriminalitate of individualspersoane fizice.
158
444291
1770
07:38
The newsștiri organizationorganizare ProPublicaProPublica
recentlyrecent lookedprivit into
159
446972
3963
Organizația de știri ProPublica
a analizat recent
unul din algoritmii
„riscului de recidivă”, cum li se zice,
07:42
one of those "recidivismrecidiva riskrisc" algorithmsalgoritmi,
160
450959
2024
07:45
as they're calleddenumit,
161
453007
1163
folosiți în Florida
în sentințele judecătorești.
07:46
beingfiind used in FloridaFlorida
duringpe parcursul sentencingcondamnarea by judgesjudecători.
162
454194
3194
07:50
BernardBernard, on the left, the blacknegru man,
was scoreda marcat a 10 out of 10.
163
458411
3585
Bernard, în stânga, bărbatul de culoare,
a obținut zece puncte din zece.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
Dylan, în dreapta, trei din zece.
Zece din zece, risc ridicat.
Trei din zece, risc scăzut.
07:57
10 out of 10, highînalt riskrisc.
3 out of 10, lowscăzut riskrisc.
165
465210
2501
08:00
They were bothambii broughtadus in
for drugmedicament possessiondeţinere.
166
468598
2385
Au fost acuzați de posesie de droguri.
08:03
They bothambii had recordsînregistrări,
167
471007
1154
Amândoi cu antecedente,
08:04
but DylanDylan had a felonycrimă
168
472185
2806
dar Dylan comisese o crimă,
iar Bernard nu.
08:07
but BernardBernard didn't.
169
475015
1176
08:09
This matterschestiuni, because
the highersuperior scorescor you are,
170
477818
3066
Asta contează,
deoarece cu cât ai scorul mai mare,
08:12
the more likelyprobabil you're beingfiind givendat
a longermai lung sentenceteză.
171
480908
3473
cu atât ai mai multe șanse
să primești o sentință mai lungă.
08:18
What's going on?
172
486294
1294
Ce se întâmplă?
08:20
DataDate launderingspălarea.
173
488526
1332
Spălare de date.
08:22
It's a processproces by whichcare
technologiststehnologi hideascunde uglyurât truthsadevăruri
174
490930
4427
E un proces prin care tehnologii
ascund adevăruri neplăcute
în algoritmi de tip cutie neagră,
08:27
insideinterior blacknegru boxcutie algorithmsalgoritmi
175
495381
1821
08:29
and call them objectiveobiectiv;
176
497226
1290
pe care-i numesc obiectivi
08:31
call them meritocraticmeritocratic.
177
499320
1568
și meritocratici.
08:35
When they're secretsecret,
importantimportant and destructivedistructive,
178
503118
2385
Când sunt secreți,
importanți și distructivi,
08:37
I've coinedinventat a termtermen for these algorithmsalgoritmi:
179
505527
2487
am inventat o denumire
pentru algoritmii ăștia:
08:40
"weaponsarme of mathmatematica destructiondistrugere."
180
508038
1999
„arme de distrugere matematică”.
(Râsete)
08:42
(LaughterRâs)
181
510061
1564
(Aplauze)
08:43
(ApplauseAplauze)
182
511649
3054
08:46
They're everywherepretutindeni,
and it's not a mistakegreşeală.
183
514727
2354
Sunt peste tot și nu din greșeală.
08:49
These are privateprivat companiescompanii
buildingclădire privateprivat algorithmsalgoritmi
184
517695
3723
Sunt companii private
care construiesc algoritmi privați
pentru scopuri private.
08:53
for privateprivat endscapete.
185
521442
1392
08:55
Even the onescele I talkeda vorbit about
for teachersprofesori and the publicpublic policepolitie,
186
523214
3214
Chiar și cei de care am vorbit,
pentru profesori și poliție,
au fost construiți de companii private
și vânduți instituțiilor guvernamentale.
08:58
those were builtconstruit by privateprivat companiescompanii
187
526452
1869
09:00
and soldvândut to the governmentGuvern institutionsinstituții.
188
528345
2231
09:02
They call it theiral lor "secretsecret saucesos" --
189
530600
1873
Ei numesc asta „sosul lor secret”,
09:04
that's why they can't tell us about it.
190
532497
2128
de asta nu ni-l pot dezvălui.
E și o putere privată.
09:06
It's alsode asemenea privateprivat powerputere.
191
534649
2220
09:09
They are profitingprofitand for wieldingcauza opoziţiei
the authorityautoritate of the inscrutableenigmatic.
192
537924
4695
Profită de faptul că exercită
autoritatea impenetrabilă.
09:17
Now you mightar putea think,
sincede cand all this stuffchestie is privateprivat
193
545114
2934
Acum o să vă gândiți
că, din moment ce totul e privat,
și există concurență,
09:20
and there's competitioncompetiție,
194
548072
1158
poate că piața liberă
o să rezolve problema.
09:21
maybe the freegratuit marketpiaţă
will solverezolva this problemproblemă.
195
549254
2306
09:23
It won'tnu va.
196
551584
1249
N-o s-o facă.
09:24
There's a lot of moneybani
to be madefăcut in unfairnessnedreptate.
197
552857
3120
Sunt mulți bani de câștigat
din inechitate.
09:29
AlsoDe asemenea, we're not economiceconomic rationalraţional agentsagenţi.
198
557127
3369
În plus, nu suntem
agenți economici raționali.
09:33
We all are biasedpărtinitor.
199
561031
1292
Toți suntem părtinitori.
09:34
We're all racistrasist and bigotedbigot
in waysmoduri that we wishdori we weren'tnu au fost,
200
562960
3377
Toți suntem rasiști și intoleranți
într-un fel în care ne dorim să nu fi fost
și de care nici nu ne dăm seama.
09:38
in waysmoduri that we don't even know.
201
566361
2019
09:41
We know this, thoughdeşi, in aggregateagregat,
202
569352
3081
Dar știm asta, în ansamblu,
09:44
because sociologistssociologi
have consistentlyîn mod constant demonstrateddemonstrat this
203
572457
3220
pentru că sociologii
au demonstrat-o constant
cu experimentele pe care le-au creat,
09:47
with these experimentsexperimente they buildconstrui,
204
575701
1665
când trimit mai multe cereri
la anunțurile de angajare,
09:49
where they sendtrimite a bunchbuchet
of applicationsaplicații to jobslocuri de munca out,
205
577390
2568
09:51
equallyin aceeasi masura qualifiedcalificat but some
have white-soundingalb-sondare namesnumele
206
579982
2501
cu aceleași calificări, dar unele
au nume ca de albi și altele ca de negri,
09:54
and some have black-soundingnegru-sondare namesnumele,
207
582507
1706
09:56
and it's always disappointinglasa de dorit,
the resultsrezultate -- always.
208
584237
2694
iar rezultatele sunt mereu dezamăgitoare.
09:59
So we are the onescele that are biasedpărtinitor,
209
587510
1771
Deci noi suntem cei părtinitori,
10:01
and we are injectinginjectarea those biasesdistorsiunilor
into the algorithmsalgoritmi
210
589305
3429
și introducem acele prejudecăți
în algoritmi,
10:04
by choosingalegerea what datadate to collectcolectarea,
211
592758
1812
alegând ce date să fie selectate,
așa cum aleg eu să nu mă gândesc
la tăiețeii ramen,
10:06
like I chosea ales not to think
about ramenramen noodlestaitei --
212
594594
2743
am decis că nu-i relevant.
10:09
I decideda decis it was irrelevantirelevant.
213
597361
1625
Dar având încredere în datele
care reiau practicile din trecut
10:11
But by trustingîncrederea în the datadate that's actuallyde fapt
pickingcules up on pasttrecut practicespractici
214
599010
5684
10:16
and by choosingalegerea the definitiondefiniție of successsucces,
215
604718
2014
și alegând definiția succesului,
10:18
how can we expectaştepta the algorithmsalgoritmi
to emergeapărea unscathednevătămat?
216
606756
3983
cum să ne putem aștepta
ca algoritmii să fie neafectați?
Nu putem. Trebuie să-i verificăm.
10:22
We can't. We have to checkVerifica them.
217
610763
2356
10:26
We have to checkVerifica them for fairnesscorectitudine.
218
614165
1709
Trebuie să le verificăm echitatea.
10:27
The good newsștiri is,
we can checkVerifica them for fairnesscorectitudine.
219
615898
2711
Vestea bună e
că le putem verifica echitatea.
10:30
AlgorithmsAlgoritmi can be interrogatedinterogat,
220
618633
3352
Algoritmii pot fi interogați
și ne vor spune adevărul de fiecare dată.
10:34
and they will tell us
the truthadevăr everyfiecare time.
221
622009
2034
10:36
And we can fixrepara them.
We can make them better.
222
624067
2493
Și putem să-i reparăm.
Putem să-i îmbunătățim.
Eu numesc asta un audit algoritmic
10:38
I call this an algorithmicalgoritmice auditaudit,
223
626584
2375
și o să vă explic ce presupune.
10:40
and I'll walkmers pe jos you throughprin it.
224
628983
1679
10:42
First, datadate integrityintegritate checkVerifica.
225
630686
2196
Mai întâi,
verificarea integrității datelor.
10:46
For the recidivismrecidiva riskrisc
algorithmAlgoritmul I talkeda vorbit about,
226
634132
2657
Pentru algoritmul riscului de recidivă
de care am vorbit,
10:49
a datadate integrityintegritate checkVerifica would mean
we'dne-am have to come to termstermeni with the factfapt
227
637582
3573
o verificare a integrității datelor
ar însemna să acceptăm faptul
că în SUA, albii și cei de culoare
fumează canabis în egală măsură,
10:53
that in the US, whitesAlbii and blacksnegri
smokefum potoală at the samela fel raterată
228
641179
3526
dar cei de culoare
au mai multe șanse să fie arestați,
10:56
but blacksnegri are fardeparte more likelyprobabil
to be arrestedarestat --
229
644729
2485
10:59
fourpatru or fivecinci timesori more likelyprobabil,
dependingîn funcție on the areazonă.
230
647238
3184
de patru sau cinci ori mai des,
în funcție de regiune.
11:03
What is that biaspărtinire looking like
in other crimecrimă categoriescategorii,
231
651317
2826
Cum arată prejudecata asta
în alte categorii de infracțiuni
11:06
and how do we accountcont for it?
232
654167
1451
și cum o justificăm?
11:08
SecondAl doilea, we should think about
the definitiondefiniție of successsucces,
233
656162
3039
În al doilea rând, ar trebui să ne gândim
la definiția succesului, să audităm asta.
11:11
auditaudit that.
234
659225
1381
11:12
RememberAmintiţi-vă -- with the hiringangajare
algorithmAlgoritmul? We talkeda vorbit about it.
235
660630
2752
Vă amintiți algoritmul pentru angajare?
Am vorbit de el.
11:15
SomeoneCineva who stayssejururi for fourpatru yearsani
and is promotedpromovat onceo singura data?
236
663406
3165
Cineva care lucrează patru ani
și e promovat o dată?
11:18
Well, that is a successfulde succes employeeangajat,
237
666595
1769
Ăsta e un angajat de succes,
11:20
but it's alsode asemenea an employeeangajat
that is supportedsprijinit by theiral lor culturecultură.
238
668388
3079
dar și unul
care e susținut de cultura lor.
11:24
That said, alsode asemenea it can be quitedestul de biasedpărtinitor.
239
672089
1926
Dar și asta poate fi părtinitor.
Trebuie să separăm aceste două aspecte.
11:26
We need to separatesepara those two things.
240
674039
2065
11:28
We should look to
the blindORB orchestraorchestră auditionauditie
241
676128
2426
Ar trebui să luăm audiția pe nevăzute
drept exemplu.
11:30
as an exampleexemplu.
242
678578
1196
11:31
That's where the people auditioningvizionari
are behindin spate a sheetfoaie.
243
679798
2756
Presupune că cei care sunt audiați
stau după un paravan.
11:34
What I want to think about there
244
682946
1931
În cazul ăsta vreau să mă gândesc
că cei care ascultă au decis
ce-i important și ce nu
11:36
is the people who are listeningascultare
have decideda decis what's importantimportant
245
684901
3417
11:40
and they'vele-au decideda decis what's not importantimportant,
246
688342
2029
11:42
and they're not gettingobtinerea
distractedzăpăcit by that.
247
690395
2059
și nu li se distrage atenția de la asta.
11:44
When the blindORB orchestraorchestră
auditionsauditii starteda început,
248
692961
2749
Când s-a început cu audițiile pe nevăzute,
numărul femeilor în orchestre
a crescut de cinci ori.
11:47
the numbernumăr of womenfemei in orchestrasorchestre
wenta mers up by a factorfactor of fivecinci.
249
695734
3444
11:52
NextUrmătoarea, we have to considerconsidera accuracyprecizie.
250
700253
2015
Mai departe,
trebuie să examinăm acuratețea.
11:55
This is where the value-addedvaloare adăugată modelmodel
for teachersprofesori would faileșua immediatelyimediat.
251
703233
3734
În cazul ăsta, modelul valorii adăugate
pentru profesori ar eșua imediat.
11:59
No algorithmAlgoritmul is perfectperfect, of coursecurs,
252
707578
2162
Niciun algoritm nu e perfect, desigur,
12:02
so we have to considerconsidera
the errorserori of everyfiecare algorithmAlgoritmul.
253
710620
3605
deci trebuie să ne gândim
la erorile fiecărui algoritm.
12:06
How oftende multe ori are there errorserori,
and for whompe cine does this modelmodel faileșua?
254
714836
4359
Cât de des apar erori
și pentru cine nu funcționează modelul?
12:11
What is the costa costat of that failureeșec?
255
719850
1718
Care e costul acestui eșec?
12:14
And finallyin sfarsit, we have to considerconsidera
256
722434
2207
Și, în sfârșit, trebuie să analizăm
12:17
the long-termtermen lung effectsefecte of algorithmsalgoritmi,
257
725973
2186
efectele pe termen lung ale algoritmilor,
12:20
the feedbackparere loopsbucle that are engenderinggenerare.
258
728866
2207
buclele de feedback care se generează.
12:23
That soundssunete abstractabstract,
259
731586
1236
Sună abstract,
12:24
but imagineimagina if FacebookFacebook engineersingineri
had consideredluate în considerare that
260
732846
2664
dar imaginați-vă că tehnicienii Facebook
s-ar fi gândit la asta
12:28
before they decideda decis to showspectacol us
only things that our friendsprieteni had postedpostat.
261
736270
4855
înainte să decidă să ne arate
doar ce au publicat prietenii noștri.
12:33
I have two more messagesmesaje,
one for the datadate scientistsoamenii de știință out there.
262
741761
3234
Mai am două mesaje, unul e
pentru specialiștii în date dintre voi.
12:37
DataDate scientistsoamenii de știință: we should
not be the arbitersArbitrii of truthadevăr.
263
745450
3409
Specialiști în date,
nu trebuie să fim arbitrii adevărului.
12:41
We should be translatorstraducători
of ethicaletic discussionsdiscuții that happenîntâmpla
264
749520
3783
Ar trebui să fim traducătorii
discuțiilor etice care au loc
12:45
in largermai mare societysocietate.
265
753327
1294
în societate la scară largă.
12:47
(ApplauseAplauze)
266
755579
2133
(Aplauze)
12:49
And the restodihnă of you,
267
757736
1556
Iar pentru voi, ceilalți,
12:52
the non-datafără date scientistsoamenii de știință:
268
760011
1396
nespecializați în date:
ăsta nu-i un test de matematică.
12:53
this is not a mathmatematica testTest.
269
761431
1498
12:55
This is a politicalpolitic fightluptă.
270
763632
1348
E o luptă politică.
12:58
We need to demandcerere accountabilityresponsabilitate
for our algorithmicalgoritmice overlordsstăpânii.
271
766587
3907
Trebuie să pretindem responsabilizarea
suzeranilor noștri algoritmici.
13:04
(ApplauseAplauze)
272
772118
1499
(Aplauze)
Vremea încrederii oarbe în volumele mari
de date trebuie să ia sfârșit.
13:05
The eraeră of blindORB faithcredinţă
in bigmare datadate musttrebuie sa endSfârşit.
273
773641
4225
Mulțumesc mult.
13:09
Thank you very much.
274
777890
1167
13:11
(ApplauseAplauze)
275
779081
5303
(Aplauze)
Translated by Mihaela Niță
Reviewed by Bianca Ioanidia Mirea

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com