ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Keti O'Nil (Cathy O'Neil): Doba slepe vere u masovne podatke mora se okončati

Filmed:
1,391,460 views

Algoritmi odlučuju ko dobija kredit, ko će biti pozvan na razgovor za posao, ko dobija osiguranje i još mnogo toga, ali nisu automatski pravični. Keti O'Nil, matematičarka i naučnica za podatke, skovala je frazu za tajne, važne i štetne algoritme - „oružja matematičkog uništenja“. Saznajte više o tajnim planovima koji se kriju iza formula.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

Algoritmi su svuda.
00:12
AlgorithmsAlgoritmi are everywhereсвуда.
0
975
1596
00:16
They sortврста and separateзасебан
the winnersпобедници from the losersgubitnici.
1
4111
3125
Filtriraju i odvajaju
pobednike od gubitnika.
Pobednici dobijaju posao
00:20
The winnersпобедници get the jobпосао
2
8019
2264
ili dobru ponudu kreditne kartice.
00:22
or a good creditкредит cardкартица offerпонуда.
3
10307
1743
Za gubitnike nema ni intervjua
00:24
The losersgubitnici don't even get an interviewинтервју
4
12074
2651
ili plaćaju više za osiguranje.
00:27
or they payплатите more for insuranceосигурање.
5
15590
1777
Ocenjuju nas tajne formule
koje ne razumemo,
00:30
We're beingбиће scoredpostigao je with secretтајна formulasformule
that we don't understandРазумем
6
18197
3549
za koje često ne postoje
sistemi za podnošenje žalbe.
00:34
that oftenчесто don't have systemsсистема of appealжалба.
7
22675
3217
To nas tera se zapitamo:
00:39
That begsMoli the questionпитање:
8
27240
1296
„Šta ako algoritmi greše?“
00:40
What if the algorithmsалгоритми are wrongпогрешно?
9
28560
2913
Da napravite algoritam
potrebne su vam dve stvari:
00:45
To buildизградити an algorithmalgoritam you need two things:
10
33100
2040
00:47
you need dataподаци, what happenedдесило in the pastпрошлост,
11
35164
1981
podaci, šta je bilo u prošlosti,
i definicija uspeha,
00:49
and a definitionдефиниција of successуспех,
12
37169
1561
koji tražite i kojem se često nadate.
00:50
the thing you're looking for
and oftenчесто hopingнадати се for.
13
38754
2457
Osposobljavate algoritam
posmatranjem i zaključivanjem.
00:53
You trainвоз an algorithmalgoritam
by looking, figuringфигуринг out.
14
41235
5037
Algoritam pronalazi vezu sa uspehom.
00:58
The algorithmalgoritam figuresфигуре out
what is associatedповезани with successуспех.
15
46296
3419
Koja situacija vodi ka uspehu?
01:01
What situationситуација leadsводи to successуспех?
16
49739
2463
Zapravo, svi koriste algoritme,
01:04
ActuallyU stvari, everyoneсви usesкористи algorithmsалгоритми.
17
52881
1762
ali ih ne formalizuju u pisani kôd.
01:06
They just don't formalizeformalizujemo them
in writtenнаписано codeкод.
18
54667
2718
Evo vam primera.
01:09
Let me give you an exampleпример.
19
57409
1348
Svaki dan koristim algoritam
da napravim porodici doručak.
01:10
I use an algorithmalgoritam everyсваки day
to make a mealоброк for my familyпородица.
20
58781
3316
Podaci koje koristim su:
01:14
The dataподаци I use
21
62121
1476
namirnice u kuhinji,
01:16
is the ingredientsсастојци in my kitchenкухиња,
22
64394
1659
vreme koje imam na raspolaganju,
01:18
the time I have,
23
66077
1527
ambicija koju imam,
01:19
the ambitionамбиција I have,
24
67628
1233
i te podatke obrađujem.
01:20
and I curateЋupnik that dataподаци.
25
68885
1709
U hranu ne računam
ona mala pakovanja instant špageta.
01:22
I don't countбројање those little packagesпакети
of ramenрамен noodlesrezanci as foodхрана.
26
70618
4251
(Smeh)
01:26
(LaughterSmeh)
27
74893
1869
Moja definicija uspeha je -
01:28
My definitionдефиниција of successуспех is:
28
76786
1845
obrok je uspeo ako moja deca jedu povrće.
01:30
a mealоброк is successfulуспјешно
if my kidsклинци eatјести vegetablesповрће.
29
78655
2659
To bi izgledalo mnogo drugačije
da se moj sin pita.
01:34
It's very differentразличит
from if my youngestнајмлађе sonсин were in chargeпуњење.
30
82181
2854
Njemu bi uspeh bio da se najede nutele.
01:37
He'dOn bi say successуспех is if
he getsдобива to eatјести lots of NutellaNutela.
31
85059
2788
Ali, ja biram uspeh.
01:41
But I get to chooseизаберите successуспех.
32
89179
2226
Ja sam zadužena za to.
Moje mišljenje je važno.
01:43
I am in chargeпуњење. My opinionмишљење mattersпитања.
33
91429
2707
To je prvo pravilo algoritama.
01:46
That's the first ruleправило of algorithmsалгоритми.
34
94160
2675
Algoritmi su mišljenja ugrađena u kôd.
01:48
AlgorithmsAlgoritmi are opinionsмишљења embeddedуграђени in codeкод.
35
96859
3180
To se veoma razlikuje od onoga što mislite
da većina ljudi misli o algoritmima.
01:53
It's really differentразличит from what you think
mostнајвише people think of algorithmsалгоритми.
36
101562
3663
01:57
They think algorithmsалгоритми are objectiveобјективан
and trueистина and scientificнаучно.
37
105249
4504
Ljudi misle da su algoritmi
objektivni, istiniti i naučni.
To je marketinški trik.
02:02
That's a marketingМаркетинг trickтрик.
38
110387
1699
02:05
It's alsoтакође a marketingМаркетинг trickтрик
39
113269
2125
Marketinški trik jeste
02:07
to intimidateзастрашити you with algorithmsалгоритми,
40
115418
3154
i kada vas plaše algoritmima,
kada vas teraju da verujete
i da se plašite algoritama
02:10
to make you trustповерење and fearбојати се algorithmsалгоритми
41
118596
3661
jer verujete matematici i plašite je se.
02:14
because you trustповерење and fearбојати се mathematicsматематика.
42
122281
2018
Mnogo grešaka može se desiti
kada slepo verujemo u masovne podatke.
02:17
A lot can go wrongпогрешно when we put
blindслеп faithвера in bigвелики dataподаци.
43
125567
4830
Ovo je Kiri Soares,
direktor srednje škole u Bruklinu.
02:23
This is KiriKiri SoaresSoares.
She's a highвисоко schoolшкола principaldirektor in BrooklynBrooklyn.
44
131684
3373
Godine 2011. rekla mi je
da njen kolektiv ocenjuju
02:27
In 2011, she told me
her teachersнаставници were beingбиће scoredpostigao je
45
135081
2586
složenim, tajnim algoritmom
02:29
with a complexкомплекс, secretтајна algorithmalgoritam
46
137691
2727
koji se zove „model dodatne vrednosti“.
02:32
calledпозвани the "value-addedsa dodatnom vrednošću modelмодел."
47
140442
1489
Rekla sam joj: „Saznaj
koja je formula i pokaži mi je.
02:34
I told her, "Well, figureфигура out
what the formulaформула is, showсхов it to me.
48
142505
3092
Objasniću ti je.“
02:37
I'm going to explainобјасни it to you."
49
145621
1541
Rekla je: „Pokušala sam dobiti formulu,
02:39
She said, "Well, I triedПокушали
to get the formulaформула,
50
147186
2141
ali osoba iz Ministarstva obrazovanja
mi je rekla da je to matematika
02:41
but my DepartmentMinistarstvo of EducationObrazovanje contactконтакт
told me it was mathматематика
51
149351
2772
i da je neću razumeti.“
02:44
and I wouldn'tне би understandРазумем it."
52
152147
1546
Postaje sve gore.
02:47
It getsдобива worseгоре.
53
155266
1338
Njujork Post je podneo zahtev
na osnovu zakona o slobodi informacija,
02:48
The NewNovi YorkYork PostPost filedpodneli
a FreedomSloboda of InformationInformacije ActČin requestzahtev,
54
156628
3530
dobio imena i ocene svih nastavnika
02:52
got all the teachers'nastavnika namesимена
and all theirњихова scoresрезултати
55
160182
2959
i onda ih objavio kao čin
sramoćenja nastavnika.
02:55
and they publishedобјављен them
as an actчинити of teacher-shamingnastavnik posrami.
56
163165
2782
Kada sam probala istim putem doći
do formula, do izvornog kôda,
02:59
When I triedПокушали to get the formulasformule,
the sourceизвор codeкод, throughкроз the sameисти meansзначи,
57
167084
3860
rečeno mi je da ne može.
03:02
I was told I couldn'tније могао.
58
170968
2149
Odbijena sam.
03:05
I was deniedодбијен.
59
173141
1236
Posle sam saznala
03:06
I laterкасније foundнашао out
60
174401
1174
da niko u Njujorku
nema podatke o toj formuli.
03:07
that nobodyнико in NewNovi YorkYork CityGrad
had accessприступ to that formulaформула.
61
175599
2866
Niko je nije razumeo.
03:10
No one understoodпримљено к знању it.
62
178489
1305
Onda se uključio neko
veoma bistar, Geri Rubenstajn.
03:13
Then someoneнеко really smartпаметан
got involvedукључени, GaryGary RubensteinRubenstein.
63
181929
3224
Pronašao je 665 nastavnika
iz onog članka u Njujork Postu
03:17
He foundнашао 665 teachersнаставници
from that NewNovi YorkYork PostPost dataподаци
64
185177
3621
koji zapravo imaju dva rezultata.
03:20
that actuallyзаправо had two scoresрезултати.
65
188822
1866
Ovo se moglo desiti jer su predavali
matematiku u sedmom i osmom razredu.
03:22
That could happenдесити се if they were teachingУчити
66
190712
1881
03:24
seventhседми gradeграде mathматематика and eighthосми gradeграде mathматематика.
67
192617
2439
Odlučio je da ih ubaci u grafikon.
03:27
He decidedодлучио to plotпарцела them.
68
195080
1538
Svaka tačka je nastavnica ili nastavnik.
03:28
EachSvaki dotтачка representsпредставља a teacherнаставник.
69
196642
1993
(Smeh)
03:31
(LaughterSmeh)
70
199104
2379
Šta je to?
03:33
What is that?
71
201507
1521
(Smeh)
03:35
(LaughterSmeh)
72
203052
1277
To se nikako nije trebalo koristiti
za individualne procene.
03:36
That should never have been used
for individualпојединац assessmentпроцена.
73
204353
3446
Ovo je kao generator nasumičnih brojeva.
03:39
It's almostскоро a randomслучајно numberброј generatorгенератор.
74
207823
1926
(Aplauz)
03:41
(ApplauseAplauz)
75
209773
2946
Ali, korišćeno je.
03:44
But it was.
76
212743
1162
Ovo je Sara Visoki.
03:45
This is SarahSara WysockiVizaki.
77
213929
1176
Otpuštena je kad i 205 drugih nastavnika
03:47
She got firedотпуштен, alongзаједно
with 205 other teachersнаставници,
78
215129
2175
iz škola vašingtonskog okruga
03:49
from the WashingtonWashington, DCDC schoolшкола districtокруг,
79
217328
2662
iako je imala odlučne preporuke direktora
03:52
even thoughипак she had great
recommendationsпрепоруке from her principaldirektor
80
220014
2909
i roditelja učenika.
03:54
and the parentsродитељи of her kidsклинци.
81
222947
1428
Znam šta mnogi od vas ovde sada misle,
03:57
I know what a lot
of you guys are thinkingразмишљање,
82
225390
2032
posebno naučnici za podatke,
stručnjaci za veštačku inteligenciju.
03:59
especiallyпосебно the dataподаци scientistsнаучници,
the AIAI expertsстручњаци here.
83
227446
2487
04:01
You're thinkingразмишљање, "Well, I would never make
an algorithmalgoritam that inconsistentнедоследно."
84
229957
4226
Mislite: „Pa, nikada ne bismo napravili
tako nedosledan algoritam.“
Ali, algoritmi mogu pogrešiti,
04:06
But algorithmsалгоритми can go wrongпогрешно,
85
234853
1683
čak imati i duboko destruktivno dejstvo
sa dobrom namerama.
04:08
even have deeplyдубоко destructivedestruktivni effectsефекте
with good intentionsnamere.
86
236560
4598
Dok loše napravljen avion
04:14
And whereasдок an airplaneавион
that's designedдизајниран badlyлоше
87
242531
2379
padne na tlo i svi to vide,
04:16
crashesпада to the earthземља and everyoneсви seesвиди it,
88
244934
2001
loše osmišljen algoritam
04:18
an algorithmalgoritam designedдизајниран badlyлоше
89
246959
1850
može trajati dugo i potajno
i tiho praviti ogromnu štetu.
04:22
can go on for a long time,
silentlyTiho wreakingвреакинг havocpustoš.
90
250245
3865
Ovo je Rodžer Ejls.
04:27
This is RogerRoger AilesEjlz.
91
255748
1570
(Smeh)
04:29
(LaughterSmeh)
92
257342
2000
Osnovao je Foks Njuz 1996. godine.
04:32
He foundedоснован FoxLisica NewsNovosti in 1996.
93
260524
2388
Preko 20 žena žalilo se
na seksualno uznemiravanje.
04:35
More than 20 womenЖене complainedse žalio
about sexualсексуално harassmentuznemiravanje.
94
263436
2581
Rekle su da im u Foks Njuzu
nije dozvoljen uspeh.
04:38
They said they weren'tнису allowedдозвољен
to succeedуспети at FoxLisica NewsNovosti.
95
266041
3235
Izbačen je prošle godine,
04:41
He was oustedzbačen last yearгодине,
but we'veми смо seenвиђено recentlyнедавно
96
269300
2520
ali nedavno smo videli
da problemi još nisu rešeni.
04:43
that the problemsпроблеми have persistedbio uporan.
97
271844
2670
To zahteva da se postavi pitanje
04:47
That begsMoli the questionпитање:
98
275654
1400
šta Foks Njuz treba da uradi
da okrene novi list.
04:49
What should FoxLisica NewsNovosti do
to turnред over anotherдруги leafЛист?
99
277078
2884
Šta bi se desilo da proces zapošljavanja
04:53
Well, what if they replacedзамењен
theirњихова hiringзапошљавање processпроцес
100
281245
3041
zamene mašinskim algoritmom koji uči?
04:56
with a machine-learningmašina-učenje algorithmalgoritam?
101
284310
1654
Zvuči dobro, zar ne?
04:57
That soundsзвуци good, right?
102
285988
1595
Razmislite o tome.
04:59
Think about it.
103
287607
1300
Podaci. Šta bi bi bili podaci?
05:00
The dataподаци, what would the dataподаци be?
104
288931
2105
Ima smisla izabrati prijave za Foks Njuz
tokom poslednjih 21 godina.
05:03
A reasonableразумно choiceизбор would be the last
21 yearsгодине of applicationsапликације to FoxLisica NewsNovosti.
105
291060
4947
Ima smisla.
05:08
ReasonableRazuman.
106
296031
1502
A definicija uspeha?
05:09
What about the definitionдефиниција of successуспех?
107
297557
1938
Razuman izbor bio bi, valjda,
05:11
ReasonableRazuman choiceизбор would be,
108
299921
1324
neko ko je uspešan u Foks Njuzu?
05:13
well, who is successfulуспјешно at FoxLisica NewsNovosti?
109
301269
1778
Recimo, osoba koja je tamo
bila četiri godine
05:15
I guessпретпостављам someoneнеко who, say,
stayedостао there for fourчетири yearsгодине
110
303071
3580
i dobila unapređenje makar jednom.
05:18
and was promotedпромовисана at leastнајмање onceједном.
111
306675
1654
Ima smisla.
05:20
SoundsZvuci reasonableразумно.
112
308816
1561
Onda bismo osposobljavali algoritam.
05:22
And then the algorithmalgoritam would be trainedобучени.
113
310401
2354
Osposobili bismo ga da traži ljude,
da uči šta je vodilo ka uspehu,
05:24
It would be trainedобучени to look for people
to learnучи what led to successуспех,
114
312779
3877
kakve vrste prijava su vremenom
vodile ka uspehu
05:29
what kindкинд of applicationsапликације
historicallyПостако што што што што Пост Имагес иии29 led to successуспех
115
317219
4318
u skladu sa tom definicijom.
05:33
by that definitionдефиниција.
116
321561
1294
Razmislite sada šta bi se desilo
05:36
Now think about what would happenдесити се
117
324200
1775
kada bismo to primenili
na trenutne kandidate.
05:37
if we appliedпримењено that
to a currentТренутни poolбазен of applicantspodnosioci zahteva.
118
325999
2555
Izbacilo bi žene
05:41
It would filterфилтер out womenЖене
119
329119
1629
jer ne deluju kao osobe
koje su bile uspešne u prošlosti.
05:43
because they do not look like people
who were successfulуспјешно in the pastпрошлост.
120
331663
3930
Algoritmi ne popravljaju stvari
05:51
AlgorithmsAlgoritmi don't make things fairфер
121
339752
2537
ako ih samo nonšalantno
i slepo primenjujete.
05:54
if you just blithelyuvela,
blindlyslepo applyприменити algorithmsалгоритми.
122
342313
2694
Ne popravljaju stvari.
05:57
They don't make things fairфер.
123
345031
1482
Ponavljaju našu praksu iz prošlosti,
05:58
They repeatпонављање our pastпрошлост practicesprakse,
124
346537
2128
naše šablone.
06:00
our patternsобрасци.
125
348689
1183
Automatizuju status kvo.
06:01
They automateAutomatizovanje the statusстатус quokvo.
126
349896
1939
Da živimo u savršenom
svetu to bi bilo sjajno,
06:04
That would be great
if we had a perfectсавршен worldсвет,
127
352718
2389
ali ne živimo.
06:07
but we don't.
128
355905
1312
Dodaću da većina firmi
nema sramne parnice,
06:09
And I'll addдодати that mostнајвише companiesкомпаније
don't have embarrassingsramotno lawsuitstužbi,
129
357241
4102
ali naučnicima za podatke
u tim kompanijama
06:14
but the dataподаци scientistsнаучници in those companiesкомпаније
130
362446
2588
rečeno je idu tragom podataka,
06:17
are told to followпратити the dataподаци,
131
365058
2189
da paze na tačnost.
06:19
to focusфокусирати on accuracyтачност.
132
367271
2143
Razmislite šta to znači.
06:22
Think about what that meansзначи.
133
370273
1381
Pošto smo svi pristrasni, to znači
da će možda kodifikovati seksizam
06:23
Because we all have biasсклоност,
it meansзначи they could be codifyingcodifying sexismseksizam
134
371678
4027
ili drugu netrpeljivost.
06:27
or any other kindкинд of bigotryфанатику.
135
375729
1836
Misaoni eksperiment,
06:31
Thought experimentексперимент,
136
379488
1421
jer ih volim:
06:32
because I like them:
137
380933
1509
jedno društvo, skroz podeljeno -
06:35
an entirelyу потпуности segregatedсегрегатед societyдруштво --
138
383574
2975
na osnovu rase, svi gradovi, sve opštine -
06:40
raciallyrasno segregatedсегрегатед, all townsградови,
all neighborhoodsсуседства
139
388247
3328
a policiju šaljemo
samo u delove gde živi manjina
06:43
and where we sendпошаљи the policeполиција
only to the minoritymanjina neighborhoodsсуседства
140
391599
3037
u potrazi za kriminalom.
06:46
to look for crimeзлочин.
141
394660
1193
Podaci o hapšenjima
bili bi veoma pristrasni.
06:48
The arrestхапшење dataподаци would be very biasedпристрасан.
142
396451
2219
Šta ako bismo, povrh svega,
pronašli naučnike za podatke
06:51
What if, on topврх of that,
we foundнашао the dataподаци scientistsнаучници
143
399851
2575
06:54
and paidплаћени the dataподаци scientistsнаучници to predictпредвидети
where the nextследећи crimeзлочин would occurпојавити?
144
402450
4161
i platili tim naučnicima
da predvide mesto sledećeg zločina?
Opštine sa manjinama.
06:59
MinorityManjina neighborhoodкомшилук.
145
407275
1487
Ili da predvide
ko će sledeći biti kriminalac?
07:01
Or to predictпредвидети who the nextследећи
criminalкриминал would be?
146
409285
3125
Neko iz manjine.
07:04
A minoritymanjina.
147
412888
1395
Naučnici bi se hvalisali
svojim sjajnim i tačnim modelom,
07:07
The dataподаци scientistsнаучници would bragse hvalim
about how great and how accurateтачан
148
415949
3541
07:11
theirњихова modelмодел would be,
149
419514
1297
i bili bi u pravu.
07:12
and they'dони би be right.
150
420835
1299
Realnost nije tako drastična,
ali postoje ozbiljne podele
07:15
Now, realityреалност isn't that drasticdrastične,
but we do have severeозбиљан segregationssegregations
151
423951
4615
u mnogim malim i velikom gradovima,
07:20
in manyмноги citiesградова and townsградови,
152
428590
1287
07:21
and we have plentyдоста of evidenceдоказ
153
429901
1893
i imamo mnoštvo dokaza
o pristrasnim podacima
u sistemu policije i pravosuđa.
07:23
of biasedпристрасан policingrad policije
and justiceправда systemсистем dataподаци.
154
431818
2688
Mi zapravo predviđamo krizna mesta,
07:27
And we actuallyзаправо do predictпредвидети hotspotsvruće tačke,
155
435632
2815
mesta gde će se desiti nasilje.
07:30
placesместа where crimesza zločine will occurпојавити.
156
438471
1530
I predviđamo, zapravo,
pojedinačni kriminalitet,
07:32
And we do predictпредвидети, in factчињеница,
the individualпојединац criminalitykriminaliteta,
157
440401
3866
kriminalitet pojedinaca.
07:36
the criminalitykriminaliteta of individualsпојединци.
158
444291
1770
Novinska organizacija Propablika
nedavno je proverila
07:38
The newsвести organizationорганизација ProPublicaProPublica
recentlyнедавно lookedпогледао into
159
446972
3963
jedan „algoritam ugrožen recidivizmom“
07:42
one of those "recidivismrecidivizam riskризик" algorithmsалгоритми,
160
450959
2024
kako ih zovu,
07:45
as they're calledпозвани,
161
453007
1163
koje sudije koriste
u presudama na Floridi.
07:46
beingбиће used in FloridaNa Floridi
duringу току sentencingizricanje kazne by judgesсудије.
162
454194
3194
Bernard, levo, crnac,
dobio je 10 od 10 poena.
07:50
BernardBernard, on the left, the blackцрн man,
was scoredpostigao je a 10 out of 10.
163
458411
3585
Dilan, desno, 3 od 10.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
Deset od deset, visok rizik.
Tri od deset, nizak rizik.
07:57
10 out of 10, highвисоко riskризик.
3 out of 10, lowниско riskризик.
165
465210
2501
Obojica su privedeni
zbog posedovanja droge.
08:00
They were bothи једно и друго broughtдоведен in
for drugдрога possessionпоседовање.
166
468598
2385
Obojica su imali dosije,
08:03
They bothи једно и друго had recordsзаписи,
167
471007
1154
ali Dilan je imao krivično delo,
08:04
but DylanDylan had a felonydjelo
168
472185
2806
a Bernard nije.
08:07
but BernardBernard didn't.
169
475015
1176
Ovo je bitno jer što su ti veći poeni,
08:09
This mattersпитања, because
the higherвише scoreрезултат you are,
170
477818
3066
veće su šanse da dobiješ dužu kaznu.
08:12
the more likelyвероватно you're beingбиће givenдато
a longerдуже sentencerečenice.
171
480908
3473
O čemu se ovde radi?
08:18
What's going on?
172
486294
1294
Pranje podataka.
08:20
DataPodaci launderingpranja novca.
173
488526
1332
Proces kojim tehnolozi
sakrivaju ružnu istinu
08:22
It's a processпроцес by whichкоја
technologiststehnologa hideсакрити uglyружно truthsистине
174
490930
4427
u crne kutije algoritama
08:27
insideу blackцрн boxбок algorithmsалгоритми
175
495381
1821
i nazivaju ih objektivnima;
08:29
and call them objectiveобјективан;
176
497226
1290
nazivaju ih meritokratskim.
08:31
call them meritocraticmeritocratic.
177
499320
1568
Za tajne, važne i destruktivne algoritme
08:35
When they're secretтајна,
importantважно and destructivedestruktivni,
178
503118
2385
sam skovala frazu
„oružje za matematičko uništenje“.
08:37
I've coinedskovao a termтермина for these algorithmsалгоритми:
179
505527
2487
08:40
"weaponsоружје of mathматематика destructionуништење."
180
508038
1999
(Smeh)
08:42
(LaughterSmeh)
181
510061
1564
(Aplauz)
08:43
(ApplauseAplauz)
182
511649
3054
Oni su svuda i to nije greška.
08:46
They're everywhereсвуда,
and it's not a mistakeгрешка.
183
514727
2354
To su privatne kompanije
koje prave privatne algoritme
08:49
These are privateприватни companiesкомпаније
buildingзграде privateприватни algorithmsалгоритми
184
517695
3723
za privatne ciljeve.
08:53
for privateприватни endsКрајеви.
185
521442
1392
Čak i one već spomenute,
za nastavnike i policiju,
08:55
Even the onesоне I talkedпричао about
for teachersнаставници and the publicјавно policeполиција,
186
523214
3214
napravile su privatne kompanije
08:58
those were builtизграђен by privateприватни companiesкомпаније
187
526452
1869
i zatim ih prodale vladinim telima.
09:00
and soldпродат to the governmentвлада institutionsинституције.
188
528345
2231
Zovu ih „tajnim umakom“;
09:02
They call it theirњихова "secretтајна sauceсос" --
189
530600
1873
zato nam ništa ne mogu reći o tome.
09:04
that's why they can't tell us about it.
190
532497
2128
To je i privatna moć.
09:06
It's alsoтакође privateприватни powerмоћ.
191
534649
2220
Zarađuju na korišćenju autoriteta
koji se ne može proveriti.
09:09
They are profitingпрофитирање for wieldingvitlaju
the authorityУправа of the inscrutableskriva.
192
537924
4695
Možda ste pomislili da,
pošto je ovo privatno,
09:17
Now you mightМожда think,
sinceОд all this stuffствари is privateприватни
193
545114
2934
postoji konkurencija;
09:20
and there's competitionконкуренција,
194
548072
1158
možda će slobodno tržište rešiti problem.
09:21
maybe the freeбесплатно marketтржиште
will solveреши this problemпроблем.
195
549254
2306
Neće.
09:23
It won'tнеће.
196
551584
1249
Mnogo se novca može napraviti nepravdom.
09:24
There's a lot of moneyновац
to be madeмаде in unfairnessnepravde.
197
552857
3120
Uz to, mi nismo
ekonomski racionalni činioci.
09:29
AlsoTakođe, we're not economicекономски rationalрационално agentsагенти.
198
557127
3369
Svi smo pristrasni.
09:33
We all are biasedпристрасан.
199
561031
1292
Svi smo rasisti i netrpeljivi
onako kako ne želimo biti
09:34
We're all racistрасистички and bigotedpuna predrasuda
in waysначини that we wishжелети we weren'tнису,
200
562960
3377
u oblicima koje i ne poznajemo.
09:38
in waysначини that we don't even know.
201
566361
2019
Ipak, znamo da je to kolektivno
09:41
We know this, thoughипак, in aggregateагрегат,
202
569352
3081
jer to sociolozi dosledno dokazuju
09:44
because sociologistsсоциолога
have consistentlykonstantno demonstratedдемонстрирано this
203
572457
3220
eksperimentima koje osmišljavaju,
09:47
with these experimentsексперименте they buildизградити,
204
575701
1665
kada pošalju gomilu prijava za posao,
09:49
where they sendпошаљи a bunchгомилу
of applicationsапликације to jobsпосао out,
205
577390
2568
podjednako dobrih, ali neke imaju
imena koja zvuče belački
09:51
equallyподједнако qualifiedkvalifikovana but some
have white-soundingBeli orijentisanu namesимена
206
579982
2501
a neke koje zvuče kao crnački,
09:54
and some have black-soundingCrni orijentisanu namesимена,
207
582507
1706
i uvek su razočaravajući rezultati; uvek.
09:56
and it's always disappointingrazočaravajuće,
the resultsрезултате -- always.
208
584237
2694
Tako, mi smo pristrasni
09:59
So we are the onesоне that are biasedпристрасан,
209
587510
1771
i mi u algoritme ubacujemo pristrasnost
10:01
and we are injectingUbrizgavao those biasesпредрасуде
into the algorithmsалгоритми
210
589305
3429
izborom podataka za prikupljanje,
10:04
by choosingBiranje what dataподаци to collectсакупити,
211
592758
1812
kao kada sam odlučila
da ne mislim o instant-špagetama;
10:06
like I choseизабрао not to think
about ramenрамен noodlesrezanci --
212
594594
2743
odlučila sam da su nebitne.
10:09
I decidedодлучио it was irrelevantирелевантно.
213
597361
1625
Ako verujemo podacima
koji otkrivaju praksu iz prošlosti
10:11
But by trustingverovati the dataподаци that's actuallyзаправо
pickingбирање up on pastпрошлост practicesprakse
214
599010
5684
i biramo definiciju uspeha,
10:16
and by choosingBiranje the definitionдефиниција of successуспех,
215
604718
2014
kako onda očekujemo
da algoritmi ostanu neoštećeni?
10:18
how can we expectочекујте the algorithmsалгоритми
to emergeпојавити се unscathednetaknut?
216
606756
3983
Ne možemo. Moramo ih proveriti.
10:22
We can't. We have to checkпровери them.
217
610763
2356
Moramo proveriti da li su pravični.
10:26
We have to checkпровери them for fairnesspravednost.
218
614165
1709
Dobra vest jeste da možemo
proveriti jesu li pravični.
10:27
The good newsвести is,
we can checkпровери them for fairnesspravednost.
219
615898
2711
Algoritme možemo ispitati
10:30
AlgorithmsAlgoritmi can be interrogatedиспитивани,
220
618633
3352
i reći će nam istinu svaki put.
10:34
and they will tell us
the truthистина everyсваки time.
221
622009
2034
I možemo ih popraviti.
Možemo ih poboljšati.
10:36
And we can fixпоправи them.
We can make them better.
222
624067
2493
To zovem revizijom algoritma
10:38
I call this an algorithmicAlgoritamski auditrevizija,
223
626584
2375
i ukratko ću vam je objasniti.
10:40
and I'll walkходати you throughкроз it.
224
628983
1679
Prvo, provera integriteta podataka.
10:42
First, dataподаци integrityинтегритет checkпровери.
225
630686
2196
Zbog algoritma rizika od recidivizma
o kojem sam govorila,
10:46
For the recidivismrecidivizam riskризик
algorithmalgoritam I talkedпричао about,
226
634132
2657
provera integriteta podataka
značila bi prihvatanje činjenice
10:49
a dataподаци integrityинтегритет checkпровери would mean
we'dми смо have to come to termsуслови with the factчињеница
227
637582
3573
da u SAD crnci i belci
podjednako puše travu
10:53
that in the US, whitesbelci and blackscrnci
smokeдим potпот at the sameисти rateстопа
228
641179
3526
ali crnci imaju mnogo više
šanse da budu uhapšeni -
10:56
but blackscrnci are farдалеко more likelyвероватно
to be arrestedУхапшен --
229
644729
2485
četiri ili pet puta, zavisi od kraja.
10:59
fourчетири or fiveпет timesпута more likelyвероватно,
dependingзависно on the areaподручје.
230
647238
3184
Kako ta pristrasnost izgleda
u drugim kriminalnim oblastima,
11:03
What is that biasсклоност looking like
in other crimeзлочин categoriesкатегорије,
231
651317
2826
i kako je uzimamo u obzir?
11:06
and how do we accountрачун for it?
232
654167
1451
Drugo, treba da razmislimo
o definiciji uspeha,
11:08
SecondDrugi, we should think about
the definitionдефиниција of successуспех,
233
656162
3039
da je revidiramo.
11:11
auditrevizija that.
234
659225
1381
Setite se algoritma za zapošljavanje
koji smo spomenuli.
11:12
RememberSeti se -- with the hiringзапошљавање
algorithmalgoritam? We talkedпричао about it.
235
660630
2752
Osoba koja je tu četiri godine
i unapređena je jednom?
11:15
SomeoneNeko who staysостаје for fourчетири yearsгодине
and is promotedпромовисана onceједном?
236
663406
3165
Pa, to je uspešan zaposleni,
11:18
Well, that is a successfulуспјешно employeeзапослени,
237
666595
1769
ali je takođe i zaposleni
u skladu sa njihovom kulturom.
11:20
but it's alsoтакође an employeeзапослени
that is supportedподржан by theirњихова cultureкултура.
238
668388
3079
Tako i to može biti pristrasno.
11:24
That said, alsoтакође it can be quiteприлично biasedпристрасан.
239
672089
1926
Moramo razdvojiti te dve stvari.
11:26
We need to separateзасебан those two things.
240
674039
2065
Treba da uzmemo
slepe audicije za orkestar kao primer.
11:28
We should look to
the blindслеп orchestraorkestar auditionaudicija
241
676128
2426
11:30
as an exampleпример.
242
678578
1196
Tamo ljudi konkurišu su iza zastora.
11:31
That's where the people auditioningna audiciji
are behindиза a sheetлист.
243
679798
2756
Što je meni bitno jeste
11:34
What I want to think about there
244
682946
1931
da ljudi koji slušaju
odlučuju šta je bitno
11:36
is the people who are listeningслушање
have decidedодлучио what's importantважно
245
684901
3417
i odlučuju su šta nije bitno,
11:40
and they'veони су decidedодлучио what's not importantважно,
246
688342
2029
tako da im to ne odvlači pažnju.
11:42
and they're not gettingдобијања
distractedодвратан by that.
247
690395
2059
Otkad su počele
slepe audicije za orkestre,
11:44
When the blindслеп orchestraorkestar
auditionsaudicije startedпочела,
248
692961
2749
broj žena u orkestrima
povećao se pet puta.
11:47
the numberброј of womenЖене in orchestrasorkestara
wentотишао up by a factorфактор of fiveпет.
249
695734
3444
Zatim, moramo razmotriti tačnost.
11:52
NextSledeći, we have to considerразмотрити accuracyтачност.
250
700253
2015
Tada bi se model dodatne vrednosti
za nastavnike odmah raspao.
11:55
This is where the value-addedsa dodatnom vrednošću modelмодел
for teachersнаставници would failпропасти immediatelyодмах.
251
703233
3734
Nema savršenog algoritma, naravno,
11:59
No algorithmalgoritam is perfectсавршен, of courseкурс,
252
707578
2162
pa moramo razmotriti
greške svakog algoritma.
12:02
so we have to considerразмотрити
the errorsгрешке of everyсваки algorithmalgoritam.
253
710620
3605
Koliko su greške česte
i za koga ovaj model ne funkcioniše?
12:06
How oftenчесто are there errorsгрешке,
and for whomкога does this modelмодел failпропасти?
254
714836
4359
Koja je cena te nefunkcionalnosti?
12:11
What is the costтрошак of that failureнеуспех?
255
719850
1718
Na kraju, moramo razmotriti
12:14
And finallyконачно, we have to considerразмотрити
256
722434
2207
dugoročne efekte algoritama,
12:17
the long-termдугорочни effectsефекте of algorithmsалгоритми,
257
725973
2186
njihove povratne kružne sprege
koje se stvaraju.
12:20
the feedbackповратна информација loopspetlji that are engenderingгенерирање.
258
728866
2207
Ovo zvuči apstraktno,
12:23
That soundsзвуци abstractапстрактан,
259
731586
1236
ali zamislite da su Fejsbukovi inženjeri
to uzeli u obzir
12:24
but imagineзамислити if FacebookFacebook engineersинжењери
had consideredразматрати that
260
732846
2664
pre odluke da nam prikažu
samo postove naših prijatelja.
12:28
before they decidedодлучио to showсхов us
only things that our friendsпријатељи had postedобјављено.
261
736270
4855
Imam još dve poruke,
jednu za naučnike koji se bave podacima.
12:33
I have two more messagesпоруке,
one for the dataподаци scientistsнаучници out there.
262
741761
3234
Naučnici za podatke - ne treba
da budemo sudije istine.
12:37
DataPodaci scientistsнаучници: we should
not be the arbitersšahovskog of truthистина.
263
745450
3409
Treba da budemo
prevodioci etičkih rasprava
12:41
We should be translatorsprevodioci
of ethicalетички discussionsдискусије that happenдесити се
264
749520
3783
koje se odvijaju u širem društvu.
12:45
in largerвеће societyдруштво.
265
753327
1294
(Aplauz)
12:47
(ApplauseAplauz)
266
755579
2133
A za vas ostale,
12:49
And the restодмор of you,
267
757736
1556
koji niste naučnici za podatke:
12:52
the non-databez podataka scientistsнаучници:
268
760011
1396
12:53
this is not a mathматематика testтест.
269
761431
1498
ovo nije test iz matematike.
Ovo je politička borba.
12:55
This is a politicalполитички fightборба.
270
763632
1348
Od naših algoritamskih vladara
moramo zahtevati odgovornost.
12:58
We need to demandпотражња accountabilityодговорност
for our algorithmicAlgoritamski overlordsgospodare.
271
766587
3907
(Aplauz)
13:04
(ApplauseAplauz)
272
772118
1499
Doba slepe vere u masovne podatke
mora se okončati.
13:05
The eraера of blindслеп faithвера
in bigвелики dataподаци mustмора endкрај.
273
773641
4225
Hvala vam mnogo.
13:09
Thank you very much.
274
777890
1167
(Aplauz)
13:11
(ApplauseAplauz)
275
779081
5303
Translated by Romeo Mlinar
Reviewed by Tijana Mihajlović

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com