ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Кеті О'Ніл: Епоха сліпої віри у великі дані має підійти до кінця

Filmed:
1,391,460 views

Алгоритми вирішують, хто отримає позику, хто отримає співбесіду на роботу, хто отримає страхування та багато чого іншого - але вони автоматично не забезпечують справедливість. Математик і науковець з даних Кеті О'Ніл створила термін, що описує секретні, важливі та шкідливі алгоритми: "зброя математичного знищення". Дізнайтеся більше про наміри, що приховані за формулами.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsАлгоритми are everywhereскрізь.
0
975
1596
Алгоритми є повсюди.
00:16
They sortсортувати and separateокремо
the winnersпереможці from the losersпрограли.
1
4111
3125
Вони сортують і відрізняють
переможців від переможених.
00:20
The winnersпереможці get the jobробота
2
8019
2264
Переможці отримують роботу
00:22
or a good creditкредит cardкарта offerпропозиція.
3
10307
1743
чи вигідні умови
оформлення кредитки.
00:24
The losersпрограли don't even get an interviewінтерв'ю
4
12074
2651
Переможені не доходять
навіть до співбесіди,
00:27
or they payплатити more for insuranceстрахування.
5
15590
1777
або платять більше за страхування.
00:30
We're beingбуття scoredзабив with secretтаємниця formulasформули
that we don't understandзрозуміти
6
18197
3549
Нас обчислюють секретними формулами,
які ми не розуміємо,
00:34
that oftenчасто don't have systemsсистеми of appealзвернення.
7
22675
3217
і до яких часто не можна подати
апеляційні скарги.
00:39
That begsнапрошується the questionпитання:
8
27240
1296
Тому виникає питання:
00:40
What if the algorithmsалгоритми are wrongнеправильно?
9
28560
2913
а якщо припустити,
що алгоритми неправильні?
00:45
To buildбудувати an algorithmалгоритм you need two things:
10
33100
2040
Для побудови алгоритму потрібні дві речі:
00:47
you need dataдані, what happenedсталося in the pastминуле,
11
35164
1981
потрібні дані про те,
що сталося у минулому,
00:49
and a definitionвизначення of successуспіх,
12
37169
1561
і визначення успіху,
00:50
the thing you're looking for
and oftenчасто hopingсподіваючись for.
13
38754
2457
те, чого ви прагнете
і на що часто сподіваєтеся.
00:53
You trainпоїзд an algorithmалгоритм
by looking, figuringз'ясувати out.
14
41235
5037
Ви навчаєте алгоритм,
розмірковуючи, з'ясовуючи.
00:58
The algorithmалгоритм figuresцифри out
what is associatedасоційований with successуспіх.
15
46296
3419
Алгоритм з'ясовує,
що асоціюється із успіхом.
01:01
What situationситуація leadsведе to successуспіх?
16
49739
2463
Яка ситуація призводить до успіху?
01:04
ActuallyНасправді, everyoneкожен usesвикористовує algorithmsалгоритми.
17
52881
1762
Усі люди вживають алгоритми.
01:06
They just don't formalizeоформити them
in writtenнаписано codeкод.
18
54667
2718
Вони просто не записують їх
у вигляді коду.
01:09
Let me give you an exampleприклад.
19
57409
1348
Я наведу вам приклад.
01:10
I use an algorithmалгоритм everyкожен day
to make a mealїжа for my familyсім'я.
20
58781
3316
Я щодня вживаю алгоритм,
щоб приготувати їсти для сім'ї.
01:14
The dataдані I use
21
62121
1476
Дані, що я використовую,
01:16
is the ingredientsінгредієнти in my kitchenкухня,
22
64394
1659
це інгредієнти в мене на кухні,
01:18
the time I have,
23
66077
1527
скільки часу я маю,
01:19
the ambitionчестолюбство I have,
24
67628
1233
наскільки я захоплена,
01:20
and I curateсвященик that dataдані.
25
68885
1709
і я - куратор цих даних.
01:22
I don't countрахувати those little packagesпакети
of ramenрамен noodlesЛокшина as foodїжа.
26
70618
4251
Я не зараховую маленькі пакетики
локшини рамен до їжі.
01:26
(LaughterСміх)
27
74893
1869
(Сміх)
01:28
My definitionвизначення of successуспіх is:
28
76786
1845
Ось моє визначення успіху:
01:30
a mealїжа is successfulуспішний
if my kidsдіти eatїсти vegetablesовочі.
29
78655
2659
страва успішна,
якщо мої діти їдять овочі.
01:34
It's very differentінший
from if my youngestнаймолодший sonсин were in chargeплатити.
30
82181
2854
Дайте вирішувати моєму молодшому
синові, і все буде інакше.
01:37
He'dВін б say successуспіх is if
he getsотримує to eatїсти lots of NutellaNutella.
31
85059
2788
Для нього успіх - це якщо вдається
з'їсти багато Нутелли.
01:41
But I get to chooseвибирай successуспіх.
32
89179
2226
Але я визначаю, що таке успіх.
01:43
I am in chargeплатити. My opinionдумка mattersмає значення.
33
91429
2707
Я вирішую. Моя точка зору має значення.
01:46
That's the first ruleправити of algorithmsалгоритми.
34
94160
2675
Ось таким є перше правило алгоритмів.
01:48
AlgorithmsАлгоритми are opinionsдумки embeddedвбудований in codeкод.
35
96859
3180
Алгоритми - це точки зору,
вбудовані у код.
01:53
It's really differentінший from what you think
mostнайбільше people think of algorithmsалгоритми.
36
101562
3663
Це дуже відрізняється від того, що
більшість людей думає про алгоритми.
01:57
They think algorithmsалгоритми are objectiveоб'єктивний
and trueправда and scientificнауковий.
37
105249
4504
Вони думають, що алгоритми об'єктивні,
правдиві і науково обґрунтовані.
02:02
That's a marketingмаркетинг trickтрюк.
38
110387
1699
Це маркетингові хитрощі.
02:05
It's alsoтакож a marketingмаркетинг trickтрюк
39
113269
2125
Це також будуть маркетингові хитрощі,
02:07
to intimidateзалякати you with algorithmsалгоритми,
40
115418
3154
якщо вам будуть погрожувати алгоритмами,
02:10
to make you trustдовіра and fearстрах algorithmsалгоритми
41
118596
3661
будуть примушувати вас довіряти
алгоритмам та боятися їх,
02:14
because you trustдовіра and fearстрах mathematicsматематика.
42
122281
2018
бо ви довіряєте математиці та боїтеся її.
02:17
A lot can go wrongнеправильно when we put
blindсліпий faithвіра in bigвеликий dataдані.
43
125567
4830
Чимало речей може піти не так, як треба,
коли ми сліпо довіряємо великим даним.
02:23
This is KiriКірі SoaresСоарес.
She's a highвисокий schoolшкола principalОсновний in BrooklynБруклін.
44
131684
3373
Це Кірі Соарс. Вона - директор
школи старших класів у Брукліні.
02:27
In 2011, she told me
her teachersвчителі were beingбуття scoredзабив
45
135081
2586
У 2011 р. вона розповіла мені,
що її вчителів оцінювали
02:29
with a complexкомплекс, secretтаємниця algorithmалгоритм
46
137691
2727
за складним секретним алгоритмом
02:32
calledназивається the "value-addedдоданої вартості modelмодель."
47
140442
1489
під назвою
"модель з розширеними функціями".
02:34
I told her, "Well, figureфігура out
what the formulaформула is, showпоказати it to me.
48
142505
3092
Я сказала їй: "З'ясуй, що це за формула,
покажи її мені.
02:37
I'm going to explainпояснити it to you."
49
145621
1541
Я тобі її поясню".
02:39
She said, "Well, I triedспробував
to get the formulaформула,
50
147186
2141
Вона сказала: "Я намагалася
отримати формулу,
02:41
but my DepartmentДепартамент of EducationОсвіта contactконтакт
told me it was mathматематика
51
149351
2772
але моя знайома у міносвіти
сказала мені, що то математика,
02:44
and I wouldn'tне буде understandзрозуміти it."
52
152147
1546
і що мені цього не зрозуміти".
02:47
It getsотримує worseгірше.
53
155266
1338
Далі буде гірше.
02:48
The NewНові YorkЙорк PostПост filedПодано
a FreedomСвобода of InformationІнформація ActАкт requestзапит,
54
156628
3530
"Нью-Йорк Пост" надіслала запит згідно
із Законом про свободу інформації,
02:52
got all the teachers'учителів namesімена
and all theirїх scoresбали
55
160182
2959
отримала імена усіх вчителів
та усі їх оцінки,
02:55
and they publishedопубліковано them
as an actдіяти of teacher-shamingвчитель осуду.
56
163165
2782
і потім вони опублікували це
задля присоромлення вчителів.
02:59
When I triedспробував to get the formulasформули,
the sourceджерело codeкод, throughчерез the sameтой же meansзасоби,
57
167084
3860
Коли я намагалася тими ж методами
одержати формули, початковий код,
03:02
I was told I couldn'tне міг.
58
170968
2149
мені сказали, що я не можу цього зробити.
03:05
I was deniedвідмовлено.
59
173141
1236
Мені відмовили.
03:06
I laterпізніше foundзнайдено out
60
174401
1174
Пізніше я дізналася,
03:07
that nobodyніхто in NewНові YorkЙорк CityМісто
had accessдоступ to that formulaформула.
61
175599
2866
що ніхто у місті Нью-Йорк
не мав доступу до цієї формули.
03:10
No one understoodзрозуміла it.
62
178489
1305
Ніхто її не розумів.
03:13
Then someoneхтось really smartрозумний
got involvedучасть, GaryГері RubensteinРубінштейн.
63
181929
3224
Потім до цього долучилася
одна мудра людина, Гері Рубінштейн.
03:17
He foundзнайдено 665 teachersвчителі
from that NewНові YorkЙорк PostПост dataдані
64
185177
3621
Він знайшов 665 вчителів з тої статті
у "Нью-Йорк Пост",
03:20
that actuallyнасправді had two scoresбали.
65
188822
1866
вчителів, що, власне, мали дві оцінки.
03:22
That could happenстатися if they were teachingвикладання
66
190712
1881
Так могло статися, якщо вони викладали
03:24
seventhсьомий gradeклас mathматематика and eighthвосьмий gradeклас mathматематика.
67
192617
2439
математику у сьомому класі
і математику у восьмому.
03:27
He decidedвирішив to plotсюжет them.
68
195080
1538
Він вирішив відобразити їх дані.
03:28
EachКожен dotкрапка representsрепрезентує a teacherвчитель.
69
196642
1993
Кожна крапка репрезентує вчителя.
03:31
(LaughterСміх)
70
199104
2379
(Сміх)
03:33
What is that?
71
201507
1521
Що це таке?
03:35
(LaughterСміх)
72
203052
1277
(Сміх)
03:36
That should never have been used
for individualіндивідуальний assessmentоцінка.
73
204353
3446
Це ніколи не слід було використовувати
для індивідуальної оцінки.
03:39
It's almostмайже a randomвипадковий numberномер generatorгенератор.
74
207823
1926
Це майже як генератор випадкових чисел.
03:41
(ApplauseОплески)
75
209773
2946
(Оплески)
03:44
But it was.
76
212743
1162
Але це було використано.
03:45
This is SarahСара WysockiWysocki.
77
213929
1176
Це - Сара Висоцкі.
03:47
She got firedзвільнений, alongразом
with 205 other teachersвчителі,
78
215129
2175
Її звільнили, разом із
205 іншими вчителями,
03:49
from the WashingtonВашингтон, DCПОСТІЙНОГО СТРУМУ schoolшкола districtрайонний,
79
217328
2662
зі шкільного району м.Вашингтон
в окрузі Колумбія,
03:52
even thoughхоча she had great
recommendationsрекомендації from her principalОсновний
80
220014
2909
хоча вона мала прекрасні рекомендації
від її директора
03:54
and the parentsбатьки of her kidsдіти.
81
222947
1428
та батьків її дітей.
03:57
I know what a lot
of you guys are thinkingмислення,
82
225390
2032
Я знаю, про що зараз думає
багато із вас,
03:59
especiallyособливо the dataдані scientistsвчені,
the AIАЙ expertsексперти here.
83
227446
2487
зокрема фахівці з обробки даних
і штучного інтелекту.
04:01
You're thinkingмислення, "Well, I would never make
an algorithmалгоритм that inconsistentнепослідовний."
84
229957
4226
Ви думаєте: "Ну, я б ніколи не створив
алгоритм з такими протиріччями".
Але алгоритми можуть піти не за планом,
04:06
But algorithmsалгоритми can go wrongнеправильно,
85
234853
1683
04:08
even have deeplyглибоко destructiveдеструктивні effectsефекти
with good intentionsнаміри.
86
236560
4598
навіть мати надзвичайно нищівні наслідки,
незважаючи на добрі наміри.
04:14
And whereasв той час як an airplaneлітак
that's designedрозроблений badlyпогано
87
242531
2379
В той час, як літак,
що був погано спроектований,
04:16
crashesаварії to the earthземля and everyoneкожен seesбачить it,
88
244934
2001
врізається у землю, і всі це бачать,
04:18
an algorithmалгоритм designedрозроблений badlyпогано
89
246959
1850
алгоритм, що був погано розроблений,
04:22
can go on for a long time,
silentlyмовчки wreakingпожитку havocхаос.
90
250245
3865
може довго функціонувати
і тихенько завдавати шкоди.
04:27
This is RogerРоже AilesAiles.
91
255748
1570
Це - Роджер Ейлс.
04:29
(LaughterСміх)
92
257342
2000
(Сміх)
04:32
He foundedзаснований FoxЛисиця NewsНовини in 1996.
93
260524
2388
Він заснував Fox News у 1996 р.
04:35
More than 20 womenжінки complainedпоскаржився
about sexualсексуальний harassmentпереслідування.
94
263436
2581
Понад 20 жінок поскаржилися
на сексуальні домагання.
04:38
They said they weren'tне було allowedдозволено
to succeedдосягати успіху at FoxЛисиця NewsНовини.
95
266041
3235
Вони казали, що їм не дозволяли
досягати успіхів у Fox News.
04:41
He was oustedвитіснили last yearрік,
but we'veми маємо seenбачив recentlyнещодавно
96
269300
2520
Минулого року його вигнали,
але ми нещодавно побачили,
04:43
that the problemsпроблеми have persistedзберігається.
97
271844
2670
що проблеми все одно існують.
04:47
That begsнапрошується the questionпитання:
98
275654
1400
Виникає питання:
04:49
What should FoxЛисиця NewsНовини do
to turnповорот over anotherінший leafлисток?
99
277078
2884
що повинна зробити Fox News,
щоб почати нову сторінку?
04:53
Well, what if they replacedзамінено
theirїх hiringнаймання processпроцес
100
281245
3041
А якщо б вони замість свого процесу
найму працівників вживали
04:56
with a machine-learningМашинне навчання algorithmалгоритм?
101
284310
1654
алгоритм машинного навчання?
04:57
That soundsзвуки good, right?
102
285988
1595
Непогана ідея, правда?
04:59
Think about it.
103
287607
1300
Подумайте про це.
05:00
The dataдані, what would the dataдані be?
104
288931
2105
Дані, які в нас були б дані?
05:03
A reasonableрозумний choiceвибір would be the last
21 yearsроків of applicationsзаявки to FoxЛисиця NewsНовини.
105
291060
4947
Резонно розглянути відгуки на вакансії
у Fox News за останній 21 рік.
05:08
ReasonableРозумні.
106
296031
1502
Резонно.
05:09
What about the definitionвизначення of successуспіх?
107
297557
1938
А як ми визначимо успіх?
05:11
ReasonableРозумні choiceвибір would be,
108
299921
1324
Резонно було б обрати,
05:13
well, who is successfulуспішний at FoxЛисиця NewsНовини?
109
301269
1778
ну, хто є успішним у Fox News?
05:15
I guessздогадатися someoneхтось who, say,
stayedзалишився there for fourчотири yearsроків
110
303071
3580
Скажімо, та людина,
що пробула там чотири роки,
05:18
and was promotedпропагований at leastнайменше onceодин раз.
111
306675
1654
і яка хоч раз отримала підвищення.
05:20
SoundsЗвуки reasonableрозумний.
112
308816
1561
Резонне визначення.
05:22
And then the algorithmалгоритм would be trainedнавчений.
113
310401
2354
А потім ми б навчали алгоритм.
05:24
It would be trainedнавчений to look for people
to learnвчитися what led to successуспіх,
114
312779
3877
Його б навчали шукати людей, вивчати,
що призвело до успіху,
05:29
what kindдоброзичливий of applicationsзаявки
historicallyісторично led to successуспіх
115
317219
4318
якого роду відгуки про вакансії
призводили до успіху
05:33
by that definitionвизначення.
116
321561
1294
за цим визначенням.
Подумайте, що сталося би
по відношенню
05:36
Now think about what would happenстатися
117
324200
1775
05:37
if we appliedзастосований that
to a currentструм poolбасейн of applicantsзаявникам.
118
325999
2555
до теперішнього
банку даних про кандидатів.
05:41
It would filterфільтр out womenжінки
119
329119
1629
Алгоритм відфільтрував би жінок,
05:43
because they do not look like people
who were successfulуспішний in the pastминуле.
120
331663
3930
бо вони не виглядають, як люди,
що були успішними у минулому.
05:51
AlgorithmsАлгоритми don't make things fairярмарок
121
339752
2537
Алгоритми не забезпечують справедливість,
05:54
if you just blithelyбезтурботно,
blindlyнаосліп applyзастосовувати algorithmsалгоритми.
122
342313
2694
якщо ви застосовуєте алгоритми
безтурботно і всліпу.
05:57
They don't make things fairярмарок.
123
345031
1482
Це не гарантія справедливості.
05:58
They repeatповторити our pastминуле practicesпрактики,
124
346537
2128
Вони повторюють наші минулі
методики роботи,
06:00
our patternsвізерунки.
125
348689
1183
наші шаблони.
06:01
They automateАвтоматизація the statusстатус quoкво.
126
349896
1939
Вони автоматизують статус-кво.
06:04
That would be great
if we had a perfectдосконалий worldсвіт,
127
352718
2389
Як було б добре, якщо б
ми жили в ідеальному світі,
06:07
but we don't.
128
355905
1312
але ми в ньому не живемо.
06:09
And I'll addдодати that mostнайбільше companiesкомпаній
don't have embarrassingнезручне lawsuitsСудові процеси,
129
357241
4102
Додам, що більшість компаній не має
прикрих правових спорів,
06:14
but the dataдані scientistsвчені in those companiesкомпаній
130
362446
2588
але науковцям з даних у тих компаніях
06:17
are told to followслідуйте the dataдані,
131
365058
2189
кажуть слідкувати за даними,
06:19
to focusфокус on accuracyточність.
132
367271
2143
концентруватися на точності.
06:22
Think about what that meansзасоби.
133
370273
1381
Подумайте, що це означає.
06:23
Because we all have biasупередження,
it meansзасоби they could be codifyingКодифікація sexismсексизм
134
371678
4027
Оскільки усі ми маємо упередження,
вони можуть кодувати сексизм
06:27
or any other kindдоброзичливий of bigotryфанатизм.
135
375729
1836
чи інший вид нетерпимості.
06:31
Thought experimentексперимент,
136
379488
1421
Інтелектуальний експеримент,
06:32
because I like them:
137
380933
1509
бо вони мені подобаються:
06:35
an entirelyповністю segregatedвідокремлений societyсуспільство --
138
383574
2975
повністю сегреговане суспільство -
06:40
raciallyрасово segregatedвідокремлений, all townsмістечка,
all neighborhoodsквартали
139
388247
3328
расова сегрегація в усіх містах,
усіх кварталах,
06:43
and where we sendвідправити the policeполіція
only to the minorityменшини neighborhoodsквартали
140
391599
3037
і поліцію посилають лиш до
кварталів, де проживає меншість,
06:46
to look for crimeзлочин.
141
394660
1193
щоб шукати там злочинців.
06:48
The arrestарешт dataдані would be very biasedупереджений.
142
396451
2219
Дані про арешти були б дуже упередженими.
06:51
What if, on topвершина of that,
we foundзнайдено the dataдані scientistsвчені
143
399851
2575
А якщо, окрім того,
ми знайшли б науковців з даних
06:54
and paidоплачений the dataдані scientistsвчені to predictпередбачати
where the nextдалі crimeзлочин would occurвиникати?
144
402450
4161
і платили б науковцям за передбачення,
де буде скоєно наступний злочин?
06:59
MinorityМеншини neighborhoodсусідство.
145
407275
1487
У кварталі, де проживає меншість.
07:01
Or to predictпередбачати who the nextдалі
criminalкримінальний would be?
146
409285
3125
Чи передбачити, хто буде
наступним злочинцем?
07:04
A minorityменшини.
147
412888
1395
Людина з меншості.
07:07
The dataдані scientistsвчені would bragBrag
about how great and how accurateточний
148
415949
3541
Науковці хвалилися б про те,
наскільки чудовою і точною
07:11
theirїх modelмодель would be,
149
419514
1297
є їх модель,
07:12
and they'dвони б be right.
150
420835
1299
і вони були б праві.
07:15
Now, realityреальність isn't that drasticрізке,
but we do have severeважкий segregationssegregations
151
423951
4615
В реальному житті немає таких крайнощів,
але ми маємо суттєву сегрегацію
07:20
in manyбагато хто citiesмістах and townsмістечка,
152
428590
1287
у великих і малих містах,
07:21
and we have plentyбагато of evidenceсвідчення
153
429901
1893
і маємо досить доказів
07:23
of biasedупереджений policingполіцейські
and justiceсправедливість systemсистема dataдані.
154
431818
2688
щодо упередженості поліції
і судової системи.
07:27
And we actuallyнасправді do predictпередбачати hotspotsгарячі точки,
155
435632
2815
І ми справді передбачаємо гарячі точки,
07:30
placesмісць where crimesзлочини will occurвиникати.
156
438471
1530
місця, де буде скоєно злочини.
07:32
And we do predictпередбачати, in factфакт,
the individualіндивідуальний criminalityкримінал, злочинність,
157
440401
3866
І це факт, що ми передбачаємо
індивідуальні злочинні дії,
07:36
the criminalityкримінал, злочинність of individualsособистості.
158
444291
1770
злочинність окремих людей.
07:38
The newsновини organizationорганізація ProPublicaProPublica
recentlyнещодавно lookedподивився into
159
446972
3963
Інформагентство ProPublica нещодавно
провело розслідування щодо
07:42
one of those "recidivismрецидивів riskризик" algorithmsалгоритми,
160
450959
2024
одного з алгоритмів
"ризику рецидивізму",
07:45
as they're calledназивається,
161
453007
1163
так вони називаються,
07:46
beingбуття used in FloridaФлорида
duringпід час sentencingвинесення вироків by judgesсудді.
162
454194
3194
що використовують судді у Флориді,
коли виносять вирок.
07:50
BernardБернард, on the left, the blackчорний man,
was scoredзабив a 10 out of 10.
163
458411
3585
Бернард, зліва, темношкірий,
отримав рейтинг 10 з 10.
07:55
DylanДілан, on the right, 3 out of 10.
164
463179
2007
Ділан, справа, 3 з 10.
07:57
10 out of 10, highвисокий riskризик.
3 out of 10, lowнизький riskризик.
165
465210
2501
10 з 10, високий ризик.
3 з 10, низький ризик.
08:00
They were bothобидва broughtприніс in
for drugнаркотик possessionволодіння.
166
468598
2385
Їх обох заарештували за
зберігання наркотиків.
В них кримінальне минуле,
08:03
They bothобидва had recordsзаписи,
167
471007
1154
08:04
but DylanДілан had a felonyкримінальний злочин
168
472185
2806
але Ділан скоїв тяжкий злочин,
08:07
but BernardБернард didn't.
169
475015
1176
а Бернард - ні.
08:09
This mattersмає значення, because
the higherвище scoreоцінка you are,
170
477818
3066
Це має значення, бо
чим вищий в тебе ризик,
08:12
the more likelyшвидше за все you're beingбуття givenдано
a longerдовше sentenceречення.
171
480908
3473
тим ймовірніше, що ти отримаєш
довший термін покарання.
08:18
What's going on?
172
486294
1294
Що ж відбувається?
08:20
DataДані launderingбрудних грошей.
173
488526
1332
Відмивання даних.
08:22
It's a processпроцес by whichкотрий
technologistsтехнологи hideприховати uglyпотворний truthsістини
174
490930
4427
Це процес, коли технологи ховають
неприємну правду
всередині алгоритмів типу "чорний ящик"
08:27
insideвсередині blackчорний boxкоробка algorithmsалгоритми
175
495381
1821
08:29
and call them objectiveоб'єктивний;
176
497226
1290
і називають їх об'єктивними;
08:31
call them meritocraticзаслуг.
177
499320
1568
називають їх меритократичними.
08:35
When they're secretтаємниця,
importantважливо and destructiveдеструктивні,
178
503118
2385
Коли ці алгоритми секретні,
важливі та нищівні,
08:37
I've coinedпридуманий a termтермін for these algorithmsалгоритми:
179
505527
2487
я створила для них термін:
08:40
"weaponsзброя of mathматематика destructionруйнування."
180
508038
1999
"зброя математичного знищення".
08:42
(LaughterСміх)
181
510061
1564
(Сміх)
08:43
(ApplauseОплески)
182
511649
3054
(Оплески)
08:46
They're everywhereскрізь,
and it's not a mistakeпомилка.
183
514727
2354
Вони повсюди,
і це не помилково.
08:49
These are privateприватний companiesкомпаній
buildingбудівля privateприватний algorithmsалгоритми
184
517695
3723
Це приватні компанії,
що будують приватні алгоритми
08:53
for privateприватний endsзакінчується.
185
521442
1392
для приватного зиску.
08:55
Even the onesті, хто I talkedговорив about
for teachersвчителі and the publicгромадськість policeполіція,
186
523214
3214
Навіть приклади, що я навела,
для вчителів і державної поліції,
08:58
those were builtпобудований by privateприватний companiesкомпаній
187
526452
1869
приватні компанії побудували їх
09:00
and soldпродано to the governmentуряд institutionsустанови.
188
528345
2231
і продали державним установам.
09:02
They call it theirїх "secretтаємниця sauceсоус" --
189
530600
1873
Вони кажуть, що це їх
"секретний соус",
09:04
that's why they can't tell us about it.
190
532497
2128
тому вони не можуть
розповісти нам про нього.
09:06
It's alsoтакож privateприватний powerвлада.
191
534649
2220
Це також вплив приватних інтересів.
09:09
They are profitingкористуючись for wieldingволодіє
the authorityвлада of the inscrutableinscrutable.
192
537924
4695
Вони отримують зиск, маючи владу
над незбагненним.
09:17
Now you mightможе think,
sinceз all this stuffречі is privateприватний
193
545114
2934
Позаяк це все приватні компанії,
ви можете припустити,
09:20
and there's competitionконкуренція,
194
548072
1158
що існує конкуренція,
09:21
maybe the freeбезкоштовно marketринок
will solveвирішити this problemпроблема.
195
549254
2306
можливо, вільний ринок
вирішить цю проблему.
09:23
It won'tне буде.
196
551584
1249
Ні, не вирішить.
09:24
There's a lot of moneyгроші
to be madeзроблений in unfairnessнесправедливість.
197
552857
3120
На несправедливості можна заробити
чимало грошей.
09:29
AlsoТакож, we're not economicекономічний rationalраціональний agentsагенти.
198
557127
3369
До того ж, ми не є
економічними раціональними агентами.
09:33
We all are biasedупереджений.
199
561031
1292
У нас у всіх є упередження.
09:34
We're all racistрасист and bigotedфанатичних
in waysшляхи that we wishпобажати we weren'tне було,
200
562960
3377
Ми всі до певної міри нетерпимі расисти,
хоч нам це і не подобається,
09:38
in waysшляхи that we don't even know.
201
566361
2019
ми самі не знаємо, до якої міри.
09:41
We know this, thoughхоча, in aggregateсукупність,
202
569352
3081
Однак ми знаємо, що так
загалом і є,
09:44
because sociologistsсоціологи
have consistentlyпослідовно demonstratedпродемонстрував this
203
572457
3220
бо соціологи систематично
демонструють це
09:47
with these experimentsексперименти they buildбудувати,
204
575701
1665
у експериментах, що вони проводять,
09:49
where they sendвідправити a bunchпучок
of applicationsзаявки to jobsробочі місця out,
205
577390
2568
коли вони надсилають низку
відгуків на вакансії,
09:51
equallyоднаково qualifiedкваліфіковані but some
have white-soundingбілий звучання namesімена
206
579982
2501
однакові кваліфікації, але у деяких
"білі" імена,
09:54
and some have black-soundingчорний звучання namesімена,
207
582507
1706
а в інших імена, як у темношкірих,
09:56
and it's always disappointingНезадовільно,
the resultsрезультати -- always.
208
584237
2694
і результати завжди невтішні,
завжди.
09:59
So we are the onesті, хто that are biasedупереджений,
209
587510
1771
Отже, ми маємо упередження,
10:01
and we are injectingспоживачі ін'єкційних those biasesупередження
into the algorithmsалгоритми
210
589305
3429
і ми вбудовуємо ці упередження
в алгоритми,
10:04
by choosingвибір what dataдані to collectзбирати,
211
592758
1812
обираючи, які дани потрібно збирати,
10:06
like I choseвибрав not to think
about ramenрамен noodlesЛокшина --
212
594594
2743
так само, як я вирішила
не думати про локшину рамен -
10:09
I decidedвирішив it was irrelevantнерелевантний.
213
597361
1625
я вирішила, що це малозначуще.
10:11
But by trustingДовіряючи the dataдані that's actuallyнасправді
pickingзбір up on pastминуле practicesпрактики
214
599010
5684
Але коли ми довіряємо даним,
що вловлюють практику, що склалася,
10:16
and by choosingвибір the definitionвизначення of successуспіх,
215
604718
2014
і обираємо визначення успіху,
10:18
how can we expectчекати the algorithmsалгоритми
to emergeз'являються unscathedнеушкодженим?
216
606756
3983
як ми можемо очікувати, що алгоритми
будуть без несправностей?
10:22
We can't. We have to checkперевірити them.
217
610763
2356
Не можемо. Ми повинні перевіряти їх.
10:26
We have to checkперевірити them for fairnessсправедливість.
218
614165
1709
Перевіряти їх на справедливість.
10:27
The good newsновини is,
we can checkперевірити them for fairnessсправедливість.
219
615898
2711
На щастя, ми можемо
перевіряти їх на справедливість.
10:30
AlgorithmsАлгоритми can be interrogatedдопитувався,
220
618633
3352
Алгоритми можна розпитувати,
10:34
and they will tell us
the truthправда everyкожен time.
221
622009
2034
і вони щоразу казатимуть
нам правду.
10:36
And we can fixвиправити them.
We can make them better.
222
624067
2493
І ми можемо виправити їх.
Ми можемо покращити їх.
10:38
I call this an algorithmicАлгоритмічні auditАудит,
223
626584
2375
Я називаю це "алгоритмічним аудитом",
10:40
and I'll walkходити you throughчерез it.
224
628983
1679
і я вам зараз його поясню.
10:42
First, dataдані integrityцілісність checkперевірити.
225
630686
2196
По-перше, перевірка цілісності даних.
10:46
For the recidivismрецидивів riskризик
algorithmалгоритм I talkedговорив about,
226
634132
2657
Повертаючись до алгоритму
риску рецидивізму,
перевірка цілісності даних означала б,
що нам довелося б змиритися із фактом,
10:49
a dataдані integrityцілісність checkперевірити would mean
we'dми б have to come to termsтерміни with the factфакт
227
637582
3573
10:53
that in the US, whitesбілки and blacksчорношкірі
smokeкурити potгорщик at the sameтой же rateкурс
228
641179
3526
що у США білі і темношкірі
обкурені однаково,
10:56
but blacksчорношкірі are farдалеко more likelyшвидше за все
to be arrestedарештований --
229
644729
2485
однак темношкірих заарештовують
набагато частіше -
10:59
fourчотири or fiveп'ять timesразів more likelyшвидше за все,
dependingзалежно від on the areaплоща.
230
647238
3184
у чотири-п'ять разів частіше,
залежно від району.
Як ця упередженість виглядає
в інших кримінальних категоріях,
11:03
What is that biasупередження looking like
in other crimeзлочин categoriesкатегорій,
231
651317
2826
11:06
and how do we accountрахунок for it?
232
654167
1451
і як ми приймаємо її до уваги?
11:08
SecondДругий, we should think about
the definitionвизначення of successуспіх,
233
656162
3039
По-друге, нам слід подумати про
визначення успіху,
11:11
auditАудит that.
234
659225
1381
проводити аудит визначення.
11:12
RememberПам'ятайте -- with the hiringнаймання
algorithmалгоритм? We talkedговорив about it.
235
660630
2752
Пригадуєте алгоритм
щодо прийняття на роботу?
Той, хто утримується на роботі чотири роки
і раз отримує підвищення?
11:15
SomeoneХтось who staysзалишається for fourчотири yearsроків
and is promotedпропагований onceодин раз?
236
663406
3165
11:18
Well, that is a successfulуспішний employeeпрацівник,
237
666595
1769
Ну так, це успішний працівник,
11:20
but it's alsoтакож an employeeпрацівник
that is supportedпідтримується by theirїх cultureкультура.
238
668388
3079
але це також працівник, котрого підтримує
організаційна культура.
11:24
That said, alsoтакож it can be quiteцілком biasedупереджений.
239
672089
1926
Однак і тут може бути
багато упередження.
11:26
We need to separateокремо those two things.
240
674039
2065
Нам треба розрізняти тих дві речі.
11:28
We should look to
the blindсліпий orchestraоркестр auditionпрослуховування
241
676128
2426
Давайте брати приклад
з прослуховування всліпу
11:30
as an exampleприклад.
242
678578
1196
на роль в окрестрі,
11:31
That's where the people auditioningпрослуховування
are behindпозаду a sheetаркуш.
243
679798
2756
Це коли люди на прослуховуванні
є за листом паперу.
11:34
What I want to think about there
244
682946
1931
На чому я хочу тут зосередитись:
11:36
is the people who are listeningслухати
have decidedвирішив what's importantважливо
245
684901
3417
люди, котрі прослуховують кандидатів,
вирішили, що важливе,
11:40
and they'veвони вже decidedвирішив what's not importantважливо,
246
688342
2029
і вирішили, що неважливе,
11:42
and they're not gettingотримувати
distractedвідволікся by that.
247
690395
2059
і їх це не відволікає.
11:44
When the blindсліпий orchestraоркестр
auditionsпрослуховування startedпочався,
248
692961
2749
Коли розпочалися прослуховування вліпу,
11:47
the numberномер of womenжінки in orchestrasоркестри
wentпішов up by a factorфактор of fiveп'ять.
249
695734
3444
кількість жінок в оркестрах
зросла у п'ять разів.
11:52
NextНаступний, we have to considerрозглянемо accuracyточність.
250
700253
2015
Потім нам потрібно розглянути точність.
11:55
This is where the value-addedдоданої вартості modelмодель
for teachersвчителі would failневдача immediatelyнегайно.
251
703233
3734
Ось тут модель з розширеними функціями
для вчителів одразу б провалилася.
11:59
No algorithmалгоритм is perfectдосконалий, of courseзвичайно,
252
707578
2162
Звісно, що не існує ідеальних алгоритмів,
12:02
so we have to considerрозглянемо
the errorsпомилки of everyкожен algorithmалгоритм.
253
710620
3605
тому нам треба приймати до уваги помилки
у кожному алгоритмі.
12:06
How oftenчасто are there errorsпомилки,
and for whomкого does this modelмодель failневдача?
254
714836
4359
Як часто там трапляються помилки,
і кого підведе ця модель?
12:11
What is the costвартість of that failureпровал?
255
719850
1718
Якою є ціна цього провалу?
12:14
And finallyнарешті, we have to considerрозглянемо
256
722434
2207
І наприкінці, нам потрібно
прийняти до уваги
12:17
the long-termдовгий строк effectsефекти of algorithmsалгоритми,
257
725973
2186
довготермінові ефекти алгоритмів,
12:20
the feedbackзворотній зв'язок loopsПетлі that are engenderingзародження.
258
728866
2207
ланцюги зворотного зв'язку, що виникають.
12:23
That soundsзвуки abstractабстрактний,
259
731586
1236
Звучить абстрактно,
12:24
but imagineуявіть собі if FacebookFacebook engineersінженери
had consideredрозглянутий that
260
732846
2664
але уявіть, якщо інженери Facebook
прийняли б це до уваги,
12:28
before they decidedвирішив to showпоказати us
only things that our friendsдрузі had postedопубліковано.
261
736270
4855
перш ніж вони вирішили показувати нам
лише те, що постять наші друзі.
12:33
I have two more messagesповідомлення,
one for the dataдані scientistsвчені out there.
262
741761
3234
В мене є ще дві думки, що я хочу донести,
одна для науковців з даних.
12:37
DataДані scientistsвчені: we should
not be the arbitersарбітром of truthправда.
263
745450
3409
Науковці з даних: нам не слід бути
арбітрами правди.
12:41
We should be translatorsперекладачі
of ethicalетичний discussionsдискусії that happenстатися
264
749520
3783
Нам слід бути перекладачами
етичних дискусій, що відбуваються
12:45
in largerбільший societyсуспільство.
265
753327
1294
у ширшому суспільстві.
12:47
(ApplauseОплески)
266
755579
2133
(Оплески)
12:49
And the restвідпочинок of you,
267
757736
1556
А щодо решти з вас,
12:52
the non-dataне для даних scientistsвчені:
268
760011
1396
не-науковців з даних:
12:53
this is not a mathматематика testтест.
269
761431
1498
це не тест з математики.
12:55
This is a politicalполітичний fightбій.
270
763632
1348
Це політична боротьба.
12:58
We need to demandпопит accountabilityпідзвітність
for our algorithmicАлгоритмічні overlordsповелителів.
271
766587
3907
Ми повинні вимагати підзвітності
від наших алгоритмічних можновладців.
13:04
(ApplauseОплески)
272
772118
1499
(Оплески)
13:05
The eraепоха of blindсліпий faithвіра
in bigвеликий dataдані mustповинен endкінець.
273
773641
4225
Епоха сліпої віри у великі дані
має підійти до кінця.
13:09
Thank you very much.
274
777890
1167
Дуже вам дякую.
13:11
(ApplauseОплески)
275
779081
5303
(Оплески)
Translated by Tanya Avramenko
Reviewed by Khrystyna Romashko

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com