ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Зейнеп Тюфекчі: Ми будуємо антиутопію лише для того, щоб люди клікали на рекламу

Filmed:
2,866,905 views

Ми будуємо антиутопію на базі штучного інтелекту, клік за кліком, — говорить техносоціолог Зейнеп Тюфекчі. У рамках цієї вражаючої лекції вона розповідає про те, як алгоритми, що використовуються такими компаніями як Facebook, Google та Amazon задля нав'язування вам реклами, також полегшують ваш доступ до політичної та соціальної інформації. І машини навіть не є найбільшою загрозою. Ми маємо розібратися у тому, як можновладці можуть використовувати штучний інтелект задля контролю за нами, — і як ми можемо цьому протистояти.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceголос fearsстрахи
of artificialштучний intelligenceрозвідка,
0
760
3536
Коли висловлюються побоювання
щодо штучного інтелекту,
на думку найчастіше спадає образ
00:16
very oftenчасто, they invokeвикликати imagesзображення
of humanoidгуманоїд robotsроботів runбіжи amokАмок.
1
4320
3976
гуманоїдних роботів,
що вийшли з-під контролю.
00:20
You know? TerminatorТермінатор?
2
8320
1240
Ну згадайте, Термінатор?
00:22
You know, that mightможе be
something to considerрозглянемо,
3
10400
2336
Знаєте, і такий варіант
можна взяти до уваги,
00:24
but that's a distantдалекий threatзагроза.
4
12760
1856
але ця загроза — не найближча.
00:26
Or, we fretлад about digitalцифровий surveillanceспостереження
5
14640
3456
Ще ми остерігаємося
цифрового спостереження,
використовуючи метафори з минулого.
00:30
with metaphorsметафори from the pastминуле.
6
18120
1776
"1984" Джорджа Орвелла
00:31
"1984," GeorgeДжордж Orwell'sОруелла "1984,"
7
19920
2656
знову посів своє місце
у списку бестселерів.
00:34
it's hittingудар the bestsellerбестселер listsсписки again.
8
22600
2280
00:37
It's a great bookкнига,
9
25960
1416
Це чудовий твір,
00:39
but it's not the correctправильно dystopiaантиутопія
for the 21stвул centuryстоліття.
10
27400
3880
та у ньому представлено не найкраще
зображення антиутопії для XXI століття.
00:44
What we need to fearстрах mostнайбільше
11
32080
1416
Найбільше нам варто боятися не того,
00:45
is not what artificialштучний intelligenceрозвідка
will do to us on its ownвласний,
12
33520
4776
що власне штучний інтелект зробить з нами,
00:50
but how the people in powerвлада
will use artificialштучний intelligenceрозвідка
13
38320
4736
а як можновладці використовуватимуть ШІ,
00:55
to controlКОНТРОЛЬ us and to manipulateманіпулювати us
14
43080
2816
щоб контролювати нас та маніпулювати нами
по-новому, іноді приховано,
00:57
in novelРоман, sometimesіноді hiddenприхований,
15
45920
3136
непомітно і так, як ми
цього зовсім не очікуємо.
01:01
subtleвитончений and unexpectedнесподівано waysшляхи.
16
49080
3016
01:04
Much of the technologyтехнологія
17
52120
1856
Велику частку технологій,
01:06
that threatensзагрожує our freedomсвобода
and our dignityгідність in the near-termнайближчій перспективі futureмайбутнє
18
54000
4336
що у найближчому майбутньому поставлять
під загрозу наші свободу та гідність,
розробляють компанії,
01:10
is beingбуття developedрозроблений by companiesкомпаній
19
58360
1856
що отримують та продають
наші дані та нашу увагу
01:12
in the businessбізнес of capturingзахоплення
and sellingпродаж our dataдані and our attentionувага
20
60240
4936
рекламним та іншим компаніям,
01:17
to advertisersрекламодавці and othersінші:
21
65200
2256
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
серед яких Facebook, Google, Amazon,
01:22
AlibabaАлібаба, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialштучний intelligenceрозвідка has startedпочався
bolsteringзміцнення theirїх businessбізнес as well.
24
74040
5496
Зараз штучний інтелект надав
їхній діяльності поштовх вперед.
01:31
And it mayможе seemздається
like artificialштучний intelligenceрозвідка
25
79560
2096
І може здатися, що штучний інтелект —
це лише наступний рівень
розвитку інтернет-реклами.
01:33
is just the nextдалі thing after onlineонлайн adsреклама.
26
81680
2856
01:36
It's not.
27
84560
1216
Це не так.
01:37
It's a jumpстрибати in categoryкатегорія.
28
85800
2456
Це набагато більший стрибок.
Це абсолютно інший світ,
01:40
It's a wholeцілий differentінший worldсвіт,
29
88280
2576
де існують великі можливості.
01:42
and it has great potentialпотенціал.
30
90880
2616
01:45
It could accelerateприскорити our understandingрозуміння
of manyбагато хто areasрайони of studyвивчення and researchдослідження.
31
93520
6920
Він може пришвидшити наші здобутки
у багатьох дослідних сферах.
01:53
But to paraphraseпереказ
a famousзнаменитий HollywoodГоллівуд philosopherфілософ,
32
101120
3496
Та перефразувавши відомого
голлівудського філософа:
01:56
"With prodigiousвеличезні potentialпотенціал
comesприходить prodigiousвеличезні riskризик."
33
104640
3640
"З величезними можливостями
приходить і великий ризик".
02:01
Now let's look at a basicосновний factфакт
of our digitalцифровий livesживе, onlineонлайн adsреклама.
34
109120
3936
Розгляньмо простий факт нашого
цифрового життя — онлайн-рекламу.
Правильно? Ми вже до неї звикли.
02:05
Right? We kindдоброзичливий of dismissвідхилити them.
35
113080
2896
Вона здається нав'язливою та неефективною.
02:08
They seemздається crudeсирий, ineffectiveнеефективними.
36
116000
1976
02:10
We'veМи ' VE all had the experienceдосвід
of beingбуття followedслідує on the webВеб
37
118000
4256
З усіма траплявся випадок, коли реклама
того, що ми шукали або читали онлайн,
переслідує нас у мережі.
02:14
by an adреклама basedна основі on something
we searchedшукали or readчитати.
38
122280
2776
Наприклад, ви переглядали
онлайн пару черевиків,
02:17
You know, you look up a pairпара of bootsчеревики
39
125080
1856
02:18
and for a weekтиждень, those bootsчеревики are followingнаступний
you around everywhereскрізь you go.
40
126960
3376
і протягом тижня ці черевики слідують
за вами, куди б ви не пішли.
02:22
Even after you succumbпіддавайтеся and buyкупити them,
they're still followingнаступний you around.
41
130360
3656
Навіть після того, як ви здаєтеся і
купуєте їх, вони все одно всюди.
02:26
We're kindдоброзичливий of inuredзвикли to that kindдоброзичливий
of basicосновний, cheapдешево manipulationманіпуляції.
42
134040
3016
Ми навіть звикли до такої
простої та дешевої маніпуляції.
Ми роздратовано закочуємо очі і
думаємо: "Знаєте що? Це не працює".
02:29
We rollрулон our eyesочі and we think,
"You know what? These things don't work."
43
137080
3400
02:33
ExceptЗа винятком, onlineонлайн,
44
141720
2096
Та в онлайн-просторі
цифрові технології — це не лише реклама.
02:35
the digitalцифровий technologiesтехнології are not just adsреклама.
45
143840
3600
02:40
Now, to understandзрозуміти that,
let's think of a physicalфізичний worldсвіт exampleприклад.
46
148240
3120
Щоб зрозуміти це, давайте розберемо
приклад з фізичного світу.
02:43
You know how, at the checkoutоформити замовлення countersЛічильники
at supermarketsСупермаркети, універсальні магазини, nearблизько the cashierКасир,
47
151840
4656
Ви помічали, що біля кас у супермаркетах
жуйки, цукерки зазвичай
розкладені на рівні очей дитини?
02:48
there's candyцукерки and gumгумки
at the eyeоко levelрівень of kidsдіти?
48
156520
3480
02:52
That's designedрозроблений to make them
whineнити at theirїх parentsбатьки
49
160800
3496
Це спрямовано на те, щоб вони
клянчили у батьків солодощі,
02:56
just as the parentsбатьки
are about to sortсортувати of checkперевірити out.
50
164320
3080
коли всі покупки вже зроблено.
03:00
Now, that's a persuasionпереконання architectureархітектура.
51
168040
2640
Це архітектура переконання.
03:03
It's not niceприємно, but it kindдоброзичливий of worksпрацює.
52
171160
3096
Вона підступна, але ефективна.
Тому ви й бачите таке
у кожному супермаркеті.
03:06
That's why you see it
in everyкожен supermarketсупермаркет.
53
174280
2040
03:08
Now, in the physicalфізичний worldсвіт,
54
176720
1696
У реальному світі
03:10
suchтакий persuasionпереконання architecturesархітектур
are kindдоброзичливий of limitedобмежений,
55
178440
2496
така архітектура переконання
обмежена кількістю товарів
біля касира. Чи не так?
03:12
because you can only put
so manyбагато хто things by the cashierКасир. Right?
56
180960
4816
Солодощі, жуйки купують усі,
03:17
And the candyцукерки and gumгумки,
it's the sameтой же for everyoneкожен,
57
185800
4296
та частіше, звичайно,
03:22
even thoughхоча it mostlyв основному worksпрацює
58
190120
1456
03:23
only for people who have
whinyWhiny little humansлюди besideпоруч them.
59
191600
4040
ті, хто бере з собою
маленьких плаксивих чоловічків.
03:29
In the physicalфізичний worldсвіт,
we liveжити with those limitationsобмеження.
60
197160
3920
У реальному світі такі обмеження існують.
03:34
In the digitalцифровий worldсвіт, thoughхоча,
61
202280
1936
Та у віртуальному світі
методи переконання
можуть нараховувати мільярди,
03:36
persuasionпереконання architecturesархітектур
can be builtпобудований at the scaleмасштаб of billionsмільярди
62
204240
4320
03:41
and they can targetціль, inferзробити висновок, understandзрозуміти
63
209840
3856
що можуть визначати, впливати, розуміти
та бути направленими на людину
03:45
and be deployedрозгорнуто at individualsособистості
64
213720
2896
один за одним
03:48
one by one
65
216640
1216
03:49
by figuringз'ясувати out your weaknessesслабкі сторони,
66
217880
2136
з метою виявити ваші слабкості,
та можуть бути розіслані
кожному на телефон,
03:52
and they can be sentнадісланий
to everyone'sкожен phoneтелефон privateприватний screenекран,
67
220040
5616
чого ви навіть й не помітите.
03:57
so it's not visibleвидимий to us.
68
225680
2256
03:59
And that's differentінший.
69
227960
1256
Ось у чому різниця.
04:01
And that's just one of the basicосновний things
that artificialштучний intelligenceрозвідка can do.
70
229240
3576
І це лише одна з речей,
на яку здатний штучний інтелект.
04:04
Now, let's take an exampleприклад.
71
232840
1336
Розгляньмо приклад.
Припустимо, що ви продаєте
квитки на літак до Лас-Вегасу.
04:06
Let's say you want to sellпродати
planeлітак ticketsквитки to VegasВегас. Right?
72
234200
2696
04:08
So in the oldстарий worldсвіт, you could think
of some demographicsдемографічні показники to targetціль
73
236920
3496
Раніше ви б обирали цільову аудиторію
згідно з вашим досвідом та інтуіцією.
04:12
basedна основі on experienceдосвід
and what you can guessздогадатися.
74
240440
2520
04:15
You mightможе try to advertiseрекламувати to, oh,
75
243560
2816
Ви могли б націлити таку рекламу
на чоловіків віком від 25 до 35 років,
04:18
menчоловіки betweenміж the agesстоліття of 25 and 35,
76
246400
2496
04:20
or people who have
a highвисокий limitліміт on theirїх creditкредит cardкарта,
77
248920
3936
людей з високим лімітом на кредитці
або літнім парам. Правильно?
04:24
or retiredу відставці couplesпари. Right?
78
252880
1376
04:26
That's what you would do in the pastминуле.
79
254280
1816
Так би ви робили раніше.
04:28
With bigвеликий dataдані and machineмашина learningнавчання,
80
256120
2896
Зважаючи на великий об'єм даних
та машине навчання,
04:31
that's not how it worksпрацює anymoreбільше.
81
259040
1524
зараз все має інший вигляд.
04:33
So to imagineуявіть собі that,
82
261320
2176
Тільки уявіть,
скільки інформації про вас має Facebook:
04:35
think of all the dataдані
that FacebookFacebook has on you:
83
263520
3856
04:39
everyкожен statusстатус updateоновлення you ever typedнабрано,
84
267400
2536
кожен оприлюднений статус,
04:41
everyкожен MessengerMessenger conversationрозмова,
85
269960
2016
кожне повідомлення у Messenger,
04:44
everyкожен placeмісце you loggedзаписаний in from,
86
272000
1880
кожне місце, звідки
ви входили в систему,
04:48
all your photographsфотографії
that you uploadedзавантажено there.
87
276400
3176
всі ваші завантажені світлини.
04:51
If you startпочати typingнабравши something
and changeзмінити your mindрозум and deleteвидалити it,
88
279600
3776
Якщо ви почали щось друкувати,
а потім передумали і видалили запис,
Facebook зберігає і аналізує його.
04:55
FacebookFacebook keepsтримає those
and analyzesаналізи them, too.
89
283400
3200
04:59
IncreasinglyВсе частіше, it triesнамагається
to matchматч you with your offlineофлайн dataдані.
90
287160
3936
Він намагається систематизувати
й ваші оффлайн-дані.
05:03
It alsoтакож purchasesпокупки
a lot of dataдані from dataдані brokersБрокери.
91
291120
3176
Також він скуповує інформацію
у спеціальних брокерів.
Це може бути що завгодно
— від фінансових звітів
05:06
It could be everything
from your financialфінансовий recordsзаписи
92
294320
3416
до великої частини
вашої історії переглядів.
05:09
to a good chunkшматок of your browsingПерегляд historyісторія.
93
297760
2120
05:12
Right? In the US,
suchтакий dataдані is routinelyзвичайно collectedзібрані,
94
300360
5416
Уявляєте? У США постійно збирають,
обробляють та продають
05:17
collatedдрук за копіями and soldпродано.
95
305800
1960
подібні дані.
05:20
In EuropeЄвропа, they have tougherжорсткіше rulesправил.
96
308320
2440
У Європі правила жорсткіші.
05:23
So what happensбуває then is,
97
311680
2200
А ось що трапляється далі:
05:26
by churningспінення throughчерез all that dataдані,
these machine-learningМашинне навчання algorithmsалгоритми --
98
314920
4016
аналізуючи усю цю інформацію,
алгоритми машинного навчання —
05:30
that's why they're calledназивається
learningнавчання algorithmsалгоритми --
99
318960
2896
а називаються вони так, тому що
05:33
they learnвчитися to understandзрозуміти
the characteristicsхарактеристики of people
100
321880
4096
вони вчаться розпізнавати
характеристики осіб,
05:38
who purchasedпридбано ticketsквитки to VegasВегас before.
101
326000
2520
які раніше купили квитки до Лас-Вегасу.
05:41
When they learnвчитися this from existingіснуючий dataдані,
102
329760
3536
Після завершення навчання
на базі зібраної інформації,
вони навчаться застосовувати
її до нових осіб.
05:45
they alsoтакож learnвчитися
how to applyзастосовувати this to newновий people.
103
333320
3816
Тож коли машина зустрічається
з новим користувачем,
05:49
So if they're presentedпредставлений with a newновий personлюдина,
104
337160
3056
05:52
they can classifyкласифікувати whetherчи то that personлюдина
is likelyшвидше за все to buyкупити a ticketквиток to VegasВегас or not.
105
340240
4640
вона може визначити ймовірність
того, купить він квиток чи ні.
05:57
Fine. You're thinkingмислення,
an offerпропозиція to buyкупити ticketsквитки to VegasВегас.
106
345720
5456
Гаразд. Ви зараз думаєте — це ж лише
пропозиція купити квиток до Лас-Вегасу.
Я її просто проігнорую.
06:03
I can ignoreігнорувати that.
107
351200
1456
06:04
But the problemпроблема isn't that.
108
352680
2216
Та проблема не у цьому.
06:06
The problemпроблема is,
109
354920
1576
А в тому,
06:08
we no longerдовше really understandзрозуміти
how these complexкомплекс algorithmsалгоритми work.
110
356520
4136
що ми більше не розбираємося
у складностях роботи цих алгоритмів.
06:12
We don't understandзрозуміти
how they're doing this categorizationКатегоризація.
111
360680
3456
Ми не розуміємо їх процесу категоризації.
06:16
It's giantгігант matricesматриці,
thousandsтисячі of rowsрядки and columnsстовпці,
112
364160
4416
Вони складаються з величезних матриць,
тисяч рядків та колонок,
а може й мільйонів,
06:20
maybe millionsмільйони of rowsрядки and columnsстовпці,
113
368600
1960
06:23
and not the programmersпрограмісти
114
371320
2640
і ні програмісти,
06:26
and not anybodyніхто who looksвиглядає at it,
115
374760
1680
ні будь-хто з тих, хто їх розглядає,
06:29
even if you have all the dataдані,
116
377440
1496
навіть якщо має всі дані,
06:30
understandsрозумієш anymoreбільше
how exactlyточно it's operatingдіючий
117
378960
4616
більше не розуміє, як вони працюють,
06:35
any more than you'dти б know
what I was thinkingмислення right now
118
383600
3776
маючи не більше знань, ніж, наприклад,
ви про те, що я зараз думаю,
якби дивилися на поперечний
перетин мого мозку.
06:39
if you were shownпоказано
a crossхрест sectionрозділ of my brainмозок.
119
387400
3960
06:44
It's like we're not programmingпрограмування anymoreбільше,
120
392360
2576
Схоже на те, що ми більше не програмуємо,
06:46
we're growingзростає intelligenceрозвідка
that we don't trulyсправді understandзрозуміти.
121
394960
4400
а вирощуємо інтелект,
який до кінця не розуміємо.
06:52
And these things only work
if there's an enormousвеличезний amountсума of dataдані,
122
400520
3976
Вони працюють лише за наявності
великих об'ємів даних,
06:56
so they alsoтакож encourageзаохочувати
deepглибоко surveillanceспостереження on all of us
123
404520
5096
таким чином заохочуючи
постійне спостереження за нами,
07:01
so that the machineмашина learningнавчання
algorithmsалгоритми can work.
124
409640
2336
для забезпечення роботи алгоритмів.
07:04
That's why FacebookFacebook wants
to collectзбирати all the dataдані it can about you.
125
412000
3176
Саме тому Facebook радий
будь-якій інформації про нас.
07:07
The algorithmsалгоритми work better.
126
415200
1576
Так алгоритми краще працюють.
07:08
So let's pushтиснути that VegasВегас exampleприклад a bitбіт.
127
416800
2696
Повернемося до прикладу з авіаквитком.
07:11
What if the systemсистема
that we do not understandзрозуміти
128
419520
3680
Якби машина, принципів
роботи якої ми не розуміємо,
07:16
was pickingзбір up that it's easierлегше
to sellпродати VegasВегас ticketsквитки
129
424200
5136
розміркувала, що людей
з біполярним розладом,
які стоять на порозі фази нападу,
легше змусити купити квитки до Лас-Вегасу?
07:21
to people who are bipolarбіполярний
and about to enterвходити the manicманіакально phaseфаза.
130
429360
3760
07:25
SuchТакі people tendсхильні to becomeстати
overspendersoverspenders, compulsiveкомпульсивное gamblersгравці.
131
433640
4920
Такі люди схильні до
надлишкових витрат і азартних ігор.
07:31
They could do this, and you'dти б have no clueключ
that's what they were pickingзбір up on.
132
439280
4456
Машина могла б утнути таке, а ви б
і гадки не мали, як вона до цього дійшла.
Колись я навела таку ситуацію як
приклад декільком ІТ-спеціалістам,
07:35
I gaveдав this exampleприклад
to a bunchпучок of computerкомп'ютер scientistsвчені onceодин раз
133
443760
3616
і опісля один з них підійшов до мене
07:39
and afterwardsпізніше, one of them cameприйшов up to me.
134
447400
2056
07:41
He was troubledстурбований and he said,
"That's why I couldn'tне міг publishопублікувати it."
135
449480
3520
та схвильовано сказав:
"Тому я й не зміг опублікуватися".
07:45
I was like, "Couldn'tНе міг publishопублікувати what?"
136
453600
1715
А я така: "Опублікувати що?"
07:47
He had triedспробував to see whetherчи то you can indeedдійсно
figureфігура out the onsetнастання of maniaманія
137
455800
5856
Він намагався довести, що за записами
у соцмережах можна ідентифікувати
розвиток маніакального синдрому
до появи його клінічних симптомів,
07:53
from socialсоціальний mediaЗМІ postsповідомлення
before clinicalклінічний symptomsсимптоми,
138
461680
3216
07:56
and it had workedпрацював,
139
464920
1776
і його робота дала хороший результат,
навіть занадто хороший,
07:58
and it had workedпрацював very well,
140
466720
2056
08:00
and he had no ideaідея how it workedпрацював
or what it was pickingзбір up on.
141
468800
4880
а він і гадки не мав, як це спрацювало,
та на які саме речі реагувала система.
08:06
Now, the problemпроблема isn't solvedвирішено
if he doesn't publishопублікувати it,
142
474840
4416
Тож проблема не буде вирішена,
доки його робота не буде опублікована,
08:11
because there are alreadyвже companiesкомпаній
143
479280
1896
бо вже існують компанії,
що займаються розвитком таких технологій,
08:13
that are developingрозвивається
this kindдоброзичливий of technologyтехнологія,
144
481200
2536
08:15
and a lot of the stuffречі
is just off the shelfполиця.
145
483760
2800
багато з яких уже працюють.
08:19
This is not very difficultважко anymoreбільше.
146
487240
2576
Це більше не становить труднощів.
08:21
Do you ever go on YouTubeYouTube
meaningсенс to watch one videoвідео
147
489840
3456
Чи траплялося з вами таке,
що ви заходите на YouTube
з наміром подивитися одне відео,
08:25
and an hourгодина laterпізніше you've watchedспостерігав 27?
148
493320
2360
а годиною пізніше ви переглянули 27?
08:28
You know how YouTubeYouTube
has this columnколонка on the right
149
496760
2496
Бачили на YouTube колонку справа,
08:31
that saysкаже, "Up nextдалі"
150
499280
2216
що озаглавлена "Наступне",
08:33
and it autoplaysautoplays something?
151
501520
1816
а поряд "Автоматичне відтворення"?
Такий алгоритм
08:35
It's an algorithmалгоритм
152
503360
1216
08:36
pickingзбір what it thinksдумає
that you mightможе be interestedзацікавлений in
153
504600
3616
підбирає те, у чому, на його думку,
ви можете бути зацікавлені
або власноруч не знайдете.
08:40
and maybe not find on your ownвласний.
154
508240
1536
Ця колонка редагується не людиною,
08:41
It's not a humanлюдина editorредактор.
155
509800
1256
08:43
It's what algorithmsалгоритми do.
156
511080
1416
а алгоритмом.
08:44
It picksвибірка up on what you have watchedспостерігав
and what people like you have watchedспостерігав,
157
512520
4736
Засновано на тому, що переглянули ви
або схожі на вас користувачі,
08:49
and infersПрограма призначає that that mustповинен be
what you're interestedзацікавлений in,
158
517280
4216
і робить висновок,
що саме це має вас зацікавити,
саме таких відео ви б
хотіли переглянути більше,
08:53
what you want more of,
159
521520
1255
08:54
and just showsшоу you more.
160
522799
1336
і показує вам більше.
08:56
It soundsзвуки like a benignдоброякісний
and usefulкорисний featureособливість,
161
524159
2201
Це здається корисною
та безпечною функцією,
08:59
exceptокрім when it isn't.
162
527280
1200
та насправді це не так.
09:01
So in 2016, I attendedбули присутні ralliesмітинги
of then-candidateтоді були кандидатами DonaldДональд TrumpТрамп
163
529640
6960
У 2016 році я відвідувала
зустрічі у рамках
передвиборної кампанії Дональда Трампа
09:09
to studyвивчення as a scholarАкадемія
the movementрух supportingпідтримка him.
164
537840
3336
для дослідження масиву людей,
які його підтримують.
Я вивчаю соціальні рухи, взялася і за цей.
09:13
I studyвивчення socialсоціальний movementsрухи,
so I was studyingвивчаючи it, too.
165
541200
3456
09:16
And then I wanted to writeписати something
about one of his ralliesмітинги,
166
544680
3336
А потім я хотіла написати
про одну з цих зустрічей,
тому переглянула її
декілька разів на YouTube.
09:20
so I watchedспостерігав it a fewмало хто timesразів on YouTubeYouTube.
167
548040
1960
09:23
YouTubeYouTube startedпочався recommendingрекомендувати to me
168
551240
3096
YouTube почав надавати мені в рекомендації
09:26
and autoplayingautoplaying to me
whiteбілий supremacistпереваги videosвідеоролики
169
554360
4256
і автопрогравати ролики про білий расизм
09:30
in increasingзбільшується orderзамовлення of extremismекстремізм.
170
558640
2656
із переходом до все більшого екстремізму.
09:33
If I watchedспостерігав one,
171
561320
1816
Якщо я дивилася одне,
то ресурс знаходив наступне
— ще екстремальніше —
09:35
it servedслужив up one even more extremeкрайній
172
563160
2976
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
та автоматично відтворював і його.
09:40
If you watch HillaryХілларі ClintonКлінтон
or BernieБерні SandersСандерс contentзміст,
174
568320
4536
Якщо ви переглядаєте відео про
Гілларі Клінтон або Берні Сандерса,
09:44
YouTubeYouTube recommendsрекомендує
and autoplaysautoplays conspiracyзмова left,
175
572880
4696
вам рекомендують до перегляду
відео про теорії змови лівих,
09:49
and it goesйде downhillпід гору from there.
176
577600
1760
і з кожним все гірше.
09:52
Well, you mightможе be thinkingмислення,
this is politicsполітика, but it's not.
177
580480
3056
Можна було б подумати,
що справа у політиці.
Та це не так.
09:55
This isn't about politicsполітика.
178
583560
1256
Це лише алгоритм,
що вираховує людську поведінку.
09:56
This is just the algorithmалгоритм
figuringз'ясувати out humanлюдина behaviorповедінка.
179
584840
3096
09:59
I onceодин раз watchedспостерігав a videoвідео
about vegetarianismВегетаріанство on YouTubeYouTube
180
587960
4776
Одного разу я переглянула
ролик про вегетаріанство,
10:04
and YouTubeYouTube recommendedрекомендується
and autoplayedautoplayed a videoвідео about beingбуття veganстрогий вегетаріанець.
181
592760
4936
а YouTube у свою чергу порекомендував
і автоматично відтворив відео
про те, як стати веганом.
10:09
It's like you're never
hardcoreхардкор enoughдостатньо for YouTubeYouTube.
182
597720
3016
Як ніби ви не дозволите собі
переглянути якийсь треш.
(Сміх)
10:12
(LaughterСміх)
183
600760
1576
Що ж відбувається?
10:14
So what's going on?
184
602360
1560
10:16
Now, YouTube'sYouTube algorithmалгоритм is proprietaryвласності,
185
604520
3536
Алгоритм YouTube запатентований,
10:20
but here'sось тут what I think is going on.
186
608080
2360
та ось що, на мою думку, відбувається.
10:23
The algorithmалгоритм has figuredфігурний out
187
611360
2096
Алгоритм усвідомив,
10:25
that if you can enticeзаманити people
188
613480
3696
що якщо користувачів
можна змусити вважати,
що вони постійно отримуватимуть
щось радикальніше,
10:29
into thinkingмислення that you can
showпоказати them something more hardcoreхардкор,
189
617200
3736
зростає вірогідність того,
що вони залишаться на сайті,
10:32
they're more likelyшвидше за все to stayзалишитися on the siteсайт
190
620960
2416
10:35
watchingдивитися videoвідео after videoвідео
going down that rabbitкролик holeдірка
191
623400
4416
переглядатимуть відео за відео,
що будуть супроводжуватися
рекламою від Google,
провалюючись все глибше у кролячу нору.
10:39
while GoogleGoogle servesслужить them adsреклама.
192
627840
1680
10:43
Now, with nobodyніхто mindingнагляд за
the ethicsетика of the storeмагазин,
193
631760
3120
Через відсутність комерційної етики
10:47
these sitesсайти can profileпрофіль people
194
635720
4240
такі сайти можуть виявляти
10:53
who are JewЖид hatersненависників,
195
641680
1920
ненависників євреїв,
10:56
who think that JewsЄвреї are parasitesпаразити
196
644360
2480
людей, які вважають їх паразитами,
11:00
and who have suchтакий explicitявний
anti-SemiticАнтисемітської contentзміст,
197
648320
4920
дивляться відео з вираженою
антисемітською позицією
11:06
and let you targetціль them with adsреклама.
198
654080
2000
і відкриті для впливу реклами.
11:09
They can alsoтакож mobilizeмобілізувати algorithmsалгоритми
199
657200
3536
Вони також можуть
користуватися алгоритмами
для пошуку користувачів
зі схожими інтересами,
11:12
to find for you look-alikeДвійник audiencesаудиторії,
200
660760
3136
11:15
people who do not have suchтакий explicitявний
anti-SemiticАнтисемітської contentзміст on theirїх profileпрофіль
201
663920
5576
які хоч і не мають такого радикального
та антисемітського контенту,
11:21
but who the algorithmалгоритм detectsвиявляє
mayможе be susceptibleсприйнятливий to suchтакий messagesповідомлення,
202
669520
6176
але, за визначенням алгоритму,
можуть бути сприйнятливими
до такого типу повідомлень,
11:27
and letsдозволяє you targetціль them with adsреклама, too.
203
675720
1920
і направляти їм рекламу.
11:30
Now, this mayможе soundзвук
like an implausibleнеправдоподібний exampleприклад,
204
678680
2736
Цей приклад може звучати неправдоподібно,
але це правда.
11:33
but this is realреальний.
205
681440
1320
Результати дослідження, проведеного
журналістською організацією ProPublica,
11:35
ProPublicaProPublica investigatedдосліджували this
206
683480
2136
11:37
and foundзнайдено that you can indeedдійсно
do this on FacebookFacebook,
207
685640
3616
виявили, що це працює на Facebook —
він з радістю запропонував варіанти
11:41
and FacebookFacebook helpfullyпослужливо
offeredзапропонований up suggestionsпропозиції
208
689280
2416
розширення аудиторії.
11:43
on how to broadenрозширити that audienceаудиторія.
209
691720
1600
11:46
BuzzFeedBuzzFeed triedспробував it for GoogleGoogle,
and very quicklyшвидко they foundзнайдено,
210
694720
3016
Медіа-компанія BuzzFeed виявила,
що для може бути
застосовано і для Google.
11:49
yepУгу, you can do it on GoogleGoogle, too.
211
697760
1736
Це навіть недорого.
11:51
And it wasn'tне було even expensiveдорогий.
212
699520
1696
11:53
The ProPublicaProPublica reporterрепортер
spentвитрачений about 30 dollarsдолари
213
701240
4416
Репортер ProPublica витратив
близько 30 доларів
11:57
to targetціль this categoryкатегорія.
214
705680
2240
для визначення цієї категорії.
12:02
So last yearрік, DonaldДональд Trump'sТрамп
socialсоціальний mediaЗМІ managerменеджер disclosedрозкрита
215
710600
5296
Минулого року радник Дональда Трампа
з питань соцмедіа підтвердив
використання "темних постів" на Facebook
12:07
that they were usingвикористовуючи FacebookFacebook darkтемний postsповідомлення
to demobilizeдемобілізації people,
216
715920
5336
для того, щоб не просто
відмовити людей від голосування,
12:13
not to persuadeпереконувати them,
217
721280
1376
12:14
but to convinceпереконати them not to voteголосувати at all.
218
722680
2800
а переконати їх взагалі не йти на вибори.
12:18
And to do that,
they targetedцілеспрямований specificallyконкретно,
219
726520
3576
З цією метою вони націлено
обирали певну аудиторію,
наприклад, чоловіків-афроамериканців
у великих містах, таких як Філадельфія.
12:22
for exampleприклад, African-AmericanАфро-американський menчоловіки
in keyключ citiesмістах like PhiladelphiaФіладельфія,
220
730120
3896
Я поділюся з вами тим, що він написав.
12:26
and I'm going to readчитати
exactlyточно what he said.
221
734040
2456
Цитую:
12:28
I'm quotingцитуючи.
222
736520
1216
12:29
They were usingвикористовуючи "nonpublicВнутрішня postsповідомлення
223
737760
3016
"Вони використовували приватні пости,
чий перегляд контролюється компанією
12:32
whoseчий viewershipаудиторію the campaignкампанія controlsконтролі
224
740800
2176
12:35
so that only the people
we want to see it see it.
225
743000
3776
і обмежений лише тими,
кому ми хочемо їх показати.
Ми зробили модель.
12:38
We modeledмоделюється this.
226
746800
1216
12:40
It will dramaticallyрізко affectвпливати her abilityздібності
to turnповорот these people out."
227
748040
4720
Це буде мати неабиякий
вплив на явку виборців".
12:45
What's in those darkтемний postsповідомлення?
228
753720
2280
Що ж у цих "темних постах"?
12:48
We have no ideaідея.
229
756480
1656
Ми й гадки не маємо.
12:50
FacebookFacebook won'tне буде tell us.
230
758160
1200
Facebook не розкриває це.
12:52
So FacebookFacebook alsoтакож algorithmicallyalgorithmically
arrangesорганізовує the postsповідомлення
231
760480
4376
За допомогою алгоритмів
Facebook також пропонує пости,
12:56
that your friendsдрузі put on FacebookFacebook,
or the pagesсторінок you followслідуйте.
232
764880
3736
опубліковані вашими друзями або
сторінками, на які ви підписані.
Він розкладає їх не
у хронологічному порядку,
13:00
It doesn't showпоказати you
everything chronologicallyхронологічно.
233
768640
2216
13:02
It putsставить the orderзамовлення in the way
that the algorithmалгоритм thinksдумає will enticeзаманити you
234
770880
4816
а так, щоб зацікавити вас
довше лишатися на сайті.
13:07
to stayзалишитися on the siteсайт longerдовше.
235
775720
1840
13:11
Now, so this has a lot of consequencesнаслідки.
236
779040
3376
Це несе за собою багато наслідків.
13:14
You mayможе be thinkingмислення
somebodyхтось is snubbingsnubbing you on FacebookFacebook.
237
782440
3800
Ви можете подумати, що хтось
на Facebook вас ігнорує.
13:18
The algorithmалгоритм mayможе never
be showingпоказати your postпост to them.
238
786800
3256
Алгоритм же може ніколи не
показувати ваші пости цій людині.
Він ставить у пріоритет
одних і відкидає інших.
13:22
The algorithmалгоритм is prioritizingвизначення пріоритетів
some of them and buryingховати the othersінші.
239
790080
5960
13:29
ExperimentsЕксперименти showпоказати
240
797320
1296
За даними експериментів
13:30
that what the algorithmалгоритм picksвибірка to showпоказати you
can affectвпливати your emotionsемоції.
241
798640
4520
підібраний алгоритмом контент
може впливати на ваші емоції.
13:36
But that's not all.
242
804600
1200
Та це ще не все.
13:38
It alsoтакож affectsвпливає politicalполітичний behaviorповедінка.
243
806280
2360
Він також впливає на
вашу політичну поведінку.
13:41
So in 2010, in the midtermсередньостроковий electionsвибори,
244
809360
4656
У 2010 році на проміжних виборах
13:46
FacebookFacebook did an experimentексперимент
on 61 millionмільйон people in the US
245
814040
5896
Facebook провів експеримент
над 61 мільйоном американців,
що був розкритий опісля.
13:51
that was disclosedрозкрита after the factфакт.
246
819960
1896
13:53
So some people were shownпоказано,
"TodayСьогодні is electionвибори day,"
247
821880
3416
Одним просто показували
"Сьогодні день виборів",
13:57
the simplerпростіше one,
248
825320
1376
13:58
and some people were shownпоказано
the one with that tinyкрихітна tweakналаштування
249
826720
3896
а іншим трохи видозмінений запис —
додали іконки їхніх друзів,
14:02
with those little thumbnailsескізи
250
830640
2096
які вподобали надпис
і сказали "Я проголосував".
14:04
of your friendsдрузі who clickedнатиснув on "I votedголосував."
251
832760
2840
14:09
This simpleпростий tweakналаштування.
252
837000
1400
Просто невеличка зміна.
14:11
OK? So the picturesмалюнки were the only changeзмінити,
253
839520
4296
Змінилася лише картинка.
14:15
and that postпост shownпоказано just onceодин раз
254
843840
3256
І останній пост, що був
показаний лише один раз,
14:19
turnedобернувся out an additionalДодаткові 340,000 votersвиборців
255
847120
6056
заохотив до голосування
340,000 додаткових виборців
14:25
in that electionвибори,
256
853200
1696
на тих виборах,
14:26
accordingвідповідно to this researchдослідження
257
854920
1696
що підтверджується цим дослідженням
14:28
as confirmedпідтверджено by the voterВиборець rollsрулони.
258
856640
2520
і списками виборців.
14:32
A flukeFluke? No.
259
860920
1656
Щасливий збіг? Ні.
14:34
Because in 2012,
they repeatedповторив the sameтой же experimentексперимент.
260
862600
5360
Бо у 2012 цей експеримент повторили.
14:40
And that time,
261
868840
1736
На цей раз
14:42
that civicгромадянський messageповідомлення shownпоказано just onceодин раз
262
870600
3296
подібне одноразове повідомлення
14:45
turnedобернувся out an additionalДодаткові 270,000 votersвиборців.
263
873920
4440
привернуло ще 270,000 виборців.
14:51
For referenceдовідка, the 2016
US presidentialпрезидентських electionвибори
264
879160
5216
До речі, результат
президентських виборів 2016 року
був вирішений завдяки 100,000 голосів.
14:56
was decidedвирішив by about 100,000 votesголосів.
265
884400
3520
15:01
Now, FacebookFacebook can alsoтакож
very easilyлегко inferзробити висновок what your politicsполітика are,
266
889360
4736
Facebook може з легкістю визначити
ваші політичні вподобання,
навіть якщо ви ніколи не
виражали їх відкрито онлайн.
15:06
even if you've never
disclosedрозкрита them on the siteсайт.
267
894120
2256
У цих алгоритмів такі речі
багато зусиль не забирають.
15:08
Right? These algorithmsалгоритми
can do that quiteцілком easilyлегко.
268
896400
2520
15:11
What if a platformплатформа with that kindдоброзичливий of powerвлада
269
899960
3896
Що станеться, коли передвиборча
платформа, маючи такі можливості,
вирішить впливати на виборчу
активність на користь свого кандидата?
15:15
decidesвирішує to turnповорот out supportersПрихильники
of one candidateкандидат over the other?
270
903880
5040
15:21
How would we even know about it?
271
909680
2440
Як би ми про це дізналися?
15:25
Now, we startedпочався from someplaceдесь
seeminglyздавалося б innocuousнешкідливий --
272
913560
4136
Отож, ми почали з дуже
нейтральної, безпечної території —
онлайн-реклами, що
слідкує за нами повсюди, —
15:29
onlineонлайн addsдодає followingнаступний us around --
273
917720
2216
15:31
and we'veми маємо landedприземлився someplaceдесь elseінакше.
274
919960
1840
а дійшли до абсолютно іншого.
15:35
As a publicгромадськість and as citizensгромадяни,
275
923480
2456
Кожен з нас і суспільство в цілому
вже не впевнені, що
бачимо таку ж інформацію,
15:37
we no longerдовше know
if we're seeingбачачи the sameтой же informationінформація
276
925960
3416
15:41
or what anybodyніхто elseінакше is seeingбачачи,
277
929400
1480
як і решта.
15:43
and withoutбез a commonзагальний basisоснови of informationінформація,
278
931680
2576
Без спільної інформаційної бази
15:46
little by little,
279
934280
1616
крок за кроком
15:47
publicгромадськість debateдебати is becomingстає impossibleнеможливо,
280
935920
3216
ми унеможливлюємо публічні дебати,
15:51
and we're just at
the beginningпочаток stagesетапи of this.
281
939160
2976
а зараз — лише початок.
15:54
These algorithmsалгоритми can quiteцілком easilyлегко inferзробити висновок
282
942160
3456
Ці алгоритми можуть реагувати
15:57
things like your people'sнародний ethnicityетнічної приналежності,
283
945640
3256
на такі речі, як етнічна приналежність,
релігійні або політичні
вподобання, риси характеру,
16:00
religiousрелігійний and politicalполітичний viewsпогляди,
personalityособистість traitsриси,
284
948920
2336
16:03
intelligenceрозвідка, happinessщастя,
use of addictiveзвикання substancesречовини,
285
951280
3376
розумові здібності, емоційний стан,
вживання наркотичних речовин,
вік та стать, сімейну історію
16:06
parentalБатьківський separationрозділення, ageвік and gendersстатей,
286
954680
3136
лише завдяки вподобанням у Facebook.
16:09
just from FacebookFacebook likesлюбить.
287
957840
1960
16:13
These algorithmsалгоритми can identifyідентифікувати protestersУчасники акції протесту
288
961440
4056
Ці алгоритми можуть
ідентифікувати протестувальників,
16:17
even if theirїх facesобличчя
are partiallyчастково concealedприховано.
289
965520
2760
навіть якщо їх обличчя частково закриті.
16:21
These algorithmsалгоритми mayможе be ableздатний
to detectвиявити people'sнародний sexualсексуальний orientationорієнтація
290
969720
6616
Вони можуть бути здатні визначити
сексуальну орієнтацію користувача,
16:28
just from theirїх datingзнайомство profileпрофіль picturesмалюнки.
291
976360
3200
судячи з їх фото на сайті знайомств.
16:33
Now, these are probabilisticімовірнісний guessesкількість здогадок,
292
981560
2616
Так, це здогадки на
основі ймовірних припущень,
тому вони не є стовідсотково правильними,
16:36
so they're not going
to be 100 percentвідсоток right,
293
984200
2896
16:39
but I don't see the powerfulпотужний resistingопір
the temptationспокуса to use these technologiesтехнології
294
987120
4896
та я не бачу, щоб через певний
відсоток неправдивих результатів
попит на використання цієї
технології значно зменшився, —
16:44
just because there are
some falseпомилковий positivesпозитивні,
295
992040
2176
16:46
whichкотрий will of courseзвичайно createстворити
a wholeцілий other layerшар of problemsпроблеми.
296
994240
3256
це лише додає певні нові проблеми.
16:49
ImagineУявіть собі what a stateдержава can do
297
997520
2936
Уявіть, що здатна зробити держава,
16:52
with the immenseвеличезний amountсума of dataдані
it has on its citizensгромадяни.
298
1000480
3560
маючи на озброєнні такі об'єми
інформації про своїх громадян.
16:56
ChinaКитай is alreadyвже usingвикористовуючи
faceобличчя detectionвиявлення technologyтехнологія
299
1004680
4776
В Китаї вже застосовується
технологія розпізнавання обличчя
17:01
to identifyідентифікувати and arrestарешт people.
300
1009480
2880
задля ідентифікації та арешту людей.
17:05
And here'sось тут the tragedyтрагедія:
301
1013280
2136
А ось у чому трагедія:
17:07
we're buildingбудівля this infrastructureінфраструктура
of surveillanceспостереження authoritarianismавторитаризм
302
1015440
5536
ми будуємо інфраструктуру авторитаризму,
озброєного спостереженням,
17:13
merelyпросто to get people to clickклацніть on adsреклама.
303
1021000
2960
лише щоб змусити людей клікати на рекламу.
17:17
And this won'tне буде be
Orwell'sОруелла authoritarianismавторитаризм.
304
1025240
2576
Це не буде схожим на
авторитарний устрій, як у Орвелла.
17:19
This isn't "1984."
305
1027839
1897
Це не "1984".
17:21
Now, if authoritarianismавторитаризм
is usingвикористовуючи overtвідкритий fearстрах to terrorizeтероризувати us,
306
1029760
4576
Якщо авторитаризм буде використовувати
неприкритий страх для нашого залякування,
17:26
we'llдобре all be scaredналяканий, but we'llдобре know it,
307
1034359
2897
ми всі будемо налякані,
та ми будемо це усвідомлювати,
ненавидіти і опиратися.
17:29
we'llдобре hateненавидіти it and we'llдобре resistчинити опір it.
308
1037280
2200
17:32
But if the people in powerвлада
are usingвикористовуючи these algorithmsалгоритми
309
1040880
4416
А якщо можновладці
використовують ці алгоритми
17:37
to quietlyтихо watch us,
310
1045319
3377
для негласного спостереження за нами,
17:40
to judgeсудити us and to nudgeЗсунути us,
311
1048720
2080
засудження та підштовхування
до певних дій,
17:43
to predictпередбачати and identifyідентифікувати
the troublemakersпорушниками and the rebelsповстанці,
312
1051720
4176
для передбачення та ідентифікації
незгодних та заколотників,
17:47
to deployрозгортання persuasionпереконання
architecturesархітектур at scaleмасштаб
313
1055920
3896
розгортання масштабованих
механізмів переконання
17:51
and to manipulateманіпулювати individualsособистості one by one
314
1059840
4136
і маніпуляції кожним індивідуально
17:56
usingвикористовуючи theirїх personalособистий, individualіндивідуальний
weaknessesслабкі сторони and vulnerabilitiesвразливостей,
315
1064000
5440
за допомогою наших власних
слабкостей та вразливих місць,
18:02
and if they're doing it at scaleмасштаб
316
1070720
2200
а якщо це відбувається широкомасштабно
18:06
throughчерез our privateприватний screensекрани
317
1074080
1736
через екрани наших
приватних девайсів,
18:07
so that we don't even know
318
1075840
1656
так, що ми навіть не усвідомлюємо,
18:09
what our fellowтовариш citizensгромадяни
and neighborsсусіди are seeingбачачи,
319
1077520
2760
що бачать наші співгромадяни та сусіди,
18:13
that authoritarianismавторитаризм
will envelopогортати us like a spider'sпавука webВеб
320
1081560
4816
тоді цей авторитарний устрій
схопить нас, як павутина,
18:18
and we mayможе not even know we're in it.
321
1086400
2480
а ми цього навіть не підозрюватимемо.
18:22
So Facebook'sFacebook marketринок capitalizationКапіталізація
322
1090440
2936
Ринкова вартість Facebook
наближається до половини
трильйона доларів.
18:25
is approachingнаближається halfполовина a trillionтрильйон dollarsдолари.
323
1093400
3296
Завдяки тому, що він має
досконалу систему переконань.
18:28
It's because it worksпрацює great
as a persuasionпереконання architectureархітектура.
324
1096720
3120
18:33
But the structureструктура of that architectureархітектура
325
1101760
2816
Та структура цієї системи
не видозмінюється,
18:36
is the sameтой же whetherчи то you're sellingпродаж shoesвзуття
326
1104600
3216
коли ви перестаєте продавати взуття
18:39
or whetherчи то you're sellingпродаж politicsполітика.
327
1107840
2496
і починаєте продавати політику.
18:42
The algorithmsалгоритми do not know the differenceрізниця.
328
1110360
3120
Алгоритми не бачать різниці.
18:46
The sameтой же algorithmsалгоритми setвстановити looseвільні uponна us
329
1114240
3296
Ці алгоритми безконтрольно атакують нас,
18:49
to make us more pliableГнучка for adsреклама
330
1117560
3176
змушуючи легше клікати на рекламу,
18:52
are alsoтакож organizingорганізація our politicalполітичний,
personalособистий and socialсоціальний informationінформація flowsпотоки,
331
1120760
6736
а також організовуючи наші політичні,
приватні та соціальні потоки інформації
— саме це потребує змін.
18:59
and that's what's got to changeзмінити.
332
1127520
1840
19:02
Now, don't get me wrongнеправильно,
333
1130240
2296
Не сприймайте мене неправильно.
19:04
we use digitalцифровий platformsплатформи
because they provideзабезпечити us with great valueвартість.
334
1132560
3680
Ми користуємося цифровими платформами,
бо вони грають для нас важливу роль.
19:09
I use FacebookFacebook to keep in touchторкнутися
with friendsдрузі and familyсім'я around the worldсвіт.
335
1137120
3560
Я користуюсь Facebook для спілкування
з друзями та рідними по всьому світу.
19:14
I've writtenнаписано about how crucialвирішальне значення
socialсоціальний mediaЗМІ is for socialсоціальний movementsрухи.
336
1142000
5776
Я писала про життєву важливість
соцмереж для суспільних рухів.
19:19
I have studiedвивчав how
these technologiesтехнології can be used
337
1147800
3016
Я вивчала шляхи застосування
таких технологій
для обходження цензури по всьому світу.
19:22
to circumventобійти censorshipЦензура around the worldсвіт.
338
1150840
2480
19:27
But it's not that the people who runбіжи,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Справа не у тому, що
керівники Facebook чи Google
19:33
are maliciouslyзловмисно and deliberatelyнавмисно tryingнамагаюся
340
1161720
2696
намагаються зі зловісним наміром
розділити країну та світ
19:36
to make the countryкраїна
or the worldсвіт more polarizedполяризовані
341
1164440
4456
19:40
and encourageзаохочувати extremismекстремізм.
342
1168920
1680
та заохочують екстремізм.
19:43
I readчитати the manyбагато хто
well-intentionedдобре намір statementsвисловлювання
343
1171440
3976
Я читаю багато заяв,
зроблених цими людьми,
що пояснюють деякі речі благими намірами.
19:47
that these people put out.
344
1175440
3320
19:51
But it's not the intentнамір or the statementsвисловлювання
people in technologyтехнологія make that matterматерія,
345
1179600
6056
Та мають значення
не їхні заяви або наміри,
19:57
it's the structuresструктур
and businessбізнес modelsмоделі they're buildingбудівля.
346
1185680
3560
а структури та бізнес-моделі,
які вони будують.
20:02
And that's the coreядро of the problemпроблема.
347
1190360
2096
Саме у цьому суть проблеми.
20:04
EitherУ будь-якому FacebookFacebook is a giantгігант con
of halfполовина a trillionтрильйон dollarsдолари
348
1192480
4720
Або Facebook є величезним шахраєм
вартістю півтрильйона доларів
20:10
and adsреклама don't work on the siteсайт,
349
1198200
1896
і реклама на сайті не працює,
і він не оперує як
архітектура переконання,
20:12
it doesn't work
as a persuasionпереконання architectureархітектура,
350
1200120
2696
20:14
or its powerвлада of influenceвплив
is of great concernстурбованість.
351
1202840
4120
або сила його впливу є причиною
для серйозного хвилювання.
Або одне, або інше.
20:20
It's eitherабо one or the other.
352
1208560
1776
20:22
It's similarподібний for GoogleGoogle, too.
353
1210360
1600
З Google ситуація схожа.
20:24
So what can we do?
354
1212880
2456
Що ми можемо зробити?
20:27
This needsпотреби to changeзмінити.
355
1215360
1936
Це потребує змін.
20:29
Now, I can't offerпропозиція a simpleпростий recipeрецепт,
356
1217320
2576
Ні, я не можу запропонувати
простий рецепт,
20:31
because we need to restructureРеструктуризація
357
1219920
2256
тому що нам слід перебудувати
20:34
the wholeцілий way our
digitalцифровий technologyтехнологія operatesдіє.
358
1222200
3016
структуру нашого світу
цифрових технологій.
20:37
Everything from the way
technologyтехнологія is developedрозроблений
359
1225240
4096
Весь шлях, починаючи з їх розробки
20:41
to the way the incentivesстимули,
economicекономічний and otherwiseінакше,
360
1229360
3856
до того, як стимули, економічні
чи будь-які інші,
20:45
are builtпобудований into the systemсистема.
361
1233240
2280
вбудовуються в систему.
20:48
We have to faceобличчя and try to dealугода with
362
1236480
3456
Ми маємо усвідомити та почати боротися
20:51
the lackбрак of transparencyпрозорість
createdстворений by the proprietaryвласності algorithmsалгоритми,
363
1239960
4656
з недостатньою прозорістю, що
породжується запатентованими алгоритмами,
зі структурними проблемами,
що зумовлюються
20:56
the structuralструктурний challengeвиклик
of machineмашина learning'sнавчання opacityнепрозорість,
364
1244640
3816
неясністю принципів роботи
машинного навчання,
21:00
all this indiscriminateневибіркову dataдані
that's beingбуття collectedзібрані about us.
365
1248480
3400
з усією цією інформацією,
що безладно збирається про нас.
21:05
We have a bigвеликий taskзавдання in frontфронт of us.
366
1253000
2520
Перед нами стоїть серйозне завдання.
21:08
We have to mobilizeмобілізувати our technologyтехнологія,
367
1256160
2680
Нам треба мобілізувати
наш технічний досвід,
21:11
our creativityтворчість
368
1259760
1576
наші творчі здібності,
21:13
and yes, our politicsполітика
369
1261360
1880
навіть наші політичні переконання,
21:16
so that we can buildбудувати
artificialштучний intelligenceрозвідка
370
1264240
2656
для побудови штучного інтелекту,
що буде супроводжувати
здійснення наших людських цілей,
21:18
that supportsпідтримує us in our humanлюдина goalsцілі
371
1266920
3120
21:22
but that is alsoтакож constrainedобмежений
by our humanлюдина valuesцінності.
372
1270800
3920
але також буде стримуватися
нашими людськими цінностями.
21:27
And I understandзрозуміти this won'tне буде be easyлегко.
373
1275600
2160
Я розумію, що це буде непросто.
21:30
We mightможе not even easilyлегко agreeзгоден
on what those termsтерміни mean.
374
1278360
3600
Ми навіть можемо мати різні
погляди на значення цих речей.
21:34
But if we take seriouslyсерйозно
375
1282920
2400
Та якщо ми усвідомимо
необхідність осмислення
21:38
how these systemsсистеми that we
dependзалежить on for so much operateпрацювати,
376
1286240
5976
принципів роботи цих
життєво важливих для нас систем,
21:44
I don't see how we can postponeвідкласти
this conversationрозмова anymoreбільше.
377
1292240
4120
ми не зможемо більше
відкладати цей діалог.
21:49
These structuresструктур
378
1297200
2536
Ці структури відповідають
за нашу діяльність,
21:51
are organizingорганізація how we functionфункція
379
1299760
4096
21:55
and they're controllingконтроль
380
1303880
2296
контролюючи те,
21:58
what we can and we cannotне можу do.
381
1306200
2616
що ми в змозі та не в змозі робити.
22:00
And manyбагато хто of these ad-financedоголошення фінансується platformsплатформи,
382
1308840
2456
І багато з цих платформ,
спонсованих рекламою,
заявляють, що є безкоштовними.
22:03
they boastпохвалитися that they're freeбезкоштовно.
383
1311320
1576
22:04
In this contextконтекст, it meansзасоби
that we are the productпродукт that's beingбуття soldпродано.
384
1312920
4560
З такої точки зору зрозуміло, що ми
і є тим продуктом, що продається.
22:10
We need a digitalцифровий economyекономіка
385
1318840
2736
Нам потрібна цифрова економіка,
22:13
where our dataдані and our attentionувага
386
1321600
3496
де наші дані та наша увага
не стають об'єктом продажу
22:17
is not for saleпродаж to the highest-biddingнайвищий торгів
authoritarianавторитарний or demagogueдемагог.
387
1325120
5080
для диктатора або демагога,
який заплатить найбільшу суму.
22:23
(ApplauseОплески)
388
1331160
3800
(Оплески)
22:30
So to go back to
that HollywoodГоллівуд paraphraseпереказ,
389
1338480
3256
Повертаючись до перефразування
голлівудського філософа,
ми і справді хочемо розширення можливостей
22:33
we do want the prodigiousвеличезні potentialпотенціал
390
1341760
3736
штучного інтелекту та цифрових технологій,
22:37
of artificialштучний intelligenceрозвідка
and digitalцифровий technologyтехнологія to blossomцвітіння,
391
1345520
3200
22:41
but for that, we mustповинен faceобличчя
this prodigiousвеличезні menaceзагроза,
392
1349400
4936
та при цьому ми також маємо
бути готові до великої загрози,
22:46
open-eyedвідкритими очима and now.
393
1354360
1936
вже зараз, з широко відкритими очима.
Дякую.
22:48
Thank you.
394
1356320
1216
22:49
(ApplauseОплески)
395
1357560
4640
(Оплески)
Translated by Dina Bezsmertna
Reviewed by Khrystyna Romashko

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com