ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Зейнеп Тюфекчи: Мы строим антиутопию лишь для того, чтобы люди кликали на рекламу

Filmed:
2,866,905 views

«Мы строим антиутопию под управлением искусственного интеллекта, с каждым кликом мыши», — говорит техносоциолог Зейнеп Тюфекчи. В ходе поучительного выступления она подробно рассказывает, как алгоритмы, используемые такими компаниями, как Facebook, Google и Amazon, чтобы вы кликали на рекламу, также используются, чтобы упорядочить ваш доступ к политической и социальной информации. И настоящая угроза исходит даже не от машин. Нам нужно понять то, как сильные мира сего могут использовать искусственный интеллект, чтобы контролировать нас — и что мы можем сделать в ответ.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceголос fearsбоится
of artificialискусственный intelligenceинтеллект,
0
760
3536
Когда люди выказывают опасения
касательно искусственного интеллекта,
00:16
very oftenдовольно часто, they invokeвзывать imagesизображений
of humanoidгуманоид robotsроботы runбег amokбуйствовать.
1
4320
3976
очень часто они строят образы гуманоидных
роботов, ставших неуправляемыми.
00:20
You know? Terminatorтерминатор?
2
8320
1240
Знаете ведь? Терминатор?
00:22
You know, that mightмог бы be
something to considerрассматривать,
3
10400
2336
Знаете, с этим можно согласиться,
00:24
but that's a distantотдаленный threatугроза.
4
12760
1856
но эта угроза от нас далека.
00:26
Or, we fretразмывать about digitalцифровой surveillanceнаблюдение
5
14640
3456
Или мы переживаем
по поводу цифровой слежки
00:30
with metaphorsметафор from the pastмимо.
6
18120
1776
с метафорами из прошлого.
00:31
"1984," GeorgeДжордж Orwell'sОруэлла "1984,"
7
19920
2656
«1984», произведение Джорджа Оруэлла,
00:34
it's hittingударять the bestsellerбестселлер listsсписки again.
8
22600
2280
снова попадает в списки бестселлеров.
00:37
It's a great bookкнига,
9
25960
1416
Это отличная книга,
00:39
but it's not the correctверный dystopiaантиутопия
for the 21stулица centuryвека.
10
27400
3880
но эта антиутопия
не подходит для XXI века.
00:44
What we need to fearстрах mostбольшинство
11
32080
1416
Мы должны бояться
00:45
is not what artificialискусственный intelligenceинтеллект
will do to us on its ownсвоя,
12
33520
4776
не того, что сделает с нами
искусственный интеллект самостоятельно,
00:50
but how the people in powerмощность
will use artificialискусственный intelligenceинтеллект
13
38320
4736
а того, как люди у власти
будут его использовать
00:55
to controlконтроль us and to manipulateманипулировать us
14
43080
2816
для контроля и управления нами
00:57
in novelроман, sometimesиногда hiddenскрытый,
15
45920
3136
новыми, иногда скрытыми,
01:01
subtleтонкий and unexpectedнеожиданный waysпути.
16
49080
3016
коварными и неожиданными способами.
01:04
Much of the technologyтехнологии
17
52120
1856
Основная часть технологии,
01:06
that threatensугрожает our freedomсвобода
and our dignityдостоинство in the near-termБлижайшее futureбудущее
18
54000
4336
что грозит нашим свободе и достоинству
уже в обозримом будущем,
01:10
is beingявляющийся developedразвитая by companiesкомпании
19
58360
1856
разрабатывается компаниями,
01:12
in the businessбизнес of capturingотлов
and sellingпродажа our dataданные and our attentionвнимание
20
60240
4936
работающими в бизнес-сфере сбора
и продажи наших сведений и интересов
01:17
to advertisersрекламодатели and othersдругие:
21
65200
2256
рекламщикам и таким компаниям,
01:19
Facebookfacebook, GoogleGoogle, AmazonАмазонка,
22
67480
3416
как Facebook, Google, Amazon,
01:22
AlibabaАлибаба, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialискусственный intelligenceинтеллект has startedначал
bolsteringBolstering theirих businessбизнес as well.
24
74040
5496
Теперь искусственный интеллект также начал
способствовать укреплению их бизнеса.
01:31
And it mayмай seemказаться
like artificialискусственный intelligenceинтеллект
25
79560
2096
Может казаться,
что искусственный интеллект —
01:33
is just the nextследующий thing after onlineонлайн adsОбъявления.
26
81680
2856
лишь новая штука после онлайн-рекламы.
01:36
It's not.
27
84560
1216
Это не так.
01:37
It's a jumpПрыгать in categoryкатегория.
28
85800
2456
Это совершенно иная категория.
01:40
It's a wholeвсе differentдругой worldМир,
29
88280
2576
Это совсем другой мир,
01:42
and it has great potentialпотенциал.
30
90880
2616
и у него большой потенциал.
01:45
It could accelerateускорять our understandingпонимание
of manyмногие areasрайоны of studyизучение and researchисследование.
31
93520
6920
Он может ускорить наше понимание
многих сфер изучения и исследования.
01:53
But to paraphraseпарафраз
a famousизвестный HollywoodГолливуд philosopherфилософ,
32
101120
3496
Но хочу парафразировать
знаменитого голливудского философа:
01:56
"With prodigiousчудовищный potentialпотенциал
comesвыходит prodigiousчудовищный riskриск."
33
104640
3640
«С огромным потенциалом
приходит огромный риск».
02:01
Now let's look at a basicосновной factфакт
of our digitalцифровой livesжизни, onlineонлайн adsОбъявления.
34
109120
3936
Теперь давайте обсудим основной факт
из наших цифровых жизней, онлайн-рекламу.
02:05
Right? We kindсвоего рода of dismissотклонять them.
35
113080
2896
Мы вроде бы не принимаем её всерьёз.
02:08
They seemказаться crudeсырой, ineffectiveнеэффективный.
36
116000
1976
Она навязчива, неэффективна.
02:10
We'veУ нас all had the experienceопыт
of beingявляющийся followedс последующим on the webWeb
37
118000
4256
Все мы имели опыт преследования нас в сети
02:14
by an adобъявление basedисходя из on something
we searchedпоиск or readчитать.
38
122280
2776
рекламой, основанной на чём-то,
что мы искали или прочли.
02:17
You know, you look up a pairпара of bootsботинки
39
125080
1856
Например, вы присмотрели пару ботинок,
02:18
and for a weekнеделю, those bootsботинки are followingследующий
you around everywhereвезде you go.
40
126960
3376
а потом всю неделю
они следуют за вами повсюду.
02:22
Even after you succumbподдаваться and buyкупить them,
they're still followingследующий you around.
41
130360
3656
Даже когда вы сдаётесь и покупаете их,
они всё ещё преследуют вас.
02:26
We're kindсвоего рода of inuredприучены to that kindсвоего рода
of basicосновной, cheapдешево manipulationманипуляция.
42
134040
3016
Нас задевает такая форма
простой, дешёвой манипуляции.
02:29
We rollрулон our eyesглаза and we think,
"You know what? These things don't work."
43
137080
3400
Мы закатываем глаза и думаем:
«Знаете что? Эти штуки не работают».
02:33
ExceptКроме, onlineонлайн,
44
141720
2096
Однако в интернете
02:35
the digitalцифровой technologiesтехнологии are not just adsОбъявления.
45
143840
3600
цифровые технологии не просто реклама.
02:40
Now, to understandПонимаю that,
let's think of a physicalфизическое worldМир exampleпример.
46
148240
3120
Для понимания этого
представим пример из реального мира.
02:43
You know how, at the checkoutпроверять, выписываться countersсчетчики
at supermarketsсупермаркеты, nearвозле the cashierкасса,
47
151840
4656
Замечали ведь, что на кассах
в супермаркетах, около кассира,
02:48
there's candyконфеты and gumжвачка
at the eyeглаз levelуровень of kidsДети?
48
156520
3480
конфетки и жевательные резинки
лежат на зрительном уровне детей?
02:52
That's designedпредназначенный to make them
whineныть at theirих parentsродители
49
160800
3496
Так задумано, чтобы они хныкали,
упрашивая своих родителей,
02:56
just as the parentsродители
are about to sortСортировать of checkпроверить out.
50
164320
3080
пока те рассчитываются на кассе.
03:00
Now, that's a persuasionубедительность architectureархитектура.
51
168040
2640
Это называется архитектура убеждения.
03:03
It's not niceхороший, but it kindсвоего рода of worksработает.
52
171160
3096
Это неприятно, но это работает.
03:06
That's why you see it
in everyкаждый supermarketсупермаркет.
53
174280
2040
Потому вы видите это
в каждом супермаркете.
03:08
Now, in the physicalфизическое worldМир,
54
176720
1696
В реальном же мире
03:10
suchтакие persuasionубедительность architecturesархитектуры
are kindсвоего рода of limitedограниченное,
55
178440
2496
такие архитектуры убеждения
вроде как ограничены,
03:12
because you can only put
so manyмногие things by the cashierкасса. Right?
56
180960
4816
потому что набор товаров, который можно
разместить возле кассира, конечен. Верно?
03:17
And the candyконфеты and gumжвачка,
it's the sameодна и та же for everyoneвсе,
57
185800
4296
А конфеты и жевательная резинка —
их одинаково покупают все,
03:22
even thoughхоть it mostlyв основном worksработает
58
190120
1456
хотя, конечно, чаще всего
03:23
only for people who have
whinyплаксивый little humansлюди besideрядом them.
59
191600
4040
те люди, что берут с собой
маленьких хныкающих человечков.
03:29
In the physicalфизическое worldМир,
we liveжить with those limitationsограничения.
60
197160
3920
В реальном мире мы живём
с такими ограничениями.
03:34
In the digitalцифровой worldМир, thoughхоть,
61
202280
1936
Однако в виртуальном мире
03:36
persuasionубедительность architecturesархитектуры
can be builtпостроен at the scaleмасштаб of billionsмиллиарды
62
204240
4320
архитектуры убеждения могут быть
выстроены в масштабе миллиардов,
03:41
and they can targetцель, inferделать вывод, understandПонимаю
63
209840
3856
и они могут обозначать,
оценивать, понимать
03:45
and be deployedразвернутый at individualsиндивидуумы
64
213720
2896
и быть применены к индивидуумам,
03:48
one by one
65
216640
1216
по одиночке,
03:49
by figuringвычисляя out your weaknessesнедостатки,
66
217880
2136
выявляя ваши слабости,
03:52
and they can be sentпослал
to everyone'sвсе это phoneТелефон privateчастный screenэкран,
67
220040
5616
и они могут быть разосланы каждому
на телефон в частном порядке,
03:57
so it's not visibleвидимый to us.
68
225680
2256
поэтому мы этого не замечаем.
03:59
And that's differentдругой.
69
227960
1256
И это отличается от всего.
04:01
And that's just one of the basicосновной things
that artificialискусственный intelligenceинтеллект can do.
70
229240
3576
И это лишь один из азов того,
на что способен искусственный интеллект.
04:04
Now, let's take an exampleпример.
71
232840
1336
Давайте рассмотрим пример.
04:06
Let's say you want to sellпродавать
planeсамолет ticketsБилеты to VegasVegas. Right?
72
234200
2696
Вот вы хотите продать билеты
на самолёт до Вегаса. Так?
04:08
So in the oldстарый worldМир, you could think
of some demographicsдемографические to targetцель
73
236920
3496
В прежние времена вы могли бы подумать
о сборе демографических данных,
04:12
basedисходя из on experienceопыт
and what you can guessУгадай.
74
240440
2520
основываясь на опыте
и ваших предположениях.
04:15
You mightмог бы try to advertiseрекламировать to, oh,
75
243560
2816
Вы можете попробовать рекламировать
04:18
menлюди betweenмежду the agesвозраст of 25 and 35,
76
246400
2496
для мужчин в возрасте от 25 до 35,
04:20
or people who have
a highвысокая limitпредел on theirих creditкредит cardкарта,
77
248920
3936
или людей, имеющих высокий лимит
по кредитной карте,
или для супругов-пенсионеров. Так?
04:24
or retiredв отставке couplesпары. Right?
78
252880
1376
04:26
That's what you would do in the pastмимо.
79
254280
1816
Раньше вы бы действовали так.
04:28
With bigбольшой dataданные and machineмашина learningобучение,
80
256120
2896
С массивами данных и машинным обучением
04:31
that's not how it worksработает anymoreбольше не.
81
259040
1524
сейчас это уже работает по-другому.
04:33
So to imagineпредставить that,
82
261320
2176
Чтобы это представить,
04:35
think of all the dataданные
that Facebookfacebook has on you:
83
263520
3856
подумайте о тех данных,
что хранит о вас Фейсбук:
04:39
everyкаждый statusположение дел updateОбновить you ever typedнабранный,
84
267400
2536
каждый статус, что вы когда-то выставляли,
04:41
everyкаждый Messengerпосыльный conversationразговор,
85
269960
2016
каждый ваш диалог,
04:44
everyкаждый placeместо you loggedвойти in from,
86
272000
1880
каждое место, с которого вы заходили,
04:48
all your photographsфотографии
that you uploadedзакачанный there.
87
276400
3176
все ваши фотографии,
что были вами туда загружены.
04:51
If you startНачало typingтипирование something
and changeизменение your mindразум and deleteУдалить it,
88
279600
3776
Если вы начали печать что-то,
передумали и удалили,
04:55
Facebookfacebook keepsдержит those
and analyzesанализы them, too.
89
283400
3200
Фейсбук сохраняет для анализа и это.
04:59
Increasinglyвсе больше и больше, it triesпытается
to matchсовпадение you with your offlineне в сети dataданные.
90
287160
3936
Всё больше он старается сопоставить вас
с вашими данными офлайн.
05:03
It alsoтакже purchasesпокупки
a lot of dataданные from dataданные brokersброкеры.
91
291120
3176
Он также скупает множество
информации от брокеров данных.
05:06
It could be everything
from your financialфинансовый recordsучет
92
294320
3416
Это может быть что угодно —
от ваших финансовых ведомостей
05:09
to a good chunkломоть of your browsingпросмотр historyистория.
93
297760
2120
до массива вашей истории браузера.
05:12
Right? In the US,
suchтакие dataданные is routinelyобычно collectedсобранный,
94
300360
5416
Верно? В США такая информация
собирается в рутинном порядке,
05:17
collatedразбор and soldпродан.
95
305800
1960
сопоставляется и продаётся.
05:20
In EuropeЕвропа, they have tougherжестче rulesправила.
96
308320
2440
В Европе правила более строгие.
05:23
So what happensпроисходит then is,
97
311680
2200
И вот что происходит в результате:
05:26
by churningвспенивание throughчерез all that dataданные,
these machine-learningмашинное обучение algorithmsалгоритмы --
98
314920
4016
путём смешивания всех этих данных,
эти машинно-обучаемые алгоритмы —
05:30
that's why they're calledназывается
learningобучение algorithmsалгоритмы --
99
318960
2896
вот почему они называются
алгоритмами обучения —
05:33
they learnучить to understandПонимаю
the characteristicsхарактеристики of people
100
321880
4096
учатся понимать характеристики людей,
05:38
who purchasedкупленный ticketsБилеты to VegasVegas before.
101
326000
2520
ранее приобретавших билеты до Вегаса.
05:41
When they learnучить this from existingсуществующий dataданные,
102
329760
3536
Обучившись этому по имеющимся данным,
05:45
they alsoтакже learnучить
how to applyподать заявление this to newновый people.
103
333320
3816
они также учатся тому,
как применить это к новым клиентам.
05:49
So if they're presentedпредставленный with a newновый personчеловек,
104
337160
3056
И если они сталкиваются
с новым для них человеком,
05:52
they can classifyклассифицировать whetherбудь то that personчеловек
is likelyвероятно to buyкупить a ticketбилет to VegasVegas or not.
105
340240
4640
они могут определить, захочет ли он
приобретать билет до Вегаса или нет.
05:57
Fine. You're thinkingмышление,
an offerпредлагает to buyкупить ticketsБилеты to VegasVegas.
106
345720
5456
Хорошо. Вы думаете, это лишь
предложение купить билет до Вегаса.
06:03
I can ignoreигнорировать that.
107
351200
1456
Я могу отклонить его.
06:04
But the problemпроблема isn't that.
108
352680
2216
Но проблема заключается не в этом.
06:06
The problemпроблема is,
109
354920
1576
Проблема в том,
06:08
we no longerдольше really understandПонимаю
how these complexсложный algorithmsалгоритмы work.
110
356520
4136
что мы уже не понимаем,
как работают эти комплексные алгоритмы.
06:12
We don't understandПонимаю
how they're doing this categorizationкатегоризации.
111
360680
3456
Мы не понимаем, как они
занимаются этой категоризацией.
06:16
It's giantгигант matricesматрицы,
thousandsтысячи of rowsстроки and columnsстолбцы,
112
364160
4416
Это огромные матрицы,
тысячи строк и столбцов,
06:20
maybe millionsмиллионы of rowsстроки and columnsстолбцы,
113
368600
1960
может, миллионы строк и столбцов,
06:23
and not the programmersпрограммисты
114
371320
2640
и ни программисты,
06:26
and not anybodyкто-нибудь who looksвыглядит at it,
115
374760
1680
ни даже любой, кто взглянет на это,
06:29
even if you have all the dataданные,
116
377440
1496
даже имея все данные,
06:30
understandsпонимает anymoreбольше не
how exactlyв точку it's operatingоперационная
117
378960
4616
уже не поймёт, как конкретно
всё это работает.
06:35
any more than you'dвы бы know
what I was thinkingмышление right now
118
383600
3776
Это как если бы вы знали,
о чём я думаю в данный момент,
06:39
if you were shownпоказанный
a crossпересекать sectionраздел of my brainголовной мозг.
119
387400
3960
словно вам показали профиль моего мозга.
06:44
It's like we're not programmingпрограммирование anymoreбольше не,
120
392360
2576
Мы словно уже не занимаемся
программированием,
06:46
we're growingрост intelligenceинтеллект
that we don't trulyдействительно understandПонимаю.
121
394960
4400
мы растим интеллект, который
мы не понимаем полностью.
06:52
And these things only work
if there's an enormousогромный amountколичество of dataданные,
122
400520
3976
И всё это работает лишь при наличии
доступа к громадному объёму информации,
06:56
so they alsoтакже encourageпоощрять
deepглубоко surveillanceнаблюдение on all of us
123
404520
5096
что подстёгивает к тотальной
слежке за каждым из нас,
07:01
so that the machineмашина learningобучение
algorithmsалгоритмы can work.
124
409640
2336
дабы эти машинно-обучаемые
алгоритмы действовали.
07:04
That's why Facebookfacebook wants
to collectсобирать all the dataданные it can about you.
125
412000
3176
Вот почему Facebook хочет собрать
любую возможную информацию о вас.
07:07
The algorithmsалгоритмы work better.
126
415200
1576
Так эти алгоритмы лучше работают.
07:08
So let's pushОт себя that VegasVegas exampleпример a bitнемного.
127
416800
2696
И давайте вернёмся ненадолго
к тому примеру с Вегасом.
07:11
What if the systemсистема
that we do not understandПонимаю
128
419520
3680
Что, если бы система, работу которой
мы полностью не понимаем,
07:16
was pickingсобирание up that it's easierПолегче
to sellпродавать VegasVegas ticketsБилеты
129
424200
5136
подобрала такой вариант,
что продать билет до Вегаса легче
07:21
to people who are bipolarбиполярный
and about to enterвойти the manicманиакальный phaseфаза.
130
429360
3760
людям с биполярным расстройством, готовым
вот-вот перейти в маниакальную фазу.
07:25
Suchтакие people tendиметь тенденцию to becomeстали
overspendersoverspenders, compulsiveзаядлый gamblersкартежники.
131
433640
4920
Такие люди, как правило, становятся
транжирами, заядлыми игроками.
07:31
They could do this, and you'dвы бы have no clueключ к разгадке
that's what they were pickingсобирание up on.
132
439280
4456
Они могли сделать это, вы бы и не поняли,
что это то, ради чего вёлся сбор данных.
07:35
I gaveдал this exampleпример
to a bunchгроздь of computerкомпьютер scientistsученые onceодин раз
133
443760
3616
Я однажды привела этот пример группе
специалистов в области информатики,
07:39
and afterwardsвпоследствии, one of them cameпришел up to me.
134
447400
2056
а после этого один из них подошёл ко мне.
07:41
He was troubledбеспокойный and he said,
"That's why I couldn'tне может publishпубликовать it."
135
449480
3520
С озадаченным видом он сказал:
«Вот почему я не смог опубликовать это».
07:45
I was like, "Couldn'tне удалось publishпубликовать what?"
136
453600
1715
Я в ответ: «Что не смогли опубликовать?»
07:47
He had triedпытался to see whetherбудь то you can indeedв самом деле
figureфигура out the onsetначало of maniaмания
137
455800
5856
Он попытался понять, действительно ли
можно выявить формирование мании
07:53
from socialСоциальное mediaСМИ postsсообщений
before clinicalклиническая symptomsсимптомы,
138
461680
3216
исходя из сообщений в соцсетях,
до проявления клинических симптомов,
07:56
and it had workedработал,
139
464920
1776
и это сработало,
07:58
and it had workedработал very well,
140
466720
2056
и это сработало очень хорошо,
08:00
and he had no ideaидея how it workedработал
or what it was pickingсобирание up on.
141
468800
4880
и он понятия не имел, как это
работало или на чём основывалось.
08:06
Now, the problemпроблема isn't solvedрешена
if he doesn't publishпубликовать it,
142
474840
4416
Если он не опубликует это,
проблема не будет решена,
08:11
because there are alreadyуже companiesкомпании
143
479280
1896
потому что уже существуют компании,
08:13
that are developingразвивающийся
this kindсвоего рода of technologyтехнологии,
144
481200
2536
занимающиеся разработкой такой технологии,
08:15
and a lot of the stuffматериал
is just off the shelfполка.
145
483760
2800
и многое из этого уже работает.
08:19
This is not very difficultсложно anymoreбольше не.
146
487240
2576
Это уже не так сложно.
08:21
Do you ever go on YouTubeYouTube
meaningимея в виду to watch one videoвидео
147
489840
3456
Вы когда-нибудь заходили на YouTube,
собираясь посмотреть одно видео,
08:25
and an hourчас laterпозже you've watchedсмотрели 27?
148
493320
2360
а спустя час вы уже посмотрели 27?
08:28
You know how YouTubeYouTube
has this columnколонка on the right
149
496760
2496
Знаете, на Youtube есть
эта колонка справа,
08:31
that saysговорит, "Up nextследующий"
150
499280
2216
на которой указано: «Следующее»,
08:33
and it autoplaysвоспроизводится автоматически something?
151
501520
1816
и оно автоматически запускает что-то?
08:35
It's an algorithmалгоритм
152
503360
1216
Это алгоритм,
08:36
pickingсобирание what it thinksдумает
that you mightмог бы be interestedзаинтересованный in
153
504600
3616
подбирающий то,
чем вы можете заинтересоваться
08:40
and maybe not find on your ownсвоя.
154
508240
1536
и, возможно, сами не найдёте.
08:41
It's not a humanчеловек editorредактор.
155
509800
1256
Это работа не человека.
08:43
It's what algorithmsалгоритмы do.
156
511080
1416
Это то, что делают алгоритмы.
08:44
It picksкирки up on what you have watchedсмотрели
and what people like you have watchedсмотрели,
157
512520
4736
Они улавливают, что посмотрели вы
и что посмотрели люди, подобные вам,
08:49
and infersделает вывод, that that mustдолжен be
what you're interestedзаинтересованный in,
158
517280
4216
и заключают, что это, должно быть,
то, что вас интересует,
08:53
what you want more of,
159
521520
1255
то, что вы хотите видеть,
08:54
and just showsшоу you more.
160
522799
1336
и просто показывает больше.
08:56
It soundsзвуки like a benignдоброкачественный
and usefulполезным featureособенность,
161
524159
2201
Это звучит как хорошая и полезная функция,
08:59
exceptКроме when it isn't.
162
527280
1200
но бывают и исключения.
09:01
So in 2016, I attendedучастие ralliesмитинги
of then-candidateто кандидат DonaldДональд Trumpкозырной
163
529640
6960
В 2016-м я присутствовала на собраниях
тогда ещё кандидата Дональда Трампа
09:09
to studyизучение as a scholarученый
the movementдвижение supportingподдержки him.
164
537840
3336
для изучения поддерживающих его масс.
09:13
I studyизучение socialСоциальное movementsдвижения,
so I was studyingизучение it, too.
165
541200
3456
Я изучаю социальные движения,
поэтому изучала также и это.
09:16
And then I wanted to writeзаписывать something
about one of his ralliesмитинги,
166
544680
3336
И затем я хотела написать что-нибудь
об одном из его собраний,
09:20
so I watchedсмотрели it a fewмало timesраз on YouTubeYouTube.
167
548040
1960
и я пару раз просмотрела его на Youtube.
09:23
YouTubeYouTube startedначал recommendingрекомендуя to me
168
551240
3096
YouTube начал рекомендовать мне
09:26
and autoplayingautoplaying to me
whiteбелый supremacistсупрематист videosвидео
169
554360
4256
и включил автопроигрывание роликов
на тему превосходства белых людей
09:30
in increasingповышение orderзаказ of extremismэкстремизм.
170
558640
2656
в растущем порядке экстремизма.
09:33
If I watchedсмотрели one,
171
561320
1816
Если я смотрела один,
09:35
it servedслужил up one even more extremeэкстремальный
172
563160
2976
он предлагал мне к просмотру
ещё более экстремальный
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
и автопроигрывал его тоже.
09:40
If you watch HillaryHillary ClintonКлинтон
or BernieBernie SandersСандерс contentсодержание,
174
568320
4536
Если вы смотрите контент, связанный
с Хилари Клинтон или Берни Сандерсом,
09:44
YouTubeYouTube recommendsрекомендует
and autoplaysвоспроизводится автоматически conspiracyзаговор left,
175
572880
4696
YouTube рекомендует и автопроигрывает
видео на тему заговора левых,
09:49
and it goesидет downhillвниз from there.
176
577600
1760
и дальше — хуже.
09:52
Well, you mightмог бы be thinkingмышление,
this is politicsполитика, but it's not.
177
580480
3056
Что же, вы можете подумать,
что это политика, но это не так.
09:55
This isn't about politicsполитика.
178
583560
1256
Это совсем не о политике.
09:56
This is just the algorithmалгоритм
figuringвычисляя out humanчеловек behaviorповедение.
179
584840
3096
Это лишь алгоритм, предугадывающий
человеческое поведение.
09:59
I onceодин раз watchedсмотрели a videoвидео
about vegetarianismвегетарианство on YouTubeYouTube
180
587960
4776
Я однажды посмотрела на Youtube
ролик о вегетарианстве,
10:04
and YouTubeYouTube recommendedрекомендуемые
and autoplayedautoplayed a videoвидео about beingявляющийся veganвегетарианский.
181
592760
4936
и YouTube рекомендовал и автопроиграл
видео о том, каково быть веганом.
10:09
It's like you're never
hardcoreхардкор enoughдостаточно for YouTubeYouTube.
182
597720
3016
Вы словно никогда не бываете
достаточно радикальны для YouTube.
10:12
(LaughterСмех)
183
600760
1576
(Смех)
10:14
So what's going on?
184
602360
1560
Так что же происходит?
10:16
Now, YouTube'sYouTube, algorithmалгоритм is proprietaryпатентованный,
185
604520
3536
Алгоритм YouTube запатентован,
10:20
but here'sвот what I think is going on.
186
608080
2360
но вот что я думаю о том,
как всё происходит.
10:23
The algorithmалгоритм has figuredфигурный out
187
611360
2096
Алгоритм вычислил,
10:25
that if you can enticeсоблазнять people
188
613480
3696
что если ты сможешь заставить людей
10:29
into thinkingмышление that you can
showпоказать them something more hardcoreхардкор,
189
617200
3736
думать, что ты способен
показать им нечто более жёсткое,
10:32
they're more likelyвероятно to stayоставаться on the siteсайт
190
620960
2416
они с большей вероятностью
останутся на сайте,
10:35
watchingнаблюдение videoвидео after videoвидео
going down that rabbitкролик holeдыра
191
623400
4416
просматривая ролик за роликом,
спускаясь в эту кроличью нору,
10:39
while GoogleGoogle servesслужит them adsОбъявления.
192
627840
1680
пока Google снабжает их рекламой.
10:43
Now, with nobodyникто mindingпомышления
the ethicsэтика of the storeмагазин,
193
631760
3120
Поскольку никто не возражает
против «коммерческой» этики,
10:47
these sitesместа can profileпрофиль people
194
635720
4240
такие сайты могут определять людей,
10:53
who are Jewеврей hatersненавистники,
195
641680
1920
ненавидящих евреев,
10:56
who think that Jewsевреи are parasitesпаразиты
196
644360
2480
тех, кто считает евреев паразитами,
11:00
and who have suchтакие explicitявный
anti-Semiticантисемитский contentсодержание,
197
648320
4920
тех, у кого имеется столь явный
антисемитский контент,
11:06
and let you targetцель them with adsОбъявления.
198
654080
2000
и позволяет вам направить рекламу на них.
11:09
They can alsoтакже mobilizeмобилизовать algorithmsалгоритмы
199
657200
3536
Они также могут мобилизовать алгоритмы
11:12
to find for you look-alikeДвойник audiencesаудитории,
200
660760
3136
для поиска аудитории,
разделяющей ваши взгляды,
11:15
people who do not have suchтакие explicitявный
anti-Semiticантисемитский contentсодержание on theirих profileпрофиль
201
663920
5576
людей, у которых нет столь явного
антисемитского контента в профиле,
11:21
but who the algorithmалгоритм detectsдетектирует
mayмай be susceptibleвосприимчивый to suchтакие messagesСообщения,
202
669520
6176
но кто, согласно алгоритму, может быть
восприимчив к такого рода сообщениям,
11:27
and letsДавайте you targetцель them with adsОбъявления, too.
203
675720
1920
позволяя вам направить рекламу и на них.
11:30
Now, this mayмай soundзвук
like an implausibleнеправдоподобно exampleпример,
204
678680
2736
Сейчас это может звучать
как неправдоподобный пример,
11:33
but this is realреальный.
205
681440
1320
но это реально.
11:35
ProPublicaProPublica investigatedисследовалась this
206
683480
2136
ProPublica расследовала это
11:37
and foundнайденный that you can indeedв самом деле
do this on Facebookfacebook,
207
685640
3616
и обнаружила, что вы в самом деле
можете делать это в Facebook,
11:41
and Facebookfacebook helpfullyуслужливо
offeredпредложенный up suggestionsпредложения
208
689280
2416
и Facebook любезно предложил способы
11:43
on how to broadenрасширять that audienceаудитория.
209
691720
1600
расширения этой аудитории.
11:46
BuzzFeedBuzzFeed triedпытался it for GoogleGoogle,
and very quicklyбыстро they foundнайденный,
210
694720
3016
BuzzFeed попробовал это с Google,
и очень быстро они выяснили,
11:49
yepАга, you can do it on GoogleGoogle, too.
211
697760
1736
да, вы можете делать это и с Google.
11:51
And it wasn'tне было even expensiveдорогая.
212
699520
1696
И это даже не было дорого.
11:53
The ProPublicaProPublica reporterрепортер
spentпотраченный about 30 dollarsдолларов
213
701240
4416
Журналист ProPublica потратил
около 30 долларов
11:57
to targetцель this categoryкатегория.
214
705680
2240
на обозначение этой категории.
12:02
So last yearгод, DonaldДональд Trump'sТрампа
socialСоциальное mediaСМИ managerменеджер disclosedраскрытый
215
710600
5296
В прошлом году менеджер социальных сетей
из штаба Дональда Трампа раскрыл,
12:07
that they were usingс помощью Facebookfacebook darkтемно postsсообщений
to demobilizeдемобилизовать people,
216
715920
5336
что они использовали тёмные посты
в Facebook для демобилизации людей,
12:13
not to persuadeуговаривать them,
217
721280
1376
не чтобы их переубедить,
12:14
but to convinceубеждать them not to voteголос at all.
218
722680
2800
а для того, чтобы убедить их
не голосовать вовсе.
12:18
And to do that,
they targetedцелевое specificallyконкретно,
219
726520
3576
И чтобы сделать это,
они особенно нацелились,
12:22
for exampleпример, African-AmericanАфроамериканец menлюди
in keyключ citiesгорода like PhiladelphiaФиладельфия,
220
730120
3896
к примеру, на мужчин-афроамериканцев
в ключевых городах типа Филадельфии,
12:26
and I'm going to readчитать
exactlyв точку what he said.
221
734040
2456
и я собираюсь прочесть
именно то, что он сказал.
12:28
I'm quotingквотирование.
222
736520
1216
Я цитирую.
12:29
They were usingс помощью "nonpublicнепубличной postsсообщений
223
737760
3016
Они использовали «приватные посты,
12:32
whoseчья viewershipтелезрители the campaignкампания controlsуправления
224
740800
2176
чей просмотр в ходе
кампании контролируется,
12:35
so that only the people
we want to see it see it.
225
743000
3776
и потому их видят лишь те люди,
которые нам требуются.
12:38
We modeledсмоделирован this.
226
746800
1216
Мы смоделировали это.
12:40
It will dramaticallyдраматично affectаффект her abilityспособность
to turnочередь these people out."
227
748040
4720
Это кардинально повлияет на её возможность
вернуть этих людей на свою сторону».
12:45
What's in those darkтемно postsсообщений?
228
753720
2280
Что же собой являют эти тёмные посты?
12:48
We have no ideaидея.
229
756480
1656
Мы не знаем.
12:50
Facebookfacebook won'tне будет tell us.
230
758160
1200
Facebook отказывается это раскрывать.
12:52
So Facebookfacebook alsoтакже algorithmicallyалгоритмически
arrangesорганизует the postsсообщений
231
760480
4376
Facebook также алгоритмично
располагает посты,
12:56
that your friendsдрузья put on Facebookfacebook,
or the pagesстраницы you followследовать.
232
764880
3736
которые выкладывают ваши друзья,
или странички, на которые вы подписаны.
13:00
It doesn't showпоказать you
everything chronologicallyв хронологическом порядке.
233
768640
2216
Он не показывает вам всё хронологически.
13:02
It putsпуты the orderзаказ in the way
that the algorithmалгоритм thinksдумает will enticeсоблазнять you
234
770880
4816
Он задаёт порядок так, как,
по расчётам алгоритма, можно увлечь вас,
13:07
to stayоставаться on the siteсайт longerдольше.
235
775720
1840
чтобы вы пробыли на сайте подольше.
13:11
Now, so this has a lot of consequencesпоследствия.
236
779040
3376
У этого есть множество последствий.
13:14
You mayмай be thinkingмышление
somebodyкто-то is snubbingспуск в скважину под давлением you on Facebookfacebook.
237
782440
3800
Вы можете подумать,
что кто-то игнорирует вас в Facebook.
13:18
The algorithmалгоритм mayмай never
be showingпоказ your postпосле to them.
238
786800
3256
Возможно, алгоритм
даже и не показывал им ваш пост.
13:22
The algorithmалгоритм is prioritizingприоритезация
some of them and buryingпохоронив the othersдругие.
239
790080
5960
Алгоритм даёт приоритет
некоторым из них и прячет другие.
13:29
ExperimentsЭксперименты showпоказать
240
797320
1296
Эксперименты показывают,
13:30
that what the algorithmалгоритм picksкирки to showпоказать you
can affectаффект your emotionsэмоции.
241
798640
4520
что то, что алгоритм подбирает для
показа вам, может влиять на ваши эмоции.
13:36
But that's not all.
242
804600
1200
Но это не всё.
13:38
It alsoтакже affectsвлияет politicalполитическая behaviorповедение.
243
806280
2360
Это также влияет
на политическое поведение.
13:41
So in 2010, in the midtermсреднесрочный electionsвыборы,
244
809360
4656
В 2010-м, в ходе промежуточных выборов,
13:46
Facebookfacebook did an experimentэксперимент
on 61 millionмиллиона people in the US
245
814040
5896
Facebook провёл эксперимент
над 61 млн человек в США,
13:51
that was disclosedраскрытый after the factфакт.
246
819960
1896
который был раскрыт после проведения.
13:53
So some people were shownпоказанный,
"TodayCегодня is electionвыборы day,"
247
821880
3416
Так, некоторым людям показали объявление
«Сегодня день выборов»,
13:57
the simplerпроще one,
248
825320
1376
более простой вариант,
13:58
and some people were shownпоказанный
the one with that tinyкрошечный tweakщипать
249
826720
3896
а некоторым показали его же
с крошечным изменением,
14:02
with those little thumbnailsэскизы
250
830640
2096
с этакими небольшими иконками
14:04
of your friendsдрузья who clickedщелкнул on "I votedпроголосовавший."
251
832760
2840
ваших друзей, уже кликнувших
на кнопку «Я проголосовал».
14:09
This simpleпросто tweakщипать.
252
837000
1400
Вот такое простое изменение.
14:11
OK? So the picturesкартинки were the only changeизменение,
253
839520
4296
Понятно? Эти картинки
были единственной разницей,
14:15
and that postпосле shownпоказанный just onceодин раз
254
843840
3256
и этот пост, показанный лишь раз,
14:19
turnedоказалось out an additionalдополнительный 340,000 votersизбирателей
255
847120
6056
обернулся дополнительными
340 000 избирателей
14:25
in that electionвыборы,
256
853200
1696
на этих выборах,
14:26
accordingв соответствии to this researchисследование
257
854920
1696
согласно этому исследованию,
14:28
as confirmedподтвердил by the voterизбиратель rollsроллы.
258
856640
2520
как было подтверждено
списками избирателей.
14:32
A flukeсчастливая случайность? No.
259
860920
1656
Счастливая случайность? Нет.
14:34
Because in 2012,
they repeatedповторный the sameодна и та же experimentэксперимент.
260
862600
5360
Поскольку в 2012-м они повторили
тот же эксперимент.
14:40
And that time,
261
868840
1736
И в этот раз
14:42
that civicгражданский messageсообщение shownпоказанный just onceодин раз
262
870600
3296
этот гражданский призыв,
показанный лишь раз,
14:45
turnedоказалось out an additionalдополнительный 270,000 votersизбирателей.
263
873920
4440
обернулся 270 000 проголосовавших.
14:51
For referenceСправка, the 2016
US presidentialпрезидентских electionвыборы
264
879160
5216
Для сравнения, результат выборов
президента США в 2016-м
14:56
was decidedприняли решение by about 100,000 votesголосов.
265
884400
3520
решился голосами 100 000 избирателей.
15:01
Now, Facebookfacebook can alsoтакже
very easilyбез труда inferделать вывод what your politicsполитика are,
266
889360
4736
Сейчас Facebook может также легко
вычислить ваши политические взгляды,
15:06
even if you've never
disclosedраскрытый them on the siteсайт.
267
894120
2256
даже если вы никогда
не раскрывали их на сайте.
15:08
Right? These algorithmsалгоритмы
can do that quiteдовольно easilyбез труда.
268
896400
2520
Верно? Эти алгоритмы
могут делать это очень легко.
15:11
What if a platformПлатформа with that kindсвоего рода of powerмощность
269
899960
3896
Что, если платформа с такими возможностями
15:15
decidesрешает to turnочередь out supportersсторонников
of one candidateкандидат over the other?
270
903880
5040
решит сделать так, что на выборы придут
больше сторонников одного кандидата?
15:21
How would we even know about it?
271
909680
2440
Откуда нам знать об этом?
15:25
Now, we startedначал from someplaceгде-то
seeminglyпо-видимому innocuousбезвредный --
272
913560
4136
Мы начали с чего-то,
казалось бы, безобидного —
15:29
onlineонлайн addsдобавляет followingследующий us around --
273
917720
2216
онлайн реклама, преследующая нас всюду, —
15:31
and we'veмы в landedвысадился someplaceгде-то elseеще.
274
919960
1840
и мы добрались до чего-то иного.
15:35
As a publicобщественности and as citizensграждане,
275
923480
2456
Как народ и как отдельные граждане,
15:37
we no longerдольше know
if we're seeingвидя the sameодна и та же informationИнформация
276
925960
3416
мы больше не знаем, видим ли мы
одну и ту же информацию,
15:41
or what anybodyкто-нибудь elseеще is seeingвидя,
277
929400
1480
или что видит кто-либо другой,
15:43
and withoutбез a commonобщий basisоснова of informationИнформация,
278
931680
2576
и без единой информационной базы,
15:46
little by little,
279
934280
1616
постепенно,
15:47
publicобщественности debateобсуждение is becomingстановление impossibleневозможно,
280
935920
3216
публичные дебаты становятся невозможны,
15:51
and we're just at
the beginningначало stagesэтапы of this.
281
939160
2976
и мы как раз на начальных стадиях этого.
15:54
These algorithmsалгоритмы can quiteдовольно easilyбез труда inferделать вывод
282
942160
3456
Эти алгоритмы крайне легко могут вычислить
15:57
things like your people'sнародный ethnicityэтническая принадлежность,
283
945640
3256
такие вещи, как этническая принадлежность,
16:00
religiousрелигиозная and politicalполитическая viewsПросмотры,
personalityличность traitsчерты,
284
948920
2336
религиозные и политические
взгляды, личность,
16:03
intelligenceинтеллект, happinessсчастье,
use of addictiveпривыкание substancesвещества,
285
951280
3376
уровень интеллекта, довольства жизнью,
наркозависимость,
16:06
parentalродительский separationразделение, ageвозраст and gendersпола,
286
954680
3136
развод родителей, возраст и пол,
16:09
just from Facebookfacebook likesнравится.
287
957840
1960
лишь по лайкам в Facebook.
16:13
These algorithmsалгоритмы can identifyидентифицировать protestersпротестующие
288
961440
4056
Эти алгоритмы могут
вычислить протестующих,
16:17
even if theirих facesлица
are partiallyчастично concealedскрытый.
289
965520
2760
даже если их лица частично скрыты.
16:21
These algorithmsалгоритмы mayмай be ableв состоянии
to detectобнаружить people'sнародный sexualполовой orientationориентация
290
969720
6616
Эти алгоритмы, возможно, способны
определить сексуальную ориентацию людей
16:28
just from theirих datingзнакомства profileпрофиль picturesкартинки.
291
976360
3200
лишь по их фотографиям
в профиле знакомств.
16:33
Now, these are probabilisticвероятностный guessesдогадок,
292
981560
2616
Сейчас это лишь вероятные догадки,
16:36
so they're not going
to be 100 percentпроцент right,
293
984200
2896
так что они необязательно
будут на 100% верны,
16:39
but I don't see the powerfulмощный resistingсопротивляются
the temptationискушение to use these technologiesтехнологии
294
987120
4896
но я не вижу мощного сопротивления
искушению использовать эти технологии
только потому, что есть какие-то
ложноположительные результаты,
16:44
just because there are
some falseложный positivesпозитивы,
295
992040
2176
16:46
whichкоторый will of courseкурс createСоздайте
a wholeвсе other layerслой of problemsпроблемы.
296
994240
3256
которые, конечно же,
создадут целый ряд проблем.
16:49
ImagineПредставить what a stateгосударство can do
297
997520
2936
Представьте, что государство может сделать
16:52
with the immenseогромный amountколичество of dataданные
it has on its citizensграждане.
298
1000480
3560
с огромным объёмом данных, имеющихся
у него на собственных жителей.
16:56
ChinaКитай is alreadyуже usingс помощью
faceлицо detectionобнаружение technologyтехнологии
299
1004680
4776
В Китае уже используется
технология опознавания лиц
17:01
to identifyидентифицировать and arrestарестовывать people.
300
1009480
2880
для вычисления и ареста людей.
17:05
And here'sвот the tragedyтрагедия:
301
1013280
2136
И вот в чём трагедия:
17:07
we're buildingздание this infrastructureинфраструктура
of surveillanceнаблюдение authoritarianismавторитаризм
302
1015440
5536
мы строим эту инфраструктуру
авторитарного наблюдения,
17:13
merelyпросто to get people to clickщелчок on adsОбъявления.
303
1021000
2960
лишь чтобы побудить людей
кликать на рекламу.
17:17
And this won'tне будет be
Orwell'sОруэлла authoritarianismавторитаризм.
304
1025240
2576
И это не будет авторитаризм Оруэлла.
17:19
This isn't "1984."
305
1027839
1897
Это не «1984».
17:21
Now, if authoritarianismавторитаризм
is usingс помощью overtнеприкрытый fearстрах to terrorizeтерроризировать us,
306
1029760
4576
Если авторитаризм явно использует
страх, чтобы терроризировать нас,
17:26
we'llЧто ж all be scaredиспуганный, but we'llЧто ж know it,
307
1034359
2897
мы все будем напуганы,
но мы будем знать об этом,
17:29
we'llЧто ж hateненавидеть it and we'llЧто ж resistоказывать сопротивление it.
308
1037280
2200
мы будем ненавидеть это
и будем сопротивляться.
17:32
But if the people in powerмощность
are usingс помощью these algorithmsалгоритмы
309
1040880
4416
Но если люди у власти
используют эти алгоритмы,
17:37
to quietlyтихо watch us,
310
1045319
3377
чтобы незаметно следить за нами,
17:40
to judgeсудья us and to nudgeслегка подталкивать локтем us,
311
1048720
2080
оценивать нас и подначивать нас,
17:43
to predictпрогнозировать and identifyидентифицировать
the troublemakersсмутьяны and the rebelsповстанцы,
312
1051720
4176
чтобы предугадывать и опознавать
нарушителей порядка и бунтарей,
17:47
to deployразвертывание persuasionубедительность
architecturesархитектуры at scaleмасштаб
313
1055920
3896
чтобы масштабно внедрять
архитектуру убеждения
17:51
and to manipulateманипулировать individualsиндивидуумы one by one
314
1059840
4136
и манипулировать отдельными
людьми по одиночке,
17:56
usingс помощью theirих personalличный, individualиндивидуальный
weaknessesнедостатки and vulnerabilitiesуязвимости,
315
1064000
5440
используя их личные,
уникальные слабости и уязвимости,
18:02
and if they're doing it at scaleмасштаб
316
1070720
2200
и если они масштабно занимаются этим
18:06
throughчерез our privateчастный screensэкраны
317
1074080
1736
через наши личные экраны так,
18:07
so that we don't even know
318
1075840
1656
что мы даже не знаем,
18:09
what our fellowчеловек citizensграждане
and neighborsсоседи are seeingвидя,
319
1077520
2760
что видят наши сограждане и соседи,
18:13
that authoritarianismавторитаризм
will envelopобволакивать us like a spider'sпаука webWeb
320
1081560
4816
этот авторитаризм окутает нас,
словно паучья сеть,
18:18
and we mayмай not even know we're in it.
321
1086400
2480
и мы даже не будем знать,
что мы уже в ней.
18:22
So Facebook'sfacebook-х marketрынок capitalizationкапитализация
322
1090440
2936
Итак, рыночная капитализация Facebook
18:25
is approachingприближается halfполовина a trillionтриллион dollarsдолларов.
323
1093400
3296
приближается к отметке
в полтриллиона долларов.
18:28
It's because it worksработает great
as a persuasionубедительность architectureархитектура.
324
1096720
3120
Это потому, что он хорошо работает
как архитектура убеждения.
18:33
But the structureсостав of that architectureархитектура
325
1101760
2816
Но строение этой архитектуры
18:36
is the sameодна и та же whetherбудь то you're sellingпродажа shoesобувь
326
1104600
3216
одинаково, продаёте ли вы туфли,
18:39
or whetherбудь то you're sellingпродажа politicsполитика.
327
1107840
2496
или продаёте политику.
18:42
The algorithmsалгоритмы do not know the differenceразница.
328
1110360
3120
Эти алгоритмы не осознают разницы.
18:46
The sameодна и та же algorithmsалгоритмы setзадавать looseсвободный uponна us
329
1114240
3296
Те же алгоритмы, что расслабили нас,
18:49
to make us more pliableгибкий for adsОбъявления
330
1117560
3176
сделав нас более податливыми для рекламы,
18:52
are alsoтакже organizingорганизация our politicalполитическая,
personalличный and socialСоциальное informationИнформация flowsпотоки,
331
1120760
6736
также организуют наши политические,
личные и социально-информационные потоки,
18:59
and that's what's got to changeизменение.
332
1127520
1840
и это то, что должно измениться.
19:02
Now, don't get me wrongнеправильно,
333
1130240
2296
Не поймите меня неправильно,
19:04
we use digitalцифровой platformsплатформы
because they provideпредоставлять us with great valueстоимость.
334
1132560
3680
мы используем цифровые платформы,
потому что они очень ценны для нас.
19:09
I use Facebookfacebook to keep in touchпотрогать
with friendsдрузья and familyсемья around the worldМир.
335
1137120
3560
Я пользуюсь Facebook, чтобы быть
на связи с друзьями и семьёй повсюду.
19:14
I've writtenнаписано about how crucialключевой
socialСоциальное mediaСМИ is for socialСоциальное movementsдвижения.
336
1142000
5776
Я уже писала о том, как важны соцсети
для социальных движений.
19:19
I have studiedизучал how
these technologiesтехнологии can be used
337
1147800
3016
Я изучала, как эти технологии
могут быть использованы,
19:22
to circumventобойти censorshipцензура around the worldМир.
338
1150840
2480
чтобы обойти цензуру по всему миру.
19:27
But it's not that the people who runбег,
you know, Facebookfacebook or GoogleGoogle
339
1155280
6416
Но это не значит, что люди, управляющие,
скажем, Facebook или Google,
19:33
are maliciouslyзлонамеренно and deliberatelyсознательно tryingпытаясь
340
1161720
2696
злостно и сознательно пытаются
19:36
to make the countryстрана
or the worldМир more polarizedполяризованный
341
1164440
4456
сделать страну или мир
более поляризованными
19:40
and encourageпоощрять extremismэкстремизм.
342
1168920
1680
и поощрять экстремизм.
19:43
I readчитать the manyмногие
well-intentionedблагонамеренные statementsзаявления
343
1171440
3976
Я читала много благоразумных утверждений,
19:47
that these people put out.
344
1175440
3320
которые выдвинули эти люди.
19:51
But it's not the intentнамерение or the statementsзаявления
people in technologyтехнологии make that matterдело,
345
1179600
6056
Но важны не намерения или утверждения
людей в области технологий,
19:57
it's the structuresсооружения
and businessбизнес modelsмодели they're buildingздание.
346
1185680
3560
а структуры и бизнес-модели,
которые они создают.
20:02
And that's the coreядро of the problemпроблема.
347
1190360
2096
И в этом суть проблемы.
20:04
EitherИли Facebookfacebook is a giantгигант con
of halfполовина a trillionтриллион dollarsдолларов
348
1192480
4720
Или Facebook — гигантская афёра
стоимостью в полтриллиона долларов,
20:10
and adsОбъявления don't work on the siteсайт,
349
1198200
1896
а реклама на этом сайте не работает,
20:12
it doesn't work
as a persuasionубедительность architectureархитектура,
350
1200120
2696
он не работает как архитектура убеждения,
20:14
or its powerмощность of influenceвлияние
is of great concernбеспокойство.
351
1202840
4120
или его сила влияния является
поводом для большого беспокойства.
20:20
It's eitherили one or the other.
352
1208560
1776
Это либо одно, либо другое.
20:22
It's similarаналогичный for GoogleGoogle, too.
353
1210360
1600
Та же ситуация и с Google.
20:24
So what can we do?
354
1212880
2456
Так что мы можем сделать?
20:27
This needsпотребности to changeизменение.
355
1215360
1936
Это нужно менять.
20:29
Now, I can't offerпредлагает a simpleпросто recipeрецепт,
356
1217320
2576
Сейчас я не могу
предложить простой способ,
20:31
because we need to restructureреструктурировать
357
1219920
2256
потому что нам нужно реструктурировать
20:34
the wholeвсе way our
digitalцифровой technologyтехнологии operatesработает.
358
1222200
3016
весь путь, по которому работают
наши цифровые технологии.
20:37
Everything from the way
technologyтехнологии is developedразвитая
359
1225240
4096
Всё — от того, как технология развивается,
20:41
to the way the incentivesстимулы,
economicэкономической and otherwiseв противном случае,
360
1229360
3856
до того, как стимулы,
экономические и иные,
20:45
are builtпостроен into the systemсистема.
361
1233240
2280
встроены в систему.
20:48
We have to faceлицо and try to dealпо рукам with
362
1236480
3456
Мы должны смело встретить
и попытаться справиться
20:51
the lackотсутствие of transparencyпрозрачность
createdсозданный by the proprietaryпатентованный algorithmsалгоритмы,
363
1239960
4656
с отсутствием прозрачности,
образованным собственными алгоритмами,
20:56
the structuralструктурный challengeвызов
of machineмашина learning'sобучения-х opacityпомутнение,
364
1244640
3816
структурной проблемой непрозрачности
процесса машинного обучения,
21:00
all this indiscriminateнеразборчивый dataданные
that's beingявляющийся collectedсобранный about us.
365
1248480
3400
всеми этими данными,
которые бессистемно собираются о нас.
21:05
We have a bigбольшой taskзадача in frontфронт of us.
366
1253000
2520
Перед нами стоит большая задача.
21:08
We have to mobilizeмобилизовать our technologyтехнологии,
367
1256160
2680
Мы должны мобилизовать нашу технологию,
21:11
our creativityкреативность
368
1259760
1576
нашу креативность
21:13
and yes, our politicsполитика
369
1261360
1880
и да, нашу политику так,
21:16
so that we can buildстроить
artificialискусственный intelligenceинтеллект
370
1264240
2656
чтобы мы могли создать
искусственный интеллект,
21:18
that supportsопоры us in our humanчеловек goalsцели
371
1266920
3120
который поддерживает нас
в наших человеческих целях,
21:22
but that is alsoтакже constrainedограничен
by our humanчеловек valuesзначения.
372
1270800
3920
но который также ограничен
нашими человеческими ценностями.
21:27
And I understandПонимаю this won'tне будет be easyлегко.
373
1275600
2160
И я осознаю, что это будет непросто.
21:30
We mightмог бы not even easilyбез труда agreeдать согласие
on what those termsсроки mean.
374
1278360
3600
Мы могли бы даже не согласиться
с тем, что значат эти термины.
21:34
But if we take seriouslyшутки в сторону
375
1282920
2400
Но если мы серьёзно относимся к тому,
21:38
how these systemsсистемы that we
dependзависеть on for so much operateработать,
376
1286240
5976
как эти системы, от которых
мы так сильно зависим, функционируют,
21:44
I don't see how we can postponeоткладывать
this conversationразговор anymoreбольше не.
377
1292240
4120
я уже не вижу, как мы можем
откладывать этот разговор.
21:49
These structuresсооружения
378
1297200
2536
Эти структуры
21:51
are organizingорганизация how we functionфункция
379
1299760
4096
организуют то, как мы работаем,
21:55
and they're controllingуправление
380
1303880
2296
и они контролируют,
21:58
what we can and we cannotне могу do.
381
1306200
2616
что мы можем делать, а что нет.
22:00
And manyмногие of these ad-financedобъявление финансируемых platformsплатформы,
382
1308840
2456
И многие из этих платформ,
финансируемых рекламой,
22:03
they boastхвастовство that they're freeсвободно.
383
1311320
1576
кичатся, что они бесплатны.
22:04
In this contextконтекст, it meansозначает
that we are the productпродукт that's beingявляющийся soldпродан.
384
1312920
4560
В этом контексте это означает,
что продаваемый продукт — это мы.
22:10
We need a digitalцифровой economyэкономика
385
1318840
2736
Нам нужна цифровая экономика,
22:13
where our dataданные and our attentionвнимание
386
1321600
3496
где наши данные и наше внимание
22:17
is not for saleпродажа to the highest-biddingвысшие торги
authoritarianавторитарный or demagogueдемагог.
387
1325120
5080
не продаются деспоту или демагогу,
предложившему наибольшую цену.
22:23
(ApplauseАплодисменты)
388
1331160
3800
(Аплодисменты)
22:30
So to go back to
that HollywoodГолливуд paraphraseпарафраз,
389
1338480
3256
Итак, возвращаясь к тому
голливудскому парафразу,
22:33
we do want the prodigiousчудовищный potentialпотенциал
390
1341760
3736
мы хотим огромного потенциала
22:37
of artificialискусственный intelligenceинтеллект
and digitalцифровой technologyтехнологии to blossomцвести,
391
1345520
3200
от искусственного интеллекта
и расцвета цифровых технологий,
22:41
but for that, we mustдолжен faceлицо
this prodigiousчудовищный menaceугроза,
392
1349400
4936
но для этого мы должны встретить
эту огромную угрозу
22:46
open-eyedс широко раскрытыми глазами and now.
393
1354360
1936
с широко открытыми глазами уже сейчас.
22:48
Thank you.
394
1356320
1216
Спасибо вам.
(Аплодисменты)
22:49
(ApplauseАплодисменты)
395
1357560
4640
Translated by Aslan Akhkubekov
Reviewed by Anna Mo

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com