ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

Джеймс Брайдл: Кошмарные видео детского YouTube, и что не так с интернетом сегодня

Filmed:
5,404,429 views

Писатель и художник Джеймс Брайдл приоткрывает завесу тёмного и странного дна интернета, где на YouTube неизвестные влезают в мозг маленьким детям и взамен получают доходы от рекламы. Начиная с «яиц с сюрпризом» и «песни семьи пальчиков» и заканчивая сгенерированной алгоритмами подборкой недетских видео с участием известных персонажей мультфильмов — все эти видео пугают и используют детей. Кроме того, становится понятно, куда движется наш мир, которым всё больше управляют данные. «Мы должны перестать видеть в технологиях решение всех наших проблем. Вместо этого нам нужно относиться к ним как к средству выявления этих самых проблем, чтобы можно было размышлять в правильном ключе и начать их решать», — говорит Брайдл.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm JamesДжеймс.
0
777
1183
Меня зовут Джеймс.
Я писатель и художник,
00:13
I'm a writerписатель and artistхудожник,
1
1984
1686
00:15
and I make work about technologyтехнологии.
2
3694
2341
а ещё я занимаюсь технологиями.
00:18
I do things like drawпривлечь life-sizeв натуральную величину outlinesконтуры
of militaryвоенные dronesбеспилотные летательные аппараты
3
6454
3911
Например, на улицах разных городов мира
я рисую эскизы военных дронов
в натуральную величину,
00:22
in cityгород streetsулицы around the worldМир,
4
10389
1828
чтобы люди задумались и разобрались
00:24
so that people can startНачало to think
and get theirих headsруководители around
5
12241
2950
в этих незаметных и
трудных для понимания технологиях.
00:27
these really quiteдовольно hard-to-seeтрудно для см.
and hard-to-think-aboutтрудно для думать о technologiesтехнологии.
6
15215
3440
00:31
I make things like neuralнервный networksсети
that predictпрогнозировать the resultsРезультаты of electionsвыборы
7
19494
3836
Я создаю такие вещи, как нейросети,
которые предсказывают результаты выборов
на основе прогнозов погоды,
00:35
basedисходя из on weatherПогода reportsотчеты,
8
23354
1737
потому что я заинтригован
00:37
because I'm intriguedзаинтригован about
9
25115
1314
теми возможностями, которые могут
предложить эти новые чудны́е технологии.
00:38
what the actualфактический possibilitiesвозможности
of these weirdстранный newновый technologiesтехнологии are.
10
26453
3924
00:43
Last yearгод, I builtпостроен
my ownсвоя self-drivingсамостоятельное вождение carавтомобиль.
11
31405
2426
В прошлом году я изобрёл
свой беспилотный автомобиль..
00:45
But because I don't
really trustдоверять technologyтехнологии,
12
33855
2526
Но так как я не особо доверяю технологиям,
я также соорудил и ловушку для них.
00:48
I alsoтакже designedпредназначенный a trapловушка for it.
13
36405
1928
(Смех)
00:50
(LaughterСмех)
14
38777
1086
00:51
And I do these things mostlyв основном because
I find them completelyполностью fascinatingочаровательный,
15
39887
4298
И я делаю эти вещи, главным образом,
потому что абсолютно увлечён ими,
00:56
but alsoтакже because I think
when we talk about technologyтехнологии,
16
44209
2602
но ещё я считаю, что говоря о технологиях,
00:58
we're largelyво многом talkingговорящий about ourselvesсами
17
46835
2619
мы по большей части говорим о нас самих
01:01
and the way that we understandПонимаю the worldМир.
18
49478
2299
и о нашем ви́дении мира.
01:03
So here'sвот a storyистория about technologyтехнологии.
19
51801
2442
Представляю вам историю о технологиях.
01:07
This is a "surpriseсюрприз eggяйцо" videoвидео.
20
55520
2830
Это видео про яйцо с сюрпризом.
01:10
It's basicallyв основном a videoвидео of someoneкто то
openingоткрытие up loadsгрузы of chocolateшоколад eggsяйца
21
58374
3348
По сути, в нём человек раскрывает
целую кучу шоколадных яиц
и показывает игрушки из них зрителям.
01:13
and showingпоказ the toysигрушки insideвнутри to the viewerзритель.
22
61746
2126
01:16
That's it. That's all it does
for sevenсемь long minutesминут.
23
64461
2649
И всё. Это всё, что он делает,
целых семь долгих минут.
01:19
And I want you to noticeуведомление
two things about this.
24
67428
3051
Я хочу, чтобы вы отметили здесь две вещи.
01:22
First of all, this videoвидео
has 30 millionмиллиона viewsПросмотры.
25
70503
4074
Во-первых, у этого видео
30 миллионов просмотров.
(Смех)
01:26
(LaughterСмех)
26
74601
1275
01:28
And the other thing is,
27
76376
1166
А во-вторых,
оно размещено на канале
с 6,3 миллиона подписчиков
01:29
it comesвыходит from a channelканал
that has 6.3 millionмиллиона subscribersабоненты,
28
77566
3869
01:33
that has a totalВсего of eight8 billionмиллиард viewsПросмотры,
29
81459
2680
и 8 миллиардами просмотров,
01:36
and it's all just more videosвидео like this --
30
84163
3106
и все видео на нём похожи на это —
01:40
30 millionмиллиона people watchingнаблюдение a guy
openingоткрытие up these eggsяйца.
31
88256
3908
30 миллионов людей смотрят на то,
как парень распаковывает яйца.
01:44
It soundsзвуки prettyСимпатичная weirdстранный, but if you searchпоиск
for "surpriseсюрприз eggsяйца" on YouTubeYouTube,
32
92188
4481
Звучит странно, но если вы забьёте
в поиск на YouTube «яйца с сюрпризом»,
01:48
it'llэто будет tell you there's
10 millionмиллиона of these videosвидео,
33
96693
3523
то найдёте 10 миллионов таких видео.
И я считаю, что это не всё.
01:52
and I think that's an undercountнедоучет.
34
100240
1657
Думаю, их гораздо, гораздо больше.
01:53
I think there's way, way more of these.
35
101921
1897
Если продолжите искать,
их будет бесконечное множество.
01:55
If you keep searchingпоиск, they're endlessбесконечный.
36
103842
2242
01:58
There's millionsмиллионы and millionsмиллионы
of these videosвидео
37
106108
2159
Существуют миллионы, миллионы таких видео
с самыми причудливыми
комбинациями брендов и материалов,
02:00
in increasinglyвсе больше и больше baroqueбарокко combinationsкомбинации
of brandsбренды and materialsматериалы,
38
108291
3454
и каждый божий день их выкладывают
всё больше и больше.
02:03
and there's more and more of them
beingявляющийся uploadedзакачанный everyкаждый singleОдин day.
39
111769
3846
02:07
Like, this is a strangeстранный worldМир. Right?
40
115639
3511
Что за странный мир. Не так ли?
02:11
But the thing is, it's not adultsВзрослые
who are watchingнаблюдение these videosвидео.
41
119174
3383
Но дело в том, что такие видео
смотрят не взрослые.
02:14
It's kidsДети, smallмаленький childrenдети.
42
122581
2921
Их смотрят дети, маленькие дети.
02:17
These videosвидео are
like crackтрещина for little kidsДети.
43
125526
2154
Эти видео как наркотик для малышей.
02:19
There's something about the repetitionповторение,
44
127704
2075
Есть что-то в повторении,
в той регулярной дозе дофамина
при раскрытии интриги,
02:21
the constantпостоянная little
dopamineдопамин hitудар of the revealвыявить,
45
129803
2468
02:24
that completelyполностью hooksкрючки them in.
46
132295
1866
что их так цепляет.
02:26
And little kidsДети watch these videosвидео
over and over and over again,
47
134185
4809
И маленькие дети пересматривают
эти видео снова, и снова, и снова,
02:31
and they do it for hoursчасов
and hoursчасов and hoursчасов.
48
139018
2327
они делают это часами, и ещё, и ещё.
02:33
And if you try and take
the screenэкран away from them,
49
141369
2356
А если попытаетесь отнять у них экран,
они будут кричать, и кричать, и кричать.
02:35
they'llони будут screamорать and screamорать and screamорать.
50
143749
1782
Если не верите мне —
02:37
If you don't believe me --
51
145555
1262
я уже видел, как некоторые в зале кивают —
02:38
and I've alreadyуже seenвидели people
in the audienceаудитория noddingкивание --
52
146841
2607
если не верите мне, спросите у людей,
у которых есть маленькие дети,
02:41
if you don't believe me, find someoneкто то
with smallмаленький childrenдети and askпросить them,
53
149472
3391
и они расскажут вам всё
о видео про яйца с сюрпризом.
02:44
and they'llони будут know about
the surpriseсюрприз eggяйцо videosвидео.
54
152887
2340
02:47
So this is where we startНачало.
55
155251
2070
Вот с чего мы начнём.
02:49
It's 2018, and someoneкто то, or lots of people,
56
157345
3642
Сейчас 2018 год, и некоторые,
если не многие, люди
02:53
are usingс помощью the sameодна и та же mechanismмеханизм that, like,
Facebookfacebook and InstagramInstagram are usingс помощью
57
161011
3941
используют те же механизмы, которыми
пользуются, скажем, Facebook и Instagram,
чтобы вы постоянно
проверяли их приложение.
02:56
to get you to keep checkingпроверка that appприложение,
58
164976
1989
02:58
and they're usingс помощью it on YouTubeYouTube
to hackмотыга the brainsмозги of very smallмаленький childrenдети
59
166989
3985
И их же используют на YouTube,
чтобы промывать мозги маленьким детям,
03:02
in returnвернуть for advertisingреклама revenueдоход.
60
170998
1958
получая взамен доходы от рекламы.
03:06
At leastнаименее, I hopeнадежда
that's what they're doing.
61
174346
2001
Ну, я надеюсь, что они делают именно это.
03:08
I hopeнадежда that's what they're doing it for,
62
176371
1955
Точнее, для этого.
Ведь на YouTube можно получать
доход от рекламы более простыми способами.
03:10
because there's easierПолегче waysпути
of makingизготовление adобъявление revenueдоход on YouTubeYouTube.
63
178350
5308
03:15
You can just make stuffматериал up or stealукрасть stuffматериал.
64
183682
2332
Можно просто что-то придумывать
или его воровать.
03:18
So if you searchпоиск for really
popularпопулярный kids'Дети' cartoonsмультфильмы
65
186038
2635
И если забить в поисковик
популярные мультики для детей,
«Свинку Пеппу» или «Щенячий патруль»,
03:20
like "PeppaPeppa Pigсвинья" or "PawЛапа Patrolпатрульный,"
66
188697
1654
03:22
you'llВы будете find there's millionsмиллионы and millionsмиллионы
of these onlineонлайн as well.
67
190375
3147
можно увидеть, что их тоже
миллионы в онлайн-доступе.
Разумеется, большинство из них
размещены не создателями оригиналов.
03:25
Of courseкурс, mostбольшинство of them aren'tне postedотправил
by the originalоригинал contentсодержание creatorsсоздатели.
68
193546
3352
Их выкладывают с сотни
различных случайных аккаунтов,
03:28
They come from loadsгрузы and loadsгрузы
of differentдругой randomслучайный accountsСчета,
69
196922
2999
и почти невозможно узнать,
кто именно их выкладывает
03:31
and it's impossibleневозможно to know
who'sкто postingпроводка them
70
199945
2240
и каковы их цели.
03:34
or what theirих motivesмотивы mightмог бы be.
71
202209
1822
03:36
Does that soundзвук kindсвоего рода of familiarзнакомые?
72
204428
1930
Звучит знакомо?
03:38
Because it's exactlyв точку the sameодна и та же mechanismмеханизм
73
206382
1980
Потому что именно по такому механизму
03:40
that's happeningпроисходит acrossчерез mostбольшинство
of our digitalцифровой servicesСервисы,
74
208386
2600
работает большинство цифровых служб,
03:43
where it's impossibleневозможно to know
where this informationИнформация is comingприход from.
75
211010
3207
где невозможно отследить
источник информации.
Это как фальшивые новости для детей,
03:46
It's basicallyв основном fakeне настоящие newsНовости for kidsДети,
76
214241
1829
03:48
and we're trainingобучение them from birthрождение
77
216094
2161
и мы с рождения приучаем их
жать на первую попавшуюся ссылку,
03:50
to clickщелчок on the very first linkссылка
that comesвыходит alongвдоль,
78
218279
2506
03:52
regardlessнесмотря на of what the sourceисточник is.
79
220809
1953
не смотря на её источник.
03:54
That's doesn't seemказаться like
a terriblyужасно good ideaидея.
80
222786
2603
Это не кажется такой уж хорошей идеей.
03:58
Here'sВот anotherдругой thing
that's really bigбольшой on kids'Дети' YouTubeYouTube.
81
226399
2710
Есть ещё одна очень популярная
вещь для детей на YouTube.
И это «Песня семьи пальчиков».
04:01
This is calledназывается the "FingerПалец Familyсемья Songпесня."
82
229133
1928
Я только что услышал стон в зале.
04:03
I just heardуслышанным someoneкто то groanстон
in the audienceаудитория.
83
231085
2018
Вот эта «Песня семьи пальчиков».
04:05
This is the "FingerПалец Familyсемья Songпесня."
84
233127
1624
Это самое раннее, что мне удалось найти.
04:06
This is the very first one I could find.
85
234775
1930
Видео загружено в 2007,
и у него только 200 000 просмотров,
04:08
It's from 2007, and it only has
200,000 viewsПросмотры,
86
236729
2829
что просто ничто в данном случае.
04:11
whichкоторый is, like, nothing in this gameигра.
87
239582
1976
04:13
But it has this insanelyдушевнобольно earwormyearwormy tuneмелодия,
88
241582
2852
Но у неё дико навязчивый мотив,
и я не буду её включать,
04:16
whichкоторый I'm not going to playиграть to you,
89
244458
1682
потому что она въестся в ваш мозг,
04:18
because it will searвысушивать itselfсам
into your brainголовной мозг
90
246164
2008
04:20
in the sameодна и та же way that
it searedпритупленный itselfсам into mineмой,
91
248196
2395
точно так же, как въелась в мой,
а я не буду так с вами поступать.
04:22
and I'm not going to do that to you.
92
250615
1770
Но, как и яйца с сюрпризом,
04:24
But like the surpriseсюрприз eggsяйца,
93
252409
1344
она влезла в головы детям
04:25
it's got insideвнутри kids'Дети' headsруководители
94
253777
2164
и застряла там.
04:27
and addictedсклонный them to it.
95
255965
1607
И спустя несколько лет
эти песни семьи пальчиков
04:29
So withinв a fewмало yearsлет,
these fingerПалец familyсемья videosвидео
96
257596
2531
начали появляться везде.
04:32
startНачало appearingпоявляясь everywhereвезде,
97
260151
1303
Есть версии на разных языках
04:33
and you get versionsверсии
in differentдругой languagesязыки
98
261478
2029
с разными персонажами мультиков,
04:35
with popularпопулярный kids'Дети' cartoonsмультфильмы usingс помощью foodпитание
99
263531
2121
снятые при помощи еды
или каких угодно материалов,
04:37
or, franklyОткровенно, usingс помощью whateverбез разницы kindсвоего рода
of animationанимация elementsэлементы
100
265676
2550
которые есть под рукой.
04:40
you seemказаться to have lyingлежащий around.
101
268250
2252
04:43
And onceодин раз again, there are millionsмиллионы
and millionsмиллионы and millionsмиллионы of these videosвидео
102
271002
5197
И опять-таки, есть немыслимое,
просто невероятное количество таких видео
04:48
availableдоступный onlineонлайн in all of these
kindсвоего рода of insaneненормальный combinationsкомбинации.
103
276223
3435
в открытом доступе
в немыслимых комбинациях.
04:51
And the more time
you startНачало to spendпроводить with them,
104
279682
2228
И чем больше времени вы с ними проводите,
тем больше чувствуете, что, возможно,
начинаете сходить с ума.
04:53
the crazierбезумнее and crazierбезумнее
you startНачало to feel that you mightмог бы be.
105
281934
3694
04:57
And that's where I
kindсвоего рода of launchedзапущенный into this,
106
285652
3333
Тут-то я и задумался над этим,
05:01
that feelingчувство of deepглубоко strangenessстранность
and deepглубоко lackотсутствие of understandingпонимание
107
289009
3666
над этим чувством полного отчуждения
и полнейшего непонимания того,
как было создано всё,
что мне показывают вокруг.
05:04
of how this thing was constructedпостроенный
that seemsкажется to be presentedпредставленный around me.
108
292699
4175
Так как невозможно узнать,
откуда все эти видео берутся.
05:08
Because it's impossibleневозможно to know
where these things are comingприход from.
109
296898
3167
Например, кто их делает?
05:12
Like, who is makingизготовление them?
110
300089
1241
Некоторые из них, оказывается, сняты
группой профессиональных мультипликаторов.
05:13
Some of them appearпоявиться to be madeсделал
of teamsкоманды of professionalпрофессиональный animatorsаниматоры.
111
301354
3143
Некоторые просто в случайном порядке
подбираются программой.
05:16
Some of them are just randomlyслучайно
assembledсобранный by softwareпрограммного обеспечения.
112
304521
2882
Некоторые созданы вроде бы адекватными
детскими аниматорами.
05:19
Some of them are quiteдовольно wholesome-lookingздоровый вид
youngмолодой kids'Дети' entertainersконферансье.
113
307427
4253
А некоторые придумали люди,
05:23
And some of them are from people
114
311704
1552
которых, очевидно, вообще нельзя
подпускать к детям.
05:25
who really clearlyявно
shouldn'tне должен be around childrenдети at all.
115
313280
3007
(Смех)
05:28
(LaughterСмех)
116
316311
1615
05:30
And onceодин раз again, this impossibilityневозможность
of figuringвычисляя out who'sкто makingизготовление this stuffматериал --
117
318987
4640
И опять-таки, эта невозможность понять,
кто создаёт данный контент —
какой-то бот?
05:35
like, this is a botбот?
118
323651
1156
человек? тролль?
05:36
Is this a personчеловек? Is this a trollтролль?
119
324831
2647
05:39
What does it mean
that we can't tell the differenceразница
120
327502
2382
О чём говорит то, что мы уже
не можем увидеть разницу
05:41
betweenмежду these things anymoreбольше не?
121
329908
1583
между ними?
И не кажется ли вам теперь
эта неопределённость знакомой?
05:43
And again, doesn't that uncertaintyнеопределенность
feel kindсвоего рода of familiarзнакомые right now?
122
331515
4848
05:50
So the mainглавный way people get viewsПросмотры
on theirих videosвидео --
123
338145
2580
Основной способ получения
просмотров своих видео —
05:52
and rememberзапомнить, viewsПросмотры mean moneyДеньги --
124
340749
1707
и помните, просмотры значат деньги —
05:54
is that they stuffматериал the titlesназвания
of these videosвидео with these popularпопулярный termsсроки.
125
342480
4742
это напихать в название видео
популярные словечки.
05:59
So you take, like, "surpriseсюрприз eggsяйца"
126
347246
1687
Например, берёте «яйца с сюрпризом»
и добавляете «Щенячий патруль»,
«пасхальные яйца»
06:00
and then you addДобавить
"PawЛапа Patrolпатрульный," "EasterПасха eggяйцо,"
127
348957
2066
06:03
or whateverбез разницы these things are,
128
351047
1393
или вообще что угодно.
Пишете всё это в названии,
06:04
all of these wordsслова from other
popularпопулярный videosвидео into your titleзаглавие,
129
352464
2893
пока это не превратится
в бессмысленный набор слов,
06:07
untilдо you endконец up with this kindсвоего рода of
meaninglessбессмысленный mashзатор of languageязык
130
355381
2968
06:10
that doesn't make senseсмысл to humansлюди at all.
131
358373
2498
который совершенно не понятен людям.
06:12
Because of courseкурс it's only really
tinyкрошечный kidsДети who are watchingнаблюдение your videoвидео,
132
360895
3546
Потому что, разумеется, смотреть
это видео будут лишь маленькие дети,
а что они вообще понимают?
06:16
and what the hellад do they know?
133
364465
1827
06:18
Your realреальный audienceаудитория
for this stuffматериал is softwareпрограммного обеспечения.
134
366316
3007
Ваша настоящая аудитория
в таких случаях — это программы, ПО.
06:21
It's the algorithmsалгоритмы.
135
369347
1156
Это алгоритмы.
Это софт, который использует YouTube,
06:22
It's the softwareпрограммного обеспечения that YouTubeYouTube usesиспользования
136
370527
1855
06:24
to selectВыбрать whichкоторый videosвидео
are like other videosвидео,
137
372406
2483
чтобы отбирать видео,
которые похожи на другие видео,
чтобы делать их популярными,
ставить в рекомендованное.
06:26
to make them popularпопулярный,
to make them recommendedрекомендуемые.
138
374913
2243
06:29
And that's why you endконец up with this
kindсвоего рода of completelyполностью meaninglessбессмысленный mashзатор,
139
377180
3461
И поэтому вы видите
такую бессмысленную кашу
как в названии, так и в содержании.
06:32
bothи то и другое of titleзаглавие and of contentсодержание.
140
380665
2071
06:35
But the thing is, you have to rememberзапомнить,
141
383792
1894
Но вам нужно помнить,
что за этой оптимизированной
для алгоритмов системой стоят люди.
06:37
there really are still people withinв
this algorithmicallyалгоритмически optimizedоптимизированный systemсистема,
142
385710
4478
06:42
people who are kindсвоего рода
of increasinglyвсе больше и больше forcedпринудительный to actакт out
143
390212
2790
Люди, которым приходится разбираться
06:45
these increasinglyвсе больше и больше bizarreэксцентричный
combinationsкомбинации of wordsслова,
144
393026
3066
в этом диком наборе слов,
06:48
like a desperateотчаянный improvisationимпровизация artistхудожник
respondingотвечать на запросы to the combinedкомбинированный screamsкрики
145
396116
5173
словно музыкант-импровизатор,
который отвечает на крики
06:53
of a millionмиллиона toddlersмалыши at onceодин раз.
146
401313
2203
миллионов малышей.
06:57
There are realреальный people
trappedловушке withinв these systemsсистемы,
147
405168
2468
В эти системы впутаны настоящие люди,
06:59
and that's the other deeplyглубоко strangeстранный thing
about this algorithmicallyалгоритмически drivenуправляемый cultureкультура,
148
407660
4055
и это уже другой невероятно странный
аспект этой культуры алгоритмов.
Потому что, даже если вы человек,
07:03
because even if you're humanчеловек,
149
411739
1381
вам приходится вести себя как машина,
07:05
you have to endконец up behavingвести like a machineмашина
150
413144
2145
чтобы просто выжить.
07:07
just to surviveуцелеть.
151
415313
1800
Кроме того, по ту сторону экрана
07:09
And alsoтакже, on the other sideбоковая сторона of the screenэкран,
152
417137
2100
всё-таки сидят маленькие дети.
07:11
there still are these little kidsДети
watchingнаблюдение this stuffматериал,
153
419261
2947
Их как заворожённых удерживают
эти странные механизмы.
07:14
stuckзастрял, theirих fullполный attentionвнимание grabbedсхватился
by these weirdстранный mechanismsмеханизмы.
154
422232
4206
И большинству из них слишком рано
даже пользоваться этим сайтом.
07:18
And mostбольшинство of these kidsДети are too smallмаленький
to even use a websiteВеб-сайт.
155
426768
2798
07:21
They're just kindсвоего рода of hammeringчеканка
on the screenэкран with theirих little handsРуки.
156
429590
3276
Они просто молотят по экрану
своими ручками.
Но благодаря автовоспроизведению
07:24
And so there's autoplayАвтовоспроизведение,
157
432890
1217
эти видео проигрываются
снова и снова по кругу
07:26
where it just keepsдержит playingиграть these videosвидео
over and over and over in a loopпетля,
158
434131
3579
долгие, долгие часы.
07:29
endlesslyбесконечно for hoursчасов and hoursчасов at a time.
159
437734
2059
07:31
And there's so much weirdnessстранность
in the systemсистема now
160
439817
2843
Сейчас у этой системы
есть такая особенность,
что автовоспроизведение заводит вас
в крайне странные места.
07:34
that autoplayАвтовоспроизведение takes you
to some prettyСимпатичная strangeстранный placesмест.
161
442684
3009
Вот так через цепочку в десяток видео
07:37
This is how, withinв a dozenдюжина stepsмеры,
162
445717
2488
вы можете от милого видео
с паровозиком, обучающим счёту,
07:40
you can go from a cuteмилый videoвидео
of a countingподсчет trainпоезд
163
448229
3158
попасть на мастурбирующего Микки Мауса.
07:43
to masturbatingмастурбировать MickeyМикки Mouseмышь.
164
451411
2442
07:46
Yeah. I'm sorry about that.
165
454529
2288
Прошу прощения за это.
Дальше ещё хуже.
07:48
This does get worseхуже.
166
456841
1700
07:50
This is what happensпроисходит
167
458565
1282
Вот что происходит,
07:51
when all of these differentдругой keywordsключевые слова,
168
459871
3086
когда куча разных ключевых слов,
07:54
all these differentдругой piecesкуски of attentionвнимание,
169
462981
2461
куча всяких завлекалочек
и эта бессмысленная генерация контента
07:57
this desperateотчаянный generationпоколение of contentсодержание,
170
465466
2807
08:00
all comesвыходит togetherвместе into a singleОдин placeместо.
171
468297
2582
оказываются в одном месте.
08:03
This is where all those deeplyглубоко weirdстранный
keywordsключевые слова come home to roostнасест.
172
471871
4472
Вот, где гнездятся все эти
до ужаса странные ключевые слова.
Вы скрещиваете видео про семью пальчиков
08:08
You cross-breedкросс порода the fingerПалец familyсемья videoвидео
173
476367
2391
с кадрами из фильмов про супергероев,
08:10
with some live-actionжить действия superheroсупергероя stuffматериал,
174
478782
2088
08:12
you addДобавить in some weirdстранный,
trollishtrollish in-jokesшутки or something,
175
480894
3256
добавляете странные локальные шутки,
и внезапно оказываетесь
в наистраннейшем месте.
08:16
and suddenlyвдруг, внезапно, you come
to a very weirdстранный placeместо indeedв самом деле.
176
484174
3366
08:19
The stuffматериал that tendsкак правило, to upsetрассториться parentsродители
177
487564
2113
Контент, напрягающий родителей,
обычно с наличием жестоких
или сексуальных сцен, так?
08:21
is the stuffматериал that has kindсвоего рода of violentнасильственный
or sexualполовой contentсодержание, right?
178
489701
3331
08:25
Children'sдетский cartoonsмультфильмы gettingполучение assaultedнападению,
179
493056
2822
Персонажей детских мультиков насилуют,
08:27
gettingполучение killedубитый,
180
495902
2018
убивают,
08:29
weirdстранный pranksшутки that actuallyна самом деле
genuinelyнеподдельно terrifyустрашать childrenдети.
181
497944
3343
издеваются таким образом,
что это пугает детей.
08:33
What you have is softwareпрограммного обеспечения pullingтянущий in
all of these differentдругой influencesвлияет
182
501311
3675
А происходит это потому,
что программа использует всё это,
чтобы автоматически генерировать
самые страшные детские кошмары.
08:37
to automaticallyавтоматически generateгенерировать
kids'Дети' worstнаихудший nightmaresкошмары.
183
505010
2961
08:39
And this stuffматериал really, really
does affectаффект smallмаленький childrenдети.
184
507995
2701
И такой контент действительно
оказывает влияние на детей.
08:42
ParentsРодители reportдоклад theirих childrenдети
beingявляющийся traumatizedтравмированный,
185
510720
2866
Родители жалуются на то,
что их дети получают психотравмы,
боятся темноты,
08:45
becomingстановление afraidбоюсь of the darkтемно,
186
513610
1392
боятся своих любимых персонажей мультиков.
08:47
becomingстановление afraidбоюсь of theirих favoriteлюбимый
cartoonмультфильм charactersперсонажи.
187
515026
3050
08:50
If you take one thing away from this,
it's that if you have smallмаленький childrenдети,
188
518524
3611
Если вы что-то отсюда и вынесете —
если у вас маленькие дети,
держите их подальше от YouTube.
08:54
keep them the hellад away from YouTubeYouTube.
189
522159
1996
08:56
(ApplauseАплодисменты)
190
524743
3949
(Аплодисменты)
09:02
But the other thing, the thing
that really getsполучает to me about this,
191
530504
3096
Но с другой стороны, меня очень беспокоит,
09:05
is that I'm not sure we even really
understandПонимаю how we got to this pointточка.
192
533624
4629
что мы даже не знаем,
как мы дошли до такого.
09:10
We'veУ нас takenвзятый all of this influenceвлияние,
all of these things,
193
538951
2931
Мы взяли все эти вещи
09:13
and mungedраспознав them togetherвместе in a way
that no one really intendedпредназначена.
194
541906
2953
и совместили их так,
как никто из нас не желал.
Но так мы строим весь мир.
09:16
And yetвсе же, this is alsoтакже the way
that we're buildingздание the entireвсе worldМир.
195
544883
3156
09:20
We're takingпринятие all of this dataданные,
196
548063
1773
Мы берём все эти данные,
09:21
a lot of it badПлохо dataданные,
197
549860
1447
очень много плохих данных,
09:23
a lot of historicalисторический dataданные
fullполный of prejudiceпредубеждение,
198
551331
3029
много исторических данных,
переполненных предрассудками,
09:26
fullполный of all of our worstнаихудший
impulsesимпульсов of historyистория,
199
554384
2837
со всеми нашими худшими
мотивами в истории,
09:29
and we're buildingздание that
into hugeогромный dataданные setsнаборы
200
557245
2049
и мы строим из этого огромные базы данных,
а затем их автоматизируем.
09:31
and then we're automatingАвтоматизация it.
201
559318
1423
И всё это выливается в кредитные отчёты,
09:32
And we're mungingmunging it togetherвместе
into things like creditкредит reportsотчеты,
202
560765
3502
09:36
into insuranceстрахование premiumsпремии,
203
564291
1634
страховые платежи,
09:37
into things like predictiveпрогностическое
policingполицейская systemsсистемы,
204
565949
2693
профилактические системы надзора,
09:40
into sentencingвынесение приговора guidelinesметодические рекомендации.
205
568666
1762
директивы по назначению наказаний.
09:42
This is the way we're actuallyна самом деле
constructingстроительство the worldМир todayCегодня
206
570452
2821
Вот как мы строим наш мир сегодня
на основе этих данных.
09:45
out of this dataданные.
207
573297
1151
09:46
And I don't know what's worseхуже,
208
574472
1698
И я не знаю, что хуже:
09:48
that we builtпостроен a systemсистема
that seemsкажется to be entirelyполностью optimizedоптимизированный
209
576194
3228
то, что мы строим полностью
оптимизированные системы
09:51
for the absoluteабсолютный worstнаихудший aspectsаспекты
of humanчеловек behaviorповедение,
210
579446
2808
для худших аспектов
человеческого поведения,
09:54
or that we seemказаться
to have doneсделанный it by accidentавария,
211
582278
2425
или то, что мы делаем это непредумышленно,
09:56
withoutбез even realizingпонимая
that we were doing it,
212
584727
2207
не отдавая отчёт своим действиям,
потому что не до конца понимаем
системы, которые построили,
09:58
because we didn't really understandПонимаю
the systemsсистемы that we were buildingздание,
213
586958
3382
10:02
and we didn't really understandПонимаю
how to do anything differentlyиначе with it.
214
590364
3683
и теперь мы не знаем, как что-то изменить.
10:06
There's a coupleпара of things I think
that really seemказаться to be drivingвождение this
215
594769
3365
Есть две причины, по которым,
как мне кажется, на YouTube
всё есть так, как есть.
10:10
mostбольшинство fullyв полной мере on YouTubeYouTube,
216
598158
1189
И первая причина — это реклама,
10:11
and the first of those is advertisingреклама,
217
599371
1827
что по сути является
монетаризацией внимания,
10:13
whichкоторый is the monetizationмонетизация of attentionвнимание
218
601222
2837
10:16
withoutбез any realреальный other variablesпеременные at work,
219
604083
3136
никаких других целей она не преследует
10:19
any careзабота for the people who are
actuallyна самом деле developingразвивающийся this contentсодержание,
220
607243
3885
и не заботится о людях, в действительности
разрабатывающих контент.
10:23
the centralizationЦентрализация of the powerмощность,
the separationразделение of those things.
221
611152
3636
Никакой централизации власти,
никакого разграничения.
10:26
And I think howeverОднако you feel
about the use of advertisingреклама
222
614812
3144
Как бы вы ни относились
к использованию рекламы
для поддержки продуктов,
10:29
to kindсвоего рода of supportподдержка stuffматериал,
223
617980
1238
то, что кто-то, не понимая
работы алгоритма, надеется,
10:31
the sightвзгляд of grownвзрослый menлюди in diapersподгузники
rollingпрокатка around in the sandпесок
224
619242
3067
10:34
in the hopeнадежда that an algorithmалгоритм
that they don't really understandПонимаю
225
622333
2983
что валяющиеся в песке
взрослые мужики в подгузниках
принесут им деньги,
10:37
will give them moneyДеньги for it
226
625340
1315
наводит на мысли, что мы, вероятно,
10:38
suggestsпредполагает that this
probablyвероятно isn't the thing
227
626679
2037
не на этом должны основывать
наше общество и культуру
10:40
that we should be basingбазирование
our societyобщество and cultureкультура uponна,
228
628740
2563
и не так их спонсировать.
10:43
and the way in whichкоторый
we should be fundingфинансирование it.
229
631327
2160
10:45
And the other thing that's kindсвоего рода of
the majorглавный driverВодитель of this is automationавтоматизация,
230
633511
3519
Вторая причина, являющаяся основной, —
это автоматизация,
которая всё это распределяет,
10:49
whichкоторый is the deploymentразвертывание
of all of this technologyтехнологии
231
637054
2329
как только оно появляется,
без какого-либо надзора.
10:51
as soonскоро as it arrivesприбывает,
withoutбез any kindсвоего рода of oversightнадзор,
232
639407
2521
А когда оно становится доступным,
10:53
and then onceодин раз it's out there,
233
641952
1412
мы как бы разводим руками и говорим:
«Это не мы, это всё технологии».
10:55
kindсвоего рода of throwingбросание up our handsРуки and going,
"Hey, it's not us, it's the technologyтехнологии."
234
643388
3843
Или: «Мы тут ни при чём».
10:59
Like, "We're not involvedучаствует in it."
235
647255
1642
Так не пойдёт,
11:00
That's not really good enoughдостаточно,
236
648921
1767
потому что всё это не только
подчиняется алгоритмам,
11:02
because this stuffматериал isn't
just algorithmicallyалгоритмически governedпод управлением,
237
650712
2710
но и ими контролируется.
11:05
it's alsoтакже algorithmicallyалгоритмически policedохраняется.
238
653446
2498
11:07
When YouTubeYouTube first startedначал
to payплатить attentionвнимание to this,
239
655968
2848
Когда в YouTube впервые обратили
внимание на это,
11:10
the first thing they said
they'dони do about it
240
658840
2087
сначала они сказали,
что разработают новые алгоритмы
машинного обучения,
11:12
was that they'dони deployразвертывание
better machineмашина learningобучение algorithmsалгоритмы
241
660951
2695
чтобы следить за контентом.
11:15
to moderateумеренный the contentсодержание.
242
663670
1329
11:17
Well, machineмашина learningобучение,
as any expertэксперт in it will tell you,
243
665023
3485
Машинное обучение,
по словам любого эксперта, —
11:20
is basicallyв основном what we'veмы в startedначал to call
244
668532
1896
это, по сути, то, что мы начали называть
11:22
softwareпрограммного обеспечения that we don't really
understandПонимаю how it worksработает.
245
670452
2588
софтом, принцип работы
которого мы не понимаем.
11:25
And I think we have
enoughдостаточно of that alreadyуже.
246
673064
3983
И я считаю, что с нас хватит этого.
Мы не должны перекладывать
на искусственный интеллект решение,
11:29
We shouldn'tне должен be leavingуход
this stuffматериал up to AIискусственный интеллект to decideпринимать решение
247
677071
3166
что приемлемо, а что нет,
11:32
what's appropriateподходящее or not,
248
680261
1251
ведь мы знаем, что будет.
11:33
because we know what happensпроисходит.
249
681536
1436
Он станет подвергать цензуре
и другие вещи:
11:34
It'llЭто будет startНачало censoringцензура other things.
250
682996
1688
видео гомосексуального содержания,
11:36
It'llЭто будет startНачало censoringцензура queerстранный contentсодержание.
251
684708
1783
законные публичные выступления.
11:38
It'llЭто будет startНачало censoringцензура
legitimateзаконный publicобщественности speechречь.
252
686515
2237
То, что дозволено в этом плане
11:40
What's allowedпозволил in these discoursesдискурс,
253
688776
1925
не должно решаться
непостижимыми системами.
11:42
it shouldn'tне должен be something
that's left up to unaccountableнеобъяснимый systemsсистемы.
254
690725
3097
Это должно решаться
в ходе беседы между всеми нами.
11:45
It's partчасть of a discussionобсуждение
all of us should be havingимеющий.
255
693846
2947
Но я напомню,
11:48
But I'd leaveоставлять a reminderнапоминание
256
696817
1308
что альтернатива тоже неблагоприятна.
11:50
that the alternativeальтернатива isn't
very pleasantприятный, eitherили.
257
698149
2753
11:52
YouTubeYouTube alsoтакже announcedобъявленный recentlyв последнее время
258
700926
1535
YouTube недавно объявил,
что выпустит версию приложения для детей,
11:54
that they're going to releaseвыпуск
a versionверсия of theirих kids'Дети' appприложение
259
702485
2767
которое будет полностью
проверяться людьми.
11:57
that would be entirelyполностью
moderatedМодератор by humansлюди.
260
705276
2407
12:00
Facebookfacebook -- ZuckerbergЦукерберг said
much the sameодна и та же thing at Congressконгресс,
261
708134
3618
Цукерберг в Конгрессе сказал,
что в Facebook будет то же самое,
12:03
when pressedпрессованный about how they
were going to moderateумеренный theirих stuffматериал.
262
711776
2987
когда его спросили, как будет
проверяться их контент.
Он сказал, что это поручат людям.
12:06
He said they'dони have humansлюди doing it.
263
714787
1747
И имеют в виду они то,
12:08
And what that really meansозначает is,
264
716558
1459
что первыми видео увидят не дети,
12:10
insteadвместо of havingимеющий toddlersмалыши beingявляющийся
the first personчеловек to see this stuffматериал,
265
718041
3223
а сомнительные работники
с низкой зарплатой,
12:13
you're going to have underpaidнизкооплачиваемый,
precariousненадежный contractконтракт workersрабочие
266
721288
2788
без должной поддержки
психического здоровья,
12:16
withoutбез properправильный mentalумственный healthздоровье supportподдержка
267
724100
1726
которых эти видео также травмируют.
12:17
beingявляющийся damagedповрежденный by it as well.
268
725850
1376
(Смех)
12:19
(LaughterСмех)
269
727250
1096
И я думаю, что все мы можем
достичь гораздо большего.
12:20
And I think we can all do
quiteдовольно a lot better than that.
270
728370
2601
(Аплодисменты)
12:22
(ApplauseАплодисменты)
271
730995
2499
12:26
The thought, I think, that bringsприносит those
two things togetherвместе, really, for me,
272
734068
4613
На мой взгляд, эти вещи
объединяет между собой
12:30
is agencyагентство.
273
738705
1420
наличие посредника.
12:32
It's like, how much do we really
understandПонимаю -- by agencyагентство, I mean:
274
740149
3157
То есть то, что мы понимаем
через посредника.
Иными словами, то, как мы понимаем,
как вести себя в своих интересах.
12:35
how we know how to actакт
in our ownсвоя bestЛучший interestsинтересы.
275
743330
4390
12:39
WhichКоторый -- it's almostпочти impossibleневозможно to do
276
747744
1787
А это сделать почти невозможно
в условиях тех систем, которые
мы не полностью понимаем.
12:41
in these systemsсистемы that we don't
really fullyв полной мере understandПонимаю.
277
749555
3485
12:45
InequalityНеравенство of powerмощность
always leadsприводит to violenceнасилие.
278
753064
3071
Неравное распределение власти
всегда приводит к насилию.
И мы видим, что с этими системами
12:48
And we can see insideвнутри these systemsсистемы
279
756159
1685
неравный уровень понимания
приводит к тому же.
12:49
that inequalityнеравенство of understandingпонимание
does the sameодна и та же thing.
280
757868
2611
12:52
If there's one thing that we can do
to startНачало to improveулучшать these systemsсистемы,
281
760503
3779
Если мы как-то и можем
улучшить эти системы,
12:56
it's to make them more legibleразборчивый
to the people who use them,
282
764306
2718
то только сделав их
понятнее пользователям,
чтобы каждый из нас имел представление
12:59
so that all of us have
a commonобщий understandingпонимание
283
767048
2196
о том, что там на самом деле происходит.
13:01
of what's actuallyна самом деле going on here.
284
769268
1851
13:03
The thing, thoughхоть, I think
mostбольшинство about these systemsсистемы
285
771970
2968
Однако, я думаю, что основное здесь то,
13:06
is that this isn't, as I hopeнадежда
I've explainedобъяснил, really about YouTubeYouTube.
286
774962
3857
что эти системы, как я, надеюсь, объяснил,
касаются не конкретно YouTube.
13:10
It's about everything.
287
778843
1312
Они касаются всего.
13:12
These issuesвопросы of accountabilityподотчетность and agencyагентство,
288
780179
2444
Проблемы контроля и посредничества,
13:14
of opacityпомутнение and complexityсложность,
289
782647
2225
неясности и сложности,
13:16
of the violenceнасилие and exploitationэксплуатация
that inherentlyпо существу resultsРезультаты
290
784896
3177
насилия и эксплуатации,
которая, по сути, происходит
из-за концентрации власти
в нескольких руках —
13:20
from the concentrationконцентрация
of powerмощность in a fewмало handsРуки --
291
788097
2794
13:22
these are much, much largerбольше issuesвопросы.
292
790915
2579
это очень серьёзные проблемы.
13:26
And they're issuesвопросы not just of YouTubeYouTube
and not just of technologyтехнологии in generalГенеральная,
293
794395
3687
И это проблемы не только YouTube
и не только технологий в целом,
13:30
and they're not even newновый.
294
798106
1265
они даже не новы.
Они существовали годами.
13:31
They'veУ них есть been with us for agesвозраст.
295
799395
1461
13:32
But we finallyв конце концов builtпостроен this systemсистема,
this globalГлобальный systemсистема, the internetинтернет,
296
800880
4390
Но мы наконец создали эту систему,
всемирную сеть — интернет,
13:37
that's actuallyна самом деле showingпоказ them to us
in this extraordinaryнеобычайный way,
297
805294
3019
которая представляет их нам
так невероятно,
что их стало невозможно отрицать.
13:40
makingизготовление them undeniableбесспорный.
298
808337
1547
13:41
TechnologyТехнологии has this extraordinaryнеобычайный capacityвместимость
299
809908
2820
Технологии обладают
необычайной возможностью
13:44
to bothи то и другое instantiateэкземпляр and continueПродолжать
300
812752
3973
как поддерживать, так и развивать
13:48
all of our mostбольшинство extraordinaryнеобычайный,
oftenдовольно часто hiddenскрытый desiresжелания and biasesуклоны
301
816749
4248
все наши самые странные
и тайные желания и склонности,
13:53
and encodingкодирование them into the worldМир,
302
821021
1866
раскрывать их всему миру,
13:54
but it alsoтакже writesпишет them down
so that we can see them,
303
822911
3474
а также фиксирует их так,
что мы их замечаем
13:58
so that we can't pretendделать вид
they don't existсуществовать anymoreбольше не.
304
826409
3330
и больше не можем делать вид,
будто их не существует.
14:01
We need to stop thinkingмышление about technologyтехнологии
as a solutionрешение to all of our problemsпроблемы,
305
829763
4319
Мы должны перестать видеть в технологиях
решение всех наших проблем
и вместо этого относиться к ним
как к средству выявления этих проблем,
14:06
but think of it as a guideруководство
to what those problemsпроблемы actuallyна самом деле are,
306
834106
3757
14:09
so we can startНачало thinkingмышление
about them properlyдолжным образом
307
837887
2144
чтобы можно было размышлять
в правильном ключе
14:12
and startНачало to addressадрес them.
308
840055
1766
и начать их решать.
14:13
Thank you very much.
309
841845
1335
Спасибо огромное.
(Аплодисменты)
14:15
(ApplauseАплодисменты)
310
843204
5192
14:21
Thank you.
311
849733
1188
Спасибо.
(Аплодисменты)
14:22
(ApplauseАплодисменты)
312
850945
2869
14:28
HelenХелен WaltersWalters: JamesДжеймс, thank you
for comingприход and givingдающий us that talk.
313
856839
3178
Хелен Уолтерс: Джеймс, спасибо,
что пришёл и выступил у нас.
Что замечательно,
14:32
So it's interestingинтересно:
314
860041
1189
когда на ум приходят фильмы,
в которых роботы господствуют над миром,
14:33
when you think about the filmsфильмы where
the roboticроботизированный overlordsповелители take over,
315
861254
3495
всё это кажется более привлекательным,
чем то, о чём ты рассказал.
14:36
it's all a bitнемного more glamorousобаятельный
than what you're describingописывающее.
316
864773
3279
14:40
But I wonderзадаваться вопросом -- in those filmsфильмы,
you have the resistanceсопротивление mountingмонтаж.
317
868076
3749
Но меня волнует вот что: в этих фильмах
всегда есть какое-то сопротивление.
Есть ли сопротивление в данном случае?
14:43
Is there a resistanceсопротивление mountingмонтаж
towardsв направлении this stuffматериал?
318
871849
3216
14:47
Do you see any positiveположительный signsзнаки,
greenзеленый shootsпобеги of resistanceсопротивление?
319
875089
3796
Видишь ли ты какие-то зачатки
и предзнаменования сопротивления?
14:52
JamesДжеймс BridleУздечка: I don't know
about directнепосредственный resistanceсопротивление,
320
880507
2416
Джеймс Брайдл: Не знаю насчёт
прямого сопротивления,
14:54
because I think this stuffматериал
is superсупер long-termдолгосрочный.
321
882947
2264
ещё слишком рано для этого.
Думаю, это глубоко заложено
в нашей культуре.
14:57
I think it's bakedзапеченный into cultureкультура
in really deepглубоко waysпути.
322
885235
2510
Моя подруга Элеанор Саитта,
всегда говорит,
14:59
A friendдруг of mineмой,
EleanorЭлеонора SaittaSaitta, always saysговорит
323
887769
2132
15:01
that any technologicalтехнологический problemsпроблемы
of sufficientдостаточно scaleмасштаб and scopeобъем
324
889935
3609
что любая технологическая проблема
глобального масштаба —
15:05
are politicalполитическая problemsпроблемы first of all.
325
893568
2267
это в первую очередь
политическая проблема.
15:07
So all of these things we're workingза работой
to addressадрес withinв this
326
895859
2785
И всё, над чем мы работаем,
нельзя разрешить, просто разработав
улучшенные технологии,
15:10
are not going to be addressedадресованный
just by buildingздание the technologyтехнологии better,
327
898668
3274
необходимо менять общество,
которое эти технологии создаёт.
15:13
but actuallyна самом деле by changingизменения the societyобщество
that's producingпроизводства these technologiesтехнологии.
328
901966
3464
15:17
So no, right now, I think we'veмы в got
a hellад of a long way to go.
329
905454
3027
Так что нет, на данный момент
мы ещё слишком далеки от этого.
Но как я сказал, по-моему, разбирая их,
15:20
But as I said, I think by unpackingраспаковка them,
330
908505
1986
объясняя их, откровенно говоря о них,
15:22
by explainingобъясняя them, by talkingговорящий
about them superсупер honestlyчестно говоря,
331
910515
2697
мы можем по крайней мере
запустить этот процесс.
15:25
we can actuallyна самом деле startНачало
to at leastнаименее beginначать that processобработать.
332
913236
2505
ХУ: Когда ты говоришь о доступности
и цифровой грамотности,
15:27
HWHW: And so when you talk about
legibilityразборчивость and digitalцифровой literacyграмотность,
333
915765
3562
мне трудно представить,
15:31
I find it difficultсложно to imagineпредставить
334
919351
1591
15:32
that we need to placeместо the burdenбремя
of digitalцифровой literacyграмотность on usersпользователи themselvesсамих себя.
335
920966
3680
что мы должны переложить это бремя
на самих пользователей.
Но кто же будет ответственен
за обучение в этом новом мире?
15:36
But whoseчья responsibilityобязанность
is educationобразование in this newновый worldМир?
336
924670
4562
15:41
JBJB: Again, I think this responsibilityобязанность
is kindсвоего рода of up to all of us,
337
929256
3612
ДБ: Опять-таки, думаю,
ответственность лежит на всех нас,
15:44
that everything we do,
everything we buildстроить, everything we make,
338
932892
2984
и всё, что мы делаем, создаём, строим,
должно совершаться при всеобщем согласии,
15:47
needsпотребности to be madeсделал
in a consensualсогласованный discussionобсуждение
339
935900
3692
включая тех, кто избегает
этого обсуждения.
15:51
with everyoneвсе who'sкто avoidingизбегая it;
340
939616
1940
15:53
that we're not buildingздание systemsсистемы
intendedпредназначена to trickтрюк and surpriseсюрприз people
341
941580
4341
И мы должны быть уверены, что
создаём системы не для обмана людей,
15:57
into doing the right thing,
342
945945
2300
чтобы они сделали что нам нужно,
но что люди действительно вовлечены
в процесс обучения на каждом этапе,
16:00
but that they're actuallyна самом деле involvedучаствует
in everyкаждый stepшаг in educatingвоспитания them,
343
948269
3236
16:03
because eachкаждый of these systemsсистемы
is educationalобразования.
344
951529
2278
потому что все эти системы
образовательные.
16:05
That's what I'm hopefulмногообещающий about,
about even this really grimмрачный stuffматериал,
345
953831
3102
Я надеюсь, что даже такая
безжалостная штука,
если правильно к ней
подойти и разобраться,
16:08
that if you can take it
and look at it properlyдолжным образом,
346
956957
2262
несёт в себе элемент обучения,
16:11
it's actuallyна самом деле in itselfсам
a pieceкусок of educationобразование
347
959243
2089
которое позволит вам увидеть,
как сложные системы взаимодействуют
16:13
that allowsпозволяет you to startНачало seeingвидя
how complexсложный systemsсистемы come togetherвместе and work
348
961356
3762
16:17
and maybe be ableв состоянии to applyподать заявление
that knowledgeзнание elsewhereв другом месте in the worldМир.
349
965142
3501
и, возможно, впоследствии применить
эти знания где-нибудь ещё.
ХУ: Джеймс, это такая важная тема,
16:20
HWHW: JamesДжеймс, it's suchтакие
an importantважный discussionобсуждение,
350
968667
2115
и я знаю, что многие здесь
открыты и готовы к разговору,
16:22
and I know manyмногие people here
are really openоткрытый and preparedподготовленный to have it,
351
970806
3227
поэтому спасибо, что начал наше утро.
16:26
so thanksблагодаря for startingначало off our morningутро.
352
974057
1859
ДБ: Спасибо большое. Спасибо.
16:27
JBJB: Thanksблагодаря very much. Cheersура.
353
975940
1400
(Аплодисменты)
16:29
(ApplauseАплодисменты)
354
977364
1651
Translated by Sophia Kuchina
Reviewed by Natalia Ost

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com