ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

Џејмс Бридл: Ужасните детски видеа на Јутјуб - што не е во ред со Интернетот денес

Filmed:
5,404,429 views

Писателот и уметник Џејмс Бридл открива еден мрачен, чуден агол на Интернетот, каде непознати луѓе или групи на Јутјуб ги хакираат мозоците на малите деца, со цел да остварат приходи од реклами. Видеата со „киндер јајца“, песната за "Семејството Прсти" и алгоритмички создадените мешавини на познати ликови од цртаните филмови во насилни ситуации, ги искористуваат и преплашуваат младите умови. Истовремено ни укажуваат каде е тргнато нашето општество предводено од податоци. "Не треба да ја гледаме технологијата како решение на сите наши проблеми, туку како водич при идентификување на тие проблеми, за да можеме да започнеме соодветно да ги разгледуваме и да дејствуваме", вели Бридл.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm James.
0
777
1183
Јас сум Џејмс.
00:13
I'm a writer and artist,
1
1984
1686
Јас сум писател и уметник
00:15
and I make work about technology.
2
3694
2341
и творам на тема технологија.
00:18
I do things like draw life-size outlines
of military drones
3
6454
3911
На пример, цртам контури на воени дронови
во реална големина
00:22
in city streets around the world,
4
10389
1828
над градските улици ширум светот,
00:24
so that people can start to think
and get their heads around
5
12241
2950
со цел луѓето да почнат
да размислуваат и да ги разберат
00:27
these really quite hard-to-see
and hard-to-think-about technologies.
6
15215
3440
овие технологии кои навистина е тешко
да се видат и да се сфатат.
00:31
I make things like neural networks
that predict the results of elections
7
19494
3836
Изработувам, на пример,невронски мрежи
кои предвидуваат резултати
00:35
based on weather reports,
8
23354
1737
врз основа на временска прогрноза,
00:37
because I'm intrigued about
9
25115
1314
бидејќи ме интересираат
00:38
what the actual possibilities
of these weird new technologies are.
10
26453
3924
сите реаални можности кои ги нудат
овие нови и чудни технологии.
00:43
Last year, I built
my own self-driving car.
11
31405
2426
Лани си направив сопствен
самовозечки автомобил.
00:45
But because I don't
really trust technology,
12
33855
2526
Но бидејќи не ѝ верувам сосема
на технологијата,
00:48
I also designed a trap for it.
13
36405
1928
креирав и стапица за неа.
00:50
(Laughter)
14
38777
1086
(смеа)
00:51
And I do these things mostly because
I find them completely fascinating,
15
39887
4298
И ги правам овие работи, пред сѐ,
затоа што сметам дека се чудесни
00:56
but also because I think
when we talk about technology,
16
44209
2602
но исто така бидејќи, мислам,
кога зборуваме за технологија,
00:58
we're largely talking about ourselves
17
46835
2619
во голема мера зборуваме за себе
01:01
and the way that we understand the world.
18
49478
2299
и за начинот на кој го
разбираме светот.
01:03
So here's a story about technology.
19
51801
2442
Па, еве една приказна за технологијата.
01:07
This is a "surprise egg" video.
20
55520
2830
Ова е видео со „киндер јајца“.
01:10
It's basically a video of someone
opening up loads of chocolate eggs
21
58374
3348
Во суштина тоа е видео во кое некој
отвора еден куп чололадни јајца
01:13
and showing the toys inside to the viewer.
22
61746
2126
и ги покажува играчките
кои ги наоѓа во нив.
01:16
That's it. That's all it does
for seven long minutes.
23
64461
2649
Толку. Само тоа се случува
цели долги седум минути.
01:19
And I want you to notice
two things about this.
24
67428
3051
И сакам да забележите две работи
во врска со тоа.
01:22
First of all, this video
has 30 million views.
25
70503
4074
Прво, ова видео има
30 милиони прегледи.
01:26
(Laughter)
26
74601
1275
(смеа)
01:28
And the other thing is,
27
76376
1166
А втората работа е,
01:29
it comes from a channel
that has 6.3 million subscribers,
28
77566
3869
доаѓа од канал кој има
6,3 милиони претплатници,
01:33
that has a total of eight billion views,
29
81459
2680
кој има вкупно
8 милијарди прегледи,
01:36
and it's all just more videos like this --
30
84163
3106
и тоа исти вакви видеа --
01:40
30 million people watching a guy
opening up these eggs.
31
88256
3908
30 милиони луѓе кои гледаат
како некој тип ги отвора овие јајца.
01:44
It sounds pretty weird, but if you search
for "surprise eggs" on YouTube,
32
92188
4481
Звучи чудно, но ако пребарувате
„киндер јајца" нa Јутјуб,
01:48
it'll tell you there's
10 million of these videos,
33
96693
3523
ќе видите дека постојат
10 милиони вакви видеа,
01:52
and I think that's an undercount.
34
100240
1657
во најмала рака.
01:53
I think there's way, way more of these.
35
101921
1897
Мислам дека има многу,
многу повеќе.
01:55
If you keep searching, they're endless.
36
103842
2242
Ако продолжите да барате,
им нема крај.
01:58
There's millions and millions
of these videos
37
106108
2159
Има милиони вакви видеа,
02:00
in increasingly baroque combinations
of brands and materials,
38
108291
3454
во сѐ побарокни комбинации
на брендови и материјали,
02:03
and there's more and more of them
being uploaded every single day.
39
111769
3846
и сѐ повеќе и повеќе од нив
се прикачуваат секој ден.
02:07
Like, this is a strange world. Right?
40
115639
3511
Нели е ова чуден свет?
02:11
But the thing is, it's not adults
who are watching these videos.
41
119174
3383
Но, не се возрасните
тие кои што ги гледаат овие видеа.
02:14
It's kids, small children.
42
122581
2921
Тоа се децата, малите деца.
02:17
These videos are
like crack for little kids.
43
125526
2154
Овие видеа се како дрога
за малите деца.
02:19
There's something about the repetition,
44
127704
2075
Има нешто во тоа повторување,
02:21
the constant little
dopamine hit of the reveal,
45
129803
2468
во постојаната доза на допамин
при откривањето,
02:24
that completely hooks them in.
46
132295
1866
што целосно ги навлекува.
02:26
And little kids watch these videos
over and over and over again,
47
134185
4809
И мaлите деца ги гледаат овие видеа
пак и пак и пак,
02:31
and they do it for hours
and hours and hours.
48
139018
2327
и го прават тоа со часови,
и часови, и часови.
02:33
And if you try and take
the screen away from them,
49
141369
2356
И ако се обидете да ги оттргнете
од екранот,
02:35
they'll scream and scream and scream.
50
143749
1782
тие ќе вриштат и вриштат,
и вриштат.
02:37
If you don't believe me --
51
145555
1262
Ако не ми верувате --
02:38
and I've already seen people
in the audience nodding --
52
146841
2607
а забележав некои од вас во
публиката дека климаат --
02:41
if you don't believe me, find someone
with small children and ask them,
53
149472
3391
ако не ми верувате, најдете некои со
мали деца и прашајте ги,
02:44
and they'll know about
the surprise egg videos.
54
152887
2340
и тие ќе знаат за видеата
со киндер јајца.
02:47
So this is where we start.
55
155251
2070
Па, тука започнуваме.
02:49
It's 2018, and someone, or lots of people,
56
157345
3642
2018 година е, некој,
или многу луѓе,
02:53
are using the same mechanism that, like,
Facebook and Instagram are using
57
161011
3941
го користат истиот механизам којшто
го користат Фејсбук и Инстаграм
02:56
to get you to keep checking that app,
58
164976
1989
да ве наведат постојано
да ги проверувате,
02:58
and they're using it on YouTube
to hack the brains of very small children
59
166989
3985
и го применуваат на YouTube за да ги
хакираат мозоците на многу мали деца
03:02
in return for advertising revenue.
60
170998
1958
со цел да остварат приходи
од реклами.
03:06
At least, I hope
that's what they're doing.
61
174346
2001
Барем, се надевам дека тоа го прават.
03:08
I hope that's what they're doing it for,
62
176371
1955
Се надевам дека заради тоа го прават,
03:10
because there's easier ways
of making ad revenue on YouTube.
63
178350
5308
бидејќи има и полесни начини да се оствари
приход од реклами на YouTube.
03:15
You can just make stuff up or steal stuff.
64
183682
2332
Можете и да измислувате работи,
или да крадете.
03:18
So if you search for really
popular kids' cartoons
65
186038
2635
Ако пребарувате навистина
познати детски цртани:
"Прасето Пепа", "Патрола на Кутриња“,
03:20
like "Peppa Pig" or "Paw Patrol,"
66
188697
1654
03:22
you'll find there's millions and millions
of these online as well.
67
190375
3147
ќе дознаете дека и нив ги има
милиони и милиони на Интернет.
03:25
Of course, most of them aren't posted
by the original content creators.
68
193546
3352
Секако, повеќето од нив не се објавени
од нивните оригинални креатори
03:28
They come from loads and loads
of different random accounts,
69
196922
2999
туку потекнуваат од многу различни,
случајни канали,
03:31
and it's impossible to know
who's posting them
70
199945
2240
и е невозможно да се знае
кој ги објавува
03:34
or what their motives might be.
71
202209
1822
и со какви намери.
03:36
Does that sound kind of familiar?
72
204428
1930
Дали тоа ви звучи познато?
03:38
Because it's exactly the same mechanism
73
206382
1980
Затоа што тоа е токму истиот механизам
03:40
that's happening across most
of our digital services,
74
208386
2600
кој го има на повеќето
наши дигитални услуги,
03:43
where it's impossible to know
where this information is coming from.
75
211010
3207
каде е невозможно да се знае
од каде потекнува информацијата.
03:46
It's basically fake news for kids,
76
214241
1829
Тоа е во основа како
"лажни вести" за деца,
03:48
and we're training them from birth
77
216094
2161
и ние ги тренираме од раѓање
03:50
to click on the very first link
that comes along,
78
218279
2506
да кликнат на првиот линк
кој ќе се појави,
03:52
regardless of what the source is.
79
220809
1953
без разлика од кој извор доаѓа.
03:54
That's doesn't seem like
a terribly good idea.
80
222786
2603
Тоа не изгледа како
многу добра идеја.
03:58
Here's another thing
that's really big on kids' YouTube.
81
226399
2710
Еве уште едно нешто што е
многу популарно на Јутјуб.
04:01
This is called the "Finger Family Song."
82
229133
1928
Се вика "Семејство Прсти“.
04:03
I just heard someone groan
in the audience.
83
231085
2018
Некој штотуку офна во публиката.
04:05
This is the "Finger Family Song."
84
233127
1624
Песната за семејството прсти.
04:06
This is the very first one I could find.
85
234775
1930
Ова е токму првата што ја најдов.
04:08
It's from 2007, and it only has
200,000 views,
86
236729
2829
Потекнува од 2007 година и има
само 200.000 прегледи,
04:11
which is, like, nothing in this game.
87
239582
1976
што е многу малку во споредба со други.
04:13
But it has this insanely earwormy tune,
88
241582
2852
Но, има ритам што ти се
вовлекува во главата,
04:16
which I'm not going to play to you,
89
244458
1682
нема да ви ја пуштам,
04:18
because it will sear itself
into your brain
90
246164
2008
зашто ќе ви остане запечатена во мозокот,
04:20
in the same way that
it seared itself into mine,
91
248196
2395
исто како што ми се случи мене,
04:22
and I'm not going to do that to you.
92
250615
1770
и нема да ви го направам тоа вам.
04:24
But like the surprise eggs,
93
252409
1344
Но, како и киндер јајцата
04:25
it's got inside kids' heads
94
253777
2164
се вовлекува во главите на децата
04:27
and addicted them to it.
95
255965
1607
и ги направи зависни од неа.
04:29
So within a few years,
these finger family videos
96
257596
2531
Така, за неколку години,
видеата со семејството прсти
04:32
start appearing everywhere,
97
260151
1303
почна да ги има насекаде,
04:33
and you get versions
in different languages
98
261478
2029
и имате верзии на
различни јазици,
04:35
with popular kids' cartoons using food
99
263531
2121
каде познати цртани ликови
користат храна
04:37
or, frankly, using whatever kind
of animation elements
100
265676
2550
или, искрено, користат секакви
елементи за анимација
04:40
you seem to have lying around.
101
268250
2252
што ќе им се најдат при рака.
04:43
And once again, there are millions
and millions and millions of these videos
102
271002
5197
И уште еднаш, има милиони и
милиони вакви видеа,
04:48
available online in all of these
kind of insane combinations.
103
276223
3435
достапни на Интернет во сите овие
налудничави комбинации.
04:51
And the more time
you start to spend with them,
104
279682
2228
И колку повеќе време
минувате со нив,
04:53
the crazier and crazier
you start to feel that you might be.
105
281934
3694
толку повеќе ви се чини
дека полудувате.
04:57
And that's where I
kind of launched into this,
106
285652
3333
И така се впуштив во ова,
05:01
that feeling of deep strangeness
and deep lack of understanding
107
289009
3666
со чувство на длабоко
непознавање и неразбирање
05:04
of how this thing was constructed
that seems to be presented around me.
108
292699
4175
за начинот како е конструирано
ова околу мене.
05:08
Because it's impossible to know
where these things are coming from.
109
296898
3167
Бидејќи е невозможно да се знае
од каде потекнуваат овие работи.
05:12
Like, who is making them?
110
300089
1241
Кој ги прави?
05:13
Some of them appear to be made
of teams of professional animators.
111
301354
3143
Некои се чини дека се направени од
тимови професионални аниматори.
05:16
Some of them are just randomly
assembled by software.
112
304521
2882
Некои се составени по случајност
со помош на софтвер.
05:19
Some of them are quite wholesome-looking
young kids' entertainers.
113
307427
4253
Некои се од пристојни аниматори
на мали деца.
05:23
And some of them are from people
114
311704
1552
А некои се од луѓе
кои очигледно
05:25
who really clearly
shouldn't be around children at all.
115
313280
3007
воопшто не смеат
да бидат во близина на деца.
05:28
(Laughter)
116
316311
1615
(смеа)
05:30
And once again, this impossibility
of figuring out who's making this stuff --
117
318987
4640
Повторно, неможноста да се дознае
кој ги изработува овие работи,
05:35
like, this is a bot?
118
323651
1156
дали е тоа робот?
05:36
Is this a person? Is this a troll?
119
324831
2647
Дали е личност?
Дали е трол?
05:39
What does it mean
that we can't tell the difference
120
327502
2382
Што значи тоа што повеќе
не можеме да ги разликуваме
05:41
between these things anymore?
121
329908
1583
овие работи?
05:43
And again, doesn't that uncertainty
feel kind of familiar right now?
122
331515
4848
Нели тоа чувство на несигурност
ви е некако познато?
05:50
So the main way people get views
on their videos --
123
338145
2580
Најчесто луѓето привлекуваат
прегледи на нивните видеа,
05:52
and remember, views mean money --
124
340749
1707
и запомнете, прегледите значат пари
05:54
is that they stuff the titles
of these videos with these popular terms.
125
342480
4742
така што ги полнат насловите на
овие видеа со познати зборови.
05:59
So you take, like, "surprise eggs"
126
347246
1687
Пример, почнувате со „киндер јајца"
06:00
and then you add
"Paw Patrol," "Easter egg,"
127
348957
2066
и додавате "Патрола на кутриња,"
"Велигденски јајца,"
06:03
or whatever these things are,
128
351047
1393
или што и да е,
06:04
all of these words from other
popular videos into your title,
129
352464
2893
сите овие зборови од други
популарни видеа,
06:07
until you end up with this kind of
meaningless mash of language
130
355381
2968
додека не завршите со еден
куп без јазично значење,
06:10
that doesn't make sense to humans at all.
131
358373
2498
без логика.
06:12
Because of course it's only really
tiny kids who are watching your video,
132
360895
3546
Затоа што, се разбира, овие видеа
ги гледаат мали деца,
06:16
and what the hell do they know?
133
364465
1827
а што разбираат тие?
06:18
Your real audience
for this stuff is software.
134
366316
3007
Вашата вистинска публика
за овие работи е софтверот.
06:21
It's the algorithms.
135
369347
1156
Алгоритмите.
06:22
It's the software that YouTube uses
136
370527
1855
Софтверот кој Јутјуб го користи
06:24
to select which videos
are like other videos,
137
372406
2483
да одреди кои видеа се
слични на други видеа,
06:26
to make them popular,
to make them recommended.
138
374913
2243
да им ја подигне популарноста,
да ги препорача.
06:29
And that's why you end up with this
kind of completely meaningless mash,
139
377180
3461
И затоа завршувате со ваква
комплетно безначајна мешавина
06:32
both of title and of content.
140
380665
2071
на наслови и на содржини.
06:35
But the thing is, you have to remember,
141
383792
1894
Но, мора да запомните
06:37
there really are still people within
this algorithmically optimized system,
142
385710
4478
дека се`уште постои човечки фактор
во овој систем на алгоритми,
06:42
people who are kind
of increasingly forced to act out
143
390212
2790
луѓе кои сѐ повеќе се
принудени да ги одиграат
06:45
these increasingly bizarre
combinations of words,
144
393026
3066
овие сѐ побизарни
комбинации на зборови,
06:48
like a desperate improvisation artist
responding to the combined screams
145
396116
5173
како очајни импровизатори
во одговор на здружените врисоци
06:53
of a million toddlers at once.
146
401313
2203
на милиони деца
во исто време.
06:57
There are real people
trapped within these systems,
147
405168
2468
Вистински луѓе се заробени
во овие системи,
06:59
and that's the other deeply strange thing
about this algorithmically driven culture,
148
407660
4055
и тоа е другата чудна работа
во оваа култура водена од алгоритми,
07:03
because even if you're human,
149
411739
1381
затоа што, иако си човек,
07:05
you have to end up behaving like a machine
150
413144
2145
на крајот се однесуваш
како машина,
07:07
just to survive.
151
415313
1800
само за да преживееш.
07:09
And also, on the other side of the screen,
152
417137
2100
Исто така, на другата
страна на екранот
07:11
there still are these little kids
watching this stuff,
153
419261
2947
се`уште се наоѓаат овие мали деца,
кои ги гледаат овие работи,
07:14
stuck, their full attention grabbed
by these weird mechanisms.
154
422232
4206
заглавени, нивното целосно внимание
зграпчено од овие чудни механизми.
07:18
And most of these kids are too small
to even use a website.
155
426768
2798
Повеќето од овие деца се премали
за да користат вебстрани.
07:21
They're just kind of hammering
on the screen with their little hands.
156
429590
3276
Само удираат со рачињата
по екраните.
07:24
And so there's autoplay,
157
432890
1217
Па имаме автоматско пуштање
07:26
where it just keeps playing these videos
over and over and over in a loop,
158
434131
3579
каде видеата се пуштаат пак и пак во круг,
07:29
endlessly for hours and hours at a time.
159
437734
2059
бескрајно, со часови и часови.
07:31
And there's so much weirdness
in the system now
160
439817
2843
Системот стана
толку чуден
07:34
that autoplay takes you
to some pretty strange places.
161
442684
3009
што автоматското пуштање
ве носи на прилично чудни места.
07:37
This is how, within a dozen steps,
162
445717
2488
Така, во десетина чекори,
07:40
you can go from a cute video
of a counting train
163
448229
3158
можете да стигнете
од слатко видео со воз со бројки,
07:43
to masturbating Mickey Mouse.
164
451411
2442
до Мики Маус кој мастурбира.
07:46
Yeah. I'm sorry about that.
165
454529
2288
Да. Жалам.
07:48
This does get worse.
166
456841
1700
А има и полошо.
07:50
This is what happens
167
458565
1282
Ова се случува
07:51
when all of these different keywords,
168
459871
3086
кога сите тие различни
зборови за пребарување,
07:54
all these different pieces of attention,
169
462981
2461
сите тие делчиња за
привлекување внимание,
07:57
this desperate generation of content,
170
465466
2807
цело ова очајничко
креирање содржини,
08:00
all comes together into a single place.
171
468297
2582
ќе се соберат
на едно место.
08:03
This is where all those deeply weird
keywords come home to roost.
172
471871
4472
Ова е асолништето на сите тие
многу чудни зборови.
08:08
You cross-breed the finger family video
173
476367
2391
Ќе вкрстите видео
со семејството прсти
08:10
with some live-action superhero stuff,
174
478782
2088
со некои акциони суперхерои,
08:12
you add in some weird,
trollish in-jokes or something,
175
480894
3256
ќе додадете некои чудни,
тролски шеги и слично,
08:16
and suddenly, you come
to a very weird place indeed.
176
484174
3366
и одеднаш, се наоѓате
на навистина чудно место.
08:19
The stuff that tends to upset parents
177
487564
2113
Она што најчесто ги
вознемирува родителите
08:21
is the stuff that has kind of violent
or sexual content, right?
178
489701
3331
се материјалите со насилна
и сексуална содржина, нели?
08:25
Children's cartoons getting assaulted,
179
493056
2822
Ликови од цртаните филмови
биваат нападнати,
08:27
getting killed,
180
495902
2018
убиени,
08:29
weird pranks that actually
genuinely terrify children.
181
497944
3343
чудни трикови кои навистина
ги преплашуваат децата.
08:33
What you have is software pulling in
all of these different influences
182
501311
3675
Софтверот ги избира
сите овие различни влијанија
08:37
to automatically generate
kids' worst nightmares.
183
505010
2961
со цел автматски да ги генерира
најстрашните детски кошмари.
08:39
And this stuff really, really
does affect small children.
184
507995
2701
А овие работи навистина
многу влијаат врз децата.
08:42
Parents report their children
being traumatized,
185
510720
2866
Родители пријавуваат дека децата
им биле трауматизирани,
08:45
becoming afraid of the dark,
186
513610
1392
се плашат од темнината,
08:47
becoming afraid of their favorite
cartoon characters.
187
515026
3050
се плашат од нивните омилени
ликови од цртаните филмови.
08:50
If you take one thing away from this,
it's that if you have small children,
188
518524
3611
Ако едно нешто научивме од ова,
тоа е: ако имате мали деца
08:54
keep them the hell away from YouTube.
189
522159
1996
држете ги подалеку од Јутјуб!
08:56
(Applause)
190
524743
3949
(аплауз)
09:02
But the other thing, the thing
that really gets to me about this,
191
530504
3096
Но, другото нешто,
кое најмногу ме мачи,
09:05
is that I'm not sure we even really
understand how we got to this point.
192
533624
4629
е помислата дека не ни знаеме
како стигнавме дотука.
09:10
We've taken all of this influence,
all of these things,
193
538951
2931
Ги зедовме сите овие влијанија
сите овие работи,
09:13
and munged them together in a way
that no one really intended.
194
541906
2953
и ги измешавме заедно
на начин на кој никој не намераваше.
09:16
And yet, this is also the way
that we're building the entire world.
195
544883
3156
А сепак, на истиот начин
го градиме целиот свет.
09:20
We're taking all of this data,
196
548063
1773
Зборуваме за сите овие податоци,
09:21
a lot of it bad data,
197
549860
1447
голем дел од нив лоши,
09:23
a lot of historical data
full of prejudice,
198
551331
3029
многу историски податоци,
полни со предрасуди,
09:26
full of all of our worst
impulses of history,
199
554384
2837
полни со нашите најлоши
пориви во историјата,
09:29
and we're building that
into huge data sets
200
557245
2049
и ги внесуваме во огромни датотеки
09:31
and then we're automating it.
201
559318
1423
и потоа ги автоматизираме.
09:32
And we're munging it together
into things like credit reports,
202
560765
3502
Ги вметнуваме во
кредитни извештаи,
09:36
into insurance premiums,
203
564291
1634
премии за осигурување,
09:37
into things like predictive
policing systems,
204
565949
2693
предиктивни полициски системи,
09:40
into sentencing guidelines.
205
568666
1762
упатства за донесување пресуди.
09:42
This is the way we're actually
constructing the world today
206
570452
2821
Вака всушност го градиме
денешниот свет,
09:45
out of this data.
207
573297
1151
врз основа на податоци.
09:46
And I don't know what's worse,
208
574472
1698
И не знам што е полошо:
09:48
that we built a system
that seems to be entirely optimized
209
576194
3228
тоа што градиме систем
кој се чини е целосно оптимизиран
09:51
for the absolute worst aspects
of human behavior,
210
579446
2808
за апсолутно најлошите варијанти
на човечко однесување,
09:54
or that we seem
to have done it by accident,
211
582278
2425
или тоа што истото го
правиме случајно,
09:56
without even realizing
that we were doing it,
212
584727
2207
без воопшто да сфатиме
што правиме,
09:58
because we didn't really understand
the systems that we were building,
213
586958
3382
бидејќи не ги разбираме добро
системите кои ги градиме
10:02
and we didn't really understand
how to do anything differently with it.
214
590364
3683
и не знаеме како
да постапиме поинаку.
10:06
There's a couple of things I think
that really seem to be driving this
215
594769
3365
Има две работи кои сметам дека се
движечка сила на овој феномен,
10:10
most fully on YouTube,
216
598158
1189
особено на Јутјуб.
10:11
and the first of those is advertising,
217
599371
1827
Првата е рекламирањето,
10:13
which is the monetization of attention
218
601222
2837
односно монетизацијата на
привлеченото внимание,
10:16
without any real other variables at work,
219
604083
3136
без земање во предвид
други варијабли,
10:19
any care for the people who are
actually developing this content,
220
607243
3885
без грижа за луѓето кои всушност
ја креираат таа содржина,
10:23
the centralization of the power,
the separation of those things.
221
611152
3636
централизацијата на моќта,
одделувањето на тие нешта.
10:26
And I think however you feel
about the use of advertising
222
614812
3144
И сметам дека без разлика какво
мислењеимате за рекламите,
10:29
to kind of support stuff,
223
617980
1238
како финансиска поддршка,
10:31
the sight of grown men in diapers
rolling around in the sand
224
619242
3067
глетката на возрасни мажи во пелени
како се тркалаат во песокта,
10:34
in the hope that an algorithm
that they don't really understand
225
622333
2983
со надеж дека некој алгоритам
кој ни самите не го разбираат
10:37
will give them money for it
226
625340
1315
ќе им даде пари за тоа,
10:38
suggests that this
probably isn't the thing
227
626679
2037
упатува на тоа дека ова
веројатно не е начинот
10:40
that we should be basing
our society and culture upon,
228
628740
2563
на кој треба да го градиме
нашето општество и култура,
10:43
and the way in which
we should be funding it.
229
631327
2160
нити начинот на кој
треба да го финансираме.
10:45
And the other thing that's kind of
the major driver of this is automation,
230
633511
3519
А вториот двигател на оваа
ситуација е автоматизацијата,
10:49
which is the deployment
of all of this technology
231
637054
2329
односно примената на
сета таа технологија
10:51
as soon as it arrives,
without any kind of oversight,
232
639407
2521
веднаш штом се појави,
без никаков надзор,
10:53
and then once it's out there,
233
641952
1412
и кога е веќе пласирана,
10:55
kind of throwing up our hands and going,
"Hey, it's not us, it's the technology."
234
643388
3843
ги креваме рацете и велиме:
"Еј, не е до нас, до технолгијата е."
10:59
Like, "We're not involved in it."
235
647255
1642
Демек, "Ние не сме дел од тоа."
11:00
That's not really good enough,
236
648921
1767
Тое не е доволно добро.
11:02
because this stuff isn't
just algorithmically governed,
237
650712
2710
Затоа што ова не е само
предводено,
11:05
it's also algorithmically policed.
238
653446
2498
туку е и контролирано
од алгоритми.
11:07
When YouTube first started
to pay attention to this,
239
655968
2848
Кога Јутјуб почна да
обрнува внимание на ова,
11:10
the first thing they said
they'd do about it
240
658840
2087
првото нешто што рекоа
дека ќе го превземат
11:12
was that they'd deploy
better machine learning algorithms
241
660951
2695
беше дека ќе применат подобри
алгоритми за машинско учење
11:15
to moderate the content.
242
663670
1329
да ја ублажат содржината.
11:17
Well, machine learning,
as any expert in it will tell you,
243
665023
3485
Е па, машинското учење,
секој експерт во областа ќе ви каже,
11:20
is basically what we've started to call
244
668532
1896
го нарекуаваме всушност
11:22
software that we don't really
understand how it works.
245
670452
2588
софтверот кој не го разбираме
како функционира.
11:25
And I think we have
enough of that already.
246
673064
3983
Мислам дека веќе
имаме доволно од тоа.
11:29
We shouldn't be leaving
this stuff up to AI to decide
247
677071
3166
Не треба да оставаме
на вештачката интелигенција
11:32
what's appropriate or not,
248
680261
1251
да одлучи што е соодветно,
11:33
because we know what happens.
249
681536
1436
зашто знаеме што ќе се случи.
11:34
It'll start censoring other things.
250
682996
1688
Ќе почне да цензурира
други работи:
11:36
It'll start censoring queer content.
251
684708
1783
необични содржини,
11:38
It'll start censoring
legitimate public speech.
252
686515
2237
или легитимент јавен говор.
11:40
What's allowed in these discourses,
253
688776
1925
Што е дозволено, а што не,
11:42
it shouldn't be something
that's left up to unaccountable systems.
254
690725
3097
не треба да се остави
на неодговорни системи.
11:45
It's part of a discussion
all of us should be having.
255
693846
2947
Тоа е дел од дискусија во која
сите треба да учествуваме.
11:48
But I'd leave a reminder
256
696817
1308
Но, потсетувам дека
11:50
that the alternative isn't
very pleasant, either.
257
698149
2753
ниту алтернативата
не е многу пријатна.
11:52
YouTube also announced recently
258
700926
1535
Јутјуб неодамна изјавија
11:54
that they're going to release
a version of their kids' app
259
702485
2767
дека ќе издадат верзија на нивната
апликација за деца
11:57
that would be entirely
moderated by humans.
260
705276
2407
која ќе биде целосно
прегледувана од луѓе.
12:00
Facebook -- Zuckerberg said
much the same thing at Congress,
261
708134
3618
Фејсбук - Закерберг изјави нешто слично
пред Конгресот,
12:03
when pressed about how they
were going to moderate their stuff.
262
711776
2987
на прашањето како ќе
управуваат со нивната содржина.
12:06
He said they'd have humans doing it.
263
714787
1747
Рече дека луѓе ќе го прават тоа.
12:08
And what that really means is,
264
716558
1459
А, тоа всушност значи дека
12:10
instead of having toddlers being
the first person to see this stuff,
265
718041
3223
наместо малите деца да бидат
првите кои ќе ги видат овие содржини,
12:13
you're going to have underpaid,
precarious contract workers
266
721288
2788
сега ќе има слабо платени,
загрозени работници,
без соодветна ментално-здравствена
заштита.
12:16
without proper mental health support
267
724100
1726
12:17
being damaged by it as well.
268
725850
1376
оштетени од истите содржини.
12:19
(Laughter)
269
727250
1096
(смеа)
12:20
And I think we can all do
quite a lot better than that.
270
728370
2601
И сметам дека можеме
многу подобро од тоа.
12:22
(Applause)
271
730995
2499
(аплауз)
12:26
The thought, I think, that brings those
two things together, really, for me,
272
734068
4613
Смислата, според мене, која ги
поврзува овие работи
12:30
is agency.
273
738705
1420
е дејствувањето.
12:32
It's like, how much do we really
understand -- by agency, I mean:
274
740149
3157
Колку навистина разбираме?
Под дејствување подразбирам:
12:35
how we know how to act
in our own best interests.
275
743330
4390
како знаеме како да постапиме
во наш најдобар интерес.
12:39
Which -- it's almost impossible to do
276
747744
1787
Што е речиси невозможно да се направи
12:41
in these systems that we don't
really fully understand.
277
749555
3485
во овие ситеми кои
не ги разбираме целосно.
12:45
Inequality of power
always leads to violence.
278
753064
3071
Нееднаквоста на моќта
секогаш води до насилство.
12:48
And we can see inside these systems
279
756159
1685
Во овие системи
можеме да видиме
12:49
that inequality of understanding
does the same thing.
280
757868
2611
дека нееднаквото разбирање
го предизвикува истото.
12:52
If there's one thing that we can do
to start to improve these systems,
281
760503
3779
Ако постои начин како да започнеме
да ги подобруваме овие системи
12:56
it's to make them more legible
to the people who use them,
282
764306
2718
тоа е да ги направиме почитливи
за луѓето кои ги користат,
12:59
so that all of us have
a common understanding
283
767048
2196
така што сите ќе имаме
заедничко разбирање
13:01
of what's actually going on here.
284
769268
1851
за тоа што всушност
се случува тука.
13:03
The thing, though, I think
most about these systems
285
771970
2968
Проблемот со повеќето
од овие системи
13:06
is that this isn't, as I hope
I've explained, really about YouTube.
286
774962
3857
не е во врска со Јутјуб,
како што објаснив,
13:10
It's about everything.
287
778843
1312
туку со сѐ.
13:12
These issues of accountability and agency,
288
780179
2444
Прашањата на одговорност
и дејствување,
13:14
of opacity and complexity,
289
782647
2225
на нејасност и комплексност,
13:16
of the violence and exploitation
that inherently results
290
784896
3177
на насилството и експлоатацијата
кои неизбежно произлегуваат
13:20
from the concentration
of power in a few hands --
291
788097
2794
од концентрацијата на моќ
во нечии раце --
13:22
these are much, much larger issues.
292
790915
2579
ова се многу, многу
поголеми проблеми.
13:26
And they're issues not just of YouTube
and not just of technology in general,
293
794395
3687
Тоа се проблеми не само на Јутјуб,
и не само на технологијата воопшто,
13:30
and they're not even new.
294
798106
1265
и не се новосоздадени.
13:31
They've been with us for ages.
295
799395
1461
Со нас се долго време.
13:32
But we finally built this system,
this global system, the internet,
296
800880
4390
Но, конечно го изградивме овој систем
овој глобален систем, Интернетот,
13:37
that's actually showing them to us
in this extraordinary way,
297
805294
3019
кој на извонреден начин ни ги покажува
,
13:40
making them undeniable.
298
808337
1547
и ги прави вистински.
13:41
Technology has this extraordinary capacity
299
809908
2820
Технологијата има
исклучителна способност
13:44
to both instantiate and continue
300
812752
3973
истовремено да ги прикаже и продолжи
13:48
all of our most extraordinary,
often hidden desires and biases
301
816749
4248
сите наши извонредни,
често притаени, желби и предрасуди
13:53
and encoding them into the world,
302
821021
1866
и да ги вкодира во светот,
13:54
but it also writes them down
so that we can see them,
303
822911
3474
но и да ги запише
за да ни се видливи
13:58
so that we can't pretend
they don't exist anymore.
304
826409
3330
и да не можеме да се преправаме
дека не постојат повеќе.
14:01
We need to stop thinking about technology
as a solution to all of our problems,
305
829763
4319
Не треба да ја гледаме технологијата
како решение на сите наши проблеми,
14:06
but think of it as a guide
to what those problems actually are,
306
834106
3757
туку како водич за идентификување
на тие проблеми,
14:09
so we can start thinking
about them properly
307
837887
2144
со цел да почнеме
соодветно да ги
14:12
and start to address them.
308
840055
1766
разгледуваме и да дејствуваме.
14:13
Thank you very much.
309
841845
1335
Многу ви благодарам.
14:15
(Applause)
310
843204
5192
(аплауз)
14:21
Thank you.
311
849733
1188
Благодарам!
14:22
(Applause)
312
850945
2869
(аплауз)
14:28
Helen Walters: James, thank you
for coming and giving us that talk.
313
856839
3178
Хелен Волтерс: Џејмс, благодарам
за гостувањето и за говорот.
14:32
So it's interesting:
314
860041
1189
Значи, интересно е:
14:33
when you think about the films where
the robotic overlords take over,
315
861254
3495
кога размислуваш за филмови во кои
роботите го преземаат светот,
14:36
it's all a bit more glamorous
than what you're describing.
316
864773
3279
сѐ изгледа погламурозно
од она што ни го опиша.
14:40
But I wonder -- in those films,
you have the resistance mounting.
317
868076
3749
Се прашувам -- во тие филмови
имаме градење на отпор.
14:43
Is there a resistance mounting
towards this stuff?
318
871849
3216
Дали градиме отпор кон овие работи
во реалноста?
14:47
Do you see any positive signs,
green shoots of resistance?
319
875089
3796
Дали забележуваш позитивни знаци,
никулци на отпорот?
14:52
James Bridle: I don't know
about direct resistance,
320
880507
2416
Џејмс Бридл: Не знам за
директен отпор,
14:54
because I think this stuff
is super long-term.
321
882947
2264
бидејќи ова се дологорочни работи.
14:57
I think it's baked into culture
in really deep ways.
322
885235
2510
Мислам дека е длабоко
всадено во културата.
14:59
A friend of mine,
Eleanor Saitta, always says
323
887769
2132
Моја пријателка, Еленор Саита,
секогаш вели
15:01
that any technological problems
of sufficient scale and scope
324
889935
3609
дека секој технолошки проблем
со доволна големина и опсег
15:05
are political problems first of all.
325
893568
2267
е пред сѐ политички проблем.
15:07
So all of these things we're working
to address within this
326
895859
2785
Така што сите овие работи кои
се трудиме да ги решиме
15:10
are not going to be addressed
just by building the technology better,
327
898668
3274
нема да ги решиме само
преку градење подобра технологија,
15:13
but actually by changing the society
that's producing these technologies.
328
901966
3464
туку преку менување на општеството
кое ги произведува овие технологии.
15:17
So no, right now, I think we've got
a hell of a long way to go.
329
905454
3027
Така што, засега мислам дека имаме
уште многу работа пред нас.
15:20
But as I said, I think by unpacking them,
330
908505
1986
Но, како што реков,
со нивното отворање,
15:22
by explaining them, by talking
about them super honestly,
331
910515
2697
објаснување, дискутирање за нив
многу искрено,
15:25
we can actually start
to at least begin that process.
332
913236
2505
можеме барем да го
започнеме тој процес.
15:27
HW: And so when you talk about
legibility and digital literacy,
333
915765
3562
ХВ: Кога зборуваш за
читливост и дигитална писменост,
15:31
I find it difficult to imagine
334
919351
1591
тешко ми е да замислам
15:32
that we need to place the burden
of digital literacy on users themselves.
335
920966
3680
дека товарот на дигиталната писменост
треба да остане кај самите корисници.
15:36
But whose responsibility
is education in this new world?
336
924670
4562
Тогаш, чија одговорност е
образованието во овој нов свет?
15:41
JB: Again, I think this responsibility
is kind of up to all of us,
337
929256
3612
ЏБ: Сметам дека таа е одговорност
на сите нас,
15:44
that everything we do,
everything we build, everything we make,
338
932892
2984
дека сѐ што правиме,
сѐ што градиме, сѐ што создаваме,
15:47
needs to be made
in a consensual discussion
339
935900
3692
треба да биде во
заеднички разговор
15:51
with everyone who's avoiding it;
340
939616
1940
со сите кои го избегнуваат;
15:53
that we're not building systems
intended to trick and surprise people
341
941580
4341
дека не градиме системи наменети да ги
залажат или изненадат луѓето
15:57
into doing the right thing,
342
945945
2300
да постапат правилно,
16:00
but that they're actually involved
in every step in educating them,
343
948269
3236
туку да бидат вклучени
во секој чекор од нивното образование,
16:03
because each of these systems
is educational.
344
951529
2278
бидејќи секој од овие системи
е образовен.
16:05
That's what I'm hopeful about,
about even this really grim stuff,
345
953831
3102
На тоа се надевам,
дури и мрачните аспекти,
16:08
that if you can take it
and look at it properly,
346
956957
2262
ако се земат и се
разгледаат соодветно,
16:11
it's actually in itself
a piece of education
347
959243
2089
сами по себе се
парче едукација
16:13
that allows you to start seeing
how complex systems come together and work
348
961356
3762
што ви овозможува да согледате како
комплексните системи функционираат
16:17
and maybe be able to apply
that knowledge elsewhere in the world.
349
965142
3501
и можеби да го примените
знаењето на друго место.
ХВ: Џејмс, ова е многу значајна дискусија,
16:20
HW: James, it's such
an important discussion,
350
968667
2115
и знам дека многу од луѓето овде се
отворени и подготвени да се вклучат,
16:22
and I know many people here
are really open and prepared to have it,
351
970806
3227
16:26
so thanks for starting off our morning.
352
974057
1859
па фала што ни го отпочна утрото.
16:27
JB: Thanks very much. Cheers.
353
975940
1400
ЏБ: Благодарам!. Поздрав.
16:29
(Applause)
354
977364
1651
(аплауз)
Translated by Dijana Markoska
Reviewed by Julia Pascal Kalaputi

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com