ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

James Bridle: O pesadelo dos vídeos no YouTube para crianças e o que há de errado com a internet hoje

Filmed:
5,404,429 views

James Bridle, escritor e artista, revela um canto escuro e estranho da internet, em que pessoas ou grupos desconhecidos no YouTube invadem o cérebro de criancinhas em troca de receitas publicitárias. De "ovo surpresa" e "Finger Family Song" a misturas criadas por algoritmos de personagens de desenhos animados conhecidos em situações violentas, esses vídeos exploram e aterrorizam mentes jovens e nos dizem algo sobre o rumo de nosso mundo cada vez mais movido a dados. "Precisamos parar de pensar na tecnologia como uma solução para todos os nossos problemas e pensar nela como um guia para o que são esses problemas, para que possamos começar a pensar neles adequadamente e começar a resolvê-los", diz Bridle.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm James.
0
777
1183
Meu nome é James.
00:13
I'm a writer and artist,
1
1984
1686
Sou escritor e artista,
00:15
and I make work about technology.
2
3694
2341
e produzo trabalho
a respeito de tecnologia.
00:18
I do things like draw life-size outlines
of military drones
3
6454
3911
Faço coisas como desenhar esboços
em tamanho natural de "drones" militares
00:22
in city streets around the world,
4
10389
1828
nas ruas ao redor do mundo,
00:24
so that people can start to think
and get their heads around
5
12241
2950
para que as pessoas possam
começar a pensar e a compreender
00:27
these really quite hard-to-see
and hard-to-think-about technologies.
6
15215
3440
essas tecnologias muito difíceis
de se ver e imaginar.
Faço coisas como redes neurais
que preveem os resultados de eleições
00:31
I make things like neural networks
that predict the results of elections
7
19494
3836
00:35
based on weather reports,
8
23354
1737
com base em boletins meteorológicos,
00:37
because I'm intrigued about
9
25115
1314
porque fico intrigado
com as reais possibilidades
00:38
what the actual possibilities
of these weird new technologies are.
10
26453
3924
dessas novas tecnologias estranhas.
00:43
Last year, I built
my own self-driving car.
11
31405
2426
No ano passado, construí
meu próprio carro autônomo.
00:45
But because I don't
really trust technology,
12
33855
2526
Mas, como não confio na tecnologia,
também projetei uma armadilha para ele.
00:48
I also designed a trap for it.
13
36405
1928
(Risos)
00:50
(Laughter)
14
38777
1086
00:51
And I do these things mostly because
I find them completely fascinating,
15
39887
4298
Faço essas coisas sobretudo porque
as considero totalmente fascinantes,
00:56
but also because I think
when we talk about technology,
16
44209
2602
mas também porque penso
que, ao falar sobre tecnologia,
00:58
we're largely talking about ourselves
17
46835
2619
estamos falando, principalmente,
sobre nós mesmos
e a maneira pela qual entendemos o mundo.
01:01
and the way that we understand the world.
18
49478
2299
01:03
So here's a story about technology.
19
51801
2442
Eis uma história sobre tecnologia.
01:07
This is a "surprise egg" video.
20
55520
2830
Este é um vídeo do "ovo surpresa".
É, basicamente, um vídeo de alguém
abrindo um monte de ovos de chocolate
01:10
It's basically a video of someone
opening up loads of chocolate eggs
21
58374
3348
e mostrando os brinquedos
que estão dentro deles.
01:13
and showing the toys inside to the viewer.
22
61746
2126
01:16
That's it. That's all it does
for seven long minutes.
23
64461
2649
Isso é tudo o que se passa
durante sete longos minutos.
01:19
And I want you to notice
two things about this.
24
67428
3051
Quero que reparem em duas coisas.
01:22
First of all, this video
has 30 million views.
25
70503
4074
Primeiro, esse vídeo
tem 30 milhões de visualizações.
01:26
(Laughter)
26
74601
1275
(Risos)
01:28
And the other thing is,
27
76376
1166
A outra coisa é que ele aparece
em um canal com 6,3 milhões de inscritos
01:29
it comes from a channel
that has 6.3 million subscribers,
28
77566
3869
01:33
that has a total of eight billion views,
29
81459
2680
e um total de 8 bilhões de visualizações,
01:36
and it's all just more videos like this --
30
84163
3106
e há mais vídeos como esse.
01:40
30 million people watching a guy
opening up these eggs.
31
88256
3908
São 30 milhões de pessoas
assistindo a um cara abrindo esses ovos.
01:44
It sounds pretty weird, but if you search
for "surprise eggs" on YouTube,
32
92188
4481
Parece muito estranho mas, se procurarem
por "ovos surpresa" no YouTube,
01:48
it'll tell you there's
10 million of these videos,
33
96693
3523
irão verificar que há
10 milhões desses vídeos,
01:52
and I think that's an undercount.
34
100240
1657
e acho que isso é por baixo.
01:53
I think there's way, way more of these.
35
101921
1897
Deve haver bem mais vídeos como esse.
Se continuarem procurando, não acaba mais.
01:55
If you keep searching, they're endless.
36
103842
2242
01:58
There's millions and millions
of these videos
37
106108
2159
Há milhões desses vídeos,
02:00
in increasingly baroque combinations
of brands and materials,
38
108291
3454
em combinações cada vez mais
grotescas de marcas e materiais,
02:03
and there's more and more of them
being uploaded every single day.
39
111769
3846
surgindo na internet todos os dias.
02:07
Like, this is a strange world. Right?
40
115639
3511
É um mundo bizarro, não é mesmo?
02:11
But the thing is, it's not adults
who are watching these videos.
41
119174
3383
Mas acontece que não são os adultos
que assistem a esses vídeos.
02:14
It's kids, small children.
42
122581
2921
São as crianças pequenas.
02:17
These videos are
like crack for little kids.
43
125526
2154
Esses vídeos são como droga para elas.
02:19
There's something about the repetition,
44
127704
2075
Há algo sobre a repetição,
a dose constante de dopamina
da revelação, que as fisga totalmente.
02:21
the constant little
dopamine hit of the reveal,
45
129803
2468
02:24
that completely hooks them in.
46
132295
1866
02:26
And little kids watch these videos
over and over and over again,
47
134185
4809
As crianças pequenas assistem
a esses vídeos sem parar
02:31
and they do it for hours
and hours and hours.
48
139018
2327
durante horas a fio.
02:33
And if you try and take
the screen away from them,
49
141369
2356
Se tentarem afastá-las da tela,
elas irão gritar sem parar.
02:35
they'll scream and scream and scream.
50
143749
1782
02:37
If you don't believe me --
51
145555
1262
Já vi pessoas na plateia concordando.
02:38
and I've already seen people
in the audience nodding --
52
146841
2607
Se não acreditam, perguntem
a quem têm crianças pequenas.
02:41
if you don't believe me, find someone
with small children and ask them,
53
149472
3391
Elas conhecem os vídeos dos ovos surpresa.
02:44
and they'll know about
the surprise egg videos.
54
152887
2340
02:47
So this is where we start.
55
155251
2070
É aí que começamos.
02:49
It's 2018, and someone, or lots of people,
56
157345
3642
Estamos em 2018, e alguém,
ou muitas pessoas,
02:53
are using the same mechanism that, like,
Facebook and Instagram are using
57
161011
3941
usam o mesmo mecanismo
do Facebook e do Instagram
02:56
to get you to keep checking that app,
58
164976
1989
para nos manter verificando o aplicativo
02:58
and they're using it on YouTube
to hack the brains of very small children
59
166989
3985
e para invadir o cérebro
das criancinhas no YouTube
03:02
in return for advertising revenue.
60
170998
1958
em troca de receitas publicitárias.
03:06
At least, I hope
that's what they're doing.
61
174346
2001
É o que, pelo menos,
espero que estejam fazendo,
03:08
I hope that's what they're doing it for,
62
176371
1955
porque há formas mais fáceis de gerar
receitas publicitárias no YouTube.
03:10
because there's easier ways
of making ad revenue on YouTube.
63
178350
5308
03:15
You can just make stuff up or steal stuff.
64
183682
2332
Podemos inventar ou roubar coisas.
03:18
So if you search for really
popular kids' cartoons
65
186038
2635
Se procurarem por desenhos infantis
realmente populares,
03:20
like "Peppa Pig" or "Paw Patrol,"
66
188697
1654
como "Peppa" ou "Patrulha Canina",
03:22
you'll find there's millions and millions
of these online as well.
67
190375
3147
descobrirão que há também
milhões deles na internet.
Claro que a maioria deles não é
publicada pelos criadores originais.
03:25
Of course, most of them aren't posted
by the original content creators.
68
193546
3352
Eles vêm de um monte de contas
aleatórias diferentes,
03:28
They come from loads and loads
of different random accounts,
69
196922
2999
e é impossível saber quem os publica
ou quais são os motivos para isso.
03:31
and it's impossible to know
who's posting them
70
199945
2240
03:34
or what their motives might be.
71
202209
1822
03:36
Does that sound kind of familiar?
72
204428
1930
Isso lhes parece familiar?
03:38
Because it's exactly the same mechanism
73
206382
1980
Porque é exatamente o mesmo mecanismo
03:40
that's happening across most
of our digital services,
74
208386
2600
que ocorre na maior parte
de nossos serviços digitais
03:43
where it's impossible to know
where this information is coming from.
75
211010
3207
em que é impossível saber
a origem das informações.
03:46
It's basically fake news for kids,
76
214241
1829
São notícias falsas para crianças,
03:48
and we're training them from birth
77
216094
2161
e nós as estamos treinando,
desde que nascem,
03:50
to click on the very first link
that comes along,
78
218279
2506
a clicarem no primeiro link que aparece,
não importando a origem dele.
03:52
regardless of what the source is.
79
220809
1953
03:54
That's doesn't seem like
a terribly good idea.
80
222786
2603
Não parece uma ideia muito boa.
03:58
Here's another thing
that's really big on kids' YouTube.
81
226399
2710
Outra coisa muito famosa
no YouTube para crianças
04:01
This is called the "Finger Family Song."
82
229133
1928
é a "Finger Family Song".
Acabei de ouvi alguém
resmungando de novo na plateia.
04:03
I just heard someone groan
in the audience.
83
231085
2018
04:05
This is the "Finger Family Song."
84
233127
1624
Esta é a "Finger Family Song".
04:06
This is the very first one I could find.
85
234775
1930
Foi a primeira que consegui encontrar.
É de 2007 e tem apenas
200 mil visualizações,
04:08
It's from 2007, and it only has
200,000 views,
86
236729
2829
04:11
which is, like, nothing in this game.
87
239582
1976
o que não é nada nesse jogo.
04:13
But it has this insanely earwormy tune,
88
241582
2852
Mas ela tem uma melodia irritante
04:16
which I'm not going to play to you,
89
244458
1682
que não vou tocar para vocês
porque ela gruda no cérebro
04:18
because it will sear itself
into your brain
90
246164
2008
04:20
in the same way that
it seared itself into mine,
91
248196
2395
como grudou no meu,
e não vou fazer uma coisa dessas.
04:22
and I'm not going to do that to you.
92
250615
1770
Mas, como os ovos surpresa,
04:24
But like the surprise eggs,
93
252409
1344
04:25
it's got inside kids' heads
94
253777
2164
ela entra na cabeça das crianças,
que ficam viciadas nela.
04:27
and addicted them to it.
95
255965
1607
04:29
So within a few years,
these finger family videos
96
257596
2531
Dentro de alguns anos, esses vídeos
começam a surgir em toda parte,
04:32
start appearing everywhere,
97
260151
1303
e temos versões em vários idiomas
04:33
and you get versions
in different languages
98
261478
2029
com desenhos infantis usando a comida
04:35
with popular kids' cartoons using food
99
263531
2121
ou quaisquer tipos de elementos
de animação que existem por aí.
04:37
or, frankly, using whatever kind
of animation elements
100
265676
2550
04:40
you seem to have lying around.
101
268250
2252
04:43
And once again, there are millions
and millions and millions of these videos
102
271002
5197
Mais uma vez, há milhões
desses vídeos na internet,
04:48
available online in all of these
kind of insane combinations.
103
276223
3435
disponíveis em todos os tipos
de combinações bizarras.
04:51
And the more time
you start to spend with them,
104
279682
2228
Quanto mais tempo passamos com eles
04:53
the crazier and crazier
you start to feel that you might be.
105
281934
3694
mais loucos começamos a ficar.
04:57
And that's where I
kind of launched into this,
106
285652
3333
Foi aí que comecei a ter
05:01
that feeling of deep strangeness
and deep lack of understanding
107
289009
3666
uma sensação de profunda estranheza
e falta de compreensão
05:04
of how this thing was constructed
that seems to be presented around me.
108
292699
4175
sobre como era construída essa coisa
que parece estar sempre ao meu redor.
05:08
Because it's impossible to know
where these things are coming from.
109
296898
3167
Porque é impossível saber
de onde vêm esses vídeos.
Quem os produz?
05:12
Like, who is making them?
110
300089
1241
Alguns parecem ser feitos por equipes
de animadores profissionais.
05:13
Some of them appear to be made
of teams of professional animators.
111
301354
3143
05:16
Some of them are just randomly
assembled by software.
112
304521
2882
Outros são apenas montados
aleatoriamente por software.
05:19
Some of them are quite wholesome-looking
young kids' entertainers.
113
307427
4253
Alguns divertem as crianças
e têm um aspecto muito saudável.
05:23
And some of them are from people
114
311704
1552
E outros são de pessoas que, claramente,
não deveriam se aproximar de crianças.
05:25
who really clearly
shouldn't be around children at all.
115
313280
3007
(Risos)
05:28
(Laughter)
116
316311
1615
05:30
And once again, this impossibility
of figuring out who's making this stuff --
117
318987
4640
Mais uma vez, a impossibilidade
de saber quem faz essas coisas...
05:35
like, this is a bot?
118
323651
1156
É um robô?
05:36
Is this a person? Is this a troll?
119
324831
2647
Uma pessoa? Um "troll"?
05:39
What does it mean
that we can't tell the difference
120
327502
2382
Isso significa que não conseguimos mais
notar a diferença entre essas coisas?
05:41
between these things anymore?
121
329908
1583
05:43
And again, doesn't that uncertainty
feel kind of familiar right now?
122
331515
4848
Essa incerteza não lhes parece familiar?
05:50
So the main way people get views
on their videos --
123
338145
2580
O meio principal para obter
visualizações de vídeos,
05:52
and remember, views mean money --
124
340749
1707
e elas significam dinheiro,
05:54
is that they stuff the titles
of these videos with these popular terms.
125
342480
4742
é enchendo os títulos desses vídeos
com esses termos populares.
05:59
So you take, like, "surprise eggs"
126
347246
1687
Considerem os "ovos surpresa".
06:00
and then you add
"Paw Patrol," "Easter egg,"
127
348957
2066
Incluam "Patrulha Canina",
"ovo de Páscoa", seja o que for,
06:03
or whatever these things are,
128
351047
1393
todas as palavras de outros
vídeos populares ao seu título
06:04
all of these words from other
popular videos into your title,
129
352464
2893
até acabarem com esse tipo
de linguagem misturada,
06:07
until you end up with this kind of
meaningless mash of language
130
355381
2968
que não faz sentido algum às pessoas.
06:10
that doesn't make sense to humans at all.
131
358373
2498
06:12
Because of course it's only really
tiny kids who are watching your video,
132
360895
3546
Porque, é claro, são apenas
as criancinhas que veem esses vídeos,
06:16
and what the hell do they know?
133
364465
1827
e o que elas sabem?
06:18
Your real audience
for this stuff is software.
134
366316
3007
O verdadeiro público
para essas coisas é o software,
06:21
It's the algorithms.
135
369347
1156
são os algoritmos.
06:22
It's the software that YouTube uses
136
370527
1855
É o software que o YouTube usa
06:24
to select which videos
are like other videos,
137
372406
2483
para escolher quais vídeos são semelhantes
e torná-los populares e recomendados.
06:26
to make them popular,
to make them recommended.
138
374913
2243
É assim que acabamos tendo
essa mistura totalmente sem sentido,
06:29
And that's why you end up with this
kind of completely meaningless mash,
139
377180
3461
tanto a nível do título como do conteúdo.
06:32
both of title and of content.
140
380665
2071
06:35
But the thing is, you have to remember,
141
383792
1894
Mas temos que nos lembrar
de que ainda há pessoas nesse sistema
otimizado por algoritmos,
06:37
there really are still people within
this algorithmically optimized system,
142
385710
4478
06:42
people who are kind
of increasingly forced to act out
143
390212
2790
que são forçadas a produzir
06:45
these increasingly bizarre
combinations of words,
144
393026
3066
essas combinações de palavras
cada vez mais bizarras,
06:48
like a desperate improvisation artist
responding to the combined screams
145
396116
5173
em uma desesperada improvisação artística,
reagindo aos gritos combinados
de um milhão de crianças de uma vez.
06:53
of a million toddlers at once.
146
401313
2203
06:57
There are real people
trapped within these systems,
147
405168
2468
São pessoas reais, presas nesses sistemas,
e essa é outra coisa muito estranha
dessa cultura comandada por algoritmos,
06:59
and that's the other deeply strange thing
about this algorithmically driven culture,
148
407660
4055
porque, mesmo sendo humano,
07:03
because even if you're human,
149
411739
1381
você acaba se comportando como máquina
apenas para sobreviver.
07:05
you have to end up behaving like a machine
150
413144
2145
07:07
just to survive.
151
415313
1800
E também, do outro lado da tela,
07:09
And also, on the other side of the screen,
152
417137
2100
ainda há criancinhas assistindo a isso,
07:11
there still are these little kids
watching this stuff,
153
419261
2947
07:14
stuck, their full attention grabbed
by these weird mechanisms.
154
422232
4206
com a atenção total presa
por esses estranhos mecanismos.
07:18
And most of these kids are too small
to even use a website.
155
426768
2798
A maioria delas é muito pequena
até para usar a internet.
Só batem na tela com suas mãozinhas.
07:21
They're just kind of hammering
on the screen with their little hands.
156
429590
3276
A reprodução automática
continua exibindo os vídeos
07:24
And so there's autoplay,
157
432890
1217
07:26
where it just keeps playing these videos
over and over and over in a loop,
158
434131
3579
inúmeras vezes, em um ciclo,
infinitamente, durante horas seguidas.
07:29
endlessly for hours and hours at a time.
159
437734
2059
07:31
And there's so much weirdness
in the system now
160
439817
2843
Há tanta coisa estranha
no sistema hoje em dia
que a reprodução automática
nos leva a lugares muito estranhos.
07:34
that autoplay takes you
to some pretty strange places.
161
442684
3009
É assim que, em doze passos,
07:37
This is how, within a dozen steps,
162
445717
2488
07:40
you can go from a cute video
of a counting train
163
448229
3158
você pode passar de um vídeo bonitinho
de um trem contando números
07:43
to masturbating Mickey Mouse.
164
451411
2442
a um Mickey Mouse se masturbando.
07:46
Yeah. I'm sorry about that.
165
454529
2288
Desculpem-me por isso.
07:48
This does get worse.
166
456841
1700
Mas as coisas pioram.
07:50
This is what happens
167
458565
1282
Isso é o que acontece
07:51
when all of these different keywords,
168
459871
3086
quando todas essas palavras-chave
07:54
all these different pieces of attention,
169
462981
2461
e peças de atenção diferentes,
07:57
this desperate generation of content,
170
465466
2807
essa criação desesperada de conteúdo,
08:00
all comes together into a single place.
171
468297
2582
juntam-se todas em um único lugar.
É aqui que todas essas palavras-chave
muito estranhas entram em nossa casa.
08:03
This is where all those deeply weird
keywords come home to roost.
172
471871
4472
08:08
You cross-breed the finger family video
173
476367
2391
Mistura-se o vídeo da família dos dedos
com alguma coisa de super-heróis,
08:10
with some live-action superhero stuff,
174
478782
2088
08:12
you add in some weird,
trollish in-jokes or something,
175
480894
3256
incluem-se algumas piadas bizarras
ou qualquer coisa assim,
08:16
and suddenly, you come
to a very weird place indeed.
176
484174
3366
e, de repente, vamos parar
em um lugar muito estranho.
08:19
The stuff that tends to upset parents
177
487564
2113
O que mais aflige os pais
08:21
is the stuff that has kind of violent
or sexual content, right?
178
489701
3331
são as coisas com conteúdo
violento ou sexual, não é?
08:25
Children's cartoons getting assaulted,
179
493056
2822
Os desenhos animados
em que as crianças são agredidas,
08:27
getting killed,
180
495902
2018
mortas,
08:29
weird pranks that actually
genuinely terrify children.
181
497944
3343
brincadeiras estranhas que realmente
aterrorizam as crianças.
08:33
What you have is software pulling in
all of these different influences
182
501311
3675
Existe um software que obtém
todas essas influências diferentes
08:37
to automatically generate
kids' worst nightmares.
183
505010
2961
para gerar automaticamente
os piores pesadelos das crianças.
08:39
And this stuff really, really
does affect small children.
184
507995
2701
Esse material afeta realmente
as crianças menores.
08:42
Parents report their children
being traumatized,
185
510720
2866
Os pais contam que os filhos
ficam traumatizados,
08:45
becoming afraid of the dark,
186
513610
1392
com medo do escuro,
de seus desenhos animados preferidos.
08:47
becoming afraid of their favorite
cartoon characters.
187
515026
3050
08:50
If you take one thing away from this,
it's that if you have small children,
188
518524
3611
Se há uma conclusão a tirar de tudo isso
é que, se tiverem filhos pequenos,
mantenham-os longe do YouTube.
08:54
keep them the hell away from YouTube.
189
522159
1996
08:56
(Applause)
190
524743
3949
(Aplausos)
09:02
But the other thing, the thing
that really gets to me about this,
191
530504
3096
Mas outra coisa que realmente me aborrece
09:05
is that I'm not sure we even really
understand how we got to this point.
192
533624
4629
é que não tenho certeza se percebemos
como chegamos a esse ponto.
09:10
We've taken all of this influence,
all of these things,
193
538951
2931
Aceitamos todas essas influências,
todas essas coisas e as manipulamos
de uma forma que ninguém pretendia.
09:13
and munged them together in a way
that no one really intended.
194
541906
2953
Mas é assim que também estamos
construindo o mundo inteiro.
09:16
And yet, this is also the way
that we're building the entire world.
195
544883
3156
Pegamos todos esses dados,
09:20
We're taking all of this data,
196
548063
1773
09:21
a lot of it bad data,
197
549860
1447
muitos dados ruins,
muitos dados históricos
cheios de preconceito,
09:23
a lot of historical data
full of prejudice,
198
551331
3029
cheios de todos os nossos
piores impulsos da história,
09:26
full of all of our worst
impulses of history,
199
554384
2837
desenvolvemos enormes conjuntos
de dados e depois os automatizamos.
09:29
and we're building that
into huge data sets
200
557245
2049
09:31
and then we're automating it.
201
559318
1423
Desestruturamos os dados
em coisas como relatórios de crédito,
09:32
And we're munging it together
into things like credit reports,
202
560765
3502
09:36
into insurance premiums,
203
564291
1634
prêmios de seguros,
09:37
into things like predictive
policing systems,
204
565949
2693
sistemas de policiamento preditivo,
09:40
into sentencing guidelines.
205
568666
1762
diretrizes de condenações.
09:42
This is the way we're actually
constructing the world today
206
570452
2821
Essa é a maneira pela qual construímos
o mundo de hoje a partir desses dados.
09:45
out of this data.
207
573297
1151
09:46
And I don't know what's worse,
208
574472
1698
Não sei o que é pior:
09:48
that we built a system
that seems to be entirely optimized
209
576194
3228
termos criado um sistema
que parece estar totalmente otimizado
09:51
for the absolute worst aspects
of human behavior,
210
579446
2808
para os piores aspectos absolutos
do comportamento humano
09:54
or that we seem
to have done it by accident,
211
582278
2425
ou parecer que o fizemos por acaso,
09:56
without even realizing
that we were doing it,
212
584727
2207
sem sequer perceber
o que estávamos fazendo,
09:58
because we didn't really understand
the systems that we were building,
213
586958
3382
porque não compreendíamos
os sistemas que estávamos criando,
10:02
and we didn't really understand
how to do anything differently with it.
214
590364
3683
nem sabíamos como fazer
de forma diferente.
Acredito que há algumas coisas
que parecem estar levando a isso
10:06
There's a couple of things I think
that really seem to be driving this
215
594769
3365
principalmente no YouTube.
10:10
most fully on YouTube,
216
598158
1189
A primeira delas é a publicidade,
10:11
and the first of those is advertising,
217
599371
1827
que é a monetização da atenção
10:13
which is the monetization of attention
218
601222
2837
10:16
without any real other variables at work,
219
604083
3136
sem quaisquer outras
variáveis reais em ação,
10:19
any care for the people who are
actually developing this content,
220
607243
3885
sem qualquer cuidado para as pessoas
que desenvolvem esse conteúdo,
10:23
the centralization of the power,
the separation of those things.
221
611152
3636
a centralização do poder,
a separação dessas coisas.
10:26
And I think however you feel
about the use of advertising
222
614812
3144
Mas creio que, em relação ao uso
da publicidade para apoiar isso,
10:29
to kind of support stuff,
223
617980
1238
a visão de adultos de fraldas
rolando na areia
10:31
the sight of grown men in diapers
rolling around in the sand
224
619242
3067
10:34
in the hope that an algorithm
that they don't really understand
225
622333
2983
na esperança de que um algoritmo
que realmente não compreendem
lhes dará dinheiro,
10:37
will give them money for it
226
625340
1315
sugere que isso talvez
10:38
suggests that this
probably isn't the thing
227
626679
2037
não seja a coisa na qual devemos basear
nossa sociedade e nossa cultura,
10:40
that we should be basing
our society and culture upon,
228
628740
2563
nem a maneira pela qual
devemos financiá-la.
10:43
and the way in which
we should be funding it.
229
631327
2160
O maior controlador disso é a automação,
10:45
And the other thing that's kind of
the major driver of this is automation,
230
633511
3519
que é a disponibilização de toda
essa tecnologia assim que ela chega,
10:49
which is the deployment
of all of this technology
231
637054
2329
10:51
as soon as it arrives,
without any kind of oversight,
232
639407
2521
sem qualquer tipo de supervisão,
e, quando isso acontece,
lavamos as mãos e dizemos:
10:53
and then once it's out there,
233
641952
1412
10:55
kind of throwing up our hands and going,
"Hey, it's not us, it's the technology."
234
643388
3843
"Não somos nós, é a tecnologia.
Não estamos envolvidos".
10:59
Like, "We're not involved in it."
235
647255
1642
Isso não basta,
11:00
That's not really good enough,
236
648921
1767
porque essa coisa não é apenas
determinada por algoritmos,
11:02
because this stuff isn't
just algorithmically governed,
237
650712
2710
11:05
it's also algorithmically policed.
238
653446
2498
mas é também policiada por eles.
11:07
When YouTube first started
to pay attention to this,
239
655968
2848
Quando o YouTube começou
a prestar atenção nisso,
11:10
the first thing they said
they'd do about it
240
658840
2087
disseram que a primeira coisa que fariam
seria criar algoritmos melhores
de aprendizagem de máquinas
11:12
was that they'd deploy
better machine learning algorithms
241
660951
2695
para moderar o conteúdo.
11:15
to moderate the content.
242
663670
1329
11:17
Well, machine learning,
as any expert in it will tell you,
243
665023
3485
Bem, a aprendizagem de máquinas,
como dirá qualquer especialista,
11:20
is basically what we've started to call
244
668532
1896
é o que começamos a chamar de software
que não sabemos realmente como funciona.
11:22
software that we don't really
understand how it works.
245
670452
2588
11:25
And I think we have
enough of that already.
246
673064
3983
Acho que já temos o bastante disso.
11:29
We shouldn't be leaving
this stuff up to AI to decide
247
677071
3166
Não deveríamos deixar a IA decidir
o que é apropriado ou não,
11:32
what's appropriate or not,
248
680261
1251
pois sabemos o que acontece.
11:33
because we know what happens.
249
681536
1436
Ela começará censurando outras coisas,
como o conteúdo "queer",
11:34
It'll start censoring other things.
250
682996
1688
11:36
It'll start censoring queer content.
251
684708
1783
ou os discursos públicos legítimos.
11:38
It'll start censoring
legitimate public speech.
252
686515
2237
O que é permitido nesses discursos
11:40
What's allowed in these discourses,
253
688776
1925
não deveria depender
de sistemas irresponsáveis.
11:42
it shouldn't be something
that's left up to unaccountable systems.
254
690725
3097
Faz parte de uma discussão
que todos nós deveríamos ter.
11:45
It's part of a discussion
all of us should be having.
255
693846
2947
Mas quero lembrar
11:48
But I'd leave a reminder
256
696817
1308
11:50
that the alternative isn't
very pleasant, either.
257
698149
2753
que a alternativa também
não é muito agradável.
11:52
YouTube also announced recently
258
700926
1535
O YouTube anunciou recentemente
11:54
that they're going to release
a version of their kids' app
259
702485
2767
que irá lançar uma versão
de seu aplicativo para crianças,
11:57
that would be entirely
moderated by humans.
260
705276
2407
totalmente moderada por pessoas.
12:00
Facebook -- Zuckerberg said
much the same thing at Congress,
261
708134
3618
Zuckerberg, do Facebook, disse
uma coisa parecida no Congresso,
quando lhe perguntaram
como moderariam seu conteúdo.
12:03
when pressed about how they
were going to moderate their stuff.
262
711776
2987
Disse que haveria pessoas para isso.
12:06
He said they'd have humans doing it.
263
714787
1747
Queriam dizer
12:08
And what that really means is,
264
716558
1459
que, em vez de serem as crianças
as primeiras a verem aqueles conteúdos,
12:10
instead of having toddlers being
the first person to see this stuff,
265
718041
3223
colocariam trabalhadores mal pagos,
12:13
you're going to have underpaid,
precarious contract workers
266
721288
2788
com contratos precários,
sem apoio adequado de saúde mental,
12:16
without proper mental health support
267
724100
1726
que também seriam prejudicados.
12:17
being damaged by it as well.
268
725850
1376
(Risos)
12:19
(Laughter)
269
727250
1096
Acho que podemos fazer
muito melhor do que isso.
12:20
And I think we can all do
quite a lot better than that.
270
728370
2601
(Aplausos)
12:22
(Applause)
271
730995
2499
12:26
The thought, I think, that brings those
two things together, really, for me,
272
734068
4613
Acho que a ideia que reúne
essas duas coisas
12:30
is agency.
273
738705
1420
é o poder de ação.
12:32
It's like, how much do we really
understand -- by agency, I mean:
274
740149
3157
Quero dizer com isso:
12:35
how we know how to act
in our own best interests.
275
743330
4390
como sabemos de que forma agir
no que melhor nos interessa?
12:39
Which -- it's almost impossible to do
276
747744
1787
É quase impossível saber
nesses sistemas dos quais
não temos a compreensão total.
12:41
in these systems that we don't
really fully understand.
277
749555
3485
12:45
Inequality of power
always leads to violence.
278
753064
3071
A desigualdade no poder
sempre leva à violência.
12:48
And we can see inside these systems
279
756159
1685
Podemos ver, nesses sistemas,
que a desigualdade
de compreensão faz o mesmo.
12:49
that inequality of understanding
does the same thing.
280
757868
2611
12:52
If there's one thing that we can do
to start to improve these systems,
281
760503
3779
Se há alguma coisa que podemos fazer
para começar a melhorar esses sistemas,
12:56
it's to make them more legible
to the people who use them,
282
764306
2718
é torná-los mais legíveis
para as pessoas que os utilizam,
12:59
so that all of us have
a common understanding
283
767048
2196
para que todos tenhamos
um entendimento comum
13:01
of what's actually going on here.
284
769268
1851
do que está acontecendo aqui.
Mas o que mais penso
quanto a esses sistemas
13:03
The thing, though, I think
most about these systems
285
771970
2968
13:06
is that this isn't, as I hope
I've explained, really about YouTube.
286
774962
3857
é que não se trata, como espero
ter deixado claro, do YouTube.
13:10
It's about everything.
287
778843
1312
Trata-se de tudo.
13:12
These issues of accountability and agency,
288
780179
2444
Essas questões de poder de ação
e responsabilidade,
13:14
of opacity and complexity,
289
782647
2225
de opacidade e complexidade,
13:16
of the violence and exploitation
that inherently results
290
784896
3177
da violência e da exploração
que resulta inerentemente
13:20
from the concentration
of power in a few hands --
291
788097
2794
da concentração do poder
nas mãos de poucos
13:22
these are much, much larger issues.
292
790915
2579
são questões muito maiores.
13:26
And they're issues not just of YouTube
and not just of technology in general,
293
794395
3687
São questões não apenas do YouTube,
nem da tecnologia em geral,
13:30
and they're not even new.
294
798106
1265
e nem sequer são novas.
Estão conosco há séculos.
13:31
They've been with us for ages.
295
799395
1461
13:32
But we finally built this system,
this global system, the internet,
296
800880
4390
Mas, por fim, criamos
esse sistema global, a internet,
que está nos mostrando essas questões
de forma extraordinária,
13:37
that's actually showing them to us
in this extraordinary way,
297
805294
3019
13:40
making them undeniable.
298
808337
1547
tornando-as inegáveis.
13:41
Technology has this extraordinary capacity
299
809908
2820
A tecnologia tem
a capacidade extraordinária
13:44
to both instantiate and continue
300
812752
3973
de exemplificar e continuar
13:48
all of our most extraordinary,
often hidden desires and biases
301
816749
4248
todos os nossos desejos e preconceitos
mais notáveis, muitas vezes ocultos,
13:53
and encoding them into the world,
302
821021
1866
e codificá-los no mundo,
13:54
but it also writes them down
so that we can see them,
303
822911
3474
mas também de anotá-los
para que possamos percebê-los
13:58
so that we can't pretend
they don't exist anymore.
304
826409
3330
e não possamos fingir
que não existem mais.
14:01
We need to stop thinking about technology
as a solution to all of our problems,
305
829763
4319
Precisamos parar de pensar na tecnologia
como uma solução para todos os problemas
14:06
but think of it as a guide
to what those problems actually are,
306
834106
3757
e pensar nela como um guia
para o que são realmente esses problemas,
14:09
so we can start thinking
about them properly
307
837887
2144
para que possamos
pensar neles adequadamente
14:12
and start to address them.
308
840055
1766
e começar a resolvê-los.
14:13
Thank you very much.
309
841845
1335
Muito obrigado.
(Aplausos)
14:15
(Applause)
310
843204
5192
14:21
Thank you.
311
849733
1188
Obrigado.
14:22
(Applause)
312
850945
2869
(Aplausos)
14:28
Helen Walters: James, thank you
for coming and giving us that talk.
313
856839
3178
Helen Walters: James, obrigada
por ter vindo dar esta palestra.
É interessante, quando pensamos nos filmes
em que os robôs assumem o comando,
14:32
So it's interesting:
314
860041
1189
14:33
when you think about the films where
the robotic overlords take over,
315
861254
3495
14:36
it's all a bit more glamorous
than what you're describing.
316
864773
3279
é um pouco mais glamoroso
do que você descreve.
14:40
But I wonder -- in those films,
you have the resistance mounting.
317
868076
3749
Mas fico pensando: nesses filmes,
temos a escalada da resistência.
Há uma escalada da resistência
sobre esse assunto?
14:43
Is there a resistance mounting
towards this stuff?
318
871849
3216
Você vê sinais positivos
de recuperação da resistência?
14:47
Do you see any positive signs,
green shoots of resistance?
319
875089
3796
14:52
James Bridle: I don't know
about direct resistance,
320
880507
2416
James Bridle: Não sei
sobre a resistência direta,
pois creio que isso seja
muito a longo prazo,
14:54
because I think this stuff
is super long-term.
321
882947
2264
está arraigado na cultura
de maneira muito profunda.
14:57
I think it's baked into culture
in really deep ways.
322
885235
2510
Minha amiga Eleanor Saitta sempre diz
14:59
A friend of mine,
Eleanor Saitta, always says
323
887769
2132
15:01
that any technological problems
of sufficient scale and scope
324
889935
3609
que quaisquer problemas tecnológicos
de dimensão e alcance suficientes
15:05
are political problems first of all.
325
893568
2267
são, antes de mais nada,
problemas políticos.
15:07
So all of these things we're working
to address within this
326
895859
2785
Portanto, todas essas coisas
que tentamos abordar
não serão resolvidas
apenas melhorando a tecnologia,
15:10
are not going to be addressed
just by building the technology better,
327
898668
3274
mas mudando a sociedade que a produz.
15:13
but actually by changing the society
that's producing these technologies.
328
901966
3464
15:17
So no, right now, I think we've got
a hell of a long way to go.
329
905454
3027
Nesse momento, creio que temos
um longo caminho a percorrer.
Mas, como disse, acredito que, explicando,
falando sobre isso de forma honesta,
15:20
But as I said, I think by unpacking them,
330
908505
1986
15:22
by explaining them, by talking
about them super honestly,
331
910515
2697
poderemos, pelo menos,
iniciar esse processo.
15:25
we can actually start
to at least begin that process.
332
913236
2505
HW: Quando você fala sobre legibilidade
e alfabetização digital,
15:27
HW: And so when you talk about
legibility and digital literacy,
333
915765
3562
acho difícil imaginar
15:31
I find it difficult to imagine
334
919351
1591
15:32
that we need to place the burden
of digital literacy on users themselves.
335
920966
3680
que precisamos colocar o ônus
da alfabetização digital nos usuários.
De quem é a responsabilidade
do ensino neste novo mundo?
15:36
But whose responsibility
is education in this new world?
336
924670
4562
15:41
JB: Again, I think this responsibility
is kind of up to all of us,
337
929256
3612
JB: Creio que a responsabilidade
seja de todos nós,
15:44
that everything we do,
everything we build, everything we make,
338
932892
2984
que tudo o que fazemos e criamos
precisa ser feito
numa discussão consensual
15:47
needs to be made
in a consensual discussion
339
935900
3692
15:51
with everyone who's avoiding it;
340
939616
1940
com todos que a têm evitado;
15:53
that we're not building systems
intended to trick and surprise people
341
941580
4341
que não estamos construindo sistemas
para enganar e surpreender as pessoas
15:57
into doing the right thing,
342
945945
2300
fazendo a coisa certa,
16:00
but that they're actually involved
in every step in educating them,
343
948269
3236
mas que elas estejam envolvidas
em cada passo de sua educação,
pois cada um desses sistemas é educativo.
16:03
because each of these systems
is educational.
344
951529
2278
É nisso que tenho esperança,
mesmo nessa coisa sombria,
16:05
That's what I'm hopeful about,
about even this really grim stuff,
345
953831
3102
que, se pudermos analisá-la devidamente,
16:08
that if you can take it
and look at it properly,
346
956957
2262
esteja nela mesma, na verdade,
parte da educação
16:11
it's actually in itself
a piece of education
347
959243
2089
que nos permita começar a ver como
sistemas complexos se juntam e funcionam
16:13
that allows you to start seeing
how complex systems come together and work
348
961356
3762
16:17
and maybe be able to apply
that knowledge elsewhere in the world.
349
965142
3501
e, talvez, conseguir aplicar
esses conhecimentos pelo mundo.
16:20
HW: James, it's such
an important discussion,
350
968667
2115
HW: James, é uma discussão
muito importante,
e sei que muitas pessoas aqui
estão abertas e preparadas para ela.
16:22
and I know many people here
are really open and prepared to have it,
351
970806
3227
Obrigada por ter iniciado nossa manhã.
16:26
so thanks for starting off our morning.
352
974057
1859
JB: Muito obrigado.
16:27
JB: Thanks very much. Cheers.
353
975940
1400
(Aplausos)
16:29
(Applause)
354
977364
1651
Translated by Maurício Kakuei Tanaka
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com