ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: Estamos a criar uma distopia apenas para fazer as pessoas clicar em anúncios

Filmed:
2,866,905 views

Estamos a criar uma distopia movida pela inteligência artificial, um clique de cada vez, diz a tecno-socióloga Zeynep Tufekci. Numa palestra reveladora, detalha como os mesmos algoritmos que empresas como o Facebook, a Google e a Amazon usam para nos fazer clicar em anúncios são também usados para organizar o nosso acesso a informações políticas e sociais. As máquinas não são a real ameaça. O que precisamos de perceber é como os poderosos podem usar a inteligência artificial para nos controlar — e o que podemos fazer em resposta a isso.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voicevoz fearsmedos
of artificialartificial intelligenceinteligência,
0
760
3536
Quando as pessoas falam
dos seus medos da inteligência artificial,
00:16
very oftenfrequentemente, they invokeinvocar imagesimagens
of humanoidhumanoide robotsrobôs runcorre amokamok.
1
4320
3976
comummente, invocam figuras
de robôs humanoides fora de controlo.
00:20
You know? TerminatorExterminador do futuro?
2
8320
1240
Sabem? O Exterminador?
00:22
You know, that mightpoderia be
something to considerconsiderar,
3
10400
2336
Bem, isso pode ser algo a considerar,
00:24
but that's a distantdistante threatameaça.
4
12760
1856
mas é uma ameaça distante.
00:26
Or, we frettraste about digitaldigital surveillancevigilância
5
14640
3456
Ou então, preocupamo-nos
com a vigilância digital
00:30
with metaphorsmetáforas from the pastpassado.
6
18120
1776
com metáforas do passado.
00:31
"1984," GeorgeGeorge Orwell'sOrwell "1984,"
7
19920
2656
"1984" de George Orwell
00:34
it's hittingbatendo the bestsellerBest-seller listslistas again.
8
22600
2280
está a chegar ao topo de vendas novamente.
00:37
It's a great booklivro,
9
25960
1416
É um ótimo livro
00:39
but it's not the correctum lugar para outro dystopiadistopia
for the 21stst centuryséculo.
10
27400
3880
mas não é a distopia correta
para o século XXI.
O que mais devemos temer
00:44
What we need to fearmedo mosta maioria
11
32080
1416
00:45
is not what artificialartificial intelligenceinteligência
will do to us on its ownpróprio,
12
33520
4776
não é o que a inteligência artificial
nos vai fazer por si própria,
mas sim como as pessoas no poder
vão usar a inteligência artificial
00:50
but how the people in powerpoder
will use artificialartificial intelligenceinteligência
13
38320
4736
00:55
to controlao controle us and to manipulatemanipular us
14
43080
2816
para nos controlar e manipular
de formas novas, e às vezes escondidas,
00:57
in novelromance, sometimesas vezes hiddenescondido,
15
45920
3136
01:01
subtlesutil and unexpectedinesperado waysmaneiras.
16
49080
3016
subtis e inesperadas.
01:04
Much of the technologytecnologia
17
52120
1856
Muita da tecnologia
01:06
that threatensameaça our freedomliberdade
and our dignitydignidade in the near-termcurto prazo futurefuturo
18
54000
4336
que ameaça a nossa libertade
e a nossa dignidade, no futuro próximo
está a ser desenvolvida por empresas
01:10
is beingser developeddesenvolvido by companiesempresas
19
58360
1856
01:12
in the businesso negócio of capturingcapturando
and sellingvendendo our datadados and our attentionatenção
20
60240
4936
que estão no ramo de recolher e vender
as nossas informações e a nossa atenção
01:17
to advertisersanunciantes and othersoutras:
21
65200
2256
a publicitários e outros
— o Facebook, a Google, a Amazon,
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazônia,
22
67480
3416
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
o Alibaba, o Tencent.
01:26
Now, artificialartificial intelligenceinteligência has startedcomeçado
bolsteringreforçando theirdeles businesso negócio as well.
24
74040
5496
Agora, a inteligência artificial
também começou
a reforçar os seus negócios.
E pode parecer que
a inteligência artificial
01:31
And it maypode seemparecem
like artificialartificial intelligenceinteligência
25
79560
2096
01:33
is just the nextPróximo thing after onlineconectados adsPublicidades.
26
81680
2856
é o que se seguirá aos anúncios "online".
01:36
It's not.
27
84560
1216
Não é.
01:37
It's a jumpsaltar in categorycategoria.
28
85800
2456
É uma subida de patamar.
01:40
It's a wholetodo differentdiferente worldmundo,
29
88280
2576
É um mundo completamente diferente
01:42
and it has great potentialpotencial.
30
90880
2616
e tem um grande potencial.
01:45
It could accelerateacelerar our understandingcompreensão
of manymuitos areasáreas of studyestude and researchpesquisa.
31
93520
6920
Pode acelerar a nossa compreensão
de muitas áreas de estudo e investigação.
01:53
But to paraphraseparáfrase
a famousfamoso HollywoodHollywood philosopherfilósofo,
32
101120
3496
Mas, para parafrasear
um famoso filósofo de Hollywood,
01:56
"With prodigiousprodigiosa potentialpotencial
comesvem prodigiousprodigiosa riskrisco."
33
104640
3640
"Com um prodigioso potencial,
vem um prodigioso risco."
Olhemos para factos básicos
da nossa vida digital,
02:01
Now let's look at a basicbásico factfacto
of our digitaldigital livesvidas, onlineconectados adsPublicidades.
34
109120
3936
os anúncios "online".
02:05
Right? We kindtipo of dismissdemitir them.
35
113080
2896
Quase nos passam despercebidos.
02:08
They seemparecem crudebruto, ineffectiveineficaz.
36
116000
1976
Parecem brutos, ineficazes.
02:10
We'veTemos all had the experienceexperiência
of beingser followedseguido on the webrede
37
118000
4256
Já todos tivemos a experiência
de sermos perseguidos na Internet
por um anúncio, baseado em algo
que pesquisámos ou lemos.
02:14
by an adde Anúncios basedSediada on something
we searchedprocurado or readler.
38
122280
2776
02:17
You know, you look up a pairpar of bootschuteiras
39
125080
1856
Procuramos um par de botas
02:18
and for a weeksemana, those bootschuteiras are followingSegue
you around everywhereem toda parte you go.
40
126960
3376
e, durante uma semana, aquelas botas
perseguem-nos, aonde quer que vamos.
02:22
Even after you succumbsucumbir and buyComprar them,
they're still followingSegue you around.
41
130360
3656
Mesmo após termos cedido
e as termos comprado, ainda nos perseguem.
Estamos quase habituados a este tipo
de manipulação, básica e barata.
02:26
We're kindtipo of inuredInured to that kindtipo
of basicbásico, cheapbarato manipulationmanipulação.
42
134040
3016
02:29
We rolllista our eyesolhos and we think,
"You know what? These things don't work."
43
137080
3400
Reviramos os olhos e pensamos:
"Sabem que mais?
Estas coisas não funcionam."
02:33
ExceptExceto, onlineconectados,
44
141720
2096
Mas "online", as tecnologias digitais
não são apenas os anúncios.
02:35
the digitaldigital technologiestecnologias are not just adsPublicidades.
45
143840
3600
02:40
Now, to understandCompreendo that,
let's think of a physicalfisica worldmundo exampleexemplo.
46
148240
3120
Para percebermos isso, pensemos
num exemplo do mundo físico.
02:43
You know how, at the checkoutcheck-out counterscontadores de
at supermarketssupermercados, nearperto the cashiercaixa,
47
151840
4656
Sabem como, nos balcões à saída
do supermercado, ao pé das caixas,
02:48
there's candydoces and gumpastilha elástica
at the eyeolho levelnível of kidsfilhos?
48
156520
3480
há doces e pastilhas ao nível
do olhar das crianças?
02:52
That's designedprojetado to make them
whinelamentar-se at theirdeles parentsparentes
49
160800
3496
Isso foi feito para as fazer
choramingar para os pais,
02:56
just as the parentsparentes
are about to sortordenar of checkVerifica out.
50
164320
3080
quando os pais estão quase
a pagar e sair.
03:00
Now, that's a persuasionpersuasão architecturearquitetura.
51
168040
2640
Isso é uma arquitetura de persuasão.
03:03
It's not nicebom, but it kindtipo of workstrabalho.
52
171160
3096
Não é simpático, mas até funciona.
03:06
That's why you see it
in everycada supermarketsupermercado.
53
174280
2040
É por isso que o vemos
em todos os supermercados.
03:08
Now, in the physicalfisica worldmundo,
54
176720
1696
No mundo físico,
03:10
suchtal persuasionpersuasão architecturesarquiteturas de
are kindtipo of limitedlimitado,
55
178440
2496
estas arquiteturas de persuasão
são um pouco limitadas,
03:12
because you can only put
so manymuitos things by the cashiercaixa. Right?
56
180960
4816
porque só dá para pôr algumas coisas
ao pé da caixa, certo?
03:17
And the candydoces and gumpastilha elástica,
it's the samemesmo for everyonetodos,
57
185800
4296
E os doces e as pastilhas
são os mesmos para toda a gente,
03:22
even thoughApesar it mostlyna maioria das vezes workstrabalho
58
190120
1456
apesar de funcionar maioritariamente
03:23
only for people who have
whinyWhiny little humanshumanos besideao lado them.
59
191600
4040
só com pessoas que têm
aqueles seres birrentos ao lado.
03:29
In the physicalfisica worldmundo,
we liveviver with those limitationslimitações.
60
197160
3920
No mundo físico, vivemos
com estas limitações.
No entanto, no mundo digital,
as arquiteturas de persuasão
03:34
In the digitaldigital worldmundo, thoughApesar,
61
202280
1936
03:36
persuasionpersuasão architecturesarquiteturas de
can be builtconstruído at the scaleescala of billionsbilhões
62
204240
4320
podem ser construidas
à escala de milhares de milhões
03:41
and they can targetalvo, inferinferir, understandCompreendo
63
209840
3856
e podem escolher o alvo, deduzir,
compreender e ser utilizadas
em indivíduos, um a um,
03:45
and be deployedimplantado at individualsindivíduos
64
213720
2896
03:48
one by one
65
216640
1216
03:49
by figuringfigurando out your weaknessespontos fracos,
66
217880
2136
percebendo as suas fraquezas,
03:52
and they can be sentenviei
to everyone'stodos phonetelefone privateprivado screentela,
67
220040
5616
e podem ser enviadas para o ecrã
do telefone privado de cada pessoa
03:57
so it's not visiblevisível to us.
68
225680
2256
e, por isso, nós não as vemos.
03:59
And that's differentdiferente.
69
227960
1256
E isso é diferente.
04:01
And that's just one of the basicbásico things
that artificialartificial intelligenceinteligência can do.
70
229240
3576
E é só uma das coisas básicas
que a inteligência artificial faz.
Vejamos um exemplo.
04:04
Now, let's take an exampleexemplo.
71
232840
1336
Suponhamos que queremos vender
bilhetes de avião para Las Vegas.
04:06
Let's say you want to sellvender
planeavião ticketsingressos to VegasLas Vegas. Right?
72
234200
2696
04:08
So in the oldvelho worldmundo, you could think
of some demographicsdados demográficos to targetalvo
73
236920
3496
No mundo antigo, pensaríamos
nalgumas demografias como alvo
04:12
basedSediada on experienceexperiência
and what you can guessacho.
74
240440
2520
com basea na experiência e em palpites.
04:15
You mightpoderia try to advertiseAnuncie to, oh,
75
243560
2816
Poderíamos colocar anúncios
para homens entre os 25 e os 35 anos,
04:18
menhomens betweenentre the agesidades of 25 and 35,
76
246400
2496
04:20
or people who have
a highAlto limitlimite on theirdeles creditcrédito cardcartão,
77
248920
3936
ou pessoas que tenham
um limite elevado no cartão de crédito,
04:24
or retiredaposentou-se couplescasais. Right?
78
252880
1376
ou casais reformados, certo?
04:26
That's what you would do in the pastpassado.
79
254280
1816
Isso seria o que faríamos no passado.
04:28
With biggrande datadados and machinemáquina learningAprendendo,
80
256120
2896
Com a grande quantidade de informações
e a aprendizagem de máquinas,
04:31
that's not how it workstrabalho anymorenão mais.
81
259040
1524
já não é assim que funciona.
04:33
So to imagineImagine that,
82
261320
2176
Para imaginar isso,
04:35
think of all the datadados
that FacebookFacebook has on you:
83
263520
3856
pensemos em todas as informações
que o Facebook tem sobre nós:
04:39
everycada statusstatus updateatualizar you ever typeddigitado,
84
267400
2536
cada atualização de estado
que escrevemos,
04:41
everycada MessengerMensageiro conversationconversação,
85
269960
2016
cada conversa no Messenger,
04:44
everycada placeLugar, colocar you loggedregistrados in from,
86
272000
1880
cada local em que acedemos ao Facebook,
04:48
all your photographsfotografias
that you uploadedcarregado there.
87
276400
3176
cada fotografia que carregámos
para a plataforma.
04:51
If you startcomeçar typingdigitando something
and changemudança your mindmente and deleteexcluir it,
88
279600
3776
Se começamos a escrever uma coisa
e mudamos de ideias e a apagamos
04:55
FacebookFacebook keepsmantém those
and analyzesanálises them, too.
89
283400
3200
o Facebook guarda essas informações
e também as analisa.
Cada vez mais, tenta
fazer a correspondência
04:59
IncreasinglyCada vez mais, it triestentativas
to matchpartida you with your offlinedesligada datadados.
90
287160
3936
entre nós e as nossas
informações "offline".
05:03
It alsoAlém disso purchasescompras
a lot of datadados from datadados brokerscorretores.
91
291120
3176
Também compra muitas informações
a corretores de dados.
05:06
It could be everything
from your financialfinanceiro recordsregistros
92
294320
3416
Pode ser qualquer coisa,
desde registos financeiros,
05:09
to a good chunkpedaço of your browsingnavegação historyhistória.
93
297760
2120
até uma boa parte
do nosso histórico da Internet.
05:12
Right? In the US,
suchtal datadados is routinelyrotineiramente collectedcoletado,
94
300360
5416
Nos EUA estas informações
são rotineiramente recolhidas,
05:17
collatedagrupadas and soldvendido.
95
305800
1960
reunidas e vendidas.
05:20
In EuropeEuropa, they have toughermais difícil rulesregras.
96
308320
2440
Na Europa, há regras mais restritas.
05:23
So what happensacontece then is,
97
311680
2200
Então o que acontece é que,
ao remexer em todas estas informações
05:26
by churningproduzindo throughatravés all that datadados,
these machine-learningaprendizado de máquina algorithmsalgoritmos --
98
314920
4016
os algoritmos de aprendizagem
destas máquinas,
05:30
that's why they're calledchamado
learningAprendendo algorithmsalgoritmos --
99
318960
2896
— é por isso que são chamados,
algoritmos de aprendizagem —
05:33
they learnaprender to understandCompreendo
the characteristicscaracterísticas of people
100
321880
4096
aprendem a detetar
as características das pessoas
05:38
who purchasedcomprado ticketsingressos to VegasLas Vegas before.
101
326000
2520
que já compraram
bilhetes para Las Vegas antes.
05:41
When they learnaprender this from existingexistir datadados,
102
329760
3536
Quando aprendem isto a partir
de informações já existentes,
05:45
they alsoAlém disso learnaprender
how to applyAplique this to newNovo people.
103
333320
3816
também aprendem
como o aplicar a novas pessoas.
05:49
So if they're presentedapresentado with a newNovo personpessoa,
104
337160
3056
Se lhes apresentarem uma nova pessoa,
05:52
they can classifyclassificar whetherse that personpessoa
is likelyprovável to buyComprar a ticketbilhete to VegasLas Vegas or not.
105
340240
4640
eles conseguem classificar se essa pessoa
poderá comprar um bilhete
para Las Vegas ou não.
05:57
Fine. You're thinkingpensando,
an offeroferta to buyComprar ticketsingressos to VegasLas Vegas.
106
345720
5456
Ok, vocês estão a pensar:
"Uma oferta para comprar
um bilhete para Las Vegas?
06:03
I can ignoreignorar that.
107
351200
1456
"Consigo ignorar isso".
06:04
But the problemproblema isn't that.
108
352680
2216
Mas o problema não é isso.
06:06
The problemproblema is,
109
354920
1576
O problema é que já não percebemos
como funcionam estes algoritmos complexos.
06:08
we no longermais longo really understandCompreendo
how these complexcomplexo algorithmsalgoritmos work.
110
356520
4136
06:12
We don't understandCompreendo
how they're doing this categorizationcategorização.
111
360680
3456
Nós não percebemos como estão
a fazer essa categorização.
06:16
It's giantgigante matricesmatrizes,
thousandsmilhares of rowslinhas and columnscolunas,
112
364160
4416
São matrizes gigantes,
milhares de linhas e colunas,
06:20
maybe millionsmilhões of rowslinhas and columnscolunas,
113
368600
1960
talvez milhões de linhas e colunas.
06:23
and not the programmersprogramadores
114
371320
2640
E já nem os programadores
06:26
and not anybodyqualquer pessoa who looksparece at it,
115
374760
1680
nem alguém que olhe para aquilo,
mesmo que tenha todas as informações,
06:29
even if you have all the datadados,
116
377440
1496
06:30
understandsentende anymorenão mais
how exactlyexatamente it's operatingoperativo
117
378960
4616
percebem como, exatamente,
é que aquilo funciona,
06:35
any more than you'dvocê gostaria know
what I was thinkingpensando right now
118
383600
3776
tal como vocês não saberiam
em que é que eu estou a pensar agora,
06:39
if you were shownmostrando
a crossCruz sectionseção of my braincérebro.
119
387400
3960
se eu vos mostrasse um corte
transversal do meu cérebro.
06:44
It's like we're not programmingprogramação anymorenão mais,
120
392360
2576
É como se já não estivéssemos a programar,
06:46
we're growingcrescendo intelligenceinteligência
that we don't trulyverdadeiramente understandCompreendo.
121
394960
4400
estamos a desenvolver inteligência
que já não percebemos verdadeiramente.
06:52
And these things only work
if there's an enormousenorme amountmontante of datadados,
122
400520
3976
Tudo isto só funciona se houver
quantidades enormes de informações.
06:56
so they alsoAlém disso encourageencorajar
deepprofundo surveillancevigilância on all of us
123
404520
5096
Então, eles também encorajam
uma forte vigilância sobre todos nós
07:01
so that the machinemáquina learningAprendendo
algorithmsalgoritmos can work.
124
409640
2336
para que os algoritmos
de aprendizagem funcionem.
07:04
That's why FacebookFacebook wants
to collectrecolher all the datadados it can about you.
125
412000
3176
É por isso que o Facebook recolhe
todas as informações possíveis.
07:07
The algorithmsalgoritmos work better.
126
415200
1576
Os algoritmos funcionam melhor.
07:08
So let's pushempurrar that VegasLas Vegas exampleexemplo a bitpouco.
127
416800
2696
Vamos forçar um pouco
o exemplo de Las Vegas.
07:11
What if the systemsistema
that we do not understandCompreendo
128
419520
3680
E se o sistema,
que nós não compreendemos,
07:16
was pickingescolhendo up that it's easierMais fácil
to sellvender VegasLas Vegas ticketsingressos
129
424200
5136
estivesse a captar que é mais fácil
vender bilhetes para Las Vegas
07:21
to people who are bipolarbipolar
and about to enterentrar the manicmaníacos phasefase.
130
429360
3760
a pessoas que são bipolares
e estão prestes a entrar na fase maníaca?
07:25
SuchTais people tendtende to becometornar-se
overspendersoverspenders, compulsivecompulsivo gamblersapostadores.
131
433640
4920
Essas pessoas tendem a gastar demais
e a serem jogadores compulsivos.
07:31
They could do this, and you'dvocê gostaria have no cluepista
that's what they were pickingescolhendo up on.
132
439280
4456
Eles podiam fazer isso,
e nós não faríamos a ideia
que era esse o critério
que estariam a usar.
07:35
I gavedeu this exampleexemplo
to a bunchgrupo of computercomputador scientistscientistas onceuma vez
133
443760
3616
Uma vez, dei este exemplo
a um grupo de cientistas informáticos
07:39
and afterwardsdepois, one of them cameveio up to me.
134
447400
2056
e no final, um deles veio ter comigo.
07:41
He was troubledcom problemas and he said,
"That's why I couldn'tnão podia publishpublicar it."
135
449480
3520
Estava perturbado e disse:
"Foi por isso que eu não pude publicar."
07:45
I was like, "Couldn'tNão podia publishpublicar what?"
136
453600
1715
E eu: "Não pôde publicar o quê?"
07:47
He had triedtentou to see whetherse you can indeedde fato
figurefigura out the onsetinício of maniamania
137
455800
5856
Ele tinha tentado
perceber se seria possível
apercebermo-nos do início
de uma fase de mania
a partir das publicações nas redes sociais
antes de haver sintomas clínicos,
07:53
from socialsocial mediameios de comunicação postsmensagens
before clinicalclínico symptomssintomas,
138
461680
3216
07:56
and it had workedtrabalhou,
139
464920
1776
e tinha conseguido.
07:58
and it had workedtrabalhou very well,
140
466720
2056
Tinha funcionado muito bem.
08:00
and he had no ideaidéia how it workedtrabalhou
or what it was pickingescolhendo up on.
141
468800
4880
Ele não fazia ideia
de como é que tinha funcionado
ou como é que lá tinha chegado
08:06
Now, the problemproblema isn't solvedresolvido
if he doesn't publishpublicar it,
142
474840
4416
O problema não fica resolvido
se ele não o publicar,
porque já há empresas
a desenvolver este tipo de tecnologia,
08:11
because there are already companiesempresas
143
479280
1896
08:13
that are developingem desenvolvimento
this kindtipo of technologytecnologia,
144
481200
2536
08:15
and a lot of the stuffcoisa
is just off the shelfprateleira.
145
483760
2800
e há muita coisa já disponível.
08:19
This is not very difficultdifícil anymorenão mais.
146
487240
2576
Isto já não é muito difícil.
08:21
Do you ever go on YouTubeYouTube
meaningsignificado to watch one videovídeo
147
489840
3456
Já aconteceu irem ao Youtube
com intenção de ver um vídeo
08:25
and an hourhora latermais tarde you've watchedassisti 27?
148
493320
2360
e uma hora depois, já viram 27?
08:28
You know how YouTubeYouTube
has this columncoluna on the right
149
496760
2496
Sabem, o YouTube tem
aquela coluna à direita,
08:31
that saysdiz, "Up nextPróximo"
150
499280
2216
que diz "A seguir"
08:33
and it autoplaysautomáticas something?
151
501520
1816
e começa automaticamente outro vídeo?
08:35
It's an algorithmalgoritmo de
152
503360
1216
É um algoritmo a escolher
o que acha que nos pode interessar
08:36
pickingescolhendo what it thinksacha
that you mightpoderia be interestedinteressado in
153
504600
3616
e talvez não encontremos sozinhos.
08:40
and maybe not find on your ownpróprio.
154
508240
1536
08:41
It's not a humanhumano editoreditor.
155
509800
1256
Não é um editor humano.
É o que os algoritmos fazem.
08:43
It's what algorithmsalgoritmos do.
156
511080
1416
08:44
It pickspicaretas up on what you have watchedassisti
and what people like you have watchedassisti,
157
512520
4736
Vê o que já vimos e o que pessoas
como nós já viram,
08:49
and infersInfere that that mustdevo be
what you're interestedinteressado in,
158
517280
4216
e presume que aquilo deve ser
do nosso interesse,
08:53
what you want more of,
159
521520
1255
aquilo que queremos ver mais,
e mostra-nos mais.
08:54
and just showsmostra you more.
160
522799
1336
08:56
It soundssoa like a benignbenigno
and usefulútil featurecaracterística,
161
524159
2201
Parece uma funcionalidade benigna e útil,
08:59
exceptexceto when it isn't.
162
527280
1200
exceto quando não é.
09:01
So in 2016, I attendedcom a presença ralliescomícios
of then-candidateEntão candidato DonaldDonald TrumpTrump
163
529640
6960
Em 2016, fui a comícios
do então candidato, Donald Trump
09:09
to studyestude as a scholarScholar
the movementmovimento supportingde apoio him.
164
537840
3336
para estudar, como especialista,
o movimento que o apoiava.
09:13
I studyestude socialsocial movementsmovimentos,
so I was studyingestudando it, too.
165
541200
3456
Eu estudo movimentos sociais,
então estava a estudar isso também.
09:16
And then I wanted to writeEscreva something
about one of his ralliescomícios,
166
544680
3336
Depois, quis escrever qualquer coisa
sobre um dos comícios dele,
09:20
so I watchedassisti it a fewpoucos timesvezes on YouTubeYouTube.
167
548040
1960
portanto vi-o umas vezes no YouTube.
09:23
YouTubeYouTube startedcomeçado recommendingrecomendar to me
168
551240
3096
O YouTube começou a recomendar-me
09:26
and autoplayingAutoplaying to me
whitebranco supremacistsupremacia videosvídeos
169
554360
4256
e a reproduzir automaticamente
vídeos de supremacia da raça branca
09:30
in increasingaumentando orderordem of extremismextremismo.
170
558640
2656
por ordem crescente de extremismo.
09:33
If I watchedassisti one,
171
561320
1816
Se eu visse um,
09:35
it servedservido up one even more extremeextremo
172
563160
2976
aparecer-me-ia outro ainda mais extremo
09:38
and autoplayedautomaticamente that one, too.
173
566160
1424
que também se reproduzia automaticamente.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersSanders contentconteúdo,
174
568320
4536
Se virmos conteúdos de Hillary Clinton
ou de Bernie Sanders,
o YouTube recomenda e reproduz
vídeos de conspirações de esquerda,
09:44
YouTubeYouTube recommendsrecomenda
and autoplaysautomáticas conspiracyconspiração left,
175
572880
4696
09:49
and it goesvai downhilldescendo from there.
176
577600
1760
e a partir daí só piora.
09:52
Well, you mightpoderia be thinkingpensando,
this is politicspolítica, but it's not.
177
580480
3056
Podemos pensar que isto é política,
mas não é.
09:55
This isn't about politicspolítica.
178
583560
1256
Não se trata de política.
09:56
This is just the algorithmalgoritmo de
figuringfigurando out humanhumano behaviorcomportamento.
179
584840
3096
Isto é só o algoritmo a desvendar
o comportamento humano.
09:59
I onceuma vez watchedassisti a videovídeo
about vegetarianismvegetarianismo on YouTubeYouTube
180
587960
4776
Uma vez, vi um vídeo
sobre vegetarianismo no YouTube
10:04
and YouTubeYouTube recommendedrecomendado
and autoplayedautomaticamente a videovídeo about beingser veganvegan.
181
592760
4936
e o YouTube recomendou e reproduziu
um vídeo sobre ser vegan.
10:09
It's like you're never
hardcoreHardcore enoughsuficiente for YouTubeYouTube.
182
597720
3016
É como se nunca fôssemos
duros o suficiente para o YouTube.
10:12
(LaughterRiso)
183
600760
1576
(Risos)
10:14
So what's going on?
184
602360
1560
Então o que é que se está a passar?
10:16
Now, YouTube'sDo YouTube algorithmalgoritmo de is proprietaryproprietário,
185
604520
3536
O algoritmo do YouTube é patenteado,
10:20
but here'saqui está what I think is going on.
186
608080
2360
mas eis o que eu acho
que se está a passar:
10:23
The algorithmalgoritmo de has figuredfigurado out
187
611360
2096
O algoritmo percebeu
10:25
that if you can enticeseduzir people
188
613480
3696
que, se pudermos levar as pessoas a pensar
10:29
into thinkingpensando that you can
showexposição them something more hardcoreHardcore,
189
617200
3736
que lhes podemos mostrar
algo ainda mais forte,
10:32
they're more likelyprovável to stayfique on the sitelocal
190
620960
2416
é mais provável que elas
se mantenham no "site"
10:35
watchingassistindo videovídeo after videovídeo
going down that rabbitcoelho holeburaco
191
623400
4416
a ver vídeo atrás de vídeo,
indo pela espiral abaixo,
enquanto o Google lhes apresenta anúncios.
10:39
while GoogleGoogle servesserve them adsPublicidades.
192
627840
1680
10:43
Now, with nobodyninguém mindingcuidando da
the ethicsética of the storeloja,
193
631760
3120
Sem ninguém a preocupar-se
com a ética da loja,
10:47
these sitessites can profilePerfil people
194
635720
4240
estes "sites" podem fazer
o perfil das pessoas
10:53
who are JewJudeu hatershaters,
195
641680
1920
que odeiam judeus,
10:56
who think that JewsJudeus are parasitesparasitas
196
644360
2480
que acham que os judeus são parasitas
11:00
and who have suchtal explicitexplícito
anti-Semiticantisemita contentconteúdo,
197
648320
4920
e que têm conteúdos
explícitos antissemíticos
11:06
and let you targetalvo them with adsPublicidades.
198
654080
2000
e deixa-os selecioná-los para anúncios.
11:09
They can alsoAlém disso mobilizemobilizar algorithmsalgoritmos
199
657200
3536
Também podem mobilizar algoritmos
11:12
to find for you look-alikeLook-Alike audiencesaudiências,
200
660760
3136
para encontrarem
audiências semelhantes para nós,
11:15
people who do not have suchtal explicitexplícito
anti-Semiticantisemita contentconteúdo on theirdeles profilePerfil
201
663920
5576
pessoas que não tenham conteúdos
antissemíticos explícitos no seu perfil
11:21
but who the algorithmalgoritmo de detectsdetecta
maypode be susceptiblesuscetível to suchtal messagesmensagens,
202
669520
6176
mas que o algoritmo detetou como
possivelmente suscetíveis a tais mensagens
11:27
and letsvamos you targetalvo them with adsPublicidades, too.
203
675720
1920
e deixa que sejam também
alvos desses anúncios.
11:30
Now, this maypode soundsom
like an implausibleimprovável exampleexemplo,
204
678680
2736
Isto pode parecer um exemplo
pouco plausível,
11:33
but this is realreal.
205
681440
1320
mas é a realidade.
11:35
ProPublicaProPublica investigatedinvestigado this
206
683480
2136
A ProPublica investigou isto
11:37
and foundencontrado that you can indeedde fato
do this on FacebookFacebook,
207
685640
3616
e descobriu que se pode
fazer isto no Facebook.
11:41
and FacebookFacebook helpfullyprestativamente
offeredoferecido up suggestionssugestões
208
689280
2416
E o Facebook, prestavelmente,
oferecia sugestões
11:43
on how to broadenampliar that audiencepúblico.
209
691720
1600
para alargar essa audiência.
11:46
BuzzFeedBuzzFeed triedtentou it for GoogleGoogle,
and very quicklyrapidamente they foundencontrado,
210
694720
3016
O BuzzFeed tentou com o Google
e rapidamente descobriram
11:49
yepSim, you can do it on GoogleGoogle, too.
211
697760
1736
que também dá para fazer com o Google.
11:51
And it wasn'tnão foi even expensivecaro.
212
699520
1696
E nem sequer era caro.
11:53
The ProPublicaProPublica reporterrepórter
spentgasto about 30 dollarsdólares
213
701240
4416
O repórter da ProPublica
gastou cerca de 30 dólares
11:57
to targetalvo this categorycategoria.
214
705680
2240
para escolher o grupo-alvo.
12:02
So last yearano, DonaldDonald Trump'sTrump
socialsocial mediameios de comunicação managerGerente discloseddivulgadas
215
710600
5296
No ano passado, o gestor
das redes sociais de Donald Trump
revelou que estavam a usar
"publicações negras" do Facebook
12:07
that they were usingusando FacebookFacebook darkSombrio postsmensagens
to demobilizedesmobilizar people,
216
715920
5336
para desmobilizar as pessoas
e não para as persuadir,
12:13
not to persuadepersuadir them,
217
721280
1376
12:14
but to convinceconvencer them not to votevoto at all.
218
722680
2800
mas para as convencer a não votar de todo.
12:18
And to do that,
they targetedvisadas specificallyespecificamente,
219
726520
3576
Para o fazer, escolheram especificamente
12:22
for exampleexemplo, African-AmericanAfro-americano menhomens
in keychave citiescidades like PhiladelphiaPhiladelphia,
220
730120
3896
por exemplo, homens afro-americanos
de cidades-chave, como Filadélfia.
12:26
and I'm going to readler
exactlyexatamente what he said.
221
734040
2456
Vou ler exatamente o que ele disse.
12:28
I'm quotingcitando.
222
736520
1216
Estou a citar.
12:29
They were usingusando "nonpublicConfidenciais postsmensagens
223
737760
3016
"Eles estavam a usar
publicações não públicas
12:32
whosede quem viewershipaudiência the campaigncampanha controlscontroles
224
740800
2176
"cujas vizualizações
são controladas pela campanha,
12:35
so that only the people
we want to see it see it.
225
743000
3776
"de forma a que apenas as pessoas
que nós queremos que vejam, as vejam.
"Nós modelámos isto.
12:38
We modeledmodelado this.
226
746800
1216
12:40
It will dramaticallydramaticamente affectafetar her abilityhabilidade
to turnvirar these people out."
227
748040
4720
"Vai afetar drasticamente a capacidade
de afastar essas pessoas".
12:45
What's in those darkSombrio postsmensagens?
228
753720
2280
O que está nessas "publicações negras"?
12:48
We have no ideaidéia.
229
756480
1656
Não fazemos ideia.
12:50
FacebookFacebook won'tnão vai tell us.
230
758160
1200
O Facebook não nos diz.
12:52
So FacebookFacebook alsoAlém disso algorithmicallyatravés de algoritmos
arrangesorganiza the postsmensagens
231
760480
4376
O Facebook também organiza
algoritmicamente essas publicações
que os nossos amigos põem no Facebook
ou nas páginas que nós seguimos.
12:56
that your friendsamigos put on FacebookFacebook,
or the pagesPáginas you followSegue.
232
764880
3736
13:00
It doesn't showexposição you
everything chronologicallyem ordem cronológica.
233
768640
2216
Não nos mostra as publicações
por ordem cronológica.
13:02
It putscoloca the orderordem in the way
that the algorithmalgoritmo de thinksacha will enticeseduzir you
234
770880
4816
Ordena as publicações pela ordem
que o algoritmo acha
que nos vai levar
a ficar mais tempo no "site".
13:07
to stayfique on the sitelocal longermais longo.
235
775720
1840
13:11
Now, so this has a lot of consequencesconsequências.
236
779040
3376
Isto tem muitas consequências.
13:14
You maypode be thinkingpensando
somebodyalguém is snubbingEsnobando you on FacebookFacebook.
237
782440
3800
Podemos achar que alguém
nos está a ignorar no Facebook.
13:18
The algorithmalgoritmo de maypode never
be showingmostrando your postpostar to them.
238
786800
3256
Mas o algoritmo pode não lhes estar
a mostrar as nossas publicações.
13:22
The algorithmalgoritmo de is prioritizingpriorizando
some of them and buryingenterrando the othersoutras.
239
790080
5960
O algoritmo está a dar prioridade
a algumas e a enterrar as outras.
13:29
ExperimentsExperiências showexposição
240
797320
1296
As experiências mostram
13:30
that what the algorithmalgoritmo de pickspicaretas to showexposição you
can affectafetar your emotionsemoções.
241
798640
4520
que o que o algoritmo escolhe mostrar
pode afetar as nossas emoções.
13:36
But that's not all.
242
804600
1200
Mas isso não é tudo.
13:38
It alsoAlém disso affectsafeta politicalpolítico behaviorcomportamento.
243
806280
2360
Também afeta o comportamento político.
13:41
So in 2010, in the midtermmédio prazo electionseleições,
244
809360
4656
Em 2010, nas eleições intercalares,
13:46
FacebookFacebook did an experimentexperimentar
on 61 millionmilhão people in the US
245
814040
5896
o Facebook fez uma experiência
em 61 milhões de pessoas nos EUA
13:51
that was discloseddivulgadas after the factfacto.
246
819960
1896
facto que foi revelado depois do facto.
13:53
So some people were shownmostrando,
"TodayHoje is electioneleição day,"
247
821880
3416
Mostraram a algumas pessoas:
"Hoje é dia de eleições",
13:57
the simplermais simples one,
248
825320
1376
a versão mais simples,
13:58
and some people were shownmostrando
the one with that tinyminúsculo tweakTweak
249
826720
3896
e a outras mostraram a versão
com aquela barrinha
14:02
with those little thumbnailsminiaturas
250
830640
2096
com as pequenas fotos dos amigos
que tinham clicado em "Eu votei".
14:04
of your friendsamigos who clickedclicado on "I votedvotou."
251
832760
2840
14:09
This simplesimples tweakTweak.
252
837000
1400
Essa simples barra, ok?
14:11
OK? So the picturesAs fotos were the only changemudança,
253
839520
4296
As fotografias eram a única diferença,
14:15
and that postpostar shownmostrando just onceuma vez
254
843840
3256
e essa publicação,
mostrada apenas uma vez
14:19
turnedvirou out an additionaladicionais 340,000 voterseleitores
255
847120
6056
mobilizou 340 mil votos adicionais
14:25
in that electioneleição,
256
853200
1696
naquelas eleições,
de acordo com este estudo,
14:26
accordingde acordo com to this researchpesquisa
257
854920
1696
14:28
as confirmedconfirmado by the votereleitor rollsrolos.
258
856640
2520
como foi confirmado
pelos registos eleitorais.
14:32
A flukesolha? No.
259
860920
1656
Um mero acaso? Não.
14:34
Because in 2012,
they repeatedrepetido the samemesmo experimentexperimentar.
260
862600
5360
Porque em 2012,
repetiram a mesma experiência.
14:40
And that time,
261
868840
1736
E dessa vez, aquela mensagem cívica
mostrada apenas uma vez,
14:42
that civiccívico messagemensagem shownmostrando just onceuma vez
262
870600
3296
14:45
turnedvirou out an additionaladicionais 270,000 voterseleitores.
263
873920
4440
mobilizou 270 mil votos adicionais.
14:51
For referencereferência, the 2016
US presidentialpresidencial electioneleição
264
879160
5216
Como referência, as eleições
presidenciais de 2016 nos EUA
14:56
was decideddecidiu by about 100,000 votesvotos.
265
884400
3520
foram decididas apenas
por cerca de 100 mil votos.
15:01
Now, FacebookFacebook can alsoAlém disso
very easilyfacilmente inferinferir what your politicspolítica are,
266
889360
4736
O Facebook consegue facilmente deduzir
quais são os nossos ideais políticos,
15:06
even if you've never
discloseddivulgadas them on the sitelocal.
267
894120
2256
mesmo que nunca os tenhamos
revelado no "site".
15:08
Right? These algorithmsalgoritmos
can do that quitebastante easilyfacilmente.
268
896400
2520
Estes algoritmos conseguem
fazer isso muito facilmente.
15:11
What if a platformplataforma with that kindtipo of powerpoder
269
899960
3896
E se uma plataforma
com este tipo de poder
15:15
decidesdecide to turnvirar out supportersapoiantes
of one candidatecandidato over the other?
270
903880
5040
decidir mobilizar apoiantes
de um candidato mais que de outro?
15:21
How would we even know about it?
271
909680
2440
Como é que sequer teríamos
conhecimento disso?
15:25
Now, we startedcomeçado from someplaceem algum lugar
seeminglyaparentemente innocuousinócuo --
272
913560
4136
Começámos de um lugar
supostamente inócuo
15:29
onlineconectados addsacrescenta followingSegue us around --
273
917720
2216
— anúncios "online" que nos perseguem —
15:31
and we'venós temos landeddesembarcou someplaceem algum lugar elseoutro.
274
919960
1840
e chegámos a um local
completamente diferente.
15:35
As a publicpúblico and as citizenscidadãos,
275
923480
2456
Como público e como cidadãos,
nós já não sabemos se estamos a ver
as mesmas informações
15:37
we no longermais longo know
if we're seeingvendo the samemesmo informationem formação
276
925960
3416
15:41
or what anybodyqualquer pessoa elseoutro is seeingvendo,
277
929400
1480
ou o que qualquer outra pessoa está a ver,
15:43
and withoutsem a commoncomum basisbase of informationem formação,
278
931680
2576
e sem uma base comum de informações,
15:46
little by little,
279
934280
1616
pouco a pouco, o debate público
torna-se impossível,
15:47
publicpúblico debatedebate is becomingtornando-se impossibleimpossível,
280
935920
3216
15:51
and we're just at
the beginningcomeçando stagesestágios of this.
281
939160
2976
e estamos apenas no início de tudo isto.
15:54
These algorithmsalgoritmos can quitebastante easilyfacilmente inferinferir
282
942160
3456
Estes algoritmos conseguem,
com bastante facilidade,
deduzir coisas como a etnia das pessoas,
15:57
things like your people'spovos ethnicityetnia,
283
945640
3256
as crenças religiosas e políticas,
traços de personalidade.
16:00
religiousreligioso and politicalpolítico viewsvisualizações,
personalitypersonalidade traitstraços,
284
948920
2336
16:03
intelligenceinteligência, happinessfelicidade,
use of addictiveviciante substancessubstâncias,
285
951280
3376
inteligência, felicidade,
uso de substâncias aditivas,
16:06
parentalparental separationseparação, ageera and genderssexos,
286
954680
3136
separações dos pais, idade e género,
16:09
just from FacebookFacebook likesgosta.
287
957840
1960
apenas pelos likes do Facebook.
16:13
These algorithmsalgoritmos can identifyidentificar protestersmanifestantes
288
961440
4056
Estes algoritmos podem
identificar manifestantes
16:17
even if theirdeles facesrostos
are partiallyparcialmente concealedEscondido.
289
965520
2760
mesmo se as suas caras estiverem
parcialmente escondidas.
16:21
These algorithmsalgoritmos maypode be ablecapaz
to detectdetectar people'spovos sexualsexual orientationorientação
290
969720
6616
Estes algoritmos podem conseguir
detetar a orientação sexual duma pessoa
16:28
just from theirdeles datingnamoro profilePerfil picturesAs fotos.
291
976360
3200
apenas pelas fotografias
do perfil de encontros.
16:33
Now, these are probabilisticprobabilística guessespalpites,
292
981560
2616
Estes são palpites probabilísticos,
16:36
so they're not going
to be 100 percentpor cento right,
293
984200
2896
por isso não vão estar 100% corretos.
16:39
but I don't see the powerfulpoderoso resistingresistência à
the temptationtentação to use these technologiestecnologias
294
987120
4896
Mas eu não vejo os poderosos a resistir
à tentação de usar estas tecnologias
16:44
just because there are
some falsefalso positivespositivos,
295
992040
2176
apenas porque há alguns falsos positivos,
16:46
whichqual will of coursecurso createcrio
a wholetodo other layercamada of problemsproblemas.
296
994240
3256
o que, claro, vai criar
toda uma outra camada de problemas.
16:49
ImagineImagine what a stateEstado can do
297
997520
2936
Imaginem o que um Estado pode fazer
16:52
with the immenseimenso amountmontante of datadados
it has on its citizenscidadãos.
298
1000480
3560
com a quantidade imensa de informações
que tiver dos seus cidadãos.
16:56
ChinaChina is already usingusando
facecara detectiondetecção technologytecnologia
299
1004680
4776
A China já está a usar tecnologia
de reconhecimento facial.
17:01
to identifyidentificar and arrestprender people.
300
1009480
2880
para identificar e deter pessoas.
17:05
And here'saqui está the tragedytragédia:
301
1013280
2136
E a tragédia é esta:
17:07
we're buildingconstrução this infrastructurea infraestrutura
of surveillancevigilância authoritarianismautoritarismo
302
1015440
5536
estamos a construir esta infraestrutura
de vigilância autoritária
17:13
merelyapenas to get people to clickclique on adsPublicidades.
303
1021000
2960
apenas para fazer as pessoas
clicar em anúncios.
17:17
And this won'tnão vai be
Orwell'sOrwell authoritarianismautoritarismo.
304
1025240
2576
Este não vai ser
o autoritarismo de Orwell.
17:19
This isn't "1984."
305
1027839
1897
Não é o "1984".
17:21
Now, if authoritarianismautoritarismo
is usingusando overtabertos fearmedo to terrorizeaterrorizar us,
306
1029760
4576
Se o autoritarismo usar medo explícito
para nos aterrorizar
nós ficaremos assustados,
mas temos consciência disso,
17:26
we'llbem all be scaredassustada, but we'llbem know it,
307
1034359
2897
vamos odiá-lo e vamos resistir-lhe.
17:29
we'llbem hateódio it and we'llbem resistresistir it.
308
1037280
2200
17:32
But if the people in powerpoder
are usingusando these algorithmsalgoritmos
309
1040880
4416
Mas se as pessoas no poder
usarem estes algoritmos
17:37
to quietlysilenciosamente watch us,
310
1045319
3377
para, silenciosamente, nos vigiarem,
17:40
to judgejuiz us and to nudgenudge us,
311
1048720
2080
para nos julgarem
e para nos influenciarem,
17:43
to predictprever and identifyidentificar
the troublemakersdesordeiros and the rebelsrebeldes,
312
1051720
4176
para preverem e para identificarem
os desordeiros e os rebeldes,
17:47
to deployimplantar persuasionpersuasão
architecturesarquiteturas de at scaleescala
313
1055920
3896
para implementarem técnicas
de persuação em larga escala
17:51
and to manipulatemanipular individualsindivíduos one by one
314
1059840
4136
e para manipularem indivíduos,
um por um,
17:56
usingusando theirdeles personalpessoal, individualIndividual
weaknessespontos fracos and vulnerabilitiesvulnerabilidades,
315
1064000
5440
usando fraquezas e vulnerabilidades
individuais e pessoais,
18:02
and if they're doing it at scaleescala
316
1070720
2200
e se o estão a fazer em larga escala,
18:06
throughatravés our privateprivado screenstelas
317
1074080
1736
através dos nossos ecrãs privados,
18:07
so that we don't even know
318
1075840
1656
para que nós nem saibamos
18:09
what our fellowcompanheiro citizenscidadãos
and neighborsvizinhos are seeingvendo,
319
1077520
2760
o que os outros cidadãos
e vizinhos estão a ver,
18:13
that authoritarianismautoritarismo
will envelopEnvelop us like a spider'sdo Aranha webrede
320
1081560
4816
esse autoritarismo vai envolver-nos
como uma teia de aranha
18:18
and we maypode not even know we're in it.
321
1086400
2480
e podemos nem dar conta
de que estamos nela.
18:22
So Facebook'sDo Facebook marketmercado capitalizationcapitalização
322
1090440
2936
A capitalização de mercado do Facebook
18:25
is approachingaproximando-se halfmetade a trilliontrilhão dollarsdólares.
323
1093400
3296
está a aproximar-se
de meio bilião de dólares.
18:28
It's because it workstrabalho great
as a persuasionpersuasão architecturearquitetura.
324
1096720
3120
É porque funciona lindamente
como arquitetura de persuasão.
18:33
But the structureestrutura of that architecturearquitetura
325
1101760
2816
Mas a estrutura desta arquitetura
18:36
is the samemesmo whetherse you're sellingvendendo shoessapatos
326
1104600
3216
é a mesma, quer estejam a vender sapatos
18:39
or whetherse you're sellingvendendo politicspolítica.
327
1107840
2496
ou a vender política.
18:42
The algorithmsalgoritmos do not know the differencediferença.
328
1110360
3120
Os algoritmos não sabem a diferença.
18:46
The samemesmo algorithmsalgoritmos setconjunto loosesolto uponsobre us
329
1114240
3296
O mesmo algoritmo que faz
o que quer connosco,
para nos deixar
mais vulveráveis a anúncios,
18:49
to make us more pliableFlexível for adsPublicidades
330
1117560
3176
também organiza o fluxo
das nossas informações
18:52
are alsoAlém disso organizingorganizando our politicalpolítico,
personalpessoal and socialsocial informationem formação flowsflui,
331
1120760
6736
políticas, pessoais e sociais
18:59
and that's what's got to changemudança.
332
1127520
1840
e é isso que tem de mudar.
19:02
Now, don't get me wrongerrado,
333
1130240
2296
Não me interpretem mal.
19:04
we use digitaldigital platformsplataformas
because they provideprovidenciar us with great valuevalor.
334
1132560
3680
Nós usamos plataformas digitais
porque são valiosas para nós.
Eu uso o Facebook para me manter
em contacto
19:09
I use FacebookFacebook to keep in touchtocar
with friendsamigos and familyfamília around the worldmundo.
335
1137120
3560
com a família e amigos de todo o mundo.
19:14
I've writtenescrito about how crucialcrucial
socialsocial mediameios de comunicação is for socialsocial movementsmovimentos.
336
1142000
5776
Eu já escrevi sobre o quão cruciais
são as redes sociais
para os movimentos sociais.
19:19
I have studiedestudou how
these technologiestecnologias can be used
337
1147800
3016
Já estudei o modo como estas tecnologias
podem ser usadas
19:22
to circumventcontornar censorshipcensura around the worldmundo.
338
1150840
2480
para contornar a censura a nível mundial.
19:27
But it's not that the people who runcorre,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Não que as pessoas que controlam
o Facebook e o Google
estejam, maliciosa e deliberadamente,
19:33
are maliciouslymaliciosamente and deliberatelydeliberadamente tryingtentando
340
1161720
2696
a tentar tornar o país ou o mundo
mais polarizado
19:36
to make the countrypaís
or the worldmundo more polarizedpolarizado
341
1164440
4456
19:40
and encourageencorajar extremismextremismo.
342
1168920
1680
e a encorajar o extremismo.
19:43
I readler the manymuitos
well-intentionedbem-intencionado statementsafirmações
343
1171440
3976
Li as várias declarações bem-intencionadas
que essas pessoas publicaram.
19:47
that these people put out.
344
1175440
3320
19:51
But it's not the intentintenção or the statementsafirmações
people in technologytecnologia make that matterimportam,
345
1179600
6056
Mas não é a intenção ou as declarações
que as pessoas da tecnologia fazem
que importam.
19:57
it's the structuresestruturas
and businesso negócio modelsmodelos they're buildingconstrução.
346
1185680
3560
São as estruturas e os modelos de negócio
que estão a construir.
20:02
And that's the coretestemunho of the problemproblema.
347
1190360
2096
E isso é a base do problema.
20:04
EitherDe qualquer FacebookFacebook is a giantgigante con
of halfmetade a trilliontrilhão dollarsdólares
348
1192480
4720
Ou o Facebook é uma enorme fraude
de meio bilião de dólares
e os anúncios não funcionam no "site",
20:10
and adsPublicidades don't work on the sitelocal,
349
1198200
1896
20:12
it doesn't work
as a persuasionpersuasão architecturearquitetura,
350
1200120
2696
não funcionam como
uma arquitetura de persuasão,
ou o seu poder e influência
são uma grande preocupação.
20:14
or its powerpoder of influenceinfluência
is of great concernpreocupação.
351
1202840
4120
20:20
It's eitherou one or the other.
352
1208560
1776
Ou é uma coisa ou é outra.
20:22
It's similarsemelhante for GoogleGoogle, too.
353
1210360
1600
E passa-se o mesmo com o Google.
20:24
So what can we do?
354
1212880
2456
Então o que é que podemos fazer?
20:27
This needsprecisa to changemudança.
355
1215360
1936
Isto tem de mudar.
20:29
Now, I can't offeroferta a simplesimples recipereceita,
356
1217320
2576
Não consigo apresentar uma receita simples
20:31
because we need to restructurereestruturar
357
1219920
2256
porque é preciso reestruturar
20:34
the wholetodo way our
digitaldigital technologytecnologia operatesopera.
358
1222200
3016
toda a maneira como a nossa
tecnologia digital funciona.
20:37
Everything from the way
technologytecnologia is developeddesenvolvido
359
1225240
4096
Tudo, desde a maneira
como a tecnologia é desenvolvida
20:41
to the way the incentivesincentivos,
economiceconômico and otherwisede outra forma,
360
1229360
3856
até à maneira como os incentivos,
económicos e não só,
20:45
are builtconstruído into the systemsistema.
361
1233240
2280
estão construídos no sistema.
20:48
We have to facecara and try to dealacordo with
362
1236480
3456
Temos de encarar e tentar lidar
com a falta de transparência
20:51
the lackfalta of transparencytransparência
createdcriada by the proprietaryproprietário algorithmsalgoritmos,
363
1239960
4656
criada pelos algoritmos patenteados,
20:56
the structuralestrutural challengedesafio
of machinemáquina learning'saprendizagem de opacityopacidade,
364
1244640
3816
o problema estrutural da opacidade
da aprendizagem de máquinas,
21:00
all this indiscriminateindiscriminada datadados
that's beingser collectedcoletado about us.
365
1248480
3400
e todas estas informações indiscriminadas
que estão a ser recolhidas sobre nós.
21:05
We have a biggrande tasktarefa in frontfrente of us.
366
1253000
2520
Temos uma grande tarefa à nossa frente.
21:08
We have to mobilizemobilizar our technologytecnologia,
367
1256160
2680
Temos de mobilizar a nossa tecnologia,
21:11
our creativitycriatividade
368
1259760
1576
a nossa criatividade
21:13
and yes, our politicspolítica
369
1261360
1880
e sim, a nossa política
21:16
so that we can buildconstruir
artificialartificial intelligenceinteligência
370
1264240
2656
para conseguirmos construir
uma inteligência artificial
21:18
that supportsoferece suporte a us in our humanhumano goalsmetas
371
1266920
3120
que nos apoie nas nossas metas humanas
mas que também seja limitada
pelos nossos valores humanos.
21:22
but that is alsoAlém disso constrainedconstrangido
by our humanhumano valuesvalores.
372
1270800
3920
21:27
And I understandCompreendo this won'tnão vai be easyfácil.
373
1275600
2160
Eu compreendo que não vai ser fácil.
21:30
We mightpoderia not even easilyfacilmente agreeaceita
on what those termstermos mean.
374
1278360
3600
Podemos até nem concordar facilmente
no que significam estes termos.
21:34
But if we take seriouslya sério
375
1282920
2400
Mas, se levarmos a sério
como funcionam estes sistemas
de que dependemos para tanta coisa,
21:38
how these systemssistemas that we
dependdepender on for so much operateoperar,
376
1286240
5976
não vejo como podemos
adiar mais esta conversa.
21:44
I don't see how we can postponepostergar
this conversationconversação anymorenão mais.
377
1292240
4120
21:49
These structuresestruturas
378
1297200
2536
Estas estruturas estão a organizar
21:51
are organizingorganizando how we functionfunção
379
1299760
4096
o modo como nós funcionamos
21:55
and they're controllingcontrolando
380
1303880
2296
e estão a controlar
21:58
what we can and we cannotnão podes do.
381
1306200
2616
o que podemos fazer ou não.
22:00
And manymuitos of these ad-financedAD-financiado platformsplataformas,
382
1308840
2456
Muitas destas plataformas
financiadas por anúncios
22:03
they boastvangloriar-se that they're freelivre.
383
1311320
1576
gabam-se de serem gratuitas.
22:04
In this contextcontexto, it meanssignifica
that we are the productprodutos that's beingser soldvendido.
384
1312920
4560
O que, neste contexto, quer dizer
que somos nós o produto
que estão a vender.
22:10
We need a digitaldigital economyeconomia
385
1318840
2736
Precisamos de uma economia digital
22:13
where our datadados and our attentionatenção
386
1321600
3496
em que as nossas informações
e a nossa atenção
22:17
is not for salevenda to the highest-biddingmaior licitação
authoritarianautoritário or demagoguedemagogo.
387
1325120
5080
não estejam à venda
para o déspota ou o demagogo
que esteja disposto a pagar mais.
22:23
(ApplauseAplausos)
388
1331160
3800
(Aplausos)
22:30
So to go back to
that HollywoodHollywood paraphraseparáfrase,
389
1338480
3256
Para voltar à paráfrase de Hollywood,
22:33
we do want the prodigiousprodigiosa potentialpotencial
390
1341760
3736
nós queremos que o prodigioso potencial
22:37
of artificialartificial intelligenceinteligência
and digitaldigital technologytecnologia to blossomflor,
391
1345520
3200
da inteligência artificial
e da tecnologia digital floresça
22:41
but for that, we mustdevo facecara
this prodigiousprodigiosa menaceameaça,
392
1349400
4936
mas, para isso, temos de enfrentar
esta prodigiosa ameaça
de olhos bem abertos e já.
22:46
open-eyedde olhos abertos and now.
393
1354360
1936
22:48
Thank you.
394
1356320
1216
Obrigada.
22:49
(ApplauseAplausos)
395
1357560
4640
(Aplausos)
Translated by Patrícia André
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com