ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citron: Como os "deepfakes" minam a verdade e ameaçam a democracia

Filmed:
1,533,743 views

O uso da tecnologia "deepfake" para manipular vídeo e áudio para fins maliciosos, seja para alimentar a violência ou difamar políticos e jornalistas, está se tornando uma ameaça real. À medida que essas ferramentas se tornam mais acessíveis e seus produtos mais realistas, como eles moldarão o que acreditamos sobre o mundo? Em uma palestra portentosa, a professora de direito Danielle Citron revela como deepfakes ampliam nossa desconfiança, e sugere abordagens para salvaguardar a verdade.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

[Esta palestra apresenta conteúdo adulto]
00:12
[This talk contains mature content]
0
535
2767
00:17
Rana Ayyub is a journalist in India
1
5762
2992
Rana Ayyub é uma jornalista na Índia
00:20
whose work has exposed
government corruption
2
8778
2602
cujo trabalho expôs a corrupção do governo
00:24
and human rights violations.
3
12411
2157
e violações de direitos humanos.
00:26
And over the years,
4
14990
1167
E ao longo dos anos,
ela se acostumou com criticismo severo
e controvérsia em torno de seu trabalho.
00:28
she's gotten used to vitriol
and controversy around her work.
5
16181
3303
00:32
But none of it could have prepared her
for what she faced in April 2018.
6
20149
5109
Mas nada disso poderia tê-la preparado
para o que enfrentou em abril de 2018.
00:38
She was sitting in a café with a friend
when she first saw it:
7
26125
3651
Ela estava num café com um amigo
quando viu pela primeira vez
00:41
a two-minute, 20-second video
of her engaged in a sex act.
8
29800
4943
um vídeo de dois minutos
e vinte segundos dela num ato sexual.
00:47
And she couldn't believe her eyes.
9
35188
2349
Não acreditou no que estava vendo.
00:49
She had never made a sex video.
10
37561
2273
Ela nunca fez um vídeo de sexo.
00:52
But unfortunately, thousands
upon thousands of people
11
40506
3465
Mas, infelizmente, milhares de pessoas
00:55
would believe it was her.
12
43995
1666
acreditaram que era ela.
00:58
I interviewed Ms. Ayyub
about three months ago,
13
46673
2944
Entrevistei a Sra. Ayyub
cerca de três meses atrás,
01:01
in connection with my book
on sexual privacy.
14
49641
2504
em conexão com meu livro
sobre privacidade sexual.
01:04
I'm a law professor, lawyer
and civil rights advocate.
15
52681
3198
Sou professora de direito, advogada
e defensora dos direitos civis.
01:08
So it's incredibly frustrating
knowing that right now,
16
56204
4611
É incrivelmente frustrante saber que agora
01:12
law could do very little to help her.
17
60839
2238
a lei pode fazer muito pouco pra ajudá-la.
01:15
And as we talked,
18
63458
1547
E enquanto conversávamos,
01:17
she explained that she should have seen
the fake sex video coming.
19
65029
4512
ela explicou que deveria ter
previsto o vídeo de sexo falso.
01:22
She said, "After all, sex is so often used
to demean and to shame women,
20
70038
5596
Ela disse: "Afinal, sexo costuma ser usado
para humilhar e envergonhar as mulheres,
01:27
especially minority women,
21
75658
2428
especialmente mulheres de minorias,
01:30
and especially minority women
who dare to challenge powerful men,"
22
78110
4312
e especialmente as que ousam
desafiar homens poderosos",
01:34
as she had in her work.
23
82446
1533
como ela fazia em seu trabalho.
01:37
The fake sex video went viral in 48 hours.
24
85191
3976
O vídeo de sexo falso
se tornou viral em 48 horas.
01:42
All of her online accounts were flooded
with screenshots of the video,
25
90064
5307
Todas as suas contas on-line foram
inundadas com capturas de tela do vídeo,
01:47
with graphic rape and death threats
26
95395
2627
ameaças explícitas de estupro e morte
01:50
and with slurs about her Muslim faith.
27
98046
2533
e com insultos à sua fé muçulmana.
01:53
Online posts suggested that
she was "available" for sex.
28
101426
4564
Postagens on-line sugeriam que ela
estava "disponível" para o sexo.
01:58
And she was doxed,
29
106014
1610
E ela tinha sido "doxed",
01:59
which means that her home address
and her cell phone number
30
107648
2778
ou seja, o número de celular
e o endereço residencial dela
02:02
were spread across the internet.
31
110450
1746
foram espalhados pela internet.
02:04
The video was shared
more than 40,000 times.
32
112879
4084
O vídeo foi compartilhado
mais de 40 mil vezes.
02:09
Now, when someone is targeted
with this kind of cybermob attack,
33
117760
3936
Quando alguém é alvo
desse tipo de ataque cibernético,
02:13
the harm is profound.
34
121720
2063
o dano é profundo.
02:16
Rana Ayyub's life was turned upside down.
35
124482
3039
A vida de Rana Ayyub
virou de cabeça para baixo.
02:20
For weeks, she could hardly eat or speak.
36
128211
3334
Por semanas, ela mal podia comer ou falar.
02:23
She stopped writing and closed
all of her social media accounts,
37
131919
3689
Ela parou de escrever e cancelou
todas as contas de rede social,
02:27
which is, you know, a tough thing to do
when you're a journalist.
38
135632
3158
algo difícil de fazer
quando se é jornalista.
02:31
And she was afraid to go outside
her family's home.
39
139188
3484
Ela tinha medo de sair
da casa de sua família.
02:34
What if the posters
made good on their threats?
40
142696
3022
E se aquelas ameaças fossem cumpridas?
02:38
The UN Council on Human Rights
confirmed that she wasn't being crazy.
41
146395
4365
O Conselho de Direitos Humanos da ONU
confirmou que ela não estava exagerando.
02:42
It issued a public statement saying
that they were worried about her safety.
42
150784
4637
Emitiu uma declaração pública dizendo que
estavam preocupados com a segurança dela.
02:48
What Rana Ayyub faced was a deepfake:
43
156776
4229
Rana Ayyub enfrentou um "deepfake":
02:53
machine-learning technology
44
161029
2540
tecnologia de aprendizado de máquina
02:55
that manipulates or fabricates
audio and video recordings
45
163593
4111
que manipula ou fabrica
gravações de áudio e vídeo
02:59
to show people doing and saying things
46
167728
2723
mostrando pessoas fazendo e dizendo coisas
03:02
that they never did or said.
47
170475
1866
que elas nunca fizeram ou disseram.
03:04
Deepfakes appear authentic
and realistic, but they're not;
48
172807
3361
Deepfakes parecem autênticos
e realistas, mas não são,
03:08
they're total falsehoods.
49
176192
1772
são falsidades totais.
03:11
Although the technology
is still developing in its sophistication,
50
179228
3794
Embora a tecnologia ainda esteja
se desenvolvendo em sofisticação,
03:15
it is widely available.
51
183046
1614
ela está amplamente disponível.
03:17
Now, the most recent attention
to deepfakes arose,
52
185371
3072
O interesse mais recente
aos deepfakes surgiu,
03:20
as so many things do online,
53
188467
2161
como muitas coisas on-line,
03:22
with pornography.
54
190652
1255
com a pornografia.
03:24
In early 2018,
55
192498
2111
No início de 2018,
03:26
someone posted a tool on Reddit
56
194633
2468
alguém postou uma ferramenta no Reddit
03:29
to allow users to insert faces
into porn videos.
57
197125
4412
permitindo que os usuários pusessem
rostos em vídeos pornográficos.
03:33
And what followed was a cascade
of fake porn videos
58
201561
3440
E o que se seguiu foi uma cascata
de vídeos pornográficos falsos
03:37
featuring people's favorite
female celebrities.
59
205025
2797
apresentando as celebridades
femininas favoritas das pessoas.
03:40
And today, you can go on YouTube
and pull up countless tutorials
60
208712
3477
E hoje, podemos acessar o YouTube
e assistir a inúmeros tutoriais
03:44
with step-by-step instructions
61
212213
2286
com instruções passo a passo
03:46
on how to make a deepfake
on your desktop application.
62
214523
3163
de como fazer um deepfake no computador.
03:50
And soon we may be even able
to make them on our cell phones.
63
218260
3706
Em breve poderemos fazê-lo
em nosso telefone celular.
03:55
Now, it's the interaction
of some of our most basic human frailties
64
223072
5382
A interação de algumas de nossas
fragilidades humanas mais básicas
04:00
and network tools
65
228478
1682
com ferramentas de rede
04:02
that can turn deepfakes into weapons.
66
230184
2666
podem transformar deepfakes em armas.
04:04
So let me explain.
67
232874
1200
Deixem-me explicar.
04:06
As human beings, we have
a visceral reaction to audio and video.
68
234875
4566
Como seres humanos, temos
uma reação visceral ao áudio e vídeo.
04:11
We believe they're true,
69
239860
1488
Acreditamos que são verdadeiros,
04:13
on the notion that
of course you can believe
70
241372
2078
já que é claro que podemos acreditar
04:15
what your eyes and ears are telling you.
71
243474
2478
no que nossos olhos e ouvidos
estão nos dizendo.
04:18
And it's that mechanism
72
246476
1699
E é esse mecanismo
04:20
that might undermine our shared
sense of reality.
73
248199
3698
que pode comprometer
nosso senso comum de realidade.
04:23
Although we believe deepfakes
to be true, they're not.
74
251921
3147
Embora acreditemos que deepfakes
sejam verdadeiros, eles não são.
04:27
And we're attracted
to the salacious, the provocative.
75
255604
4157
E nós somos atraídos
pelo obsceno e provocante.
04:32
We tend to believe
and to share information
76
260365
3047
Tendemos a acreditar
e compartilhar informações
04:35
that's negative and novel.
77
263436
2023
negativas e novas.
04:37
And researchers have found that online
hoaxes spread 10 times faster
78
265809
5019
Pesquisadores descobriram que os boatos
on-line se espalham dez vezes mais rápido
04:42
than accurate stories.
79
270852
1627
do que histórias verdadeiras.
04:46
Now, we're also drawn to information
80
274015
4380
Também somos atraídos por informações
04:50
that aligns with our viewpoints.
81
278419
1892
alinhadas com nossos pontos de vista.
04:52
Psychologists call that tendency
"confirmation bias."
82
280950
3561
Psicólogos chamam essa tendência
de "viés de confirmação".
04:57
And social media platforms
supercharge that tendency,
83
285300
4387
E as plataformas de rede social
sobrecarregam essa tendência,
05:01
by allowing us to instantly
and widely share information
84
289711
3881
permitindo compartilhar informações,
instantaneamente e amplamente,
05:05
that accords with our viewpoints.
85
293616
1792
que estejam de acordo com nossa opinião.
05:08
Now, deepfakes have the potential to cause
grave individual and societal harm.
86
296735
5568
Deepfakes têm o potencial de causar
graves danos individuais e sociais.
05:15
So, imagine a deepfake
87
303204
2024
Então, imaginem um deepfake
05:17
that shows American soldiers
in Afganistan burning a Koran.
88
305252
4182
que mostre soldados norte-americanos
no Afeganistão queimando um Alcorão.
05:22
You can imagine that that deepfake
would provoke violence
89
310807
3024
Podem imaginar que esse deepfake
provocaria violência contra eles.
05:25
against those soldiers.
90
313855
1533
05:27
And what if the very next day
91
315847
2873
E se no dia seguinte
05:30
there's another deepfake that drops,
92
318744
2254
há outro deepfake,
05:33
that shows a well-known imam
based in London
93
321022
3317
mostrando um imame que mora em Londres
enaltecendo o ataque a esses soldados?
05:36
praising the attack on those soldiers?
94
324363
2467
05:39
We might see violence and civil unrest,
95
327617
3163
Poderíamos ver violência e agitação civil,
05:42
not only in Afganistan
and the United Kingdom,
96
330804
3249
não só no Afeganistão e no Reino Unido,
05:46
but across the globe.
97
334077
1515
mas em todo o mundo.
05:48
And you might say to me,
98
336251
1158
E vocês podem me dizer:
"Deixe disso, Danielle, é exagero".
05:49
"Come on, Danielle, that's far-fetched."
99
337433
2247
05:51
But it's not.
100
339704
1150
Mas não é.
05:53
We've seen falsehoods spread
101
341293
2191
Vimos mentiras espalhadas
05:55
on WhatsApp and other
online message services
102
343508
2722
no WhatsApp e outros serviços
de mensagens on-line
05:58
lead to violence
against ethnic minorities.
103
346254
2761
levarem à violência
contra minorias étnicas.
06:01
And that was just text --
104
349039
1887
E isso era apenas um texto!
06:02
imagine if it were video.
105
350950
2024
imaginem se fosse um vídeo.
06:06
Now, deepfakes have the potential
to corrode the trust that we have
106
354593
5357
Deepfakes têm o potencial
de corroer a confiança que temos
06:11
in democratic institutions.
107
359974
1992
em instituições democráticas.
06:15
So, imagine the night before an election.
108
363006
2667
Imaginem a véspera de uma eleição.
06:17
There's a deepfake showing
one of the major party candidates
109
365996
3238
Há um deepfake mostrando
um dos principais candidatos do partido
06:21
gravely sick.
110
369258
1150
gravemente doente.
06:23
The deepfake could tip the election
111
371202
2333
O deepfake pode derrubar a eleição
06:25
and shake our sense
that elections are legitimate.
112
373559
3375
e abalar nossa noção
de que as eleições são legítimas.
06:30
Imagine if the night before
an initial public offering
113
378515
3326
Imaginem se na véspera
de uma oferta pública inicial, ou OPI,
06:33
of a major global bank,
114
381865
2333
de um grande banco global
06:36
there was a deepfake
showing the bank's CEO
115
384222
3149
há um deepfake mostrando o CEO do banco
dizendo embriagado teorias de conspiração.
06:39
drunkenly spouting conspiracy theories.
116
387395
2697
06:42
The deepfake could tank the IPO,
117
390887
3047
O deepfake pode detonar a OPI,
06:45
and worse, shake our sense
that financial markets are stable.
118
393958
4115
e pior, abalar nossa noção de que
os mercados financeiros são estáveis.
06:51
So deepfakes can exploit and magnify
the deep distrust that we already have
119
399385
6989
Deepfakes podem explorar e ampliar
a profunda desconfiança que já temos
06:58
in politicians, business leaders
and other influential leaders.
120
406398
4214
de políticos, líderes empresariais
e outros líderes influentes.
07:02
They find an audience
primed to believe them.
121
410945
3284
Eles encontram uma plateia
preparada para acreditar neles.
07:07
And the pursuit of truth
is on the line as well.
122
415287
2765
A busca pela verdade também está em jogo.
07:11
Technologists expect
that with advances in AI,
123
419077
3564
Tecnólogos preveem
que, com os avanços na IA,
07:14
soon it may be difficult if not impossible
124
422665
3682
logo poderá ser difícil, senão impossível,
07:18
to tell the difference between
a real video and a fake one.
125
426371
3769
distinguir um vídeo real de um falso.
07:23
So how can the truth emerge
in a deepfake-ridden marketplace of ideas?
126
431022
5341
Então, como a verdade pode emergir
num mercado repleto de deepfakes?
07:28
Will we just proceed along
the path of least resistance
127
436752
3420
Vamos então apenas pegar o caminho
de menor resistência,
07:32
and believe what we want to believe,
128
440196
2437
acreditar no que quisermos acreditar,
07:34
truth be damned?
129
442657
1150
e dane-se a verdade?
07:36
And not only might we believe the fakery,
130
444831
3175
E podemos não apenas acreditar na mentira,
07:40
we might start disbelieving the truth.
131
448030
3326
mas começar a não acreditar na verdade.
07:43
We've already seen people invoke
the phenomenon of deepfakes
132
451887
4079
Já vimos pessoas recorrendo
ao fenômeno dos deepfakes
07:47
to cast doubt on real evidence
of their wrongdoing.
133
455990
3920
para lançar dúvidas em evidências reais
de suas transgressões.
07:51
We've heard politicians say of audio
of their disturbing comments,
134
459934
5969
Vimos políticos falarem sobre o áudio
de seus comentários constrangedores:
07:57
"Come on, that's fake news.
135
465927
1746
"Vamos lá, são notícias falsas.
07:59
You can't believe what your eyes
and ears are telling you."
136
467697
3920
Não podem acreditar no que seus olhos
e ouvidos estão dizendo a você".
08:04
And it's that risk
137
472402
1731
E é esse perigo
08:06
that professor Robert Chesney and I
call the "liar's dividend":
138
474157
5436
que o professor Robert Chesney e eu
chamamos de "dividendo do mentiroso":
08:11
the risk that liars will invoke deepfakes
139
479617
3357
o risco de que os mentirosos
recorram a deepfakes
08:14
to escape accountability
for their wrongdoing.
140
482998
2905
para escapar da responsabilização
por seus erros.
08:18
So we've got our work cut out for us,
there's no doubt about it.
141
486963
3071
Nosso trabalho ficou mais difícil,
não há dúvida sobre isso.
08:22
And we're going to need
a proactive solution
142
490606
3325
E vamos precisar de uma solução proativa
08:25
from tech companies, from lawmakers,
143
493955
3511
de empresas de tecnologia, legisladores,
08:29
law enforcers and the media.
144
497490
1984
agentes da lei e da mídia.
08:32
And we're going to need
a healthy dose of societal resilience.
145
500093
4016
Também de uma dose saudável
de resiliência social.
08:37
So now, we're right now engaged
in a very public conversation
146
505506
3896
Estamos agora envolvidos
numa discussão muito pública
08:41
about the responsibility
of tech companies.
147
509426
2913
sobre a responsabilidade
das empresas de tecnologia.
08:44
And my advice to social media platforms
148
512926
3032
E meu conselho
para plataformas de rede social
08:47
has been to change their terms of service
and community guidelines
149
515982
3873
tem sido alterar os termos de serviço
e as diretrizes da comunidade
08:51
to ban deepfakes that cause harm.
150
519879
2336
para proibir deepfakes que causem danos.
08:54
That determination,
that's going to require human judgment,
151
522712
3960
Essa determinação
exigirá julgamento humano
08:58
and it's expensive.
152
526696
1571
e ela é cara.
09:00
But we need human beings
153
528673
2285
Mas precisamos de seres humanos
09:02
to look at the content
and context of a deepfake
154
530982
3873
para examinar o conteúdo
e o contexto de um deepfake
09:06
to figure out if it is
a harmful impersonation
155
534879
3682
e descobrir se é uma falsificação danosa
09:10
or instead, if it's valuable
satire, art or education.
156
538585
4382
ou uma sátira válida, arte ou educação.
09:16
So now, what about the law?
157
544118
1495
E quanto à lei?
09:18
Law is our educator.
158
546666
2349
A lei é nosso educador.
09:21
It teaches us about
what's harmful and what's wrong.
159
549515
4038
Nos ensina o que é prejudicial
e o que está errado.
09:25
And it shapes behavior it deters
by punishing perpetrators
160
553577
4555
Modela o comportamento, punindo os autores
e garantindo soluções para as vítimas.
09:30
and securing remedies for victims.
161
558156
2267
09:33
Right now, law is not up to
the challenge of deepfakes.
162
561148
4280
No momento, a lei não está à altura
do desafio dos deepfakes.
09:38
Across the globe,
163
566116
1390
Em todo o mundo,
09:39
we lack well-tailored laws
164
567530
2444
nos faltam leis adequadas
09:41
that would be designed to tackle
digital impersonations
165
569998
3570
para enfrentar falsificações digitais
09:45
that invade sexual privacy,
166
573592
2231
que invadem a privacidade sexual,
09:47
that damage reputations
167
575847
1387
prejudicam reputações
09:49
and that cause emotional distress.
168
577258
1951
e causam sofrimento emocional.
09:51
What happened to Rana Ayyub
is increasingly commonplace.
169
579725
3873
O que aconteceu com Rana Ayyub
é cada vez mais comum.
09:56
Yet, when she went
to law enforcement in Delhi,
170
584074
2214
Mas quando ela procurou
as autoridades em Deli,
09:58
she was told nothing could be done.
171
586312
2135
lhe foi dito que nada poderia ser feito.
10:01
And the sad truth is
that the same would be true
172
589101
3183
E o triste é que aconteceria o mesmo
nos Estados Unidos e na Europa.
10:04
in the United States and in Europe.
173
592308
2266
10:07
So we have a legal vacuum
that needs to be filled.
174
595300
4356
Portanto, temos um vácuo legal
que precisa ser preenchido.
10:12
My colleague Dr. Mary Anne Franks and I
are working with US lawmakers
175
600292
4092
A Dra. Mary Anne Franks e eu trabalhamos
com legisladores norte-americanos
10:16
to devise legislation that would ban
harmful digital impersonations
176
604408
4804
para criar uma legislação que proíba
falsificações digitais nocivas,
10:21
that are tantamount to identity theft.
177
609236
2533
equiparáveis a roubo de identidade.
10:24
And we've seen similar moves
178
612252
2126
E temos visto movimentos semelhantes
10:26
in Iceland, the UK and Australia.
179
614402
3301
na Islândia, Reino Unido e Austrália.
10:30
But of course, that's just a small piece
of the regulatory puzzle.
180
618157
3259
Mas é claro, é apenas uma pequena parte
do quebra-cabeça regulatório.
10:34
Now, I know law is not a cure-all. Right?
181
622911
3169
Sei que a lei não é uma panaceia, certo?
10:38
It's a blunt instrument.
182
626104
1600
É um instrumento contundente.
10:40
And we've got to use it wisely.
183
628346
1539
E temos que usá-la com sabedoria.
10:42
It also has some practical impediments.
184
630411
2812
Ela também tem impedimentos práticos.
10:45
You can't leverage law against people
you can't identify and find.
185
633657
5044
Não podemos aplicar a lei contra pessoas
que não podemos identificar e encontrar.
10:51
And if a perpetrator lives
outside the country
186
639463
3286
E se um criminoso não mora
no mesmo país que a vítima,
10:54
where a victim lives,
187
642773
1754
10:56
then you may not be able to insist
188
644551
1629
talvez não consigamos fazer com que venha
enfrentar a justiça num tribunal local.
10:58
that the perpetrator
come into local courts
189
646204
2349
11:00
to face justice.
190
648577
1150
11:02
And so we're going to need
a coordinated international response.
191
650236
4063
E assim vamos precisar
de uma resposta internacional coordenada.
11:07
Education has to be part
of our response as well.
192
655819
3333
A educação também deve
fazer parte da nossa resposta.
11:11
Law enforcers are not
going to enforce laws
193
659803
3731
Agentes não aplicarão leis
11:15
they don't know about
194
663558
1458
que eles não conhecem,
11:17
and proffer problems
they don't understand.
195
665040
2596
nem resolverão problemas
que eles não entendem.
11:20
In my research on cyberstalking,
196
668376
2191
Na minha pesquisa
sobre perseguição cibernética,
11:22
I found that law enforcement
lacked the training
197
670591
3499
descobri que os agentes
não tinham treinamento
11:26
to understand the laws available to them
198
674114
2582
para entender as leis disponíveis
11:28
and the problem of online abuse.
199
676720
2349
e o problema do abuso on-line.
11:31
And so often they told victims,
200
679093
2682
E tantas vezes eles disseram às vítimas:
11:33
"Just turn your computer off.
Ignore it. It'll go away."
201
681799
3971
"Apenas desligue o computador.
Ignore. Vai passar".
11:38
And we saw that in Rana Ayyub's case.
202
686261
2466
E vimos isso no caso de Rana Ayyub.
11:41
She was told, "Come on,
you're making such a big deal about this.
203
689102
3468
Foi-lhe dito: "Você está fazendo
o maior drama sobre isso.
11:44
It's boys being boys."
204
692594
1743
São meninos sendo meninos".
11:47
And so we need to pair new legislation
with efforts at training.
205
695268
5252
E então precisamos emparelhar a nova
legislação com esforços no treinamento.
11:54
And education has to be aimed
on the media as well.
206
702053
3429
E a educação também deve
ser destinada para a mídia.
11:58
Journalists need educating
about the phenomenon of deepfakes
207
706180
4260
Jornalistas precisam aprender
sobre o fenômeno dos deepfakes
12:02
so they don't amplify and spread them.
208
710464
3039
para que não os amplifiquem e espalhem.
Esta é a parte em que estamos
todos envolvidos.
12:06
And this is the part
where we're all involved.
209
714583
2168
Cada um de nós precisa de educação.
12:08
Each and every one of us needs educating.
210
716775
3855
12:13
We click, we share, we like,
and we don't even think about it.
211
721375
3675
Clicamos, compartilhamos,
curtimos algo e nem pensamos nisso.
12:17
We need to do better.
212
725551
1547
Nós precisamos fazer melhor.
12:19
We need far better radar for fakery.
213
727726
2809
Precisamos de um radar
muito melhor para mentira.
12:25
So as we're working
through these solutions,
214
733744
3841
Enquanto trabalharmos nessas soluções,
12:29
there's going to be
a lot of suffering to go around.
215
737609
2563
haverá muito sofrimento para superar.
12:33
Rana Ayyub is still wrestling
with the fallout.
216
741093
2746
Rana Ayyub ainda está
enfrentando as consequências.
12:36
She still doesn't feel free
to express herself on- and offline.
217
744669
4189
Ainda não se sente livre
para se expressar on-line e off-line.
12:41
And as she told me,
218
749566
1365
E como me disse,
12:42
she still feels like there are thousands
of eyes on her naked body,
219
750955
5074
ela ainda sente como se houvesse
milhares de olhos observando seu corpo nu,
12:48
even though, intellectually,
she knows it wasn't her body.
220
756053
3661
embora, racionalmente,
saiba que não era o corpo dela.
12:52
And she has frequent panic attacks,
221
760371
2349
E ela tem ataques de pânico frequentes,
12:54
especially when someone she doesn't know
tries to take her picture.
222
762744
4100
especialmente quando alguém que ela
não conhece tenta tirar uma foto dela.
12:58
"What if they're going to make
another deepfake?" she thinks to herself.
223
766868
3511
"E se fizerem outro deepfake?", ela pensa.
13:03
And so for the sake of
individuals like Rana Ayyub
224
771082
3921
Então, pelo bem de pessoas como Rana Ayyub
13:07
and the sake of our democracy,
225
775027
2306
e pelo bem da nossa democracia,
13:09
we need to do something right now.
226
777357
2182
precisamos fazer algo agora.
13:11
Thank you.
227
779563
1151
Obrigada.
13:12
(Applause)
228
780738
2508
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com