ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citronp: Deepkfakes: Cómo ponen en peligro la verdad y la democracia

Filmed:
1,533,743 views

El uso de la tecnología "deepfake" se está convirtiendo en una verdadera amenaza. Se manipulan vídeos y audios con propósitos dañinos: avivar la violencia o desprestigiar a políticos y periodistas. ¿Cómo limitarán estas herramientas cada vez más accesibles lo que creemos del mundo? En esta singular charla, la profesora y catedrática de derecho Danielle Citron desvela cómo los deepfakes aumentan nuestra desconfianza y sugiere estrategias para proteger la verdad.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk containscontiene maturemaduro contentcontenido]
0
535
2767
[Esta charla tiene contenido adulto]
00:17
RanaRana AyyubAyyub is a journalistperiodista in IndiaIndia
1
5762
2992
Rana Ayyub es periodista en India
00:20
whosecuyo work has exposedexpuesto
governmentgobierno corruptioncorrupción
2
8778
2602
y ha destapado casos
de corrupción del gobierno
00:24
and humanhumano rightsderechos violationsviolaciones.
3
12411
2157
y violaciones de los derechos humanos.
00:26
And over the yearsaños,
4
14990
1167
Con los años
00:28
she's gottenconseguido used to vitriolvitriolo
and controversycontroversia around her work.
5
16181
3303
se acostumbró a la fuerte crítica
y a la polémica de su trabajo.
00:32
But noneninguna of it could have preparedpreparado her
for what she facedenfrentado in Aprilabril 2018.
6
20149
5109
Pero nada podría haberla preparado
para lo que enfrentó en abril de 2018.
00:38
She was sittingsentado in a cafcoste y fleteé with a friendamigo
when she first saw it:
7
26125
3651
Ella estaba en una cafetería con una amiga
la primera vez que lo vio.
00:41
a two-minutedos minutos, 20-second videovídeo
of her engagedcomprometido in a sexsexo actacto.
8
29800
4943
Un vídeo de 2 minutos y 20 segundos
de ella en un acto sexual.
00:47
And she couldn'tno pudo believe her eyesojos.
9
35188
2349
Y ella no se lo podía creer.
00:49
She had never madehecho a sexsexo videovídeo.
10
37561
2273
Ella nunca había hecho un vídeo sexual.
00:52
But unfortunatelyDesafortunadamente, thousandsmiles
uponsobre thousandsmiles of people
11
40506
3465
Pero por desgracia
miles y miles de personas
00:55
would believe it was her.
12
43995
1666
creerían que era ella.
00:58
I interviewedentrevistado MsSra. AyyubAyyub
about threeTres monthsmeses agohace,
13
46673
2944
Entrevisté a Ayyub hace tres meses
01:01
in connectionconexión with my booklibro
on sexualsexual privacyintimidad.
14
49641
2504
en relación con mi libro
de privacidad sexual.
01:04
I'm a lawley professorprofesor, lawyerabogado
and civilcivil rightsderechos advocateabogado.
15
52681
3198
Soy catedrática en Derecho, abogada
y defensora de los derechos civiles,
01:08
So it's incrediblyincreíblemente frustratingfrustrante
knowingconocimiento that right now,
16
56204
4611
así que es frustra mucho
saber que ahora mismo
01:12
lawley could do very little to help her.
17
60839
2238
la ley podría hacer muy poco
para ayudarla.
01:15
And as we talkedhabló,
18
63458
1547
Y mientras hablábamos
01:17
she explainedexplicado that she should have seenvisto
the fakefalso sexsexo videovídeo comingviniendo.
19
65029
4512
me explicó que nunca vio venir
el falso vídeo sexual.
01:22
She said, "After all, sexsexo is so oftena menudo used
to demeanDegradar and to shamevergüenza womenmujer,
20
70038
5596
Dijo "el sexo se usa muchas veces para
menospreciar y avergonzar a las mujeres
01:27
especiallyespecialmente minorityminoría womenmujer,
21
75658
2428
en particular a las mujeres minoritarias
01:30
and especiallyespecialmente minorityminoría womenmujer
who dareatrevimiento to challengereto powerfulpoderoso menhombres,"
22
78110
4312
y sobre todo a las que se atreven
a desafiar a hombres poderosos",
01:34
as she had in her work.
23
82446
1533
como los de su trabajo.
01:37
The fakefalso sexsexo videovídeo wentfuimos viralviral in 48 hourshoras.
24
85191
3976
El vídeo se hizo viral en 48 horas.
01:42
All of her onlineen línea accountscuentas were floodedinundado
with screenshotscapturas de pantalla of the videovídeo,
25
90064
5307
Todas sus redes sociales
se llenaron de capturas del vídeo
01:47
with graphicgráfico rapeviolación and deathmuerte threatsamenazas
26
95395
2627
con amenazas de violación
y amenazas de muerte
01:50
and with slursinsultos about her Muslimmusulmán faithfe.
27
98046
2533
insultando su fe musulmana.
01:53
OnlineEn línea postspublicaciones suggestedsugirió that
she was "availabledisponible" for sexsexo.
28
101426
4564
Había publicaciones online que insinuaban
que ella estaba "disponible" para sexo.
01:58
And she was doxeddoxed,
29
106014
1610
Revelaron su información personal,
01:59
whichcual meansmedio that her home addressdirección
and her cellcelda phoneteléfono numbernúmero
30
107648
2778
es decir, su dirección
y su número de teléfono
02:02
were spreaduntado acrossa través de the internetInternet.
31
110450
1746
se difundió por Internet.
02:04
The videovídeo was sharedcompartido
more than 40,000 timesveces.
32
112879
4084
El vídeo se compartió más de 40 000 veces.
02:09
Now, when someonealguien is targetedapuntado
with this kindtipo of cybermobcibermob attackataque,
33
117760
3936
Cuando alguien es el objetivo
de este tipo de ataques de mafias online
02:13
the harmdaño is profoundprofundo.
34
121720
2063
la herida es profunda.
02:16
RanaRana Ayyub'sAyyub's life was turnedconvertido upsideboca arriba down.
35
124482
3039
La vida de Rana Ayyub
se puso patas arriba.
02:20
For weekssemanas, she could hardlyapenas eatcomer or speakhablar.
36
128211
3334
Durante semanas, apenas podía
comer y hablar.
02:23
She stoppeddetenido writingescritura and closedcerrado
all of her socialsocial mediamedios de comunicación accountscuentas,
37
131919
3689
Dejó de escribir y cerró todas
sus cuentas de las redes sociales,
02:27
whichcual is, you know, a toughdifícil thing to do
when you're a journalistperiodista.
38
135632
3158
algo muy duro cuando eres periodista.
02:31
And she was afraidasustado to go outsidefuera de
her family'sfamilia home.
39
139188
3484
Y tenía miedo de salir de su casa.
02:34
What if the posterscarteles
madehecho good on theirsu threatsamenazas?
40
142696
3022
¿Y si cumplían con las amenazas?
02:38
The UNNaciones Unidas CouncilConsejo on HumanHumano RightsDerechos
confirmedconfirmado that she wasn'tno fue beingsiendo crazyloca.
41
146395
4365
El Consejo de Derechos Humanos de la ONU
afirmó que no estaba loca.
02:42
It issuedemitido a publicpúblico statementdeclaración sayingdiciendo
that they were worriedpreocupado about her safetyla seguridad.
42
150784
4637
Publicó una declaración que decía
que estaban preocupados por su seguridad.
02:48
What RanaRana AyyubAyyub facedenfrentado was a deepfakedeepfake:
43
156776
4229
Rana Ayyub se enfrentaba a un deepfake:
02:53
machine-learningaprendizaje automático technologytecnología
44
161029
2540
Tecnología de aprendizaje automático
02:55
that manipulatesmanipula or fabricatesfabrica
audioaudio and videovídeo recordingsgrabaciones
45
163593
4111
que manipula o fabrica audio y vídeos
02:59
to showespectáculo people doing and sayingdiciendo things
46
167728
2723
que muestran personas
diciendo o haciendo cosas
03:02
that they never did or said.
47
170475
1866
que nunca han dicho o hecho.
03:04
DeepfakesDeepfakes appearAparecer authenticauténtico
and realisticrealista, but they're not;
48
172807
3361
Los deepfakes parecen auténticos
y realistas, pero no lo son;
03:08
they're totaltotal falsehoodsfalsedades.
49
176192
1772
son mentiras absolutas.
03:11
AlthoughA pesar de que the technologytecnología
is still developingdesarrollando in its sophisticationsofisticación,
50
179228
3794
Si bien es una tecnología en desarrollo,
03:15
it is widelyextensamente availabledisponible.
51
183046
1614
es de fácil acceso.
03:17
Now, the mostmás recentreciente attentionatención
to deepfakesdeepfakes arosesurgió,
52
185371
3072
Y como tantas cosas en Internet,
03:20
as so manymuchos things do onlineen línea,
53
188467
2161
los deepfakes llaman ahora la atención
03:22
with pornographypornografía.
54
190652
1255
por la pornografía.
03:24
In earlytemprano 2018,
55
192498
2111
A principios del 2018
03:26
someonealguien postedal corriente a toolherramienta on RedditReddit
56
194633
2468
alguien publicó una herramienta en Reddit
03:29
to allowpermitir usersusuarios to insertinsertar facescaras
into pornpornografía videosvideos.
57
197125
4412
que permitía a los usuarios
insertar caras en vídeos porno.
03:33
And what followedseguido was a cascadecascada
of fakefalso pornpornografía videosvideos
58
201561
3440
A esto le siguió una lluvia de
falsos vídeos porno protagonizados
03:37
featuringpresentando people'sla gente favoritefavorito
femalehembra celebritiesfamosos.
59
205025
2797
por las celebridades
favoritas de las personas.
03:40
And todayhoy, you can go on YouTubeYoutube
and pullHalar up countlessincontable tutorialstutoriales
60
208712
3477
Y hoy en YouTube se pueden encontrar
infinitos tutoriales
03:44
with step-by-steppaso a paso instructionsinstrucciones
61
212213
2286
con instrucciones que enseñan paso a paso
03:46
on how to make a deepfakedeepfake
on your desktopescritorio applicationsolicitud.
62
214523
3163
a hacer un deepfake en tu computadora.
03:50
And soonpronto we maymayo be even ablepoder
to make them on our cellcelda phonesteléfonos.
63
218260
3706
Y quizás pronto podamos hacerlos
en nuestros móviles.
03:55
Now, it's the interactionInteracción
of some of our mostmás basicBASIC humanhumano frailtiesfragilidades
64
223072
5382
Ahora, la interacción de algunas de
nuestras debilidades humanas más básicas
04:00
and networkred toolsherramientas
65
228478
1682
con las herramientas de la red
04:02
that can turngiro deepfakesdeepfakes into weaponsarmas.
66
230184
2666
pueden convertir estos vídeos en armas.
04:04
So let me explainexplique.
67
232874
1200
Les explicaré.
04:06
As humanhumano beingsseres, we have
a visceralvisceral reactionreacción to audioaudio and videovídeo.
68
234875
4566
Los seres humanos tenemos una respuesta
instintiva a los audios y vídeos.
04:11
We believe they're truecierto,
69
239860
1488
Creemos que son verdad
04:13
on the notionnoción that
of coursecurso you can believe
70
241372
2078
ya que pensamos que
obviamente podemos creer
04:15
what your eyesojos and earsorejas are tellingnarración you.
71
243474
2478
lo que dicen los ojos y los oídos.
04:18
And it's that mechanismmecanismo
72
246476
1699
Y este mecanismo
04:20
that mightpodría underminesocavar our sharedcompartido
sensesentido of realityrealidad.
73
248199
3698
puede debilitar
nuestro sentido de la realidad.
04:23
AlthoughA pesar de que we believe deepfakesdeepfakes
to be truecierto, they're not.
74
251921
3147
Aunque creamos que los deepfakes
son verdad, no lo son.
04:27
And we're attractedatraído
to the salacioussalaz, the provocativeprovocativo.
75
255604
4157
Nos atrae lo lascivo, lo provocativo.
04:32
We tendtender to believe
and to sharecompartir informationinformación
76
260365
3047
Tendemos a creer y compartir información
04:35
that's negativenegativo and novelnovela.
77
263436
2023
negativa y novedosa.
04:37
And researchersinvestigadores have foundencontró that onlineen línea
hoaxesfraudes spreaduntado 10 timesveces fasterMás rápido
78
265809
5019
Los expertos dicen que online las falacias
se difunden diez veces más rápido
04:42
than accuratepreciso storiescuentos.
79
270852
1627
que las historias verídicas.
04:46
Now, we're alsoademás drawndibujado to informationinformación
80
274015
4380
Además, nos atrae la información
04:50
that alignsalinea with our viewpointspuntos de vista.
81
278419
1892
más afín a nuestro punto de vista.
04:52
PsychologistsPsicólogos call that tendencytendencia
"confirmationconfirmación biasparcialidad."
82
280950
3561
Los psicólogos llaman a esta tendencia
"sesgo de confirmación".
04:57
And socialsocial mediamedios de comunicación platformsplataformas
superchargeSobrecarga that tendencytendencia,
83
285300
4387
Y las redes sociales
sobrecargan esta tendencia
05:01
by allowingpermitir us to instantlyinstantáneamente
and widelyextensamente sharecompartir informationinformación
84
289711
3881
al permitirnos compartir información
afín a nuestra idea
05:05
that accordspactos with our viewpointspuntos de vista.
85
293616
1792
de una manera amplia e instantánea.
05:08
Now, deepfakesdeepfakes have the potentialpotencial to causeporque
gravetumba individualindividual and societalsocietal harmdaño.
86
296735
5568
Pero los deepfakes tienen la posibilidad
de causar un gran daño individual y social.
05:15
So, imagineimagina a deepfakedeepfake
87
303204
2024
Imaginen uno que muestre
05:17
that showsmuestra Americanamericano soldierssoldados
in AfganistanAfganistan burningardiente a KoranCorán.
88
305252
4182
a los soldados estadounidenses
quemando un Corán en Afganistán.
05:22
You can imagineimagina that that deepfakedeepfake
would provokeprovocar violenceviolencia
89
310807
3024
Podemos imaginar que este vídeo
puede causar violencia
05:25
againsten contra those soldierssoldados.
90
313855
1533
contra esos soldados.
05:27
And what if the very nextsiguiente day
91
315847
2873
¿Y si justo al día siguiente
05:30
there's anotherotro deepfakedeepfake that dropsgotas,
92
318744
2254
aparece otro deepfake
05:33
that showsmuestra a well-knownbien conocido imamimán
basedbasado in LondonLondres
93
321022
3317
que muestra a un conocido imán de Londres
05:36
praisingalabando the attackataque on those soldierssoldados?
94
324363
2467
instando a atacar a esos soldados?
05:39
We mightpodría see violenceviolencia and civilcivil unrestdisturbios,
95
327617
3163
Veríamos violencia y disturbios civiles.
05:42
not only in AfganistanAfganistan
and the UnitedUnido KingdomReino,
96
330804
3249
no solo en Afganistán y en Reino Unido
05:46
but acrossa través de the globeglobo.
97
334077
1515
sino en todo el mundo.
05:48
And you mightpodría say to me,
98
336251
1158
Podrán decirme
05:49
"Come on, DanielleDanielle, that's far-fetchedexagerado."
99
337433
2247
"Ya, Danielle, qué rebuscado".
05:51
But it's not.
100
339704
1150
Pero no lo es.
05:53
We'veNosotros tenemos seenvisto falsehoodsfalsedades spreaduntado
101
341293
2191
Hemos visto difusiones de mentiras
05:55
on WhatsAppWhatsApp and other
onlineen línea messagemensaje servicesservicios
102
343508
2722
por WhatsApp y por otros
servicios de mensajería online
05:58
leaddirigir to violenceviolencia
againsten contra ethnicétnico minoritiesminorías.
103
346254
2761
que han llevado a la violencia
contra las minorías étnicas.
06:01
And that was just texttexto --
104
349039
1887
Y solo era un texto.
06:02
imagineimagina if it were videovídeo.
105
350950
2024
Imaginen si fuese un vídeo.
06:06
Now, deepfakesdeepfakes have the potentialpotencial
to corrodeCorroa the trustconfianza that we have
106
354593
5357
Los deepfakes tienen el potencial
de corroer la confianza
que tenemos en
las instituciones democráticas.
06:11
in democraticdemocrático institutionsinstituciones.
107
359974
1992
06:15
So, imagineimagina the night before an electionelección.
108
363006
2667
Imaginen la noche de antes
de unas elecciones.
06:17
There's a deepfakedeepfake showingdemostración
one of the majormayor partyfiesta candidatescandidatos
109
365996
3238
Un deepfake muestra a uno de
los candidatos de un partido principal
06:21
gravelygravemente sickenfermos.
110
369258
1150
muy enfermo.
06:23
The deepfakedeepfake could tippropina the electionelección
111
371202
2333
El vídeo podría modificar las elecciones
06:25
and shakesacudir our sensesentido
that electionselecciones are legitimatelegítimo.
112
373559
3375
y cambiar nuestra opinión
sobre la validez de las elecciones.
06:30
ImagineImagina if the night before
an initialinicial publicpúblico offeringofrecimiento
113
378515
3326
Imaginen si la noche anterior
a una oferta pública de venta
06:33
of a majormayor globalglobal bankbanco,
114
381865
2333
de un gran banco mundial
06:36
there was a deepfakedeepfake
showingdemostración the bank'sbancos CEOCEO
115
384222
3149
hubiese un deepfake
mostrando al director ejecutivo
06:39
drunkenlyborracho spoutingescupiendo conspiracyconspiración theoriesteorías.
116
387395
2697
hablando borracho
sobre teorías conspirativas.
06:42
The deepfakedeepfake could tanktanque the IPOIPO,
117
390887
3047
El vídeo podría hundir la venta
06:45
and worsepeor, shakesacudir our sensesentido
that financialfinanciero marketsmercados are stableestable.
118
393958
4115
y peor, cambiar nuestra opinión sobre
la estabilidad del mercado financiero.
06:51
So deepfakesdeepfakes can exploitexplotar and magnifyaumentar
the deepprofundo distrustdesconfianza that we alreadyya have
119
399385
6989
Los deepfakes pueden aprovecharse
para aumentar la gran desconfianza
que ya tenemos en los políticos,
líderes de empresas y otros influyentes.
06:58
in politicianspolíticos, businessnegocio leaderslíderes
and other influentialinfluyente leaderslíderes.
120
406398
4214
07:02
They find an audienceaudiencia
primedpreparado to believe them.
121
410945
3284
Encuentran a un público
listo para creérselos.
07:07
And the pursuitbúsqueda of truthverdad
is on the linelínea as well.
122
415287
2765
La búsqueda de la verdad
también está en peligro.
07:11
TechnologistsTecnólogos expectesperar
that with advancesavances in AIAI,
123
419077
3564
Expertos en tecnología creen
07:14
soonpronto it maymayo be difficultdifícil if not impossibleimposible
124
422665
3682
que con los avances
de Inteligencia Artificial
07:18
to tell the differencediferencia betweenEntre
a realreal videovídeo and a fakefalso one.
125
426371
3769
pronto será casi imposible diferenciar
un vídeo real de uno falso.
07:23
So how can the truthverdad emergesurgir
in a deepfake-riddendeepfake-ridden marketplacemercado of ideasideas?
126
431022
5341
¿Cómo podría emerger la verdad
en un mercado lleno de deepfakes?
07:28
Will we just proceedproceder alonga lo largo
the pathcamino of leastmenos resistanceresistencia
127
436752
3420
Si seguimos por el camino
de no poner resistencia
07:32
and believe what we want to believe,
128
440196
2437
creyendo lo que queramos creer
07:34
truthverdad be damnedmaldito?
129
442657
1150
¿será el fin de la verdad?
07:36
And not only mightpodría we believe the fakeryfalsificación,
130
444831
3175
Quizás no solo creamos lo falso,
07:40
we mightpodría startcomienzo disbelievingDescreer the truthverdad.
131
448030
3326
quizás pongamos en duda la verdad.
07:43
We'veNosotros tenemos alreadyya seenvisto people invokeinvocar
the phenomenonfenómeno of deepfakesdeepfakes
132
451887
4079
Ya hemos visto a personas
que usan este fenómeno de deepfakes
07:47
to castemitir doubtduda on realreal evidenceevidencia
of theirsu wrongdoingmarcha mala.
133
455990
3920
para cuestionar la evidencia
tangible de sus acciones.
07:51
We'veNosotros tenemos heardoído politicianspolíticos say of audioaudio
of theirsu disturbingperturbador commentscomentarios,
134
459934
5969
Hemos oído a políticos decir
sobre audios de comentarios alarmantes
07:57
"Come on, that's fakefalso newsNoticias.
135
465927
1746
"Son noticias falsas.
07:59
You can't believe what your eyesojos
and earsorejas are tellingnarración you."
136
467697
3920
No podemos creer los que nos dicen
nuestros ojos y oídos".
08:04
And it's that riskriesgo
137
472402
1731
El profesor Robert Chesney y yo
08:06
that professorprofesor RobertRobert ChesneyChesney and I
call the "liar'smentirosos dividenddividendo":
138
474157
5436
llamamos a este peligro
"recompensa del mentiroso"
08:11
the riskriesgo that liarsmentirosos will invokeinvocar deepfakesdeepfakes
139
479617
3357
El temor de que los mentirosos
usen deepfakes
08:14
to escapeescapar accountabilityresponsabilidad
for theirsu wrongdoingmarcha mala.
140
482998
2905
para escapar de la culpabilidad del delito.
08:18
So we'venosotros tenemos got our work cutcortar out for us,
there's no doubtduda about it.
141
486963
3071
Tenemos mucho trabajo por delante,
de eso no hay duda.
08:22
And we're going to need
a proactiveproactivo solutionsolución
142
490606
3325
Vamos a necesitar una solución proactiva
08:25
from techtecnología companiescompañías, from lawmakerslegisladores,
143
493955
3511
de parte de empresas tecnológicas,
legisladores,
08:29
lawley enforcersEnforcers and the mediamedios de comunicación.
144
497490
1984
poder judicial y medios de comunicación.
08:32
And we're going to need
a healthysaludable dosedosis of societalsocietal resilienceresistencia.
145
500093
4016
Necesitaremos una dosis saludable
de resistencia social.
08:37
So now, we're right now engagedcomprometido
in a very publicpúblico conversationconversacion
146
505506
3896
Así que ahora estamos inmersos
en una conversación muy pública
08:41
about the responsibilityresponsabilidad
of techtecnología companiescompañías.
147
509426
2913
sobre las responsabilidades
de las empresas tecnológicas,
08:44
And my adviceConsejo to socialsocial mediamedios de comunicación platformsplataformas
148
512926
3032
mi consejo para las redes sociales
08:47
has been to changecambio theirsu termscondiciones of serviceServicio
and communitycomunidad guidelineslineamientos
149
515982
3873
es que cambien sus términos de uso
y las normas comunitarias
08:51
to banprohibición deepfakesdeepfakes that causeporque harmdaño.
150
519879
2336
para prohibir deepfakes dañinos.
08:54
That determinationdeterminación,
that's going to requireexigir humanhumano judgmentjuicio,
151
522712
3960
Esta resolución requerirá el juicio humano
08:58
and it's expensivecostoso.
152
526696
1571
y será costoso.
09:00
But we need humanhumano beingsseres
153
528673
2285
Pero necesitamos supervisión humana
09:02
to look at the contentcontenido
and contextcontexto of a deepfakedeepfake
154
530982
3873
del contenido y el contexto
de un deepfake
09:06
to figurefigura out if it is
a harmfulperjudicial impersonationinterpretación
155
534879
3682
para ver si es una imitación perjudicial
09:10
or insteaden lugar, if it's valuablevalioso
satiresátira, artart or educationeducación.
156
538585
4382
o si tiene un valor satírico,
artístico o educativo.
09:16
So now, what about the lawley?
157
544118
1495
Y, ¿qué pasa con la ley?
09:18
LawLey is our educatoreducador.
158
546666
2349
Debemos aprender de la ley.
09:21
It teachesenseña us about
what's harmfulperjudicial and what's wrongincorrecto.
159
549515
4038
Nos enseña qué es perjudicial
y qué es incorrecto.
09:25
And it shapesformas behaviorcomportamiento it detersdisuade a
by punishingagotador perpetratorsperpetradores
160
553577
4555
Reprime comportamientos prohibidos
castigando a los responsables
09:30
and securingasegurando remediesremedios for victimsvíctimas.
161
558156
2267
y cuidando a las víctimas.
09:33
Right now, lawley is not up to
the challengereto of deepfakesdeepfakes.
162
561148
4280
Ahora mismo la ley no está preparada
para el desafío de los deepfakes.
09:38
AcrossA través de the globeglobo,
163
566116
1390
En todo el mundo
09:39
we lackausencia well-tailoredbien adaptado lawsleyes
164
567530
2444
necesitamos leyes hechas a medida
09:41
that would be designeddiseñado to tackleentrada
digitaldigital impersonationsimitaciones
165
569998
3570
diseñadas para destruir
las suplantaciones digitales
09:45
that invadeinvadir sexualsexual privacyintimidad,
166
573592
2231
que invaden la privacidad sexual,
09:47
that damagedañar reputationsreputaciones
167
575847
1387
que dañan reputaciones
09:49
and that causeporque emotionalemocional distressangustia.
168
577258
1951
y causan perjuicio emocional.
09:51
What happenedsucedió to RanaRana AyyubAyyub
is increasinglycada vez más commonplacevulgar.
169
579725
3873
Lo que le ocurrió a Rana Ayyub
cada vez es más común.
09:56
YetTodavía, when she wentfuimos
to lawley enforcementaplicación in DelhiDelhi,
170
584074
2214
Incluso cuando fue a la policía
en Delhi
09:58
she was told nothing could be donehecho.
171
586312
2135
le dijeron que no podía hacer nada.
10:01
And the sadtriste truthverdad is
that the samemismo would be truecierto
172
589101
3183
Y es triste pero verdad
que ocurriría lo mismo
10:04
in the UnitedUnido StatesEstados and in EuropeEuropa.
173
592308
2266
en Estados Unidos y en Europa.
10:07
So we have a legallegal vacuumvacío
that needsnecesariamente to be filledlleno.
174
595300
4356
Así que hay un vacío legal por llenar.
10:12
My colleaguecolega DrDr. MaryMaría AnneAna FranksFrancos and I
are workingtrabajando with US lawmakerslegisladores
175
600292
4092
Mi compañera la doctora Mary Anne Franks
y yo trabajamos con legisladores de EE.UU.
10:16
to deviseidear legislationlegislación that would banprohibición
harmfulperjudicial digitaldigital impersonationsimitaciones
176
604408
4804
para crear leyes que prohíban
las suplantaciones digitales dañinas
10:21
that are tantamountequivalente to identityidentidad theftrobo.
177
609236
2533
equivalentes a la suplantación
de identidad.
10:24
And we'venosotros tenemos seenvisto similarsimilar movesmovimientos
178
612252
2126
Y hemos visto los mismos movimientos
10:26
in IcelandIslandia, the UKReino Unido and AustraliaAustralia.
179
614402
3301
en Islandia, Reino Unido y Australia.
10:30
But of coursecurso, that's just a smallpequeña piecepieza
of the regulatoryregulador puzzlerompecabezas.
180
618157
3259
Pero por supuesto, esto es solo
una gota en el mar.
10:34
Now, I know lawley is not a cure-allcurar todo. Right?
181
622911
3169
Sé que la ley no es el remedio universal.
10:38
It's a bluntembotar instrumentinstrumento.
182
626104
1600
Es un instrumento contundente.
10:40
And we'venosotros tenemos got to use it wiselysabiamente.
183
628346
1539
Y tenemos que usarlo con cabeza.
10:42
It alsoademás has some practicalpráctico impedimentsimpedimentos.
184
630411
2812
También tiene algunos
impedimentos prácticos.
10:45
You can't leverageapalancamiento lawley againsten contra people
you can't identifyidentificar and find.
185
633657
5044
No se puede sancionar a alguien si no
se lo puede identificar ni encontrar.
10:51
And if a perpetratorautor livesvive
outsidefuera de the countrypaís
186
639463
3286
Y si el infractor vive en otro país
10:54
where a victimvíctima livesvive,
187
642773
1754
diferente al de la víctima
10:56
then you maymayo not be ablepoder to insistinsistir
188
644551
1629
quizás no se le pueda exigir
10:58
that the perpetratorautor
come into locallocal courtstribunales
189
646204
2349
al infractor que acceda a cumplir las leyes
11:00
to facecara justicejusticia.
190
648577
1150
de su país.
11:02
And so we're going to need
a coordinatedcoordinado internationalinternacional responserespuesta.
191
650236
4063
Así que necesitaremos una respuesta
internacional coordinada.
11:07
EducationEducación has to be partparte
of our responserespuesta as well.
192
655819
3333
La educación tiene que ser también
parte de nuestra respuesta.
11:11
LawLey enforcersEnforcers are not
going to enforcehacer cumplir lawsleyes
193
659803
3731
Las fuerzas del orden
no van a imponer leyes
11:15
they don't know about
194
663558
1458
que no conozcan
11:17
and profferOferta problemsproblemas
they don't understandentender.
195
665040
2596
y juzgar problemas que no entiendan.
11:20
In my researchinvestigación on cyberstalkingciberstalking,
196
668376
2191
En mi investigación sobre el ciberacoso
11:22
I foundencontró that lawley enforcementaplicación
lackedcarecía de the trainingformación
197
670591
3499
he descubierto que el poder judicial
carece de experiencia
11:26
to understandentender the lawsleyes availabledisponible to them
198
674114
2582
para entender las leyes
11:28
and the problemproblema of onlineen línea abuseabuso.
199
676720
2349
y el problema del acoso online.
11:31
And so oftena menudo they told victimsvíctimas,
200
679093
2682
Y muy a menudo le dicen a las víctimas
11:33
"Just turngiro your computercomputadora off.
IgnoreIgnorar it. It'llVa a go away."
201
681799
3971
"Simplemente apaga la computadora.
Ignóralo. Ya pasará".
11:38
And we saw that in RanaRana Ayyub'sAyyub's casecaso.
202
686261
2466
Y eso se ve en el caso de Rana Ayyub.
11:41
She was told, "Come on,
you're makingfabricación suchtal a biggrande dealacuerdo about this.
203
689102
3468
Le dijeron "Estás haciendo
una montaña de un grano de arena.
11:44
It's boyschicos beingsiendo boyschicos."
204
692594
1743
Son solo niños siendo niños".
11:47
And so we need to pairpar newnuevo legislationlegislación
with effortsesfuerzos at trainingformación.
205
695268
5252
Así que tenemos que unir la nueva
legislación con la experiencia.
11:54
And educationeducación has to be aimeddirigido
on the mediamedios de comunicación as well.
206
702053
3429
Y los medios de comunicación
tienen que animar a la educación.
11:58
JournalistsPeriodistas need educatingeducando
about the phenomenonfenómeno of deepfakesdeepfakes
207
706180
4260
Los periodistas necesitan instruirse
en el fenómeno de deepfakes
12:02
so they don't amplifyamplificar and spreaduntado them.
208
710464
3039
para que no aumenten ni se difundan.
12:06
And this is the partparte
where we're all involvedinvolucrado.
209
714583
2168
Y aquí todos estamos involucrados.
12:08
EachCada and everycada one of us needsnecesariamente educatingeducando.
210
716775
3855
Cada uno de nosotros necesita educación.
12:13
We clickhacer clic, we sharecompartir, we like,
and we don't even think about it.
211
721375
3675
Hacemos clic, compartimos, damos me gusta
sin pensar en ello.
12:17
We need to do better.
212
725551
1547
Necesitamos hacerlo mejor.
12:19
We need farlejos better radarRadar for fakeryfalsificación.
213
727726
2809
Necesitamos un radar más rápido
y mejor contra la falsificación.
12:25
So as we're workingtrabajando
throughmediante these solutionssoluciones,
214
733744
3841
Así que mientras trabajamos
en estas soluciones
12:29
there's going to be
a lot of sufferingsufrimiento to go around.
215
737609
2563
habrá bastante sufrimiento.
12:33
RanaRana AyyubAyyub is still wrestlinglucha
with the falloutcaer.
216
741093
2746
Rana Ayyub sigue lidiando
con los efectos secundarios.
12:36
She still doesn't feel freegratis
to expressexprimir herselfsí misma on-en- and offlinedesconectado.
217
744669
4189
Aún no se siente libre
de expresarse online y offline.
12:41
And as she told me,
218
749566
1365
Y ella me ha dicho
12:42
she still feelssiente like there are thousandsmiles
of eyesojos on her nakeddesnudo bodycuerpo,
219
750955
5074
que aún se siente como si miles de ojos
mirasen su cuerpo desnudo
12:48
even thoughaunque, intellectuallyintelectualmente,
she knowssabe it wasn'tno fue her bodycuerpo.
220
756053
3661
sabiendo perfectamente
que no es su cuerpo.
12:52
And she has frequentfrecuente panicpánico attacksataques,
221
760371
2349
Y sufre frecuentes ataques de pánico
12:54
especiallyespecialmente when someonealguien she doesn't know
triesintentos to take her pictureimagen.
222
762744
4100
en concreto cuando alguien que no conoce
intenta tomarle una foto.
12:58
"What if they're going to make
anotherotro deepfakedeepfake?" she thinkspiensa to herselfsí misma.
223
766868
3511
"¿Y si van a hacer otro deepfake?"
es lo que piensa.
13:03
And so for the sakemotivo of
individualsindividuos like RanaRana AyyubAyyub
224
771082
3921
Así que por personas como Rana Ayyub
13:07
and the sakemotivo of our democracydemocracia,
225
775027
2306
y por la democracia
13:09
we need to do something right now.
226
777357
2182
tenemos que hacer algo ahora mismo.
13:11
Thank you.
227
779563
1151
Gracias.
13:12
(ApplauseAplausos)
228
780738
2508
(Aplausos)
Translated by Elisa Tortosa
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com