ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citron: Deepfakes是如何破坏真相,威胁民主的?

Filmed:
1,533,743 views

Deepfake,是一种为了恶意的目的,像是引发暴力或诽谤政客和记者,来伪造视频或音频的技术。它的使用在逐渐变成一种真实的威胁。随着这方面的工具变的更加便捷,做出来的产品更加真实,它们将如何塑造我们对世界的看法?在这个演讲中,法律教授 Danielle Citron展示了Deepfakes技术如何放大了我们的不信任感,并且提出了一些保护真相的方法。
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

【此演讲包含成人内容】
00:12
[This talk contains包含 mature成熟 content内容]
0
535
2767
00:17
Rana Ayyub阿尤布 is a journalist记者 in India印度
1
5762
2992
Rana Ayyub
是一位印度记者。
00:20
whose谁的 work has exposed裸露
government政府 corruption腐败
2
8778
2602
她的工作揭露了政府腐败
00:24
and human人的 rights权利 violations违规.
3
12411
2157
和人权侵犯。
00:26
And over the years年份,
4
14990
1167
这些年来,
00:28
she's gotten得到 used to vitriol
and controversy争议 around her work.
5
16181
3303
她已经习惯了工作中的残酷和争议。
00:32
But none没有 of it could have prepared准备 her
for what she faced面对 in April四月 2018.
6
20149
5109
但这些都不足以让她准备好来
面对2018年4月份的事情。
00:38
She was sitting坐在 in a cafCAFé with a friend朋友
when she first saw it:
7
26125
3651
当时她和一个朋友坐在
咖啡厅,第一次看见了
00:41
a two-minute两分钟, 20-second video视频
of her engaged订婚 in a sex性别 act法案.
8
29800
4943
她自己出现在一个
2分20秒的性爱视频里。
00:47
And she couldn't不能 believe her eyes眼睛.
9
35188
2349
她不能相信自己的眼睛。
00:49
She had never made制作 a sex性别 video视频.
10
37561
2273
她从来没有拍摄过这样的视频。
00:52
But unfortunately不幸, thousands数千
upon thousands数千 of people
11
40506
3465
但是很不幸的是,成千上万的人
00:55
would believe it was her.
12
43995
1666
选择相信就是她。
00:58
I interviewed采访 Ms女士. Ayyub阿尤布
about three months个月 ago,
13
46673
2944
我在大约三个月前
采访了Ayyub女士,
01:01
in connection连接 with my book
on sexual有性 privacy隐私.
14
49641
2504
为了我的关于性隐私的书籍。
01:04
I'm a law professor教授, lawyer律师
and civil国内 rights权利 advocate主张.
15
52681
3198
我是一个法律教授,
律师和民权倡导者。
01:08
So it's incredibly令人难以置信 frustrating泄气
knowing会心 that right now,
16
56204
4611
所以我非常沮丧,因为我知道
现在的法律几乎帮不到她。
01:12
law could do very little to help her.
17
60839
2238
01:15
And as we talked,
18
63458
1547
当我们在谈话的时候,
01:17
she explained解释 that she should have seen看到
the fake sex性别 video视频 coming未来.
19
65029
4512
她解释道她应该更早意识到
虚假性爱视频的到来。
01:22
She said, "After all, sex性别 is so often经常 used
to demean贬低 and to shame耻辱 women妇女,
20
70038
5596
她说:‘’毕竟,性爱经常
被用来贬低和羞辱女性,
01:27
especially特别 minority少数民族 women妇女,
21
75658
2428
特别是少数民族的妇女,
01:30
and especially特别 minority少数民族 women妇女
who dare to challenge挑战 powerful强大 men男人,"
22
78110
4312
尤其是敢于挑战权势
的少数民族妇女。”
01:34
as she had in her work.
23
82446
1533
就像她在工作所做的那样。
01:37
The fake sex性别 video视频 went viral病毒 in 48 hours小时.
24
85191
3976
那个伪造的性爱视频
在48小时之内像病毒一样传播。
01:42
All of her online线上 accounts账户 were flooded
with screenshots截图 of the video视频,
25
90064
5307
她所有的线上账户
都被这些视频截屏淹没,
01:47
with graphic图像 rape强奸 and death死亡 threats威胁
26
95395
2627
同时还有图片形式的强奸和死亡威胁
01:50
and with slurs辱骂 about her Muslim穆斯林 faith信仰.
27
98046
2533
和对她穆斯林信仰的诽谤。
01:53
Online线上 posts帖子 suggested建议 that
she was "available可得到" for sex性别.
28
101426
4564
网上的帖子说她可以
随意跟其他人进行性行为。
01:58
And she was doxed多克斯,
29
106014
1610
并且她已经被“人肉”,
01:59
which哪一个 means手段 that her home address地址
and her cell细胞 phone电话 number
30
107648
2778
也就是说她的家庭住址和手机号
02:02
were spread传播 across横过 the internet互联网.
31
110450
1746
已经在互联网上随处可见。
02:04
The video视频 was shared共享
more than 40,000 times.
32
112879
4084
那个视频已经被分享了超过4万次。
02:09
Now, when someone有人 is targeted针对
with this kind of cybermob网络移动 attack攻击,
33
117760
3936
如今,这样的网络暴力,
02:13
the harm危害 is profound深刻.
34
121720
2063
其伤害是非常深远的。
02:16
Rana Ayyub's艾尤布的 life was turned转身 upside上边 down.
35
124482
3039
Rana Ayyub的生活已经彻底改变。
02:20
For weeks, she could hardly几乎不 eat or speak说话.
36
128211
3334
几周时间里,
她几乎不吃饭也不说话。
02:23
She stopped停止 writing写作 and closed关闭
all of her social社会 media媒体 accounts账户,
37
131919
3689
她不再写文章,
关闭了所有社交媒体账户,
02:27
which哪一个 is, you know, a tough强硬 thing to do
when you're a journalist记者.
38
135632
3158
这是作为一个记者很难应付的事情。
02:31
And she was afraid害怕 to go outside
her family's家庭的 home.
39
139188
3484
她不敢走出家门。
02:34
What if the posters海报
made制作 good on their threats威胁?
40
142696
3022
如果那些发帖的人
真的进行了威胁呢?
02:38
The UN联合国 Council评议会 on Human人的 Rights
confirmed确认 that she wasn't being存在 crazy.
41
146395
4365
联合国人权理事会
确认她没有精神问题。
02:42
It issued发行 a public上市 statement声明 saying
that they were worried担心 about her safety安全.
42
150784
4637
他们发布了一个声明,
表示担心她的人身安全。
02:48
What Rana Ayyub阿尤布 faced面对 was a deepfake深法克:
43
156776
4229
Rana Ayyub面对的是deepfake :
(“深度学习”和“伪造”的混合词)
02:53
machine-learning机器学习 technology技术
44
161029
2540
一种机器学习技术,
02:55
that manipulates操纵 or fabricates编造
audio音频 and video视频 recordings录音
45
163593
4111
能够操纵或者伪造视频和音频
02:59
to show显示 people doing and saying things
46
167728
2723
来展示人们做了或者说了
03:02
that they never did or said.
47
170475
1866
他们从来没有做过或说过的事情。
03:04
Deepfakes深假 appear出现 authentic真实
and realistic实际, but they're not;
48
172807
3361
Deepfake让这些看起来
是真实的,但事实上并不是;
03:08
they're total falsehoods虚虚实实.
49
176192
1772
这些都是虚假的视频。
03:11
Although虽然 the technology技术
is still developing发展 in its sophistication诡辩,
50
179228
3794
尽管这项技术还在
这种复杂性中发展,
03:15
it is widely广泛 available可得到.
51
183046
1614
但已经广泛被使用。
03:17
Now, the most recent最近 attention注意
to deepfakes深假 arose出现,
52
185371
3072
大家最近对deepfakes最关注的,
03:20
as so many许多 things do online线上,
53
188467
2161
就像很多网上的事情一样,
03:22
with pornography色情.
54
190652
1255
是色情媒介。
03:24
In early 2018,
55
192498
2111
在2018年早期,
03:26
someone有人 posted发布 a tool工具 on Reddit书签交易
56
194633
2468
有人在Reddit论坛上发布了一个工具,
03:29
to allow允许 users用户 to insert faces面孔
into pornA片 videos视频.
57
197125
4412
可以让用户在色情视频中插入人脸。
03:33
And what followed其次 was a cascade级联
of fake pornA片 videos视频
58
201561
3440
这促成了一系列伪造的色情视频,
03:37
featuring特色 people's人们 favorite喜爱
female celebrities名人.
59
205025
2797
使用了人们最喜爱的女星的面貌。
03:40
And today今天, you can go on YouTubeYouTube的
and pull up countless无数 tutorials教程
60
208712
3477
现在,你在YoutTube上能搜索到
03:44
with step-by-step一步步 instructions说明
61
212213
2286
不计其数步骤详细的教学视频
03:46
on how to make a deepfake深法克
on your desktop桌面 application应用.
62
214523
3163
教你如何在电脑上制作这种视频。
03:50
And soon不久 we may可能 be even able能够
to make them on our cell细胞 phones手机.
63
218260
3706
很快,我们也许也可以
在我们的手机上制作。
03:55
Now, it's the interaction相互作用
of some of our most basic基本 human人的 frailties弱点
64
223072
5382
此时,正是我们最基本的
人性弱点和网络工具的
04:00
and network网络 tools工具
65
228478
1682
相互作用
04:02
that can turn deepfakes深假 into weapons武器.
66
230184
2666
使得deepfakes变成了武器。
04:04
So let me explain说明.
67
232874
1200
让我解释一下。
04:06
As human人的 beings众生, we have
a visceral内脏 reaction反应 to audio音频 and video视频.
68
234875
4566
作为人类,我们对音频
和视频有直观的反应。
04:11
We believe they're true真正,
69
239860
1488
我们相信反应是真实的,
04:13
on the notion概念 that
of course课程 you can believe
70
241372
2078
理论上当然你应该相信
04:15
what your eyes眼睛 and ears耳朵 are telling告诉 you.
71
243474
2478
你的眼睛和耳朵告诉你的事情。
04:18
And it's that mechanism机制
72
246476
1699
并且正是那种机制
04:20
that might威力 undermine破坏 our shared共享
sense of reality现实.
73
248199
3698
削弱了我们共有的对现实的感觉。
04:23
Although虽然 we believe deepfakes深假
to be true真正, they're not.
74
251921
3147
尽管我们相信deepfakes
是真的,但它不是。
04:27
And we're attracted吸引
to the salacious猥亵, the provocative挑衅.
75
255604
4157
我们被那些淫秽和挑衅吸引了。
04:32
We tend趋向 to believe
and to share分享 information信息
76
260365
3047
我们倾向于去相信和共享
04:35
that's negative and novel小说.
77
263436
2023
消极和新奇的信息。
04:37
And researchers研究人员 have found发现 that online线上
hoaxes骗局 spread传播 10 times faster更快
78
265809
5019
研究者们发现网上的骗局比真实故事
04:42
than accurate准确 stories故事.
79
270852
1627
的传播速度快10倍。
04:46
Now, we're also drawn to information信息
80
274015
4380
我们也容易被迎合
04:50
that aligns对齐 with our viewpoints观点.
81
278419
1892
我们观点的信息吸引。
04:52
Psychologists心理学家 call that tendency趋势
"confirmation确认 bias偏压."
82
280950
3561
心理学家称这种倾向为
“验证性偏见”。
04:57
And social社会 media媒体 platforms平台
supercharge增压 that tendency趋势,
83
285300
4387
同时社交媒体平台
极大鼓励了这种倾向,
05:01
by allowing允许 us to instantly即刻
and widely广泛 share分享 information信息
84
289711
3881
允许我们即刻并广泛地分享
05:05
that accords协定 with our viewpoints观点.
85
293616
1792
符合我们自我观点的信息。
05:08
Now, deepfakes深假 have the potential潜在 to cause原因
grave individual个人 and societal社会的 harm危害.
86
296735
5568
Deepfakes能够对个人
和社会造成严重的潜在危害。
05:15
So, imagine想像 a deepfake深法克
87
303204
2024
想象一个deepfake视频
05:17
that shows节目 American美国 soldiers士兵
in Afganistan阿富汗 burning燃烧 a Koran可兰经.
88
305252
4182
显示美国士兵在阿富汗焚烧可兰经。
05:22
You can imagine想像 that that deepfake深法克
would provoke violence暴力
89
310807
3024
你可以想象这个视频会挑起
05:25
against反对 those soldiers士兵.
90
313855
1533
针对这些士兵的暴力行为。
05:27
And what if the very next下一个 day
91
315847
2873
然后如果第二天
05:30
there's another另一个 deepfake深法克 that drops滴剂,
92
318744
2254
又有另一个deepfake视频出现,
05:33
that shows节目 a well-known知名 imam阿訇
based基于 in London伦敦
93
321022
3317
展示在伦敦的一位有名的
伊玛目(伊斯兰教领袖的称号)
05:36
praising赞美 the attack攻击 on those soldiers士兵?
94
324363
2467
在赞美对士兵的袭击行为呢?
05:39
We might威力 see violence暴力 and civil国内 unrest动荡,
95
327617
3163
我们可能会看见暴力和内乱,
05:42
not only in Afganistan阿富汗
and the United联合的 Kingdom王国,
96
330804
3249
不仅出现在阿富汗和英国,
05:46
but across横过 the globe地球.
97
334077
1515
而是全世界。
05:48
And you might威力 say to me,
98
336251
1158
你可能会对我说,
“拜托, Danielle,你说的太牵强了。 ”
05:49
"Come on, Danielle丹妮尔, that's far-fetched牵强."
99
337433
2247
05:51
But it's not.
100
339704
1150
但并不是。
05:53
We've我们已经 seen看到 falsehoods虚虚实实 spread传播
101
341293
2191
我们已经看见了许多虚假信息
05:55
on WhatsAppWhatsApp的 and other
online线上 message信息 services服务
102
343508
2722
在WhatsApp和其它
在线聊天服务里传播,
05:58
lead to violence暴力
against反对 ethnic民族 minorities少数民族.
103
346254
2761
导致了对少数民族的暴力。
06:01
And that was just text文本 --
104
349039
1887
而那还仅仅是文字——
06:02
imagine想像 if it were video视频.
105
350950
2024
如果是视频呢?
06:06
Now, deepfakes深假 have the potential潜在
to corrode腐蚀 the trust相信 that we have
106
354593
5357
Deepfakes有可能会腐蚀
我们在民主机构里
06:11
in democratic民主的 institutions机构.
107
359974
1992
的所拥有的信任。
06:15
So, imagine想像 the night before an election选举.
108
363006
2667
想象一下在选举的前一晚,
06:17
There's a deepfake深法克 showing展示
one of the major重大的 party派对 candidates候选人
109
365996
3238
Deepfake展示了
其中一个主要党派的候选人
06:21
gravely严重 sick生病.
110
369258
1150
生了重病。
06:23
The deepfake深法克 could tip小费 the election选举
111
371202
2333
它可以颠覆这个选举
06:25
and shake our sense
that elections选举 are legitimate合法.
112
373559
3375
并动摇我们认为选举合法的想法。
06:30
Imagine想像 if the night before
an initial初始 public上市 offering
113
378515
3326
接下来,想象在一个跨国银行的
06:33
of a major重大的 global全球 bank银行,
114
381865
2333
首次公开募股的前夜,
06:36
there was a deepfake深法克
showing展示 the bank's银行 CEOCEO
115
384222
3149
deepfake显示银行的CEO
06:39
drunkenly忘情 spouting conspiracy阴谋 theories理论.
116
387395
2697
因为喝醉宣扬阴谋论。
06:42
The deepfake深法克 could tank坦克 the IPOIPO,
117
390887
3047
这个视频可以降低IPO的估值,
06:45
and worse更差, shake our sense
that financial金融 markets市场 are stable稳定.
118
393958
4115
更糟的是,动摇我们认为
金融市场稳定的感觉。
所以,deepfakes可以利用
并放大我们对政客,商业领袖
06:51
So deepfakes深假 can exploit利用 and magnify放大
the deep distrust怀疑 that we already已经 have
119
399385
6989
06:58
in politicians政治家, business商业 leaders领导者
and other influential有影响 leaders领导者.
120
406398
4214
和其他有影响力的领导人
已有的深深的不信任性。
07:02
They find an audience听众
primed to believe them.
121
410945
3284
它们找到了愿意相信它们的观众。
07:07
And the pursuit追求 of truth真相
is on the line线 as well.
122
415287
2765
对真相的追寻也岌岌可危。
07:11
Technologists技师 expect期望
that with advances进步 in AIAI,
123
419077
3564
技术人员认为,
未来随着人工智能的进步,
07:14
soon不久 it may可能 be difficult if not impossible不可能
124
422665
3682
想要分辨出真视频和假视频
07:18
to tell the difference区别 between之间
a real真实 video视频 and a fake one.
125
426371
3769
可能将会变得非常困难。
07:23
So how can the truth真相 emerge出现
in a deepfake-ridden深假缠身 marketplace市井 of ideas思路?
126
431022
5341
那么真相如何才能在一个deepfake
驱使的思想市场中产生?
07:28
Will we just proceed继续 along沿
the path路径 of least最小 resistance抵抗性
127
436752
3420
我们仅仅沿着阻力最小的路前进
07:32
and believe what we want to believe,
128
440196
2437
并相信我们想去相信的,
07:34
truth真相 be damned该死?
129
442657
1150
而真相已经被诅咒了吗?
07:36
And not only might威力 we believe the fakery假货,
130
444831
3175
而且不仅是我们相信虚假,
07:40
we might威力 start开始 disbelieving不相信 the truth真相.
131
448030
3326
可能是我们也开始不相信真相。
07:43
We've我们已经 already已经 seen看到 people invoke调用
the phenomenon现象 of deepfakes深假
132
451887
4079
我们已经见过人们
利用deepfakes的现象
07:47
to cast doubt怀疑 on real真实 evidence证据
of their wrongdoing坏事.
133
455990
3920
来质疑能证明他们
错误行为的真实证据。
07:51
We've我们已经 heard听说 politicians政治家 say of audio音频
of their disturbing烦扰的 comments注释,
134
459934
5969
我们也听过政客回应
他们令人不安的评论,
07:57
"Come on, that's fake news新闻.
135
465927
1746
“拜托,那是假新闻。
07:59
You can't believe what your eyes眼睛
and ears耳朵 are telling告诉 you."
136
467697
3920
你不能相信你的眼睛
和耳朵告诉你的事情。”
08:04
And it's that risk风险
137
472402
1731
这是一种风险,
08:06
that professor教授 Robert罗伯特 Chesney切斯尼 and I
call the "liar's骗子的 dividend股利":
138
474157
5436
Robert Chesney教授和我
把它叫做“撒谎者的福利”:
08:11
the risk风险 that liars骗子 will invoke调用 deepfakes深假
139
479617
3357
撒谎者利用deepfakes来
08:14
to escape逃逸 accountability问责
for their wrongdoing坏事.
140
482998
2905
逃避他们为错误行为负责的风险。
08:18
So we've我们已经 got our work cut out for us,
there's no doubt怀疑 about it.
141
486963
3071
所以我们知道我们的工作
非常艰难,毋庸置疑。
08:22
And we're going to need
a proactive主动 solution
142
490606
3325
我们需要一个
主动积极的解决方案,
08:25
from tech高科技 companies公司, from lawmakers国会议员,
143
493955
3511
来自于科技公司,国会议员,
08:29
law enforcers执法者 and the media媒体.
144
497490
1984
执法者和媒体。
08:32
And we're going to need
a healthy健康 dose剂量 of societal社会的 resilience弹性.
145
500093
4016
并且我们将需要健康的社会复原力。
08:37
So now, we're right now engaged订婚
in a very public上市 conversation会话
146
505506
3896
当下我们正在与科技公司
08:41
about the responsibility责任
of tech高科技 companies公司.
147
509426
2913
进行关于社会责任的公开谈话。
08:44
And my advice忠告 to social社会 media媒体 platforms平台
148
512926
3032
我对社交媒体平台的建议
08:47
has been to change更改 their terms条款 of service服务
and community社区 guidelines方针
149
515982
3873
已经影响了他们的
服务条款和社区准则,
08:51
to ban禁止 deepfakes深假 that cause原因 harm危害.
150
519879
2336
来禁止deepfakes造成危害。
08:54
That determination决心,
that's going to require要求 human人的 judgment判断,
151
522712
3960
那种决心需要人类的判断,
08:58
and it's expensive昂贵.
152
526696
1571
并且代价很大。
09:00
But we need human人的 beings众生
153
528673
2285
但是我们需要人类
09:02
to look at the content内容
and context上下文 of a deepfake深法克
154
530982
3873
去看看deepfake的内容和背景,
09:06
to figure数字 out if it is
a harmful有害 impersonation模拟
155
534879
3682
弄清楚它是否是有害的伪装,
09:10
or instead代替, if it's valuable有价值
satire讽刺, art艺术 or education教育.
156
538585
4382
或者相反,是否是有价值的
讽刺,艺术或教育。
09:16
So now, what about the law?
157
544118
1495
接下来,法律呢?
09:18
Law is our educator教育家.
158
546666
2349
法律是我们的教育家。
09:21
It teaches us about
what's harmful有害 and what's wrong错误.
159
549515
4038
它教育我们什么是有害的,
什么是错误的。
09:25
And it shapes形状 behavior行为 it deters阻碍
by punishing惩罚 perpetrators肇事者
160
553577
4555
法律通过惩罚肇事作案者
和保护对受害者的补救
09:30
and securing确保 remedies补救措施 for victims受害者.
161
558156
2267
来规范行为。
09:33
Right now, law is not up to
the challenge挑战 of deepfakes深假.
162
561148
4280
现在,法律还无法应对
deepfakes带来的挑战。
09:38
Across横过 the globe地球,
163
566116
1390
在全球范围内,
09:39
we lack缺乏 well-tailored精心定制 laws法律
164
567530
2444
我们缺少精心制定的法律,
09:41
that would be designed设计 to tackle滑车
digital数字 impersonations模仿秀
165
569998
3570
解决数字伪造问题的法律,
09:45
that invade入侵 sexual有性 privacy隐私,
166
573592
2231
针对会侵犯性隐私,
09:47
that damage损伤 reputations名誉
167
575847
1387
毁坏名誉
09:49
and that cause原因 emotional情绪化 distress苦难.
168
577258
1951
并造成情绪困扰的事件的法律。
09:51
What happened发生 to Rana Ayyub阿尤布
is increasingly日益 commonplace平凡.
169
579725
3873
发生在Rana Ayyub身上的
事情越来越普遍。
09:56
Yet然而, when she went
to law enforcement强制 in Delhi新德里,
170
584074
2214
但是,当她去德里
的执法部门举报时,
09:58
she was told nothing could be doneDONE.
171
586312
2135
她被告知他们无能为力。
10:01
And the sad伤心 truth真相 is
that the same相同 would be true真正
172
589101
3183
并且令人悲伤的事实是,
在美国和欧洲
10:04
in the United联合的 States状态 and in Europe欧洲.
173
592308
2266
可能是同样的情况。
10:07
So we have a legal法律 vacuum真空
that needs需求 to be filled填充.
174
595300
4356
所以我们需要填补这一法律空白。
10:12
My colleague同事 Dr博士. Mary玛丽 Anne安妮 Franks弗兰克斯 and I
are working加工 with US lawmakers国会议员
175
600292
4092
我和同事Mary Anne Franks博士
正在和美国国会议员一起
10:16
to devise设计 legislation立法 that would ban禁止
harmful有害 digital数字 impersonations模仿秀
176
604408
4804
制定可以禁止有危害的数字伪造,
10:21
that are tantamount无异 to identity身分 theft盗窃.
177
609236
2533
相当于身份盗窃的法律。
10:24
And we've我们已经 seen看到 similar类似 moves移动
178
612252
2126
同时我们看见了
10:26
in Iceland冰岛, the UK联合王国 and Australia澳大利亚.
179
614402
3301
在冰岛,英国和澳大利亚
有类似的过程在进行。
10:30
But of course课程, that's just a small piece
of the regulatory监管 puzzle难题.
180
618157
3259
但是当然,这只是
整个监管难题的一小部分。
10:34
Now, I know law is not a cure-all包治百病. Right?
181
622911
3169
我知道法律并不是灵丹妙药。
10:38
It's a blunt instrument仪器.
182
626104
1600
它是一个武器。
10:40
And we've我们已经 got to use it wisely明智.
183
628346
1539
我们需要智慧地使用它。
10:42
It also has some practical实际的 impediments障碍.
184
630411
2812
法律也有一些实际的障碍。
10:45
You can't leverage杠杆作用 law against反对 people
you can't identify鉴定 and find.
185
633657
5044
你不能利用法律对抗
你无法找到和定位的人。
10:51
And if a perpetrator肇事者 lives生活
outside the country国家
186
639463
3286
如果一个作案者居住在
10:54
where a victim受害者 lives生活,
187
642773
1754
不同于受害者的国家,
10:56
then you may可能 not be able能够 to insist咬定
188
644551
1629
那么你可能无法强制作案者
10:58
that the perpetrator肇事者
come into local本地 courts法院
189
646204
2349
来到当地法庭
11:00
to face面对 justice正义.
190
648577
1150
来接受审判。
11:02
And so we're going to need
a coordinated协调 international国际 response响应.
191
650236
4063
因此我们需要一项协调一致的,
联合全球的响应策略。
11:07
Education教育 has to be part部分
of our response响应 as well.
192
655819
3333
教育也是我们响应策略中的一部分。
11:11
Law enforcers执法者 are not
going to enforce执行 laws法律
193
659803
3731
执法者不会去强制执行
11:15
they don't know about
194
663558
1458
他们不知道的法律,
11:17
and proffer普弗 problems问题
they don't understand理解.
195
665040
2596
也不会提出他们不明白的问题。
11:20
In my research研究 on cyberstalking网络跟踪,
196
668376
2191
在我关于网络追踪的研究中,
11:22
I found发现 that law enforcement强制
lacked缺乏 the training训练
197
670591
3499
我发现执法者缺少
11:26
to understand理解 the laws法律 available可得到 to them
198
674114
2582
了解可供使用的法律
11:28
and the problem问题 of online线上 abuse滥用.
199
676720
2349
和网络暴力问题的培训。
11:31
And so often经常 they told victims受害者,
200
679093
2682
所以他们经常告诉受害者,
11:33
"Just turn your computer电脑 off.
Ignore忽视 it. It'll它会 go away."
201
681799
3971
“把电脑关掉就行了,
不要管,自然就没了。”
11:38
And we saw that in Rana Ayyub's艾尤布的 case案件.
202
686261
2466
我们在Rana Ayyub的案例中
也发现了这点。
11:41
She was told, "Come on,
you're making制造 such这样 a big deal合同 about this.
203
689102
3468
她被告知:
“拜托,你太小题大做了。
11:44
It's boys男孩 being存在 boys男孩."
204
692594
1743
他们只是不懂事的孩子。”
11:47
And so we need to pair new legislation立法
with efforts努力 at training训练.
205
695268
5252
所以我们需要展开针对新法律的培训。
11:54
And education教育 has to be aimed针对
on the media媒体 as well.
206
702053
3429
媒体也同样需要接受相关的培训。
11:58
Journalists记者 need educating教育
about the phenomenon现象 of deepfakes深假
207
706180
4260
记者们需要接受关于
deepfakes现象的培训,
12:02
so they don't amplify放大 and spread传播 them.
208
710464
3039
这样它们就不会被放大和传播。
12:06
And this is the part部分
where we're all involved参与.
209
714583
2168
这正是我们所有人
需要参与其中的部分。
我们每个人都需要这方面的教育。
12:08
Each and every一切 one of us needs需求 educating教育.
210
716775
3855
12:13
We click点击, we share分享, we like,
and we don't even think about it.
211
721375
3675
我们点击,我们分享,我们点赞,
但是我们没有认真去思考。
12:17
We need to do better.
212
725551
1547
我们需要做得更好。
12:19
We need far better radar雷达 for fakery假货.
213
727726
2809
我们需要针对虚假事件
更敏锐的雷达。
12:25
So as we're working加工
through通过 these solutions解决方案,
214
733744
3841
所以在我们研究解决方案的时候,
12:29
there's going to be
a lot of suffering痛苦 to go around.
215
737609
2563
会有很多痛苦和折磨围绕着我们。
12:33
Rana Ayyub阿尤布 is still wrestling摔角
with the fallout掉出来.
216
741093
2746
Rana Ayyub仍在和后果搏斗。
12:36
She still doesn't feel free自由
to express表现 herself她自己 on-上- and offline离线.
217
744669
4189
她还是无法自在地
在线上和线下表达自己。
12:41
And as she told me,
218
749566
1365
就像她告诉我的,
12:42
she still feels感觉 like there are thousands数千
of eyes眼睛 on her naked body身体,
219
750955
5074
她仍然感觉有上千双眼睛
在看着她的裸体,
12:48
even though虽然, intellectually知性上,
she knows知道 it wasn't her body身体.
220
756053
3661
尽管理智上她知道
那并不是她的身体。
12:52
And she has frequent频繁 panic恐慌 attacks攻击,
221
760371
2349
而且她经常遭受惊吓,
12:54
especially特别 when someone有人 she doesn't know
tries尝试 to take her picture图片.
222
762744
4100
特别是当有陌生人试图去偷拍她。
12:58
"What if they're going to make
another另一个 deepfake深法克?" she thinks to herself她自己.
223
766868
3511
“如果他们想拍来做另一个
deepfake呢?”她不禁想。
13:03
And so for the sake清酒 of
individuals个人 like Rana Ayyub阿尤布
224
771082
3921
所以为了像Rana Ayyub一样的个人,
13:07
and the sake清酒 of our democracy民主,
225
775027
2306
为了我们的民主,
13:09
we need to do something right now.
226
777357
2182
我们现在就要有所作为。
13:11
Thank you.
227
779563
1151
谢谢大家。
13:12
(Applause掌声)
228
780738
2508
(掌声)
Translated by Nan Yang

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com