ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Даниэль Ситрон: Как дипфейки разрушают правду и угрожают демократии

Filmed:
1,533,743 views

Использование технологии дипфейк для манипулирования видео- и аудиозаписями в преступных целях — будь то для разжигания насилия или очернения политиков и журналистов — становится реальной угрозой. В эпоху, когда эти инструменты становятся всё более доступными, а их продукты — более реалистичными, как они повлияют на то, во что мы верим в нашей жизни? Профессор права Даниэль Ситрон в своём тревожном выступлении показывает, как дипфейки усиливают наше недоверие, и предлагает подходы к защите правды.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk containsсодержит matureзрелый contentсодержание]
0
535
2767
[Это выступление
предназначено для взрослых]
00:17
RanaРана AyyubАйюб is a journalistжурналист in IndiaИндия
1
5762
2992
Рана Айюб — индийская журналистка,
00:20
whoseчья work has exposedподвергаются
governmentправительство corruptionкоррупция
2
8778
2602
разоблачающая коррупцию в правительстве
00:24
and humanчеловек rightsправа violationsнарушения.
3
12411
2157
и нарушения прав человека.
00:26
And over the yearsлет,
4
14990
1167
За многие годы
00:28
she's gottenполученный used to vitriolкупорос
and controversyполемика around her work.
5
16181
3303
она привыкла к ядовитой критике
и конфликтам вокруг своей работы.
00:32
But noneникто of it could have preparedподготовленный her
for what she facedсталкиваются in Aprilапрель 2018.
6
20149
5109
Но ничто не могло подготовить её к тому,
с чем она столкнулась в апреле 2018 года.
00:38
She was sittingсидящий in a cafкафеé with a friendдруг
when she first saw it:
7
26125
3651
Она сидела в кафе с другом,
когда впервые увидела это:
00:41
a two-minuteдвухминутный, 20-second videoвидео
of her engagedзанято in a sexсекс actакт.
8
29800
4943
видео в 2 минуты и 20 секунд,
в котором она занимается сексом.
00:47
And she couldn'tне может believe her eyesглаза.
9
35188
2349
Она не могла поверить своим глазам.
00:49
She had never madeсделал a sexсекс videoвидео.
10
37561
2273
Она никогда не снимала секс-видео.
00:52
But unfortunatelyК сожалению, thousandsтысячи
uponна thousandsтысячи of people
11
40506
3465
Но, к сожалению, многие тысячи людей
00:55
would believe it was her.
12
43995
1666
поверят, что это она.
00:58
I interviewedинтервью MsМиз. AyyubАйюб
about threeтри monthsмесяцы agoтому назад,
13
46673
2944
Я брала интервью у мисс Айюб
около трёх месяцев назад
01:01
in connectionсоединение with my bookкнига
on sexualполовой privacyКонфиденциальность.
14
49641
2504
в связи с моей книгой
о неприкосновенности сексуальной жизни.
01:04
I'm a lawзакон professorпрофессор, lawyerадвокат
and civilгражданского rightsправа advocateадвокат.
15
52681
3198
Я профессор права, адвокат
и защитник гражданских прав.
Поэтому мне прискорбно сознавать,
что в данный момент
01:08
So it's incrediblyневероятно frustratingразочаровывающий
knowingзнание that right now,
16
56204
4611
закон мало чем может ей помочь.
01:12
lawзакон could do very little to help her.
17
60839
2238
В разговоре она пояснила,
01:15
And as we talkedговорили,
18
63458
1547
01:17
she explainedобъяснил that she should have seenвидели
the fakeне настоящие sexсекс videoвидео comingприход.
19
65029
4512
что, наверное, должна была ожидать
фальшивого секс-видео.
Она сказала: «Секс так часто используется,
чтобы унизить или опозорить женщин,
01:22
She said, "After all, sexсекс is so oftenдовольно часто used
to demeanунижение and to shameпозор womenженщины,
20
70038
5596
особенно женщин из меньшинств
01:27
especiallyособенно minorityменьшинство womenженщины,
21
75658
2428
и особенно женщин из меньшинств,
которые бросают вызов сильным мужчинам»,
01:30
and especiallyособенно minorityменьшинство womenженщины
who dareсметь to challengeвызов powerfulмощный menлюди,"
22
78110
4312
01:34
as she had in her work.
23
82446
1533
как она в своей работе.
Фальшивое видео
распространилось за 48 часов.
01:37
The fakeне настоящие sexсекс videoвидео wentотправился viralвирусный in 48 hoursчасов.
24
85191
3976
01:42
All of her onlineонлайн accountsСчета were floodedзатопленный
with screenshotsскриншоты of the videoвидео,
25
90064
5307
Все её онлайн-аккаунты
были завалены скриншотами этого видео
01:47
with graphicграфический rapeизнасилование and deathсмерть threatsугрозы
26
95395
2627
с явными угрозами изнасилования и смерти
01:50
and with slursсмазывает about her Muslimмусульманка faithвера.
27
98046
2533
и оскорблениями её мусульманской веры.
01:53
OnlineВ сети postsсообщений suggestedпредложенный that
she was "availableдоступный" for sexсекс.
28
101426
4564
Посты в интернете
говорили о её «доступности».
01:58
And she was doxedдоксированный,
29
106014
1610
Личные данные её взломали,
01:59
whichкоторый meansозначает that her home addressадрес
and her cellклетка phoneТелефон numberномер
30
107648
2778
а это значит, что её адрес
и номер мобильного телефона
02:02
were spreadраспространение acrossчерез the internetинтернет.
31
110450
1746
были опубликованы в интернете.
02:04
The videoвидео was sharedобщий
more than 40,000 timesраз.
32
112879
4084
Видео расшарили более 40 000 раз.
02:09
Now, when someoneкто то is targetedцелевое
with this kindсвоего рода of cybermobкибермоб attackатака,
33
117760
3936
Когда кто-то становится мишенью
такой кибератаки,
02:13
the harmвред is profoundглубокий.
34
121720
2063
вред от этого огромен.
02:16
RanaРана Ayyub'sАйюб life was turnedоказалось upsideвверх down.
35
124482
3039
Жизнь Раны Айюб навсегда изменилась.
Неделями она не могла ни есть,
02:20
For weeksнедель, she could hardlyедва eatесть or speakговорить.
36
128211
3334
ни говорить.
02:23
She stoppedостановился writingписьмо and closedзакрыто
all of her socialСоциальное mediaСМИ accountsСчета,
37
131919
3689
Она перестала писать
и закрыла все свои аккаунты в соцсетях,
02:27
whichкоторый is, you know, a toughжесткий thing to do
when you're a journalistжурналист.
38
135632
3158
что, как вы понимаете, нелегко,
когда ты журналист.
02:31
And she was afraidбоюсь to go outsideза пределами
her family'sсемьи home.
39
139188
3484
Она боялась выходить из дома,
где жила с семьёй.
02:34
What if the postersплакаты
madeсделал good on theirих threatsугрозы?
40
142696
3022
Что, если преследователи
выполнят свои угрозы?
02:38
The UNООН Councilсовет on HumanЧеловек Rightsправа
confirmedподтвердил that she wasn'tне было beingявляющийся crazyпсих.
41
146395
4365
Совет ООН по правам человека подтвердил,
что она не сошла с ума.
02:42
It issuedвыпущен a publicобщественности statementзаявление sayingпоговорка
that they were worriedволновался about her safetyбезопасность.
42
150784
4637
В публичном заявлении он выразил
беспокойство о её безопасности.
02:48
What RanaРана AyyubАйюб facedсталкиваются was a deepfakedeepfake:
43
156776
4229
Рана Айюб столкнулась с тем,
что называется дипфейком:
02:53
machine-learningмашинное обучение technologyтехнологии
44
161029
2540
это технология искусственного интеллекта,
02:55
that manipulatesманипулирует or fabricatesизготовляют
audioаудио and videoвидео recordingsзаписи
45
163593
4111
которая манипулирует аудио-
и видеозаписями или фабрикует их так,
02:59
to showпоказать people doing and sayingпоговорка things
46
167728
2723
что люди в них делают и говорят то,
03:02
that they never did or said.
47
170475
1866
чего никогда не говорили и не делали.
03:04
DeepfakesDeepfakes appearпоявиться authenticаутентичный
and realisticреалистический, but they're not;
48
172807
3361
Дипфейки кажутся подлинными
и реалистичными, но это не так:
03:08
they're totalВсего falsehoodsложь.
49
176192
1772
это абсолютная фальшивка.
03:11
AlthoughНесмотря на то что the technologyтехнологии
is still developingразвивающийся in its sophisticationутонченность,
50
179228
3794
Хотя эта технология ещё развивается,
становясь всё изощрённей,
03:15
it is widelyшироко availableдоступный.
51
183046
1614
она широко доступна.
03:17
Now, the mostбольшинство recentнедавний attentionвнимание
to deepfakesdeepfakes aroseвозникла,
52
185371
3072
В последнее время дипфейки
стали привлекать внимание,
03:20
as so manyмногие things do onlineонлайн,
53
188467
2161
как и многое другое онлайн,
03:22
with pornographyпорнография.
54
190652
1255
в связи с порнографией.
03:24
In earlyрано 2018,
55
192498
2111
В начале 2018 года
03:26
someoneкто то postedотправил a toolинструмент on RedditReddit
56
194633
2468
кто-то разместил на Reddit инструмент,
03:29
to allowпозволять usersпользователи to insertвставить facesлица
into pornпорно videosвидео.
57
197125
4412
позволяющий вставлять лица в порно-видео.
03:33
And what followedс последующим was a cascadeкаскад
of fakeне настоящие pornпорно videosвидео
58
201561
3440
За этим последовал поток
фальшивых порно-роликов
03:37
featuringс участием people'sнародный favoriteлюбимый
femaleженский пол celebritiesзнаменитости.
59
205025
2797
с участием любимых женщин-знаменитостей.
03:40
And todayCегодня, you can go on YouTubeYouTube
and pullвытащить up countlessбесчисленный tutorialsучебные пособия
60
208712
3477
И сегодня на YouTube можно найти
бесчисленные обучающие программы
03:44
with step-by-stepшаг за шагом instructionsинструкции
61
212213
2286
с пошаговыми инструкциями о том,
03:46
on how to make a deepfakedeepfake
on your desktopрабочий стол applicationзаявление.
62
214523
3163
как сфабриковать дипфейк
в вашем настольном приложении.
03:50
And soonскоро we mayмай be even ableв состоянии
to make them on our cellклетка phonesтелефоны.
63
218260
3706
Вскоре, возможно, мы сможем
создавать их даже на мобильных телефонах.
03:55
Now, it's the interactionвзаимодействие
of some of our mostбольшинство basicосновной humanчеловек frailtiesнепрочности
64
223072
5382
Взаимодействие низших
человеческих порывов
04:00
and networkсеть toolsинструменты
65
228478
1682
и сетевых средств
04:02
that can turnочередь deepfakesdeepfakes into weaponsоружие.
66
230184
2666
превращают дипфейки в оружие.
04:04
So let me explainобъяснять.
67
232874
1200
Разрешите, я объясню.
04:06
As humanчеловек beingsсущества, we have
a visceralвисцеральный reactionреакция to audioаудио and videoвидео.
68
234875
4566
Существует инстинктивная
реакция на аудио и видео.
04:11
We believe they're trueправда,
69
239860
1488
Мы верим им:
04:13
on the notionпонятие that
of courseкурс you can believe
70
241372
2078
а как же не верить
04:15
what your eyesглаза and earsуши are tellingговоря you.
71
243474
2478
своим глазам и ушам?
04:18
And it's that mechanismмеханизм
72
246476
1699
И именно такой механизм
04:20
that mightмог бы undermineподрывать our sharedобщий
senseсмысл of realityреальность.
73
248199
3698
может подорвать
наше общее чувство реальности.
04:23
AlthoughНесмотря на то что we believe deepfakesdeepfakes
to be trueправда, they're not.
74
251921
3147
Хотя дипфейки кажутся нам
правдой, это не так.
04:27
And we're attractedпривлекли
to the salaciousнепристойный, the provocativeпровокационный.
75
255604
4157
Нас привлекает непристойность, провокация.
04:32
We tendиметь тенденцию to believe
and to shareдоля informationИнформация
76
260365
3047
Мы склонны верить и распространять
04:35
that's negativeотрицательный and novelроман.
77
263436
2023
новую или негативную информацию.
04:37
And researchersисследователи have foundнайденный that onlineонлайн
hoaxesмистификаций spreadраспространение 10 timesраз fasterБыстрее
78
265809
5019
Учёные обнаружили, что в интернете
подделки распространяются
04:42
than accurateточный storiesистории.
79
270852
1627
в 10 раз быстрее, чем правдивые истории.
04:46
Now, we're alsoтакже drawnвничью to informationИнформация
80
274015
4380
Нас также привлекает информация,
04:50
that alignsсовмещается with our viewpointsточки зрения.
81
278419
1892
которая соответствует нашим взглядам.
04:52
Psychologistsпсихологи call that tendencyтенденция
"confirmationподтверждение biasсмещение."
82
280950
3561
Психологи называют эту тенденцию
«предвзятость подтверждения».
04:57
And socialСоциальное mediaСМИ platformsплатформы
superchargeПерегружать that tendencyтенденция,
83
285300
4387
А социальные медиа-платформы
усиливают эту тенденцию,
05:01
by allowingпозволяющий us to instantlyнемедленно
and widelyшироко shareдоля informationИнформация
84
289711
3881
позволяя нам мгновенно и широко
обмениваться информацией,
05:05
that accordsсогласовывает with our viewpointsточки зрения.
85
293616
1792
согласующейся с нашей точкой зрения.
05:08
Now, deepfakesdeepfakes have the potentialпотенциал to causeпричина
graveмогила individualиндивидуальный and societalсоциальный harmвред.
86
296735
5568
Дипфейки могут нанести
серьёзный личный и общественный вред.
05:15
So, imagineпредставить a deepfakedeepfake
87
303204
2024
Представьте себе фальшивку,
05:17
that showsшоу Americanамериканский soldiersсолдаты
in AfganistanАфганистан burningсжигание a KoranКоран.
88
305252
4182
на которой американские солдаты
в Афганистане сжигают Коран.
05:22
You can imagineпредставить that that deepfakedeepfake
would provokeпровоцировать violenceнасилие
89
310807
3024
Вы понимаете, что такая подделка
может спровоцировать насилие
05:25
againstпротив those soldiersсолдаты.
90
313855
1533
в отношении американских солдат.
05:27
And what if the very nextследующий day
91
315847
2873
А что, если на следующий день
05:30
there's anotherдругой deepfakedeepfake that dropsкапли,
92
318744
2254
появится новая фальшивка,
05:33
that showsшоу a well-knownобщеизвестный imamимам
basedисходя из in LondonЛондон
93
321022
3317
на которой известный лондонский имам
05:36
praisingвосхваление the attackатака on those soldiersсолдаты?
94
324363
2467
восхваляет нападение на этих солдат?
05:39
We mightмог бы see violenceнасилие and civilгражданского unrestбеспорядки,
95
327617
3163
Насилие и общественные беспорядки
05:42
not only in AfganistanАфганистан
and the Unitedобъединенный KingdomКоролевство,
96
330804
3249
могут произойти не только
в Афганистане и Великобритании,
05:46
but acrossчерез the globeземной шар.
97
334077
1515
но и во всём мире.
05:48
And you mightмог бы say to me,
98
336251
1158
Вы можете сказать мне:
05:49
"Come on, DanielleDanielle, that's far-fetchedнадуманный."
99
337433
2247
«Ладно, Даниэль, ты преувеличиваешь».
05:51
But it's not.
100
339704
1150
Но это не так.
05:53
We'veУ нас seenвидели falsehoodsложь spreadраспространение
101
341293
2191
Мы видели, как ложь, распространяемая
05:55
on WhatsAppWhatsApp and other
onlineонлайн messageсообщение servicesСервисы
102
343508
2722
на WhatsApp и других мессенджерах,
05:58
leadвести to violenceнасилие
againstпротив ethnicэтнической minoritiesменьшинства.
103
346254
2761
приводила к насилию
в отношении этнических меньшинств.
06:01
And that was just textтекст --
104
349039
1887
И это был просто текст —
06:02
imagineпредставить if it were videoвидео.
105
350950
2024
представьте, если бы это было видео.
06:06
Now, deepfakesdeepfakes have the potentialпотенциал
to corrodeВытравите the trustдоверять that we have
106
354593
5357
Дипфейки могут подорвать наше доверие
06:11
in democraticдемократической institutionsучреждения.
107
359974
1992
к демократическим институтам.
06:15
So, imagineпредставить the night before an electionвыборы.
108
363006
2667
Представьте себе, что накануне выборов
06:17
There's a deepfakedeepfake showingпоказ
one of the majorглавный partyвечеринка candidatesкандидаты
109
365996
3238
появляется подделка, показывающая,
что один из основных кандидатов
06:21
gravelyсерьезно sickбольной.
110
369258
1150
тяжело болен.
06:23
The deepfakedeepfake could tipнаконечник the electionвыборы
111
371202
2333
Дипфейк может перевесить чашу весов
06:25
and shakeвстряхивать our senseсмысл
that electionsвыборы are legitimateзаконный.
112
373559
3375
и поколебать веру в легитимность выборов.
06:30
ImagineПредставить if the night before
an initialначальная publicобщественности offeringпредложение
113
378515
3326
Представьте, что накануне первого
публичного размещения акций
06:33
of a majorглавный globalГлобальный bankбанка,
114
381865
2333
одного из крупнейших банков
06:36
there was a deepfakedeepfake
showingпоказ the bank'sбанки CEOИсполнительный директор
115
384222
3149
появляется подделка,
на которой гендиректор
06:39
drunkenlyпьяно spoutingизвергать conspiracyзаговор theoriesтеории.
116
387395
2697
в пьяном виде болтает о заговорах.
06:42
The deepfakedeepfake could tankбак the IPOIPO,
117
390887
3047
Дипфейк может сорвать мероприятие
06:45
and worseхуже, shakeвстряхивать our senseсмысл
that financialфинансовый marketsрынки are stableстабильный.
118
393958
4115
и, хуже того, поколебать нашу веру
в стабильность финансовых рынков.
Так, дипфейки используют и усиливают
уже имеющееся у нас глубокое недоверие
06:51
So deepfakesdeepfakes can exploitэксплуатировать and magnifyувеличивать
the deepглубоко distrustнедоверие that we alreadyуже have
119
399385
6989
06:58
in politiciansполитики, businessбизнес leadersлидеры
and other influentialвлиятельный leadersлидеры.
120
406398
4214
к политикам, крупным бизнесменам
и другим влиятельным лидерам.
07:02
They find an audienceаудитория
primedзагрунтованный to believe them.
121
410945
3284
Они находят аудиторию,
готовую им поверить.
07:07
And the pursuitпреследование of truthправда
is on the lineлиния as well.
122
415287
2765
И стремление к истине
тоже поставлено на карту.
07:11
TechnologistsТехнологи expectожидать
that with advancesдостижения in AIискусственный интеллект,
123
419077
3564
Технологи ожидают,
что с развитием искусственного интеллекта
07:14
soonскоро it mayмай be difficultсложно if not impossibleневозможно
124
422665
3682
вскоре будет трудно или даже невозможно
07:18
to tell the differenceразница betweenмежду
a realреальный videoвидео and a fakeне настоящие one.
125
426371
3769
отличить настоящее видео от поддельного.
07:23
So how can the truthправда emergeвсплывать
in a deepfake-riddendeepfake охваченных marketplaceрыночная площадь of ideasидеи?
126
431022
5341
Как же распознать истину
на рынке идей, полном подделок?
07:28
Will we just proceedпродолжить alongвдоль
the pathдорожка of leastнаименее resistanceсопротивление
127
436752
3420
Пойдём ли мы по пути
наименьшего сопротивления,
07:32
and believe what we want to believe,
128
440196
2437
начнём ли верить во что хотим
07:34
truthправда be damnedпроклятый?
129
442657
1150
и к чёрту правду?
07:36
And not only mightмог бы we believe the fakeryподделка,
130
444831
3175
Мы не только, возможно,
поверим подделкам,
07:40
we mightмог бы startНачало disbelievingневерующий the truthправда.
131
448030
3326
мы перестанем верить правде.
07:43
We'veУ нас alreadyуже seenвидели people invokeвзывать
the phenomenonявление of deepfakesdeepfakes
132
451887
4079
Мы уже видели, как люди используют
феномен дипфейка,
07:47
to castбросать doubtсомнение on realреальный evidenceдоказательства
of theirих wrongdoingпроступок.
133
455990
3920
чтобы поставить под сомнение реальные
доказательства своих преступлений.
07:51
We'veУ нас heardуслышанным politiciansполитики say of audioаудио
of theirих disturbingтревожный commentsКомментарии,
134
459934
5969
Или как, слыша запись своих
возмутительных высказываний,
07:57
"Come on, that's fakeне настоящие newsНовости.
135
465927
1746
политики говорили: «Это подделка.
07:59
You can't believe what your eyesглаза
and earsуши are tellingговоря you."
136
467697
3920
Нельзя верить своим глазам и ушам».
08:04
And it's that riskриск
137
472402
1731
И это тот риск,
08:06
that professorпрофессор RobertРоберт ChesneyЧесни and I
call the "liar'sлжеца dividendдивиденд":
138
474157
5436
который мы с профессором Робертом Чесни
называем «дивиденд лжеца»:
08:11
the riskриск that liarsлжецы will invokeвзывать deepfakesdeepfakes
139
479617
3357
риск, что лжецы назовут
реальность подделкой,
08:14
to escapeпобег accountabilityподотчетность
for theirих wrongdoingпроступок.
140
482998
2905
чтобы избежать ответственности
за свои проступки.
08:18
So we'veмы в got our work cutпорез out for us,
there's no doubtсомнение about it.
141
486963
3071
Перед нами огромная работа,
в этом нет сомнений.
08:22
And we're going to need
a proactiveупреждающий solutionрешение
142
490606
3325
Нам понадобится превентивное решение
08:25
from techтек companiesкомпании, from lawmakersзаконодатели,
143
493955
3511
от техкомпаний, от законодателей,
08:29
lawзакон enforcersорганы and the mediaСМИ.
144
497490
1984
от правоохранительных органов и СМИ.
08:32
And we're going to need
a healthyздоровый doseдозировать of societalсоциальный resilienceупругость.
145
500093
4016
А также необходима здоровая доза
устойчивости общества.
08:37
So now, we're right now engagedзанято
in a very publicобщественности conversationразговор
146
505506
3896
В данный момент мы очень открыто
ведём разговор
08:41
about the responsibilityобязанность
of techтек companiesкомпании.
147
509426
2913
об ответственности техкомпаний.
08:44
And my adviceсовет to socialСоциальное mediaСМИ platformsплатформы
148
512926
3032
Я рекомендую социальным медиа-платформам
08:47
has been to changeизменение theirих termsсроки of serviceоказание услуг
and communityсообщество guidelinesметодические рекомендации
149
515982
3873
изменить условия предоставления услуг
и правила сообщества,
08:51
to banзапрет deepfakesdeepfakes that causeпричина harmвред.
150
519879
2336
чтобы запретить вредоносные подделки.
08:54
That determinationопределение,
that's going to requireтребовать humanчеловек judgmentсуждение,
151
522712
3960
Такой настрой потребует
участия человеческого разума,
08:58
and it's expensiveдорогая.
152
526696
1571
а это дорого.
09:00
But we need humanчеловек beingsсущества
153
528673
2285
Но нам нужны люди,
09:02
to look at the contentсодержание
and contextконтекст of a deepfakedeepfake
154
530982
3873
которые бы рассмотрели содержание
и контекст дипфейка,
09:06
to figureфигура out if it is
a harmfulвредный impersonationолицетворение
155
534879
3682
чтобы понять, имеем ли мы дело
с вредной подделкой под кого-то
09:10
or insteadвместо, if it's valuableценный
satireсатира, artИзобразительное искусство or educationобразование.
156
538585
4382
или же это ценная сатира,
искусство или урок.
09:16
So now, what about the lawзакон?
157
544118
1495
А как же закон?
09:18
Lawзакон is our educatorвоспитатель.
158
546666
2349
Закон — наш наставник.
09:21
It teachesучит us about
what's harmfulвредный and what's wrongнеправильно.
159
549515
4038
Он показывает,
чтó есть вред и чтó есть зло.
09:25
And it shapesформы behaviorповедение it detersотпугивает
by punishingкарающий perpetratorsисполнители
160
553577
4555
Он объясняет, какое поведение неприемлемо,
наказывая нарушителей
09:30
and securingобеспечение remediesСредства for victimsжертвы.
161
558156
2267
и обеспечивая защиту жертвам.
09:33
Right now, lawзакон is not up to
the challengeвызов of deepfakesdeepfakes.
162
561148
4280
На данный момент закон не способен
противостоять дипфейкам.
09:38
Acrossчерез the globeземной шар,
163
566116
1390
Во всём мире нам не хватает
09:39
we lackотсутствие well-tailoredхорошо сшитый lawsзаконы
164
567530
2444
хорошо продуманных законов,
09:41
that would be designedпредназначенный to tackleснасти
digitalцифровой impersonationsолицетворений
165
569998
3570
направленных на борьбу
с цифровыми подражаниями,
09:45
that invadeвторгаться sexualполовой privacyКонфиденциальность,
166
573592
2231
вторгающимися в интимную жизнь,
09:47
that damageнаносить ущерб reputationsрепутаций
167
575847
1387
вредящими репутации
09:49
and that causeпричина emotionalэмоциональный distressбедствие.
168
577258
1951
и наносящими моральный ущерб.
09:51
What happenedполучилось to RanaРана AyyubАйюб
is increasinglyвсе больше и больше commonplaceбанальность.
169
579725
3873
То, что случилось с Раной Айюб,
происходит всё чаще.
09:56
YetВсе же, when she wentотправился
to lawзакон enforcementправоприменение in DelhiДели,
170
584074
2214
Однако, когда она обратилась
в полицию Дели,
09:58
she was told nothing could be doneсделанный.
171
586312
2135
ей сказали, что ничего сделать нельзя.
10:01
And the sadгрустный truthправда is
that the sameодна и та же would be trueправда
172
589101
3183
И, как это ни грустно, то же бы произошло
10:04
in the Unitedобъединенный Statesсостояния and in EuropeЕвропа.
173
592308
2266
и в США, и в Европе.
10:07
So we have a legalправовой vacuumвакуум
that needsпотребности to be filledзаполненный.
174
595300
4356
У нас есть правовой вакуум,
который нужно заполнить.
10:12
My colleagueколлега Drдоктор. MaryМэри AnneЭнн FranksФранки and I
are workingза работой with US lawmakersзаконодатели
175
600292
4092
Моя коллега д-р Мэри Энн Фрэнкс и я
работаем с американскими законодателями
10:16
to deviseразрабатывать legislationзаконодательство that would banзапрет
harmfulвредный digitalцифровой impersonationsолицетворений
176
604408
4804
над разработкой закона, запрещающего
вредоносные цифровые имитации,
10:21
that are tantamountравнозначно to identityидентичность theftкража.
177
609236
2533
которые равносильны краже личных данных.
10:24
And we'veмы в seenвидели similarаналогичный movesдвижется
178
612252
2126
Подобные инициативы мы видим
10:26
in IcelandИсландия, the UKВеликобритания and AustraliaАвстралия.
179
614402
3301
и в Исландии, Великобритании и Австралии.
10:30
But of courseкурс, that's just a smallмаленький pieceкусок
of the regulatoryрегулятивный puzzleголоволомка.
180
618157
3259
Конечно, это лишь небольшой кусочек
законодательной головоломки.
10:34
Now, I know lawзакон is not a cure-allпанацея. Right?
181
622911
3169
Я знаю, что закон — не панацея. Правда?
10:38
It's a bluntтупой instrumentинструмент.
182
626104
1600
Это грубый инструмент,
10:40
And we'veмы в got to use it wiselyмудро.
183
628346
1539
и его нужно мудро использовать.
10:42
It alsoтакже has some practicalпрактическое impedimentsпрепятствий.
184
630411
2812
Есть также практические препятствия.
10:45
You can't leverageлевередж lawзакон againstпротив people
you can't identifyидентифицировать and find.
185
633657
5044
Невозможно направить закон против людей,
которых невозможно опознать и найти.
10:51
And if a perpetratorнарушитель livesжизни
outsideза пределами the countryстрана
186
639463
3286
И если преступник живёт в одной стране,
10:54
where a victimжертва livesжизни,
187
642773
1754
а жертва — в другой,
10:56
then you mayмай not be ableв состоянии to insistнастоять
188
644551
1629
то вы не сможете настоять на том,
10:58
that the perpetratorнарушитель
come into localместный courtsсуды
189
646204
2349
чтобы преступник предстал
перед местными судами
11:00
to faceлицо justiceсправедливость.
190
648577
1150
и получил вердикт.
11:02
And so we're going to need
a coordinatedкоординированный internationalМеждународный responseответ.
191
650236
4063
Поэтому нам понадобится
скоординированная международная реакция.
11:07
Educationобразование has to be partчасть
of our responseответ as well.
192
655819
3333
Образование должно быть
частью этой реакции.
11:11
Lawзакон enforcersорганы are not
going to enforceобеспечивать соблюдение lawsзаконы
193
659803
3731
Правоохранители не будут применять законы,
11:15
they don't know about
194
663558
1458
о которых они не знают,
11:17
and profferПредлагать problemsпроблемы
they don't understandПонимаю.
195
665040
2596
и решать проблемы, которых не понимают.
11:20
In my researchисследование on cyberstalkingкиберпреследования,
196
668376
2191
Исследуя киберпреследования,
11:22
I foundнайденный that lawзакон enforcementправоприменение
lackedне хватало the trainingобучение
197
670591
3499
я обнаружила, что правоохранители
не имеют достаточной подготовки,
11:26
to understandПонимаю the lawsзаконы availableдоступный to them
198
674114
2582
чтобы понять имеющиеся законы
11:28
and the problemпроблема of onlineонлайн abuseзлоупотребление.
199
676720
2349
и проблему оскорблений в сети.
11:31
And so oftenдовольно часто they told victimsжертвы,
200
679093
2682
Поэтому они часто говорят жертвам:
11:33
"Just turnочередь your computerкомпьютер off.
Ignoreигнорировать it. It'llЭто будет go away."
201
681799
3971
«Просто выключите компьютер.
Не обращайте внимания, и всё пройдёт».
11:38
And we saw that in RanaРана Ayyub'sАйюб caseдело.
202
686261
2466
Так случилось с Раной Айюб.
11:41
She was told, "Come on,
you're makingизготовление suchтакие a bigбольшой dealпо рукам about this.
203
689102
3468
Ей сказали: «Ты делаешь из мухи слона.
11:44
It's boysмальчиков beingявляющийся boysмальчиков."
204
692594
1743
Это просто мальчишечьи игры».
11:47
And so we need to pairпара newновый legislationзаконодательство
with effortsусилия at trainingобучение.
205
695268
5252
Поэтому нужно объединять новые законы
с практической подготовкой.
11:54
And educationобразование has to be aimedнацеленный
on the mediaСМИ as well.
206
702053
3429
В образовании нуждаются и СМИ.
11:58
JournalistsЖурналисты need educatingвоспитания
about the phenomenonявление of deepfakesdeepfakes
207
706180
4260
Журналистам нужно объяснять
феномен дипфейка,
12:02
so they don't amplifyусиливать and spreadраспространение them.
208
710464
3039
чтобы они не усиливали
и не распространяли его.
12:06
And this is the partчасть
where we're all involvedучаствует.
209
714583
2168
И вот что касается всех нас.
12:08
Eachкаждый and everyкаждый one of us needsпотребности educatingвоспитания.
210
716775
3855
Каждому из нас нужно учиться.
12:13
We clickщелчок, we shareдоля, we like,
and we don't even think about it.
211
721375
3675
Мы кликаем, расшариваем, лайкаем
и даже не задумываемся об этом.
12:17
We need to do better.
212
725551
1547
Мы способны на большее.
12:19
We need farдалеко better radarрадиолокационный for fakeryподделка.
213
727726
2809
Нам нужен лучший радар для подделок.
12:25
So as we're workingза работой
throughчерез these solutionsрешения,
214
733744
3841
Пока мы воплощаем в жизнь эти решения,
12:29
there's going to be
a lot of sufferingстрадающий to go around.
215
737609
2563
ещё многие люди пострадают.
12:33
RanaРана AyyubАйюб is still wrestlingборьба
with the falloutвыпадать.
216
741093
2746
Рана Айюб всё ещё борется с последствиями.
12:36
She still doesn't feel freeсвободно
to expressэкспресс herselfсама on-на- and offlineне в сети.
217
744669
4189
Она всё ещё не чувствует, что может
свободно выражать себя в сети и вне её.
12:41
And as she told me,
218
749566
1365
И, как она мне сказала,
12:42
she still feelsчувствует like there are thousandsтысячи
of eyesглаза on her nakedобнаженный bodyтело,
219
750955
5074
ей по-прежнему кажется,
что тысячи глаз смотрят на её голое тело,
12:48
even thoughхоть, intellectuallyинтеллектуально,
she knowsзнает it wasn'tне было her bodyтело.
220
756053
3661
хотя умом она понимает,
что это было не её тело.
12:52
And she has frequentчастый panicпаника attacksнападки,
221
760371
2349
Часто у неё бывают панические атаки,
12:54
especiallyособенно when someoneкто то she doesn't know
triesпытается to take her pictureкартина.
222
762744
4100
особенно когда кто-то незнакомый
пытается её сфотографировать.
12:58
"What if they're going to make
anotherдругой deepfakedeepfake?" she thinksдумает to herselfсама.
223
766868
3511
«Что если они хотят сделать
ещё один дипфейк?» — думает она.
13:03
And so for the sakeради of
individualsиндивидуумы like RanaРана AyyubАйюб
224
771082
3921
Итак, ради таких, как Рана Айюб,
13:07
and the sakeради of our democracyдемократия,
225
775027
2306
ради нашей демократии
13:09
we need to do something right now.
226
777357
2182
нужно делать что-то прямо сейчас.
13:11
Thank you.
227
779563
1151
Спасибо.
13:12
(ApplauseАплодисменты)
228
780738
2508
(Аплодисменты)
Translated by Helen Girshman
Reviewed by Yulia Kallistratova

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com