ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citron: Ecco come i deepfake minano la verità e compromettono la democrazia

Filmed:
1,533,743 views

La strategia dei deepfake usata per manipolare video e audio con intenti dolosi, indipendentemente dal fatto che sia per alimentare violenza o diffamare politici e giornalisti, si sta rivelando una vera e propria minaccia. Data la crescente accessibilità di questi strumenti e la verosimiglianza di ciò che ne deriva, in che modo verranno influenzate le nostre convinzioni sul mondo? In questo discorso premonitore, la professoressa di diritto Danielle Citron rivela come i deepfake enfatizzino la nostra sfiducia e suggerisce alcuni metodi per salvaguardare la verità.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

[Questo discorso contiene
materiale per adulti]
00:12
[This talk containscontiene maturematuro contentsoddisfare]
0
535
2767
00:17
RanaRana AyyubAyyub is a journalistgiornalista in IndiaIndia
1
5762
2992
Rana Ayyub è un giornalista indiana
00:20
whosedi chi work has exposedesposto
governmentgoverno corruptioncorruzione
2
8778
2602
che, grazie alle sue inchieste,
ha svelato la corruzione del governo
00:24
and humanumano rightsdiritti violationsviolazioni.
3
12411
2157
e le violazioni dei diritti umani.
Con il tempo,
00:26
And over the yearsanni,
4
14990
1167
00:28
she's gottenottenuto used to vitriolvetriolo
and controversycontroversia around her work.
5
16181
3303
si è abituata alle aspre critiche
e alle polemiche sul suo lavoro.
00:32
But nonenessuna of it could have preparedpreparato her
for what she facedaffrontato in AprilAprile 2018.
6
20149
5109
Ma niente di tutto ciò poteva prepararla
a ciò che successe nell'aprile del 2018.
00:38
She was sittingseduta in a cafCAFé with a friendamico
when she first saw it:
7
26125
3651
Era seduta al bar con un'amica,
quando lo vide per la prima volta:
00:41
a two-minutedue minuti, 20-second videovideo
of her engagedimpegnato in a sexsesso actatto.
8
29800
4943
un video di due minuti e 20 secondi
dove era protagonista di un atto sessuale.
Non poteva credere ai suoi occhi.
00:47
And she couldn'tnon poteva believe her eyesocchi.
9
35188
2349
00:49
She had never madefatto a sexsesso videovideo.
10
37561
2273
Non aveva mai fatto un video
a sfondo sessuale.
00:52
But unfortunatelypurtroppo, thousandsmigliaia
uponsu thousandsmigliaia of people
11
40506
3465
Sfortunatamente, però,
migliaia e migliaia di persone
credevano che fosse lei.
00:55
would believe it was her.
12
43995
1666
Ho intervistato Ayyub circa tre mesi fa,
00:58
I interviewedintervistato MsMS. AyyubAyyub
about threetre monthsmesi agofa,
13
46673
2944
01:01
in connectionconnessione with my booklibro
on sexualsessuale privacysulla privacy.
14
49641
2504
in tema con il mio libro
sulla privacy sessuale.
01:04
I'm a lawlegge professorProfessore, lawyeravvocato
and civilcivile rightsdiritti advocateavvocato.
15
52681
3198
Sono una docente di legge, avvocato
e sostenitrice dei diritti civili.
01:08
So it's incrediblyincredibilmente frustratingfrustrante
knowingsapendo that right now,
16
56204
4611
È incredibilmente frustante
sapere che al momento
01:12
lawlegge could do very little to help her.
17
60839
2238
la legge può fare ben poco per aiutarla.
01:15
And as we talkedparlato,
18
63458
1547
Mentre parlavamo,
01:17
she explainedha spiegato that she should have seenvisto
the fakefalso sexsesso videovideo comingvenuta.
19
65029
4512
mi spiegò che si sarebbe dovuta aspettare
un finto video a sfondo sessuale.
01:22
She said, "After all, sexsesso is so oftenspesso used
to demeanSminuire and to shamevergogna womendonne,
20
70038
5596
Mi disse: "Si sa, il sesso è spesso usato
per umiliare e infamare le donne,
01:27
especiallyparticolarmente minorityminoranza womendonne,
21
75658
2428
specialmente donne della minoranza,
01:30
and especiallyparticolarmente minorityminoranza womendonne
who dareosare to challengesfida powerfulpotente menuomini,"
22
78110
4312
e soprattutto donne della minoranza
che osano sfidare uomini di potere”,
01:34
as she had in her work.
23
82446
1533
come aveva fatto lei nel suo lavoro.
01:37
The fakefalso sexsesso videovideo wentandato viralvirale in 48 hoursore.
24
85191
3976
Il finto video sessuale
è diventato virale in 48 ore.
01:42
All of her onlinein linea accountsconti were floodedallagato
with screenshotsScreenshots of the videovideo,
25
90064
5307
Tutti i suoi account online
erano invasi da screenshot del video,
01:47
with graphicgrafica rapestupro and deathmorte threatsminacce
26
95395
2627
da minacce di stupro e di morte
descritte nel dettaglio
01:50
and with slurslegature di portamento about her MuslimMusulmano faithfede.
27
98046
2533
e da offese circa la sua fede islamica.
01:53
OnlineOnline postsPost suggestedsuggerito that
she was "availablea disposizione" for sexsesso.
28
101426
4564
I post online suggerivano
che fosse "disponibile" al sesso.
01:58
And she was doxeddossato,
29
106014
1610
Fu vittima di "doxing",
01:59
whichquale meanssi intende that her home addressindirizzo
and her cellcellula phoneTelefono numbernumero
30
107648
2778
ovvero il suo indirizzo di casa
e il suo numero di telefono
furono diffusi sul web.
02:02
were spreaddiffusione acrossattraverso the internetInternet.
31
110450
1746
02:04
The videovideo was shareddiviso
more than 40,000 timesvolte.
32
112879
4084
Il video fu condiviso più di 40.000 volte.
02:09
Now, when someonequalcuno is targetedmirata
with this kindgenere of cybermobcybermob attackattacco,
33
117760
3936
Quando qualcuno è preso di mira
da questo tipo di attacco virtuale,
02:13
the harmdanno is profoundprofondo.
34
121720
2063
il danno è profondo.
02:16
RanaRana Ayyub'sAyyub life was turnedtrasformato upsidesottosopra down.
35
124482
3039
La vita di Rana Ayyub è stata stravolta.
02:20
For weekssettimane, she could hardlyquasi eatmangiare or speakparlare.
36
128211
3334
Per settimane, riuscì a malapena
a mangiare o a parlare.
02:23
She stoppedfermato writingscrittura and closedchiuso
all of her socialsociale mediamedia accountsconti,
37
131919
3689
Smise di scrivere e chiuse
tutti i suoi account social,
02:27
whichquale is, you know, a toughdifficile thing to do
when you're a journalistgiornalista.
38
135632
3158
cosa molto difficile per una giornalista.
02:31
And she was afraidimpaurito to go outsideal di fuori
her family'sLa famiglia di home.
39
139188
3484
Aveva paura di uscire di casa.
02:34
What if the postersmanifesti
madefatto good on theirloro threatsminacce?
40
142696
3022
E se gli utenti fossero seri
nelle loro minacce?
02:38
The UNDELLE NAZIONI UNITE CouncilConsiglio on HumanUmano RightsDiritti
confirmedconfermato that she wasn'tnon era beingessere crazypazzo.
41
146395
4365
Il Consiglio dei diritti umani ONU
confermò che non era pazza.
02:42
It issuedrilasciato a publicpubblico statementdichiarazione sayingdetto
that they were worriedpreoccupato about her safetysicurezza.
42
150784
4637
Si dichiararono pubblicamente
preoccupati per la sua incolumità.
02:48
What RanaRana AyyubAyyub facedaffrontato was a deepfakedeepfake:
43
156776
4229
Rana Ayyub ha subito un deepfake:
02:53
machine-learningapprendimento automatico technologytecnologia
44
161029
2540
un sistema di intelligenza artificiale
02:55
that manipulatesmanipola or fabricatesfabbrichi
audioAudio and videovideo recordingsregistrazioni
45
163593
4111
che manipola o fabbrica
registrazioni audio e video
per mostrare persone
che fanno o dicono cose
02:59
to showmostrare people doing and sayingdetto things
46
167728
2723
03:02
that they never did or said.
47
170475
1866
che non hanno mai fatto o detto.
03:04
DeepfakesDeepfakes appearapparire authenticautentico
and realisticrealistico, but they're not;
48
172807
3361
I deepfake sembrano autentici
e realistici, ma non lo sono:
03:08
they're totaltotale falsehoodsfalsità.
49
176192
1772
sono dei clamorosi falsi.
03:11
AlthoughAnche se the technologytecnologia
is still developingin via di sviluppo in its sophisticationraffinatezza,
50
179228
3794
Anche se questa tecnologia
è ancora in fase di perfezionamento,
03:15
it is widelyampiamente availablea disposizione.
51
183046
1614
è largamente disponibile.
03:17
Now, the mostmaggior parte recentrecente attentionAttenzione
to deepfakesdeepfakes arosesorsero,
52
185371
3072
La più recente attenzione
ai deepfake è scaturita,
03:20
as so manymolti things do onlinein linea,
53
188467
2161
così come fanno molte cose online,
03:22
with pornographypornografia.
54
190652
1255
dalla pornografia.
03:24
In earlypresto 2018,
55
192498
2111
All'inizio del 2018
03:26
someonequalcuno postedpostato a toolstrumento on RedditReddit
56
194633
2468
qualcuno rese disponibile
su Reddit uno strumento
03:29
to allowpermettere usersutenti to insertinserire facesfacce
into pornporno videosvideo.
57
197125
4412
che permetteva agli utenti di inserire
volti all'interno di video porno.
03:33
And what followedseguita was a cascadecascata
of fakefalso pornporno videosvideo
58
201561
3440
Ne seguì una valanga di finti video porno
03:37
featuringcon people'spersone di favoritefavorito
femalefemmina celebritiescelebrità.
59
205025
2797
con le celebrità femminili
più amate dal pubblico.
03:40
And todayoggi, you can go on YouTubeYouTube
and pullTirare up countlessinnumerevole tutorialsTutorial
60
208712
3477
Oggi su YouTube si possono trovare
tantissimi tutorial
03:44
with step-by-steppasso dopo passo instructionsIstruzioni
61
212213
2286
con precise istruzioni
03:46
on how to make a deepfakedeepfake
on your desktopdesktop applicationapplicazione.
62
214523
3163
su come creare un deepfake
dalla propria applicazione desktop.
03:50
And soonpresto we maypuò be even ablecapace
to make them on our cellcellula phonestelefoni.
63
218260
3706
Presto sarà forse possibile farli
anche dai nostri telefoni.
03:55
Now, it's the interactioninterazione
of some of our mostmaggior parte basicdi base humanumano frailtiesfragilità
64
223072
5382
È l'interazione tra alcune
delle nostre più intime fragilità umane
04:00
and networkRete toolsutensili
65
228478
1682
e gli strumenti della rete
04:02
that can turnturno deepfakesdeepfakes into weaponsArmi.
66
230184
2666
che può trasformare i deepfake in armi.
04:04
So let me explainspiegare.
67
232874
1200
Lasciatemi spiegare.
04:06
As humanumano beingsesseri, we have
a visceralviscerale reactionreazione to audioAudio and videovideo.
68
234875
4566
In quanto essere umani, si scatena in noi
una reazione viscerale ad audio e video.
04:11
We believe they're truevero,
69
239860
1488
Crediamo siano veri,
04:13
on the notionnozione that
of coursecorso you can believe
70
241372
2078
partendo dal presupposto che puoi fidarti
04:15
what your eyesocchi and earsorecchie are tellingraccontare you.
71
243474
2478
di ciò che i tuoi occhi e le tue orecchie
ti stanno dicendo.
04:18
And it's that mechanismmeccanismo
72
246476
1699
Questo è il meccanismo
04:20
that mightpotrebbe undermineminare our shareddiviso
sensesenso of realityla realtà.
73
248199
3698
che potrebbe minare
il nostro comune senso della realtà.
04:23
AlthoughAnche se we believe deepfakesdeepfakes
to be truevero, they're not.
74
251921
3147
Nonostante giudichiamo i deepfake
come reali, non lo sono.
04:27
And we're attractedha attirato
to the salacioussalace, the provocativeprovocatorio.
75
255604
4157
Siamo attratti dal volgare
e dal provocante.
04:32
We tendtendere to believe
and to shareCondividere informationinformazione
76
260365
3047
Tendiamo a credere
e a condividere informazioni
04:35
that's negativenegativo and novelromanzo.
77
263436
2023
che sono negative e romanzate.
04:37
And researchersricercatori have foundtrovato that onlinein linea
hoaxesbufale spreaddiffusione 10 timesvolte fasterPiù veloce
78
265809
5019
Alcuni ricercatori hanno scoperto
che le bufale online si diffondono
10 volte più velocemente
delle storie vere.
04:42
than accuratepreciso storiesstorie.
79
270852
1627
04:46
Now, we're alsoanche drawndisegnato to informationinformazione
80
274015
4380
Inoltre, siamo attirati verso informazioni
04:50
that alignsconsente di allineare with our viewpointspunti di vista.
81
278419
1892
che si allineano ai nostri punti di vista.
04:52
PsychologistsPsicologi call that tendencytendenza
"confirmationconferma biaspregiudizio."
82
280950
3561
Gli psicologi chiamano questa propensione
il "bias di conferma".
04:57
And socialsociale mediamedia platformspiattaforme
superchargeSovralimentare that tendencytendenza,
83
285300
4387
Le piattaforme social
amplificano questa tendenza,
05:01
by allowingpermettendo us to instantlyimmediatamente
and widelyampiamente shareCondividere informationinformazione
84
289711
3881
consentendoci di condividere notizie
in modo istantaneo e su scala globale,
05:05
that accordsAccordi with our viewpointspunti di vista.
85
293616
1792
che sono fedeli alle nostre opinioni.
05:08
Now, deepfakesdeepfakes have the potentialpotenziale to causecausa
gravetomba individualindividuale and societaldella società harmdanno.
86
296735
5568
I deepfake hanno il potenziale di causare
gravi danni individuali e comunitari.
05:15
So, imagineimmaginare a deepfakedeepfake
87
303204
2024
Immaginatevi un deepfake
05:17
that showsSpettacoli AmericanAmericano soldierssoldati
in AfganistanAfganistan burningardente a KoranCorano.
88
305252
4182
che mostri dei soldati Americani,
in Afghanistan, bruciare il Corano.
05:22
You can imagineimmaginare that that deepfakedeepfake
would provokeprovocare violenceviolenza
89
310807
3024
Viene immediato pensare che quel video
possa provocare violenza
05:25
againstcontro those soldierssoldati.
90
313855
1533
contro quei soldati.
05:27
And what if the very nextIl prossimo day
91
315847
2873
E cosa succederebbe se,
il giorno immediatamente successivo,
05:30
there's anotherun altro deepfakedeepfake that dropsgocce,
92
318744
2254
arrivasse un nuovo deepfake
05:33
that showsSpettacoli a well-knownben noto imamImam
basedbasato in LondonLondra
93
321022
3317
che mostrasse un famoso imam di Londra
05:36
praisinglodando the attackattacco on those soldierssoldati?
94
324363
2467
elogiare l'attacco a quei soldati?
05:39
We mightpotrebbe see violenceviolenza and civilcivile unrestdisordini,
95
327617
3163
Il risultato potrebbe sfociare
in violenza e malcontento civile,
05:42
not only in AfganistanAfganistan
and the UnitedUniti d'America KingdomUnito,
96
330804
3249
non solo in Afghanistan
o nel Regno Unito,
05:46
but acrossattraverso the globeglobo.
97
334077
1515
ma in tutto il mondo.
05:48
And you mightpotrebbe say to me,
98
336251
1158
E voi potreste dirmi:
"Dai, Danielle, è impossibile".
05:49
"Come on, DanielleDanielle, that's far-fetchedforzato."
99
337433
2247
05:51
But it's not.
100
339704
1150
Ma non lo è.
05:53
We'veAbbiamo seenvisto falsehoodsfalsità spreaddiffusione
101
341293
2191
Abbiamo visto che il diffondersi di bufale
05:55
on WhatsAppWhatsApp and other
onlinein linea messagemessaggio servicesServizi
102
343508
2722
su WhatsApp e su altri servizi
di messaggistica online
05:58
leadcondurre to violenceviolenza
againstcontro ethnicetnico minoritiesminoranze.
103
346254
2761
ha portato all'accanimento
contro le minoranze etniche.
06:01
And that was just texttesto --
104
349039
1887
E si trattava solo di messaggi.
06:02
imagineimmaginare if it were videovideo.
105
350950
2024
Pensate se fossero stati video.
06:06
Now, deepfakesdeepfakes have the potentialpotenziale
to corrodeCorrode the trustfiducia that we have
106
354593
5357
I deepfake hanno il potenziale
di distruggere la fiducia che riponiamo
06:11
in democraticdemocratico institutionsistituzioni.
107
359974
1992
nelle istituzioni democratiche.
06:15
So, imagineimmaginare the night before an electionelezione.
108
363006
2667
Immaginatevi la sera prima di un'elezione.
06:17
There's a deepfakedeepfake showingmostrando
one of the majormaggiore partypartito candidatescandidati
109
365996
3238
C'è un deepfake che mostra
uno dei principali candidati
06:21
gravelygravemente sickmalato.
110
369258
1150
gravemente malato.
06:23
The deepfakedeepfake could tipmancia the electionelezione
111
371202
2333
Il deepfake
potrebbe rovesciare le elezioni
06:25
and shakescuotere our sensesenso
that electionselezioni are legitimatelegittimo.
112
373559
3375
e scuotere la nostra convinzione
per cui le elezioni siano legittime.
06:30
ImagineImmaginate if the night before
an initialiniziale publicpubblico offeringofferta
113
378515
3326
Immaginate che la sera prima
di un'offerta pubblica iniziale
06:33
of a majormaggiore globalglobale bankbanca,
114
381865
2333
di un'importante banca internazionale
06:36
there was a deepfakedeepfake
showingmostrando the bank'sbanche CEOAMMINISTRATORE DELEGATO
115
384222
3149
ci fosse un deepfake che rappresenta
l'amministratore delegato
06:39
drunkenlyda ubriaco spoutingschizzando conspiracycospirazione theoriesteorie.
116
387395
2697
che declama teorie complottistiche
mentre è ubriaco.
06:42
The deepfakedeepfake could tankcarro armato the IPOIPO,
117
390887
3047
Quel deepfake
potrebbe far perdere l'offerta
06:45
and worsepeggio, shakescuotere our sensesenso
that financialfinanziario marketsmercati are stablestabile.
118
393958
4115
e, ancora peggio, far vacillare la nostra
percezione sulla stabilità dei mercati.
06:51
So deepfakesdeepfakes can exploitsfruttare and magnifyingrandire
the deepin profondità distrustdiffidenza that we alreadygià have
119
399385
6989
I deepfake sono in grado di sfruttare
e amplificare la sfiducia che già proviamo
06:58
in politicianspolitici, businessattività commerciale leaderscapi
and other influentialinfluente leaderscapi.
120
406398
4214
nei confronti dei politici, dei leader
economici e di altri leader influenti.
07:02
They find an audiencepubblico
primedinnescato to believe them.
121
410945
3284
Trovano un pubblico propenso a crederci.
07:07
And the pursuitricerca of truthverità
is on the linelinea as well.
122
415287
2765
La ricerca della verità è messa a rischio.
07:11
TechnologistsTecnologi expectaspettarsi
that with advancesavanzamenti in AIAI,
123
419077
3564
Gli esperti prevedono che con i progressi
nell'intelligenza artificiale
07:14
soonpresto it maypuò be difficultdifficile if not impossibleimpossibile
124
422665
3682
presto sarà difficile, se non impossibile,
07:18
to tell the differencedifferenza betweenfra
a realvero videovideo and a fakefalso one.
125
426371
3769
distinguere un video autentico
da uno falso.
07:23
So how can the truthverità emergeemergere
in a deepfake-riddendeepfake-cavalcato marketplacemercato of ideasidee?
126
431022
5341
Come può, quindi, emergere la verità
in un mondo oppresso dai deepfake?
07:28
Will we just proceedprocedere alonglungo
the pathsentiero of leastmeno resistanceresistenza
127
436752
3420
Continueremo a procedere lungo
la strada della minima resistenza
07:32
and believe what we want to believe,
128
440196
2437
e a credere quello che vogliamo,
07:34
truthverità be damneddannati?
129
442657
1150
a sfavore della verità?
07:36
And not only mightpotrebbe we believe the fakeryFakery,
130
444831
3175
E non solo potremmo credere al falso,
07:40
we mightpotrebbe startinizio disbelievingincredulo the truthverità.
131
448030
3326
ma potremmo iniziare
a dubitare della realtà.
07:43
We'veAbbiamo alreadygià seenvisto people invokeinvocare
the phenomenonfenomeno of deepfakesdeepfakes
132
451887
4079
Abbiamo già visto persone
appellarsi al fenomeno dei deepfake
07:47
to castlanciare doubtdubbio on realvero evidenceprova
of theirloro wrongdoingatti illeciti.
133
455990
3920
per gettare dubbi sulle evidenti prove
delle loro colpe.
07:51
We'veAbbiamo heardsentito politicianspolitici say of audioAudio
of theirloro disturbinginquietante commentsCommenti,
134
459934
5969
Abbiamo sentito i politici negare
gli audio dei propri spiacevoli commenti:
07:57
"Come on, that's fakefalso newsnotizia.
135
465927
1746
"Dai, sono fake news.
07:59
You can't believe what your eyesocchi
and earsorecchie are tellingraccontare you."
136
467697
3920
Non potete credere a ciò che
i vostri occhi ed orecchie vi dicono".
08:04
And it's that riskrischio
137
472402
1731
Questa è la minaccia
08:06
that professorProfessore RobertRobert ChesneyChesney and I
call the "liar'sdi bugiardo dividenddividendo":
138
474157
5436
che io e il professor Robert Chasney
chiamiamo "il dividendo del bugiardo":
08:11
the riskrischio that liarsbugiardi will invokeinvocare deepfakesdeepfakes
139
479617
3357
è il rischio che i bugiardi
si appellino ai deepfake
08:14
to escapefuga accountabilityresponsabilità
for theirloro wrongdoingatti illeciti.
140
482998
2905
per non assumersi la responsabilità
delle proprie azioni.
08:18
So we'venoi abbiamo got our work cuttagliare out for us,
there's no doubtdubbio about it.
141
486963
3071
È indubbio il fatto
che ci sia moltissimo lavoro da fare.
08:22
And we're going to need
a proactiveproattivi solutionsoluzione
142
490606
3325
Abbiamo bisogno di una soluzione proattiva
08:25
from techTech companiesaziende, from lawmakerslegislatori,
143
493955
3511
da aziende tecnologiche, da legislatori,
08:29
lawlegge enforcersesecutori and the mediamedia.
144
497490
1984
dagli organi di polizia e dai media.
08:32
And we're going to need
a healthysalutare dosedose of societaldella società resilienceelasticità.
145
500093
4016
Abbiamo anche bisogno
di una sana dose di resilienza sociale.
08:37
So now, we're right now engagedimpegnato
in a very publicpubblico conversationconversazione
146
505506
3896
Oggi, proprio adesso, siamo coinvolti
in un dibattito molto aperto
08:41
about the responsibilityresponsabilità
of techTech companiesaziende.
147
509426
2913
sulle responsabilità
dell'industria tecnologica.
08:44
And my adviceconsigli to socialsociale mediamedia platformspiattaforme
148
512926
3032
Il mio consiglio per le piattaforme social
08:47
has been to changemodificare theirloro termscondizioni of serviceservizio
and communitycomunità guidelineslinee guida
149
515982
3873
è stato di modificare i termini d'uso
e le linee guida comunitarie,
08:51
to banbandire deepfakesdeepfakes that causecausa harmdanno.
150
519879
2336
al fine di bandire i deepfake pericolosi.
08:54
That determinationdeterminazione,
that's going to requirerichiedere humanumano judgmentgiudizio,
151
522712
3960
Questa soluzione
richiederà il giudizio umano
08:58
and it's expensivecostoso.
152
526696
1571
ed è costosa.
09:00
But we need humanumano beingsesseri
153
528673
2285
Ma abbiamo bisogno di esseri umani
09:02
to look at the contentsoddisfare
and contextcontesto of a deepfakedeepfake
154
530982
3873
che guardino il contenuto
e il contesto di un deepfake
09:06
to figurefigura out if it is
a harmfuldannoso impersonationrappresentazione
155
534879
3682
per capire se si tratti
di un'imitazione dannosa
09:10
or insteadanziché, if it's valuableprezioso
satiresatira, artarte or educationeducazione.
156
538585
4382
o se, al contrario, si tratti di satira,
arte o informazioni valide.
09:16
So now, what about the lawlegge?
157
544118
1495
Ma cosa ci dice la legge?
09:18
LawLegge is our educatoreducatore.
158
546666
2349
La legge è maestra.
09:21
It teachesinsegna us about
what's harmfuldannoso and what's wrongsbagliato.
159
549515
4038
Ci insegna cos'è dannoso
e cos'è sbagliato.
09:25
And it shapesforme behaviorcomportamento it detersscoraggia
by punishingpunire perpetratorsautori
160
553577
4555
Determina il comportamento,
scoraggia i responsabili punendoli
09:30
and securingfissaggio remediesrimedi for victimsvittime.
161
558156
2267
e garantendo tutele alle vittime.
09:33
Right now, lawlegge is not up to
the challengesfida of deepfakesdeepfakes.
162
561148
4280
Ad oggi, la legge non è pronta
a fronteggiare la sfida dei deepfake.
09:38
AcrossDa altra parte the globeglobo,
163
566116
1390
In tutto il mondo
09:39
we lackmancanza well-tailoredben adattato lawslegislazione
164
567530
2444
mancano leggi studiate su misura
09:41
that would be designedprogettato to tackleaffrontare
digitaldigitale impersonationsrappresentazioni
165
569998
3570
che sarebbero deputate a combattere
le imitazioni digitali
09:45
that invadeinvadere sexualsessuale privacysulla privacy,
166
573592
2231
che invadono la privacy sessuale,
09:47
that damagedanno reputationsreputazione
167
575847
1387
danneggiano la reputazione
09:49
and that causecausa emotionalemotivo distressangoscia.
168
577258
1951
e provocano squilibri emotivi.
09:51
What happenedè accaduto to RanaRana AyyubAyyub
is increasinglysempre più commonplaceall'ordine del giorno.
169
579725
3873
Quello che è capitato a Rana Ayyub
sta diventando sempre più comune.
09:56
YetAncora, when she wentandato
to lawlegge enforcementrinforzo in DelhiDelhi,
170
584074
2214
Ma quando lei è andata
dalla polizia a Delhi,
09:58
she was told nothing could be donefatto.
171
586312
2135
le hanno detto
che non si poteva fare nulla.
10:01
And the sadtriste truthverità is
that the samestesso would be truevero
172
589101
3183
La triste verità è che ciò potrebbe valere
10:04
in the UnitedUniti d'America StatesStati and in EuropeEuropa.
173
592308
2266
anche negli Stati Uniti e in Europa.
10:07
So we have a legallegale vacuumvuoto
that needsesigenze to be filledpieno.
174
595300
4356
Abbiamo un vuoto legale
che dobbiamo colmare.
10:12
My colleaguecollega DrDr. MaryMaria AnneAnne FranksFranchi and I
are workinglavoro with US lawmakerslegislatori
175
600292
4092
Io e la dottoressa Mary Anne Franks
lavoriamo con legislatori americani
10:16
to deviseDEViSE legislationlegislazione that would banbandire
harmfuldannoso digitaldigitale impersonationsrappresentazioni
176
604408
4804
allo scopo di concepire una legislazione
che vieti imitazioni digitali dannose,
10:21
that are tantamountequivale to identityidentità theftfurto.
177
609236
2533
equivalenti al furto d'identità.
10:24
And we'venoi abbiamo seenvisto similarsimile movessi muove
178
612252
2126
Abbiamo riscontrato azioni simili
10:26
in IcelandIslanda, the UKREGNO UNITO and AustraliaAustralia.
179
614402
3301
in Islanda, Regno Unito e Australia.
10:30
But of coursecorso, that's just a smallpiccolo piecepezzo
of the regulatorynormativo puzzlepuzzle.
180
618157
3259
Ma questo è solo un piccolo pezzo
nel puzzle normativo.
10:34
Now, I know lawlegge is not a cure-alltoccasana. Right?
181
622911
3169
Sono consapevole che la legge
non sia una panacea, giusto?
10:38
It's a bluntsmussato instrumentstrumento.
182
626104
1600
È uno strumento poco affilato.
10:40
And we'venoi abbiamo got to use it wiselycon saggezza.
183
628346
1539
Dobbiamo usarlo saggiamente.
10:42
It alsoanche has some practicalpratico impedimentsimpedimenti.
184
630411
2812
Ha anche alcuni impedimenti pratici.
10:45
You can't leverageleva lawlegge againstcontro people
you can't identifyidentificare and find.
185
633657
5044
Non è possibile usare la legge contro chi
non si può identificare e trovare.
10:51
And if a perpetratorautore livesvite
outsideal di fuori the countrynazione
186
639463
3286
E se il colpevole vive fuori dallo Stato
10:54
where a victimvittima livesvite,
187
642773
1754
in cui vive la vittima,
potrebbe non essere possibile esigere
10:56
then you maypuò not be ablecapace to insistinsistere
188
644551
1629
10:58
that the perpetratorautore
come into localLocale courtstribunali
189
646204
2349
che il responsabile si presenti
ai tribunali locali
11:00
to faceviso justicegiustizia.
190
648577
1150
per l'udienza.
11:02
And so we're going to need
a coordinatedcoordinato internationalinternazionale responserisposta.
191
650236
4063
Ci servirà una reazione condivisa
a livello internazionale.
11:07
EducationFormazione has to be partparte
of our responserisposta as well.
192
655819
3333
L'informazione deve essere
parte integrante di questo processo.
11:11
LawLegge enforcersesecutori are not
going to enforceimporre lawslegislazione
193
659803
3731
Gli organi di polizia
non possono far rispettare le leggi
11:15
they don't know about
194
663558
1458
se non le conoscono
11:17
and profferoffrire problemsi problemi
they don't understandcapire.
195
665040
2596
e non possono gestire problemi
che non comprendono.
11:20
In my researchricerca on cyberstalkingcyberstalking,
196
668376
2191
Durante le mie ricerche sul cyberstalking
11:22
I foundtrovato that lawlegge enforcementrinforzo
lackedmancava the trainingformazione
197
670591
3499
ho appreso che agli organi di polizia
mancava la formazione adeguata
11:26
to understandcapire the lawslegislazione availablea disposizione to them
198
674114
2582
per capire le leggi di quel settore
11:28
and the problemproblema of onlinein linea abuseabuso.
199
676720
2349
e i pericoli dell'abuso di internet.
11:31
And so oftenspesso they told victimsvittime,
200
679093
2682
Per questo spesso dicevano alle vittime:
11:33
"Just turnturno your computercomputer off.
IgnoreIgnorare it. It'llIt'll go away."
201
681799
3971
"Spegnete il computer. Ignorateli.
Spariranno".
11:38
And we saw that in RanaRana Ayyub'sAyyub casecaso.
202
686261
2466
Nel caso di Rana Ayyub è successo così.
11:41
She was told, "Come on,
you're makingfabbricazione suchcome a biggrande dealaffare about this.
203
689102
3468
Le fu detto:
"Forza, ne stai facendo una tragedia.
11:44
It's boysragazzi beingessere boysragazzi."
204
692594
1743
Sono semplicemente maschi
che si comportano da maschi".
11:47
And so we need to pairpaio newnuovo legislationlegislazione
with effortssforzi at trainingformazione.
205
695268
5252
Alla legislazione dobbiamo abbinare
l'impegno nella formazione.
11:54
And educationeducazione has to be aimedteso
on the mediamedia as well.
206
702053
3429
La conoscenza deve essere
un obiettivo anche per i media.
11:58
JournalistsGiornalisti need educatingeducare
about the phenomenonfenomeno of deepfakesdeepfakes
207
706180
4260
I giornalisti necessitano di istruzione
sul fenomeno dei deepfake
12:02
so they don't amplifyamplificare and spreaddiffusione them.
208
710464
3039
affinché non lo intensifichino
o lo diffondano.
12:06
And this is the partparte
where we're all involvedcoinvolti.
209
714583
2168
Qui è dove entriamo in gioco tutti quanti.
12:08
EachOgni and everyogni one of us needsesigenze educatingeducare.
210
716775
3855
Ciascuno di noi ha bisogno di istruzione.
12:13
We clickclic, we shareCondividere, we like,
and we don't even think about it.
211
721375
3675
Clicchiamo, condividiamo, mettiamo
"mi piace" senza nemmeno pensarci.
12:17
We need to do better.
212
725551
1547
Dobbiamo fare di meglio.
12:19
We need farlontano better radarradar for fakeryFakery.
213
727726
2809
Ci serve un radar più sofisticato
per rilevare le bufale.
12:25
So as we're workinglavoro
throughattraverso these solutionssoluzioni,
214
733744
3841
Mentre ci occupiamo
delle possibili soluzioni,
12:29
there's going to be
a lot of sufferingsofferenza to go around.
215
737609
2563
dovremo superare innumerevoli difficoltà.
12:33
RanaRana AyyubAyyub is still wrestlinglotta
with the falloutFallout.
216
741093
2746
Rana Ayyub sta tutt'ora lottando
contro i risvolti del fatto.
12:36
She still doesn't feel freegratuito
to expressesprimere herselfse stessa on-on- and offlinedisconnesso.
217
744669
4189
Non si sente ancora libera
di esprimersi online e offline.
12:41
And as she told me,
218
749566
1365
Mi ha detto che
12:42
she still feelssi sente like there are thousandsmigliaia
of eyesocchi on her nakednudo bodycorpo,
219
750955
5074
avverte ancora la sensazione di avere
mille occhi puntati sul suo corpo nudo,
12:48
even thoughanche se, intellectuallyintellettualmente,
she knowsconosce it wasn'tnon era her bodycorpo.
220
756053
3661
anche se, razionalmente,
sa che non era il suo vero corpo.
12:52
And she has frequentfrequente panicpanico attacksattacchi,
221
760371
2349
Ha frequenti attacchi di panico
12:54
especiallyparticolarmente when someonequalcuno she doesn't know
triescerca to take her pictureimmagine.
222
762744
4100
specialmente quando uno sconosciuto
tenta di fotografarla.
12:58
"What if they're going to make
anotherun altro deepfakedeepfake?" she thinkspensa to herselfse stessa.
223
766868
3511
"E se faranno un altro deepfake?"
pensa fra sé e sé.
13:03
And so for the sakeinteresse of
individualsindividui like RanaRana AyyubAyyub
224
771082
3921
Per il bene di persone come Rana Ayyub
13:07
and the sakeinteresse of our democracydemocrazia,
225
775027
2306
e per il bene della nostra democrazia,
13:09
we need to do something right now.
226
777357
2182
dobbiamo agire immediatamente.
Grazie.
13:11
Thank you.
227
779563
1151
(Applausi)
13:12
(ApplauseApplausi)
228
780738
2508
Translated by Laura Comand
Reviewed by Stefania Betti

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com