ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Come proteggeremo la nostra privacy quando la tecnologia potrà leggerci la mente?

Filmed:
1,819,292 views

Nira Farahany, esperta di legge ed etica, ci parla di come presto la tecnologia sarà in grado di decodificare la nostra attività cerebrale, rivelando ciò che pensiamo e sentiamo. Cosa vorrà dire tutto ciò per la nostra già violata privacy? In questo talk che vuole essere un monito, Farahany ci mette in guardia contro una società in cui si viene arrestati anche per aver solo pensato di poter commettere un crimine (come in "Minority Report"), o dove compagnie vendono i nostri dati cerebrali a terzi. Farahany, inoltre, afferma la necessità del riconoscimento di diritti per la libertà cognitiva, che proteggano la nostra libertà di pensiero e di autodeterminazione.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsmesi followinga seguire
the 2009 presidentialpresidenziale electionelezione in IranIran,
0
1096
4714
In Iran, nei mesi successivi alle elezioni
presidenziali del 2009,
00:17
protestsproteste eruptederuttato acrossattraverso the countrynazione.
1
5834
2894
scoppiarono proteste in tutto il paese.
00:21
The IranianIraniano governmentgoverno
violentlyviolentemente suppressedsoppresso
2
9685
2896
Il governo iraniano
soppresse violentemente
00:24
what cameè venuto to be knownconosciuto
as the IranianIraniano GreenVerde MovementMovimento,
3
12605
3979
quello che divenne poi noto
come movimento verde iraniano.
Bloccarono anche le linee cellulari
00:28
even blockingblocco mobilemobile signalssegnali
4
16608
2053
00:30
to cuttagliare off communicationcomunicazione
betweenfra the protestersmanifestanti.
5
18685
2714
per tagliare le comunicazioni
tra i manifestanti.
00:34
My parentsgenitori, who emigratedemigrato
to the UnitedUniti d'America StatesStati in the latein ritardo 1960s,
6
22316
4669
I miei genitori, emigrati negli USA
alla fine degli anni '60,
00:39
spendtrascorrere substantialsostanziale time there,
7
27009
1794
vi passano ancora molto tempo,
00:40
where all of my largegrande,
extendedesteso familyfamiglia livevivere.
8
28827
3153
lì dove vive
tutta la mia famiglia allargata.
00:44
When I would call my familyfamiglia in TehranTeheran
9
32832
3129
Quando erano a Teheran e li chiamavo
00:47
duringdurante some of the mostmaggior parte violentviolento
crackdownsgiri di vite of the protestprotesta,
10
35985
3452
durante le più violente
repressioni della protesta,
00:51
nonenessuna of them daredosato discussdiscutere
with me what was happeningavvenimento.
11
39461
3252
nessuno di loro aveva il coraggio
di dirmi ciò che stava accadendo.
00:55
They or I knewconosceva to quicklyvelocemente steerSteer
the conversationconversazione to other topicstemi.
12
43196
3529
Sapevamo di dover cambiare prontamente
l'argomento della discussione
00:59
All of us understoodinteso
what the consequencesconseguenze could be
13
47163
3380
perché sapevamo quali sarebbero
state le conseguenze,
01:02
of a perceivedpercepito dissidentdissidente actionazione.
14
50567
2540
in caso ci avessero
considerato come dissidenti.
01:06
But I still wishdesiderio I could have knownconosciuto
what they were thinkingpensiero
15
54095
3469
Ma avrei voluto sapere
cosa stavano realmente pensando,
01:09
or what they were feelingsensazione.
16
57588
1418
o cosa stavano provando.
01:12
What if I could have?
17
60217
1393
E se avessi potuto farlo?
01:14
Or more frighteninglyspaventosamente,
18
62149
1151
O peggio,
01:15
what if the IranianIraniano governmentgoverno could have?
19
63324
2761
se avesse potuto farlo
il governo iraniano?
01:18
Would they have arrestedarrestato them
basedbasato on what theirloro brainsmente revealedha rivelato?
20
66695
3244
Li avrebbero arrestati,
scoprendo cosa pensavano veramente?
01:22
That day maypuò be closerpiù vicino than you think.
21
70933
2944
Questa realtà potrebbe essere
più vicina di quanto crediate.
01:26
With our growingin crescita capabilitiescapacità
in neuroscienceneuroscienza, artificialartificiale intelligenceintelligenza
22
74527
3811
Con l'avanzare delle neuroscienze,
dell'intelligenza artificiale
01:30
and machinemacchina learningapprendimento,
23
78362
1703
e del machine learning,
01:32
we maypuò soonpresto know a lot more
of what's happeningavvenimento in the humanumano braincervello.
24
80089
4075
presto potremmo sapere molto di più
su ciò che accade nel nostro cervello.
01:37
As a bioethicistbioeticista, a lawyeravvocato, a philosopherfilosofo
25
85083
3310
Da bioeticista, da avvocato, da filosofa
01:40
and an Iranian-AmericanIraniano-americano,
26
88417
1867
e da Iraniano-americana,
01:42
I'm deeplyprofondamente concernedha riguardato
about what this meanssi intende for our freedomslibertà
27
90308
3787
mi preoccupa molto ciò che potrebbe
significare per la nostra libertà,
01:46
and what kindstipi of protectionsProtezioni we need.
28
94119
2171
e anche sapere come possiamo proteggerci.
01:48
I believe we need
a right to cognitiveconoscitivo libertylibertà,
29
96993
3460
Credo che necessitiamo di un diritto
alla libertà cognitiva,
01:52
as a humanumano right
that needsesigenze to be protectedprotetto.
30
100477
2892
che vada tutelato come un diritto umano.
01:55
If not, our freedomla libertà of thought,
31
103772
2643
Altrimenti, la nostra libertà di pensiero,
01:58
accessaccesso and controlcontrollo over our ownproprio brainsmente
32
106439
3024
il controllo che esercitiamo
sul nostro cervello,
02:01
and our mentalmentale privacysulla privacy will be threatenedminacciata.
33
109487
2841
e la nostra privacy mentale
saranno in pericolo.
02:05
ConsiderPrendere in considerazione this:
34
113698
1158
Considerate questo fatto:
02:06
the averagemedia personpersona thinkspensa
thousandsmigliaia of thoughtspensieri eachogni day.
35
114880
3314
una persona comune
ha migliaia di pensieri ogni giorno.
02:10
As a thought takes formmodulo,
36
118697
1151
Durante un pensiero,
02:11
like a mathmatematica calculationcalcolo
or a numbernumero, a wordparola,
37
119872
5056
come avviene similmente durante
un calcolo matematico,
02:16
neuronsneuroni are interactinginteragendo in the braincervello,
38
124952
2885
i neuroni all'interno
del cervello interagiscono,
02:19
creatingla creazione di a minisculeminuscolo electricalelettrico dischargescarico.
39
127861
3088
dando vita
a minuscole scariche elettriche.
02:23
When you have a dominantdominante
mentalmentale statestato, like relaxationrilassamento,
40
131713
3452
In uno stato mentale,
come ad esempio il rilassamento,
02:27
hundredscentinaia and thousandsmigliaia of neuronsneuroni
are firingcottura in the braincervello,
41
135189
4175
nel cervello vengono rilasciati
centinaia di migliaia di neuroni,
02:31
creatingla creazione di concurrentsimultanee electricalelettrico dischargesscarichi
in characteristiccaratteristica patternsmodelli
42
139388
4218
che creano scariche elettriche
con determinate caratteristiche
02:35
that can be measuredmisurato
with electroencephalographyelettroencefalografia, or EEGEEG.
43
143630
4865
che possono essere misurate
tramite elettroencelogramma, o EEG.
02:41
In factfatto, that's what
you're seeingvedendo right now.
44
149118
2160
Ed è quello che state vedendo ora.
02:43
You're seeingvedendo my braincervello activityattività
that was recordedregistrato in realvero time
45
151956
3964
State vedendo la mia attività cerebrale,
registrata in tempo reale
02:47
with a simplesemplice devicedispositivo
that was wornindossati on my headcapo.
46
155944
2735
con un semplice dispositivo
da indossare sulla testa.
02:51
What you're seeingvedendo is my braincervello activityattività
when I was relaxedrilassato and curiouscurioso.
47
159669
5653
Questa è la mia attività cerebrale
in uno stato di rilassamento e curiosità.
02:58
To shareCondividere this informationinformazione with you,
48
166097
1755
Per condividere questo con voi,
02:59
I woreindossava one of the earlypresto
consumer-basedBasato su consumer EEGEEG devicesdispositivi
49
167876
3020
ho indossato uno dei primi dispositivi
EEG per consumatori,
03:02
like this one,
50
170920
1211
proprio come questo,
03:04
whichquale recordedregistrato the electricalelettrico
activityattività in my braincervello in realvero time.
51
172155
3988
che ha registrato in tempo reale
la mia attività cerebrale.
03:08
It's not unlikea differenza di the fitnessfitness trackersinseguitori
that some of you maypuò be wearingindossare
52
176849
3826
Non è molto diverso da quei dispositivi
per il fitness che indossate
03:12
to measuremisurare your heartcuore rateVota
or the stepspassaggi that you've takenprese,
53
180699
3586
per misurare il battito cardiaco
o quanti passi fate,
03:16
or even your sleepdormire activityattività.
54
184309
1587
o addirittura il vostro sonno.
03:19
It's hardlyquasi the mostmaggior parte sophisticatedsofisticato
neuroimagingNeuroimaging techniquetecnica on the marketmercato.
55
187154
3824
Non è la più sofisticata tecnica
di neuroimagining sul mercato.
03:23
But it's alreadygià the mostmaggior parte portableportatile
56
191597
2378
Ma è già la più portatile
03:25
and the mostmaggior parte likelyprobabile to impacturto
our everydayogni giorno livesvite.
57
193999
3152
e quella che più probabilmente
impatterà le nostre vite.
03:29
This is extraordinarystraordinario.
58
197915
1503
Questo è straordinario!
03:31
ThroughAttraverso a simplesemplice, wearableindossabile devicedispositivo,
59
199442
2505
Attraverso un semplice
dispositivo indossabile,
03:33
we can literallyletteralmente see
insidedentro the humanumano braincervello
60
201971
3548
possiamo vedere letteralmente
all'interno del cervello umano,
03:37
and learnimparare aspectsaspetti of our mentalmentale landscapepaesaggio
withoutsenza ever utteringimmissione in circolazione a wordparola.
61
205543
6476
ed imparare aspetti della nostra mente
senza mai aver bisogno di aprire bocca.
03:44
While we can't reliablyaffidabile decodedecodificare
complexcomplesso thoughtspensieri just yetancora,
62
212829
3653
Anche se non riusciamo ancora a decifrare
con certezza pensieri complessi,
03:48
we can alreadygià gaugecalibro a person'spersona di moodumore,
63
216506
2519
possiamo già stimare
l'umore di una persona,
03:51
and with the help
of artificialartificiale intelligenceintelligenza,
64
219049
2873
e con l'aiuto
dell'intelligenza artificiale,
03:53
we can even decodedecodificare
some single-digitcifra numbersnumeri
65
221946
4341
possiamo addirittura decodificare
dei numeri a cifra unica,
03:58
or shapesforme or simplesemplice wordsparole
that a personpersona is thinkingpensiero
66
226311
4882
forme o semplici parole
che una persona sta pensando,
04:03
or hearingudito, or seeingvedendo.
67
231217
2189
sentendo o vedendo.
04:06
DespiteNonostante some inherentinerente limitationslimitazioni in EEGEEG,
68
234345
3365
Nonostante alcune limitazioni
intrinseche dell'EEG,
04:09
I think it's safesicuro to say
that with our advancesavanzamenti in technologytecnologia,
69
237734
4720
credo si possa tranquillamente dire
che con l'avanzare della tecnologia,
04:14
more and more of what's happeningavvenimento
in the humanumano braincervello
70
242478
3809
con il tempo saremo in grado
di decodificare sempre di più
04:18
can and will be decodeddecodificato over time.
71
246311
2310
quello che accade nel cervello umano.
04:21
AlreadyGià, usingutilizzando one of these devicesdispositivi,
72
249362
2746
Già da ora, usando questi dispositivi,
04:24
an epilepticepilettico can know
they're going to have an epilepticepilettico seizuresequestro
73
252132
3255
un epilettico può capire quando
sta per avere una crisi
prima che accada.
04:27
before it happensaccade.
74
255411
1436
04:28
A paraplegicparaplegico can typetipo on a computercomputer
with theirloro thoughtspensieri aloneda solo.
75
256871
4603
Un paraplegico può scrivere al computer
semplicemente usando i propri pensieri.
04:34
A US-basedUS-based companyazienda has developedsviluppato
a technologytecnologia to embedincorporare these sensorssensori
76
262485
4183
Una compagnia americana ha sviluppato
una tecnologia che integra questi sensori
04:38
into the headrestpoggiatesta of automobiliesautomobilie
77
266692
2230
ai poggiatesta delle automobili,
04:40
so they can tracktraccia driverautista concentrationconcentrazione,
78
268946
2505
che così monitorano
la concentrazione del guidatore,
04:43
distractiondistrazione and cognitiveconoscitivo loadcaricare
while drivingguida.
79
271475
2667
le distrazioni e il carico cognitivo
durante la guida.
04:46
NissanNissan, insuranceassicurazione companiesaziende
and AAAAAA have all takenprese noteNota.
80
274912
4058
Nissan, le compagnie assicurative
e l'AAA (ACI) ne hanno preso nota.
04:51
You could even watch this
choose-your-own-adventureScegliere-your-il proprietario-avventura moviefilm
81
279949
4508
Potreste addirittura guardare questo film
a la "influenza-tu-ciò-che accade,
04:56
"The MomentMomento," whichquale, with an EEGEEG headsetcuffia,
82
284481
4240
"The Moment",
che attraverso una cuffia EEG:
05:00
changesi cambiamenti the moviefilm
basedbasato on your brain-basedcervello-based reactionsreazioni,
83
288745
3926
cambia il film in base alle reazioni
del vostro cervello,
05:04
givingdando you a differentdiverso endingfine
everyogni time your attentionAttenzione wanesWanes.
84
292695
4353
dandovi un finale diverso ogni volta
che la vostra attenzione va a scemare.
05:11
This maypuò all soundsuono great,
85
299154
2763
Tutto ciò potrebbe sembrare fantastico
05:13
and as a bioethicistbioeticista,
86
301941
2189
e, da bioetica,
05:16
I am a hugeenorme proponentfautore of empoweringche abilita people
87
304154
3613
sono una grande sostenitrice
del dare alle persone il potere
05:19
to take chargecarica of theirloro ownproprio
healthSalute and well-beingbenessere
88
307791
2616
di potersi occupare della propria salute,
05:22
by givingdando them accessaccesso
to informationinformazione about themselvesloro stessi,
89
310431
2918
dando loro accesso
a queste informazioni su se stesse,
05:25
includingCompreso this incredibleincredibile
newnuovo brain-decodingdecodifica cerebrale technologytecnologia.
90
313373
2976
attraverso questa nuova
ed incredibile tecnologia.
05:29
But I worrypreoccupazione.
91
317878
1167
Ma ho paura.
05:31
I worrypreoccupazione that we will voluntarilyvolontariamente
or involuntarilyinvolontariamente give up
92
319736
4760
Ho paura che che abbandoneremo,
volontariamente o meno,
05:36
our last bastionBastion of freedomla libertà,
our mentalmentale privacysulla privacy.
93
324520
4118
l'ultimo baluardo della nostra libertà,
la nostra privacy mentale.
05:41
That we will tradecommercio our braincervello activityattività
94
329302
2925
Che baratteremo
la nostra attività cerebrale,
05:44
for rebatesSCONTI or discountsSCONTI on insuranceassicurazione,
95
332251
3046
con rimborsi o sconti sull'assicurazione,
05:48
or freegratuito accessaccesso
to social-mediasocial media accountsconti ...
96
336391
2603
o per un libero accesso ai social media,
05:52
or even to keep our jobslavori.
97
340444
1848
o addirittura per non perdere il lavoro.
05:54
In factfatto, in ChinaCina,
98
342900
1913
Difatti, in Cina,
05:58
the traintreno driversdriver on
the Beijing-ShanghaiPechino-Shanghai high-speedalta velocità railrotaia,
99
346199
5897
i macchinisti della ferrovia
ad alta velocità della Pechino-Shanghai,
06:04
the busiestpiù attivi of its kindgenere in the worldmondo,
100
352120
2532
nel suo genere la più attiva del mondo,
06:06
are requirednecessario to wearindossare EEGEEG devicesdispositivi
101
354676
2476
sono tenuti ad indossare dispositivi EEG
06:09
to monitortenere sotto controllo theirloro braincervello activityattività
while drivingguida.
102
357176
2427
per monitorare
l'attività cerebrale alla guida.
06:12
AccordingSecondo to some newsnotizia sourcesfonti,
103
360157
2226
Secondo alcune nuove fonti,
06:14
in government-rungoverno-run factoriesfabbriche in ChinaCina,
104
362407
2679
nelle fabbriche cinesi
di proprietà del governo,
06:17
the workerslavoratori are requirednecessario to wearindossare
EEGEEG sensorssensori to monitortenere sotto controllo theirloro productivityproduttività
105
365110
5364
gli operai devono indossare dispositivi
EEG per monitorare la propria produttività
06:22
and theirloro emotionalemotivo statestato at work.
106
370498
2115
e il proprio stato emotivo.
06:25
WorkersLavoratori are even sentinviato home
107
373267
2310
Vengono addirittura mandati a casa
06:27
if theirloro brainsmente showmostrare less-than-stellarmeno che stellare
concentrationconcentrazione on theirloro jobslavori,
108
375601
4054
se al lavoro il loro cervello
mostra bassi livelli di concentrazione,
06:31
or emotionalemotivo agitationagitazione.
109
379679
2122
o agitazione emotiva.
06:35
It's not going to happenaccadere tomorrowDomani,
110
383189
1745
Non succederà nell'immediato,
06:36
but we're headedheaded to a worldmondo
of braincervello transparencytrasparenza.
111
384958
3086
ma siamo diretti verso un mondo
di facile accesso alla mente.
06:40
And I don't think people understandcapire
that that could changemodificare everything.
112
388537
3440
E non credo che le persone capiscano
che questo potrebbe cambiare tutto.
06:44
Everything from our definitionsdefinizioni
of datadati privacysulla privacy to our lawslegislazione,
113
392474
3675
Dalle nostre definizioni di privacy
dei dati, fino alle nostre leggi
06:48
to our ideasidee about freedomla libertà.
114
396173
1800
e al nostro concetto di libertà.
06:50
In factfatto, in my lablaboratorio at DukeDuca UniversityUniversità,
115
398731
3077
Al mio laboratorio della Duke University,
06:53
we recentlyrecentemente conductedcondotto a nationwidea livello nazionale studystudia
in the UnitedUniti d'America StatesStati
116
401832
3175
abbiamo condotto di recente uno studio
nazionale negli Stati Uniti,
06:57
to see if people appreciatedapprezzato
117
405031
1959
per vedere quanto la gente comprenda
06:59
the sensitivitysensibilità
of theirloro braincervello informationinformazione.
118
407014
2071
la sensibilità
delle informazioni del cervello.
07:02
We askedchiesto people to rateVota
theirloro perceivedpercepito sensitivitysensibilità
119
410356
3356
Abbiamo chiesto alle persone
di dare un valore alla sensibilità
07:05
of 33 differentdiverso kindstipi of informationinformazione,
120
413736
2231
di 33 diversi tipi di informazioni,
07:07
from theirloro socialsociale securitysicurezza numbersnumeri
121
415991
2220
dal loro numero di previdenza sociale
07:10
to the contentsoddisfare
of theirloro phoneTelefono conversationsconversazioni,
122
418235
2597
fino al contenuto
delle conversazioni telefoniche,
07:12
theirloro relationshiprelazione historystoria,
123
420856
2193
informazioni sulle proprie relazioni,
07:15
theirloro emotionsemozioni, theirloro anxietyansia,
124
423073
1942
sulle proprie ansie ed emozioni,
07:17
the mentalmentale imagesimmagini in theirloro mindmente
125
425039
1946
sulle loro immagini mentali
07:19
and the thoughtspensieri in theirloro mindmente.
126
427009
1538
e sui propri pensieri.
07:21
ShockinglyIncredibilmente, people ratednominale theirloro socialsociale
securitysicurezza numbernumero as farlontano more sensitivesensibile
127
429481
5229
Incredibilmente, il numero di previdenza
sociale viene considerato più importante
07:26
than any other kindgenere of informationinformazione,
128
434734
2203
di qualsiasi altro tipo d'informazione,
07:28
includingCompreso theirloro braincervello datadati.
129
436961
2435
anche più dei propri dati cerebrali.
07:32
I think this is because
people don't yetancora understandcapire
130
440380
3216
Penso che sia così perché le persone
non capiscono ancora,
07:35
or believe the implicationsimplicazioni
of this newnuovo brain-decodingdecodifica cerebrale technologytecnologia.
131
443620
4063
o non credono alle implicazioni di questa
nuova tecnologia di decodifica cerebrale.
07:40
After all, if we can know
the innerinterno workingslavorazioni of the humanumano braincervello,
132
448629
3289
In fondo, se possiamo conoscere
i meccanismi insiti nel cervello,
il numero di previdenza sociale
sarà l'ultimo dei problemi.
07:43
our socialsociale securitysicurezza numbersnumeri
are the leastmeno of our worriespreoccupazioni.
133
451942
2706
07:46
(LaughterRisate)
134
454672
1285
(Risate)
07:47
Think about it.
135
455981
1167
Pensateci.
07:49
In a worldmondo of totaltotale braincervello transparencytrasparenza,
136
457172
2396
In un mondo di piena
trasparenza cerebrale,
07:51
who would dareosare have
a politicallypoliticamente dissidentdissidente thought?
137
459592
2429
chi oserebbe intrattenere
pensieri politicamente dissidenti?
07:55
Or a creativecreativo one?
138
463279
1541
O pensieri creativi?
07:57
I worrypreoccupazione that people will self-censorautoccensore
139
465503
3476
Ho paura che le persone
si autocensurerebbero,
08:01
in fearpaura of beingessere ostracizedostracizzato by societysocietà,
140
469003
3302
per la paura di venire
ostracizzate dalla società,
08:04
or that people will loseperdere theirloro jobslavori
because of theirloro waningLuna calante attentionAttenzione
141
472329
3813
o che possano perdere il lavoro
a causa di un calo di concentrazione
08:08
or emotionalemotivo instabilityinstabilità,
142
476166
2150
o di stabilità mentale,
08:10
or because they're contemplatingcontemplando
collectivecollettivo actionazione againstcontro theirloro employersdatori di lavoro.
143
478340
3550
oppure perché contempleranno
di scioperare contro i datori di lavoro.
08:14
That comingvenuta out
will no longerpiù a lungo be an optionopzione,
144
482478
3177
Che fare coming out
non sarà più un'opzione,
08:17
because people'spersone di brainsmente will long agofa
have revealedha rivelato theirloro sexualsessuale orientationorientamento,
145
485679
5067
in quanto il cervello rivelerà facilmente
l'orientamento sessuale delle persone,
08:22
theirloro politicalpolitico ideologyideologia
146
490770
1822
la loro ideologia politica
08:24
or theirloro religiousreligioso preferencesPreferenze,
147
492616
2025
o il loro credo religioso,
08:26
well before they were readypronto
to consciouslyconsapevolmente shareCondividere that informationinformazione
148
494665
3080
molto prima che si sia pronti
pronti a condividere
queste informazioni con altre persone.
08:29
with other people.
149
497769
1253
08:31
I worrypreoccupazione about the abilitycapacità of our lawslegislazione
to keep up with technologicaltecnologico changemodificare.
150
499565
4912
Ho paura che le nostre leggi non riescano
a star dietro alla tecnologia.
Come il Iº emendamento
della costituzione americana,
08:36
Take the First AmendmentEmendamento
of the US ConstitutionCostituzione,
151
504986
2320
08:39
whichquale protectsprotegge freedomla libertà of speechdiscorso.
152
507330
1958
che protegge la libertà di parola.
08:41
Does it alsoanche protectproteggere freedomla libertà of thought?
153
509312
1927
Protegge anche la libertà di pensiero?
08:43
And if so, does that mean that we're freegratuito
to alterALTER our thoughtspensieri howeverperò we want?
154
511944
4169
E se sì, vuole dire che siamo liberi
di cambiare i pensieri a piacimento?
08:48
Or can the governmentgoverno or societysocietà tell us
what we can do with our ownproprio brainsmente?
155
516137
4674
O possono il governo e la società dirci
come dobbiamo usare il nostro cervello?
08:53
Can the NSANSA spyspia on our brainsmente
usingutilizzando these newnuovo mobilemobile devicesdispositivi?
156
521591
3717
Può l'NSA spiare i nostri cervelli
usando questi nuovi dispositivi?
08:58
Can the companiesaziende that collectraccogliere
the braincervello datadati throughattraverso theirloro applicationsapplicazioni
157
526053
4119
Possono le aziende
che raccolgono queste informazioni
09:02
sellvendere this informationinformazione to thirdterzo partiesparti?
158
530196
2074
venderle a terzi?
09:05
Right now, no lawslegislazione preventimpedire them
from doing so.
159
533174
3222
Ora come ora, non ci sono leggi
che gli impedirebbero di farlo.
09:09
It could be even more problematicproblematico
160
537203
2025
Potrebbe essere ancora più problematico
09:11
in countriespaesi that don't shareCondividere
the samestesso freedomslibertà
161
539252
2519
nei paesi che non godono
delle stesse libertà
09:13
enjoyedgoduto by people in the UnitedUniti d'America StatesStati.
162
541795
2103
che vi sono negli Stati Uniti.
09:16
What would'veavrei fatto happenedè accaduto duringdurante
the IranianIraniano GreenVerde MovementMovimento
163
544883
3787
Che sarebbe successo nel periodo
del movimento verde iraniano
09:20
if the governmentgoverno had been
monitoringmonitoraggio my family'sLa famiglia di braincervello activityattività,
164
548694
3901
se il governo avesse monitorato
l'attività cerebrale della mia famiglia,
09:24
and had believedcreduto them
to be sympatheticcomprensivo to the protestersmanifestanti?
165
552619
4007
e li avesse etichettati
come simpatizzanti dei dimostranti?
09:30
Is it so far-fetchedforzato to imagineimmaginare a societysocietà
166
558091
3047
È così improbabile immaginare una società
09:33
in whichquale people are arrestedarrestato
basedbasato on theirloro thoughtspensieri
167
561162
2842
in cui le persone vengono
arrestate per aver pensato
09:36
of committingcommettere a crimecrimine,
168
564028
1167
di commettere un crimine?
09:37
like in the science-fictionfantascienza
dystopiandistopico societysocietà in "MinorityMinoranza ReportRelazione."
169
565219
4312
Come nella fantascientifica società
distopica del film "Minority Report".
09:42
AlreadyGià, in the UnitedUniti d'America StatesStati, in IndianaIndiana,
170
570286
4323
Già, in Indiana, negli Stati Uniti,
09:46
an 18-year-old-anni was chargedcarico
with attemptingil tentativo to intimidateintimidire his schoolscuola
171
574633
4937
un diciottenne è stato accusato
di minacce verso la propria scuola
09:51
by postingspedizione a videovideo of himselflui stesso
shootingtiro people in the hallwayscorridoi ...
172
579594
3309
per aver pubblicato un video
in cui sparava a persone per i corridoi.
09:55
ExceptTranne per il fatto the people were zombieszombie
173
583881
3007
Queste persone però erano zombi,
09:58
and the videovideo was of him playinggiocando
an augmented-realityrealtà aumentata videovideo gamegioco,
174
586912
5047
e il video proveniva da un videogioco
a realtà aumentata.
10:03
all interpretedinterpretato to be a mentalmentale projectionproiezione
of his subjectivesoggettivo intentintento.
175
591983
4772
E ciò venne interpretato come proiezione
delle sue reali intenzioni.
10:10
This is exactlydi preciso why our brainsmente
need specialspeciale protectionprotezione.
176
598456
4612
Ed è per questo che i nostri cervelli
necessitano di speciale protezione.
10:15
If our brainsmente are just as subjectsoggetto
to datadati trackingpuntamento and aggregationaggregazione
177
603092
3556
Se i nostri cervelli sono soggetti
a un rilevamento di dati
quanto lo sono i nostri dati
e le transazioni finanziarie,
10:18
as our financialfinanziario recordsrecord and transactionstransazioni,
178
606672
2532
10:21
if our brainsmente can be hackedHacked
and trackedcingolato like our onlinein linea activitiesattività,
179
609228
4285
se possono venire hackerati e rilevati
come le nostre attività online,
10:25
our mobilemobile phonestelefoni and applicationsapplicazioni,
180
613537
2361
come i nostri cellulari e le applicazioni,
10:27
then we're on the brinkciglio of a dangerouspericoloso
threatminaccia to our collectivecollettivo humanityumanità.
181
615922
4269
allora siamo sull'orlo
di una grave minaccia per tutta l'umanità.
10:33
Before you panicpanico,
182
621406
1309
Prima di andare nel panico,
10:36
I believe that there are solutionssoluzioni
to these concernspreoccupazioni,
183
624012
3144
credo che comunque
ci siano soluzioni a questi problemi,
10:39
but we have to startinizio by focusingmessa a fuoco
on the right things.
184
627180
2825
ma dobbiamo cominciare
a focalizzarci sulle cose giuste.
10:42
When it comesviene to privacysulla privacy
protectionsProtezioni in generalgenerale,
185
630580
2921
Se si parla in generale
di protezione della privacy,
10:45
I think we're fightingcombattente a losingperdere battlebattaglia
186
633525
1826
cercando di ridurre
la circolazione dei dati,
10:47
by tryingprovare to restrictlimitare
the flowflusso of informationinformazione.
187
635375
2858
stiamo combattendo
una battaglia persa in partenza.
10:50
InsteadInvece, we should be focusingmessa a fuoco
on securingfissaggio rightsdiritti and remediesrimedi
188
638257
4057
Invece, dovremmo concentrarci
sulla creazione di diritti e di rimedi
10:54
againstcontro the misuseuso improprio of our informationinformazione.
189
642338
2275
contro l'uso improprio dei nostri dati.
10:57
If people had the right to decidedecidere
how theirloro informationinformazione was shareddiviso,
190
645291
3285
Se le persone potessero decidere
come vengono condivisi i loro dati,
11:00
and more importantlyimportante, have legallegale redressmezzi di ricorso
191
648600
2921
e soprattutto,
avere vie legali a cui ricorrere
11:03
if theirloro informationinformazione
was misusedutilizzati in modo improprio againstcontro them,
192
651545
2428
in questi casi di uso improprio
dei propri dati,
11:05
say to discriminatediscriminare againstcontro them
in an employmentoccupazione settingambientazione
193
653997
2786
come in casi di discriminazione
in ambiente lavorativo,
11:08
or in healthSalute carecura or educationeducazione,
194
656807
2785
sanitario o di istruzione,
11:11
this would go a long way to buildcostruire trustfiducia.
195
659616
2571
questo sarebbe molto utile
nel creare sicurezza.
11:14
In factfatto, in some instancescasi,
196
662843
1718
Infatti, in certe circostanze,
11:16
we want to be sharingcompartecipazione more
of our personalpersonale informationinformazione.
197
664585
3524
vorremmo condividere di più
riguardo le nostre informazioni.
11:20
StudyingLo studio aggregatedaggregati informationinformazione
can tell us so much
198
668697
3047
Lo studio dei dati aggregati
può rivelarci davvero tanto
11:23
about our healthSalute and our well-beingbenessere,
199
671768
2747
riguardo alla nostra salute
e al nostro benessere.
11:26
but to be ablecapace to safelyin modo sicuro shareCondividere
our informationinformazione,
200
674539
3313
Ma per poter condividere
i nostri dati in modo sicuro
11:29
we need specialspeciale protectionsProtezioni
for mentalmentale privacysulla privacy.
201
677876
3223
necessitiamo di una speciale
protezione per la privacy mentale.
11:33
This is why we need
a right to cognitiveconoscitivo libertylibertà.
202
681832
3147
Per questo quindi necessitiamo
di diritti per la libertà cognitiva.
11:37
This right would securegarantire la for us
our freedomla libertà of thought and ruminationruminazione,
203
685543
4079
Questi diritti ci garantirebbero libertà
di pensiero e riflessione,
11:41
our freedomla libertà of self-determinationself-determination,
204
689646
2540
libertà di autodeterminazione,
11:44
and it would insureassicurare that we have
the right to consentconsenso to or refuserifiutare
205
692210
4390
e ci assicurerebbero che abbiamo diritto
di consentire o di rifiutare
11:48
accessaccesso and alterationalterazione
of our brainsmente by othersaltri.
206
696624
2857
l'accesso e l'alterazione
del nostro cervello da parte di altri.
11:51
This right could be recognizedriconosciuto
207
699811
2112
Questo diritto potrebbe
essere riconosciuto
11:53
as partparte of the UniversalUniversal DeclarationDichiarazione
of HumanUmano RightsDiritti,
208
701947
2883
come parte della Dichiarazione
Universale dei Diritti Umani,
11:56
whichquale has establishedstabilito mechanismsmeccanismi
209
704854
2388
la quale ha stabilito dei meccanismi
11:59
for the enforcementrinforzo
of these kindstipi of socialsociale rightsdiritti.
210
707266
2856
per il rafforzamento
di questi tipi di diritti sociali.
12:03
DuringDurante the IranianIraniano GreenVerde MovementMovimento,
211
711872
2070
Al tempo del movimento verde iraniano,
12:05
the protestersmanifestanti used the internetInternet
and good old-fashionedvecchio stile wordparola of mouthbocca
212
713966
5186
i dimostranti usarono internet
e il buon vecchio passaparola
12:11
to coordinatecoordinare theirloro marchesMarche.
213
719176
1948
per coordinare i loro cortei.
12:14
And some of the mostmaggior parte oppressiveoppressivo
restrictionsrestrizioni in IranIran
214
722238
2769
E alcune delle più repressive
restrizioni iraniane
12:17
were liftedsollevato as a resultrisultato.
215
725031
1877
vennero adottate a causa di questo.
12:20
But what if the IranianIraniano governmentgoverno
had used braincervello surveillancesorveglianza
216
728047
4087
E se il governo iraniano avesse
controllato e sorvegliato le menti
12:24
to detectindividuare and preventimpedire the protestprotesta?
217
732158
3061
per scoprire e prevenire le proteste?
12:28
Would the worldmondo have ever heardsentito
the protesters'manifestanti criesgrida?
218
736847
3176
Il mondo avrebbe mai udito
le voci del movimento?
12:33
The time has come for us to call
for a cognitiveconoscitivo libertylibertà revolutionrivoluzione.
219
741732
5121
È arrivato il momento di chiedere
una rivoluzione per la libertà cognitiva.
12:39
To make sure that we responsiblyresponsabilmente
advanceavanzare technologytecnologia
220
747559
3264
Per assicurarci uno sviluppo
tecnologico responsabile
12:42
that could enableabilitare us to embraceabbraccio the futurefuturo
221
750847
2978
che ci dia la possibilità
di accogliere il futuro,
12:45
while fiercelyferocemente protectingproteggere all of us
from any personpersona, companyazienda or governmentgoverno
222
753849
6717
e che protegga con tenacia tutti noi
da ogni persona, compagnia o governo
12:52
that attemptstentativi to unlawfullyin violazione di legge accessaccesso
or alterALTER our innermostInnermost livesvite.
223
760590
5040
che tenti illegittimamente di accedere
o alterare le nostre vite nel più intimo.
12:58
Thank you.
224
766659
1174
Grazie.
12:59
(ApplauseApplausi)
225
767857
3492
(Applausi)
Translated by Christian Roberti
Reviewed by Ludovica Harley

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com