ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Când tehnologia poate citi gândurile, cum ne protejăm intimitatea?

Filmed:
1,819,292 views

Tehnologia care poate descifra activitatea creierului și poate dezvălui ce gândim și simțim își face deja apariția, spune Nita Farahany, profesor de drept și etică. Ce va însemna pentru dreptul nostru la intimitate, deja încălcat? Într-o discuție de atenționare, Farahany atrage atenția asupra unei societăți în care oamenii sunt arestați doar pentru că s-au gândit că ar putea comite o infracțiune (cum se întâmplă în „Minority Report”), iar interesele private vând informațiile despre creierul nostru - și pledează în favoarea unui drept la libertatea cognitivă, care să protejeze libertatea noastră de gândire și de autodeterminare.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsluni followingca urmare a
the 2009 presidentialprezidenţiale electionalegere in IranIran,
0
1096
4714
În lunile care au urmat alegerilor
prezidențiale din Iran, în 2009,
00:17
protestsproteste eruptederupt acrosspeste the countryțară.
1
5834
2894
au izbucnit proteste în toată țara.
00:21
The IranianIranian governmentGuvern
violentlyviolent suppressedsuprimat
2
9685
2896
Guvernul iranian a suprimat violent
00:24
what camea venit to be knowncunoscut
as the IranianIranian GreenVerde MovementMişcarea,
3
12605
3979
ceea ce a ajuns să fie cunoscut
sub numele de Mișcarea Verde Iraniană,
00:28
even blockingblocarea mobilemobil signalssemnalele
4
16608
2053
blocând rețeaua de telefonie mobilă
00:30
to cuta taia off communicationcomunicare
betweenîntre the protestersprotestatari.
5
18685
2714
pentru a opri comunicarea
dintre demonstranți.
00:34
My parentspărinţi, who emigrateda emigrat
to the UnitedMarea StatesStatele in the latetârziu 1960s,
6
22316
4669
Părinții mei, emigrați în Statele Unite
la sfârșitul anilor '60,
00:39
spendpetrece substantialsubstanțial time there,
7
27009
1794
petrec timp însemnat acolo,
00:40
where all of my largemare,
extendedextins familyfamilie livetrăi.
8
28827
3153
unde se află întreaga mea familie.
00:44
When I would call my familyfamilie in TehranTeheran
9
32832
3129
Când îi sun la Teheran,
00:47
duringpe parcursul some of the mostcel mai violentviolent
crackdownscrackdowns of the protestprotest,
10
35985
3452
în timpul unei represiuni violente,
00:51
nonenici unul of them daredîndrăznit discussdiscuta
with me what was happeninglucru.
11
39461
3252
niciunul dintre ei nu îndrăznește
să-mi spună ce se întâmplă.
00:55
They or I knewștiut to quicklyrepede steerpilota
the conversationconversaţie to other topicssubiecte.
12
43196
3529
Și ei, și eu știm să schimbăm
discuția către alte subiecte.
00:59
All of us understoodînțeles
what the consequencesconsecințe could be
13
47163
3380
Am înțeles cu toții
care ar putea fi consecințele
01:02
of a perceivedperceput dissidentdisident actionacțiune.
14
50567
2540
unei acțiuni considerate dizidente.
01:06
But I still wishdori I could have knowncunoscut
what they were thinkinggândire
15
54095
3469
Dar tot îmi doresc
să fi știut ce-au gândit
01:09
or what they were feelingsentiment.
16
57588
1418
sau ce-au simțit.
01:12
What if I could have?
17
60217
1393
Cum ar fi fost să pot?
01:14
Or more frighteninglyînspăimântător,
18
62149
1151
Sau, mai îngrozitor,
01:15
what if the IranianIranian governmentGuvern could have?
19
63324
2761
dacă guvernul iranian ar fi putut?
01:18
Would they have arrestedarestat them
basedbazat on what theiral lor brainscreier revealeddezvăluit?
20
66695
3244
I-ar aresta pe baza informațiilor
dezvăluite de creierul lor?
01:22
That day mayMai be closermai aproape than you think.
21
70933
2944
Acea zi e mai aproape decât vă imaginați.
01:26
With our growingcreştere capabilitiescapabilități
in neuroscienceneurostiintele, artificialartificial intelligenceinteligență
22
74527
3811
Cu noile capacități ale neuroștiinței,
ale inteligenței artificiale
01:30
and machinemaşină learningînvăţare,
23
78362
1703
și ale învățării automate,
01:32
we mayMai sooncurând know a lot more
of what's happeninglucru in the humanuman braincreier.
24
80089
4075
s-ar putea să știm în curând mult mai mult
din ceea ce se întâmplă în creierul uman.
01:37
As a bioethicistbioethicist, a lawyeravocat, a philosopherfilozof
25
85083
3310
Ca bioetician, avocat, filozof
01:40
and an Iranian-AmericanIranian-American,
26
88417
1867
și cetățean iranian și american,
01:42
I'm deeplyprofund concernedîngrijorat
about what this meansmijloace for our freedomslibertăți
27
90308
3787
sunt foarte îngrijorată de ce înseamnă
acest lucru pentru libertățile noastre
01:46
and what kindstipuri of protectionsProtectii we need.
28
94119
2171
și cum am putea să ne protejăm.
01:48
I believe we need
a right to cognitivecognitiv libertylibertate,
29
96993
3460
Cred că avem nevoie de dreptul
la libertate cognitivă,
01:52
as a humanuman right
that needsare nevoie to be protectedprotejate.
30
100477
2892
ca drept al omului ce trebuie protejat.
01:55
If not, our freedomlibertate of thought,
31
103772
2643
În caz contrar, libertatea de gândire
01:58
accessacces and controlControl over our ownpropriu brainscreier
32
106439
3024
accesul și controlul
propriilor noastre creiere
02:01
and our mentalmental privacyConfidentialitate will be threatenedamenințat.
33
109487
2841
și intimitatea noastră mintală
vor fi în pericol.
02:05
ConsiderIa în considerare this:
34
113698
1158
Gândiți-vă la asta:
02:06
the averagein medie personpersoană thinkscrede
thousandsmii of thoughtsgânduri eachfiecare day.
35
114880
3314
o persoană medie
are mii de gânduri în fiecare zi.
02:10
As a thought takes formformă,
36
118697
1151
Când se formează un gând,
02:11
like a mathmatematica calculationcalcul
or a numbernumăr, a wordcuvânt,
37
119872
5056
cum ar fi un calcul matematic,
un număr sau un cuvânt,
02:16
neuronsneuroni are interactinginteracționând in the braincreier,
38
124952
2885
neuronii interacționează în creier,
02:19
creatingcrearea a minisculeminuscul electricalelectric dischargedescărcarea de gestiune.
39
127861
3088
generând o minusculă descărcare electrică.
02:23
When you have a dominantdominant
mentalmental statestat, like relaxationrelaxare,
40
131713
3452
Când predomină o stare mintală,
cum ar fi relaxarea,
02:27
hundredssute and thousandsmii of neuronsneuroni
are firingardere in the braincreier,
41
135189
4175
sute și mii de neuroni
se activează în creier,
02:31
creatingcrearea concurrentconcurente electricalelectric dischargesevacuările
in characteristiccaracteristică patternsmodele
42
139388
4218
generând descărcări electrice simultane
în structurile caracteristice,
02:35
that can be measuredmăsurat
with electroencephalographyelectroencefalografie, or EEGEEG.
43
143630
4865
care pot fi măsurate folosind
electroencefalograful (EEG).
02:41
In factfapt, that's what
you're seeingvedere right now.
44
149118
2160
E, de fapt, ceea ce vedeți acum.
02:43
You're seeingvedere my braincreier activityactivitate
that was recordedînregistrate in realreal time
45
151956
3964
Vedeți activitatea creierului meu,
care a fost înregistrată în timp real
02:47
with a simplesimplu devicedispozitiv
that was wornpurtat on my headcap.
46
155944
2735
cu un dispozitiv simplu
pe care l-am purtat pe cap.
02:51
What you're seeingvedere is my braincreier activityactivitate
when I was relaxedrelaxat and curiouscurios.
47
159669
5653
Ce vedeți e activitatea creierului meu
în stare de relaxare și curiozitate.
Pentru a împărtăși aceste informații,
02:58
To shareacțiune this informationinformație with you,
48
166097
1755
02:59
I worepurtau one of the earlydin timp
consumer-basedpe bază de consum EEGEEG devicesdispozitive
49
167876
3020
am purtat unul dintre
primele dispozitive EEG,
03:02
like this one,
50
170920
1211
ca acesta,
03:04
whichcare recordedînregistrate the electricalelectric
activityactivitate in my braincreier in realreal time.
51
172155
3988
care a înregistrat în timp real
activitatea electrică din creierul meu.
03:08
It's not unlikespre deosebire de the fitnessfitness trackerstrackere
that some of you mayMai be wearingpurtare
52
176849
3826
Nu este diferit de dispozitivele
de fitness pe care le purtăm
03:12
to measuremăsura your heartinimă raterată
or the stepspași that you've takenluate,
53
180699
3586
ca să măsurăm bătăile inimii
sau pașii pe care îi facem
03:16
or even your sleepdormi activityactivitate.
54
184309
1587
sau chiar somnul.
03:19
It's hardlycu greu the mostcel mai sophisticatedsofisticat
neuroimagingneuroimagistice techniquetehnică on the marketpiaţă.
55
187154
3824
Nu este deloc cea mai sofisticată
tehnologie neuroimagistică de pe piață.
03:23
But it's alreadydeja the mostcel mai portableportabil
56
191597
2378
Dar e deja cea mai portabilă
03:25
and the mostcel mai likelyprobabil to impactefect
our everydayin fiecare zi livesvieți.
57
193999
3152
și cu cel mai mare impact
asupra vieții noastre.
03:29
This is extraordinaryextraordinar.
58
197915
1503
Este nemaipomenit.
03:31
ThroughPrin a simplesimplu, wearableportabil devicedispozitiv,
59
199442
2505
Printr-un simplu dispozitiv portabil,
03:33
we can literallyliteralmente see
insideinterior the humanuman braincreier
60
201971
3548
putem vedea în interiorul creierului uman
03:37
and learnînvăța aspectsaspecte of our mentalmental landscapepeisaj
withoutfără ever utteringrosti a wordcuvânt.
61
205543
6476
și îi putem descoperi caracteristicile
fără a rosti niciun cuvânt.
03:44
While we can't reliablyfiabil decodeDecodare
complexcomplex thoughtsgânduri just yetinca,
62
212829
3653
Deși nu putem descifra încă
gândurile complicate,
03:48
we can alreadydeja gaugeecartament a person'spersoane mooddispozitie,
63
216506
2519
putem măsura dispoziția cuiva
03:51
and with the help
of artificialartificial intelligenceinteligență,
64
219049
2873
și, cu ajutorul inteligenței artificiale,
03:53
we can even decodeDecodare
some single-digitcu o singură cifră numbersnumerele
65
221946
4341
putem decodifica numere de o cifră,
03:58
or shapesforme or simplesimplu wordscuvinte
that a personpersoană is thinkinggândire
66
226311
4882
forme sau cuvinte simple
pe care cineva le gândește,
04:03
or hearingauz, or seeingvedere.
67
231217
2189
le aude sau le vede.
04:06
DespiteÎn ciuda some inherentinerent limitationslimitări in EEGEEG,
68
234345
3365
În ciuda limitărilor firești ale EEG,
04:09
I think it's safesigur to say
that with our advancesavans in technologytehnologie,
69
237734
4720
cred că se poate spune că odată
cu progresul nostru în tehnologie,
04:14
more and more of what's happeninglucru
in the humanuman braincreier
70
242478
3809
tot mai mult din ce se întâmplă
în creierul uman
04:18
can and will be decodeddecodate over time.
71
246311
2310
poate și va fi descifrat în timp.
04:21
AlreadyDeja, usingutilizând one of these devicesdispozitive,
72
249362
2746
Deja, folosind un asemenea dispozitiv,
04:24
an epilepticepileptic can know
they're going to have an epilepticepileptic seizuresechestrare
73
252132
3255
o persoană cu epilepsie
știe când va avea o criză
04:27
before it happensse întâmplă.
74
255411
1436
înainte ca ea să se întâmple.
04:28
A paraplegicparaplegic can typetip on a computercomputer
with theiral lor thoughtsgânduri alonesingur.
75
256871
4603
O persoană paraplegică poate scrie
pe calculator cu ajutorul gândului.
04:34
A US-basedBazat pe SUA companycompanie has developeddezvoltat
a technologytehnologie to embedîncorporare these sensorssenzori
76
262485
4183
O companie din America a dezvoltat
o tehnologie ce integrează acești senzori
04:38
into the headrestTetiera of automobiliesautomobilele
77
266692
2230
în tetierele mașinilor,
04:40
so they can trackurmări driverconducător auto concentrationconcentraţie,
78
268946
2505
astfel încât să poată urmări
concentrarea șoferului,
04:43
distractiondistracție and cognitivecognitiv loadsarcină
while drivingconducere.
79
271475
2667
distragerea atenției și oboseala mintală
în timp ce conduce.
04:46
NissanNissan, insuranceasigurare companiescompanii
and AAAAAA have all takenluate noteNotă.
80
274912
4058
Nissan, companiile de asigurare
și AAA țin seama de aceasta.
04:51
You could even watch this
choose-your-own-adventurealege-ta-proprii-aventură moviefilm
81
279949
4508
Puteți chiar să vedeți acest film
în care vă alegeți acțiunea,
04:56
"The MomentMomentul," whichcare, with an EEGEEG headsetcăști,
82
284481
4240
„Momentul”, care, cu o cască EEG,
05:00
changesschimbări the moviefilm
basedbazat on your brain-basedbazate pe creier reactionsreacții,
83
288745
3926
schimbă filmul pe baza
reacțiilor din creierul vostru,
05:04
givingoferindu- you a differentdiferit endingfinal
everyfiecare time your attentionAtenţie wanesmurariu.
84
292695
4353
oferindu-vă un alt final de fiecare dată
când atenția voastră scade.
05:11
This mayMai all soundsunet great,
85
299154
2763
Toate acestea pot părea minunate
05:13
and as a bioethicistbioethicist,
86
301941
2189
și, ca bioetician,
05:16
I am a hugeimens proponentsusţinător of empoweringresponsabilizarea people
87
304154
3613
susțin posibilitatea oamenilor
05:19
to take chargeîncărca of theiral lor ownpropriu
healthsănătate and well-beingbunăstare
88
307791
2616
de a se ocupa de propria
sănătate și bunăstare,
05:22
by givingoferindu- them accessacces
to informationinformație about themselvesînșiși,
89
310431
2918
oferindu-le acces la informații despre ei,
05:25
includinginclusiv this incredibleincredibil
newnou brain-decodingdecodificare a creierului technologytehnologie.
90
313373
2976
inclusiv la această excelentă tehnologie
de descifrare a creierului.
05:29
But I worryface griji.
91
317878
1167
Dar sunt îngrijorată.
05:31
I worryface griji that we will voluntarilyîn mod voluntar
or involuntarilyinvoluntar give up
92
319736
4760
Mi-e teamă că vom renunța,
cu voie sau fără voie,
05:36
our last bastionBastion of freedomlibertate,
our mentalmental privacyConfidentialitate.
93
324520
4118
la ultimul bastion al libertății,
intimitatea noastră mintală.
05:41
That we will tradecomerț our braincreier activityactivitate
94
329302
2925
Că vom oferi activitatea creierului
05:44
for rebatesreduceri or discountsreduceri on insuranceasigurare,
95
332251
3046
pentru promoții, reduceri la asigurare,
05:48
or freegratuit accessacces
to social-mediasocial-media accountsconturi ...
96
336391
2603
sau acces liber la rețelele sociale,
05:52
or even to keep our jobslocuri de munca.
97
340444
1848
sau pentru a ne păstra locul de muncă.
05:54
In factfapt, in ChinaChina,
98
342900
1913
În China,
05:58
the traintren driversdrivere on
the Beijing-ShanghaiBeijing-Shanghai high-speedviteza mare railșină,
99
346199
5897
conductorii trenurilor de mare viteză
de pe ruta Beijing-Shanghai,
06:04
the busiestcele mai aglomerate of its kinddrăguț in the worldlume,
100
352120
2532
cea mai aglomerată de acest gen din lume,
06:06
are requirednecesar to wearpurta EEGEEG devicesdispozitive
101
354676
2476
sunt obligați să poarte dispozitive EEG
06:09
to monitorMonitor theiral lor braincreier activityactivitate
while drivingconducere.
102
357176
2427
ce urmăresc activitatea
creierului în timp ce conduc.
06:12
AccordingÎn funcţie de to some newsștiri sourcessurse,
103
360157
2226
Potrivit unor surse de știri,
06:14
in government-runadministrat de guvernul factoriesfabrici in ChinaChina,
104
362407
2679
în fabricile guvernamentale din China,
06:17
the workersmuncitorii are requirednecesar to wearpurta
EEGEEG sensorssenzori to monitorMonitor theiral lor productivityproductivitate
105
365110
5364
muncitorii trebuie să poarte senzori EEG
pentru a li se monitoriza productivitatea
06:22
and theiral lor emotionalemoţional statestat at work.
106
370498
2115
și starea emoțională la locul de muncă.
06:25
WorkersLucrătorilor are even senttrimis home
107
373267
2310
Unii dintre ei chiar sunt trimiși acasă
06:27
if theiral lor brainscreier showspectacol less-than-stellarmai puțin decât stelare
concentrationconcentraţie on theiral lor jobslocuri de munca,
108
375601
4054
dacă creierul lor indică o concentrare
mai scăzută la serviciu
06:31
or emotionalemoţional agitationagitaţie.
109
379679
2122
sau o stare de agitație emoțională.
06:35
It's not going to happenîntâmpla tomorrowMâine,
110
383189
1745
Nu se va întâmpla mâine,
06:36
but we're headedintitulat to a worldlume
of braincreier transparencytransparenţă.
111
384958
3086
dar ne îndreptăm către o lume
de transparență a creierului.
06:40
And I don't think people understanda intelege
that that could changeSchimbare everything.
112
388537
3440
Și nu cred că oamenii înțeleg
că asta ar putea schimba totul.
06:44
Everything from our definitionsdefiniții
of datadate privacyConfidentialitate to our lawslegii,
113
392474
3675
De la ce înțelegem prin
confidențialitatea datelor, a regulilor,
06:48
to our ideasidei about freedomlibertate.
114
396173
1800
până la ideea noastră de libertate.
06:50
In factfapt, in my lablaborator at DukeDuce UniversityUniversitatea,
115
398731
3077
În laboratorul meu
de la Universitatea Duke,
06:53
we recentlyrecent conductedefectuat a nationwidela nivel național studystudiu
in the UnitedMarea StatesStatele
116
401832
3175
am efectuat recent un studiu
la nivel național,
06:57
to see if people appreciatedapreciat
117
405031
1959
pentru a vedea dacă oamenii apreciază
06:59
the sensitivitysensibilitate
of theiral lor braincreier informationinformație.
118
407014
2071
sensibilitatea informațiilor
despre creier.
07:02
We askedîntrebă people to raterată
theiral lor perceivedperceput sensitivitysensibilitate
119
410356
3356
Le-am cerut să evalueze
cum percep sensibilitatea
07:05
of 33 differentdiferit kindstipuri of informationinformație,
120
413736
2231
a 33 de tipuri diferite de informații,
07:07
from theiral lor socialsocial securitySecuritate numbersnumerele
121
415991
2220
de la codul numeric personal
07:10
to the contentconţinut
of theiral lor phonetelefon conversationsconversații,
122
418235
2597
la conținutul unei convorbiri telefonice,
07:12
theiral lor relationshiprelaţie historyistorie,
123
420856
2193
istoricul relațiilor lor,
07:15
theiral lor emotionsemoții, theiral lor anxietyanxietate,
124
423073
1942
sentimentele, anxietatea,
07:17
the mentalmental imagesimagini in theiral lor mindminte
125
425039
1946
imaginile mintale
07:19
and the thoughtsgânduri in theiral lor mindminte.
126
427009
1538
și gândurile din mintea lor.
07:21
ShockinglyŞocant, people ratedevaluat theiral lor socialsocial
securitySecuritate numbernumăr as fardeparte more sensitivesensibil
127
429481
5229
Surprinzător, oamenii își evaluează
codul numeric personal mai mult
07:26
than any other kinddrăguț of informationinformație,
128
434734
2203
decât orice alt tip de informație,
07:28
includinginclusiv theiral lor braincreier datadate.
129
436961
2435
chiar și despre creierul lor.
07:32
I think this is because
people don't yetinca understanda intelege
130
440380
3216
Cred că asta se întâmplă
deoarece oamenii nu înțeleg încă
07:35
or believe the implicationsimplicații
of this newnou brain-decodingdecodificare a creierului technologytehnologie.
131
443620
4063
sau nu cred implicațiile tehnologiei
de decodificare a creierului.
07:40
After all, if we can know
the innerinterior workingslucrări of the humanuman braincreier,
132
448629
3289
La urma urmei, dacă știm
cum funcționează creierul uman,
07:43
our socialsocial securitySecuritate numbersnumerele
are the leastcel mai puţin of our worriesgriji.
133
451942
2706
codul numeric personal
e ultima noastră grijă.
07:46
(LaughterRâs)
134
454672
1285
(Râsete)
07:47
Think about it.
135
455981
1167
Gândiți-vă puțin.
07:49
In a worldlume of totaltotal braincreier transparencytransparenţă,
136
457172
2396
Într-o lume de transparență
absolută a creierului
cine ar îndrăzni să aibă
un gând dizident politic?
07:51
who would darea indrazni have
a politicallypolitic dissidentdisident thought?
137
459592
2429
07:55
Or a creativecreator one?
138
463279
1541
Sau unul creativ?
07:57
I worryface griji that people will self-censorauto-cenzurat
139
465503
3476
Mi-e teamă că oamenii
se vor auto-cenzura
08:01
in fearfrică of beingfiind ostracizedostracizat by societysocietate,
140
469003
3302
de frica de a fi ostracizați de societate,
08:04
or that people will losepierde theiral lor jobslocuri de munca
because of theiral lor waningscădere attentionAtenţie
141
472329
3813
sau că își vor pierde locul de muncă
pentru că nu mai sunt atenți,
08:08
or emotionalemoţional instabilityinstabilitate,
142
476166
2150
sunt instabili emoțional,
08:10
or because they're contemplatingcontemplând
collectivecolectiv actionacțiune againstîmpotriva theiral lor employersangajatori.
143
478340
3550
sau gândesc să se organizeze
împotriva angajatorului.
08:14
That comingvenire out
will no longermai lung be an optionopțiune,
144
482478
3177
Dezvăluirea orientării sexuale
nu va mai fi o alegere,
08:17
because people'soamenii lui brainscreier will long agoîn urmă
have revealeddezvăluit theiral lor sexualsexual orientationorientarea,
145
485679
5067
deoarece creierul va putea
spune orientarea sexuală,
08:22
theiral lor politicalpolitic ideologyideologia
146
490770
1822
ideologia politică
08:24
or theiral lor religiousreligios preferencesPreferinţe,
147
492616
2025
sau preferințele religioase,
08:26
well before they were readygata
to consciouslyconştient shareacțiune that informationinformație
148
494665
3080
cu mult înainte ca cineva să poată
să împărtășească aceste informații
08:29
with other people.
149
497769
1253
altor persoane.
08:31
I worryface griji about the abilityabilitate of our lawslegii
to keep up with technologicaltehnologic changeSchimbare.
150
499565
4912
Mi-e teamă că legile nu vor ține
pasul cu schimbările tehnologice.
08:36
Take the First AmendmentModificare
of the US ConstitutionConstituţia,
151
504986
2320
De exemplu primul amendament
al Constituției SUA,
08:39
whichcare protectsprotejează freedomlibertate of speechvorbire.
152
507330
1958
care protejează libertatea de exprimare.
08:41
Does it alsode asemenea protectproteja freedomlibertate of thought?
153
509312
1927
Protejează și libertatea de gândire?
08:43
And if so, does that mean that we're freegratuit
to altermodifica our thoughtsgânduri howeverin orice caz we want?
154
511944
4169
Dacă da, asta înseamnă că putem
să ne schimbăm gândurile cum dorim?
08:48
Or can the governmentGuvern or societysocietate tell us
what we can do with our ownpropriu brainscreier?
155
516137
4674
Sau guvernul și societatea ne pot dicta
ce putem face cu propriul creier?
08:53
Can the NSANSA spyspion on our brainscreier
usingutilizând these newnou mobilemobil devicesdispozitive?
156
521591
3717
Poate NSA să ne spioneze creierul
folosind noile dispozitive mobile?
08:58
Can the companiescompanii that collectcolectarea
the braincreier datadate throughprin theiral lor applicationsaplicații
157
526053
4119
Companiile care folosesc aplicații
ce colectează informații despre creier
09:02
sellvinde this informationinformație to thirdal treilea partiespetreceri?
158
530196
2074
pot să le vândă către terți?
09:05
Right now, no lawslegii preventîmpiedica them
from doing so.
159
533174
3222
Acum nu există nicio lege
care să le interzică asta.
09:09
It could be even more problematicproblematic
160
537203
2025
Ar putea fi și mai grav
09:11
in countriesțări that don't shareacțiune
the samela fel freedomslibertăți
161
539252
2519
în țările în care nu există
aceleași libertăți
09:13
enjoyedsa bucurat by people in the UnitedMarea StatesStatele.
162
541795
2103
de care se bucură Statele Unite.
09:16
What would'vear-am happeneds-a întâmplat duringpe parcursul
the IranianIranian GreenVerde MovementMişcarea
163
544883
3787
Ce s-ar fi întâmplat
în timpul Mișcării Iraniene
09:20
if the governmentGuvern had been
monitoringmonitorizarea my family'sfamilia lui braincreier activityactivitate,
164
548694
3901
dacă guvernul ar fi monitorizat
creierele familiei mele
09:24
and had believeda crezut them
to be sympatheticsimpatic to the protestersprotestatari?
165
552619
4007
și ar fi dedus că simpatizează
cu protestatarii?
09:30
Is it so far-fetchedpedant to imagineimagina a societysocietate
166
558091
3047
E atât de nefiresc
să ne imaginăm o societate
09:33
in whichcare people are arrestedarestat
basedbazat on theiral lor thoughtsgânduri
167
561162
2842
unde oamenii sunt arestați pentru că
se gândesc să comită o infracțiune,
09:36
of committingsăvârșire a crimecrimă,
168
564028
1167
09:37
like in the science-fictionștiințifico-fantastice
dystopiandistopic societysocietate in "MinorityMinoritate ReportRaport."
169
565219
4312
ca în societatea distopică SF
din „Minority Report”.
09:42
AlreadyDeja, in the UnitedMarea StatesStatele, in IndianaIndiana,
170
570286
4323
Deja în Statele Unite, în Indiana,
09:46
an 18-year-old-de ani was chargedîncărcat
with attemptingîncercarea to intimidateintimida his schoolşcoală
171
574633
4937
un tânăr de 18 ani a fost acuzat
că încearcă să-și terorizeze școala
09:51
by postingpostare a videovideo of himselfse
shootingfilmare people in the hallwaysholuri ...
172
579594
3309
prin postarea unui video în care
împușcă oameni pe culoare.
09:55
ExceptCu excepţia the people were zombieszombi
173
583881
3007
Doar că oamenii erau zombii
09:58
and the videovideo was of him playingjoc
an augmented-realityaugmentată-realitate videovideo gamejoc,
174
586912
5047
și video-ul era despre el jucând
un joc de realitate augmentată,
10:03
all interpretedinterpretate to be a mentalmental projectionproeminență
of his subjectivesubiectiv intentscop.
175
591983
4772
iar asta a fost interpretat ca fiind
o proiecție mintală a intențiilor lui.
10:10
This is exactlyexact why our brainscreier
need specialspecial protectionprotecţie.
176
598456
4612
Tocmai de aceea creierele noastre
au nevoie de protecție specială.
10:15
If our brainscreier are just as subjectsubiect
to datadate trackingurmărire and aggregationagregare
177
603092
3556
Dacă creierul nostru e subiectul
urmăririi și cumulării de informații
10:18
as our financialfinanciar recordsînregistrări and transactionstranzacţii,
178
606672
2532
la fel ca tranzacțiile și
situația noastră financiară,
10:21
if our brainscreier can be hackedtocat
and trackedpe șenile like our onlinepe net activitiesactivitati,
179
609228
4285
dacă creierul nostru poate fi atacat
și urmărit precum activitatea online,
10:25
our mobilemobil phonestelefoane and applicationsaplicații,
180
613537
2361
telefonul mobil și aplicațiile,
10:27
then we're on the brinkțărm of a dangerouspericulos
threatamenințare to our collectivecolectiv humanityumanitate.
181
615922
4269
atunci suntem la un pas de o gravă
amenințare la adresa umanității.
10:33
Before you panicpanica,
182
621406
1309
Înainte să vă panicați,
10:36
I believe that there are solutionssoluţii
to these concernspreocupările,
183
624012
3144
cred că există soluții
la aceste probleme,
10:39
but we have to startstart by focusingfocalizare
on the right things.
184
627180
2825
dar trebuie să ne concentrăm
pe ceea ce trebuie.
10:42
When it comesvine to privacyConfidentialitate
protectionsProtectii in generalgeneral,
185
630580
2921
Când vine vorba
de protecția intimității în general,
10:45
I think we're fightingluptă a losingpierzând battleluptă
186
633525
1826
cred că lupta noastră e în zadar,
10:47
by tryingîncercat to restrictrestrânge
the flowcurgere of informationinformație.
187
635375
2858
dacă încercăm să oprim
fluxul de informații.
10:50
InsteadÎn schimb, we should be focusingfocalizare
on securingasigurarea rightsdrepturile and remediescăi de atac
188
638257
4057
În schimb, ar trebui să ne concentrăm
pe garantarea de drepturi și măsuri
10:54
againstîmpotriva the misuseabuz of our informationinformație.
189
642338
2275
împotriva utilizării abuzive
a informațiilor noastre.
10:57
If people had the right to decidea decide
how theiral lor informationinformație was sharedimpartit,
190
645291
3285
Dacă oamenii ar putea să decidă
cum sunt folosite informațiile lor
11:00
and more importantlyimportant, have legallegal redresscăile de atac
191
648600
2921
și chiar să primească despăgubiri
11:03
if theiral lor informationinformație
was misusedutilizat în mod abuziv againstîmpotriva them,
192
651545
2428
dacă au fost utilizate
abuziv împotriva lor,
11:05
say to discriminatediscriminare againstîmpotriva them
in an employmentocuparea forței de muncă settingcadru
193
653997
2786
de exemplu ca să-i discrimineze
la locul de muncă,
11:08
or in healthsănătate careîngrijire or educationeducaţie,
194
656807
2785
în serviciile medicale sau educație,
11:11
this would go a long way to buildconstrui trustîncredere.
195
659616
2571
ar fi un pas important
pentru a consolida încrederea.
11:14
In factfapt, in some instancesinstanțe,
196
662843
1718
De fapt, în unele cazuri,
11:16
we want to be sharingpartajare more
of our personalpersonal informationinformație.
197
664585
3524
dorim să împărtășim mai mult
din informațiile personale.
11:20
StudyingStudierea aggregatedagregate informationinformație
can tell us so much
198
668697
3047
Studierea informațiilor cumulate
ne poate spune multe
11:23
about our healthsănătate and our well-beingbunăstare,
199
671768
2747
despre sănătatea și bunăstarea noastră,
11:26
but to be ablecapabil to safelyîn condiţii de siguranţă shareacțiune
our informationinformație,
200
674539
3313
dar pentru a putea folosi în siguranță
informațiile noastre,
11:29
we need specialspecial protectionsProtectii
for mentalmental privacyConfidentialitate.
201
677876
3223
avem nevoie de protecții speciale
pentru intimitatea mintală.
11:33
This is why we need
a right to cognitivecognitiv libertylibertate.
202
681832
3147
De aceea avem nevoie de dreptul
la libertatea de gândire.
11:37
This right would secureSecure for us
our freedomlibertate of thought and ruminationrumegare,
203
685543
4079
Acesta ne-ar asigura
libertatea de gândire și reflectare,
11:41
our freedomlibertate of self-determinationauto-determinare,
204
689646
2540
libertatea de autodeterminare
11:44
and it would insureasigura that we have
the right to consentconsimţământ to or refuserefuza
205
692210
4390
și ar stabili că avem dreptul
de a accepta sau refuza
11:48
accessacces and alterationmodificarea
of our brainscreier by othersalții.
206
696624
2857
accesul și modificarea creierului
nostru de către alții.
11:51
This right could be recognizedrecunoscut
207
699811
2112
Acest drept ar putea fi recunoscut
11:53
as partparte of the UniversalUniversal DeclarationDeclarația
of HumanUmane RightsDrepturile,
208
701947
2883
ca parte a Declarației Universale
a Drepturilor Omului,
11:56
whichcare has establishedstabilit mechanismsmecanisme
209
704854
2388
care stabilește mecanismele
11:59
for the enforcementexecutare
of these kindstipuri of socialsocial rightsdrepturile.
210
707266
2856
pentru aplicarea acestor
tipuri de drepturi sociale.
12:03
DuringÎn timpul the IranianIranian GreenVerde MovementMişcarea,
211
711872
2070
În timpul Mișcării Iraniene,
12:05
the protestersprotestatari used the internetInternet
and good old-fashionedde modă veche wordcuvânt of mouthgură
212
713966
5186
protestatarii au folosit internetul
și metoda viului grai
12:11
to coordinateCoordonate theiral lor marchesmarsuri.
213
719176
1948
pentru a coordona demonstrațiile.
12:14
And some of the mostcel mai oppressiveopresive
restrictionsrestricţii in IranIran
214
722238
2769
Iar cele mai opresive restricții din Iran
12:17
were liftedridicat as a resultrezultat.
215
725031
1877
au fost eliminate ca rezultat.
12:20
But what if the IranianIranian governmentGuvern
had used braincreier surveillancesupraveghere
216
728047
4087
Dar dacă guvernul iranian ar fi utilizat
supravegherea creierelor
12:24
to detectdetecta and preventîmpiedica the protestprotest?
217
732158
3061
pentru a detecta și împiedica protestul?
12:28
Would the worldlume have ever heardauzit
the protesters'protestatari criesplinge?
218
736847
3176
Ar fi auzit vreodată lumea
strigătele demonstranților?
12:33
The time has come for us to call
for a cognitivecognitiv libertylibertate revolutionrevoluţie.
219
741732
5121
E vremea unei revoluții
a libertății cognitive.
12:39
To make sure that we responsiblyîn mod responsabil
advanceavans technologytehnologie
220
747559
3264
Pentru a fi siguri că dezvoltăm
în mod responsabil o tehnologie
12:42
that could enablepermite us to embraceîmbrăţişare the futureviitor
221
750847
2978
care să ne pregătească pentru viitor,
12:45
while fiercelycu înverşunare protectingprotectoare all of us
from any personpersoană, companycompanie or governmentGuvern
222
753849
6717
protejându-ne de orice altă persoană,
companie sau guvern
12:52
that attemptsîncercări to unlawfullyIlegal accessacces
or altermodifica our innermostmai livesvieți.
223
760590
5040
ce încearcă să acceseze ilegal sau
să modifice viața noastră cea mai intimă.
12:58
Thank you.
224
766659
1174
Vă mulțumesc!
12:59
(ApplauseAplauze)
225
767857
3492
(Aplauze)
Translated by Claudia Pravat
Reviewed by Cristina Nicolae

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com