ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Mikor a technika már elménkben olvas, hogyan védjük meg magánéletünket?

Filmed:
1,819,292 views

Az agytevékenységünk dekódolására és gondolataink és érzelmeink föltárására alkalmas technika hamarosan megvalósul – mondja Nita Farahany bioetikus és jogász. Mit jelent ez magánéletünkre nézve, amelynek határait már úgyis áthágták? Figyelemfölhívó előadásában Farahany óva int olyan társadalomtól, melyben valakit azért tartóztatnának le, mert bűntett elkövetésére csupáncsak gondolt (mint a Különvélemény c. sci-fi filmben), agyunk adatait magánérdekből adják-veszik. Bizonyítja, hogy a kognitív szabadság joga megvédi a gondolkodás és az önrendelkezés szabadságát.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthshónap followingkövetkező
the 2009 presidentialelnöki electionválasztás in IranIrán,
0
1096
4714
A 2009-es iráni elnökválasztás
utáni hónapokban
00:17
proteststiltakozik eruptedkitört acrossát the countryország.
1
5834
2894
országszerte tiltakozások törtek ki.
00:21
The IranianIráni governmentkormány
violentlyhevesen suppressedelfojtott
2
9685
2896
Az iráni kormány kegyetlenül elnyomta
00:24
what camejött to be knownismert
as the IranianIráni GreenZöld MovementMozgás,
3
12605
3979
a később Iráni Zöld Mozgalom
néven ismertté vált tömörülést,
00:28
even blockingblokkoló mobileMobil signalsjelek
4
16608
2053
s még a mobilszolgáltatást
is megszakította,
00:30
to cutvágott off communicationközlés
betweenközött the protesterstüntetők.
5
18685
2714
gátolandó a tüntetők közti forgalmazást.
00:34
My parentsszülők, who emigratedemigrált
to the UnitedEgyesült StatesÁllamok in the latekéső 1960s,
6
22316
4669
Az USA-ba 1960 végén bevándorolt szüleim
00:39
spendtölt substantiallényeges time there,
7
27009
1794
jelentős időt töltenek ott,
00:40
where all of my largenagy,
extendedkiterjedt familycsalád liveélő.
8
28827
3153
ahol nagyobb családom él.
00:44
When I would call my familycsalád in TehranTeherán
9
32832
3129
Amikor családomat hívtam Teheránban
00:47
duringalatt some of the mosta legtöbb violenterőszakos
crackdownscrackdowns of the protesttiltakozás,
10
35985
3452
a tüntetések legerőszakosabb
leverése idején,
00:51
noneegyik sem of them daredmertek discussmegvitatása
with me what was happeningesemény.
11
39461
3252
senki sem merte megvitatni
az eseményeket velem.
00:55
They or I knewtudta to quicklygyorsan steerSteer
the conversationbeszélgetés to other topicstémák.
12
43196
3529
Mindegyikünk gyorsan másra
terelte a beszélgetés témáját.
00:59
All of us understoodmegértett
what the consequenceskövetkezményei could be
13
47163
3380
Mindegyikünk tisztában volt
egy lefülelt ellenzéki tevékenység
következményeivel.
01:02
of a perceivedérzékelt dissidentdisszidens actionakció.
14
50567
2540
01:06
But I still wishszeretnék I could have knownismert
what they were thinkinggondolkodás
15
54095
3469
Ám mégis szerettem volna tudni,
hogy mit gondolnak és mit éreznek.
01:09
or what they were feelingérzés.
16
57588
1418
01:12
What if I could have?
17
60217
1393
Mi van, ha tudhattam volna?
01:14
Or more frighteninglyFélelmetesen,
18
62149
1151
De ennél rémisztőbb:
01:15
what if the IranianIráni governmentkormány could have?
19
63324
2761
mi van, ha a kormány tudhatta volna?
01:18
Would they have arrestedletartóztatott them
basedszékhelyű on what theirazok brainsagyvelő revealedkiderült?
20
66695
3244
Letartóztatták volna őket
a fejükben járó gondolataikért?
01:22
That day maylehet be closerközelebb than you think.
21
70933
2944
Közelebb járunk ehhez, mintsem gondolnák.
01:26
With our growingnövekvő capabilitiesképességek
in neuroscienceidegtudomány, artificialmesterséges intelligenceintelligencia
22
74527
3811
Az idegtudomány,
a mesterséges intelligencia
01:30
and machinegép learningtanulás,
23
78362
1703
és a gépi tanulás növekvő
lehetőségeinek hála
01:32
we maylehet soonhamar know a lot more
of what's happeningesemény in the humanemberi brainagy.
24
80089
4075
nemsokára sokkal többet tudhatunk arról,
mi történik az emberi agyban.
01:37
As a bioethicistbioetikus, a lawyerjogász, a philosopherfilozófus
25
85083
3310
Bioetikusként, jogászként, filozófusként
01:40
and an Iranian-AmericanIráni-amerikai,
26
88417
1867
és iráni származású amerikaiként
mélységesen nyugtalanít,
01:42
I'm deeplymélyen concernedaz érintett
about what this meanseszközök for our freedomsszabadságok
27
90308
3787
milyen hatással lesz ez a szabadságunkra,
01:46
and what kindsféle of protectionsvédelem we need.
28
94119
2171
és miféle védelemre lesz szükségünk.
01:48
I believe we need
a right to cognitivemegismerő libertyszabadság,
29
96993
3460
Úgy gondolom, jogunk van
a kognitív szabadsághoz
01:52
as a humanemberi right
that needsigények to be protectedvédett.
30
100477
2892
mint megvédendő emberi joghoz.
01:55
If not, our freedomszabadság of thought,
31
103772
2643
Különben gondolatszabadságunk,
01:58
accesshozzáférés and controlellenőrzés over our ownsaját brainsagyvelő
32
106439
3024
agyunk elérése és irányítása,
mentális magánéletünk veszélybe kerül.
02:01
and our mentalszellemi privacyAdatvédelem will be threatenedfenyegetett.
33
109487
2841
02:05
ConsiderFontolja meg this:
34
113698
1158
Gondoljunk bele:
02:06
the averageátlagos personszemély thinksazt hiszi
thousandsTöbb ezer of thoughtsgondolatok eachminden egyes day.
35
114880
3314
az átlagember fejében naponta
ezernyi gondolat kering.
02:10
As a thought takes formforma,
36
118697
1151
Miközben a gondolat alakot ölt,
02:11
like a mathmatematikai calculationszámítás
or a numberszám, a wordszó,
37
119872
5056
pl. egy matekszámítás, szám vagy szó,
02:16
neuronsneuronok are interactingkölcsönható in the brainagy,
38
124952
2885
az agyban idegsejtek működnek együtt,
02:19
creatinglétrehozása a minisculeapró electricalelektromos dischargementesítés.
39
127861
3088
csöppnyi villamos kisüléseket okozva.
02:23
When you have a dominanturalkodó
mentalszellemi stateállapot, like relaxationkikapcsolódás,
40
131713
3452
Normál elmeállapotban, pl. pihenés esetén
02:27
hundredsszáz and thousandsTöbb ezer of neuronsneuronok
are firingégetés in the brainagy,
41
135189
4175
agysejtek ezrei tüzelnek,
02:31
creatinglétrehozása concurrentegyidejű electricalelektromos dischargeskibocsátások
in characteristicjellegzetes patternsminták
42
139388
4218
s eközben jellemző mintázatú
villamos kisüléseket hoznak létre,
02:35
that can be measuredmért
with electroencephalographyelektroenkefalográfia, or EEGEEG.
43
143630
4865
amelyek EEG-vel mérhetők.
02:41
In facttény, that's what
you're seeinglátás right now.
44
149118
2160
Ezt látják most.
02:43
You're seeinglátás my brainagy activitytevékenység
that was recordedfeljegyzett in realigazi time
45
151956
3964
Fejemre helyezett egyszerű készülékkel
valós időben rögzített
agytevékenységemet látják.
02:47
with a simpleegyszerű deviceeszköz
that was wornkopott on my headfej.
46
155944
2735
02:51
What you're seeinglátás is my brainagy activitytevékenység
when I was relaxednyugodt and curiouskíváncsi.
47
159669
5653
Pihenés közbeni agytevékenységemet
látják, mikor épp érdeklődő vagyok.
02:58
To shareOssza meg this informationinformáció with you,
48
166097
1755
Az információ továbbításához
egy korai, kereskedelemben kapható
EEG-készüléket viseltem,
02:59
I woreviselt one of the earlykorai
consumer-basedfogyasztói alapú EEGEEG deviceskészülékek
49
167876
3020
03:02
like this one,
50
170920
1211
ilyesfélét,
03:04
whichmelyik recordedfeljegyzett the electricalelektromos
activitytevékenység in my brainagy in realigazi time.
51
172155
3988
amely valós időben rögzítette
agyam elektromos tevékenységét.
03:08
It's not unlikenem úgy mint the fitnessfitness trackersnyomozó
that some of you maylehet be wearingfárasztó
52
176849
3826
Hasonlók az egyesek által esetleg
hordott fitnesz-karkötőkhöz,
03:12
to measuremérték your heartszív ratearány
or the stepslépések that you've takentett,
53
180699
3586
melyek a pulzusszámot,
a megtett lépések számát
03:16
or even your sleepalvás activitytevékenység.
54
184309
1587
vagy az alvásunk minőségét mérik.
03:19
It's hardlyalig the mosta legtöbb sophisticatedkifinomult
neuroimagingképalkotó techniquetechnika on the marketpiac.
55
187154
3824
Nem ez a piacon lévő legkifinomultabb
idegi képalkotó technika.
03:23
But it's alreadymár the mosta legtöbb portablehordozható
56
191597
2378
De már ez a legkönnyebben hordozható
03:25
and the mosta legtöbb likelyvalószínűleg to impacthatás
our everydayminden nap liveséletét.
57
193999
3152
és mindennapi életünkre valószínűleg
majd hatást gyakorló változat.
03:29
This is extraordinaryrendkívüli.
58
197915
1503
Egyszerűen elképesztő!
03:31
ThroughKeresztül a simpleegyszerű, wearablehordható deviceeszköz,
59
199442
2505
Egyszerű, viselhető készülékkel
03:33
we can literallyszó szerint see
insidebelül the humanemberi brainagy
60
201971
3548
szó szerint beleláthatunk az emberi agyba,
03:37
and learntanul aspectsszempontok of our mentalszellemi landscapetájkép
withoutnélkül ever utteringforgalomba hozatalához a wordszó.
61
205543
6476
mentalitásunkat föltérképezhetjük
egyetlen szó kimondása nélkül.
03:44
While we can't reliablymegbízhatóan decodedekódolni
complexösszetett thoughtsgondolatok just yetmég,
62
212829
3653
Noha bonyolult gondolatokat
még képtelenek vagyunk dekódolni,
03:48
we can alreadymár gaugenyomtáv a person'sszemély moodhangulat,
63
216506
2519
de már bemérhetjük valaki hangulatát,
03:51
and with the help
of artificialmesterséges intelligenceintelligencia,
64
219049
2873
és az MI segítségével dekódolhatunk
03:53
we can even decodedekódolni
some single-digitegyszámjegyű numbersszám
65
221946
4341
bizonyos egyjegyű számokat
vagy alakzatokat
03:58
or shapesalakzatok or simpleegyszerű wordsszavak
that a personszemély is thinkinggondolkodás
66
226311
4882
vagy egyszerű szavakat,
melyekre a személy gondol,
04:03
or hearingmeghallgatás, or seeinglátás.
67
231217
2189
melyeket hall vagy lát.
04:06
DespiteAnnak ellenére, hogy some inherentvelejáró limitationskorlátozások in EEGEEG,
68
234345
3365
Az EEG eleve meglévő korlátai dacára
04:09
I think it's safebiztonságos to say
that with our advanceselőlegek in technologytechnológia,
69
237734
4720
úgy gondolom, hogy bizton
mondhatjuk: a technika fejlődésével
04:14
more and more of what's happeningesemény
in the humanemberi brainagy
70
242478
3809
az agyunkban lejátszódó folyamatokból
idővel egyre többet fogunk dekódolni.
04:18
can and will be decodeddekódolt over time.
71
246311
2310
04:21
AlreadyMár, usinghasználva one of these deviceskészülékek,
72
249362
2746
E készülékek egyikével
04:24
an epilepticepilepsziás can know
they're going to have an epilepticepilepsziás seizureelkobzás
73
252132
3255
az epilepsziás jelzés kaphat
közelgő rohamáról,
még a kitörése előtt.
04:27
before it happensmegtörténik.
74
255411
1436
04:28
A paraplegicderéktól lefelé bénult can typetípus on a computerszámítógép
with theirazok thoughtsgondolatok aloneegyedül.
75
256871
4603
A végtagbénult számítógépen írhat
csupán gondolatai segítségével.
04:34
A US-basedUSA-beli companyvállalat has developedfejlett
a technologytechnológia to embedbeágyaz these sensorsérzékelők
76
262485
4183
Az egyik USA-székhelyű cég
technológiát fejlesztett ki,
mely a fejtámlába épített érzékelőkkel
04:38
into the headrestfejtámla of automobiliesaz automobilies
77
266692
2230
követi nyomon a sofőr vezetés
közbeni koncentráló-képességét,
04:40
so they can tracknyomon követni driversofőr concentrationkoncentráció,
78
268946
2505
figyelem-elterelődését
és kognitív terhelését.
04:43
distractionzaklatottság and cognitivemegismerő loadBetöltés
while drivingvezetés.
79
271475
2667
04:46
NissanNissan, insurancebiztosítás companiesvállalatok
and AAAAAA have all takentett notejegyzet.
80
274912
4058
A Nissan, biztosítók és az AAA
ezt már tudomásul vették.
04:51
You could even watch this
choose-your-own-adventureválaszt-a-saját-kaland moviefilm
81
279949
4508
Megnézhetjük a The Moment c., "válassz
magadnak kalandot" jellegű filmet,
04:56
"The MomentPillanat," whichmelyik, with an EEGEEG headsetfejhallgató,
82
284481
4240
amely EEG-fejegység útján
05:00
changesváltoztatások the moviefilm
basedszékhelyű on your brain-basedagy-alapú reactionsreakciók,
83
288745
3926
agyi reakcióink alapján
változtatja a film végét,
05:04
givingígy you a differentkülönböző endingbefejező
everyminden time your attentionFigyelem waneswanes.
84
292695
4353
mikor figyelmünk lankad.
05:11
This maylehet all soundhang great,
85
299154
2763
Ez remekül hangozhat,
05:13
and as a bioethicistbioetikus,
86
301941
2189
és bioetikusként
05:16
I am a hugehatalmas proponenttámogatója of empoweringképessé people
87
304154
3613
nagy híve vagyok,
hogy az ember maga gondoskodjék
egészségéről és jólétéről
05:19
to take chargedíj of theirazok ownsaját
healthEgészség and well-beingjólét
88
307791
2616
05:22
by givingígy them accesshozzáférés
to informationinformáció about themselvesmaguk,
89
310431
2918
a kellő információk birtokában,
beleértve ezt az új agydekódoló technikát.
05:25
includingbeleértve this incrediblehihetetlen
newúj brain-decodingagy-dekódolás technologytechnológia.
90
313373
2976
05:29
But I worryaggodalom.
91
317878
1167
De nyugtalan vagyok.
05:31
I worryaggodalom that we will voluntarilyönként
or involuntarilyakaratlanul is give up
92
319736
4760
Nyugtalanít, hogy önkéntesen
vagy önkéntelenül lemondunk
05:36
our last bastionbástya of freedomszabadság,
our mentalszellemi privacyAdatvédelem.
93
324520
4118
szabadságunk utolsó bástyájáról:
mentális magánéletünkről.
05:41
That we will tradekereskedelmi our brainagy activitytevékenység
94
329302
2925
Hogy agytevékenységünket áruba bocsátjuk
05:44
for rebatesárengedmények or discountskedvezmények on insurancebiztosítás,
95
332251
3046
biztosítási árengedmény vagy kedvezmény
05:48
or freeingyenes accesshozzáférés
to social-mediaszociális média accountsfiókok ...
96
336391
2603
vagy ingyen közösségi médiafiókok
05:52
or even to keep our jobsmunkahelyek.
97
340444
1848
vagy munkahelyünk megtartása reményében.
05:54
In facttény, in ChinaKína,
98
342900
1913
Kínában
05:58
the trainvonat driversillesztőprogramok on
the Beijing-ShanghaiPeking – Sanghaj high-speedMagassebesség railvasút,
99
346199
5897
a Peking–Sanghaj expressz vezetőinek –
06:04
the busiestlegforgalmasabb of its kindkedves in the worldvilág,
100
352120
2532
ez a világ egyik legforgalmasabb vonata –
06:06
are requiredkívánt to wearviselet EEGEEG deviceskészülékek
101
354676
2476
kötelező EEG-készüléket hordaniuk,
06:09
to monitormonitor theirazok brainagy activitytevékenység
while drivingvezetés.
102
357176
2427
amely vonatvezetés közbeni
agytevékenységüket követi.
06:12
AccordingSzerint to some newshírek sourcesforrás,
103
360157
2226
Egyes hírforrások szerint
kínai állami vállalatoknál
06:14
in government-runkormány-run factoriesgyárak in ChinaKína,
104
362407
2679
06:17
the workersmunkások are requiredkívánt to wearviselet
EEGEEG sensorsérzékelők to monitormonitor theirazok productivitytermelékenység
105
365110
5364
a munkásoknak termelékenységüket s érzelmi
állapotukat figyelő EEG-érzékelőket
06:22
and theirazok emotionalérzelmi stateállapot at work.
106
370498
2115
kötelező viselniük.
06:25
WorkersMunkavállalók are even sentküldött home
107
373267
2310
A dolgozókat még haza is küldik,
06:27
if theirazok brainsagyvelő showelőadás less-than-stellarkisebb, mint a csillagos
concentrationkoncentráció on theirazok jobsmunkahelyek,
108
375601
4054
ha agyuk az elvártnál kevésbé
összpontosít a munkára
06:31
or emotionalérzelmi agitationagitáció.
109
379679
2122
vagy érzelmileg zaklatottak.
06:35
It's not going to happentörténik tomorrowholnap,
110
383189
1745
Ez nem holnap köszönt be,
06:36
but we're headedfejes to a worldvilág
of brainagy transparencyátláthatóság.
111
384958
3086
de az agyba való belelátás
világába tartunk.
06:40
And I don't think people understandmegért
that that could changeváltozás everything.
112
388537
3440
Kétlem, hogy az emberek fölfognák,
hogy ez mindent megváltoztathat.
06:44
Everything from our definitionsdefiníciók
of dataadat privacyAdatvédelem to our lawstörvények,
113
392474
3675
Mindent – az adatvédelem
fogalmától a törvényekig,
06:48
to our ideasötletek about freedomszabadság.
114
396173
1800
a szabadságra vonatkozó eszmékig.
06:50
In facttény, in my lablabor at DukeHerceg UniversityEgyetem,
115
398731
3077
A Duke Egyetemen lévő laboromban
06:53
we recentlymostanában conductedlefolytatott a nationwideországos studytanulmány
in the UnitedEgyesült StatesÁllamok
116
401832
3175
nemrég az USA-ra vonatkozó
országos kutatást végeztünk,
06:57
to see if people appreciatedméltányol
117
405031
1959
hogy megtudjuk,
értékelik-e az agyi információ
bizalmas voltát az emberek.
06:59
the sensitivityérzékenység
of theirazok brainagy informationinformáció.
118
407014
2071
07:02
We askedkérdezte people to ratearány
theirazok perceivedérzékelt sensitivityérzékenység
119
410356
3356
Fölkértük őket, rangsorolják,
hogy milyen mértékűnek érzik
07:05
of 33 differentkülönböző kindsféle of informationinformáció,
120
413736
2231
33 információtípus bizalmas voltát,
07:07
from theirazok socialtársadalmi securityBiztonság numbersszám
121
415991
2220
tébészámuktól kezdve
07:10
to the contenttartalom
of theirazok phonetelefon conversationsbeszélgetések,
122
418235
2597
telefon-beszélgetésük tartalmán,
07:12
theirazok relationshipkapcsolat historytörténelem,
123
420856
2193
kapcsolataik történetén,
érzelmeiken, szorongásukon át
07:15
theirazok emotionsérzelmek, theirazok anxietyszorongás,
124
423073
1942
07:17
the mentalszellemi imagesképek in theirazok mindelme
125
425039
1946
agyukban megjelenő mentális képekig
07:19
and the thoughtsgondolatok in theirazok mindelme.
126
427009
1538
és gondolatokig bezárólag.
07:21
ShockinglyMegdöbbentően, people ratednévleges theirazok socialtársadalmi
securityBiztonság numberszám as farmessze more sensitiveérzékeny
127
429481
5229
Döbbenetes, hogy tébészámukat
sokkal bizalmasabbnak értékelték,
07:26
than any other kindkedves of informationinformáció,
128
434734
2203
mint más egyéb információkat,
07:28
includingbeleértve theirazok brainagy dataadat.
129
436961
2435
beleértve agyuk adatait.
07:32
I think this is because
people don't yetmég understandmegért
130
440380
3216
Szerintem azért, mert még nem értik
07:35
or believe the implicationskövetkezményei
of this newúj brain-decodingagy-dekódolás technologytechnológia.
131
443620
4063
vagy nem hiszik el
az agydekódoló technika horderejét.
07:40
After all, if we can know
the innerbelső workingsműködésébe of the humanemberi brainagy,
132
448629
3289
Végtére is, ha rájövünk
az emberi agy belső működésére,
07:43
our socialtársadalmi securityBiztonság numbersszám
are the leastlegkevésbé of our worriesgond.
133
451942
2706
a tébészámunk izgat minket a legkevésbé.
07:46
(LaughterNevetés)
134
454672
1285
(Nevetés)
07:47
Think about it.
135
455981
1167
Gondoljanak bele!
07:49
In a worldvilág of totalteljes brainagy transparencyátláthatóság,
136
457172
2396
Az agyba való teljes belelátás világában
07:51
who would daremerészel have
a politicallypolitikailag dissidentdisszidens thought?
137
459592
2429
ki merészel majd ellenzéki
gondolatot forgatni a fejében?
07:55
Or a creativekreatív one?
138
463279
1541
Vagy alkotó gondolatot?
07:57
I worryaggodalom that people will self-censoröncenzúrázható
139
465503
3476
Az aggaszt, hogy az emberek
majd öncenzúrához folyamodnak
08:01
in fearfélelem of beinglény ostracizedkiközösítik by societytársadalom,
140
469003
3302
a társadalomból való
kiközösítéstől tartva,
08:04
or that people will loseelveszít theirazok jobsmunkahelyek
because of theirazok waningfogyó attentionFigyelem
141
472329
3813
vagy mert félnek, lankadó figyelmük,
érzelmi bizonytalanságuk miatt
08:08
or emotionalérzelmi instabilityinstabilitás,
142
476166
2150
elvesztik állásukat,
08:10
or because they're contemplatingfontolgatják
collectivekollektív actionakció againstellen theirazok employersa munkáltatók.
143
478340
3550
vagy mert munkaadójuk ellen
közös fellépést fontolgatnak.
08:14
That comingeljövetel out
will no longerhosszabb be an optionválasztási lehetőség,
144
482478
3177
Az előbújás, a coming out
ezentúl már nem jut szerephez,
08:17
because people'semberek brainsagyvelő will long agoezelőtt
have revealedkiderült theirazok sexualszexuális orientationtájékozódás,
145
485679
5067
mert az agy már rég elárulta
az illető nemi orientációját,
08:22
theirazok politicalpolitikai ideologyideológia
146
490770
1822
politikai ideológiáját
08:24
or theirazok religiousvallási preferencesbeállítások,
147
492616
2025
vagy vallási meggyőződését,
08:26
well before they were readykész
to consciouslytudatosan shareOssza meg that informationinformáció
148
494665
3080
jóval azelőtt, hogy készen álltak
mással tudatosan
megosztani az információt.
08:29
with other people.
149
497769
1253
08:31
I worryaggodalom about the abilityképesség of our lawstörvények
to keep up with technologicaltechnikai changeváltozás.
150
499565
4912
Nyugtalanít, hogy törvényeink képesek-e
lépést tartani a műszaki változásokkal?
08:36
Take the First AmendmentMódosítás
of the US ConstitutionAlkotmány,
151
504986
2320
Az USA alkotmányának első kiegészítése
08:39
whichmelyik protectsvédi a freedomszabadság of speechbeszéd.
152
507330
1958
védi a szólásszabadságot.
08:41
Does it alsois protectvéd freedomszabadság of thought?
153
509312
1927
De a gondolatszabadságot is védi?
08:43
And if so, does that mean that we're freeingyenes
to alterAlter our thoughtsgondolatok howeverazonban we want?
154
511944
4169
Ám ha így van is, tetszés szerint szabadon
megváltoztathatjuk gondolatainkat?
08:48
Or can the governmentkormány or societytársadalom tell us
what we can do with our ownsaját brainsagyvelő?
155
516137
4674
Vagy az állam vagy a társadalom
írhatja elő, mit tehetünk az agyunkkal?
08:53
Can the NSANSA spykém on our brainsagyvelő
usinghasználva these newúj mobileMobil deviceskészülékek?
156
521591
3717
Fürkészheti-e agyunkat
az NSA az új mobileszközökkel?
08:58
Can the companiesvállalatok that collectgyűjt
the brainagy dataadat throughkeresztül theirazok applicationsalkalmazások
157
526053
4119
Alkalmazásaikkal agyunk
adatait gyűjtő cégek
09:02
sellelad this informationinformáció to thirdharmadik partiesa felek?
158
530196
2074
eladhatják-e harmadik félnek az infót?
09:05
Right now, no lawstörvények preventmegelőzése them
from doing so.
159
533174
3222
Jelenleg ezt semmilyen
törvény sem tiltja nekik.
09:09
It could be even more problematicproblematikus
160
537203
2025
Ez még nagyobb gondot okozhat
09:11
in countriesországok that don't shareOssza meg
the sameazonos freedomsszabadságok
161
539252
2519
azokban az országokban,
amelyek nem vallják magukénak
09:13
enjoyedélvezte by people in the UnitedEgyesült StatesÁllamok.
162
541795
2103
az USA-ban élvezett szabadságjogokat.
09:16
What would'vemár happenedtörtént duringalatt
the IranianIráni GreenZöld MovementMozgás
163
544883
3787
Mi történt volna
az Iráni Zöld Mozgalom idején,
09:20
if the governmentkormány had been
monitoringmegfigyelés my family'scsalád brainagy activitytevékenység,
164
548694
3901
ha az állam figyelte volna
családom agytevékenységét,
09:24
and had believedvéljük them
to be sympatheticrokonszenvező to the protesterstüntetők?
165
552619
4007
a tiltakozókkal rokonszenvezőnek
minősítve őket?
09:30
Is it so far-fetchedtúlzás to imagineKépzeld el a societytársadalom
166
558091
3047
Túlzás elképzelni olyan társadalmat,
09:33
in whichmelyik people are arrestedletartóztatott
basedszékhelyű on theirazok thoughtsgondolatok
167
561162
2842
amelyben valakit letartóztatnak,
09:36
of committingelkövetése a crimebűn,
168
564028
1167
csak mert gondolt bűntett elkövetésére,
09:37
like in the science-fictionSci-Fi
dystopiandisztópikus societytársadalom in "MinorityKisebbségi ReportJelentés."
169
565219
4312
mint a Különvélemény c. sci-fi film
jövőbeni társadalmában?
09:42
AlreadyMár, in the UnitedEgyesült StatesÁllamok, in IndianaIndiana,
170
570286
4323
Az USA Indiana államában már
09:46
an 18-year-old-éves was chargedtöltött
with attemptingmegkísérlése to intimidatemegfélemlít his schooliskola
171
574633
4937
iskolája megfélemlítésével
vádoltak meg egy 18 évest,
09:51
by postingpostázás a videovideó- of himselfsaját maga
shootinglövés people in the hallwayselőszobák ...
172
579594
3309
aki videót posztolt ki magáról,
melyben emberre lő az előcsarnokban...
09:55
ExceptKivéve the people were zombieszombik
173
583881
3007
Noha az emberek zombik voltak,
09:58
and the videovideó- was of him playingjátszik
an augmented-realitykibővített valóság videovideó- gamejátszma, meccs,
174
586912
5047
és a filmen az illető a kiterjesztett
valóság videojátékkal játszik,
10:03
all interpretedértelmezni to be a mentalszellemi projectionvetítés
of his subjectiveszubjektív intentelszánt.
175
591983
4772
mégis mindent szubjektív szándéka
mentális kivetítéseként értékeltek.
10:10
This is exactlypontosan why our brainsagyvelő
need specialkülönleges protectionvédelem.
176
598456
4612
Agyunknak ezért kell különleges védelem.
10:15
If our brainsagyvelő are just as subjecttantárgy
to dataadat trackingkövetés and aggregationÖsszesítés
177
603092
3556
Ha agyunk épp annyira
adatkövetés és adatösszesítés tárgya,
10:18
as our financialpénzügyi recordsfeljegyzések and transactionstranzakciók,
178
606672
2532
mint számlakivonataink
és banki ügyleteink,
10:21
if our brainsagyvelő can be hackedcsapkodott
and trackedlánctalpas like our onlineonline activitiestevékenységek,
179
609228
4285
ha agyunkat meghekkelhetik s lekövethetik,
mint internetes tevékenységeinket,
10:25
our mobileMobil phonestelefonok and applicationsalkalmazások,
180
613537
2361
mobiltelefonunkat és alkalmazásainkat,
10:27
then we're on the brinkküszöbén of a dangerousveszélyes
threatfenyegetés to our collectivekollektív humanityemberiség.
181
615922
4269
akkor fajunk fenyegetettségének
már a határán állunk.
10:33
Before you panicpánik,
182
621406
1309
Mielőtt bepánikolnának,
10:36
I believe that there are solutionsmegoldások
to these concernsaggodalmak,
183
624012
3144
közlöm, hogy van megoldás e félelmekre,
10:39
but we have to startRajt by focusingösszpontosítás
on the right things.
184
627180
2825
de a lényeges dolgokkal kell kezdenünk.
10:42
When it comesjön to privacyAdatvédelem
protectionsvédelem in generalTábornok,
185
630580
2921
A magánélet általános védelme ügyében
10:45
I think we're fightingharcoló a losingvesztes battlecsata
186
633525
1826
szerintem vesztett csatát vívunk,
10:47
by tryingmegpróbálja to restrictkorlátoz
the flowfolyam of informationinformáció.
187
635375
2858
ha az információ-áramlást
törekszünk korlátozni.
10:50
InsteadEhelyett, we should be focusingösszpontosítás
on securingbiztosítása rightsjogok and remediesjogorvoslati
188
638257
4057
Helyette az információval való
visszaélésekkel kapcsolatos jogok
és jogorvoslatok megerősítésére
kell összpontosítanunk.
10:54
againstellen the misusevisszaélés of our informationinformáció.
189
642338
2275
10:57
If people had the right to decidedöntsd el
how theirazok informationinformáció was sharedmegosztott,
190
645291
3285
Ha meglenne a jogunk, hogy eldöntsük,
mely rólunk szóló infót adunk közre,
11:00
and more importantlyfontosabb, have legaljogi redressjogorvoslati
191
648600
2921
vagy ami még fontosabb:
jogorvoslat állna rendelkezésünkre,
11:03
if theirazok informationinformáció
was misusedvisszaélnek againstellen them,
192
651545
2428
ha az infót kárunkra használták,
11:05
say to discriminatemegkülönböztetést againstellen them
in an employmentfoglalkoztatás settingbeállítás
193
653997
2786
mondjuk, munkahelyen, egészségügyben
11:08
or in healthEgészség caregondoskodás or educationoktatás,
194
656807
2785
vagy oktatásban diszkrimináltak vele,
11:11
this would go a long way to buildépít trustbizalom.
195
659616
2571
ez sokat segítene a bizalom kiépítésében.
11:14
In facttény, in some instancespéldányok,
196
662843
1718
Bizonyos esetekben
11:16
we want to be sharingmegosztás more
of our personalszemélyes informationinformáció.
197
664585
3524
több személyes adatot
szeretnénk közreadni.
11:20
StudyingTanul aggregatedösszesített informationinformáció
can tell us so much
198
668697
3047
Sokatmondók lehetnek
egészségünkről vagy jólétünkről
szóló összegzett adataink,
11:23
about our healthEgészség and our well-beingjólét,
199
671768
2747
11:26
but to be ableképes to safelybiztonságosan shareOssza meg
our informationinformáció,
200
674539
3313
de biztonságos közreadásukhoz
a mentális magánéletünk megóvásának
különleges védelmére van szükség.
11:29
we need specialkülönleges protectionsvédelem
for mentalszellemi privacyAdatvédelem.
201
677876
3223
11:33
This is why we need
a right to cognitivemegismerő libertyszabadság.
202
681832
3147
Ezért van szükség
a kognitív szabadság jogára.
11:37
This right would securebiztonságos for us
our freedomszabadság of thought and ruminationkérődzés,
203
685543
4079
E jog megóvja számunkra a gondolat
és az elmélkedés szabadságát,
11:41
our freedomszabadság of self-determinationönrendelkezés,
204
689646
2540
az önrendelkezés szabadságát,
11:44
and it would insurebiztosítására that we have
the right to consentbeleegyezés to or refusehulladékgyűjtő
205
692210
4390
s ez megadja a jogát,
hogy egyetértsünk vagy elutasítsuk,
11:48
accesshozzáférés and alterationmegváltoztatása
of our brainsagyvelő by othersmások.
206
696624
2857
hogy mások hozzáférjenek
agyunkhoz, és változtassanak rajta.
11:51
This right could be recognizedelismert
207
699811
2112
E jogot el kell ismernie
11:53
as partrész of the UniversalUniverzális DeclarationNyilatkozat
of HumanEmberi RightsJogok,
208
701947
2883
az Egyetemes Emberi Jogok Nyilatkozatának,
11:56
whichmelyik has establishedalapított mechanismsmechanizmusok
209
704854
2388
amely mechanizmusokat hozott létre
11:59
for the enforcementvégrehajtás
of these kindsféle of socialtársadalmi rightsjogok.
210
707266
2856
az efféle társadalmi jogok alkalmazására.
12:03
DuringSorán the IranianIráni GreenZöld MovementMozgás,
211
711872
2070
Az Iráni Zöld Mozgalom idején
12:05
the protesterstüntetők used the internetInternet
and good old-fashionedrégimódi wordszó of mouthszáj
212
713966
5186
az internetet és a jó öreg élőszót
használták a tüntetők
12:11
to coordinatekoordináta theirazok marchesindulók.
213
719176
1948
felvonulásaik szervezésére.
12:14
And some of the mosta legtöbb oppressiveelnyomó
restrictionskorlátozások in IranIrán
214
722238
2769
Ennek eredményeként oldották föl Iránban
12:17
were liftedfelemelte as a resulteredmény.
215
725031
1877
a leginkább elnyomó korlátozásokat.
12:20
But what if the IranianIráni governmentkormány
had used brainagy surveillancefelügyelet
216
728047
4087
És ha az iráni kormány a tiltakozás
földerítésére és megelőzésére
12:24
to detectfelismerni and preventmegelőzése the protesttiltakozás?
217
732158
3061
az agyak megfigyelését alkalmazta volna?
12:28
Would the worldvilág have ever heardhallott
the protesters'tüntetők criessír?
218
736847
3176
Meghallotta volna a világ
a tiltakozók kiáltását?
12:33
The time has come for us to call
for a cognitivemegismerő libertyszabadság revolutionforradalom.
219
741732
5121
Eljött az idő, hogy a kognitív
szabadság forradalmát követeljük.
12:39
To make sure that we responsiblyfelelősségteljesen
advanceelőleg technologytechnológia
220
747559
3264
Hogy biztosak legyünk: felelősségteljesen
fejlesztjük a technikát,
12:42
that could enableengedélyezze us to embraceölelés the futurejövő
221
750847
2978
amellyel magunkévá tehetjük a jövőt,
12:45
while fiercelyhevesen protectingvédelme all of us
from any personszemély, companyvállalat or governmentkormány
222
753849
6717
miközben hevesen óvjuk mindannyiunkat
bárkitől: személytől, cégtől, államtól,
12:52
that attemptspróbálkozás to unlawfullyjogellenesen accesshozzáférés
or alterAlter our innermostlegbelső liveséletét.
223
760590
5040
mely megkísérli, hogy jogellenesen
beavatkozzon legbensőbb életünkbe.
12:58
Thank you.
224
766659
1174
Köszönöm.
12:59
(ApplauseTaps)
225
767857
3492
(Taps)
Translated by Peter Pallós
Reviewed by Beatrix Turán

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com