ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Teknoloji zihinlerimizi okumaya başladığında mahremiyetimizi nasıl koruyacağız?

Filmed:
1,819,292 views

Hukuk profesörü ve etik bilimci Nita Farahany beyin aktivitelerimizi deşifre edebilen, düşüncelerimizi açık eden bir teknolojiden ve bunların bizde yaratacağı hislerden bahsediyor. Peki bütün bunlar, hali hazırda yara almış mahremiyet hissimiz için ne anlama geliyor? Bu ikaz niteliğindeki konuşmasında Farahany, ("Azınlık Raporu" filmindeki gibi) aklından suç işlemeyi şöyle bir geçiren insanların tutuklandığı ve özel şirketlerin beyin verilerimizi sattığı bir topluma karşı bizleri uyarıyor. Devamında ise düşünce ve karar mekanizmamızın özgürlüğünü tesis edecek bilişsel özgürlük hakkına dair gerekçelerini açıklıyor.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsay followingtakip etme
the 2009 presidentialCumhurbaşkanlığı electionseçim in Iranİran,
0
1096
4714
2009 yılında İran'da gerçekleşen
başkanlık seçimlerini takip eden aylarda,
00:17
protestsprotestolar eruptedpatlak acrosskarşısında the countryülke.
1
5834
2894
ülkenin dört bir yanında
protestolar patlak verdi.
00:21
The Iranianİran governmenthükümet
violentlyşiddetle suppressedbastırılmış
2
9685
2896
İran hükûmeti bu protestoları
şiddet kullanarak bastırdı,
00:24
what camegeldi to be knownbilinen
as the Iranianİran GreenYeşil MovementHareketi,
3
12605
3979
sonradan buna
İran Yeşil Hareketi adı verildi.
00:28
even blockingengelleme mobileseyyar signalssinyalleri
4
16608
2053
Cep telefonu sinyalleri bile
bloke edilmişti,
00:30
to cutkesim off communicationiletişim
betweenarasında the protestersprotestocular.
5
18685
2714
amaçları, protestocular arasındaki
iletişimi engellemekti.
00:34
My parentsebeveyn, who emigratedgöç
to the UnitedAmerika StatesBirleşik in the lategeç 1960s,
6
22316
4669
1960'ların sonuna doğru
Birleşik Devletler'e göç eden ailem,
00:39
spendharcamak substantialönemli time there,
7
27009
1794
bütün sülalemizin bulunduğu İran'da
00:40
where all of my largegeniş,
extendedGenişletilmiş familyaile livecanlı.
8
28827
3153
hatırı sayılır bir süre geçirdiler.
00:44
When I would call my familyaile in TehranTehran
9
32832
3129
Protestoların en şiddetli şekilde
bastırıldığı dönemde,
00:47
duringsırasında some of the mostçoğu violentşiddetli
crackdownscrackdowns of the protestprotesto,
10
35985
3452
Tahran'daki ailemi aradığımda
00:51
noneYok of them daredcesaret discusstartışmak
with me what was happeningolay.
11
39461
3252
hiçbiri neler olup bittiğine dair
yorum yapmaya cesaret edemiyordu.
00:55
They or I knewbiliyordum to quicklyhızlı bir şekilde steerSteer
the conversationkonuşma to other topicskonular.
12
43196
3529
Ya onlar ya da ben lafı hızlıca
başka konulara getiriyorduk.
00:59
All of us understoodanladım
what the consequencessonuçları could be
13
47163
3380
Hepimiz, fark edilecek herhangi bir
muhalif hareketin sonuçlarının
01:02
of a perceivedalgılanan dissidentmuhalif actionaksiyon.
14
50567
2540
neler olabileceğini biliyorduk.
01:06
But I still wishdilek I could have knownbilinen
what they were thinkingdüşünme
15
54095
3469
Ben yine de onların ne düşündüğünü
ya da neler hissettiğini
01:09
or what they were feelingduygu.
16
57588
1418
bilebilmek isterdim.
01:12
What if I could have?
17
60217
1393
Düşüncelerini bilmek nasıl olurdu?
01:14
Or more frighteninglykorkutucu,
18
62149
1151
Ya da daha korkuncu,
İran hükûmeti, ailemin düşüncelerini
öğrenebilseydi ne olurdu?
01:15
what if the Iranianİran governmenthükümet could have?
19
63324
2761
01:18
Would they have arrestedtutuklandı them
basedmerkezli on what theironların brainsbeyin revealedortaya?
20
66695
3244
Sadece düşüncelerine
dayanarak ailemi tutuklarlar mıydı?
01:22
That day mayMayıs ayı be closeryakın than you think.
21
70933
2944
Bu, sandığınızdan daha kısa
bir sürede gerçek olabilir.
01:26
With our growingbüyüyen capabilitiesyetenekleri
in neurosciencenörobilim, artificialyapay intelligencezeka
22
74527
3811
Nöroloji biliminde, yapay zekâda
ve makine öğreniminde
gelişmekte olan becerilerimiz sayesinde
01:30
and machinemakine learningöğrenme,
23
78362
1703
01:32
we mayMayıs ayı soonyakında know a lot more
of what's happeningolay in the humaninsan brainbeyin.
24
80089
4075
insan beyninde ne olup bittiği konusunda
daha fazla bilgi sahibi olabileceğiz.
01:37
As a bioethicistbioethicist, a lawyeravukat, a philosopherfilozof
25
85083
3310
Bir biyoetik uzmanı, avukat, felsefeci
01:40
and an Iranian-Americanİran-Amerika,
26
88417
1867
ve İran kökenli bir Amerikalı olarak
01:42
I'm deeplyderinden concernedilgili
about what this meansanlamına geliyor for our freedomsözgürlükler
27
90308
3787
bu durumun özgürlüğümüz için
ifade ettikleri ve ihtiyaç duyacağımız
01:46
and what kindsçeşit of protectionskorumaları we need.
28
94119
2171
koruma yöntemleri konusunda endişeliyim.
01:48
I believe we need
a right to cognitivebilişsel libertyözgürlük,
29
96993
3460
Bence bilişsel özgürlük noktasında
yeni bir hakkımız olması gerekiyor;
01:52
as a humaninsan right
that needsihtiyaçlar to be protectedkorumalı.
30
100477
2892
korunması gereken bir insan hakkı.
01:55
If not, our freedomözgürlük of thought,
31
103772
2643
Aksi takdirde düşünce özgürlüğümüz,
01:58
accesserişim and controlkontrol over our ownkendi brainsbeyin
32
106439
3024
beynimize erişim ve hakimiyetimiz
02:01
and our mentalzihinsel privacyGizlilik will be threatenedtehdit.
33
109487
2841
ve zihinsel mahremiyetimiz
tehlikeye girecek.
02:05
ConsiderDüşünün this:
34
113698
1158
Şöyle düşünün:
02:06
the averageortalama personkişi thinksdüşünüyor
thousandsbinlerce of thoughtsdüşünceler eachher day.
35
114880
3314
Ortalama bir insanın aklından
gün boyunca binlerce şey geçer.
Bir düşünce şekil alırken
02:10
As a thought takes formform,
36
118697
1151
02:11
like a mathmatematik calculationhesaplama
or a numbernumara, a wordsözcük,
37
119872
5056
matematiksel bir hesaplama
ya da bir sayı, bir kelime gibi,
02:16
neuronsnöronlar are interactingetkileşim in the brainbeyin,
38
124952
2885
beyindeki nöronlar birbirleriyle
etkileşim halindedir,
02:19
creatingoluşturma a minisculeMinik electricalelektrik dischargedeşarj.
39
127861
3088
çok ufak boyutlarda
elektriksel deşarj gerçekleşir.
02:23
When you have a dominantbaskın
mentalzihinsel statebelirtmek, bildirmek, like relaxationgevşeme,
40
131713
3452
Dinlenmek gibi daha yoğun
bir ruh hali içindeyken
02:27
hundredsyüzlerce and thousandsbinlerce of neuronsnöronlar
are firingateş in the brainbeyin,
41
135189
4175
beyninizdeki yüz binlerce
nöron kıvılcım saçar
02:31
creatingoluşturma concurrenteş zamanlı electricalelektrik dischargesdeşarj
in characteristickarakteristik patternsdesenler
42
139388
4218
ve beyin akımyazım, kısaca EEG ile
ölçülebilen karakteristik düzenlerde
02:35
that can be measuredölçülü
with electroencephalographyElektroansefalografi, or EEGEEG.
43
143630
4865
eş zamanlı elektriksel
deşarj gerçekleştirir.
02:41
In factgerçek, that's what
you're seeinggörme right now.
44
149118
2160
Aslında, şu anda
baktığınız şey tam olarak bu.
02:43
You're seeinggörme my brainbeyin activityaktivite
that was recordedkaydedilmiş in realgerçek time
45
151956
3964
Yalnızca kafama taktığım basit bir cihazla
gerçek-zamanlı
beyin aktivitelerimi izlemektesiniz.
02:47
with a simplebasit devicecihaz
that was wornsöz konusu ürün on my headkafa.
46
155944
2735
02:51
What you're seeinggörme is my brainbeyin activityaktivite
when I was relaxedrahat and curiousMeraklı.
47
159669
5653
Bunlar, ben rahatken ve meraklıyken
gerçekleşen beyin aktivitelerim.
Bu bilgiyi sizlerle paylaşmak için
02:58
To sharepay this informationbilgi with you,
48
166097
1755
pazara sürülecek EEG cihazlarının
ilk modellerinden birini taktım,
02:59
I woregiydiği one of the earlyerken
consumer-basedtüketici tabanlı EEGEEG devicescihazlar
49
167876
3020
03:02
like this one,
50
170920
1211
işte bunun gibi
03:04
whichhangi recordedkaydedilmiş the electricalelektrik
activityaktivite in my brainbeyin in realgerçek time.
51
172155
3988
gerçek zamanlı olarak beynimdeki
elektriksel aktiviteyi kayıt ediyordu.
03:08
It's not unlikeaksine the fitnessFitness trackersizci
that some of you mayMayıs ayı be wearinggiyme
52
176849
3826
Akıllı bileklikler gibi değil,
belki bazılarınızda vardır
03:12
to measureölçmek your heartkalp rateoran
or the stepsadımlar that you've takenalınmış,
53
180699
3586
kalp ritminizi ve attığınız adımları sayan
03:16
or even your sleepuyku activityaktivite.
54
184309
1587
ya da uyku aktivitenizi
ölçen aletlerden değil.
03:19
It's hardlyzorlukla the mostçoğu sophisticatedsofistike
neuroimagingbeyin görüntüleme techniqueteknik on the marketpazar.
55
187154
3824
Pazardaki neredeyse en gelişmiş
nörolojik görüntüleme tekniği.
03:23
But it's alreadyzaten the mostçoğu portabletaşınabilir
56
191597
2378
Aralarında en taşınabilir olanı
03:25
and the mostçoğu likelymuhtemelen to impactdarbe
our everydayher gün liveshayatları.
57
193999
3152
ve gündelik yaşantımızı en çok
etkileme potansiyeli olanı bu.
03:29
This is extraordinaryolağanüstü.
58
197915
1503
Bu sıra dışı bir şey.
03:31
ThroughAracılığıyla a simplebasit, wearabletakılabilir devicecihaz,
59
199442
2505
Basit ve kafanıza
geçirebileceğiniz bir cihazla
03:33
we can literallyharfi harfine see
insideiçeride the humaninsan brainbeyin
60
201971
3548
gerçek anlamda insan
beyninin içini görebiliyor
03:37
and learnöğrenmek aspectsyönleri of our mentalzihinsel landscapepeyzaj
withoutolmadan ever utteringâh a wordsözcük.
61
205543
6476
ve tek kelime etmeden zihinsel
haritasını çıkarabiliyoruz.
03:44
While we can't reliablygüvenilir decodekod çözme
complexkarmaşık thoughtsdüşünceler just yethenüz,
62
212829
3653
Henüz karmaşık düşüncelerin
şifrelerini çözemesek de
03:48
we can alreadyzaten gaugeölçer a person'skişiler moodruh hali,
63
216506
2519
bir insanın ruhsal durumunu ölçebiliyor
03:51
and with the help
of artificialyapay intelligencezeka,
64
219049
2873
ve yapay zekanın da yardımıyla
03:53
we can even decodekod çözme
some single-digitTek basamaklı numberssayılar
65
221946
4341
bazı tek haneli sayıları, şekilleri
03:58
or shapesşekiller or simplebasit wordskelimeler
that a personkişi is thinkingdüşünme
66
226311
4882
veya basit kelimeleri tespit edebiliyoruz.
Kişi bunları düşünüyor,
duyuyor ya da görüyor olabilir.
04:03
or hearingişitme, or seeinggörme.
67
231217
2189
04:06
DespiteRağmen some inherentdoğal limitationssınırlamaları in EEGEEG,
68
234345
3365
EEG'de başından beri var olan
bazı engellere rağmen
04:09
I think it's safekasa to say
that with our advancesgelişmeler in technologyteknoloji,
69
237734
4720
teknolojideki gelişmelerle birlikte
04:14
more and more of what's happeningolay
in the humaninsan brainbeyin
70
242478
3809
insan beyninde neler olup bittiğini
04:18
can and will be decodeddeşifre over time.
71
246311
2310
zamanla deşifre
edebileceğimizi söyleyebilirim.
04:21
AlreadyZaten, usingkullanma one of these devicescihazlar,
72
249362
2746
Şu an bu aletlerden birini kullanarak
04:24
an epilepticepileptik can know
they're going to have an epilepticepileptik seizurehaciz
73
252132
3255
epilepsisi olan bir kişi,
epilepsi krizi geçireceğini
04:27
before it happensolur.
74
255411
1436
önceden anlayabiliyor.
04:28
A paraplegicBelden aşağısı felçli can typetip on a computerbilgisayar
with theironların thoughtsdüşünceler aloneyalnız.
75
256871
4603
Belden aşağısı felç olan bir kişi, sadece
düşünerek bilgisayar kullanabiliyor.
Birleşik Devletler'de bir şirket,
bu sensörleri arabalarda
04:34
A US-basedABD merkezli companyşirket has developedgelişmiş
a technologyteknoloji to embedGöm these sensorssensörler
76
262485
4183
koltuk başlıklarının içine yerleştirecek
bir teknoloji geliştirdi.
04:38
into the headrestkoltuk başlığına takılan mikrofonlu of automobiliesotomobilleri
77
266692
2230
04:40
so they can trackiz driversürücü concentrationkonsantrasyon,
78
268946
2505
Böylelikle sürücünün konsantrasyonunu,
04:43
distractionoyalama and cognitivebilişsel loadyük
while drivingsürme.
79
271475
2667
dikkatinin dağılmasını
ve bilişsel yükünü takip edebiliyorlar.
04:46
NissanNissan, insurancesigorta companiesşirketler
and AAAAAA have all takenalınmış noteNot.
80
274912
4058
Nissan, sigorta şirketleri ve Amerikan
Otomobil Birliği konuyla yakından ilgili.
04:51
You could even watch this
choose-your-own-adventureseçin-your-kendi-macera moviefilm
81
279949
4508
"Sonunu kendin belirle" filmi olan
"The Moment"ı bile
04:56
"The MomentAn," whichhangi, with an EEGEEG headsetkulaklık,
82
284481
4240
EEG başlığıyla izleyebilirsiniz.
05:00
changesdeğişiklikler the moviefilm
basedmerkezli on your brain-basedbeyin tabanlı reactionsreaksiyonları,
83
288745
3926
Film, sizin beyinsel tepkilerinize
bağlı olarak değişiyor
05:04
givingvererek you a differentfarklı endingbitirme
everyher time your attentionDikkat wanesilgilerini.
84
292695
4353
ve dikkatinizin azaldığı her an
farklı bir son sunuyor.
05:11
This mayMayıs ayı all soundses great,
85
299154
2763
Bu, kulağa harika gelebilir.
Bir biyoetik uzmanı olarak
05:13
and as a bioethicistbioethicist,
86
301941
2189
05:16
I am a hugeKocaman proponentsavunucusu of empoweringgüçlendirici people
87
304154
3613
ben de insanların sağlıkları
ve iyilikleri için
kendileri hakkında bilgiye
erişmelerini sağlayarak
05:19
to take chargeşarj etmek of theironların ownkendi
healthsağlık and well-beingsağlık
88
307791
2616
onları güçlü kılmayı destekleyen
insanlardan biriyim.
05:22
by givingvererek them accesserişim
to informationbilgi about themselveskendilerini,
89
310431
2918
05:25
includingdahil olmak üzere this incredibleinanılmaz
newyeni brain-decodingbeyin çözme technologyteknoloji.
90
313373
2976
Bu yeni ve inanılmaz
beyin deşifre teknolojisi de buna dâhil.
05:29
But I worryendişelenmek.
91
317878
1167
Fakat endişelerim var:
05:31
I worryendişelenmek that we will voluntarilygönüllü olarak
or involuntarilyistemsiz give up
92
319736
4760
İsteyerek veya istemeden özgürlüğümüze ait
son kaleyi de kaybetmekten korkuyorum,
05:36
our last bastionBastion of freedomözgürlük,
our mentalzihinsel privacyGizlilik.
93
324520
4118
yani zihin mahremiyetimizi.
05:41
That we will tradeTicaret our brainbeyin activityaktivite
94
329302
2925
Belki de beyin aktivitelerimizi
ticari şekillerde kullanırız;
05:44
for rebatesindirimler or discountsindirimler on insurancesigorta,
95
332251
3046
sigortada indirim
veya para iadesi almak için
05:48
or freeücretsiz accesserişim
to social-mediaSosyal medya accountshesapları ...
96
336391
2603
ya da sosyal medya hesaplarına
ücretsiz erişim için,
05:52
or even to keep our jobsMeslekler.
97
340444
1848
belki de işimizi kaybetmemek için.
05:54
In factgerçek, in ChinaÇin,
98
342900
1913
Aslına bakarsanız Çin'de
dünyadaki en yoğun hatlardan biri olan
Pekin-Şangay yüksek hızlı tren hattındaki
05:58
the traintren driverssürücüleri on
the Beijing-ShanghaiPekin-Şanghay high-speedyüksek hız raildemiryolu,
99
346199
5897
06:04
the busiesten yoğun of its kindtür in the worldDünya,
100
352120
2532
sürücülerin yolculuk esnasında
06:06
are requiredgereklidir to weargiyinmek EEGEEG devicescihazlar
101
354676
2476
beyin aktivitelerinin görüntülenmesi için
06:09
to monitorizlemek theironların brainbeyin activityaktivite
while drivingsürme.
102
357176
2427
EEG cihazları takmaları gerekiyor.
06:12
AccordingAccording to some newshaber sourceskaynaklar,
103
360157
2226
Bazı haber kaynaklarına göre
06:14
in government-rundevletin işlettiği factoriesfabrikalar in ChinaÇin,
104
362407
2679
Çin'de hükûmetin yönettiği fabrikalarda
06:17
the workersişçiler are requiredgereklidir to weargiyinmek
EEGEEG sensorssensörler to monitorizlemek theironların productivityverimlilik
105
365110
5364
verimliliklerinin ve duygu
durumlarının ölçülmesi için
işçilerin çalışırken
EEG sensörleri takmaları gerek.
06:22
and theironların emotionalduygusal statebelirtmek, bildirmek at work.
106
370498
2115
06:25
Workersİşçiler are even sentgönderilen home
107
373267
2310
Hatta beyinleri işe daha az odaklanmışsa
06:27
if theironların brainsbeyin showgöstermek less-than-stellardaha az yıldız
concentrationkonsantrasyon on theironların jobsMeslekler,
108
375601
4054
veya duygusal gerginlik gösteriyorsa
06:31
or emotionalduygusal agitationajitasyon.
109
379679
2122
işçiler işten çıkarılabiliyorlar.
06:35
It's not going to happenolmak tomorrowyarın,
110
383189
1745
Bahsettiklerim yarın olmayacak
06:36
but we're headedbaşlı to a worldDünya
of brainbeyin transparencyşeffaflık.
111
384958
3086
fakat beyinlerimizin şeffaflaştığı
bir dünyaya doğru ilerliyoruz
ve bence, insanlar bunun her şeyi
değiştirebileceğini anlamıyorlar.
06:40
And I don't think people understandanlama
that that could changedeğişiklik everything.
112
388537
3440
06:44
Everything from our definitionstanımlar
of dataveri privacyGizlilik to our lawsyasalar,
113
392474
3675
Veri gizliliğinden tutun yasalara,
özgürlük hakkındaki düşüncelerimize kadar
06:48
to our ideasfikirler about freedomözgürlük.
114
396173
1800
her şeyin tanımı değişebilir.
06:50
In factgerçek, in my lablaboratuvar at DukeDuke UniversityÜniversitesi,
115
398731
3077
Duke Üniversitesi'ndeki laboratuvarımda
06:53
we recentlyson günlerde conductedyürütülen a nationwideülke çapında studyders çalışma
in the UnitedAmerika StatesBirleşik
116
401832
3175
yakın zamanda Birleşik Devletler çapında
bir çalışma yürüttük.
06:57
to see if people appreciatedtakdir
117
405031
1959
Amacımız, beyindeki bilgiler konusunda
06:59
the sensitivityduyarlılık
of theironların brainbeyin informationbilgi.
118
407014
2071
insanların hassasiyetini ölçmekti.
07:02
We askeddiye sordu people to rateoran
theironların perceivedalgılanan sensitivityduyarlılık
119
410356
3356
Katılımcılardan kendi algılarına göre
hassas olan otuz üç farklı bilgi türünü
07:05
of 33 differentfarklı kindsçeşit of informationbilgi,
120
413736
2231
puanlamalarını istedik.
07:07
from theironların socialsosyal securitygüvenlik numberssayılar
121
415991
2220
Bunlar arasında sosyal güvenlik numaraları
07:10
to the contentiçerik
of theironların phonetelefon conversationskonuşmaları,
122
418235
2597
telefon konuşmalarının içeriği,
07:12
theironların relationshipilişki historytarih,
123
420856
2193
ilişki geçmişleri,
07:15
theironların emotionsduygular, theironların anxietyanksiyete,
124
423073
1942
duyguları, endişeleri,
07:17
the mentalzihinsel imagesGörüntüler in theironların mindus
125
425039
1946
kafalarındaki zihinsel imgeler
07:19
and the thoughtsdüşünceler in theironların mindus.
126
427009
1538
ve düşünceleri de vardı.
07:21
ShockinglyŞok edici, people ratedOy theironların socialsosyal
securitygüvenlik numbernumara as faruzak more sensitivehassas
127
429481
5229
Şaşırtıcı biçimde insanlar
sosyal güvenlik numaralarını,
beyinsel verileri dâhil
07:26
than any other kindtür of informationbilgi,
128
434734
2203
diğer herhangi bir bilgiden
daha özel addediyorlardı.
07:28
includingdahil olmak üzere theironların brainbeyin dataveri.
129
436961
2435
07:32
I think this is because
people don't yethenüz understandanlama
130
440380
3216
Bunu sebebi, insanların
yeni beyin deşifre teknolojisi sonuçlarını
07:35
or believe the implicationsetkileri
of this newyeni brain-decodingbeyin çözme technologyteknoloji.
131
443620
4063
henüz anlayamamaları
ya da buna inanamamaları diye düşünüyorum.
Sonuçta insan beyninin
içsel sürecini bilebilseydik
07:40
After all, if we can know
the inner workingskazı of the humaninsan brainbeyin,
132
448629
3289
sosyal güvenlik numaraları
endişe edeceğimiz son şey olurdu.
07:43
our socialsosyal securitygüvenlik numberssayılar
are the leasten az of our worriesEndişeye.
133
451942
2706
07:46
(LaughterKahkaha)
134
454672
1285
(Gülüşmeler)
07:47
Think about it.
135
455981
1167
Bir düşünün.
07:49
In a worldDünya of totalGenel Toplam brainbeyin transparencyşeffaflık,
136
457172
2396
Beyinlerimizin tamamen
şeffaf olduğu bir dünyada
07:51
who would darecesaret have
a politicallypolitik olarak dissidentmuhalif thought?
137
459592
2429
kim politik muhalif
düşünceye cesaret ederdi?
07:55
Or a creativeyaratıcı one?
138
463279
1541
Yaratıcı düşünmeye?
07:57
I worryendişelenmek that people will self-censorkendinden sansürlü
139
465503
3476
Korkarım, insanlar toplum
tarafından dışlanma korkusuyla
08:01
in fearkorku of beingolmak ostracizedostracized by societytoplum,
140
469003
3302
kendilerine oto-sansür uygulayacaklar
08:04
or that people will losekaybetmek theironların jobsMeslekler
because of theironların waningazalan attentionDikkat
141
472329
3813
ya da iş yerinde dikkat eksikliği,
duygusal dengesizlik yüzünden
veya işverenlere karşı
08:08
or emotionalduygusal instabilitykararsızlık,
142
476166
2150
08:10
or because they're contemplatingdüşünürken
collectivetoplu actionaksiyon againstkarşısında theironların employersİşverenler.
143
478340
3550
kolektif hareketler planladıkları için
işlerinden olacaklar.
08:14
That cominggelecek out
will no longeruzun be an optionseçenek,
144
482478
3177
Söz konusu grevler, artık
seçenek olmaktan çıkacaklar
08:17
because people'sinsanların brainsbeyin will long agoönce
have revealedortaya theironların sexualcinsel orientationYönlendirme,
145
485679
5067
çünkü halihazırda insanların
cinsel yönelimlerine,
08:22
theironların politicalsiyasi ideologyideoloji
146
490770
1822
politik ideolojilerine
08:24
or theironların religiousdini preferencesTercihler,
147
492616
2025
ya da dinsel tercihlerine dair bilgiyi
08:26
well before they were readyhazır
to consciouslybilinçli olarak sharepay that informationbilgi
148
494665
3080
diğer insanlarla bilinçli
şekilde paylaşmadan önce
beyinleri bunları açık etmiş olacak.
08:29
with other people.
149
497769
1253
08:31
I worryendişelenmek about the abilitykabiliyet of our lawsyasalar
to keep up with technologicalteknolojik changedeğişiklik.
150
499565
4912
Yasalarımızın, teknolojik değişimi
yakalama becerileri konusunda endişeliyim.
08:36
Take the First AmendmentDeğişiklik
of the US ConstitutionAnayasa,
151
504986
2320
Birleşik Devletler Yasasının
Birinci Ek Maddesi,
08:39
whichhangi protectskorur freedomözgürlük of speechkonuşma.
152
507330
1958
konuşma özgürlüğünü korumak için vardır.
08:41
Does it alsoAyrıca protectkorumak freedomözgürlük of thought?
153
509312
1927
Peki düşünce özgürlüğünü de koruyor mu?
08:43
And if so, does that mean that we're freeücretsiz
to alterALTER our thoughtsdüşünceler howeverancak we want?
154
511944
4169
Öyleyse istediğimiz şekilde düşüncemizi
tadil etmekte özgür müyüz?
08:48
Or can the governmenthükümet or societytoplum tell us
what we can do with our ownkendi brainsbeyin?
155
516137
4674
Yoksa beynimizle ne yapacağımızı bize
hükûmet ya da toplum mu söyleyecek?
08:53
Can the NSANSA spycasus on our brainsbeyin
usingkullanma these newyeni mobileseyyar devicescihazlar?
156
521591
3717
Ulusal Güvenlik Ajansı bu mobil cihazları
kullanıp beynimizi mi gözetleyecek?
08:58
Can the companiesşirketler that collecttoplamak
the brainbeyin dataveri throughvasitasiyla theironların applicationsuygulamaları
157
526053
4119
Uygulamaları üzerinden
beyinsel veri toplayan şirketler
09:02
sellsatmak this informationbilgi to thirdüçüncü partiespartiler?
158
530196
2074
bunları üçüncü şahıslara satabilecek mi?
09:05
Right now, no lawsyasalar preventönlemek them
from doing so.
159
533174
3222
Şu an bizi bunlardan
koruyacak bir yasa yok.
09:09
It could be even more problematicsorunsal
160
537203
2025
Durum daha sorunlu hâle de gelebilir.
09:11
in countriesülkeler that don't sharepay
the sameaynı freedomsözgürlükler
161
539252
2519
Mesela Birleşik Devletlerdeki
insanların aksine
09:13
enjoyedzevk by people in the UnitedAmerika StatesBirleşik.
162
541795
2103
aynı özgürlüğe sahip olmayan ülkelerde.
Mesela İran'daki Yeşil Hareket esnasında
hükumet ailemin beynini okuyabilseydi,
09:16
What would'veolurdu happenedolmuş duringsırasında
the Iranianİran GreenYeşil MovementHareketi
163
544883
3787
09:20
if the governmenthükümet had been
monitoringizleme my family'sailenin brainbeyin activityaktivite,
164
548694
3901
onların protestoculara sempati
duyduğuna inansaydı
09:24
and had believedinanılır them
to be sympatheticsempatik to the protestersprotestocular?
165
552619
4007
acaba ne olurdu?
09:30
Is it so far-fetchedzoraki to imaginehayal etmek a societytoplum
166
558091
3047
Tıpkı "Azınlık Raporu" filmindeki gibi
insanların suç işlemeye eğilimleri
yüzünden tutuklandığı
09:33
in whichhangi people are arrestedtutuklandı
basedmerkezli on theironların thoughtsdüşünceler
167
561162
2842
09:36
of committingişlemekle a crimesuç,
168
564028
1167
bir bilim kurgu
09:37
like in the science-fictionbilim-kurgu
dystopiandistopik societytoplum in "MinorityAzınlık ReportRapor."
169
565219
4312
ve distopya toplumu düşünmek
çok mu abartılı olur?
09:42
AlreadyZaten, in the UnitedAmerika StatesBirleşik, in IndianaIndiana,
170
570286
4323
Mesela Birleşik Devletler'deki
Indiana Eyaleti'nde
09:46
an 18-year-old-yaşında was chargedyüklü
with attemptingteşebbüs to intimidatekorkutmak his schoolokul
171
574633
4937
insanları koridorda vurduğunu
gösteren bir video yayınlayarak
09:51
by postinggönderme a videovideo of himselfkendisi
shootingçekim people in the hallwayskoridorlar ...
172
579594
3309
okuldakileri korkutmaya çalışan
on sekiz yaşında bir çocuk tutuklandı.
09:55
ExceptHariç the people were zombieszombiler
173
583881
3007
Yalnız videodaki insanlar zombiydiler
09:58
and the videovideo was of him playingoynama
an augmented-realityAugmented-gerçeklik videovideo gameoyun,
174
586912
5047
ve video aslında çocuk, artırılmış
gerçeklik oyunu oynarken çekilmişti,
10:03
all interpretedYorumlanan to be a mentalzihinsel projectionprojeksiyon
of his subjectiveöznel intentniyet.
175
591983
4772
bütün bunlar çocuğun niyetinin
bir yansıması olarak değerlendirildi.
10:10
This is exactlykesinlikle why our brainsbeyin
need specialözel protectionkoruma.
176
598456
4612
İşte tam bu yüzden beyinlerimizin
özellikle sakınılması gerek.
10:15
If our brainsbeyin are just as subjectkonu
to dataveri trackingizleme and aggregationtoplama
177
603092
3556
Beynimizin, finansal amaçlı veri takip
ve toplama işlemine maruz kalması
10:18
as our financialmali recordskayıtlar and transactionshareketleri,
178
606672
2532
10:21
if our brainsbeyin can be hackedkesmek
and trackedizlenen like our onlineinternet üzerinden activitiesfaaliyetler,
179
609228
4285
veya cep telefonlarımız ve uygulamalardaki
çevrimiçi eylemlerimiz gibi
10:25
our mobileseyyar phonestelefonlar and applicationsuygulamaları,
180
613537
2361
beynimize de izinsiz ulaşılması
ve izlenmesi durumunda,
10:27
then we're on the brinkkenar of a dangeroustehlikeli
threattehdit to our collectivetoplu humanityinsanlık.
181
615922
4269
kolektif anlamda insanlığa karşı ciddi
bir tehditle karşı karşıya olabiliriz.
Siz paniklemeden önce şunu söyleyeyim:
10:33
Before you panicPanik,
182
621406
1309
10:36
I believe that there are solutionsçözeltiler
to these concernsendişeler,
183
624012
3144
Bu endişelere dair çözümlerin de
olduğuna inanıyorum
10:39
but we have to startbaşlama by focusingodaklanma
on the right things.
184
627180
2825
fakat işe doğru şeye odaklanarak
başlamamız lazım.
10:42
When it comesgeliyor to privacyGizlilik
protectionskorumaları in generalgenel,
185
630580
2921
Genel anlamda iş mahremiyetin
korunmasına geldiğinde
10:45
I think we're fightingkavga a losingkaybetme battlesavaş
186
633525
1826
bilgi akışını sınırlandırmaya çalışıp
10:47
by tryingçalışıyor to restrictkısıtlamak
the flowakış of informationbilgi.
187
635375
2858
kaybedeceğimiz bir savaş veriyoruz.
10:50
InsteadBunun yerine, we should be focusingodaklanma
on securingsabitleme rightshaklar and remediesilaçlar
188
638257
4057
Onun yerine, bilginin
suistimaline karşı haklarımızı
ve yasal yolları korumaya odaklanmalıyız.
10:54
againstkarşısında the misuseyanlış kullanım of our informationbilgi.
189
642338
2275
10:57
If people had the right to decidekarar ver
how theironların informationbilgi was sharedpaylaşılan,
190
645291
3285
Mesela iş görüşmelerinde,
eğitim veya sağlık hizmetlerinde,
11:00
and more importantlyönemlisi, have legalyasal redresstazminat
191
648600
2921
şahsi bilgileri üzerinden
ayrımcılık yapılmasına karşı,
11:03
if theironların informationbilgi
was misusedkötüye againstkarşısında them,
192
651545
2428
insanlar bilgi paylaşıp paylaşmama
hakkına sahip olsalar
11:05
say to discriminateayırımcılık againstkarşısında them
in an employment settingayar
193
653997
2786
ve daha da önemlisi,
11:08
or in healthsağlık carebakım or educationEğitim,
194
656807
2785
kanuni tazminat hakları olsa
11:11
this would go a long way to buildinşa etmek trustgüven.
195
659616
2571
güven ortamından bahsedebilirdik.
11:14
In factgerçek, in some instancesörnekleri,
196
662843
1718
Aslında bazı durumlarda
11:16
we want to be sharingpaylaşım more
of our personalkişisel informationbilgi.
197
664585
3524
kişisel bilgilerimizi daha fazla
paylaşma heveslisi olabiliyoruz.
11:20
StudyingEğitim aggregatedtoplanan informationbilgi
can tell us so much
198
668697
3047
Birleştirilmiş veriler üzerinde çalışmak,
bize fiziksel ve zihinsel sağlığımız
hakkında çok şey söyleyebilir.
11:23
about our healthsağlık and our well-beingsağlık,
199
671768
2747
11:26
but to be ableyapabilmek to safelygüvenli bir şekilde sharepay
our informationbilgi,
200
674539
3313
Fakat bilgiyi güvenle paylaşabilmek için
11:29
we need specialözel protectionskorumaları
for mentalzihinsel privacyGizlilik.
201
677876
3223
zihinsel mahremiyetimizi özellikle
korumamız gerekiyor.
11:33
This is why we need
a right to cognitivebilişsel libertyözgürlük.
202
681832
3147
Bu sebeple, bilişsel özgürlüğe dair
haklara ihtiyacımız var.
11:37
This right would securegüvenli for us
our freedomözgürlük of thought and ruminationgeviş,
203
685543
4079
Bu hak, düşünce ve otonomi
özgürlüğümüz noktasında
11:41
our freedomözgürlük of self-determinationkendi kaderini tayin,
204
689646
2540
bize güven sağlayacak,
11:44
and it would insuresigorta that we have
the right to consentrazı olmak to or refuseçöp
205
692210
4390
böylelikle beynimize diğerlerinin
erişimi ve müdahalesini
11:48
accesserişim and alterationdeğişiklik
of our brainsbeyin by othersdiğerleri.
206
696624
2857
kabul etme veya reddetme
hakkına sahip olacağız.
11:51
This right could be recognizedtanınan
207
699811
2112
Bu hak,
Evrensel İnsan Hakları Beyannamesi'nin
bir parçası olarak tanınabilir,
11:53
as partBölüm of the UniversalEvrensel DeclarationBildirimi
of Humanİnsan RightsHakları,
208
701947
2883
11:56
whichhangi has establishedkurulmuş mechanismsmekanizmalar
209
704854
2388
ki bu beyanname de
11:59
for the enforcementzorlama
of these kindsçeşit of socialsosyal rightshaklar.
210
707266
2856
benzer sosyal hakların uygulanması için
tesis edilen mekanizmaları oluşturdu.
12:03
DuringSırasında the Iranianİran GreenYeşil MovementHareketi,
211
711872
2070
İran'daki Yeşil Hareket boyunca
12:05
the protestersprotestocular used the internetInternet
and good old-fashionedeski moda wordsözcük of mouthağız
212
713966
5186
eylem koordinasyonu için
protestocular, interneti
12:11
to coordinatekoordinat theironların marchesyürüyüşleri.
213
719176
1948
ve eski usul söylenti
yöntemini kullandılar.
12:14
And some of the mostçoğu oppressivebaskıcı
restrictionskısıtlamalar in Iranİran
214
722238
2769
Bunun bir sonucu olarak
İran'daki en baskıcı yasaklardan
bazıları kaldırıldı.
12:17
were liftedkaldırdı as a resultsonuç.
215
725031
1877
12:20
But what if the Iranianİran governmenthükümet
had used brainbeyin surveillancegözetim
216
728047
4087
Peki ya İran hükûmeti, protestoları
tespit etmek ve önlemek için
12:24
to detectbelirlemek and preventönlemek the protestprotesto?
217
732158
3061
beyin gözetleme yöntemini kullansaydı?
12:28
Would the worldDünya have ever heardduymuş
the protesters'Protestocular criesçığlıkları?
218
736847
3176
Dünya, protestocuların sesini
duyabilir miydi?
12:33
The time has come for us to call
for a cognitivebilişsel libertyözgürlük revolutiondevrim.
219
741732
5121
Hepimiz için bilişsel özgürlük hakkında
yenilik talep etme zamanı geldi.
Geleceği kucaklayarak teknolojiyi
sorumluluk bilinciyle geliştirmek için
12:39
To make sure that we responsiblysorumlu
advanceilerlemek technologyteknoloji
220
747559
3264
12:42
that could enableetkinleştirmek us to embracekucaklamak the futuregelecek
221
750847
2978
derinlerdeki düşüncelerimize
yasa dışı yollarla ulaşmak
12:45
while fiercelyşiddetle protectingkoruyucu all of us
from any personkişi, companyşirket or governmenthükümet
222
753849
6717
veya bunları değiştirmek isteyen kişi,
şirket veya devletlere karşı korunmak için
12:52
that attemptsdenemeler to unlawfullyYasadışı accesserişim
or alterALTER our innermosten içteki liveshayatları.
223
760590
5040
bunu yapmamız gerekiyor.
12:58
Thank you.
224
766659
1174
Teşekkürler.
12:59
(ApplauseAlkış)
225
767857
3492
(Alkış)
Translated by Meltem Erdoğan
Reviewed by Ozay Ozaydin

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com