ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

نیتا ای فراهانی: وقتی تکنولوژی بتواند افکارمان را بخواند، چگونه می‌خواهیم از حریم خصوصی‌مان محافظت کنیم؟

Filmed:
1,819,292 views

وکیل و اخلاق‌گرا نیتا فراهانی می‌گوید، تکنولوژیی که می‌تواند فعالیت مغزی شما را رمزگشایی کند و آنچه شما فکر می‌کنید و احساس می‌کنید را برملا کند در راه است. برای حس خشونتگرای کنونی حریم خصوصی چه معنایی خواهد داشت؟ در گفتاری هشداردهنده، فراهانی درباره جامعه‌ای هشدار می‌دهد که افرادش صرفا به خاطر فکر انجام جرم دستگیر می‌شوند (مانند مورد "گزارش اقلیت") و علاقه‌های خصوصی اطلاعات مغزی مان را می‌فروشند -- و دلیل می‌آورد چرا یک آزادی شناختی که از آزادی فکر و خود-تصمیم گیری ما حمایت می‌کند حق ما است.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsماه ها followingذیل
the 2009 presidentialریاست جمهوری electionانتخابات in Iranایران,
0
1096
4714
در ماه‌های بعد از انتخابات
ریاست جمهوری ۲۰۰۹ در ایران،
00:17
protestsتظاهرات eruptedفوران کرد acrossدر سراسر the countryکشور.
1
5834
2894
اعتراضات تمام کشور را فرا گرفت.
00:21
The Iranianایرانی governmentدولت
violentlyخشونت آمیز suppressedسرکوب
2
9685
2896
حکومت ایران با خشونت
00:24
what cameآمد to be knownشناخته شده
as the Iranianایرانی Greenسبز Movementجنبش,
3
12605
3979
چیزی که بعنوان جنبش سبز ایران
شناخته شد را سرکوب کرد،
00:28
even blockingمسدود کردن mobileسیار signalsسیگنال ها
4
16608
2053
حتی سیگنال‌های موبایل هم مسدود شد
00:30
to cutبرش off communicationارتباطات
betweenبین the protestersمعترضان.
5
18685
2714
تا ارتباط بین معترضان قطع شود.
00:34
My parentsپدر و مادر, who emigratedمهاجرت کرد
to the Unitedیونایتد Statesایالت ها in the lateدیر است 1960s,
6
22316
4669
والدین من، که در اواخر دهه ۱۹۶۰
به ایالات متحده مهاجرت کرده بودند،
00:39
spendخرج کردن substantialقابل توجه است time there,
7
27009
1794
زمان قابل توجهی را آنجا می‌گذراندند،
00:40
where all of my largeبزرگ,
extendedتمدید شده familyخانواده liveزنده.
8
28827
3153
جایی که خانوادهٔ بزرگ
و پرجمعیت من زندگی می‌کنند.
00:44
When I would call my familyخانواده in Tehranتهران
9
32832
3129
وقتی می‌خواهم با خانواده‌ام
در تهران تماس بگیرم
00:47
duringدر حین some of the mostاکثر violentخشن
crackdownsسرکوب of the protestاعتراض,
10
35985
3452
در طول برخی از خشن‌ترین
سرکوب‌های معترضین،
00:51
noneهیچ کدام of them daredجرات کرد discussبحث و گفتگو
with me what was happeningاتفاق می افتد.
11
39461
3252
هیچ کدام از آنها جرئت نمی‌کردند دربارهٔ
آنچه رخ می‌داد به من توضیح بدهند.
00:55
They or I knewمی دانست to quicklyبه سرعت steerهدایت کن
the conversationگفتگو to other topicsموضوعات.
12
43196
3529
آن‌ها یا من می‌دانستیم که باید سریع
بحث را به سمت موضوعات دیگر ببریم.
00:59
All of us understoodفهمید
what the consequencesعواقب could be
13
47163
3380
همهٔ ما فهمیده بودیم که عواقب
01:02
of a perceivedدرک شده dissidentمخالف actionعمل.
14
50567
2540
آشکار شدن اقدام مخالف چه خواهد بود.
01:06
But I still wishآرزو کردن I could have knownشناخته شده
what they were thinkingفكر كردن
15
54095
3469
ولی من هنوز آرزو دارم که می‌توانستم
بدانم در سر آن‌ها چه می‌گذشته
01:09
or what they were feelingاحساس.
16
57588
1418
یا چه احساسی داشتند.
01:12
What if I could have?
17
60217
1393
چه می‌شد اگر می‌توانستم؟
01:14
Or more frighteninglyترسناک,
18
62149
1151
و یا ترسناک‌تر،
01:15
what if the Iranianایرانی governmentدولت could have?
19
63324
2761
چه می‌شد اگر حکومت ایران می‌توانست؟
01:18
Would they have arrestedبازداشت شد them
basedمستقر on what theirخودشان brainsمغز revealedنشان داد?
20
66695
3244
آیا می‌توانستند بر اساس آنچه که در
مغز آن‌ها می‌گذرد دستگیرشان کنند؟
01:22
That day mayممکن است be closerنزدیک تر than you think.
21
70933
2944
چنین روزی از آنچه فکر می‌کنید نزدیکتراست.
01:26
With our growingدر حال رشد capabilitiesقابلیت های
in neuroscienceعلوم اعصاب, artificialمصنوعی intelligenceهوش
22
74527
3811
با رشد قابلیت‌‌هایمان
در علوم اعصاب، هوش مصنوعی،
01:30
and machineدستگاه learningیادگیری,
23
78362
1703
و یادگیری ماشین،
01:32
we mayممکن است soonبه زودی know a lot more
of what's happeningاتفاق می افتد in the humanانسان brainمغز.
24
80089
4075
شاید خیلی زود دربارهٔ آنچه که
در مغز انسان می‌گذرد بیشتر بدانیم.
01:37
As a bioethicistمتخصص بیوتکنولوژی, a lawyerوکیل, a philosopherفیلسوف
25
85083
3310
بعنوان یک متخصص اخلاق زیستی،
یک وکیل، یک فیلسوف،
01:40
and an Iranian-Americanایرانی آمریکایی,
26
88417
1867
و یک ایرانی-آمریکایی،
01:42
I'm deeplyعمیقا concernedنگران
about what this meansبه معنای for our freedomsآزادی ها
27
90308
3787
عمیقا نگران معنای آن
برای آزادی‌هایمان هستم
01:46
and what kindsانواع of protectionsحفاظت we need.
28
94119
2171
و این که به چه نوع حمایت‌هایی نیاز داریم.
01:48
I believe we need
a right to cognitiveشناختی libertyآزادی,
29
96993
3460
من معتقدم ما به حق
آزادی شناختی نیاز داریم،
01:52
as a humanانسان right
that needsنیاز دارد to be protectedحفاظت شده.
30
100477
2892
بعنوان یک حق بشر که باید حمایت شود.
01:55
If not, our freedomآزادی of thought,
31
103772
2643
اگر نشود، آزادی تفکر ما،
01:58
accessدسترسی به and controlکنترل over our ownخودت brainsمغز
32
106439
3024
پردازش و کنترل بر روی مغزهایمان
02:01
and our mentalذهنی privacyحریم خصوصی will be threatenedتهدید شده.
33
109487
2841
و حریم روحی ما مورد تهدید
قرار خواهد گرفت.
02:05
Considerدر نظر گرفتن this:
34
113698
1158
به این توجه کنید:
02:06
the averageمیانگین personفرد thinksفکر می کند
thousandsهزاران نفر of thoughtsاندیشه ها eachهر یک day.
35
114880
3314
روزانه هزاران فکر
از سر یک فرد متوسط می‌گذرد.
02:10
As a thought takes formفرم,
36
118697
1151
وقتی یک فکر شکل می‌گیرد،
02:11
like a mathریاضی calculationمحاسبه
or a numberعدد, a wordکلمه,
37
119872
5056
مثل یک محاسبه ریاضی یا یک عدد، یک کلمه،
02:16
neuronsنورون ها are interactingتعامل in the brainمغز,
38
124952
2885
رشته‌های عصبی در مغز
در حال فعل و انفعا‌ل‌ هستند،
02:19
creatingپدید آوردن a minisculeمضطرب electricalالکتریکی dischargeتخلیه.
39
127861
3088
تا تخلیهٔ الکتریکی کوچکی شکل گیرد.
02:23
When you have a dominantغالب
mentalذهنی stateحالت, like relaxationآرامش,
40
131713
3452
وقتی شما وضعیت روحی
ثابتی مثل آرامش دارید،
02:27
hundredsصدها and thousandsهزاران نفر of neuronsنورون ها
are firingشلیک کردن in the brainمغز,
41
135189
4175
صدها و هزاران یاختهٔ عصبی
در مغز شلیک می‌شوند،
02:31
creatingپدید آوردن concurrentهم زمان electricalالکتریکی dischargesتخلیه
in characteristicمشخصه patternsالگوها
42
139388
4218
تا تخلیه‌های الکتریکی همزمانی را
با الگو‌های مشخص ایجاد کنند
02:35
that can be measuredاندازه گیری شده
with electroencephalographyالکتروانسفالوگرافی, or EEGEEG.
43
143630
4865
که به وسیلهٔ نوار مغزی،
یا EEG قابل اندازه‌گیری هستند.
02:41
In factواقعیت, that's what
you're seeingدیدن right now.
44
149118
2160
در حقیقت، درست همین چیزی که الان می‌بینید.
02:43
You're seeingدیدن my brainمغز activityفعالیت
that was recordedثبت شده in realواقعی time
45
151956
3964
شما فعالیت مغزی من را می‌بینید
که در زمان فعالیت
02:47
with a simpleساده deviceدستگاه
that was wornپوشیده on my headسر.
46
155944
2735
با دستگاهی ساده ضبط شده‌اند
که سرم را پوشانده بود.
02:51
What you're seeingدیدن is my brainمغز activityفعالیت
when I was relaxedآرامش and curiousکنجکاو.
47
159669
5653
چیزی که می‌بینید فعالیت مغزی من است
وقتی در وضعیت آرامش و کنجکاوی بودم.
02:58
To shareاشتراک گذاری this informationاطلاعات with you,
48
166097
1755
برای به اشتراک گذاشتن
این اطلاعات با شما،
02:59
I woreبه تن کرد one of the earlyزود
consumer-basedمبتنی بر مصرف کننده EEGEEG devicesدستگاه ها
49
167876
3020
یکی از جدیدترین دستگاه‌های نوار مغزی
مصرف کننده - محور را سرم گذاشتم
03:02
like this one,
50
170920
1211
مثل این یکی،
03:04
whichکه recordedثبت شده the electricalالکتریکی
activityفعالیت in my brainمغز in realواقعی time.
51
172155
3988
که فعالیت الکتریکی در مغزم را
در زمان فعالیت ضبط می‌کرد.
03:08
It's not unlikeبر خلاف the fitnessتناسب اندام trackersردیاب ها
that some of you mayممکن است be wearingپوشیدن
52
176849
3826
فرقی با ثبت کننده‌های تناسب اندام ندارد
که بعضی از شما ممکن است بپوشید
03:12
to measureاندازه گرفتن your heartقلب rateنرخ
or the stepsمراحل that you've takenگرفته شده,
53
180699
3586
تا ضربان قلب یا تعداد قدم‌هایتان
03:16
or even your sleepبخواب activityفعالیت.
54
184309
1587
و یا حتی فعالیت در خواب را
اندازه‌گیری کنید.
03:19
It's hardlyبه سختی the mostاکثر sophisticatedپیچیده
neuroimagingتصویر برداری عصبی techniqueتکنیک on the marketبازار.
55
187154
3824
اصلاً این طور نیست که پیچیده‌ترین تکنیک
تصویربرداری عصبی موجود در بازار باشد.
03:23
But it's alreadyقبلا the mostاکثر portableقابل حمل
56
191597
2378
اما در حال حاضر قابل حمل‌ترین
03:25
and the mostاکثر likelyاحتمال دارد to impactتأثیر
our everydayهر روز livesزندگی می کند.
57
193999
3152
و به احتمال زیاد موثرترین در
زندگی‌های روزمره ما است.
03:29
This is extraordinaryخارق العاده.
58
197915
1503
فوق‌العاده است.
03:31
Throughاز طریق a simpleساده, wearableپوشیدنی deviceدستگاه,
59
199442
2505
از طریق یک دستگاه ساده، و قابل پوشش،
03:33
we can literallyعینا see
insideداخل the humanانسان brainمغز
60
201971
3548
می‌توانیم دقیقاً درون مغز انسان را ببینیم
03:37
and learnیاد گرفتن aspectsجنبه های of our mentalذهنی landscapeچشم انداز
withoutبدون ever utteringاظهارنظر a wordکلمه.
61
205543
6476
و جنبه‌هایی از چشم‌انداز روحی‌مان را
بدون حتی ادا کردن یک کلمه یاد بگیریم.
03:44
While we can't reliablyبطرزی قابل اعتماد decodeرمزگشایی کنید
complexپیچیده thoughtsاندیشه ها just yetهنوز,
62
212829
3653
درحالیکه هنوز نمی‌توانیم بطور قابل استنادی
افکار پیچیده را رمزگشایی کنیم،
03:48
we can alreadyقبلا gaugeاندازه گیری a person'sفردی moodحالت,
63
216506
2519
ما الان قادریم حالت یک فرد را بسنجیم،
03:51
and with the help
of artificialمصنوعی intelligenceهوش,
64
219049
2873
و با کمک هوش مصنوعی،
03:53
we can even decodeرمزگشایی کنید
some single-digitتک رقمی numbersشماره
65
221946
4341
می‌توانیم حتی برخی از اعداد تک رقمی
03:58
or shapesشکل ها or simpleساده wordsکلمات
that a personفرد is thinkingفكر كردن
66
226311
4882
یا اشکال یا کلمات ساده
که یک شخص به آن فکر می‌کند
04:03
or hearingشنیدن, or seeingدیدن.
67
231217
2189
یا می‌شنود، یا می‌بیند را رمزگشایی کنیم.
04:06
Despiteبا وجود some inherentذاتی limitationsمحدودیت ها in EEGEEG,
68
234345
3365
علی‌رغم برخی محدودیت‌های
ذاتی در نوار مغزی،
04:09
I think it's safeبی خطر to say
that with our advancesپیشرفت in technologyتکنولوژی,
69
237734
4720
فکر می‌کنم ایرادی نداشته باشد بگوییم
که با پیشرفت‌هایمان در تکنولوژی،
04:14
more and more of what's happeningاتفاق می افتد
in the humanانسان brainمغز
70
242478
3809
هرچه بیشتر از آنچه در مغز انسان می‌گذرد
04:18
can and will be decodedرمزگشایی شده است over time.
71
246311
2310
به مرور زمان قابلیت رمزگشایی خواهد داشت.
04:21
Alreadyقبلا، پیش از این, usingاستفاده كردن one of these devicesدستگاه ها,
72
249362
2746
هم اکنون، با استفاده
از یکی از این دستگاه‌ها،
04:24
an epilepticصرع can know
they're going to have an epilepticصرع seizureتصرف
73
252132
3255
یک فرد مبتلا به صرع می‌تواند بفهمد که
چه موقع مورد حمله صرع قرار خواهد گرفت
04:27
before it happensاتفاق می افتد.
74
255411
1436
قبل از وقوع آن.
04:28
A paraplegicپاراگلیفیک can typeتایپ کنید on a computerکامپیوتر
with theirخودشان thoughtsاندیشه ها aloneتنها.
75
256871
4603
شخص دچار فلج می‌تواند
تنها با افکارش روی کامپیوتر تایپ کند.
04:34
A US-basedایالات متحده بر اساس companyشرکت has developedتوسعه یافته
a technologyتکنولوژی to embedجاسازی these sensorsسنسورها
76
262485
4183
شرکتی آمریکایی یک فناوری‌ را
توسعه داده تا این حسگرها
04:38
into the headrestسرپوشیده of automobiliesautomobilies
77
266692
2230
در زیرسری صندلی ماشین‌ها جاسازی شود
04:40
so they can trackمسیر driverراننده concentrationتمرکز,
78
268946
2505
تا آنها بتوانند تمرکز راننده،
04:43
distractionحواس پرتی and cognitiveشناختی loadبار
while drivingرانندگی.
79
271475
2667
و حواس پرتی و قدرت تشخیص را
در هنگام رانندگی ثبت کنند.
04:46
Nissanنیسان, insuranceبیمه companiesشرکت ها
and AAAAAA have all takenگرفته شده noteتوجه داشته باشید.
80
274912
4058
نیسان، شرکت‌های بیمه و انجمن خودروسازان
امریکا همگی آن را مورد لحاظ قرار داده‌اند.
04:51
You could even watch this
choose-your-own-adventureماجراجویی خود را انتخاب کنید movieفیلم سینما
81
279949
4508
شما حتی می‌توانید این را بعنوان فیلم -
ماجراجویی-خودت را-انتخاب کن تماشا کنید
04:56
"The Momentلحظه ای," whichکه, with an EEGEEG headsetهدست,
82
284481
4240
«لحظه‌،» که یک سربند نوار مغزی،
05:00
changesتغییرات the movieفیلم سینما
basedمستقر on your brain-basedمبتنی بر مغز reactionsواکنش ها,
83
288745
3926
فیلم را به واسطهٔ واکنش‌های
مغز-محور شما تغییر می‌دهد،
05:04
givingدادن you a differentناهمسان endingپایان دادن
everyهرکدام time your attentionتوجه waneswanes.
84
292695
4353
و هر بار که توجه شما کاهش یابد
یک پایان متفاوت به شما ارائه می‌دهد.
05:11
This mayممکن است all soundصدا great,
85
299154
2763
ممکن است همهٔ این‌ها بنظر عالی بیایند،
05:13
and as a bioethicistمتخصص بیوتکنولوژی,
86
301941
2189
و بعنوان متخصص اخلاق زیستی،
05:16
I am a hugeبزرگ proponentطرفدار of empoweringتوانمندسازی people
87
304154
3613
به شدت طرفدار توانمدسازی مردم هستم
05:19
to take chargeشارژ of theirخودشان ownخودت
healthسلامتی and well-beingتندرستی
88
307791
2616
تا مسئول سلامتی و تندرستی خود شوند
05:22
by givingدادن them accessدسترسی به
to informationاطلاعات about themselvesخودشان,
89
310431
2918
با دادن دسترسی به اطلاعات
درمورد خودشان به آن‌ها،
05:25
includingشامل this incredibleباور نکردنی
newجدید brain-decodingرمز گشایی مغز technologyتکنولوژی.
90
313373
2976
از جمله این تکنولوژی جدید
رمزگشای مغزی اعجاب‌انگیز.
05:29
But I worryنگرانی.
91
317878
1167
ولی من نگرانم.
05:31
I worryنگرانی that we will voluntarilyداوطلبانه
or involuntarilyناخواسته give up
92
319736
4760
من نگرانم از اینکه ما
داوطلبانه یا غیر داوطلبانه
05:36
our last bastionبسکتبال of freedomآزادی,
our mentalذهنی privacyحریم خصوصی.
93
324520
4118
آخرین سنگر آزادی‌مان را رها کنیم،
حریم خصوصی مغزی‌مان.
05:41
That we will tradeتجارت our brainمغز activityفعالیت
94
329302
2925
که باعث می‌شود فعالیت مغزی‌مان را
05:44
for rebatesتخفیف or discountsتخفیف on insuranceبیمه,
95
332251
3046
برای تخفیف یا کاهش قیمت بیمه معامله کنیم،
05:48
or freeرایگان accessدسترسی به
to social-mediaرسانه های اجتماعی accountsحساب ها ...
96
336391
2603
یا دستیابی رایگان به کاربری
شبکه‌های اجتماعی …
05:52
or even to keep our jobsشغل ها.
97
340444
1848
یا حتی برای نگهداشتن کارمان.
05:54
In factواقعیت, in Chinaچين,
98
342900
1913
در حقیقت، در چین،
05:58
the trainقطار driversرانندگان on
the Beijing-Shanghaiپکن-شانگهای high-speedسرعت بالا railریل,
99
346199
5897
راننده‌های قطار که بر روی خطوط پرسرعت
پکن-شانگهای کار می‌کنند،
06:04
the busiestشلوغ ترین of its kindنوع in the worldجهان,
100
352120
2532
شلوغ‌‌ترین از نوع خودش در جهان،
06:06
are requiredضروری to wearپوشیدن EEGEEG devicesدستگاه ها
101
354676
2476
ملزم هستند که دستگاه‌های
نوار مغزی را بر سر بگذارند
06:09
to monitorمانیتور theirخودشان brainمغز activityفعالیت
while drivingرانندگی.
102
357176
2427
تا فعالیت مغزی آن‌ها
در هنگام رانندگی مشاهده شود.
06:12
Accordingبا توجه to some newsاخبار sourcesمنابع,
103
360157
2226
بر اساس برخی منابع خبری،
06:14
in government-runدولت در حال اجرا است factoriesکارخانه ها in Chinaچين,
104
362407
2679
در کارخانجات دولت-گردان در چین،
06:17
the workersکارگران are requiredضروری to wearپوشیدن
EEGEEG sensorsسنسورها to monitorمانیتور theirخودشان productivityبهره وری
105
365110
5364
کارگرها لازم است که این دستگاه‌های
نوار مغزی را بپوشند تا کارآمدی
06:22
and theirخودشان emotionalعاطفی stateحالت at work.
106
370498
2115
و وضعیت احساسی آن‌ها در کار بررسی شود.
06:25
Workersکارگران are even sentارسال شد home
107
373267
2310
کارگرها حتی به خانه فرستاده می‌شوند
06:27
if theirخودشان brainsمغز showنشان بده less-than-stellarکمتر از ستارهای
concentrationتمرکز on theirخودشان jobsشغل ها,
108
375601
4054
اگر مغز آن‌ها تمرکزی کمتر-از-ایده‌آل
بر روی کارشان داشته باشد،
06:31
or emotionalعاطفی agitationتحریک.
109
379679
2122
یا آشفتگی احساسی داشته باشند.
06:35
It's not going to happenبه وقوع پیوستن tomorrowفردا,
110
383189
1745
این همین فردا اتفاق نمی‌افتد،
06:36
but we're headedهدایت to a worldجهان
of brainمغز transparencyشفافیت.
111
384958
3086
ولی ما به سوی جهانی با
شفافیت مغزی پیش می‌رویم.
06:40
And I don't think people understandفهمیدن
that that could changeتغییر دادن everything.
112
388537
3440
و فکر نمی‌کنم مردم بفهمند
که آن می‌تواند همه چیز را تفییر دهد.
06:44
Everything from our definitionsتعاریف
of dataداده ها privacyحریم خصوصی to our lawsقوانین,
113
392474
3675
هر چیزی از تعاریف ما از
حریم خصوصی اطلاعات گرفته
تا قانون‌ها و ایده‌هایمان درباره آزادی.
06:48
to our ideasایده ها about freedomآزادی.
114
396173
1800
06:50
In factواقعیت, in my labآزمایشگاه at Dukeدوک Universityدانشگاه,
115
398731
3077
در حقیقت، در آزمایشگاه من در دانشگاه دوک،
06:53
we recentlyبه تازگی conductedانجام شده a nationwideدر سراسر کشور studyمطالعه
in the Unitedیونایتد Statesایالت ها
116
401832
3175
ما اخیراً یک تحقیق در سراسر کشور
ایالات متحده را اداره می‌کنیم
06:57
to see if people appreciatedاستقبال مینماید
117
405031
1959
تا میزان استقبال مردم
06:59
the sensitivityحساسیت
of theirخودشان brainمغز informationاطلاعات.
118
407014
2071
از حساسیت اطلاعات مغزیشان را بررسی کنیم.
07:02
We askedپرسید: people to rateنرخ
theirخودشان perceivedدرک شده sensitivityحساسیت
119
410356
3356
از مردم خواستیم که حساسیت ادراکی‌شان را
07:05
of 33 differentناهمسان kindsانواع of informationاطلاعات,
120
413736
2231
از ۳۳ نوع اطلاعات مختلف ارزیابی کنند،
07:07
from theirخودشان socialاجتماعی securityامنیت numbersشماره
121
415991
2220
از شماره‌های امنیت ملی‌شان
07:10
to the contentمحتوا
of theirخودشان phoneتلفن conversationsگفتگو,
122
418235
2597
تا محتوای مکالمات تلفنی‌شان،
07:12
theirخودشان relationshipارتباط historyتاریخ,
123
420856
2193
تاریخچهٔ روابطشان،
07:15
theirخودشان emotionsاحساسات, theirخودشان anxietyاضطراب,
124
423073
1942
احساساتشان، اضطرابشان،
07:17
the mentalذهنی imagesتصاویر in theirخودشان mindذهن
125
425039
1946
تصاویر مغزی در ذهن‌شان
07:19
and the thoughtsاندیشه ها in theirخودشان mindذهن.
126
427009
1538
و تفکرات در ذهن‌شان.
07:21
Shockinglyتکان دهنده, people ratedدارای رتبه theirخودشان socialاجتماعی
securityامنیت numberعدد as farدور more sensitiveحساس
127
429481
5229
شگفتا، مردم شماره‌های امنیت ملی‌شان را
با حساسیت بیشتری ارزیابی کردند
07:26
than any other kindنوع of informationاطلاعات,
128
434734
2203
نسبت به هر نوع اطلاعات دیگری،
07:28
includingشامل theirخودشان brainمغز dataداده ها.
129
436961
2435
از جمله اطلاعات مغزی‌شان.
07:32
I think this is because
people don't yetهنوز understandفهمیدن
130
440380
3216
فکر می‌کنم به خاطر این است
که مردم هنوز درک نمی‌کنند
07:35
or believe the implicationsپیامدها
of this newجدید brain-decodingرمز گشایی مغز technologyتکنولوژی.
131
443620
4063
یا باور نمی‌کنند پیامد‌های این
تکنولوژی جدید رمزگشای مغزی چیست.
07:40
After all, if we can know
the innerدرونی workingsکارها of the humanانسان brainمغز,
132
448629
3289
به هر حال، اگر ما بتوانیم
کارکرد‌های درونی مغز بشر را بفهمیم،
07:43
our socialاجتماعی securityامنیت numbersشماره
are the leastکمترین of our worriesنگرانی ها.
133
451942
2706
شماره‌های امنیت ملی‌مان
کمترین نگرانی ما خواهد بود.
07:46
(Laughterخنده)
134
454672
1285
(خنده)
07:47
Think about it.
135
455981
1167
به آن فکر کنید.
07:49
In a worldجهان of totalجمع brainمغز transparencyشفافیت,
136
457172
2396
در یک جهان با شفافیت مغزی کامل،
07:51
who would dareجرات کن have
a politicallyاز نظر سیاسی dissidentمخالف thought?
137
459592
2429
چه کسی جرات می‌کند یک تفکر
مخالف سیاسی داشته باشد؟
07:55
Or a creativeخلاقانه one?
138
463279
1541
یا یک تفکر خلاق؟
07:57
I worryنگرانی that people will self-censorخودسانسوری
139
465503
3476
من نگرانم که مردم
08:01
in fearترس of beingبودن ostracizedاستبداد by societyجامعه,
140
469003
3302
از ترس طرد شدن توسط جامعه
خودشان را سانسور کنند،
08:04
or that people will loseاز دست دادن theirخودشان jobsشغل ها
because of theirخودشان waningکاهش می یابد attentionتوجه
141
472329
3813
یا مردم کارشان را به خاطر کاهش تمرکز
08:08
or emotionalعاطفی instabilityبی ثباتی,
142
476166
2150
یا ناپایداری احساسی،
08:10
or because they're contemplatingفکر کردن
collectiveجمعی actionعمل againstدر برابر theirخودشان employersکارفرمایان.
143
478340
3550
یا به دلیل فکر کردن به اقدامات جمعی
برعلیه کارفرماهایشان از دست بدهند.
08:14
That comingآینده out
will no longerطولانی تر be an optionگزینه,
144
482478
3177
که اگر اینطور شود
دیگر یک انتخاب نخواهد بود،
08:17
because people'sمردم brainsمغز will long agoپیش
have revealedنشان داد theirخودشان sexualجنسیت orientationگرایش,
145
485679
5067
بدلیل اینکه طول خواهد کشید تا مغز‌های مردم
گرایش‌های جنسی‌شان را برملا کنند،
08:22
theirخودشان politicalسیاسی ideologyایدئولوژی
146
490770
1822
ایدئولوژی‌های سیاسی‌شان
08:24
or theirخودشان religiousدینی preferencesاولویت ها,
147
492616
2025
یا اولویت‌های مذهبی شان را،
08:26
well before they were readyآماده
to consciouslyآگاهانه shareاشتراک گذاری that informationاطلاعات
148
494665
3080
بسیار قبل از اینکه آن‌ها آماده باشند
تا آگاهانه اطلاعاتشان را
08:29
with other people.
149
497769
1253
با بقیه مردم به اشتراک بگذارند.
08:31
I worryنگرانی about the abilityتوانایی of our lawsقوانین
to keep up with technologicalتکنولوژیکی changeتغییر دادن.
150
499565
4912
من نگران توانمندی قانونمان درتطابق
با تغییرات تکنولوژی هستم.
08:36
Take the First Amendmentاصالحیه
of the US Constitutionقانون اساسي,
151
504986
2320
اولین اصلاحیهٔ قانون اساسی ایالات
متحده آمریکا را درنظر بگیرید،
08:39
whichکه protectsمحافظت می کند freedomآزادی of speechسخنرانی - گفتار.
152
507330
1958
که از آزادی بیان حمایت می‌کند.
08:41
Does it alsoهمچنین protectمحافظت freedomآزادی of thought?
153
509312
1927
آیا از آزادی فکر هم حمایت می‌کند؟
08:43
And if so, does that mean that we're freeرایگان
to alterتغییر دادن our thoughtsاندیشه ها howeverبا این حال we want?
154
511944
4169
و در اینصورت، یعنی آیا آزادیم تفکراتمان
را هرطور خواستیم تغییر دهیم؟
08:48
Or can the governmentدولت or societyجامعه tell us
what we can do with our ownخودت brainsمغز?
155
516137
4674
یا دولت و جامعه می‌توانند به ما بگویند
که با مغزهایمان چه کار کنیم؟
08:53
Can the NSANSA spyجاسوسی on our brainsمغز
usingاستفاده كردن these newجدید mobileسیار devicesدستگاه ها?
156
521591
3717
آیا NSA می‌تواند با این ابزار جدید
موبایلی از مغزهلی ما جاسوسی کند؟
08:58
Can the companiesشرکت ها that collectجمع کن
the brainمغز dataداده ها throughاز طریق theirخودشان applicationsبرنامه های کاربردی
157
526053
4119
آیا شرکت‌هایی که اطلاعات مغزی را
از فرم‌های ثبت نامی جمع می‌کنند
09:02
sellفروش this informationاطلاعات to thirdسوم partiesاحزاب?
158
530196
2074
می‌توانند این اطلاعات را
به شخص ثالث بفروشند؟
09:05
Right now, no lawsقوانین preventجلوگیری کردن them
from doing so.
159
533174
3222
در حال حاضر، هیچ قانونی
برای جلوگیری از انجام آنها وجود ندارد.
09:09
It could be even more problematicمشکل ساز
160
537203
2025
می‌تواند حتی دردسرساز‌تر هم بشود
09:11
in countriesکشورها that don't shareاشتراک گذاری
the sameیکسان freedomsآزادی ها
161
539252
2519
در کشور‌هایی که مردم آزادی‌هایی
مانند آنچه مردم در ایالات متحده
از آن لذت می‌برند را ندارند.
09:13
enjoyedلذت بردم by people in the Unitedیونایتد Statesایالت ها.
162
541795
2103
09:16
What would'veمی خواهم happenedاتفاق افتاد duringدر حین
the Iranianایرانی Greenسبز Movementجنبش
163
544883
3787
در طی جنبش سبز ایرانیان
چه اتفاقی می‌توانست بیفتد
09:20
if the governmentدولت had been
monitoringنظارت بر my family'sخانواده brainمغز activityفعالیت,
164
548694
3901
اگر دولت فعالیت مغزی
خانوادهٔ من را زیر نظر داشت،
09:24
and had believedمعتقد them
to be sympatheticدلسوز to the protestersمعترضان?
165
552619
4007
و به این باور رسیده بود که آن‌ها
با معترضین همدردی می‌کنند؟
09:30
Is it so far-fetchedفراموش شده to imagineتصور کن a societyجامعه
166
558091
3047
آیا خیلی بعید است که یک جامعه را تصور کرد
09:33
in whichکه people are arrestedبازداشت شد
basedمستقر on theirخودشان thoughtsاندیشه ها
167
561162
2842
که مردمانش بر اساس تفکراتشان
09:36
of committingمرتکب شدن a crimeجرم,
168
564028
1167
در مورد ارتکاب به یک جرم دستگیر می‌شوند،
09:37
like in the science-fictionعلم تخیلی
dystopianدودویی societyجامعه in "Minorityاقلیت Reportگزارش."
169
565219
4312
مثل داستان‌های علمی-تخیلی
جامعه دوگانه در «گزارش اقلیت.»
09:42
Alreadyقبلا، پیش از این, in the Unitedیونایتد Statesایالت ها, in Indianaایندیانا,
170
570286
4323
در حال حاضر، در ایالات متحده، در ایندیانا،
09:46
an 18-year-oldساله was chargedمتهم
with attemptingتلاش to intimidateترساندن his schoolمدرسه
171
574633
4937
یک پسر ۱۸ ساله به اقدام برای
ارعاب در مدرسه‌اش محکوم شد
09:51
by postingپست کردن a videoویدئو of himselfخودت
shootingتیراندازی کردن people in the hallwaysراهروها ...
172
579594
3309
به خاطر ارسال ویدیویی از خودش که
در حال شلیک به مردم در راهرو است ...
09:55
Exceptبجز the people were zombiesزامبی ها
173
583881
3007
با این تفاوت که مردم به شکل زامبی‌ها بودند
09:58
and the videoویدئو was of him playingبازی کردن
an augmented-realityواقعیت افزوده videoویدئو gameبازی,
174
586912
5047
و فیلم از بازی خودش در یک
بازی ویدیویی واقعیت افزوده بود،
10:03
all interpretedتفسیر شده to be a mentalذهنی projectionطرح ریزی
of his subjectiveذهنی intentقصد.
175
591983
4772
که از آن به عنوان تصویرسازی ذهنی
از قصد درونی او برداشت شد.
10:10
This is exactlyدقیقا why our brainsمغز
need specialویژه protectionحفاظت.
176
598456
4612
دقیقاً به همین دلیل مغز ما
نیاز به حفاظت خاص دارد.
10:15
If our brainsمغز are just as subjectموضوع
to dataداده ها trackingردیابی and aggregationتجمع
177
603092
3556
اگر مغز‌های ما فقط در حال نگهداری کردن
اطلاعات و تجمیع آن‌ها بود
10:18
as our financialمالی recordsسوابق and transactionsمعاملات,
178
606672
2532
بعنوان داده‌ها و تراکنش‌های مالی‌مان،
10:21
if our brainsمغز can be hackedهک شده
and trackedردیابی شده like our onlineآنلاین activitiesفعالیت ها,
179
609228
4285
اگر مغزهایمان می‌توانستند مثل فعالیت‌های
آنلاین ما موبایل‌هایمان و اپلیکیشن‌هایمان،
10:25
our mobileسیار phonesتلفن ها and applicationsبرنامه های کاربردی,
180
613537
2361
هک شده و ردیابی شوند،
10:27
then we're on the brinkآستانه of a dangerousخطرناک است
threatتهدید to our collectiveجمعی humanityبشریت.
181
615922
4269
آن وقت ما در آستانهٔ یک تهدید خطرناک
برای جامعهٔ انسانی بودیم.
10:33
Before you panicوحشت,
182
621406
1309
قبل از اینکه بترسید،
10:36
I believe that there are solutionsراه حل ها
to these concernsنگرانی ها,
183
624012
3144
من معتقدم که راه حل‌هایی برای این
نگرانی‌ها وجود دارد،
10:39
but we have to startشروع کن by focusingتمرکز
on the right things.
184
627180
2825
ولی ما باید با تمرکز
روی چیز‌های درست شروع کنیم.
10:42
When it comesمی آید to privacyحریم خصوصی
protectionsحفاظت in generalعمومی,
185
630580
2921
وقتی بطور کلی مربوط به محافظت از
حریم شخصی می‌شود،
10:45
I think we're fightingدعوا کردن a losingاز دست دادن battleنبرد
186
633525
1826
فکر می‌کنم یک جنگ باطل انجام می‌دهیم
10:47
by tryingتلاش کن to restrictمحدود کردن
the flowجریان of informationاطلاعات.
187
635375
2858
با تلاش برای محدود کردن جریان اطلاعات.
10:50
Insteadبجای, we should be focusingتمرکز
on securingتأمین امنیت rightsحقوق and remediesدرمان ها
188
638257
4057
درعوض ، ما باید بر روی
تأمین حقوق و راه حل‌ها تمرکز کنیم
10:54
againstدر برابر the misuseسوء استفاده of our informationاطلاعات.
189
642338
2275
در مقابل سوءاستفاده از اطلاعاتمان.
10:57
If people had the right to decideتصميم گرفتن
how theirخودشان informationاطلاعات was sharedبه اشتراک گذاشته شده,
190
645291
3285
اگر مردم حق تصمیم گیری درباره نحوه
اشتراک‌گذاری اطلاعاتشان داشتند،
11:00
and more importantlyمهم است, have legalقانونی redressبازپرداخت
191
648600
2921
و مهمتر از همه، داشتن قانون جبران خسارت
11:03
if theirخودشان informationاطلاعات
was misusedسوء استفاده شده againstدر برابر them,
192
651545
2428
اگر از اطلاعاتشان
علیه خودشان سوءاستفاده می‌شد،
11:05
say to discriminateتبعیض قائل شدن againstدر برابر them
in an employmentاستخدام settingتنظیمات
193
653997
2786
مثلا برای تبعیض قائل شدن علیه آن‌ها
در یک ساختار استخدامی
11:08
or in healthسلامتی careاهميت دادن or educationتحصیلات,
194
656807
2785
یا در بهداشت یا تحصیلات،
11:11
this would go a long way to buildساختن trustاعتماد.
195
659616
2571
بسیار طول می‌کشید تا اعتماد سازی شود.
11:14
In factواقعیت, in some instancesنمونه ها,
196
662843
1718
در حقیقت، در برخی نمونه‌ها،
11:16
we want to be sharingبه اشتراک گذاری more
of our personalشخصی informationاطلاعات.
197
664585
3524
ما می‌خواهیم اطلاعات شخصی بیشتری را
به اشتراک بگذاریم.
11:20
Studyingدر حال مطالعه aggregatedجمع شده informationاطلاعات
can tell us so much
198
668697
3047
مطالعه اطلاعات جمع آوری شده
می‌تواند به ما خیلی چیزها بگوید
11:23
about our healthسلامتی and our well-beingتندرستی,
199
671768
2747
دربارهٔ سلامت‌مان و تندرستی‌مان،
11:26
but to be ableتوانایی to safelyبدون خطر shareاشتراک گذاری
our informationاطلاعات,
200
674539
3313
ولی برای اینکه قادر باشیم اطلاعاتمان را
با امنیت به اشتراک بگذاریم،
11:29
we need specialویژه protectionsحفاظت
for mentalذهنی privacyحریم خصوصی.
201
677876
3223
به حمایت‌های مخصوص برای
حریم شخصی مغزی نیاز داریم.
11:33
This is why we need
a right to cognitiveشناختی libertyآزادی.
202
681832
3147
این دلیل نیاز ما به یک حق
آزادی شناختی است.
11:37
This right would secureامن است for us
our freedomآزادی of thought and ruminationنشخوار,
203
685543
4079
این حق آزادی تفکر و اندیشه را
برای ما تأمین می‌کند،
11:41
our freedomآزادی of self-determinationخودمختاری,
204
689646
2540
آزادی تشخیص شخصی‌مان،
11:44
and it would insureمطمئن شو that we have
the right to consentرضایت to or refuseامتناع
205
692210
4390
و اطمینان می‌دهد که ما حق
پذیرش یا رد کردن
11:48
accessدسترسی به and alterationتغییر
of our brainsمغز by othersدیگران.
206
696624
2857
دستیابی و تغییر مغزهایمان
توسط دیگران را داریم.
11:51
This right could be recognizedشناسایی شده
207
699811
2112
این حق می‌تواند تحت عنوان قسمتی از
11:53
as partبخشی of the Universalجهانی Declarationاعلام
of Humanانسان Rightsحقوق,
208
701947
2883
اعلامیهٔ جهانی حقوق بشر شناخته شود،
11:56
whichکه has establishedایجاد mechanismsمکانیسم ها
209
704854
2388
که سازوکار‌هایی را ایجاد کرده است
11:59
for the enforcementاجرای
of these kindsانواع of socialاجتماعی rightsحقوق.
210
707266
2856
برای اجرایی کردن
این مدل‌های حقوق اجتماعی.
12:03
Duringدر حین the Iranianایرانی Greenسبز Movementجنبش,
211
711872
2070
در طول جنبش سبز ایرانیان،
12:05
the protestersمعترضان used the internetاینترنت
and good old-fashionedسبک قدیمی wordکلمه of mouthدهان
212
713966
5186
معترضین از اینترنت
و شعار‌های قدیمی خوب استفاده کردند
12:11
to coordinateهماهنگ كردن theirخودشان marchesراهپیمایی.
213
719176
1948
تا راهپیمایی‌هایشان را هماهنگ کنند.
12:14
And some of the mostاکثر oppressiveسرکوبگر
restrictionsمحدودیت های in Iranایران
214
722238
2769
و برخی از ظالمانه‌ترین محدودیت‌ها در ایران
12:17
were liftedبالا بردن as a resultنتيجه.
215
725031
1877
در نتیجه برداشته شد.
12:20
But what if the Iranianایرانی governmentدولت
had used brainمغز surveillanceنظارت
216
728047
4087
ولی چه می‌شد اگر دولت ایران از
نظارت مغزی استفاده می‌کرد
12:24
to detectتشخیص and preventجلوگیری کردن the protestاعتراض?
217
732158
3061
که جستجو کند و از اعتراض پیشگیری کند؟
12:28
Would the worldجهان have ever heardشنیدم
the protesters'معترضین criesگریه می کند?
218
736847
3176
آیا جهان فریاد معترضین را می‌شنید؟
12:33
The time has come for us to call
for a cognitiveشناختی libertyآزادی revolutionانقلاب.
219
741732
5121
برای ما زمان آن رسیده که برای دگرگونی
آزادی شناختی اقدام کنیم.
12:39
To make sure that we responsiblyمسئولانه
advanceپیشرفت technologyتکنولوژی
220
747559
3264
تا مطمئن شویم که ما مسئولانه
تکنولوژی‌ را توسعه می‌دهیم
12:42
that could enableفعال کردن us to embraceپذیرفتن the futureآینده
221
750847
2978
که می‌تواند ما را قادر به پذیرش آینده کند
12:45
while fiercelyشدیدا protectingمحافظت all of us
from any personفرد, companyشرکت or governmentدولت
222
753849
6717
در حالی که از ما در برابر هر شخص،
شرکت یا دولتی به شدت حفاظت کند
12:52
that attemptsتلاش ها to unlawfullyغیرقانونی accessدسترسی به
or alterتغییر دادن our innermostدرونی ترین livesزندگی می کند.
223
760590
5040
که با بی‌قانونی به درونی‌ترین مسائل
زندگی ما دسترسی پیدا کند و تغییرشان دهد.
12:58
Thank you.
224
766659
1174
متشکرم.
12:59
(Applauseتشویق و تمجید)
225
767857
3492
(تشویق)
Translated by Nastaran Hasanizadeh
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com