ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

نيتا فرحاني: عندما تتمكن التكنولوجيا من قراءة العقول، كيف سنحمي خصوصيتنا؟

Filmed:
1,819,292 views

تقول الباحثة القانونية في أخلاقيات المهنة نيتا فرحاني، إن التقنية التي يمكن أن تفك شفرة نشاط دماغك وتكشف عما تفكر به وتشعر به قد بانت في الأفق. فماذا سيعني ذلك لشعورنا بالخصوصية المنتهك بالفعل؟ في حديث تحذيري، تحذر فرحاني من مجتمع يُعتقل فيه الناس لمجرد التفكير في ارتكاب جريمة (كما في فيلم "تقرير الأقليات") ومن مصالح خاصة تبيع بيانات دماغنا - وتقيم الحجة من أجل الحق في الحرية الإدراكية التي تحمي حرية الفكر وتقرير المصير.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsالشهور followingالتالية
the 2009 presidentialرئاسي electionانتخاب in Iranإيران,
0
1096
4714
في الأشهر التي تلت
الانتخابات الرئاسية لعام 2009 في إيران،
00:17
protestsالاحتجاجات eruptedيثر acrossعبر the countryبلد.
1
5834
2894
اندلعت الاحتجاجات بجميع أنحاء البلاد.
00:21
The Iranianإيراني governmentحكومة
violentlyبعنف suppressedقمع
2
9685
2896
وقمعت الحكومة الإيرانية بعنف
00:24
what cameأتى to be knownمعروف
as the Iranianإيراني Greenأخضر Movementحركة,
3
12605
3979
ما أصبح يعرف
باسم الحركة الإيرانية الخضراء،
00:28
even blockingحجب mobileالتليفون المحمول signalsإشارات
4
16608
2053
حتى أنهم قاموا بحجب الاتصالات الخلوية
00:30
to cutيقطع off communicationالاتصالات
betweenما بين the protestersالمتظاهرين.
5
18685
2714
لقطع الاتصال بين المحتجين.
00:34
My parentsالآباء, who emigratedهاجر
to the Unitedمتحد Statesتنص على in the lateمتأخر 1960s,
6
22316
4669
يقضي والداي، اللذين هاجرا
إلى أمريكا في أواخر الستينيات،
00:39
spendأنفق substantialإنجاز time there,
7
27009
1794
الكثير من الوقت هناك،
00:40
where all of my largeكبير,
extendedوسعوا familyأسرة liveحي.
8
28827
3153
حيث تعيش عائلتي الكبيرة.
00:44
When I would call my familyأسرة in Tehranطهران
9
32832
3129
وعندما كنت أتصل بعائلتي في طهران
00:47
duringأثناء some of the mostعظم violentعنيف
crackdownsالقمع of the protestوقفة احتجاجية,
10
35985
3452
أثناء بعض أعنف حملات القمع للاحتجاج،
00:51
noneلا شيء of them daredتجرأ discussمناقشة
with me what was happeningحدث.
11
39461
3252
لم يجرؤ أي منهم على مناقشة
ما كان يحدث معي.
00:55
They or I knewعرف to quicklyبسرعة steerقيادة
the conversationمحادثة to other topicsالمواضيع.
12
43196
3529
فقد علمنا كيف نتفادى هذا الحديث.
00:59
All of us understoodفهم
what the consequencesالآثار could be
13
47163
3380
جميعنا أدركنا كيف يمكن أن تكون عاقبة
01:02
of a perceivedمحسوس - ملموس dissidentمنشق actionعمل.
14
50567
2540
الخروج على السلطة.
01:06
But I still wishرغبة I could have knownمعروف
what they were thinkingتفكير
15
54095
3469
ولكني ما زلت أتمنى
لو أمكنني أن أعرف ما كانوا يفكرون به،
01:09
or what they were feelingشعور.
16
57588
1418
أو ما كانوا يشعرون به.
01:12
What if I could have?
17
60217
1393
ماذا لو أمكنني ذلك؟
01:14
Or more frighteninglyمخيف,
18
62149
1151
أو الأكثر إرعابًا،
01:15
what if the Iranianإيراني governmentحكومة could have?
19
63324
2761
ماذا لو تمكنت الحكومة الإيرانية من ذلك؟
01:18
Would they have arrestedالقى القبض them
basedعلى أساس on what theirهم brainsعقل revealedأظهرت?
20
66695
3244
هل سيتم اعتقالهم بسبب ما كشفته أدمغتهم؟
01:22
That day mayقد be closerأقرب than you think.
21
70933
2944
ربما كان هذا اليوم أقرب مما تظنون.
01:26
With our growingمتزايد capabilitiesقدرات
in neuroscienceعلم الأعصاب, artificialمصطنع intelligenceالمخابرات
22
74527
3811
مع قدراتنا المتنامية في علم الأعصاب
والذكاء الاصطناعي
01:30
and machineآلة learningتعلم,
23
78362
1703
وتعلم الآلة،
01:32
we mayقد soonهكذا know a lot more
of what's happeningحدث in the humanبشري brainدماغ.
24
80089
4075
ربما سنعرف قريبًا
الكثير مما يحدث في أدمغة البشر.
01:37
As a bioethicistأخلاق الطب الحيوي, a lawyerالمحامية, a philosopherفيلسوف
25
85083
3310
كخبيرة في أخلاقيات علم الأحياء
ومحامية وفيلسوفة،
01:40
and an Iranian-Americanالإيرانية الأمريكية,
26
88417
1867
وأمريكية من أصل إيراني،
01:42
I'm deeplyبشدة concernedالمعنية
about what this meansيعني for our freedomsالحريات
27
90308
3787
فإني معنية بتأثير ذلك على حريتنا
01:46
and what kindsأنواع of protectionsالحماية we need.
28
94119
2171
ونوع الحماية الذي نحتاجه.
01:48
I believe we need
a right to cognitiveالإدراكي libertyحرية,
29
96993
3460
أعتقد أننا نحتاج إلى الحق في حرية الإدراك،
01:52
as a humanبشري right
that needsالاحتياجات to be protectedمحمي.
30
100477
2892
كحق من حقوق الإنسان
التي تحتاج إلى الحماية.
01:55
If not, our freedomحرية of thought,
31
103772
2643
فإن لم نفعل، فإن حرية التفكير،
01:58
accessالتمكن من and controlمراقبة over our ownخاصة brainsعقل
32
106439
3024
والاستخدام والسيطرة على عقولنا
02:01
and our mentalعقلي privacyالإجمالية will be threatenedمهددة.
33
109487
2841
وخصوصيتنا العقلية ستصبح مهددة.
02:05
Considerيعتبر this:
34
113698
1158
فكروا بذلك:
02:06
the averageمعدل personشخص thinksيعتقد
thousandsالآلاف of thoughtsأفكار eachكل day.
35
114880
3314
تراود الشخص العادي آلاف الأفكار كل يوم.
02:10
As a thought takes formشكل,
36
118697
1151
وكلما تتشكل فكرة،
02:11
like a mathالرياضيات calculationعملية حسابية
or a numberرقم, a wordكلمة,
37
119872
5056
مثل إجراء حساب أو رقم أو كلمة،
02:16
neuronsالخلايا العصبية are interactingالتفاعل in the brainدماغ,
38
124952
2885
تتفاعل الخلايا العصبية في الدماغ،
02:19
creatingخلق a minisculeضئيلة electricalالكهرباء dischargeإبراء الذمة.
39
127861
3088
وتفرغ شحنة كهربية صغيرة.
02:23
When you have a dominantمهيمن
mentalعقلي stateحالة, like relaxationاسترخاء,
40
131713
3452
وعندما تسيطر عليكم حالة عقلية،
مثل الاسترخاء،
02:27
hundredsالمئات and thousandsالآلاف of neuronsالخلايا العصبية
are firingحرق in the brainدماغ,
41
135189
4175
تتوهج مئات الآلاف
من الخلايا العصبية في الدماغ،
02:31
creatingخلق concurrentمنافس electricalالكهرباء dischargesالتصريف
in characteristicصفة مميزة patternsأنماط - رسم
42
139388
4218
لتفرغ شحنات كهربية متزامنة بأنماط مميزة
02:35
that can be measuredقياس
with electroencephalographyكهربية, or EEGEEG.
43
143630
4865
يمكن قياسها باستخدام تخطيط كهرباء الدماغ.
02:41
In factحقيقة, that's what
you're seeingرؤية right now.
44
149118
2160
في الواقع، هذا هو ما ترونه الآن.
02:43
You're seeingرؤية my brainدماغ activityنشاط
that was recordedمسجل in realحقيقة time
45
151956
3964
ما ترونه هو نشاط دماغي
المسجل في الوقت الحقيقي
02:47
with a simpleبسيط deviceجهاز
that was wornالبالية on my headرئيس.
46
155944
2735
بجهاز بسيط ارتديته على رأسي.
02:51
What you're seeingرؤية is my brainدماغ activityنشاط
when I was relaxedاسترخاء and curiousفضولي.
47
159669
5653
ما ترونه هو نشاط دماغي
عندما كنت مسترخية وفضولية.
02:58
To shareشارك this informationمعلومات with you,
48
166097
1755
لأشارك هذه المعلومات معكم،
02:59
I woreلبس one of the earlyمبكرا
consumer-basedاستنادا المستهلك EEGEEG devicesالأجهزة
49
167876
3020
ارتديت أحد أول أجهزة المستهلك
لإجراء تخطيط كهرباء المخ
03:02
like this one,
50
170920
1211
مثل هذه،
03:04
whichالتي recordedمسجل the electricalالكهرباء
activityنشاط in my brainدماغ in realحقيقة time.
51
172155
3988
والتي سجلت النشاط الكهربي
لدماغي في الوقت الحقيقي.
03:08
It's not unlikeمختلف the fitnessاللياقه البدنيه trackersبتتبع
that some of you mayقد be wearingيلبس
52
176849
3826
وهي لا تشبه متعقب اللياقة البدنية
الذي قد يرتديه بعضكم
03:12
to measureقياس your heartقلب rateمعدل
or the stepsخطوات that you've takenتؤخذ,
53
180699
3586
لقياس معدل ضربات القلب
أو عدد الخطوات التي مشيتها،
03:16
or even your sleepينام activityنشاط.
54
184309
1587
أو حتى نشاط النوم.
03:19
It's hardlyبالكاد the mostعظم sophisticatedمتطور
neuroimagingتصوير الأعصاب techniqueتقنية on the marketسوق.
55
187154
3824
إنها بالكاد تقنية التصوير العصبي
الأكثر تطوراً في السوق.
03:23
But it's alreadyسابقا the mostعظم portableالمحمول
56
191597
2378
لكنها الأكثر قابلية للنقل
03:25
and the mostعظم likelyالمحتمل أن to impactتأثير
our everydayكل يوم livesالأرواح.
57
193999
3152
والأكثر قدرة على التأثير
على حياتنا اليومية.
03:29
This is extraordinaryاستثنائي.
58
197915
1503
إنه لأمر مذهل.
03:31
Throughعبر a simpleبسيط, wearableقابل للإرتداء deviceجهاز,
59
199442
2505
عن طريق ارتداء جهاز بسيط،
03:33
we can literallyحرفيا see
insideفي داخل the humanبشري brainدماغ
60
201971
3548
يمكننا رؤية ما بداخل الدماغ البشري،
03:37
and learnتعلم aspectsالنواحي of our mentalعقلي landscapeالمناظر الطبيعيه
withoutبدون ever utteringنطق a wordكلمة.
61
205543
6476
وتعلم جوانب من المشهد العقلي
لدينا دون أن ننطق بكلمة.
03:44
While we can't reliablyبثقة decodeفك تشفير
complexمركب thoughtsأفكار just yetبعد,
62
212829
3653
وبينما لا نستطيع فك رموز
الأفكار المعقدة بدقة بعد،
03:48
we can alreadyسابقا gaugeمقياس a person'sالشخص moodمزاج,
63
216506
2519
يمكننا بالفعل قياس مزاج الشخص،
03:51
and with the help
of artificialمصطنع intelligenceالمخابرات,
64
219049
2873
وبمساعدة الذكاء الاصطناعي،
03:53
we can even decodeفك تشفير
some single-digitمن رقم واحد numbersأعداد
65
221946
4341
يمكننا حتى فك شفرة بعض الأعداد البسيطة،
03:58
or shapesالأشكال or simpleبسيط wordsكلمات
that a personشخص is thinkingتفكير
66
226311
4882
أو الأشكال أو الكلمات البسيطة
التي يفكر فيها الشخص،
04:03
or hearingسمع, or seeingرؤية.
67
231217
2189
أو يسمعها، أو يراها.
04:06
Despiteعلى الرغم من some inherentمتأصل limitationsمحددات in EEGEEG,
68
234345
3365
وعلى الرغم من وجود بعض القيود الملازمة
لتخطيط كهرباء المخ،
04:09
I think it's safeآمنة to say
that with our advancesالتقدم in technologyتقنية,
69
237734
4720
أعتقد أنه من الآمن أن نقول
أنه من خلال تقدمنا التقني،
04:14
more and more of what's happeningحدث
in the humanبشري brainدماغ
70
242478
3809
المزيد مما يحدث داخل العقل البشري
04:18
can and will be decodedفك الشفرة over time.
71
246311
2310
سيتم كشفه في المستقبل.
04:21
Alreadyسابقا, usingاستخدام one of these devicesالأجهزة,
72
249362
2746
وبالفعل، باستخدام أحد هذه الأجهزة
04:24
an epilepticمصروع can know
they're going to have an epilepticمصروع seizureتشنج
73
252132
3255
يمكن لمريض الصرع أن يتنبأ بإصابته بنوبة
04:27
before it happensيحدث.
74
255411
1436
قبل حدوثها.
04:28
A paraplegicمشلول can typeاكتب on a computerالحاسوب
with theirهم thoughtsأفكار aloneوحده.
75
256871
4603
ويمكن للمصاب بالشلل النصفي
الكتابة على الحاسب باستخدام أفكاره فقط.
04:34
A US-basedمقرها في الولايات المتحدة companyشركة has developedالمتقدمة
a technologyتقنية to embedتضمين these sensorsأجهزة الاستشعار
76
262485
4183
طورت شركة أمريكية
تقنية لتضمين هذه المستشعرات
04:38
into the headrestمسند الرأس of automobiliesالمعرض الألى
77
266692
2230
في مسند الرأس في السيارات
04:40
so they can trackمسار driverسائق concentrationتركيز,
78
268946
2505
حتى يتمكنوا من متابعة تركيز السائق،
04:43
distractionإلهاء and cognitiveالإدراكي loadحمل
while drivingالقيادة.
79
271475
2667
والتشتت والحِمل المعرفي أثناء القيادة.
04:46
Nissanنيسان, insuranceتأمين companiesالشركات
and AAAAAA have all takenتؤخذ noteملحوظة.
80
274912
4058
لاحظت ذلك كل من (نيسان) وشركات التأمين
والجمعية الأمريكية للسيارات.
04:51
You could even watch this
choose-your-own-adventureاختيار الخاص بك بين الخاصة مغامرة movieفيلم
81
279949
4508
يمكنكم حتى مشاهدة فيلم مغامرة من اختياركم
04:56
"The Momentلحظة," whichالتي, with an EEGEEG headsetسماعة,
82
284481
4240
(ذا مومنت)، والذي يمكن
بواسطة جهاز تخطيط كهرباء المخ
05:00
changesالتغييرات the movieفيلم
basedعلى أساس on your brain-basedالقائم على الدماغ reactionsتفاعل,
83
288745
3926
تغييره بناء على رد فعل دماغك،
05:04
givingإعطاء you a differentمختلف endingإنهاء
everyكل time your attentionانتباه wanesيتراجع.
84
292695
4353
مما يمنحك نهاية مختلفة
في كل مرة يتناقص فيها انتباهك.
05:11
This mayقد all soundصوت great,
85
299154
2763
ربما يبدو كل هذا رائعًا،
05:13
and as a bioethicistأخلاق الطب الحيوي,
86
301941
2189
وكمختصة في الأخلاقيات الحيوية
05:16
I am a hugeضخم proponentمؤيد of empoweringتمكين people
87
304154
3613
أناصر بشدة تمكين الناس
05:19
to take chargeالشحنة of theirهم ownخاصة
healthالصحة and well-beingرفاهية
88
307791
2616
لتولي مسؤولية صحتهم ورفاهيتهم
05:22
by givingإعطاء them accessالتمكن من
to informationمعلومات about themselvesأنفسهم,
89
310431
2918
من خلال تسهيل حصولهم
على معلومات عن أنفسهم،
05:25
includingبما فيها this incredibleلا يصدق
newالجديد brain-decodingفك الدماغ technologyتقنية.
90
313373
2976
بما في ذلك هذه التقنية الجديدة الرائعة
لفك تشفير الدماغ.
05:29
But I worryقلق.
91
317878
1167
ولكنني قلقة.
05:31
I worryقلق that we will voluntarilyطوعا
or involuntarilyلا إرادية give up
92
319736
4760
أنا قلقة من أننا سوف نتخلى طوعًا أو كرهًا
05:36
our last bastionمعقل of freedomحرية,
our mentalعقلي privacyالإجمالية.
93
324520
4118
عن معقلنا الأخير للحرية،
وهو خصوصيتنا العقلية.
05:41
That we will tradeتجارة our brainدماغ activityنشاط
94
329302
2925
وأننا سوف نبادل نشاطنا العقلي
05:44
for rebatesالخصومات or discountsتخفيض on insuranceتأمين,
95
332251
3046
مقابل خصومات على التأمين،
05:48
or freeحر accessالتمكن من
to social-mediaوسائل الاعلام الاجتماعية accountsحسابات ...
96
336391
2603
أو استخدام وسائل الإعلام
الاجتماعية مجانًا ...
05:52
or even to keep our jobsوظائف.
97
340444
1848
أو حتى للحفاظ على وظائفنا.
05:54
In factحقيقة, in Chinaالصين,
98
342900
1913
في الواقع، في الصين،
05:58
the trainقطار driversالسائقين on
the Beijing-Shanghaiبكين-شنغهاي high-speedالسرعه العاليه railسكة حديدية,
99
346199
5897
سائقي القطارات على السكك الحديدية
فائقة السرعة بين (بكين) و(شنغهاي)،
06:04
the busiestازدحاما of its kindطيب القلب in the worldالعالمية,
100
352120
2532
وهي الأكثر ازدحامًا من نوعها في العالم،
06:06
are requiredمطلوب to wearالبس، ارتداء EEGEEG devicesالأجهزة
101
354676
2476
مطالبون بارتداء أجهزة تخطيط كهرباء المخ
06:09
to monitorمراقب theirهم brainدماغ activityنشاط
while drivingالقيادة.
102
357176
2427
لمتابعة نشاطهم العقلي أثناء القيادة.
06:12
Accordingعلي حسب to some newsأخبار sourcesمصادر,
103
360157
2226
ووفقًا لبعض المصادر الإخبارية،
06:14
in government-runالتي تديرها الحكومة factoriesالمصانع in Chinaالصين,
104
362407
2679
في المصانع الحكومية في الصين،
06:17
the workersعمال are requiredمطلوب to wearالبس، ارتداء
EEGEEG sensorsأجهزة الاستشعار to monitorمراقب theirهم productivityإنتاجية
105
365110
5364
يطالب العمال بارتداء أجهزة تخطيط
كهرباء المخ لمتابعة إنتاجيتهم
06:22
and theirهم emotionalعاطفي stateحالة at work.
106
370498
2115
وحالتهم العاطفية في العمل.
06:25
Workersعمال are even sentأرسلت home
107
373267
2310
ويتم إرسال العمال إلى المنزل
06:27
if theirهم brainsعقل showتبين less-than-stellarاقل من ممتاز
concentrationتركيز on theirهم jobsوظائف,
108
375601
4054
إذا أظهرت أدمغتهم تركيزًا
أقل من ممتاز على وظائفهم،
06:31
or emotionalعاطفي agitationالإثارة.
109
379679
2122
أو إثارة عاطفية.
06:35
It's not going to happenيحدث tomorrowغدا,
110
383189
1745
لن يحدث ذلك غدًا،
06:36
but we're headedذو رأس to a worldالعالمية
of brainدماغ transparencyشفافية.
111
384958
3086
ولكننا نتجه إلى عالم شفافية الدماغ.
06:40
And I don't think people understandتفهم
that that could changeيتغيرون everything.
112
388537
3440
ولا أظن أن الناس يفهمون
أن ذلك قد يغيّر كل شيء.
06:44
Everything from our definitionsتعريفات
of dataالبيانات privacyالإجمالية to our lawsقوانين,
113
392474
3675
كل شيء من تعريفنا
لخصوصية البيانات، والقوانين،
06:48
to our ideasأفكار about freedomحرية.
114
396173
1800
وفكرتنا عن الحرية.
06:50
In factحقيقة, in my labمختبر at Dukeدوق Universityجامعة,
115
398731
3077
في الواقع، في مختبري في جامعة (ديوك)،
06:53
we recentlyمؤخرا conductedأدى إلى a nationwideعلى الصعيد الوطني studyدراسة
in the Unitedمتحد Statesتنص على
116
401832
3175
أجرينا مؤخرًا دراسة
على الصعيد الوطني في أمريكا
06:57
to see if people appreciatedمحل تقدير
117
405031
1959
لمعرفة ما إذا كان الناس يقدرون
06:59
the sensitivityحساسية
of theirهم brainدماغ informationمعلومات.
118
407014
2071
حساسية المعلومات في أدمغتهم.
07:02
We askedطلبت people to rateمعدل
theirهم perceivedمحسوس - ملموس sensitivityحساسية
119
410356
3356
وطلبنا من الناس تقييم حساسيتهم المتصورة
07:05
of 33 differentمختلف kindsأنواع of informationمعلومات,
120
413736
2231
لعدد 33 نوعًا مختلفًا من المعلومات،
07:07
from theirهم socialاجتماعي securityالأمان numbersأعداد
121
415991
2220
من أرقام الضمان الاجتماعي الخاصة بهم،
07:10
to the contentيحتوى
of theirهم phoneهاتف conversationsالمحادثات,
122
418235
2597
إلى محتوى محادثاتهم الهاتفية،
07:12
theirهم relationshipصلة historyالتاريخ,
123
420856
2193
وتاريخ علاقاتهم،
07:15
theirهم emotionsالعواطف, theirهم anxietyالقلق,
124
423073
1942
وعواطفهم، وانفعالاتهم،
07:17
the mentalعقلي imagesصور in theirهم mindعقل
125
425039
1946
والصور الذهنية في عقولهم،
07:19
and the thoughtsأفكار in theirهم mindعقل.
126
427009
1538
والأفكار في أدمغتهم.
07:21
Shockinglyالصدمه, people ratedمقدر theirهم socialاجتماعي
securityالأمان numberرقم as farبعيدا more sensitiveحساس
127
429481
5229
ومن المثير للصدمة أن الناس قد قيموا
رقم ضمانهم الاجتماعي كأكثر حساسية
07:26
than any other kindطيب القلب of informationمعلومات,
128
434734
2203
من أي نوع آخر من المعلومات،
07:28
includingبما فيها theirهم brainدماغ dataالبيانات.
129
436961
2435
بما في ذلك البيانات عن أدمغتهم.
07:32
I think this is because
people don't yetبعد understandتفهم
130
440380
3216
وأظن أن ذلك يرجع إلى عدم فهم الناس
07:35
or believe the implicationsآثار
of this newالجديد brain-decodingفك الدماغ technologyتقنية.
131
443620
4063
أو تصديقهم لآثار تقنية
فك شفرة الدماغ الجديدة.
07:40
After all, if we can know
the innerداخلي workingsعمل of the humanبشري brainدماغ,
132
448629
3289
فبعد كل شيء، إن أمكننا معرفة
ما يجري داخل العقل البشري،
07:43
our socialاجتماعي securityالأمان numbersأعداد
are the leastالأقل of our worriesالمخاوف.
133
451942
2706
ستكون أرقام ضماننا الاجتماعي أقل همومنا.
07:46
(Laughterضحك)
134
454672
1285
(ضحك)
07:47
Think about it.
135
455981
1167
فكروا بذلك.
07:49
In a worldالعالمية of totalمجموع brainدماغ transparencyشفافية,
136
457172
2396
في عالم تسوده شفافية العقل،
07:51
who would dareتجرؤ have
a politicallyسياسي dissidentمنشق thought?
137
459592
2429
من قد يجرؤ على تبني فكر منشق سياسيًا؟
07:55
Or a creativeخلاق one?
138
463279
1541
أو فكر ابداعي؟
07:57
I worryقلق that people will self-censorالرقابة الذاتية
139
465503
3476
أخشى أن يمارس الناس رقابة ذاتية
08:01
in fearخوف of beingيجرى ostracizedمنبوذ by societyالمجتمع,
140
469003
3302
خوفًا من النبذ المجتمعي،
08:04
or that people will loseتخسر theirهم jobsوظائف
because of theirهم waningانحسار attentionانتباه
141
472329
3813
أو أن يخسر الناس وظائفهم
بسبب تضاؤل انتباههم
08:08
or emotionalعاطفي instabilityعدم الاستقرار,
142
476166
2150
أو عدم استقرارهم العاطفي،
08:10
or because they're contemplatingتفكر
collectiveجماعي actionعمل againstضد theirهم employersأرباب العمل.
143
478340
3550
أو لأنهم يضمرون تحركًا جماعيًا
ضد أصحاب العمل.
08:14
That comingآت out
will no longerطويل be an optionاختيار,
144
482478
3177
وأن لا يصبح الخروج متاحًا،
08:17
because people'sوالناس brainsعقل will long agoمنذ
have revealedأظهرت theirهم sexualجنسي orientationاتجاه,
145
485679
5067
لأن أدمغة الناس قد كشفت
منذ زمن بعيد توجههم الجنسي،
08:22
theirهم politicalسياسي ideologyأيديولوجية
146
490770
1822
أو مذهبهم السياسي،
08:24
or theirهم religiousمتدين preferencesالتفضيلات,
147
492616
2025
أو مرجعيتهم الدينية،
08:26
well before they were readyجاهز
to consciouslyبوعي shareشارك that informationمعلومات
148
494665
3080
قبل أن يصبحوا مستعدين
لمشاركة هذه المعلومات
08:29
with other people.
149
497769
1253
مع أناس آخرين.
08:31
I worryقلق about the abilityالقدرة of our lawsقوانين
to keep up with technologicalالتكنولوجية changeيتغيرون.
150
499565
4912
أخشى أن لا تتمكن قوانيننا
من مواكبة التغيّر التكنولوجي.
08:36
Take the First Amendmentتعديل
of the US Constitutionدستور,
151
504986
2320
خذوا التعديل الأول للدستور الأمريكي كمثال،
08:39
whichالتي protectsيحمي freedomحرية of speechخطاب.
152
507330
1958
الذي يحمي حرية التعبير.
08:41
Does it alsoأيضا protectيحمي freedomحرية of thought?
153
509312
1927
هل يحمي حرية التفكير أيضًا؟
08:43
And if so, does that mean that we're freeحر
to alterتغير our thoughtsأفكار howeverومع ذلك we want?
154
511944
4169
وإن كان كذلك، فهل يعني أننا أحرار
في تغيير أفكارنا كما نريد؟
08:48
Or can the governmentحكومة or societyالمجتمع tell us
what we can do with our ownخاصة brainsعقل?
155
516137
4674
أو هل يمكن للحكومة أو المجتمع
أن يخبرونا كيف نستخدم أدمغتنا؟
08:53
Can the NSANSA spyالجاسوس on our brainsعقل
usingاستخدام these newالجديد mobileالتليفون المحمول devicesالأجهزة?
156
521591
3717
هل يمكن لناسا التجسس على أدمغتنا
باستخدام هذه الأجهزة المحمولة؟
08:58
Can the companiesالشركات that collectتجميع
the brainدماغ dataالبيانات throughعبر theirهم applicationsتطبيقات
157
526053
4119
هل يمكن للشركات التي تجمع
بيانات الدماغ عبر تطبيقاتها
09:02
sellيبيع this informationمعلومات to thirdالثالث partiesحفلات?
158
530196
2074
أن تبيع هذه المعلومات لطرف ثالث؟
09:05
Right now, no lawsقوانين preventيحول دون them
from doing so.
159
533174
3222
حتى الآن، لا يوجد قوانين
تمنعهم من فعل ذلك.
09:09
It could be even more problematicإشكالية
160
537203
2025
ويمكن أن تكون الأمور أكثر سوءًا
09:11
in countriesبلدان that don't shareشارك
the sameنفسه freedomsالحريات
161
539252
2519
في الدول التي لا تشارك نفس الحريات
09:13
enjoyedاستمتعت by people in the Unitedمتحد Statesتنص على.
162
541795
2103
التي يتمتع بها المواطنون
في الولايات المتحدة.
09:16
What would'veسوف لقد happenedحدث duringأثناء
the Iranianإيراني Greenأخضر Movementحركة
163
544883
3787
ما الذي كان سيحدث
خلال الحركة الإيرانية الخضراء
09:20
if the governmentحكومة had been
monitoringمراقبة my family'sالعائلة brainدماغ activityنشاط,
164
548694
3901
إذا كانت الحكومة تراقب نشاط دماغ عائلتي،
09:24
and had believedيعتقد them
to be sympatheticودي to the protestersالمتظاهرين?
165
552619
4007
وأيقنت أنهم متعاطفون مع المحتجّين؟
09:30
Is it so far-fetchedبعيد الإحتمال to imagineتخيل a societyالمجتمع
166
558091
3047
هل يصعب تخيل مجتمع
09:33
in whichالتي people are arrestedالقى القبض
basedعلى أساس on theirهم thoughtsأفكار
167
561162
2842
حيث يتم اعتقال الناس بسبب تفكيرهم
09:36
of committingيرتكب جريمة a crimeجريمة,
168
564028
1167
في ارتكاب جريمة،
09:37
like in the science-fictionالخيال العلمي
dystopianبائس societyالمجتمع in "Minorityأقلية Reportأبلغ عن."
169
565219
4312
كما هو الحال في مجتمع الخيال العلمي
المرير في فيلم (ماينوريتي ريبورت).
09:42
Alreadyسابقا, in the Unitedمتحد Statesتنص على, in Indianaإنديانا,
170
570286
4323
بالفعل، في الولايات المتحدة، في (إنديانا)،
09:46
an 18-year-old-سنه was chargedمتهم
with attemptingمحاولة to intimidateتخويف his schoolمدرسة
171
574633
4937
تم اتهام شاب يبلغ من العمر 18 عامًا
بمحاولة ترهيب مدرسته
09:51
by postingنشر a videoفيديو of himselfنفسه
shootingاطلاق الرصاص people in the hallwaysالممرات ...
172
579594
3309
عن طريق نشر فيديو لنفسه
وهو يطلق النار على الناس في الممرات ...
09:55
Exceptإلا the people were zombiesالاموات الاحياء
173
583881
3007
باستثناء أن الناس كانوا من الموتى الأحياء
09:58
and the videoفيديو was of him playingتلعب
an augmented-realityالواقع المعزز videoفيديو gameلعبه,
174
586912
5047
وكان الفيديو عنه
وهو يلعب لعبة بالواقع المعزز،
10:03
all interpretedتفسير to be a mentalعقلي projectionإسقاط
of his subjectiveشخصي intentنوايا.
175
591983
4772
ما تم تفسيره كانعكاس لنواياه الشخصية.
10:10
This is exactlyبالضبط why our brainsعقل
need specialخاص protectionحماية.
176
598456
4612
لهذا السبب تحتاج عقولنا إلى الحماية.
10:15
If our brainsعقل are just as subjectموضوع
to dataالبيانات trackingتتبع and aggregationتجميع
177
603092
3556
إذا كانت أدمغتنا عرضة
لتتبع وتجميع البيانات
10:18
as our financialالأمور المالية recordsتسجيل and transactionsالمعاملات,
178
606672
2532
كسجلاتنا ومعاملاتنا المالية،
10:21
if our brainsعقل can be hackedاخترق
and trackedتعقب like our onlineعبر الانترنت activitiesأنشطة,
179
609228
4285
إذا كان من الممكن اختراق أدمغتنا وتعقبها
مثل أنشطتنا على الإنترنت،
10:25
our mobileالتليفون المحمول phonesالهواتف and applicationsتطبيقات,
180
613537
2361
وهواتفنا المحمولة وتطبيقاتنا،
10:27
then we're on the brinkحافة of a dangerousخطير
threatالتهديد to our collectiveجماعي humanityإنسانية.
181
615922
4269
فنحن إذن على شفا تهديد خطير
على إنسانيتنا الجماعية.
10:33
Before you panicهلع,
182
621406
1309
وقبل أن تفزعوا،
10:36
I believe that there are solutionsمحاليل
to these concernsاهتمامات,
183
624012
3144
أعتقد أن هناك حلول لهذه المخاوف،
10:39
but we have to startبداية by focusingالتركيز
on the right things.
184
627180
2825
ولكن علينا أن نبدأ بالتركيز
على الأمور الصحيحة.
10:42
When it comesيأتي to privacyالإجمالية
protectionsالحماية in generalجنرال لواء,
185
630580
2921
عندما يتعلق الأمر
بحماية الخصوصية بشكل عام،
10:45
I think we're fightingقتال a losingفقدان battleمعركة
186
633525
1826
فأعتقد أننا نخوض معركة خاسرة
10:47
by tryingمحاولة to restrictبتقييد
the flowتدفق of informationمعلومات.
187
635375
2858
بمحاولة تقييد تدفق المعلومات.
10:50
Insteadفي حين أن, we should be focusingالتركيز
on securingتأمين rightsحقوق and remediesالعلاجات
188
638257
4057
بدلاً من ذلك، يجب أن نركز
على ضمان الحقوق والإصلاحات
10:54
againstضد the misuseسوء استخدام of our informationمعلومات.
189
642338
2275
ضد إساءة استخدام معلوماتنا.
10:57
If people had the right to decideقرر
how theirهم informationمعلومات was sharedمشترك,
190
645291
3285
إذا كان لدى الأشخاص الحق
في تقرير كيفية مشاركة معلوماتهم،
11:00
and more importantlyالأهم, have legalقانوني redressإصلاح
191
648600
2921
والأهم من ذلك، الحصول على تعويض قانوني
11:03
if theirهم informationمعلومات
was misusedسوء الاستعمال againstضد them,
192
651545
2428
إذا تم استخدام معلوماتهم ضدهم،
11:05
say to discriminateتميز againstضد them
in an employmentتوظيف settingضبط
193
653997
2786
كأن يتم التمييز ضدهم في التوظيف
11:08
or in healthالصحة careرعاية or educationالتعليم,
194
656807
2785
أو الرعاية الصحية أو التعليم،
11:11
this would go a long way to buildبناء trustثقة.
195
659616
2571
فإن ذلك سيقطع شوطًا طويلًا لبناء الثقة.
11:14
In factحقيقة, in some instancesالحالات,
196
662843
1718
في الواقع، في بعض الحالات،
11:16
we want to be sharingمشاركة more
of our personalالشخصية informationمعلومات.
197
664585
3524
قد نرغب في مشاركة المزيد
من معلوماتنا الشخصية.
11:20
Studyingدراسة عربي aggregatedمجمعة informationمعلومات
can tell us so much
198
668697
3047
يمكن لدراسة المعلومات المجمّعة
أن تخبرنا كثيرًا
11:23
about our healthالصحة and our well-beingرفاهية,
199
671768
2747
عن صحتنا ورفاهيتنا،
11:26
but to be ableقادر to safelyبسلام shareشارك
our informationمعلومات,
200
674539
3313
ولكن لنكون قادرين
على مشاركة معلوماتنا بأمان،
11:29
we need specialخاص protectionsالحماية
for mentalعقلي privacyالإجمالية.
201
677876
3223
فنحن بحاجة إلى حماية استثنائية
للخصوصية العقلية.
11:33
This is why we need
a right to cognitiveالإدراكي libertyحرية.
202
681832
3147
هذا هو سبب حاجتنا
إلى الحق في حرية الإدراك.
11:37
This right would secureتأمين for us
our freedomحرية of thought and ruminationاجترار,
203
685543
4079
هذا الحق سيضمن لنا حرية الفكر والتأمل،
11:41
our freedomحرية of self-determinationتقرير المصير,
204
689646
2540
وحريتنا في تقرير المصير،
11:44
and it would insureتأمين that we have
the right to consentموافقة to or refuseرفض
205
692210
4390
وسيضمن لنا الحق في قبول أو رفض
11:48
accessالتمكن من and alterationتغيير
of our brainsعقل by othersالآخرين.
206
696624
2857
اختراق الآخرين لأدمغتنا أو تعديلها.
11:51
This right could be recognizedمعروف
207
699811
2112
يمكن الاعتراف بهذا الحق
11:53
as partجزء of the Universalعالمي Declarationإعلان
of Humanبشري Rightsحقوق,
208
701947
2883
كجزء من الإعلان العالمي لحقوق الإنسان،
11:56
whichالتي has establishedأنشئت mechanismsآليات
209
704854
2388
الذي أسس آليات
11:59
for the enforcementتطبيق
of these kindsأنواع of socialاجتماعي rightsحقوق.
210
707266
2856
لإنفاذ هذه الأنواع من الحقوق الاجتماعية.
12:03
Duringأثناء the Iranianإيراني Greenأخضر Movementحركة,
211
711872
2070
خلال الحركة الإيرانية الخضراء،
12:05
the protestersالمتظاهرين used the internetالإنترنت
and good old-fashionedقديم الطراز wordكلمة of mouthفم
212
713966
5186
استخدم المتظاهرون الإنترنت
وتناقل الأحاديث التقليدي
12:11
to coordinateتنسيق theirهم marchesمسيرات.
213
719176
1948
لتنظيم مسيراتهم.
12:14
And some of the mostعظم oppressiveظالم
restrictionsقيود in Iranإيران
214
722238
2769
وتم رفع بعض من أكثر القيود
قمعًا في إيران
12:17
were liftedرفعت as a resultنتيجة.
215
725031
1877
كنتيجة لذلك.
12:20
But what if the Iranianإيراني governmentحكومة
had used brainدماغ surveillanceمراقبة
216
728047
4087
لكن ماذا لو استخدمت الحكومة الإيرانية
مراقبة الدماغ
12:24
to detectالكشف and preventيحول دون the protestوقفة احتجاجية?
217
732158
3061
للكشف عن الاحتجاج ومنعه؟
12:28
Would the worldالعالمية have ever heardسمعت
the protesters'متظاهرين criesصرخات?
218
736847
3176
هل كان العالم سيسمع صرخات المتظاهرين؟
12:33
The time has come for us to call
for a cognitiveالإدراكي libertyحرية revolutionثورة.
219
741732
5121
لقد حان الوقت لكي ندعو
إلى ثورة في حرية الإدراك.
12:39
To make sure that we responsiblyمسؤول
advanceتقدم technologyتقنية
220
747559
3264
للتأكد من أننا نقوم
بتطوير التكنولوجيا بشكل مسؤول
12:42
that could enableمكن us to embraceتعانق the futureمستقبل
221
750847
2978
يمكننا من احتضان المستقبل
12:45
while fiercelyبعنف protectingحماية all of us
from any personشخص, companyشركة or governmentحكومة
222
753849
6717
بينما نحمي أنفسنا بقوة
من أي شخص أو شركة أو حكومة
12:52
that attemptsمحاولات to unlawfullyصوره غير مشروعه accessالتمكن من
or alterتغير our innermostطوية livesالأرواح.
223
760590
5040
تحاول اختراق أو تغيير
حياتنا الداخلية بشكل محرم.
12:58
Thank you.
224
766659
1174
شكرًا لكم.
12:59
(Applauseتصفيق)
225
767857
3492
(تصفيق)
Translated by Amany Allam
Reviewed by Riyad Almubarak

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com