ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

ניטה א.פארהאני: כאשר טכנולוגיה יכולה לקרוא את שבמוחנו, איך נוכל להגן על הפרטיות שלנו?

Filmed:
1,819,292 views

טכנולוגיה שיכולה לפענח את הפעילות המוחית שלכם ולחשוף את מה שאתם חושבים ומרגישים נראית באופק, אומרת מומחית המשפטים והאתיקאית ניטה פארהאני. מה תהיה המשמעות של זה על תחושת הפרטיות שלנו שכבר מופרת? בהרצאה שמהווה תמרור אזהרה, מתריעה פארהאני מחברה שבה אנשים נעצרים רק בגלל מחשבה על ביצוע פשע (כמו בסרט "דו"ח מיוחד"), ונתוני המוח שלנו נמכרים מתוך אינטרסים פרטיים -- וטוענת את נימוקיה בעד הזכות לחירות של ההכרה שמגינה על חופש המחשבה וההגדרה העצמית שלנו.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsחודשים followingהבא
the 2009 presidentialנְשִׂיאוּתִי electionבְּחִירָה in Iranאִירָן,
0
1096
4714
בחודשים שלאחר הבחירות
לנשיאות באיראן ב-2009,
00:17
protestsמחאות eruptedפרצה acrossלְרוֹחָב the countryמדינה.
1
5834
2894
פרצו מחאות ברחבי המדינה.
00:21
The Iranianאיראני governmentמֶמְשָׁלָה
violentlyבאלימות suppressedמדוכא
2
9685
2896
ממשלת איראן דיכאה באלימות
00:24
what cameבא to be knownידוע
as the Iranianאיראני Greenירוק Movementתְנוּעָה,
3
12605
3979
את מה שהוכר בשם
"התנועה הירוקה האיראנית,"
00:28
even blockingחוסם mobileנייד signalsאותות
4
16608
2053
אפילו חסמה את אותות הניידים
00:30
to cutגזירה off communicationתִקשׁוֹרֶת
betweenבֵּין the protestersמפגינים.
5
18685
2714
כדי לנתק את התקשורת בין המפגינים.
00:34
My parentsהורים, who emigratedהיגר
to the Unitedמאוחד Statesמדינות in the lateמאוחר 1960s,
6
22316
4669
הורי, שהיגרו לארה"ב
בסוף שנות השישים,
00:39
spendלְבַלוֹת substantialמַמָשִׁי time there,
7
27009
1794
חיו שם הרבה שנים,
00:40
where all of my largeגָדוֹל,
extendedמורחב familyמִשׁפָּחָה liveלחיות.
8
28827
3153
במקום שבו מתגוררת כל
משפחתי המורחבת הגדולה.
00:44
When I would call my familyמִשׁפָּחָה in Tehranטהראן
9
32832
3129
כשטלפנתי למשפחתי בטהרן
00:47
duringבְּמַהֲלָך some of the mostרוב violentאַלִים
crackdownsסנקציות of the protestלמחות,
10
35985
3452
במהלך כמה מפעולות הנגד האלימות ביותר
אל מול המחאה,
00:51
noneאף אחד of them daredהעזתי discussלָדוּן
with me what was happeningמתרחש.
11
39461
3252
איש מהם לא העז לדון איתי על מה שקורה.
00:55
They or I knewידע to quicklyבִּמְהִירוּת steerלְהַטוֹת
the conversationשִׂיחָה to other topicsנושאים.
12
43196
3529
הם או אני ידענו לנווט את השיחה במהירות
לנושאים אחרים.
00:59
All of us understoodהבין
what the consequencesהשלכות could be
13
47163
3380
כולנו הבנו מה יכולות להיות התוצאות
01:02
of a perceivedנתפס dissidentפּוֹרֵשׁ actionפעולה.
14
50567
2540
של פעולת התנגדות שנתפסת.
01:06
But I still wishבַּקָשָׁה I could have knownידוע
what they were thinkingחושב
15
54095
3469
אבל עדיין רציתי לדעת על מה
הם חושבים
01:09
or what they were feelingמַרגִישׁ.
16
57588
1418
או מה הם מרגישים.
01:12
What if I could have?
17
60217
1393
מה לו יכולתי לדעת?
01:14
Or more frighteninglyמפחיד,
18
62149
1151
או יותר מפחיד,
01:15
what if the Iranianאיראני governmentמֶמְשָׁלָה could have?
19
63324
2761
מה היה קורה לו ממשלת איראן
יכלה לדעת?
01:18
Would they have arrestedנֶעצָר them
basedמבוסס on what theirשֶׁלָהֶם brainsמוֹחַ revealedגילה?
20
66695
3244
האם היו עוצרים אותם
על סמך מה שמוחותיהם חשפו?
01:22
That day mayמאי be closerיותר קרוב than you think.
21
70933
2944
יום זה עשוי להיות קרוב יותר
ממה שאתם חושבים.
01:26
With our growingגָדֵל capabilitiesיכולות
in neuroscienceמדעי המוח, artificialמְלָאכוּתִי intelligenceאינטליגנציה
22
74527
3811
עם יכולותינו הגוברות במדעי המוח,
בבינה מלאכותית
01:30
and machineמְכוֹנָה learningלְמִידָה,
23
78362
1703
ובלמידת מכונה,
01:32
we mayמאי soonבקרוב know a lot more
of what's happeningמתרחש in the humanבן אנוש brainמוֹחַ.
24
80089
4075
אנו עשויים בקרוב לדעת הרבה יותר
על מה שקורה במוח האנושי.
01:37
As a bioethicistביו-אתיקאי, a lawyerעורך דין, a philosopherפִילוֹסוֹף
25
85083
3310
כביו-אתיקאית, עורכת דין, פילוסופית
01:40
and an Iranian-Americanאיראני-אמריקאי,
26
88417
1867
ואיראנית-אמריקאית,
01:42
I'm deeplyבאופן מעמיק concernedמודאג
about what this meansאומר for our freedomsחירויות
27
90308
3787
אני מודאגת מאוד ממה שזה אומר
על החירויות שלנו
01:46
and what kindsמיני of protectionsהגנות we need.
28
94119
2171
ולאיזה סוג של הגנות אנחנו זקוקים.
01:48
I believe we need
a right to cognitiveקוגניטיבית libertyחוֹפֶשׁ,
29
96993
3460
אני מאמינה שאנו זקוקים לזְכוּת
לחירות ההכרה,
01:52
as a humanבן אנוש right
that needsצרכי to be protectedמוּגָן.
30
100477
2892
כזכות אדם שצריכה להיות מוגנת.
01:55
If not, our freedomחוֹפֶשׁ of thought,
31
103772
2643
אם לא, חופש המחשבה שלנו,
01:58
accessגִישָׁה and controlלִשְׁלוֹט over our ownשֶׁלוֹ brainsמוֹחַ
32
106439
3024
גישה אל המוח שלנו ,שליטה עליו
02:01
and our mentalנַפשִׁי privacyפְּרָטִיוּת will be threatenedמאוים.
33
109487
2841
יאיימו על הפרטיות השכלית שלנו.
02:05
Considerלשקול this:
34
113698
1158
חישבו על כך:
02:06
the averageמְמוּצָע personאדם thinksחושב
thousandsאלפים of thoughtsמחשבות eachכל אחד day.
35
114880
3314
האדם הממוצע חושב
אלפי מחשבות בכל יום.
02:10
As a thought takes formטופס,
36
118697
1151
כשמחשבה לובשת צורה,
02:11
like a mathמתמטיקה calculationתַחשִׁיב
or a numberמספר, a wordמִלָה,
37
119872
5056
כגון חישוב מתמטי, מספר, או מילה,
02:16
neuronsנוירונים are interactingאינטראקציה in the brainמוֹחַ,
38
124952
2885
פועלים נוירונים במוח זה על זה,
02:19
creatingיוצר a minisculeמזערי electricalחַשׁמַלִי dischargeפְּרִיקָה.
39
127861
3088
ויוצרים פריקה חשמלית זעירה.
02:23
When you have a dominantדוֹמִינָנטִי
mentalנַפשִׁי stateמדינה, like relaxationהַרפָּיָה,
40
131713
3452
כאשר אתם במצב נפשי בעל
השפעה בולטת, כמו הרגעות,
02:27
hundredsמאות and thousandsאלפים of neuronsנוירונים
are firingירי in the brainמוֹחַ,
41
135189
4175
מאות ואלפי נוירונים יורים במוח,
02:31
creatingיוצר concurrentבו זמנית electricalחַשׁמַלִי dischargesמשחרר
in characteristicמאפיין patternsדפוסי
42
139388
4218
ויוצרים פריקות חשמליות בו-זמניות
בדפוסים אופייניים
02:35
that can be measuredנמדד
with electroencephalographyאלקטרואנצפלוגרפיה, or EEGEEG.
43
143630
4865
שניתנים למדידה בעזרת
אלקטרואנצפלוגרם, או EEG.
02:41
In factעוּבדָה, that's what
you're seeingרְאִיָה right now.
44
149118
2160
למעשה, זה מה שאתם רואים ממש עכשיו.
02:43
You're seeingרְאִיָה my brainמוֹחַ activityפעילות
that was recordedמוּקלָט in realאמיתי time
45
151956
3964
אתם רואים את פעילות המוח שלי
שנרשמה בזמן אמת
02:47
with a simpleפָּשׁוּט deviceהתקן
that was wornשָׁחוּק on my headרֹאשׁ.
46
155944
2735
בעזרת מכשיר פשוט שהולבש על ראשי.
02:51
What you're seeingרְאִיָה is my brainמוֹחַ activityפעילות
when I was relaxedרָגוּעַ and curiousסקרן.
47
159669
5653
מה שאתם רואים זו פעילות המוח שלי
כשהייתי רגועה וסקרנית.
02:58
To shareלַחֲלוֹק this informationמֵידָע with you,
48
166097
1755
כדי לשתף איתכם מידע זה,
02:59
I woreלבש one of the earlyמוקדם
consumer-basedמבוסס הצרכן EEGEEG devicesהתקנים
49
167876
3020
לבשתי אחד מהתקני ה-EEG הראשונים
המיועדים לצרכן
03:02
like this one,
50
170920
1211
כמו זה,
03:04
whichאיזה recordedמוּקלָט the electricalחַשׁמַלִי
activityפעילות in my brainמוֹחַ in realאמיתי time.
51
172155
3988
שרשם את הפעילות החשמלית במוח שלי
בזמן אמת.
03:08
It's not unlikeבניגוד the fitnessכושר trackersעוקבים
that some of you mayמאי be wearingלובש
52
176849
3826
זה לא שונה בהרבה ממכשירי מעקב הכושר
שכמה מכם אולי מרכיבים
03:12
to measureלִמְדוֹד your heartלֵב rateציון
or the stepsצעדים that you've takenנלקח,
53
180699
3586
כדי למדוד את קצב הלב שלכם
או את מספר הצעדים שהלכתם,
03:16
or even your sleepלִישׁוֹן activityפעילות.
54
184309
1587
או אפילו את פעילות השינה שלכם.
03:19
It's hardlyבְּקוֹשִׁי the mostרוב sophisticatedמתוחכם
neuroimagingהדמייה מוחית techniqueטֶכנִיקָה on the marketשׁוּק.
55
187154
3824
זו לא טכניקת הדמיית המוח
הכי מתוחכמת בשוק.
03:23
But it's alreadyכְּבָר the mostרוב portableנייד
56
191597
2378
אבל היא כבר הכי ניידת
03:25
and the mostרוב likelyסָבִיר to impactפְּגִיעָה
our everydayכל יום livesחיים.
57
193999
3152
ובעלת הסיכוי הטוב ביותר
להשפיע על חיי היומיום שלנו.
03:29
This is extraordinaryיוצא דופן.
58
197915
1503
זה יוצא מהכלל.
03:31
Throughדרך a simpleפָּשׁוּט, wearableלָבִישׁ deviceהתקן,
59
199442
2505
באמצעות מכשיר פשוט, לביש,
03:33
we can literallyפשוטו כמשמעו see
insideבְּתוֹך the humanבן אנוש brainמוֹחַ
60
201971
3548
אנחנו יכולים ממש להסתכל
לתוך המוח האנושי
03:37
and learnלִלמוֹד aspectsהיבטים of our mentalנַפשִׁי landscapeנוֹף
withoutלְלֹא ever utteringהַשׁמָעָה a wordמִלָה.
61
205543
6476
וללמוד היבטים של הנוף השכלי שלנו,
מבלי להשמיע מילה אחת.
03:44
While we can't reliablyבאופן מהימן decodeלְפַעֲנֵחַ
complexמורכב thoughtsמחשבות just yetעדיין,
62
212829
3653
למרות שעדיין איננו יכולים לפענח
מחשבות מורכבות באופן אמין,
03:48
we can alreadyכְּבָר gaugeמַד a person'sשל אדם moodמַצַב רוּחַ,
63
216506
2519
אנו כבר יכולים למדוד מצב רוח של אדם,
03:51
and with the help
of artificialמְלָאכוּתִי intelligenceאינטליגנציה,
64
219049
2873
ובעזרת בינה מלאכותית,
03:53
we can even decodeלְפַעֲנֵחַ
some single-digitספרה אחת numbersמספרים
65
221946
4341
אנחנו אפילו יכולים לפענח
מספרים חד-ספרתיים אחדים
03:58
or shapesצורות or simpleפָּשׁוּט wordsמילים
that a personאדם is thinkingחושב
66
226311
4882
או צורות או מילים פשוטות
שאדם חושב,
04:03
or hearingשמיעה, or seeingרְאִיָה.
67
231217
2189
או שומע, או רואה.
04:06
Despiteלמרות some inherentטָבוּעַ limitationsמגבלות in EEGEEG,
68
234345
3365
למרות כמה מגבלות הטבועות ב EEG,
04:09
I think it's safeבטוח to say
that with our advancesההתקדמות in technologyטֶכנוֹלוֹגִיָה,
69
237734
4720
אני חושבת שאפשר לומר בבטחה
שעם ההתקדמות שלנו בטכנולוגיה,
04:14
more and more of what's happeningמתרחש
in the humanבן אנוש brainמוֹחַ
70
242478
3809
יותר ויותר ממה שקורה במוח האנושי
04:18
can and will be decodedמְפוּענָח over time.
71
246311
2310
יכול ויהיה מפוענח במהלך הזמן.
04:21
Alreadyכְּבָר, usingבאמצעות one of these devicesהתקנים,
72
249362
2746
כבר עכשיו, באמצעות אחד המכשירים האלה,
04:24
an epilepticשֶׁל מַחֲלַת הַנְפִילָה can know
they're going to have an epilepticשֶׁל מַחֲלַת הַנְפִילָה seizureתְפִיסָה
73
252132
3255
אדם אפילפטי יכול לצפות
שהוא עומד לקבל התקף אפילפטי
04:27
before it happensקורה.
74
255411
1436
לפני שזה יקרה.
04:28
A paraplegicמשותק can typeסוּג on a computerמַחשֵׁב
with theirשֶׁלָהֶם thoughtsמחשבות aloneלבד.
75
256871
4603
משותק יכול להקליד על מחשב
בעזרת מחשבותיו בלבד.
04:34
A US-basedשבסיסן companyחֶברָה has developedמפותח
a technologyטֶכנוֹלוֹגִיָה to embedלְשַׁבֵּץ these sensorsחיישנים
76
262485
4183
חברה אמריקאית פיתחה
טכנולוגיה להתקנת חיישנים אלה
04:38
into the headrestמשענת ראש of automobiliesautomobilies
77
266692
2230
בתוך משענת הראש של מכוניות
04:40
so they can trackמַסלוּל driverנהג concentrationריכוז,
78
268946
2505
כך שהם יכולים לעקוב אחר
רמת הריכוז של הנהג,
04:43
distractionהַסָחַת הַדַעַת and cognitiveקוגניטיבית loadלִטעוֹן
while drivingנְהִיגָה.
79
271475
2667
הסחת הדעת, ועומס הכרתי
עליו בזמן הנהיגה.
04:46
Nissanניסן, insuranceביטוח companiesחברות
and AAAAAA have all takenנלקח noteהערה.
80
274912
4058
ניסן, חברות ביטוח, וטריפְּל-אֵיי
התעניינו בזה.
04:51
You could even watch this
choose-your-own-adventureלבחור את ההרפתקה שלך movieסרט
81
279949
4508
תוכלו אפילו לצפות בסרט מסוג
"בחרו-את-ההרפתקה-שלכם",
04:56
"The Momentרֶגַע," whichאיזה, with an EEGEEG headsetאוזניות,
82
284481
4240
"הרגע", אשר, עם אזניות EEG,
05:00
changesשינויים the movieסרט
basedמבוסס on your brain-basedהמוח מבוסס reactionsהתגובות,
83
288745
3926
משנה את הסרט בהתאם לתגובות
מבוססות-המוח שלכם,
05:04
givingמַתָן you a differentשונה endingסִיוּם
everyכֹּל time your attentionתשומת הלב waneswanes.
84
292695
4353
ומציגה בפניכם סוף שונה בכל פעם
שתשומת הלב שלכם דועכת.
05:11
This mayמאי all soundנשמע great,
85
299154
2763
כל זה אולי נשמע נהדר,
05:13
and as a bioethicistביו-אתיקאי,
86
301941
2189
וכביו-אתיקאית,
05:16
I am a hugeעָצוּם proponentתוֹמֵך of empoweringהעצמה people
87
304154
3613
אני תומכת מאוד בהעצמת אנשים
05:19
to take chargeלחייב of theirשֶׁלָהֶם ownשֶׁלוֹ
healthבְּרִיאוּת and well-beingרווחה
88
307791
2616
כדי שיקחו אחריות על הבריאות
והרווחה שלהם
05:22
by givingמַתָן them accessגִישָׁה
to informationמֵידָע about themselvesעצמם,
89
310431
2918
על ידי מתן גישה למידע על עצמם,
05:25
includingלְרַבּוֹת this incredibleמדהים
newחָדָשׁ brain-decodingפענוח המוח technologyטֶכנוֹלוֹגִיָה.
90
313373
2976
כולל טכנולוגיה חדשה מדהימה זו
של פענוח המוח.
05:29
But I worryדאגה.
91
317878
1167
אבל אני מודאגת.
05:31
I worryדאגה that we will voluntarilyמרצון
or involuntarilyשלא מרצון give up
92
319736
4760
אני מודאגת שמא נוותר מרצון
או שלא מרצון
05:36
our last bastionמִבצָר of freedomחוֹפֶשׁ,
our mentalנַפשִׁי privacyפְּרָטִיוּת.
93
324520
4118
על מעוז החופש האחרון שלנו,
על פרטיות שכלנו.
05:41
That we will tradeסַחַר our brainמוֹחַ activityפעילות
94
329302
2925
שמא נסחר בפעילות המוח שלנו
05:44
for rebatesהנחות or discountsהנחות on insuranceביטוח,
95
332251
3046
תמורת החזרים כספיים או הנחות על ביטוח,
05:48
or freeחופשי accessגִישָׁה
to social-mediaמדיה חברתית accountsחשבונות ...
96
336391
2603
או תמורת גישה חופשית
לחשבונות מדיה חברתית ...
05:52
or even to keep our jobsמקומות תעסוקה.
97
340444
1848
או אפילו כדי לשמור על המשרות שלנו.
05:54
In factעוּבדָה, in Chinaסין,
98
342900
1913
למעשה, בסין,
05:58
the trainרכבת driversנהגים on
the Beijing-Shanghaiבייג-שנגחאי high-speedמהירות גבוהה railרכבת,
99
346199
5897
נהגי הרכבת המהירה בקו בייג'ינג-שנחאי,
06:04
the busiestהעמוס ביותר of its kindסוג in the worldעוֹלָם,
100
352120
2532
העמוסה ביותר מסוגה בעולם,
06:06
are requiredנדרש to wearלִלבּוֹשׁ EEGEEG devicesהתקנים
101
354676
2476
נדרשים להרכיב מכשירי EEG
06:09
to monitorלפקח theirשֶׁלָהֶם brainמוֹחַ activityפעילות
while drivingנְהִיגָה.
102
357176
2427
כדי לנטר את פעילות המוח שלהם
בזמן הנהיגה.
06:12
Accordingלפי to some newsחֲדָשׁוֹת sourcesמקורות,
103
360157
2226
על פי כמה מקורות של חדשות,
06:14
in government-runממשלתי factoriesבתי חרושת in Chinaסין,
104
362407
2679
במפעלים המנוהלים על ידי הממשלה בסין,
06:17
the workersעובדים are requiredנדרש to wearלִלבּוֹשׁ
EEGEEG sensorsחיישנים to monitorלפקח theirשֶׁלָהֶם productivityפִּריוֹן
105
365110
5364
העובדים נדרשים להרכיב חיישני EEG כדי
לנטר את מידת היצרנות שלהם
06:22
and theirשֶׁלָהֶם emotionalרִגשִׁי stateמדינה at work.
106
370498
2115
ואת המצב הרגשי שלהם בעבודה.
06:25
Workersעובדים are even sentנשלח home
107
373267
2310
העובדים אפילו נשלחים הביתה
06:27
if theirשֶׁלָהֶם brainsמוֹחַ showלְהַצִיג less-than-stellarפחות מאשר כוכבים
concentrationריכוז on theirשֶׁלָהֶם jobsמקומות תעסוקה,
108
375601
4054
אם המוח שלהם מראה פחות מאשר
ריכוז מיטבי בעבודתם,
06:31
or emotionalרִגשִׁי agitationתסיסה.
109
379679
2122
או טלטלה רגשית.
06:35
It's not going to happenלִקְרוֹת tomorrowמָחָר,
110
383189
1745
זה לא עומד לקרות מחר,
06:36
but we're headedבראשותו to a worldעוֹלָם
of brainמוֹחַ transparencyשְׁקִיפוּת.
111
384958
3086
אבל אנחנו עומדים בפני עולם
של שקיפות מוחית.
06:40
And I don't think people understandמבין
that that could changeשינוי everything.
112
388537
3440
ואני לא חושבת שאנשים מבינים
שזה יוכל לשנות הכל.
06:44
Everything from our definitionsהגדרות
of dataנתונים privacyפְּרָטִיוּת to our lawsחוקי,
113
392474
3675
הכל, החל מהגדרות פרטיות המידע שלנו
עד לחוקים שלנו,
06:48
to our ideasרעיונות about freedomחוֹפֶשׁ.
114
396173
1800
ועד לרעיונות שלנו על חופש.
06:50
In factעוּבדָה, in my labמַעבָּדָה at Dukeדוּכָּס Universityאוּנִיבֶרְסִיטָה,
115
398731
3077
למעשה, במעבדה שלי באוניברסיטת דיוק,
06:53
we recentlyלאחרונה conductedמנוהל a nationwideארצית studyלימוד
in the Unitedמאוחד Statesמדינות
116
401832
3175
ערכנו לאחרונה מחקר בהיקף-ארצי
בארצות הברית
06:57
to see if people appreciatedמוערך
117
405031
1959
כדי לראות אם אנשים מעריכים
06:59
the sensitivityרְגִישׁוּת
of theirשֶׁלָהֶם brainמוֹחַ informationמֵידָע.
118
407014
2071
את רגישות המידע המוחי שלהם.
07:02
We askedשאל people to rateציון
theirשֶׁלָהֶם perceivedנתפס sensitivityרְגִישׁוּת
119
410356
3356
ביקשנו מאנשים לדרג את
רמת הרגישות על פי תפיסתם
07:05
of 33 differentשונה kindsמיני of informationמֵידָע,
120
413736
2231
של 33 סוגים שונים של מידע,
07:07
from theirשֶׁלָהֶם socialחֶברָתִי securityבִּטָחוֹן numbersמספרים
121
415991
2220
ממספרי הביטוח הלאומי שלהם
07:10
to the contentתוֹכֶן
of theirשֶׁלָהֶם phoneטלפון conversationsשיחות,
122
418235
2597
לתכנים של שיחות הטלפון שלהם,
07:12
theirשֶׁלָהֶם relationshipמערכת יחסים historyהִיסטוֹרִיָה,
123
420856
2193
ההיסטוריה של מערכות היחסים שלהם,
07:15
theirשֶׁלָהֶם emotionsרגשות, theirשֶׁלָהֶם anxietyחֲרָדָה,
124
423073
1942
הרגשות שלהם, החרדות שלהם,
07:17
the mentalנַפשִׁי imagesתמונות in theirשֶׁלָהֶם mindאכפת
125
425039
1946
את הדימויים הנפשיים שבמוחם
07:19
and the thoughtsמחשבות in theirשֶׁלָהֶם mindאכפת.
126
427009
1538
ואת המחשבות בראשם.
07:21
Shockinglyפתיע, people ratedמדורג theirשֶׁלָהֶם socialחֶברָתִי
securityבִּטָחוֹן numberמספר as farרָחוֹק more sensitiveרָגִישׁ
127
429481
5229
מדהים שאנשים דרגו את מספר
הביטוח הלאומי שלהם כרגיש יותר
07:26
than any other kindסוג of informationמֵידָע,
128
434734
2203
מכל סוג אחר של מידע,
07:28
includingלְרַבּוֹת theirשֶׁלָהֶם brainמוֹחַ dataנתונים.
129
436961
2435
כולל נתוני המוח שלהם.
07:32
I think this is because
people don't yetעדיין understandמבין
130
440380
3216
אני חושבת שזה בגלל
שאנשים עדיין לא מבינים
07:35
or believe the implicationsהשלכות
of this newחָדָשׁ brain-decodingפענוח המוח technologyטֶכנוֹלוֹגִיָה.
131
443620
4063
או מאמינים בהשלכות
של טכנולוגיה חדשה זו לפענוח המוח.
07:40
After all, if we can know
the innerפְּנִימִי workingsעבודה of the humanבן אנוש brainמוֹחַ,
132
448629
3289
אחרי הכל, אם אנחנו יכולים להכיר
את דרך פעולתו הפנימית של המוח האנושי
07:43
our socialחֶברָתִי securityבִּטָחוֹן numbersמספרים
are the leastהכי פחות of our worriesדאגות.
133
451942
2706
מספרי הביטוח הלאומי שלנו
הם הבעייה האחרונה שלנו.
07:46
(Laughterצחוק)
134
454672
1285
(צחוק)
07:47
Think about it.
135
455981
1167
חישבו על כך:
07:49
In a worldעוֹלָם of totalסה"כ brainמוֹחַ transparencyשְׁקִיפוּת,
136
457172
2396
בעולם של שקיפות מוחית מוחלטת,
07:51
who would dareלְהַעֵז have
a politicallyפוליטית dissidentפּוֹרֵשׁ thought?
137
459592
2429
מי יעז לחשוב מחשבה פוליטית כנגד השלטון?
07:55
Or a creativeיְצִירָתִי one?
138
463279
1541
או מחשבה יצירתית?
07:57
I worryדאגה that people will self-censorצנזורה עצמית
139
465503
3476
אני חוששת שאנשים יצנזרו את עצמם
08:01
in fearפַּחַד of beingלהיות ostracizedמְנוּדֶה by societyחֶברָה,
140
469003
3302
מחשש שהחברה תנדה אותם,
08:04
or that people will loseלאבד theirשֶׁלָהֶם jobsמקומות תעסוקה
because of theirשֶׁלָהֶם waningפְּגִימָה attentionתשומת הלב
141
472329
3813
או שאנשים יאבדו את מקום עבודתם
בגלל תשומת לב דועכת
08:08
or emotionalרִגשִׁי instabilityחוסר יציבות,
142
476166
2150
או חוסר יציבות רגשית,
08:10
or because they're contemplatingשוקל
collectiveקולקטיבי actionפעולה againstמול theirשֶׁלָהֶם employersמעסיקים.
143
478340
3550
או בגלל שהם שוקלים
פעולה קולקטיבית כנגד מעסיקיהם.
08:14
That comingמגיע out
will no longerארוך יותר be an optionאוֹפְּצִיָה,
144
482478
3177
שיציאה בהכרזה לא תהיה יותר בגדר אפשרות,
08:17
because people'sשל אנשים brainsמוֹחַ will long agoלִפנֵי
have revealedגילה theirשֶׁלָהֶם sexualמִינִי orientationנטייה,
145
485679
5067
כי מוחם של האנשים כבר חשף מזמן
את נטייתם המינית,
08:22
theirשֶׁלָהֶם politicalפּוֹלִיטִי ideologyאִידֵאוֹלוֹגִיָה
146
490770
1822
את האידאולוגיה הפוליטית שלהם
08:24
or theirשֶׁלָהֶם religiousדָתִי preferencesהעדפות,
147
492616
2025
או את ההעדפות הדתיות שלהם,
08:26
well before they were readyמוּכָן
to consciouslyבְּיוֹדְעִין shareלַחֲלוֹק that informationמֵידָע
148
494665
3080
הרבה לפני שהם היו מוכנים
לשתף במודע את המידע הזה
08:29
with other people.
149
497769
1253
עם אנשים אחרים.
08:31
I worryדאגה about the abilityיְכוֹלֶת of our lawsחוקי
to keep up with technologicalטֶכנוֹלוֹגִי changeשינוי.
150
499565
4912
אני מודאגת לגבי יכולתם של החוקים שלנו
לעקוב אחר השינוי הטכנולוגי.
08:36
Take the First Amendmentתיקון
of the US Constitutionחוּקָה,
151
504986
2320
קחו את התיקון הראשון
של החוקה האמריקנית,
08:39
whichאיזה protectsמגן freedomחוֹפֶשׁ of speechנְאוּם.
152
507330
1958
שמגן על חופש הביטוי.
08:41
Does it alsoגַם protectלְהַגֵן freedomחוֹפֶשׁ of thought?
153
509312
1927
האם הוא גם מגן על חופש המחשבה?
08:43
And if so, does that mean that we're freeחופשי
to alterלשנות our thoughtsמחשבות howeverלמרות זאת we want?
154
511944
4169
ואם כן, האם זה אומר שאנחנו חופשיים
לשנות את מחשבותינו ככל שנרצה?
08:48
Or can the governmentמֶמְשָׁלָה or societyחֶברָה tell us
what we can do with our ownשֶׁלוֹ brainsמוֹחַ?
155
516137
4674
או שמא הממשלה או החברה יכולות לאמר לנו
מה לעשות עם המוח שלנו?
08:53
Can the NSANSA spyמרגל on our brainsמוֹחַ
usingבאמצעות these newחָדָשׁ mobileנייד devicesהתקנים?
156
521591
3717
האם ה- NSA יכול לרגל אחרי מוחנו באמצעות
מכשירים ניידים חדשים אלה?
08:58
Can the companiesחברות that collectלאסוף
the brainמוֹחַ dataנתונים throughדרך theirשֶׁלָהֶם applicationsיישומים
157
526053
4119
האם חברות שאוספות את נתוני המוח
באמצעות היישומים שלהן
09:02
sellמכירה this informationמֵידָע to thirdשְׁלִישִׁי partiesמסיבות?
158
530196
2074
יכולות למכור מידע זה לצד שלישי?
09:05
Right now, no lawsחוקי preventלִמְנוֹעַ them
from doing so.
159
533174
3222
נכון לעכשיו, אין חוקים שימנעו מהם
לעשות זאת.
09:09
It could be even more problematicבעייתית
160
537203
2025
זה יכול להיות אפילו יותר בעייתי
09:11
in countriesמדינות that don't shareלַחֲלוֹק
the sameאותו freedomsחירויות
161
539252
2519
במדינות שאינן שותפות
לאותן חירויות
09:13
enjoyedנהנה by people in the Unitedמאוחד Statesמדינות.
162
541795
2103
שאנשים מארה"ב נהנים מהן.
09:16
What would'veהיה happenedקרה duringבְּמַהֲלָך
the Iranianאיראני Greenירוק Movementתְנוּעָה
163
544883
3787
מה היה קורה במהלך פעילות
התנועה הירוקה האיראנית
09:20
if the governmentמֶמְשָׁלָה had been
monitoringניטור my family'sשל המשפחה brainמוֹחַ activityפעילות,
164
548694
3901
לו הממשלה היתה מנטרת את
הפעילות המוחית של משפחתי,
09:24
and had believedהאמינו them
to be sympatheticאוֹהֵד to the protestersמפגינים?
165
552619
4007
והייתה מאמינה שהם אוהדים את המפגינים?
09:30
Is it so far-fetchedדָחוּק to imagineלדמיין a societyחֶברָה
166
558091
3047
האם זה כל כך מופרך לדמיין חברה
09:33
in whichאיזה people are arrestedנֶעצָר
basedמבוסס on theirשֶׁלָהֶם thoughtsמחשבות
167
561162
2842
שבה אנשים נעצרים
בהתבסס על המחשבות שלהם
09:36
of committingהַפקָדָה a crimeפֶּשַׁע,
168
564028
1167
לבצע פשע,
09:37
like in the science-fictionמדע בדיוני
dystopianדיסטופי societyחֶברָה in "Minorityמיעוט Reportלהגיש תלונה."
169
565219
4312
כמו החברה הדיסטופית
בסרט המדע הבדיוני "דו"ח מיוחד".
09:42
Alreadyכְּבָר, in the Unitedמאוחד Statesמדינות, in Indianaאינדיאנה,
170
570286
4323
כבר היום, בארצות הברית, באינדיאנה,
09:46
an 18-year-old-גיל was chargedטעון
with attemptingמנסה to intimidateלְהָטִיל אֵימָה his schoolבית ספר
171
574633
4937
בן 18 הואשם בניסיון לעורר פחד בביה"ס שלו
09:51
by postingהַצָבָה a videoוִידֵאוֹ of himselfעַצמוֹ
shootingיְרִי people in the hallwaysבמסדרונות ...
172
579594
3309
על ידי פרסום סרטון וידאו של עצמו
יורה באנשים במסדרונות ...
09:55
Exceptמלבד the people were zombiesזומבים
173
583881
3007
אלא שהאנשים היו זומבים
09:58
and the videoוִידֵאוֹ was of him playingמשחק
an augmented-realityמורחבת-מציאות videoוִידֵאוֹ gameמִשְׂחָק,
174
586912
5047
והסרטון הראה אותו משחק במשחק וידאו
עם מציאות רבודה,
10:03
all interpretedפירשתי to be a mentalנַפשִׁי projectionהַקרָנָה
of his subjectiveסובייקטיבית intentכוונה.
175
591983
4772
מה שפּוּרָש כ"הקרנה שכלית"
של כוונתו האישית.
10:10
This is exactlyבְּדִיוּק why our brainsמוֹחַ
need specialמיוחד protectionהֲגָנָה.
176
598456
4612
זו בדיוק הסיבה לכך שהמוח שלנו
זקוק להגנה מיוחדת.
10:15
If our brainsמוֹחַ are just as subjectנושא
to dataנתונים trackingמעקב and aggregation- צבירה
177
603092
3556
אם המוח שלנו הינו נושא למעקב
ולצבירה של נתונים
10:18
as our financialכַּספִּי recordsרשומות and transactionsעסקאות,
178
606672
2532
בדיוק כמו הרשומות והעסקאות
הפיננסיות שלנו,
10:21
if our brainsמוֹחַ can be hackedפריצה
and trackedמעקב like our onlineבאינטרנט activitiesפעילויות,
179
609228
4285
אם המוח שלנו ניתן לפריצה
ולמעקב כמו הפעילויות המקוונות שלנו,
10:25
our mobileנייד phonesטלפונים and applicationsיישומים,
180
613537
2361
הטלפונים הניידים והיישומים שלנו,
10:27
then we're on the brinkסַף of a dangerousמְסוּכָּן
threatאִיוּם to our collectiveקולקטיבי humanityאֶנוֹשִׁיוּת.
181
615922
4269
אז אנחנו על ספו של איום מסוכן על
האנושות הקולקטיבית שלנו.
10:33
Before you panicבֶּהָלָה,
182
621406
1309
לפני שתיכנסו לפאניקה,
10:36
I believe that there are solutionsפתרונות
to these concernsחששות,
183
624012
3144
אני מאמינה שיש פתרונות
לדאגות אלה,
10:39
but we have to startהַתחָלָה by focusingהתמקדות
on the right things.
184
627180
2825
אבל אנחנו צריכים להתחיל להתמקד
בדברים הנכונים.
10:42
When it comesבא to privacyפְּרָטִיוּת
protectionsהגנות in generalכללי,
185
630580
2921
כשזה מגיע להגנה על הפרטיות
באופן כללי,
10:45
I think we're fightingלְחִימָה a losingלאבד battleקרב
186
633525
1826
אני חושבת שאנחנו נלחמים בקרב אבוד
10:47
by tryingמנסה to restrictלְהַגבִּיל
the flowזְרִימָה of informationמֵידָע.
187
635375
2858
בניסיון להגביל את זרימת המידע.
10:50
Insteadבמקום זאת, we should be focusingהתמקדות
on securingאַבטָחָה rightsזכויות and remediesתרופות
188
638257
4057
במקום זאת, עלינו להתמקד
בהבטחת זכויות ותקנות
10:54
againstמול the misuseשימוש לא נכון of our informationמֵידָע.
189
642338
2275
נגד שימוש לרעה במידע שלנו.
10:57
If people had the right to decideלְהַחלִיט
how theirשֶׁלָהֶם informationמֵידָע was sharedמְשׁוּתָף,
190
645291
3285
אם לאנשים היתה הזכות להחליט
כיצד המידע שלהם ישותף,
11:00
and more importantlyחשוב, have legalמשפטי redressלְתַקֵן
191
648600
2921
וחשוב יותר, יזכו למענה של החוק
11:03
if theirשֶׁלָהֶם informationמֵידָע
was misusedשימוש לרעה againstמול them,
192
651545
2428
אם נעשה שימוש לרעה במידע שלהם,
11:05
say to discriminateלְהָפלוֹת againstמול them
in an employmentתעסוקה settingהגדרה
193
653997
2786
לדוגמה כדי להפלות אותם
במסגרת תעסוקתית,
11:08
or in healthבְּרִיאוּת careלְטַפֵּל or educationהַשׂכָּלָה,
194
656807
2785
או בתחום הבריאות או החינוך,
11:11
this would go a long way to buildלִבנוֹת trustאמון.
195
659616
2571
זו תהיה דרך ארוכה כדי לבנות אמון.
11:14
In factעוּבדָה, in some instancesמקרים,
196
662843
1718
למעשה, במקרים מסוימים
11:16
we want to be sharingשיתוף more
of our personalאישי informationמֵידָע.
197
664585
3524
אנחנו רוצים לשתף יותר
מהמידע האישי שלנו.
11:20
Studyingלומד aggregatedמצטבר informationמֵידָע
can tell us so much
198
668697
3047
לימוד מידע מצטבר
יכול לספר לנו כל כך הרבה
11:23
about our healthבְּרִיאוּת and our well-beingרווחה,
199
671768
2747
על הבריאות שלנו ועל רווחתנו,
11:26
but to be ableיכול to safelyבבטחה shareלַחֲלוֹק
our informationמֵידָע,
200
674539
3313
אבל כדי שנהיה מסוגלים לשתף בבטחה
את המידע שלנו,
11:29
we need specialמיוחד protectionsהגנות
for mentalנַפשִׁי privacyפְּרָטִיוּת.
201
677876
3223
אנו זקוקים להגנות מיוחדות
על הפרטיות השכלית.
11:33
This is why we need
a right to cognitiveקוגניטיבית libertyחוֹפֶשׁ.
202
681832
3147
זו הסיבה שאנחנו צריכים שתהיה לנו
זכות לחירות ההכרה.
11:37
This right would secureלבטח for us
our freedomחוֹפֶשׁ of thought and ruminationהִרהוּר,
203
685543
4079
זכות זו תבטיח לנו את
חופש המחשבה וההגות שלנו,
11:41
our freedomחוֹפֶשׁ of self-determinationהגדרה עצמית,
204
689646
2540
את חופש ההגדרה העצמית שלנו,
11:44
and it would insureלְהַבטִיחַ that we have
the right to consentהַסכָּמָה to or refuseמסרב
205
692210
4390
והיא תבטיח שיש לנו את הזכות
להסכים או לסרב
11:48
accessגִישָׁה and alterationשינוי
of our brainsמוֹחַ by othersאחרים.
206
696624
2857
לקבלת גישה אל המוח שלנו
ולשינויו על ידי אחרים.
11:51
This right could be recognizedמוּכָּר
207
699811
2112
זכות זו יכולה להיות מוכרת
11:53
as partחֵלֶק of the Universalאוניברסלי Declarationהַצהָרָה
of Humanבן אנוש Rightsזכויות,
208
701947
2883
כחלק מההצהרה האוניברסלית
של זכויות האדם,
11:56
whichאיזה has establishedמְבוּסָס mechanismsמנגנונים
209
704854
2388
אשר ביססה מנגנונים
11:59
for the enforcementאַכִיפָה
of these kindsמיני of socialחֶברָתִי rightsזכויות.
210
707266
2856
לאכיפה של זכויות חברתיות מסוג זה.
12:03
Duringבְּמַהֲלָך the Iranianאיראני Greenירוק Movementתְנוּעָה,
211
711872
2070
בזמן התנועה הירוקה האיראנית,
12:05
the protestersמפגינים used the internetאינטרנט
and good old-fashionedמיושן wordמִלָה of mouthפֶּה
212
713966
5186
המפגינים השתמשו באינטרנט
ובשיטה המיושנת והטובה של הפצה מפה-לאוזן
12:11
to coordinateלְתַאֵם theirשֶׁלָהֶם marchesצעדות.
213
719176
1948
כדי לתאם את הצעדות שלהם.
12:14
And some of the mostרוב oppressiveמֵעִיק
restrictionsהגבלות in Iranאִירָן
214
722238
2769
וכמה מההגבלות המדכאות ביותר
באיראן
12:17
were liftedהרים as a resultתוֹצָאָה.
215
725031
1877
הוסרו כתוצאה מכך.
12:20
But what if the Iranianאיראני governmentמֶמְשָׁלָה
had used brainמוֹחַ surveillanceהַשׁגָחָה
216
728047
4087
אבל מה לו הממשלה האיראנית
היתה משתמשת במעקב מוחי
12:24
to detectלזהות and preventלִמְנוֹעַ the protestלמחות?
217
732158
3061
כדי לאתר ולמנוע את המחאה?
12:28
Would the worldעוֹלָם have ever heardשמע
the protesters'פגינים criesבוכה?
218
736847
3176
האם העולם היה אי פעם שומע את
קריאותיהם של המפגינים?
12:33
The time has come for us to call
for a cognitiveקוגניטיבית libertyחוֹפֶשׁ revolutionמַהְפֵּכָה.
219
741732
5121
הגיע הזמן שנקרא
למהפכת חירות של ההכרה.
12:39
To make sure that we responsiblyבאחריות
advanceלְקַדֵם technologyטֶכנוֹלוֹגִיָה
220
747559
3264
כדי להבטיח שאנחנו מקדמים באופן אחראי
טכנולוגיה מתקדמת
12:42
that could enableלְאַפשֵׁר us to embraceלְחַבֵּק the futureעתיד
221
750847
2978
שתאפשר לנו לאמץ את העתיד
12:45
while fiercelyבעוז protectingמה tra Home all of us
from any personאדם, companyחֶברָה or governmentמֶמְשָׁלָה
222
753849
6717
תוך הגנה עזה על כולנו
מפני כל אדם, חברה או ממשלה
12:52
that attemptsניסיונות to unlawfullyשלא כדין accessגִישָׁה
or alterלשנות our innermostפנימי livesחיים.
223
760590
5040
שמנסים באופן בלתי חוקי לגשת אל חיינו
הפנימיים ביותר או לשנות אותם.
12:58
Thank you.
224
766659
1174
תודה.
12:59
(Applauseתְשׁוּאוֹת)
225
767857
3492
(מחיאות כפיים)
Translated by zeeva Livshitz
Reviewed by Roni Weisman

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com