ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Нита А. Фарахани: Как защитить частную жизнь, если технологии смогут читать мысли?

Filmed:
1,819,292 views

По словам учёного-правоведа и этика Ниты Фарахани, чудо технологии, которое сможет расшифровывать деятельность нашего мозга и отображать, что мы думаем и чувствуем, уже недалеко от реальности. Что тогда станет с нашим уже и так неполноценным чувством неприкосновенности личной жизни? В этом докладе Фарахани предупреждает, что в будущем мы сможем жить в обществе, где людей будут арестовывать за то, что они просто подумали о совершении преступления (как в «Мнении меньшинства»), а интересы частных компаний смогут продавать данные нашего мозга. Она обосновывает право на когнитивную свободу, которое защищает нашу свободу мысли и самоопределения.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsмесяцы followingследующий
the 2009 presidentialпрезидентских electionвыборы in IranИран,
0
1096
4714
В первые месяцы после президентских
выборов в 2009 году в Иране
00:17
protestsпротесты eruptedизвергался acrossчерез the countryстрана.
1
5834
2894
по всей стране разгорелись протесты.
00:21
The Iranianиранец governmentправительство
violentlyсильно suppressedподавленный
2
9685
2896
Иранское государство жестоко подавляло то,
00:24
what cameпришел to be knownизвестен
as the Iranianиранец Greenзеленый Movementдвижение,
3
12605
3979
что потом стало известным
как «иранское зелёное движение»,
00:28
even blockingблокирование mobileмобильный signalsсигналы
4
16608
2053
даже блокировало мобильные сигналы,
00:30
to cutпорез off communicationсвязь
betweenмежду the protestersпротестующие.
5
18685
2714
чтобы разорвать связь между протестующими.
00:34
My parentsродители, who emigratedэмигрировавший
to the Unitedобъединенный Statesсостояния in the lateпоздно 1960s,
6
22316
4669
Мои родители, эмигрировавшие
в США в конце 1960-х,
00:39
spendпроводить substantialсущественный time there,
7
27009
1794
провели немало времени там,
00:40
where all of my largeбольшой,
extendedрасширенный familyсемья liveжить.
8
28827
3153
где живёт вся моя большая семья.
00:44
When I would call my familyсемья in TehranТегеран
9
32832
3129
Когда я звонила своей семье в Тегеран
00:47
duringв течение some of the mostбольшинство violentнасильственный
crackdownsжесткие меры of the protestакция протеста,
10
35985
3452
во время самых насильственных
подавлений протестов,
00:51
noneникто of them daredпосмел discussобсуждать
with me what was happeningпроисходит.
11
39461
3252
никто из них не осмеливался говорить
со мной о том, что происходит.
00:55
They or I knewзнал to quicklyбыстро steerуправлять
the conversationразговор to other topicsтемы.
12
43196
3529
Кто-то из нас быстро переводил
разговор на другую тему.
00:59
All of us understoodпонимать
what the consequencesпоследствия could be
13
47163
3380
Все мы понимали возможные последствия
01:02
of a perceivedвоспринимается dissidentдиссидент actionдействие.
14
50567
2540
оппозиционных действий.
01:06
But I still wishжелание I could have knownизвестен
what they were thinkingмышление
15
54095
3469
Но мне всё равно хотелось бы
знать, о чём они думали
01:09
or what they were feelingчувство.
16
57588
1418
или что они чувствовали.
01:12
What if I could have?
17
60217
1393
Что, если бы я могла это узнать?
01:14
Or more frighteninglyпугающе,
18
62149
1151
Или, что страшнее,
01:15
what if the Iranianиранец governmentправительство could have?
19
63324
2761
что, если бы правительство
Ирана могло это узнать?
01:18
Would they have arrestedарестованный them
basedисходя из on what theirих brainsмозги revealedпоказал?
20
66695
3244
Могли бы их арестовать из-за того,
что прочитали их мысли?
01:22
That day mayмай be closerближе than you think.
21
70933
2944
Этот день намного ближе, чем вы думаете.
01:26
With our growingрост capabilitiesвозможности
in neuroscienceневрология, artificialискусственный intelligenceинтеллект
22
74527
3811
Благодаря возрастающим возможностям
в нейробиологии, искусственном интеллекте
01:30
and machineмашина learningобучение,
23
78362
1703
и машинном обучении
01:32
we mayмай soonскоро know a lot more
of what's happeningпроисходит in the humanчеловек brainголовной мозг.
24
80089
4075
мы скоро узнаем намного больше
о том, что происходит в мозге человека.
01:37
As a bioethicistбиоэтик, a lawyerадвокат, a philosopherфилософ
25
85083
3310
Как биоэтик, юрист, философ
01:40
and an Iranian-AmericanИрано-американский,
26
88417
1867
и ирано-американка
01:42
I'm deeplyглубоко concernedобеспокоенный
about what this meansозначает for our freedomsсвободы
27
90308
3787
я глубоко обеспокоена тем,
что это значит для нашей свободы
01:46
and what kindsвиды of protectionsзащиты we need.
28
94119
2171
и какие виды защиты нам потребуются.
01:48
I believe we need
a right to cognitiveпознавательный libertyсвобода,
29
96993
3460
Я думаю, что нам нужно
право когнитивной свободы,
01:52
as a humanчеловек right
that needsпотребности to be protectedзащищенный.
30
100477
2892
которое должно защищаться
как право человека.
01:55
If not, our freedomсвобода of thought,
31
103772
2643
Если нет, наша свобода мысли,
01:58
accessдоступ and controlконтроль over our ownсвоя brainsмозги
32
106439
3024
доступ и контроль над нашим мозгом
02:01
and our mentalумственный privacyКонфиденциальность will be threatenedпод угрозой.
33
109487
2841
и наша ментальная приватность
будут под угрозой.
02:05
ConsiderРассматривать this:
34
113698
1158
Подумайте над этим:
02:06
the averageв среднем personчеловек thinksдумает
thousandsтысячи of thoughtsмысли eachкаждый day.
35
114880
3314
у среднестатистического человека за день
возникают тысячи мыслей.
Когда мысль принимает форму,
02:10
As a thought takes formформа,
36
118697
1151
02:11
like a mathматематический calculationрасчет
or a numberномер, a wordслово,
37
119872
5056
также как математическое
вычисление или цифра, слово,
02:16
neuronsнейроны are interactingвзаимодействующий in the brainголовной мозг,
38
124952
2885
нейроны взаимодействуют в мозге,
02:19
creatingсоздание a minisculeмизерную electricalэлектрический dischargeразряд.
39
127861
3088
создавая минимальный электрический разряд.
02:23
When you have a dominantдоминирующий
mentalумственный stateгосударство, like relaxationотдых,
40
131713
3452
Когда доминирует одно психическое
состояние, скажем, расслабление,
02:27
hundredsсотни and thousandsтысячи of neuronsнейроны
are firingобжиг in the brainголовной мозг,
41
135189
4175
сотни и тысячи нейронов
выстреливают в мозге,
02:31
creatingсоздание concurrentпараллельный electricalэлектрический dischargesсбросы
in characteristicхарактеристика patternsузоры
42
139388
4218
создавая одновременные электрические
разряды в типичных схемах,
02:35
that can be measuredизмеренный
with electroencephalographyэлектроэнцефалография, or EEGЭЭГ.
43
143630
4865
которые можно измерить
с помощью энцефалографии (ЭЭГ).
02:41
In factфакт, that's what
you're seeingвидя right now.
44
149118
2160
На самом деле это то,
что вы сейчас видите.
02:43
You're seeingвидя my brainголовной мозг activityМероприятия
that was recordedзаписанный in realреальный time
45
151956
3964
Вы видите активность моего мозга,
записанную в реальном времени
02:47
with a simpleпросто deviceустройство
that was wornизношены on my headглава.
46
155944
2735
с помощью простого прибора,
который я носила на голове.
02:51
What you're seeingвидя is my brainголовной мозг activityМероприятия
when I was relaxedрасслабленный and curiousлюбопытный.
47
159669
5653
Вы видите активность моего мозга
в состоянии спокойствия и любопытства.
02:58
To shareдоля this informationИнформация with you,
48
166097
1755
Чтобы поделится этой информацией,
я использовала один из первых приборов
ЭЭГ, ориентированных на потребителя,
02:59
I woreносил one of the earlyрано
consumer-basedпотребителей на основе EEGЭЭГ devicesприборы
49
167876
3020
03:02
like this one,
50
170920
1211
как вот этот,
03:04
whichкоторый recordedзаписанный the electricalэлектрический
activityМероприятия in my brainголовной мозг in realреальный time.
51
172155
3988
который записал электрические импульсы
моего мозга в реальном времени.
03:08
It's not unlikeВ отличие от the fitnessфитнес trackersтрекеры
that some of you mayмай be wearingносить
52
176849
3826
Это подобно фитнес-браслетам,
которыми некоторые из вас пользуются,
03:12
to measureизмерение your heartсердце rateставка
or the stepsмеры that you've takenвзятый,
53
180699
3586
чтобы измерить пульс
или количество сделанных шагов,
03:16
or even your sleepспать activityМероприятия.
54
184309
1587
или даже свой режим сна.
03:19
It's hardlyедва the mostбольшинство sophisticatedутонченный
neuroimagingнейровизуализации techniqueтехника on the marketрынок.
55
187154
3824
Это вряд ли самая изысканная технология
нейровизуализации на рынке.
03:23
But it's alreadyуже the mostбольшинство portableпортативный
56
191597
2378
Но зато она самая портативная
03:25
and the mostбольшинство likelyвероятно to impactвлияние
our everydayкаждый день livesжизни.
57
193999
3152
и скорее всего повлияет
на нашу повседневную жизнь.
03:29
This is extraordinaryнеобычайный.
58
197915
1503
Это удивительно.
03:31
ThroughЧерез a simpleпросто, wearableпригодный для носки deviceустройство,
59
199442
2505
Через простое переносное устройство
03:33
we can literallyбуквально see
insideвнутри the humanчеловек brainголовной мозг
60
201971
3548
мы буквально можем видеть
человеческий мозг изнутри
03:37
and learnучить aspectsаспекты of our mentalумственный landscapeпейзаж
withoutбез ever utteringпроизнесение a wordслово.
61
205543
6476
и изучать аспекты нашей мысленной картины,
не произнося ни слова.
03:44
While we can't reliablyнадежно decodeраскодировать
complexсложный thoughtsмысли just yetвсе же,
62
212829
3653
Пока ещё мы не можем надёжно
расшифровывать сложные мысли,
03:48
we can alreadyуже gaugeкалибр a person'sИндивидуальность человека moodнастроение,
63
216506
2519
но зато можем определять
человеческое настроение
03:51
and with the help
of artificialискусственный intelligenceинтеллект,
64
219049
2873
и с помощью искусственного интеллекта
03:53
we can even decodeраскодировать
some single-digitодноразрядный numbersчисел
65
221946
4341
можем даже расшифровать
некоторые однозначные цифры,
03:58
or shapesформы or simpleпросто wordsслова
that a personчеловек is thinkingмышление
66
226311
4882
формы или простые слова,
о которых человек думает,
04:03
or hearingслух, or seeingвидя.
67
231217
2189
которые слышит или видит.
04:06
DespiteНесмотря some inherentсвойственный limitationsограничения in EEGЭЭГ,
68
234345
3365
Несмотря на некоторые
неизбежные ограничения ЭЭГ,
04:09
I think it's safeбезопасно to say
that with our advancesдостижения in technologyтехнологии,
69
237734
4720
я думаю, что можно смело сказать,
что с помощью технологических достижений
04:14
more and more of what's happeningпроисходит
in the humanчеловек brainголовной мозг
70
242478
3809
со временем мы сможем расшифровать
04:18
can and will be decodedдекодированный over time.
71
246311
2310
всё больше данных о человеческом мозге.
04:21
AlreadyУже, usingс помощью one of these devicesприборы,
72
249362
2746
Уже сейчас, используя данные устройства,
04:24
an epilepticэпилептический can know
they're going to have an epilepticэпилептический seizureзахват
73
252132
3255
эпилептик может узнать о предстоящем
эпилептическом припадке
04:27
before it happensпроисходит.
74
255411
1436
до того, как он произойдёт.
04:28
A paraplegicстрадающий параличом нижних конечностей can typeтип on a computerкомпьютер
with theirих thoughtsмысли aloneв одиночестве.
75
256871
4603
Паралитик может печатать на компьютере
просто с помощью своих мыслей.
04:34
A US-basedНа базе США companyКомпания has developedразвитая
a technologyтехнологии to embedвстраивать these sensorsдатчиков
76
262485
4183
Компания в США развила технологию,
которая внедряет данные датчики
04:38
into the headrestподголовник of automobiliesавтомобили
77
266692
2230
в подголовники в автомобилях,
04:40
so they can trackтрек driverВодитель concentrationконцентрация,
78
268946
2505
чтобы они следили
за концентрацией водителя,
04:43
distractionотвлечение and cognitiveпознавательный loadнагрузка
while drivingвождение.
79
271475
2667
отвлечением и когнитивной
нагрузкой в пути.
04:46
NissanNissan, insuranceстрахование companiesкомпании
and AAAAAA have all takenвзятый noteзаметка.
80
274912
4058
Nissan, страховые компании и ААА
уже приняли это к сведению.
04:51
You could even watch this
choose-your-own-adventureвыбрать свое собственное приключение movieкино
81
279949
4508
Можно даже смотреть фильм
с выбором своего приключения
04:56
"The Momentмомент," whichкоторый, with an EEGЭЭГ headsetнаушники,
82
284481
4240
под названием «Мгновение»,
в котором ЭЭГ устройство
05:00
changesизменения the movieкино
basedисходя из on your brain-basedмозг на основе reactionsреакции,
83
288745
3926
меняет фильм в зависимости
от реакции вашего мозга
05:04
givingдающий you a differentдругой endingокончание
everyкаждый time your attentionвнимание wanesубывание.
84
292695
4353
с различными концовками каждый раз,
когда ваше внимание слабеет.
05:11
This mayмай all soundзвук great,
85
299154
2763
Это всё звучит замечательно,
05:13
and as a bioethicistбиоэтик,
86
301941
2189
и, будучи биоэтиком,
05:16
I am a hugeогромный proponentсторонник of empoweringрасширение прав и возможностей people
87
304154
3613
я большой сторонник
расширения возможностей людей
05:19
to take chargeзаряд of theirих ownсвоя
healthздоровье and well-beingблагополучие
88
307791
2616
для заботы о своём
здоровье и благополучии,
05:22
by givingдающий them accessдоступ
to informationИнформация about themselvesсамих себя,
89
310431
2918
путём предоставления им
доступа к информации о себе
05:25
includingв том числе this incredibleнеимоверный
newновый brain-decodingрасшифровка мозга technologyтехнологии.
90
313373
2976
в том числе через эту великолепную
технологию расшифровки мозга.
05:29
But I worryбеспокоиться.
91
317878
1167
Но я переживаю.
05:31
I worryбеспокоиться that we will voluntarilyдобровольно
or involuntarilyнепреднамеренно give up
92
319736
4760
Переживаю, что добровольно
или нет, мы отдадим
05:36
our last bastionбастион of freedomсвобода,
our mentalумственный privacyКонфиденциальность.
93
324520
4118
наш последний бастион свободы,
нашу психическую приватность.
05:41
That we will tradeсделка our brainголовной мозг activityМероприятия
94
329302
2925
Что мы поменяем нашу мозговую активность
05:44
for rebatesскидки or discountsскидки on insuranceстрахование,
95
332251
3046
на страховые скидки
05:48
or freeсвободно accessдоступ
to social-mediaсоциальные медиа accountsСчета ...
96
336391
2603
или на бесплатный доступ
к социальным сетям...
05:52
or even to keep our jobsработы.
97
340444
1848
или даже на наше рабочее место.
05:54
In factфакт, in ChinaКитай,
98
342900
1913
На самом деле в Китае
05:58
the trainпоезд driversводители on
the Beijing-ShanghaiПекин-Шанхай high-speedвысокоскоростной railрельс,
99
346199
5897
кондукторы на высокоскоростной
железной дороге Пекин-Шанхай,
06:04
the busiestзагруженным of its kindсвоего рода in the worldМир,
100
352120
2532
самой загруженной в мире,
06:06
are requiredобязательный to wearносить EEGЭЭГ devicesприборы
101
354676
2476
обязаны носить ЭЭГ устройства,
06:09
to monitorмонитор theirих brainголовной мозг activityМероприятия
while drivingвождение.
102
357176
2427
чтобы отслеживать их
мозговую активность в пути.
06:12
AccordingВ соответствии to some newsНовости sourcesисточники,
103
360157
2226
Согласно некоторым источникам,
06:14
in government-runПравительство перспективе factoriesзаводы in ChinaКитай,
104
362407
2679
на государственных заводах в Китае
06:17
the workersрабочие are requiredобязательный to wearносить
EEGЭЭГ sensorsдатчиков to monitorмонитор theirих productivityпроизводительность
105
365110
5364
рабочие обязаны носить датчики ЭЭГ
для отслеживания их продуктивности
06:22
and theirих emotionalэмоциональный stateгосударство at work.
106
370498
2115
и эмоционального состояния на работе.
06:25
WorkersРабочие are even sentпослал home
107
373267
2310
Их даже отправляют домой,
06:27
if theirих brainsмозги showпоказать less-than-stellarменьше, чем звездный
concentrationконцентрация on theirих jobsработы,
108
375601
4054
если датчики показывают не столь
выдающуюся концентрацию на работе
06:31
or emotionalэмоциональный agitationагитация.
109
379679
2122
или беспокойство.
06:35
It's not going to happenслучаться tomorrowзавтра,
110
383189
1745
Это не произойдёт завтра,
06:36
but we're headedдвуглавый to a worldМир
of brainголовной мозг transparencyпрозрачность.
111
384958
3086
но мы уже приближаемся к жизни
с прозрачными мыслями.
06:40
And I don't think people understandПонимаю
that that could changeизменение everything.
112
388537
3440
И мне кажется, что люди не понимают,
что это может всё поменять.
06:44
Everything from our definitionsопределения
of dataданные privacyКонфиденциальность to our lawsзаконы,
113
392474
3675
От нашего понимания
конфиденциальности, наших законов
06:48
to our ideasидеи about freedomсвобода.
114
396173
1800
до наших представлений о свободе.
06:50
In factфакт, in my labлаборатория at Dukeгерцог UniversityУниверситет,
115
398731
3077
На самом деле, в моей лаборатории
в Университете Дьюка
06:53
we recentlyв последнее время conductedпроведены a nationwideобщенациональный studyизучение
in the Unitedобъединенный Statesсостояния
116
401832
3175
мы недавно проводили
общенациональное исследование в США,
06:57
to see if people appreciatedоценили
117
405031
1959
чтобы увидеть, ценят ли люди
06:59
the sensitivityчувствительность
of theirих brainголовной мозг informationИнформация.
118
407014
2071
чувствительность информации их мозга.
07:02
We askedспросил people to rateставка
theirих perceivedвоспринимается sensitivityчувствительность
119
410356
3356
Мы их попросили оценить
свою чувствительность
07:05
of 33 differentдругой kindsвиды of informationИнформация,
120
413736
2231
на 33 различных вида информации,
07:07
from theirих socialСоциальное securityбезопасность numbersчисел
121
415991
2220
начиная с номеров социального страхования
07:10
to the contentсодержание
of theirих phoneТелефон conversationsразговоры,
122
418235
2597
до содержания телефонных разговоров,
07:12
theirих relationshipотношения historyистория,
123
420856
2193
истории их романтических отношений,
07:15
theirих emotionsэмоции, theirих anxietyтревожность,
124
423073
1942
их эмоций, тревог,
07:17
the mentalумственный imagesизображений in theirих mindразум
125
425039
1946
умозрительных образов
07:19
and the thoughtsмысли in theirих mindразум.
126
427009
1538
и мыслей про себя.
07:21
ShockinglyОтвратительно, people ratedноминальный theirих socialСоциальное
securityбезопасность numberномер as farдалеко more sensitiveчувствительный
127
429481
5229
Шокирующе: люди оценили номер
страхования как более чувствительный,
07:26
than any other kindсвоего рода of informationИнформация,
128
434734
2203
в отличие от любой другой информации,
07:28
includingв том числе theirих brainголовной мозг dataданные.
129
436961
2435
включая данные мозга.
07:32
I think this is because
people don't yetвсе же understandПонимаю
130
440380
3216
Я думаю, что это так, потому что люди
пока ещё не понимают
07:35
or believe the implicationsпоследствия
of this newновый brain-decodingрасшифровка мозга technologyтехнологии.
131
443620
4063
или не верят в применение
новых технологий декодирования мозга.
07:40
After all, if we can know
the innerвнутренний workingsразработки of the humanчеловек brainголовной мозг,
132
448629
3289
В конце концов, если мы знаем,
как работает человеческий мозг,
07:43
our socialСоциальное securityбезопасность numbersчисел
are the leastнаименее of our worriesзаботы.
133
451942
2706
наши страховые номера —
наименьший повод для тревоги.
07:46
(LaughterСмех)
134
454672
1285
(Смех)
07:47
Think about it.
135
455981
1167
Подумайте об этом.
07:49
In a worldМир of totalВсего brainголовной мозг transparencyпрозрачность,
136
457172
2396
Кто бы посмел иметь диссидентские мысли
07:51
who would dareсметь have
a politicallyполитически dissidentдиссидент thought?
137
459592
2429
в мире полной прозрачности?
07:55
Or a creativeтворческий one?
138
463279
1541
Или креативные мысли?
07:57
I worryбеспокоиться that people will self-censorсамоцензура
139
465503
3476
Я боюсь, что люди будут
прибегать к самоцензуре,
08:01
in fearстрах of beingявляющийся ostracizedостракизму by societyобщество,
140
469003
3302
опасаясь остракизма со стороны общества,
08:04
or that people will loseпотерять theirих jobsработы
because of theirих waningубывающая attentionвнимание
141
472329
3813
или будут терять работу
из-за ослабления внимания,
08:08
or emotionalэмоциональный instabilityнестабильность,
142
476166
2150
эмоциональной нестабильности,
08:10
or because they're contemplatingсозерцая
collectiveколлектив actionдействие againstпротив theirих employersработодатели.
143
478340
3550
или потому, что планируют коллективные
действия против работодателей.
08:14
That comingприход out
will no longerдольше be an optionвариант,
144
482478
3177
Каминг-аут уже не будет вопросом выбора,
08:17
because people'sнародный brainsмозги will long agoтому назад
have revealedпоказал theirих sexualполовой orientationориентация,
145
485679
5067
поскольку человеческий мозг сам сможет
определить сексуальную ориентацию,
08:22
theirих politicalполитическая ideologyидеология
146
490770
1822
политические идеологии
08:24
or theirих religiousрелигиозная preferencesпредпочтения,
147
492616
2025
или религиозные предпочтения
08:26
well before they were readyготов
to consciouslyсознательно shareдоля that informationИнформация
148
494665
3080
намного раньше, чем мы будем готовы
осознанно рассказать о этом
08:29
with other people.
149
497769
1253
другим людям.
08:31
I worryбеспокоиться about the abilityспособность of our lawsзаконы
to keep up with technologicalтехнологический changeизменение.
150
499565
4912
Я беспокоюсь, смогут ли наши законы
идти в ногу с технологиями.
08:36
Take the First Amendmentпоправка
of the US Constitutionконституция,
151
504986
2320
Рассмотрим первую поправку
к Конституции США,
08:39
whichкоторый protectsзащищает freedomсвобода of speechречь.
152
507330
1958
защищающую свободу слова.
08:41
Does it alsoтакже protectзащищать freedomсвобода of thought?
153
509312
1927
А свободу мысли она защищает?
08:43
And if so, does that mean that we're freeсвободно
to alterизменять our thoughtsмысли howeverОднако we want?
154
511944
4169
И если так, значит ли это, что мы вольны
изменять свои мысли, как хотим?
08:48
Or can the governmentправительство or societyобщество tell us
what we can do with our ownсвоя brainsмозги?
155
516137
4674
Или правительство и общество решает,
как можно обходиться со нашими же мозгами?
08:53
Can the NSANSA spyшпион on our brainsмозги
usingс помощью these newновый mobileмобильный devicesприборы?
156
521591
3717
Может ли АНБ читать наши мысли
с помощью новых мобильных устройств?
08:58
Can the companiesкомпании that collectсобирать
the brainголовной мозг dataданные throughчерез theirих applicationsПриложения
157
526053
4119
Могут ли компании, собирающие
данные мозга через приложения,
09:02
sellпродавать this informationИнформация to thirdв третьих partiesстороны?
158
530196
2074
продать эту информацию третьим лицам?
09:05
Right now, no lawsзаконы preventне допустить them
from doing so.
159
533174
3222
И сейчас никакие законы
не смогут им помешать.
09:09
It could be even more problematicпроблематичный
160
537203
2025
Но это может представлять проблему
09:11
in countriesстраны that don't shareдоля
the sameодна и та же freedomsсвободы
161
539252
2519
в странах, которые
не разделяют тех же прав,
09:13
enjoyedнаслаждались by people in the Unitedобъединенный Statesсостояния.
162
541795
2103
что есть у людей в Соединённых Штатах.
09:16
What would'veбы уже happenedполучилось duringв течение
the Iranianиранец Greenзеленый Movementдвижение
163
544883
3787
Что бы могло случиться во время
«зелёного движения» в Иране,
09:20
if the governmentправительство had been
monitoringмониторинг my family'sсемьи brainголовной мозг activityМероприятия,
164
548694
3901
если бы правительство
отслеживало работу мозга
09:24
and had believedСчитается, them
to be sympatheticсимпатичный to the protestersпротестующие?
165
552619
4007
и согласилось бы с протестующими?
09:30
Is it so far-fetchedнадуманный to imagineпредставить a societyобщество
166
558091
3047
Неужели невозможно представить общество,
09:33
in whichкоторый people are arrestedарестованный
basedисходя из on theirих thoughtsмысли
167
561162
2842
где людей арестовывают за их мысли
о совершении преступления,
09:36
of committingсовершение a crimeпреступление,
168
564028
1167
09:37
like in the science-fictionнаучная фантастика
dystopianантиутопия societyобщество in "Minorityменьшинство Reportотчет."
169
565219
4312
как в антиутопическом обществе
в фильме «Мнение меньшинства»?
09:42
AlreadyУже, in the Unitedобъединенный Statesсостояния, in IndianaИндиана,
170
570286
4323
Уже в Соединённых Штатах, в Индиане,
09:46
an 18-year-old-лет was chargedзаряженный
with attemptingпопытки to intimidateзапугивать his schoolшкола
171
574633
4937
18-летний парень был обвинён
в попытке запугать свою школу,
09:51
by postingпроводка a videoвидео of himselfсам
shootingстрельба people in the hallwaysприхожие ...
172
579594
3309
опубликовав видео, где он
стреляет по людям в коридорах...
09:55
ExceptКроме the people were zombiesзомби
173
583881
3007
Кроме людей там были зомби,
09:58
and the videoвидео was of him playingиграть
an augmented-realityдополненная реальность videoвидео gameигра,
174
586912
5047
а само видео показывало то, как он играет
в игру с дополненной реальностью,
10:03
all interpretedинтерпретированы to be a mentalумственный projectionпроекция
of his subjectiveсубъективный intentнамерение.
175
591983
4772
где всё интерпретируется как ментальная
проекция его субъективного намерения.
10:10
This is exactlyв точку why our brainsмозги
need specialособый protectionзащита.
176
598456
4612
Именно поэтому нашему мозгу
нужна особая защита.
10:15
If our brainsмозги are just as subjectпредмет
to dataданные trackingотслеживание and aggregationагрегирование
177
603092
3556
Если наш мозг — такой же субъект
отслеживания и агрегации,
10:18
as our financialфинансовый recordsучет and transactionsоперации,
178
606672
2532
как наши финансовые
ведомости и транзакции,
10:21
if our brainsмозги can be hackedвзломан
and trackedотслеживаются like our onlineонлайн activitiesвиды деятельности,
179
609228
4285
если наш мозг можно взломать
и отслеживать мысли как действия в сети,
10:25
our mobileмобильный phonesтелефоны and applicationsПриложения,
180
613537
2361
в мобильных телефонах и приложениях,
10:27
then we're on the brinkBrink of a dangerousопасно
threatугроза to our collectiveколлектив humanityчеловечество.
181
615922
4269
то мы уже на грани опасной угрозы
для нашего коллективного рода.
10:33
Before you panicпаника,
182
621406
1309
Прежде чем вы запаникуете,
10:36
I believe that there are solutionsрешения
to these concernsпроблемы,
183
624012
3144
я скажу, что полагаю,
решение этих проблем существует,
10:39
but we have to startНачало by focusingфокусирование
on the right things.
184
627180
2825
но мы должны сосредоточиться
на правильных вещах.
10:42
When it comesвыходит to privacyКонфиденциальность
protectionsзащиты in generalГенеральная,
185
630580
2921
Когда дело касается защиты
конфиденциальности в целом,
10:45
I think we're fightingборьба a losingпроигрыш battleбоевой
186
633525
1826
думаю, мы ведём безнадёжную борьбу,
10:47
by tryingпытаясь to restrictограничивать
the flowтечь of informationИнформация.
187
635375
2858
пытаясь ограничить поток информации.
10:50
InsteadВместо, we should be focusingфокусирование
on securingобеспечение rightsправа and remediesСредства
188
638257
4057
Вместо этого мы должны сосредоточиться
на обеспечении прав и средствах их защиты
10:54
againstпротив the misuseзлоупотребление of our informationИнформация.
189
642338
2275
от злоупотребления нашей информацией.
10:57
If people had the right to decideпринимать решение
how theirих informationИнформация was sharedобщий,
190
645291
3285
Если бы люди имели право решать,
как распоряжаться информацией,
11:00
and more importantlyважно, have legalправовой redressвозмещение
191
648600
2921
и, что важно, располагали бы
мерами юридической защиты,
11:03
if theirих informationИнформация
was misusedнеправильно употребленный againstпротив them,
192
651545
2428
если их информация была
использована против них,
11:05
say to discriminateдискриминировать againstпротив them
in an employmentзанятость settingустановка
193
653997
2786
скажем, чтобы дискриминировать их
в условиях занятости
11:08
or in healthздоровье careзабота or educationобразование,
194
656807
2785
или в области здравоохранения
или образования,
11:11
this would go a long way to buildстроить trustдоверять.
195
659616
2571
это бы имело большое значение
для доверительных отношений.
11:14
In factфакт, in some instancesэкземпляры,
196
662843
1718
На самом деле в некоторых случаях
11:16
we want to be sharingразделение more
of our personalличный informationИнформация.
197
664585
3524
мы хотим предоставить как можно больше
своей личной информации.
11:20
Studyingизучение aggregatedсовокупный informationИнформация
can tell us so much
198
668697
3047
Изучение агрегированной информации
может многое нам рассказать
11:23
about our healthздоровье and our well-beingблагополучие,
199
671768
2747
о нашем здоровье и благополучии,
11:26
but to be ableв состоянии to safelyбезопасно shareдоля
our informationИнформация,
200
674539
3313
но чтобы безопасно делиться информацией,
11:29
we need specialособый protectionsзащиты
for mentalумственный privacyКонфиденциальность.
201
677876
3223
нам нужны специальные средства для
защиты ментальной конфиденциальности.
11:33
This is why we need
a right to cognitiveпознавательный libertyсвобода.
202
681832
3147
Вот почему нам нужно
право на познавательную свободу.
11:37
This right would secureбезопасный for us
our freedomсвобода of thought and ruminationжевание жвачки,
203
685543
4079
Это право обеспечит нам
нашу свободу мысли и размышления,
11:41
our freedomсвобода of self-determinationсамоопределение,
204
689646
2540
нашу свободу самоопределения,
11:44
and it would insureстраховать that we have
the right to consentсогласие to or refuseотказаться
205
692210
4390
и это будет гарантией того, что у нас есть
право соглашаться или отказываться
11:48
accessдоступ and alterationвнесение изменений
of our brainsмозги by othersдругие.
206
696624
2857
от доступа и изменения
нашего мозга кем-либо.
11:51
This right could be recognizedпризнанное
207
699811
2112
Это право может быть признано
11:53
as partчасть of the Universalуниверсальный Declarationдекларация
of HumanЧеловек Rightsправа,
208
701947
2883
частью Всеобщей декларации прав человека,
11:56
whichкоторый has establishedустановленный mechanismsмеханизмы
209
704854
2388
установившей механизмы
11:59
for the enforcementправоприменение
of these kindsвиды of socialСоциальное rightsправа.
210
707266
2856
для исполнения подобных социальных прав.
12:03
DuringВ течение the Iranianиранец Greenзеленый Movementдвижение,
211
711872
2070
Во время иранского «зелёного движения»
12:05
the protestersпротестующие used the internetинтернет
and good old-fashionedстаромодный wordслово of mouthрот
212
713966
5186
протестующие пользовались интернетом
и устаревшими словами
12:11
to coordinateкоординировать theirих marchesмарши.
213
719176
1948
для координации маршей.
12:14
And some of the mostбольшинство oppressiveгнетущий
restrictionsограничения in IranИран
214
722238
2769
И некоторые из самых деспотических
ограничений в Иране
12:17
were liftedподнятый as a resultрезультат.
215
725031
1877
в итоге были отменены.
12:20
But what if the Iranianиранец governmentправительство
had used brainголовной мозг surveillanceнаблюдение
216
728047
4087
Но что, если правительство Ирана
использовало мозговой надзор
12:24
to detectобнаружить and preventне допустить the protestакция протеста?
217
732158
3061
для обнаружения и предотвращения протеста?
12:28
Would the worldМир have ever heardуслышанным
the protesters'протестующих criesкрики?
218
736847
3176
Услышал бы мир когда-нибудь
крики протестующих?
12:33
The time has come for us to call
for a cognitiveпознавательный libertyсвобода revolutionреволюция.
219
741732
5121
Настало время нам призвать
к революции за когнитивную свободу.
12:39
To make sure that we responsiblyответственно
advanceпродвижение technologyтехнологии
220
747559
3264
Чтобы убедиться, что мы ответственно
совершенствуем технологии,
12:42
that could enableвключить us to embraceохватывать the futureбудущее
221
750847
2978
которые могут позволить нам
объять будущее,
12:45
while fiercelyсвирепо protectingзащищающий all of us
from any personчеловек, companyКомпания or governmentправительство
222
753849
6717
яро защищая всех нас от любого
человека, компании или правительства,
12:52
that attemptsпопытки to unlawfullyнезаконно accessдоступ
or alterизменять our innermostсокровенное livesжизни.
223
760590
5040
пытающегося незаконно получить доступ
или изменить наше сокровенное в жизни.
12:58
Thank you.
224
766659
1174
Спасибо.
12:59
(ApplauseАплодисменты)
225
767857
3492
(Аплодисменты)
Translated by Mariya Khabarova
Reviewed by Yulia Kallistratova

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com