ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

니타 파라하니(Nita A. Farahany): 과학 기술이 우리 생각을 읽을 때, 개인정보를 어떻게 보호해야 할까요?

Filmed:
1,819,292 views

법률학자이자 윤리학자인 니타 파라하니는 우리의 두뇌 활동을 해독하여 우리의 생각과 느낌을 알아낼 수 있는 과학 기술이 곧 생길 것이라고 말한다. 그것은 우리 개인정보가 이미 침해당하고 있음을 의미하는 걸까요? 미래를 경고하는 이 강연에서 파라하니는 사람들이 (영화 '마이너리티 리포트'에서처럼) 범행을 생각하는 것만으로 체포되고 사기업들이 우리의두뇌 정보를 판매하는 사회에 대해 경고하고, 우리의 사상의 자유와 자기 결정의 자유를 보호해 줄 인지 자유의 권리를 주장합니다.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the months개월 following수행원
the 2009 presidential대통령 election선거 in Iran이란,
0
1096
4714
2009년 이란의
대통령 선거 뒤 몇 달 동안
00:17
protests시위 erupted분출 된 across건너서 the country국가.
1
5834
2894
전국에서 폭발적으로
시위가 일어났습니다.
이란 정부는 폭력적 수단을 동원해서
00:21
The Iranian이란의 government정부
violently맹렬히 suppressed억제 된
2
9685
2896
'이란 녹색 운동'이란
시민운동을 억압했습니다.
00:24
what came왔다 to be known알려진
as the Iranian이란의 Green녹색 Movement운동,
3
12605
3979
이동 전화 신호를 차단해서
00:28
even blocking블로킹 mobile변하기 쉬운 signals신호들
4
16608
2053
00:30
to cut절단 off communication통신
between중에서 the protesters시위대.
5
18685
2714
시위자들 사이의 연락을 막기까지 했죠.
제 부모님은 1960년대 후반에
미국으로 이민을 오셨지만
00:34
My parents부모님, who emigrated이주한
to the United유나이티드 States in the late늦은 1960s,
6
22316
4669
00:39
spend보내 substantial실질적인 time there,
7
27009
1794
이란에서 꽤 오래 사셨고
00:40
where all of my large,
extended펼친 family가족 live살고 있다.
8
28827
3153
저희 대가족 모두가
그곳에 살고 있었습니다.
테헤란에 있는 가족에게 전화를 하면
00:44
When I would call my family가족 in Tehran테헤란
9
32832
3129
00:47
during...동안 some of the most가장 violent격렬한
crackdowns단속 of the protest항의,
10
35985
3452
시위 진압이 가장 극심할 때는
00:51
none없음 of them dared감히 discuss즐기며 먹다
with me what was happening사고.
11
39461
3252
무슨 일이 벌어지고 있는지
누구도 감히 얘기하지 않았습니다.
00:55
They or I knew알고 있었다 to quickly빨리 steer수송아지
the conversation대화 to other topics주제.
12
43196
3529
그분들이나 저나 대화 주제를
빨리 바꾸려고 했었죠.
우리 모두는 알고 있었어요.
00:59
All of us understood이해 된
what the consequences결과 could be
13
47163
3380
반체제 행동이 발각되면
어떤 결과가 올지 말이죠.
01:02
of a perceived감지 된 dissident반체제의 action동작.
14
50567
2540
01:06
But I still wish소원 I could have known알려진
what they were thinking생각
15
54095
3469
하지만 물어볼 걸 그랬다는
생각이 들어요.
그분들이 어떤 생각을 하고 있었는지,
또는 어떻게 느꼈는지를요.
01:09
or what they were feeling감각.
16
57588
1418
01:12
What if I could have?
17
60217
1393
제가 그걸 알았다면 어떻게 됐을까요?
01:14
Or more frighteningly무섭게,
18
62149
1151
아니면 더 공포스럽게도
01:15
what if the Iranian이란의 government정부 could have?
19
63324
2761
이란 정부가 그걸 알았다면
어떻게 되었을까요?
01:18
Would they have arrested체포 된 them
based기반 on what their그들의 brains두뇌 revealed계시 된?
20
66695
3244
그분들의 뇌가 보여주는 것을 바탕으로
이란 정부가 그분들을 체포했을까요?
01:22
That day may할 수있다 be closer더 가까운 than you think.
21
70933
2944
그런 날이 생각보다
더 빨리 올지도 모릅니다.
01:26
With our growing성장하는 capabilities능력
in neuroscience신경 과학, artificial인공의 intelligence지성
22
74527
3811
신경과학, 인공지능과 기계학습에 대한
우리의 능력이 커지면서
01:30
and machine기계 learning배우기,
23
78362
1703
01:32
we may할 수있다 soon know a lot more
of what's happening사고 in the human인간의 brain.
24
80089
4075
인간의 두뇌에서 어떤 일이 일어나는지
곧 훨씬 더 많이 알게 될 것입니다.
01:37
As a bioethicist생명 윤리학 자, a lawyer변호사, a philosopher철학자
25
85083
3310
생명윤리학자이자 법률가이자 철학자로서
01:40
and an Iranian-American이란 계 미국인,
26
88417
1867
그리고 이란계 미국인으로서
01:42
I'm deeply깊이 concerned우려하는
about what this means방법 for our freedoms자유
27
90308
3787
제가 깊은 관심을 두는 것은
이런 사실이 우리의 자유에
어떤 의미를 갖는지와
01:46
and what kinds종류 of protections보호 we need.
28
94119
2171
어떤 종류의 보호책이
필요한지에 관한 것입니다.
01:48
I believe we need
a right to cognitive인지 적 liberty자유,
29
96993
3460
저는 우리에게 인지적 자유의 권리가
필요하다고 생각합니다.
01:52
as a human인간의 right
that needs필요 to be protected보호 된.
30
100477
2892
보호받아야 할 인간의 권리죠.
01:55
If not, our freedom자유 of thought,
31
103772
2643
그렇지 않으면 사상의 자유와
01:58
access접속하다 and control제어 over our own개인적인 brains두뇌
32
106439
3024
우리 자신의 두뇌에 대한 접근과 통제
02:01
and our mental지적인 privacy은둔 will be threatened위협당한.
33
109487
2841
그리고 우리의 정신적 사생활이
위협받을 것입니다.
이것을 생각해보세요.
02:05
Consider중히 여기다 this:
34
113698
1158
02:06
the average평균 person사람 thinks생각해.
thousands수천 of thoughts생각들 each마다 day.
35
114880
3314
보통 사람은 매일
수천 가지 생각을 합니다.
02:10
As a thought takes form형태,
36
118697
1151
수학 계산이나 숫자, 낱말처럼
생각이 형태를 취할 때
02:11
like a math수학 calculation계산
or a number번호, a word워드,
37
119872
5056
02:16
neurons뉴런 are interacting상호 작용하는 in the brain,
38
124952
2885
두뇌의 신경 세포들이
상호 작용을 합니다.
02:19
creating창조 a miniscule극소의 electrical전기 같은 discharge방출.
39
127861
3088
아주 미세한 전류를 방출하면서 말이죠.
02:23
When you have a dominant우성
mental지적인 state상태, like relaxation기분 전환,
40
131713
3452
긴장을 풀고 있을 때 같은
특정한 정신 상태일 때
02:27
hundreds수백 and thousands수천 of neurons뉴런
are firing발사 in the brain,
41
135189
4175
수십만 개의 신경 세포들이
뇌에서 열기를 내게되는데
02:31
creating창조 concurrent병발 사정 electrical전기 같은 discharges방전
in characteristic특성 patterns패턴들
42
139388
4218
그와 동시에 특정한 양상의
전류 방출이 일어납니다.
02:35
that can be measured정확히 잰
with electroencephalography뇌파 검사, or EEG뇌파.
43
143630
4865
이는 뇌파측정술, 즉 EEG로
측정할 수 있습니다.
02:41
In fact, that's what
you're seeing right now.
44
149118
2160
사실 지금 보고 계신 것이
바로 그것입니다.
지금 보고 계신 것은
저의 두뇌 활동인데요.
02:43
You're seeing my brain activity활동
that was recorded기록 된 in real레알 time
45
151956
3964
간단한 장치를 머리에 쓰면
실시간으로 기록됩니다.
02:47
with a simple단순한 device장치
that was worn마른 on my head머리.
46
155944
2735
02:51
What you're seeing is my brain activity활동
when I was relaxed여유있는 and curious이상한.
47
159669
5653
이것은 긴장을 푼 상태에서
호기심이 많을 때의 두뇌 활동입니다.
02:58
To share this information정보 with you,
48
166097
1755
이것을 보여드리기 위해서
초기 시판용 EEG 장치를 썼습니다.
02:59
I wore입었다 one of the early이른
consumer-based소비자 기반 EEG뇌파 devices장치들
49
167876
3020
바로 이렇게 생긴 건데요.
03:02
like this one,
50
170920
1211
03:04
which어느 recorded기록 된 the electrical전기 같은
activity활동 in my brain in real레알 time.
51
172155
3988
이 장치로 저의 두뇌 활동을
실시간으로 기록했습니다.
03:08
It's not unlike같지 않은 the fitness적합 trackers추적기
that some of you may할 수있다 be wearing착용
52
176849
3826
여러분 중에도 착용하고 계실
운동량 기록 장치와 다르지 않죠.
03:12
to measure법안 your heart심장 rate
or the steps걸음 that you've taken취한,
53
180699
3586
그런 장치는 심장박동이나
걸음 수를 측정해주기도 하고
03:16
or even your sleep자다 activity활동.
54
184309
1587
수면 활동까지도 측정합니다.
03:19
It's hardly거의 the most가장 sophisticated매우 복잡한
neuroimaging신경 영상 technique기술 on the market시장.
55
187154
3824
이 장치는 시중에서 가장 복잡한
신경 촬영 기법은 전혀 아닙니다.
03:23
But it's already이미 the most가장 portable가지고 다닐 수 있는
56
191597
2378
하지만 그것은 이미 가장 휴대하기 좋고
03:25
and the most가장 likely아마도 to impact충격
our everyday매일 lives.
57
193999
3152
우리의 일상생활에 영향을 미칠
가능성이 매우 높습니다.
03:29
This is extraordinary이상한.
58
197915
1503
엄청난 일이에요.
03:31
Through을 통하여 a simple단순한, wearable의복 device장치,
59
199442
2505
간단한 착용 장치를 통해
03:33
we can literally말 그대로 see
inside내부 the human인간의 brain
60
201971
3548
말 그대로 두뇌 속을 볼 수 있고
03:37
and learn배우다 aspects상들 of our mental지적인 landscape경치
without없이 ever uttering발성하다 a word워드.
61
205543
6476
우리의 심리적 양상을 알 수 있습니다.
말 한마디 하지 않아도 말이죠.
03:44
While we can't reliably확실하게 decode풀다
complex복잡한 thoughts생각들 just yet아직,
62
212829
3653
복잡한 생각은 아직
확실하게 해독할 수 없지만
03:48
we can already이미 gauge계량기 a person's mood기분,
63
216506
2519
이미 사람의 기분을 측정할 수 있고
03:51
and with the help
of artificial인공의 intelligence지성,
64
219049
2873
인공지능의 도움을 받는다면
03:53
we can even decode풀다
some single-digit한 자릿수 numbers번호
65
221946
4341
머릿속의 한 자릿수 숫자를 알아내거나
03:58
or shapes도형 or simple단순한 words
that a person사람 is thinking생각
66
226311
4882
도형이나 간단한 낱말까지도
해독할 수 있습니다.
우리가 생각하고 있거나
듣거나 보는 것만으로도요.
04:03
or hearing듣기, or seeing.
67
231217
2189
04:06
Despite무례 some inherent고유의 limitations한계 in EEG뇌파,
68
234345
3365
뇌파기록술이 갖고 있는
몇몇 한계에도 불구하고
04:09
I think it's safe안전한 to say
that with our advances발전하다 in technology과학 기술,
69
237734
4720
제가 자신있게 말할 수 있는 것은
과학 기술의 발달과 더불어
04:14
more and more of what's happening사고
in the human인간의 brain
70
242478
3809
인간 두뇌에서 일어나는 일의
더욱 더 많은 부분이
04:18
can and will be decoded해독 된 over time.
71
246311
2310
앞으로 해독될 수 있고
그렇게 될 것이라는 사실입니다.
04:21
Already이미, using~을 사용하여 one of these devices장치들,
72
249362
2746
이미 이런 장치들 중 하나를 사용하여
04:24
an epileptic간질 환자 can know
they're going to have an epileptic간질 환자 seizure발작
73
252132
3255
간질 환자가 자신에게 발작이
일어날 거라는 걸 알 수 있습니다.
04:27
before it happens일이.
74
255411
1436
발작이 일어나기도 전에 말이죠.
04:28
A paraplegic마비 된 can type유형 on a computer컴퓨터
with their그들의 thoughts생각들 alone혼자.
75
256871
4603
하반신 마비 환자가 생각만으로도
컴퓨터 자판을 입력할 수도 있죠.
04:34
A US-based한미-기반 company회사 has developed개발 된
a technology과학 기술 to embed깊숙이 박다 these sensors센서
76
262485
4183
미국의 어느 회사가 개발한 기술 중에는
뇌파 센서를 자동차의
머리 받침대 안에 넣어서
04:38
into the headrest머리 받침 of automobilies자동 mobilies
77
266692
2230
04:40
so they can track선로 driver운전사 concentration집중,
78
268946
2505
운전자의 집중, 산만, 인지 부하
여부를 추적하는 것도 있습니다.
04:43
distraction기분 전환 and cognitive인지 적 load하중
while driving운전.
79
271475
2667
04:46
Nissan닛산, insurance보험 companies회사들
and AAAAAA have all taken취한 note노트.
80
274912
4058
닛산, 보험사, 미국 자동차서비스협회가
모두 이 기술에 관심을 보였죠.
04:51
You could even watch this
choose-your-own-adventure자신 만의 모험을 선택하십시오 movie영화
81
279949
4508
관객의 선택에 따라 모험이 전개되는
"더 모멘트"라는 영화도 있습니다.
04:56
"The Moment순간," which어느, with an EEG뇌파 headset헤드폰,
82
284481
4240
뇌파기록 헤드셋을 쓰고 이 영화를 보면
05:00
changes변화들 the movie영화
based기반 on your brain-based두뇌 기반 reactions반응들,
83
288745
3926
두뇌가 보이는 반응에 따라
영화의 내용이 바뀝니다.
05:04
giving주는 you a different다른 ending종결
every...마다 time your attention주의 wanes쇠약 해지다.
84
292695
4353
주의력이 약해질 때마다
다른 결말을 보여주죠.
05:11
This may할 수있다 all sound소리 great,
85
299154
2763
대단하다고 생각하실지 모르겠네요.
05:13
and as a bioethicist생명 윤리학 자,
86
301941
2189
생명윤리학자로서
저도 적극 지지합니다.
05:16
I am a huge거대한 proponent제안자 of empowering권한을 부여하는 people
87
304154
3613
사람들에게 자신의 건강과
행복을 책임질 능력을 주고
05:19
to take charge요금 of their그들의 own개인적인
health건강 and well-being안녕
88
307791
2616
05:22
by giving주는 them access접속하다
to information정보 about themselves그들 자신,
89
310431
2918
그들 자신에 대한 정보를
제공한다는 측면에서는 말이죠.
05:25
including포함 this incredible놀랄 만한
new새로운 brain-decoding뇌 디코딩 technology과학 기술.
90
313373
2976
이 놀랍고 새로운
두뇌 해독 기술을 포함해서요.
하지만 걱정되기도 합니다.
05:29
But I worry걱정.
91
317878
1167
05:31
I worry걱정 that we will voluntarily자발적으로
or involuntarily무의식적으로 give up
92
319736
4760
제가 걱정하는 것은
우리가 원해서든 아니면 억지로든
우리 자유의 마지막 요새를
포기할 수도 있다는 점입니다.
05:36
our last bastion능보 of freedom자유,
our mental지적인 privacy은둔.
93
324520
4118
우리의 정신적 사생활 말이죠.
05:41
That we will trade무역 our brain activity활동
94
329302
2925
우리의 두뇌 활동에 대한 정보를 주고
05:44
for rebates환불 or discounts할인 on insurance보험,
95
332251
3046
그 댓가로 보험료 할인을
받으려 할지 모릅니다.
05:48
or free비어 있는 access접속하다
to social-media소셜 미디어 accounts계정 ...
96
336391
2603
아니면 공짜 SNS 계정이나
05:52
or even to keep our jobs일자리.
97
340444
1848
심지어 일자리를 바랄지도 모르죠.
05:54
In fact, in China중국,
98
342900
1913
실제로 중국에서는
05:58
the train기차 drivers운전사 on
the Beijing-Shanghai베이징 시-상하이 high-speed고속 rail레일,
99
346199
5897
전세계 고속철도 중 가장 붐비는
북경-상해 노선의 열차 기관사들에게
06:04
the busiest가장 바쁜 of its kind종류 in the world세계,
100
352120
2532
뇌파 기록 장치를 착용하도록 하고
06:06
are required필수 to wear입고 있다 EEG뇌파 devices장치들
101
354676
2476
06:09
to monitor감시 장치 their그들의 brain activity활동
while driving운전.
102
357176
2427
운행 중 두뇌 활동을 관찰합니다.
06:12
According따라 to some news뉴스 sources원천,
103
360157
2226
일부 뉴스 보도에 따르면
06:14
in government-run정부가 운영하는 factories공장 in China중국,
104
362407
2679
중국의 정부가 운영하는 공장에서는
06:17
the workers노동자 are required필수 to wear입고 있다
EEG뇌파 sensors센서 to monitor감시 장치 their그들의 productivity생산력
105
365110
5364
노동자들에게 EEG 센서를
착용하도록 합니다.
근무 중 생산성과 정서 상태를
관찰하기 위해서죠.
06:22
and their그들의 emotional정서적 인 state상태 at work.
106
370498
2115
06:25
Workers노동자 are even sent보낸 home
107
373267
2310
심지어 노동자를 귀가시키기도 해요.
06:27
if their그들의 brains두뇌 show보여 주다 less-than-stellar별이 없는
concentration집중 on their그들의 jobs일자리,
108
375601
4054
두뇌 상태가 작업하기에
낮은 집중력을 보이거나
06:31
or emotional정서적 인 agitation동요.
109
379679
2122
정서적 동요를 보일 때 말이죠.
06:35
It's not going to happen우연히 있다 tomorrow내일,
110
383189
1745
이런 일이 당장 일어나진 않겠지만
06:36
but we're headed향하고있는 to a world세계
of brain transparency투명도.
111
384958
3086
우리는 머릿속이 투명하게 공개되는
세계를 향해 가고 있습니다.
06:40
And I don't think people understand알다
that that could change변화 everything.
112
388537
3440
그러면 모든 게 바뀔 수 있다는 걸
사람들은 모르는 거 같아요.
06:44
Everything from our definitions정의
of data데이터 privacy은둔 to our laws법률,
113
392474
3675
개인정보 보호에 대한 정의와
법률은 물론이고
06:48
to our ideas아이디어 about freedom자유.
114
396173
1800
자유에 대한 개념까지 모든 것을요.
06:50
In fact, in my lab at Duke공작 University대학,
115
398731
3077
사실 듀크대학교의 제 연구실에서는
06:53
we recently요새 conducted전도 된 a nationwide전국적으로 study연구
in the United유나이티드 States
116
401832
3175
최근에 미국 전역을
대상으로 하는 연구를 통해
06:57
to see if people appreciated고맙다
117
405031
1959
일반인의 자신의 두뇌 정보에 대한
민감도를 알아보고자 했습니다.
06:59
the sensitivity감광도
of their그들의 brain information정보.
118
407014
2071
07:02
We asked물었다 people to rate
their그들의 perceived감지 된 sensitivity감광도
119
410356
3356
33가지 종류의 정보에 대해서
그 민감도 점수를 매기도록 했죠.
07:05
of 33 different다른 kinds종류 of information정보,
120
413736
2231
07:07
from their그들의 social사회적인 security보안 numbers번호
121
415991
2220
주민등록번호에서부터
07:10
to the content함유량
of their그들의 phone전화 conversations대화,
122
418235
2597
전화 통화 내용
07:12
their그들의 relationship관계 history역사,
123
420856
2193
연애 이력
07:15
their그들의 emotions감정, their그들의 anxiety걱정,
124
423073
1942
감정, 근심거리
07:17
the mental지적인 images이미지들 in their그들의 mind마음
125
425039
1946
머릿속으로 그리는 이미지와
07:19
and the thoughts생각들 in their그들의 mind마음.
126
427009
1538
마음에 품은 생각까지요.
07:21
Shockingly놀랍게도, people rated등급이 매겨진 their그들의 social사회적인
security보안 number번호 as far멀리 more sensitive민감한
127
429481
5229
놀랍게도
사람들은 사회보장번호가 다른 정보보다
훨씬 더 민감하다고 평가했습니다.
07:26
than any other kind종류 of information정보,
128
434734
2203
07:28
including포함 their그들의 brain data데이터.
129
436961
2435
자신의 두뇌 데이터 이상으로요.
07:32
I think this is because
people don't yet아직 understand알다
130
440380
3216
제 생각에 이런 이유는
사람들이 이 두뇌 해독 신기술의 함의를
아직 이해하거나 믿지 못하는 것입니다.
07:35
or believe the implications의미
of this new새로운 brain-decoding뇌 디코딩 technology과학 기술.
131
443620
4063
07:40
After all, if we can know
the inner안의 workings작업장 of the human인간의 brain,
132
448629
3289
어쨌든 인간 두뇌 속이 어떻게
작동하는지 알 수 있게 된다면
07:43
our social사회적인 security보안 numbers번호
are the least가장 작은 of our worries걱정.
133
451942
2706
주민등록번호를 걱정할 일이 아니에요.
07:46
(Laughter웃음)
134
454672
1285
(웃음)
07:47
Think about it.
135
455981
1167
이것을 생각해보세요.
07:49
In a world세계 of total합계 brain transparency투명도,
136
457172
2396
머릿속이 완전히
투명하게 읽히는 세상에서
07:51
who would dare도전 have
a politically정치상 dissident반체제의 thought?
137
459592
2429
누가 정치적으로 반체제적인
사고를 하겠어요?
07:55
Or a creative창조적 인 one?
138
463279
1541
누가 창의적 사고를 할 수 있을까요?
제가 걱정하는 것은
07:57
I worry걱정 that people will self-censor자기 검열
139
465503
3476
사람들이 사회에서 배척당할까 두려워
자기 검열을 할지 모른다는 거예요.
08:01
in fear무서움 of being존재 ostracized배척당한 by society사회,
140
469003
3302
08:04
or that people will lose잃다 their그들의 jobs일자리
because of their그들의 waning약 해지는 attention주의
141
472329
3813
아니면 직장을 잃게 될지도 모르죠.
집중력이 약해졌다거나
정서적으로 불안정해지거나
08:08
or emotional정서적 인 instability불안정,
142
476166
2150
08:10
or because they're contemplating고민하는
collective집단적 action동작 against반대 their그들의 employers고용주.
143
478340
3550
고용주에 맞서는 집단 행동을
꾀한다는 이유로 말이죠.
08:14
That coming오는 out
will no longer더 길게 be an option선택권,
144
482478
3177
그런 걸 솔직하게 밝히는 것이
더는 자신의 선택이 아니게 될 겁니다.
08:17
because people's사람들의 brains두뇌 will long ago...전에
have revealed계시 된 their그들의 sexual성적 orientation정위,
145
485679
5067
왜냐하면 그러기 전에
사람들의 두뇌가 이미
성적 지향이나 정치적 이념이나
종교 성향을 드러내버렸을 테니까요.
08:22
their그들의 political주재관 ideology관념론
146
490770
1822
08:24
or their그들의 religious종교적인 preferences환경 설정,
147
492616
2025
08:26
well before they were ready준비된
to consciously의식적으로 share that information정보
148
494665
3080
자신의 의지로 그런 정보를 타인과
공유할 준비를 갖추기 전에 말이죠.
08:29
with other people.
149
497769
1253
08:31
I worry걱정 about the ability능력 of our laws법률
to keep up with technological기술적 인 change변화.
150
499565
4912
제가 우려하는 것은
과학기술의 변화에 보조를 맞추기 위해
법률이 가져야 할 능력입니다.
08:36
Take the First Amendment개정
of the US Constitution헌법,
151
504986
2320
미국의 수정헌법 제1조에는
언론의 자유를 보호한다고 되어 있죠.
08:39
which어느 protects보호하다 freedom자유 of speech연설.
152
507330
1958
08:41
Does it also또한 protect보호 freedom자유 of thought?
153
509312
1927
그 조항이 사상의 자유도 보호하나요?
08:43
And if so, does that mean that we're free비어 있는
to alter바꾸다 our thoughts생각들 however하나 we want?
154
511944
4169
그렇다면 우리가 원하는 방식으로
사고를 자유롭게 바꾼다는 뜻이지요?
08:48
Or can the government정부 or society사회 tell us
what we can do with our own개인적인 brains두뇌?
155
516137
4674
아니면 정부나 사회가 우리 뇌 속의
생각을 통제할 수 있을까요?
08:53
Can the NSANSA spy스파이 on our brains두뇌
using~을 사용하여 these new새로운 mobile변하기 쉬운 devices장치들?
156
521591
3717
국가안보국이 이런 새로운 휴대장치로
우리의 두뇌를 염탐할 수 있을까요?
08:58
Can the companies회사들 that collect수집
the brain data데이터 through...을 통하여 their그들의 applications응용 프로그램
157
526053
4119
자신들의 앱을 통해
두뇌 데이터를 수집한 기업이
09:02
sell팔다 this information정보 to third제삼 parties파티?
158
530196
2074
제3자에게 이 정보를 팔 수 있을까요?
09:05
Right now, no laws법률 prevent막다 them
from doing so.
159
533174
3222
당장은 어떤 법으로도
그런 행위를 막지 못합니다.
09:09
It could be even more problematic문제가있는
160
537203
2025
이는 일부 나라에서는
훨씬 심각한 문제입니다.
09:11
in countries국가 that don't share
the same같은 freedoms자유
161
539252
2519
미국인들만큼 자유를
누리지 못하는 나라들 말이죠.
09:13
enjoyed즐겁게 by people in the United유나이티드 States.
162
541795
2103
09:16
What would've~했을거야. happened일어난 during...동안
the Iranian이란의 Green녹색 Movement운동
163
544883
3787
이란녹색운동 당시에 그랬다면
어떻게 됐을까요?
09:20
if the government정부 had been
monitoring모니터링 my family's가족의 brain activity활동,
164
548694
3901
정부가 저희 가족의 두뇌 활동을 관찰해서
09:24
and had believed믿었다 them
to be sympathetic교감 신경 to the protesters시위대?
165
552619
4007
저희 가족이 시위자들에게
공감한다고 생각했다면요?
09:30
Is it so far-fetched멀리 가져온 to imagine상상하다 a society사회
166
558091
3047
이런 사회를 상상한다면
너무 터무니없을까요?
09:33
in which어느 people are arrested체포 된
based기반 on their그들의 thoughts생각들
167
561162
2842
범행을 생각하는 것만으로
체포당하는 사회가 있다면요?
09:36
of committing커밋 a crime범죄,
168
564028
1167
09:37
like in the science-fiction공상 과학
dystopian디스토피아의 society사회 in "Minority소수 Report보고서."
169
565219
4312
영화 '마이너리티 리포트'에서 본
공상과학의 반 이상향 사회 말이죠.
09:42
Already이미, in the United유나이티드 States, in Indiana인디애나,
170
570286
4323
이미 미국에서는
인디애나주의 18세 소년이 자기 학교를
위협했다는 이유로 기소되었는데
09:46
an 18-year-old예전의 was charged청구 된
with attempting시도 중 to intimidate협박하다 his school학교
171
574633
4937
그 이유가 복도의 사람들에게
총을 쏘는 동영상을 올려서였어요.
09:51
by posting전기 a video비디오 of himself그 자신
shooting촬영 people in the hallways복도 ...
172
579594
3309
09:55
Except the people were zombies좀비
173
583881
3007
그런데 피격당한 사람들이 좀비였고
09:58
and the video비디오 was of him playing연주하다
an augmented-reality증강 현실 video비디오 game경기,
174
586912
5047
그 영상은 그 소년이 증강 현실
게임을 하고 있는 영상있었습니다.
10:03
all interpreted해석 된 to be a mental지적인 projection투사
of his subjective주걱 intent의지.
175
591983
4772
그것만 빼고는 모든 것이
그 소년의 주관적 의사를
보여주는 거라고 생각했던 거죠.
10:10
This is exactly정확하게 why our brains두뇌
need special특별한 protection보호.
176
598456
4612
바로 이 때문에 우리 뇌를
특별히 보호해야 하는 겁니다.
10:15
If our brains두뇌 are just as subject제목
to data데이터 tracking추적 and aggregation집합
177
603092
3556
두뇌 정보를 추적하고 수집하는 일이
금융 거래 기록만큼이나 쉽고
10:18
as our financial재정적 인 records기록들 and transactions업무,
178
606672
2532
10:21
if our brains두뇌 can be hacked해킹당한
and tracked추적 like our online온라인 activities활동들,
179
609228
4285
우리의 뇌가 온라인 활동, 이동 전화와
앱처럼 해킹되고 추적당할 수 있다면
10:25
our mobile변하기 쉬운 phones전화 and applications응용 프로그램,
180
613537
2361
10:27
then we're on the brink가장자리 of a dangerous위험한
threat위협 to our collective집단적 humanity인류.
181
615922
4269
그러면 우리 인류 전체에게
곧 심각한 위협이 닥칠 것입니다.
10:33
Before you panic공포,
182
621406
1309
겁먹지는 마시고요.
10:36
I believe that there are solutions솔루션
to these concerns우려,
183
624012
3144
이런 걱정을 해결할 방법이 있습니다.
10:39
but we have to start스타트 by focusing집중
on the right things.
184
627180
2825
단, 초점을 제대로 잡고
시작해야 해요.
10:42
When it comes온다 to privacy은둔
protections보호 in general일반,
185
630580
2921
일반적인 사생활 보호를 대상으로 한다면
10:45
I think we're fighting싸움 a losing지는 battle전투
186
633525
1826
싸움에서 지게 될 겁니다.
정보의 흐름을 제한하려 할 테니까요.
10:47
by trying견딜 수 없는 to restrict얽매다
the flow흐름 of information정보.
187
635375
2858
10:50
Instead대신, we should be focusing집중
on securing확보 rights진상 and remedies구제책
188
638257
4057
대신에 인권과 권리 침해에 대한
구제 법안 확립에 초점을 맞추고
10:54
against반대 the misuse오용 of our information정보.
189
642338
2275
우리 정보의 오용에 맞서야 합니다.
10:57
If people had the right to decide결정하다
how their그들의 information정보 was shared공유 된,
190
645291
3285
자신의 정보가 공유되는 방식을
결정할 권리를 가져야 하고
11:00
and more importantly중요하게, have legal적법한 redress구제
191
648600
2921
무엇보다도 법적 보상이 있어야 합니다.
11:03
if their그들의 information정보
was misused오용 된 against반대 them,
192
651545
2428
원치 않게 자신의 정보가
오용됐을 때에 대한 보상이죠.
11:05
say to discriminate차별하다 against반대 them
in an employment고용 setting환경
193
653997
2786
예를 들면 고용, 보건 또는
교육에서 차별당했을 경우에요.
11:08
or in health건강 care케어 or education교육,
194
656807
2785
11:11
this would go a long way to build짓다 trust믿음.
195
659616
2571
이런 신뢰를 쌓기에는 갈 길이 멉니다.
사실 몇몇 경우에
11:14
In fact, in some instances인스턴스,
196
662843
1718
우리는 우리 개인 정보를
더 많이 공유하길 원합니다.
11:16
we want to be sharing나누는 more
of our personal개인적인 information정보.
197
664585
3524
예를 들어 집적된 정보를 살펴보면
11:20
Studying유학 중 aggregated집합 information정보
can tell us so much
198
668697
3047
우리의 건강과 생활상에 대해
너무나 많은 걸 알 수 있습니다.
11:23
about our health건강 and our well-being안녕,
199
671768
2747
11:26
but to be able할 수 있는 to safely안전하게 share
our information정보,
200
674539
3313
하지만 우리의 정보를
안전하게 공유하려면
11:29
we need special특별한 protections보호
for mental지적인 privacy은둔.
201
677876
3223
두뇌 개인정보에 대해
특별한 보호가 필요합니다.
11:33
This is why we need
a right to cognitive인지 적 liberty자유.
202
681832
3147
그래서 인지 자유의 권리가
필요한 것입니다.
11:37
This right would secure안전한 for us
our freedom자유 of thought and rumination반추,
203
685543
4079
이 권리는 사상과 생각의 자유,
즉 자기결정의 자유를 보장할 것입니다.
11:41
our freedom자유 of self-determination자기 결정,
204
689646
2540
11:44
and it would insure안전하게 하다 that we have
the right to consent동의 to or refuse폐물
205
692210
4390
그리고 타인이 우리 두뇌에
접근하거나 변경하려 할 때
11:48
access접속하다 and alteration변경
of our brains두뇌 by others다른 사람.
206
696624
2857
동의나 거부권을 갖게 할 것입니다.
11:51
This right could be recognized인정 된
207
699811
2112
이 권리는 세계 인권 선언의
일부로 인정받을 수 있는데
11:53
as part부품 of the Universal만능인 Declaration선언
of Human인간 Rights진상,
208
701947
2883
세계 인권 선언은 이런 사회적 권리를
강화하는 체계를 확립해주었죠.
11:56
which어느 has established설립 된 mechanisms메커니즘
209
704854
2388
11:59
for the enforcement시행
of these kinds종류 of social사회적인 rights진상.
210
707266
2856
12:03
During동안 the Iranian이란의 Green녹색 Movement운동,
211
711872
2070
이란 녹색운동이 일어났을 때
12:05
the protesters시위대 used the internet인터넷
and good old-fashioned구식 word워드 of mouth
212
713966
5186
시위자들은 인터넷을 이용하거나
예전처럼 입에서 입으로 소식을 전하며
12:11
to coordinate동등 어구 their그들의 marches행진하다.
213
719176
1948
시위대를 조직하였습니다.
12:14
And some of the most가장 oppressive억압적인
restrictions제한 in Iran이란
214
722238
2769
결국 이란의 가장 억압적인
몇몇 제약이 해제되었죠.
12:17
were lifted들어 올린 as a result결과.
215
725031
1877
12:20
But what if the Iranian이란의 government정부
had used brain surveillance감시
216
728047
4087
하지만 이란 정부가 우리 두뇌를
감시했다면 어떻게 되었을까요?
그 시위를 탐지하고
예방한다는 목적으로 말이죠.
12:24
to detect탐지하다 and prevent막다 the protest항의?
217
732158
3061
12:28
Would the world세계 have ever heard들었던
the protesters'시위대 cries울다?
218
736847
3176
전 세계 사람들에게
시위자들의 외침이 들렸을까요?
12:33
The time has come for us to call
for a cognitive인지 적 liberty자유 revolution혁명.
219
741732
5121
우리에게 인지 자유의 혁신이
필요한 때가 왔습니다.
12:39
To make sure that we responsibly책임감있게
advance전진 technology과학 기술
220
747559
3264
우리 과학 기술을
책임감 있게 발전시켜야만
미래를 받아들일 수 있을 것입니다.
12:42
that could enable가능하게하다 us to embrace포옹 the future미래
221
750847
2978
12:45
while fiercely사납게 protecting보호 all of us
from any person사람, company회사 or government정부
222
753849
6717
그와 동시에 우리 모두를
확실하게 보호해야 합니다.
어떤 개인, 회사, 정부가
12:52
that attempts시도 to unlawfully불법 access접속하다
or alter바꾸다 our innermost가장 깊은 속의 lives.
223
760590
5040
우리의 가장 내밀한 삶에 불법적으로
접근하거나 바꾸지 못하도록 말이죠.
12:58
Thank you.
224
766659
1174
고맙습니다.
12:59
(Applause박수 갈채)
225
767857
3492
(박수)
Translated by Jongho Jeong
Reviewed by Tae Young Choi

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com