ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

닉 보스트롬의 우리의 가장큰 문제

Filmed:
967,767 views

옥스포드 철학자이며 트렌스슈머느스트인 닉 보스트롬은 인류의 미래를 검토하고 인류의 가장 본질적인 문제를 해결하기위하여 인류의 기본적인 특성을 바꿀것인가에 대한 질문을 던진다.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk today오늘 about --
0
0
3000
오늘 제가 이야하 하고 싶은 것은.. 그러니까..
00:27
I've been asked물었다 to take the long view전망, and I'm going to tell you what
1
3000
6000
저는 항상 장기적 견지의 의견을 표명해 왔지요, 그리고 오늘 애기하고 싶은 것은
00:33
I think are the three biggest가장 큰 problems문제들 for humanity인류
2
9000
4000
인류의 세가지 가장 큰 문제가 무언인가에 대한 것입니다.
00:37
from this long point포인트 of view전망.
3
13000
3000
이렇게 아주 장기적인 견지에서요.
00:40
Some of these have already이미 been touched만진 upon...에 by other speakers연설자,
4
16000
3000
이들 문제들중 몇 가지는 다른 사람들에 이미 다루었지요.
00:43
which어느 is encouraging격려의.
5
19000
2000
굉장히 고무적입니다.
00:45
It seems~ 같다 that there's not just one person사람
6
21000
2000
오직 한 사람만이
00:47
who thinks생각해. that these problems문제들 are important중대한.
7
23000
2000
이들 문제가 중요하다고 생각하는 것은 아닌 것 같습니다.
00:49
The first is -- death죽음 is a big problem문제.
8
25000
4000
첫 째는 - 죽음이 큰 문제중 하나입니다.
00:53
If you look at the statistics통계,
9
29000
3000
통계를 살펴보면,
00:56
the odds승산 are not very favorable유리한 to us.
10
32000
2000
현실은 우리에게 호의적이지 않지요.
00:58
So far멀리, most가장 people who have lived살았던 have also또한 died사망 한.
11
34000
4000
현재까지, 세상에 태어났던 모든 사람들이 이미 죽었습니다.
01:02
Roughly대충 90 percent퍼센트 of everybody각자 모두 who has been alive살아 있는 has died사망 한 by now.
12
38000
4000
세상에서 생존했던 모든 사람들의 약 90%가 이미 죽었습니다.
01:06
So the annual일년생 식물 death죽음 rate adds추가 up to 150,000 --
13
42000
6000
그래서 연 사망률은 십오만명에 이릅니다.
01:12
sorry, the daily매일 death죽음 rate -- 150,000 people per day,
14
48000
3000
죄송합니다. 일사망률이네요, 매일 십오만명의 사람들이 사망합니다.
01:15
which어느 is a huge거대한 number번호 by any standard표준.
15
51000
3000
어떤 기준으로 봐도 대단히 큰 숫자 입니다.
01:18
The annual일년생 식물 death죽음 rate, then, becomes된다 56 million백만.
16
54000
5000
그리고 연간 사망률은 5천 6백만명입니다.
01:23
If we just look at the single단일, biggest가장 큰 cause원인 of death죽음 -- aging노화 --
17
59000
5000
사망의 가장 크고 유일한 원인은 - 노화- 입니다.
01:29
it accounts계정 for roughly대충 two-thirds2/3 of all human인간의 people who die주사위.
18
65000
5000
지금까지 사망한 사람들의 2/3가 노화 때문에 사망한 것으로 집계 되고 있습니다..
01:34
That adds추가 up to an annual일년생 식물 death죽음 toll희생
19
70000
3000
연간 사망률은
01:37
of greater더 큰 than the population인구 of Canada캐나다.
20
73000
2000
캐나다 인구수 보다 더 많습니다.
01:39
Sometimes때때로, we don't see a problem문제
21
75000
2000
우리는 이것을 문제라고 생각하지 않지요,
01:41
because either어느 한 쪽 it's too familiar익숙한 or it's too big.
22
77000
4000
왜냐하면, 이것은 너무도 익숙한 사실이거나 혹은 너무 큰 문제기 때문이겠지요.
01:45
Can't see it because it's too big.
23
81000
2000
너무 크기 때문에 인지 할 수 없습니다.
01:47
I think death죽음 might be both양자 모두 too familiar익숙한 and too big
24
83000
3000
저는 사망이 너무 익숙하고 또한 너무 큰 문제이기 때문에
01:50
for most가장 people to see it as a problem문제.
25
86000
3000
많은 사람들이 문제라고 인식하지 못한 다고 생각합니다.
01:53
Once일단 you think about it, you see this is not statistical통계상의 points전철기;
26
89000
2000
좀 더 깊게 생각해 보면, 이것이 통계적인 문제가 아니라는 것을 알수 있을 것입니다.
01:55
these are -- let's see, how far멀리 have I talked말한?
27
91000
2000
이것들은 - 자 제가 어디까지 이야기 했는지 볼까요?
01:57
I've talked말한 for three minutes의사록.
28
93000
3000
지금까지 저는 약 3분 가량 이야기 했습니다.
02:00
So that would be, roughly대충, 324 people have died사망 한 since이후 I've begun시작된 speaking말하기.
29
96000
7000
제가 이야기를 시작한 이 후 대략 324명이 사망 했습니다.
02:07
People like -- it's roughly대충 the population인구 in this room has just died사망 한.
30
103000
4000
대략적으로 이 곳에 모인 사람들의 숫자만큼 사망한 것입니다.
02:12
Now, the human인간의 cost비용 of that is obvious분명한,
31
108000
2000
자, 그 만큼은 인적 손실이 명확한 것 입니다.
02:14
once일단 you start스타트 to think about it -- the suffering괴로움, the loss손실 --
32
110000
3000
이 문제에 대하여 좀 더 깊게 생각하기 시작하면, 그러니까, 고통, 상실을 말이지요,
02:17
it's also또한, economically경제적으로, enormously엄청나게 wasteful낭비적인.
33
113000
3000
이것은 또한 경제적으로 어마어마한 손해 입니다.
02:20
I just look at the information정보, and knowledge지식, and experience경험
34
116000
3000
(이 사람들이 가지고 있던) 정보, 지식, 경험을 생각해 보세요,
02:23
that is lost잃어버린 due정당한 to natural자연스러운 causes원인 of death죽음 in general일반,
35
119000
3000
이 손실은 자연적인 사망 원인 때문입니다.
02:26
and aging노화, in particular특별한.
36
122000
2000
좀 더 구체적으로 이야기 하면, 노화 때문입니다.
02:28
Suppose가정 해보자. we approximated근사 된 one person사람 with one book도서?
37
124000
3000
자 한 사람의 인생을 대략 책 한 권에 담았다고 생각해 봅시다.
02:31
Now, of course코스, this is an underestimation싼 견적.
38
127000
2000
물론 이 수치는 과소 평가된 것입니다.
02:33
A person's lifetime일생 of learning배우기 and experience경험
39
129000
6000
한 사람이 일생 동안 배우고 경험한 것은
02:39
is a lot more than you could put into a single단일 book도서.
40
135000
2000
한 권의 책에 담기에는 너무 많습니다.
02:41
But let's suppose가정하다 we did this.
41
137000
2000
그렇지만 책 한 권에 담았다고 생각해 봅시다.
02:44
52 million백만 people die주사위 of natural자연스러운 causes원인 each마다 year
42
140000
5000
5천 2백만명이 매년 자연적인 이유로 사망합니다.
02:49
corresponds대응하다, then, to 52 million백만 volumes destroyed의해 파괴됨.
43
145000
4000
대입하면, 5천 2백만권의 책이 폐기된 것이지요.
02:53
Library도서관 of Congress대회 holds보류하다 18 million백만 volumes.
44
149000
3000
국회도서관에서는 1천 8백만권의 책을 소장하고 있습니다.
02:57
We are upset당황 about the burning타고 있는 of the Library도서관 of Alexandria알렉산드리아.
45
153000
3000
우리는 알렉산드리아 도서관의 화재에 몹시 속상해 합니다.
03:00
It's one of the great cultural문화적 tragedies비극
46
156000
2000
이것은 문화적으로 크나큰 비극이고,
03:02
that we remember생각해 내다, even today오늘.
47
158000
3000
오늘날까지 기억하고 있지요.
03:06
But this is the equivalent동등한 of three Libraries도서관 of Congress대회 --
48
162000
2000
그렇지만, 이 문제는 국회도서관 3개와 같은 수의 책이
03:08
burnt down, forever영원히 lost잃어버린 -- each마다 year.
49
164000
3000
매년 영원히 불타 소멸하는 양과 같습니다.
03:11
So that's the first big problem문제.
50
167000
2000
이것이 첫번째로 가장 큰 문제 입니다.
03:13
And I wish소원 Godspeed고비 to Aubrey오브리 de Grey회색,
51
169000
3000
그리고 어버리 디 그레이에게 행운이 함께하여 성공하길 바라고,
03:16
and other people like him,
52
172000
2000
그리고 같은 일을 하는 다른 사람들이
03:18
to try to do something about this as soon as possible가능한.
53
174000
3000
이문제에 대한 해답을 가능한 빠르게 얻을 수 있도록 행운을 빕니다.
03:22
Existential존재 risk위험 -- the second둘째 big problem문제.
54
178000
3000
실존적 위험 - 이 것이 두번째 문제 입니다.
03:25
Existential존재 risk위험 is a threat위협 to human인간의 survival활착, or to the long-term장기간 potential가능성 of our species.
55
181000
7000
실존적 위험은 인류의 생존 혹은 우리 종족의 장기적 잠재력에 위협적인 문제 입니다.
03:32
Now, why do I say that this is a big problem문제?
56
188000
2000
자, 이것이 왜 큰 문제가 될 까요?
03:34
Well, let's first look at the probability개연성 --
57
190000
4000
먼저 확률을 살펴 봅시다
03:38
and this is very, very difficult어려운 to estimate견적 --
58
194000
3000
이것은 가늠하기 아주 어려운 문제지요
03:41
but there have been only four studies연구 on this in recent충적세 years연령,
59
197000
3000
그렇지만 최근 몇 년간 단지 4개의 연구가 진행되었으며,
03:44
which어느 is surprising놀라운.
60
200000
2000
놀라운 것입니다
03:46
You would think that it would be of some interest관심
61
202000
3000
이것은 흥미있는 일이라고 생각할 수 있겠지요,
03:49
to try to find out more about this given주어진 that the stakes스테이크 are so big,
62
205000
4000
주어진 문제의 크기가 크다는 것을 생각한다면, 앞으로 탐구할 여지가 많다는 점에서요,
03:53
but it's a very neglected방치 된 area지역.
63
209000
2000
그렇지만, 현재는 무시되고 있는 영역 입니다.
03:55
But there have been four studies연구 --
64
211000
2000
그렇지만 4편의 연구가 있었고,
03:57
one by John남자 Lesley레슬리, wrote a book도서 on this.
65
213000
2000
그 중 하나는 존 레슬리씨가 이것에 대한 책을 집필 했지요.
03:59
He estimated추정 된 a probability개연성 that we will fail실패
66
215000
2000
그는 인류가 현재의 세기에
04:01
to survive생존하다 the current흐름 century세기: 50 percent퍼센트.
67
217000
3000
생존에 실패할 확률이 50%라고 예측 했습니다.
04:04
Similarly비슷하게, the Astronomer천문학 자 Royal감청색, whom누구에게 we heard들었던 speak말하다 yesterday어제,
68
220000
5000
비슷하게, 어제 강연했던 천문학자 로얄씨 또한
04:09
also또한 has a 50 percent퍼센트 probability개연성 estimate견적.
69
225000
3000
확률을 50%로 측정 했습니다.
04:12
Another다른 author저자 doesn't give any numerical수치의 estimate견적,
70
228000
3000
다른 저자는 수치적 예측을 하지 않았지만,
04:15
but says말한다 the probability개연성 is significant중요한 that it will fail실패.
71
231000
3000
일류 생존 실패율이 상당히 높다고 말했습니다.
04:18
I wrote a long paper종이 on this.
72
234000
3000
저는 이에 대한 조금 긴 논문을 썼습니다.
04:21
I said assigning할당 a less적게 than 20 percent퍼센트 probability개연성 would be a mistake잘못
73
237000
4000
발생할 확률을 20%보다 더 낮게 책정하는 것은 잘못된 일입니다
04:25
in light of the current흐름 evidence증거 we have.
74
241000
3000
현재까지의 증거들을 고려해 보면 말이지요
04:28
Now, the exact정확한 figures인물 here,
75
244000
2000
자, 여기 정확한 수치가 있는데,
04:30
we should take with a big grain곡물 of salt소금,
76
246000
2000
이 수치는 의심의 여지가 있습니다만,
04:32
but there seems~ 같다 to be a consensus일치 that the risk위험 is substantial실질적인.
77
248000
3000
위험이 상당할 것이라는 것에 일반적으로 동의 하는 듯 합니다.
04:35
Everybody각자 모두 who has looked보았다 at this and studied공부 한 it agrees동의하다.
78
251000
3000
누구라도 이것을 좀더 생각해보고 연구한 사람이라면 모두 동의할 것입니다.
04:38
Now, if we think about what just reducing감소시키는
79
254000
2000
자, 만일 인류 파멸 가능성의 확률을
04:40
the probability개연성 of human인간의 extinction소멸 by just one percentage백분율 point포인트 --
80
256000
5000
1%퍼센트 포인트 정도로 줄인다고 생각해 보면,
04:45
not very much -- so that's equivalent동등한 to 60 million백만 lives saved저장된,
81
261000
5000
많은 것도 아니지요 - 그런데 이로인행 약 6천만명의 생명을 구할 수 있는 것과 같습니다.
04:50
if we just count카운트 the currently현재 living생활 people, the current흐름 generation세대.
82
266000
4000
만일 현존하고 있는 사람들의 수를 세어보면, 현존 세대의 인구입니다.
04:54
Now one percent퍼센트 of six billion십억 people is equivalent동등한 to 60 million백만.
83
270000
4000
60억명의 1%는 6천만명과 같고,
04:58
So that's a large number번호.
84
274000
2000
그래서 아주 큰 숫자 입니다
05:00
If we were to take into account계정 future미래 generations세대
85
276000
3000
미래세대까지 고려해 본다면,
05:03
that will never come into existence존재 if we blow타격 ourselves우리 스스로 up,
86
279000
5000
이대로 우리자신을 날려버린다면, 인류는 절대로 생존하지 못할 것입니다
05:08
then the figure그림 becomes된다 astronomical천문학의.
87
284000
3000
그렇게 된다면, 천문학적인 수치가 될 것입니다.
05:11
If we could eventually결국 colonize식민지로 만들다 a chunk큰 덩어리 of the universe우주 --
88
287000
3000
만일 인류가, 결국 우주의 한 부분-
05:14
the Virgo처녀 자리 supercluster슈퍼 클러스터 --
89
290000
2000
처녀자리 초은하단 같은- 을 잠식하는데,
05:16
maybe it will take us 100 million백만 years연령 to get there,
90
292000
2000
아마도 10억만년은 걸리 겠지요
05:18
but if we go extinct꺼진 we never will.
91
294000
3000
그러나 인류가 소멸한다면 결코 할 수 없을 겁니다.
05:21
Then, even a one percentage백분율 point포인트 reduction절감
92
297000
3000
인류 소멸의 위험을 1% 포인트의
05:24
in the extinction소멸 risk위험 could be equivalent동등한
93
300000
4000
감소시키는 것은
05:28
to this astronomical천문학의 number번호 -- 10 to the power of 32.
94
304000
3000
10의 32제곱한 것과 같은 천문학적인 숫자와 같습니다.
05:31
So if you take into account계정 future미래 generations세대 as much as our own개인적인,
95
307000
4000
여러분이 우리의 후세대를 현재의 세대 만큼 고려한다면,
05:35
every...마다 other moral사기 imperative피할 수 없는 of philanthropic박애주의 cost비용 just becomes된다 irrelevant무의미한.
96
311000
5000
다른 모든 박애주의적 비용의 도덕적 의무는 무관한 것이 됩니다.
05:40
The only thing you should focus초점 on
97
316000
2000
여러분들이 관심을 두어야 할 하나는
05:42
would be to reduce줄이다 existential실존 적 risk위험
98
318000
2000
인류멸망의 위험을 줄이는 것일 겝니다.
05:44
because even the tiniest가장 작은 decrease감소 in existential실존 적 risk위험
99
320000
4000
왜냐하면 인류소멸의 위험을 아주 조금 줄이는 것은
05:48
would just overwhelm압도하다 any other benefit이익 you could hope기대 to achieve이루다.
100
324000
4000
여러분이 성취하고자하는 다른 이익을 훨씬 능가할 수도 있습니다.
05:52
And even if you just look at the current흐름 people,
101
328000
2000
단지 현세대 사람들을 생각해본다면,
05:54
and ignore무시하다 the potential가능성 that would be lost잃어버린 if we went갔다 extinct꺼진,
102
330000
5000
우리가 소멸할때 발생할 잠재성은 일단 무시하더라도,
05:59
it should still have a high높은 priority우선 순위.
103
335000
2000
여전히 높은 가치를 가지고 있습니다.
06:01
Now, let me spend보내 the rest휴식 of my time on the third제삼 big problem문제,
104
337000
5000
자, 이제 제게 주어진 나머지 시간을 세번째로 큰 문제를 설명하는데 쓰고자 합니다
06:06
because it's more subtle세밀한 and perhaps혹시 difficult어려운 to grasp파악.
105
342000
5000
왜냐하면, 이 문제는 미묘하고 감지하기 어렵기 때문이지요
06:12
Think about some time in your life --
106
348000
4000
여러분의 인생의 한 때를 생각해 보세요
06:16
some people might never have experienced경험있는 it -- but some people,
107
352000
3000
어떤사람은 절대 경험하지 못했을것이고 어떤 사람은 경험했을
06:19
there are just those moments순간들 that you have experienced경험있는
108
355000
3000
여러분이 경험했던
06:22
where life was fantastic환상적인.
109
358000
2000
환상적이었던 그런 인생의 순간들이 있습니다
06:24
It might have been at the moment순간 of some great, creative창조적 인 inspiration영감
110
360000
7000
이것은 아마도 여러분이 이 흐름 단계에 막 진입했을 때
06:31
you might have had when you just entered입력 된 this flow흐름 stage단계.
111
367000
2000
경험했던 대단하고 창의적인 영감일 수 있습니다
06:33
Or when you understood이해 된 something you had never done끝난 before.
112
369000
2000
혹은 여러분이 미지의 것을 이해했을때,
06:35
Or perhaps혹시 in the ecstasy엑스터시 of romantic낭만적 인 love.
113
371000
4000
혹은 로맨틱한 사랑의 황홀경에 빠졌을때,
06:39
Or an aesthetic심미적 인 experience경험 -- a sunset일몰 or a great piece조각 of art미술.
114
375000
5000
혹은 예술적인 경험들 - 석양 혹은 훌륭한 예술작품을 경험할 때,
06:44
Every마다 once일단 in a while we have these moments순간들,
115
380000
2000
우리는 종종 이런 순간들을 경험하지요
06:46
and we realize깨닫다 just how good life can be when it's at its best베스트.
116
382000
4000
우리는 인생이 얼마나 즐거운지 깨닫게 됩니다
06:50
And you wonder경이, why can't it be like that all the time?
117
386000
5000
그리고 왜 언제나 이렇게 좋을 수만은 없을까 생각하지요.
06:55
You just want to cling달라 붙는 onto~에 this.
118
391000
2000
여러분은 그저 이것을 꼭 붙잡길 원합니다
06:57
And then, of course코스, it drifts떠돌다 back into ordinary보통주 life and the memory기억 fades퇴색하다.
119
393000
4000
그리고 물론 이것은 일상적인 생활로 되돌아 가고, 기억은 흐릿해지지요
07:01
And it's really difficult어려운 to recall소환, in a normal표준 frame of mind마음,
120
397000
4000
그리고 일반적인 마음의 구조로는
07:05
just how good life can be at its best베스트.
121
401000
3000
인생이 얼이나 이 순간만큼 좋을수 있는가를 되돌이켜 생각해 보는 것은 아주 어렵습니다
07:08
Or how bad나쁜 it can be at its worst가장 나쁜.
122
404000
3000
혹은 인생이 얼마나 이 순간만큼 비참할 수 있는지를요
07:11
The third제삼 big problem문제 is that life isn't usually보통
123
407000
3000
세번째 큰 문제는 인생은 언제나
07:14
as wonderful훌륭한 as it could be.
124
410000
2000
이 보다 더 훌륭할 수 없다는 것입니다
07:16
I think that's a big, big problem문제.
125
412000
4000
저는 이것이 가장 가장 큰 문제라고 생각합니다
07:20
It's easy쉬운 to say what we don't want.
126
416000
2000
우리가 원하지 않는 것을 말하는 것은 쉬운 일입니다
07:23
Here are a number번호 of things that we don't want --
127
419000
3000
여기 우리가 원하지 않는 몇 가지 사례가 있습니다
07:26
illness병고, involuntary무의식의 death죽음, unnecessary불필요한 suffering괴로움, cruelty잔학,
128
422000
3000
질병, 갑작스런 사망, 불필요한 고통, 비참함
07:29
stunted기절 한 growth성장, memory기억 loss손실, ignorance무지, absence부재 of creativity독창성.
129
425000
5000
왜소 성장, 기억 상실, 무식, 창의성의 부재
07:35
Suppose가정 해보자. we fixed결정된 these things -- we did something about all of these.
130
431000
3000
우리가 이러한 것들을 고쳤다고 생각해 봅시다 - 어떤 조치를 취한 것이지요
07:38
We were very successful성공한.
131
434000
2000
아주 성공적이었습니다
07:40
We got rid구하다 of all of these things.
132
436000
2000
우리는 이 모든 문제들을 해결 했어요
07:42
We might end종료 up with something like this,
133
438000
3000
우리는 분명 이것과 비슷한 어떤 결론에 도달할 겁니다
07:45
which어느 is -- I mean, it's a heck지옥 of a lot better than that.
134
441000
4000
뭐냐하면, 이 것 보다는 훨씬 좋다는 것입니다.
07:49
But is this really the best베스트 we can dream of?
135
445000
5000
그렇지만 이것이 정말 좋은 것일 까요? 우리가 희망한다면?
07:54
Is this the best베스트 we can do?
136
450000
2000
우리가 할 수 있는 최선일까요?
07:56
Or is it possible가능한 to find something a little bit비트 more inspiring영감을주는 to work towards...쪽으로?
137
452000
6000
아니면, 아주 조금 진보할 수 있도록 영감을 주는 원동력을 찾을 수 있을 까요?
08:02
And if we think about this,
138
458000
2000
이것에 관하여 생각해 볼때,
08:04
I think it's very clear명확한 that there are ways
139
460000
4000
저는 분명 어떤 방법이 있다고 생각 합니다.
08:08
in which어느 we could change변화 things, not just by eliminating제거 negatives음화,
140
464000
3000
단순히 부정적인 것을 제거하여 변화를 꾀하는 것 뿐만이 아니라
08:11
but adding첨가 positives긍정적 인.
141
467000
2000
긍정적인 것을 더하는 것이지요
08:13
On my wish소원 list명부, at least가장 작은, would be:
142
469000
2000
최소한 제 위시 리스트에 열거 되어 있는 것들은
08:15
much longer더 길게, healthier더 건강한 lives, greater더 큰 subjective주걱 well-being안녕,
143
471000
5000
장수, 건강, 월등한 주관적 복지
08:20
enhanced향상된 cognitive인지 적 capacities수용력, more knowledge지식 and understanding이해,
144
476000
5000
확장된 인지 능력, 좀 더 풍부한 지식과 이해력
08:25
unlimited제한 없는 opportunity기회 for personal개인적인 growth성장
145
481000
2000
개인의 성장을 위한 무제한의 기회
08:27
beyond...을 넘어서 our current흐름 biological생물학의 limits제한, better relationships관계,
146
483000
4000
현재 우리의 생물학적 한계를 뛰어넘는, 좀 더 원만한 관계
08:31
an unbounded무한한 potential가능성 for spiritual영적인, moral사기
147
487000
2000
종교적, 도덕적
08:33
and intellectual지적인 development개발.
148
489000
2000
그리고 지식 개발을 위한 무한의 잠재력 입니다
08:35
If we want to achieve이루다 this, what, in the world세계, would have to change변화?
149
491000
8000
우리가 이런 것들을 성취 하려면, 세계는 변화 해야 할까요?
08:43
And this is the answer대답 -- we would have to change변화.
150
499000
5000
이게 바로 그 답인데 - 우리가 변화 해야 합니다
08:48
Not just the world세계 around us, but we, ourselves우리 스스로.
151
504000
3000
우리를 둘러싼 환경이 아니라, 우리 자신이 변화 해야 합니다
08:51
Not just the way we think about the world세계, but the way we are -- our very biology생물학.
152
507000
4000
우리의 세계를 인식하는 방식 뿐만만이 이나라, 생물학적으로 변화 해야 합니다
08:55
Human인간 nature자연 would have to change변화.
153
511000
2000
인류는 변화해야 합니다
08:57
Now, when we think about changing작고 보기 흉한 사람 human인간의 nature자연,
154
513000
2000
자, 우리가 인류의 변화를 생각할 때,
08:59
the first thing that comes온다 to mind마음
155
515000
2000
가장 먼저 생각나는 것은
09:01
are these human인간의 modification가감 technologies기술 --
156
517000
4000
이런 인류 변화 기술들 입니다
09:05
growth성장 hormone호르몬 therapy요법, cosmetic화장품 surgery외과,
157
521000
2000
성장 호르몬 치료법, 성형수술
09:07
stimulants각성제 like Ritalin리탈린, Adderall애드 더럴, anti-depressants항우울제,
158
523000
3000
리탈린, 아드레날리, 항우울제들과 같은 촉진제
09:10
anabolic단백 동화 된 steroids스테로이드, artificial인공의 hearts마음.
159
526000
2000
아나볼릭 스테로이드, 인공 심장도 있죠
09:12
It's a pretty예쁜 pathetic서투른 list명부.
160
528000
3000
이런 것들은 참으로 서글픈 것들입니다
09:15
They do great things for a few조금 people
161
531000
2000
이들 기술들은
09:17
who suffer참다 from some specific특유한 condition조건,
162
533000
2000
특정 질병을 앓고 있는 이들에게 훌륭한 기여를 하고 있습니다
09:19
but for most가장 people, they don't really transform변환
163
535000
5000
그렇지만 대다수의 사람들은
09:24
what it is to be human인간의.
164
540000
2000
인간의 원형을 바꾸는 것은 아니지요
09:26
And they also또한 all seem보다 a little bit비트 --
165
542000
2000
그리고 이러한 것들은 약간 -
09:28
most가장 people have this instinct본능 that, well, sure,
166
544000
3000
대다수의 사람들이 이런 본능을 가지고 있어요, 분명,..
09:31
there needs필요 to be anti-depressants항우울제 for the really depressed우울한 people.
167
547000
2000
아주 우울할 사람들에게는 항우울제가 필요하다구요...
09:33
But there's a kind종류 of queasiness욕지기
168
549000
2000
그렇지만 어떤 불쾌한 것들이 있지요
09:35
that these are unnatural부 자연스러운 in some way.
169
551000
3000
이러한 것들이 어떤 면에서는 부자연스럽다는 사실 입니다
09:38
It's worth가치 recalling회상 that there are a lot of other
170
554000
2000
우리가 사용하는 다른유형의
09:40
modification가감 technologies기술 and enhancement상승 technologies기술 that we use.
171
556000
3000
변형 기술과 기능 강화 기술이 있다는 사실을 상기할 필요가 있습니다.
09:43
We have skin피부 enhancements향상, clothing의류.
172
559000
4000
의류는 피부의 기능을 강화한 것입니다
09:47
As far멀리 as I can see, all of you are users사용자 of this
173
563000
4000
제 생각에는 여기 모이신 모든 분들이
09:51
enhancement상승 technology과학 기술 in this room, so that's a great thing.
174
567000
5000
옷이라는 기능강화 기술을 이용하고 계실 겁니다. 훌륭하죠.
09:56
Mood기분 modifiers수정 자 have been used from time immemorial태고의 --
175
572000
3000
우리는 기억할 수 없을 만큼의 기분 전환제를 이용하고 있읍니다
09:59
caffeine카페인, alcohol알코올, nicotine니코틴, immune면역 system체계 enhancement상승,
176
575000
5000
카페인, 알콜, 니코틴, 면역체계 강화제
10:04
vision시력 enhancement상승, anesthetics마취제 --
177
580000
2000
시력 보정제, 마취제
10:06
we take that very much for granted부여 된,
178
582000
2000
우리는 이것을 너무 당연히 생각하고 있지만,
10:08
but just think about how great progress진행 that is --
179
584000
4000
이것이 얼마나 대단한 진보 인지 생각해 보면,
10:12
like, having an operation조작 before anesthetics마취제 was not fun장난.
180
588000
4000
마취제가 없었던 때에 수술을 한다는건 그다지 좋은 일만은 아니었지요.
10:16
Contraceptives피임약, cosmetics화장품 and brain reprogramming재 프로그래밍 techniques기법 --
181
592000
6000
피임약, 화장품, 그리고 두뇌재활 기술
10:22
that sounds소리 ominous불길한,
182
598000
2000
불길하게 들리지요..
10:24
but the distinction구별 between중에서 what is a technology과학 기술 --
183
600000
4000
그렇지만, 기술간의 차이를 규명한다면,
10:28
a gadget간단한 기계 장치 would be the archetype원형 --
184
604000
2000
기술의 전형은 도구 입니다
10:30
and other ways of changing작고 보기 흉한 사람 and rewriting다시 쓰기 human인간의 nature자연 is quite아주 subtle세밀한.
185
606000
4000
인류를 변화시키고, 다시 쓰는 다른 유형의 방식들은 참으로 미묘한 것입니다
10:34
So if you think about what it means방법 to learn배우다 arithmetic산수 or to learn배우다 to read독서,
186
610000
4000
그래서 여러분이 수학연산을 배우고, 읽기를 배우는것이 무엇을 의미하는지 생각해 보면,
10:38
you're actually사실은, literally말 그대로 rewriting다시 쓰기 your own개인적인 brain.
187
614000
3000
실제로 여러분은 글자 그대로 자신의 두뇌를 다시 쓰고 있는 것입니다
10:41
You're changing작고 보기 흉한 사람 the microstructure미세 구조 of your brain as you go along...을 따라서.
188
617000
3000
여러분은 두뇌의 미세구조를 변화시키고 있는 것입니다.
10:45
So in a broad넓은 sense감각, we don't need to think about technology과학 기술
189
621000
3000
그래서 넓은 의미에서는 기술에 대한 생각을 할 필요가 있습니다
10:48
as only little gadgets가제트, like these things here,
190
624000
2000
여기 있는 것과 같은 간단한 도구들과 마찬가지로요
10:50
but even institutions기관 and techniques기법,
191
626000
4000
심지어 제도와 기술
10:54
psychological심리적 인 methods행동 양식 and so forth앞으로.
192
630000
2000
심리적 기법 등도 마찬가지 입니다
10:56
Forms양식 of organization조직 can have a profound깊은 impact충격 on human인간의 nature자연.
193
632000
5000
조직의 구조는 인류에 상당한 영향을 미칠 수 있습니다
11:01
Looking ahead앞으로, there is a range범위 of technologies기술
194
637000
2000
앞을 내다보면, 상당한 범위의 기술이 존재 합니다
11:03
that are almost거의 certain어떤 to be developed개발 된 sooner더 일찍 or later후에.
195
639000
3000
개발될 것이 확실한 것들 입니다
11:06
We are very ignorant무식한 about what the time scale규모 for these things are,
196
642000
4000
우리는 이것들이 언제 실현될 것인지에 상당히 무지 합니다
11:10
but they all are consistent일관된 with everything we know
197
646000
2000
그렇지만, 우리가 알고있는 모든것들
11:12
about physical물리적 인 laws법률, laws법률 of chemistry화학, etc기타.
198
648000
4000
즉, 물리 법칙, 화학법칙 등과 모두 일치 합니다.
11:16
It's possible가능한 to assume취하다,
199
652000
2000
이렇게 가정하는것이 가능하지요,
11:18
setting환경 aside곁에 a possibility가능성 of catastrophe대단원,
200
654000
3000
재앙의 가능성을 제외하고,
11:21
that sooner더 일찍 or later후에 we will develop나타나게 하다 all of these.
201
657000
3000
우리는 이런 모든 것들을 언젠가 개발할 것입니다.
11:24
And even just a couple of these would be enough충분히
202
660000
3000
이것들 중 한두개로 충분히
11:27
to transform변환 the human인간의 condition조건.
203
663000
2000
인류를 변화 시킬 수 있습니다
11:29
So let's look at some of the dimensions치수 of human인간의 nature자연
204
665000
5000
자, 개발의 여지가 있는 인류의 범위를
11:34
that seem보다 to leave휴가 room for improvement개량.
205
670000
3000
생각해 봅니다
11:37
Health건강 span스팬 is a big and urgent긴급한 thing,
206
673000
2000
건강의 범위는 크고 시급한 것입니다
11:39
because if you're not alive살아 있는,
207
675000
2000
여러분이 생존해 있지 않다면,
11:41
then all the other things will be to little avail이익.
208
677000
3000
다른 모든 것들이 가능하지 않기 때문이지요
11:44
Intellectual지적인 capacity생산 능력 -- let's take that box상자,
209
680000
2000
지적 능력 범위 - 이 표를 보면,
11:46
which어느 falls폭포 into a lot of different다른 sub-categories하위 카테고리:
210
682000
5000
무수히 많은 하위 범주로 구분이 되고 여기에는
11:51
memory기억, concentration집중, mental지적인 energy에너지, intelligence지성, empathy감정 이입.
211
687000
3000
기억력, 집중, 심리적 힘, 지적 능력, 동정심 등이 있습니다
11:54
These are really great things.
212
690000
2000
이것들은 대단히 훌륭한 것들 입니다.
11:56
Part부품 of the reason이유 why we value these traits형질
213
692000
2000
이러한 특성에 가치를 두는 이유 중 하나는
11:58
is that they make us better at competing경쟁하는 with other people --
214
694000
4000
이러한 특성들이 우리가 다른사람들과 경쟁할 때 힘을 주기 때문이죠
12:02
they're positional위치적인 goods상품.
215
698000
2000
이들은 위치와 관련된 재화들 입니다
12:04
But part부품 of the reason이유 --
216
700000
2000
그렇지만 다른 이유는
12:06
and that's the reason이유 why we have ethical윤리적 인 ground바닥 for pursuing추구하다 these --
217
702000
4000
우리가 이것들을 추구하는데 도덕적 기반이 있어야 하는 이유인데,
12:10
is that they're also또한 intrinsically본질적으로 valuable가치 있는.
218
706000
3000
이것들 또한 본질적으로 가치가 있기 때문이지요.
12:13
It's just better to be able할 수 있는 to understand알다 more of the world세계 around you
219
709000
4000
자신을 둘러싼 세상과
12:17
and the people that you are communicating의사 소통 with,
220
713000
2000
소통하는 사람들
12:19
and to remember생각해 내다 what you have learned배운.
221
715000
4000
그리고 기억을 좀더 잘 이해할 수 있는 것은 좋은 것입니다
12:23
Modalities양식 and special특별한 faculties교수진.
222
719000
2000
인체의 감각적 양상과 특별한 능력
12:25
Now, the human인간의 mind마음 is not a single단일 unitary일원 information정보 processor프로세서,
223
721000
5000
자, 인간의 마음은 단일의 유일한 정보 전달장치가 아니지만,
12:30
but it has a lot of different다른, special특별한, evolved진화 된 modules모듈들
224
726000
4000
상당히 많은, 특별하고 다르게 진화된 모듈이며,
12:34
that do specific특유한 things for us.
225
730000
2000
특정 역할을 합니다.
12:36
If you think about what we normally정상적으로 take as giving주는 life a lot of its meaning의미 --
226
732000
4000
그리고 우리가 알반적으로 생명에 큰 의미를 두고 있는것을 생각해보면,
12:40
music음악, humor기분, eroticism에로티시즘, spirituality영성, aesthetics미학,
227
736000
4000
음악, 유머, 에로티시즘, 심령, 심미
12:44
nurturing육성 and caring돌보는, gossip잡담, chatting채팅 with people --
228
740000
5000
보육, 가십, 다른사람과의 수다
12:49
all of these, very likely아마도, are enabled사용 가능 by a special특별한 circuitry회로
229
745000
4000
이런 모든 것들은 특별한 전기 회로망으로 강화된 것으로,
12:53
that we humans인간 have,
230
749000
2000
우리 인간은 가지고 있지만,
12:55
but that you could have another다른 intelligent지적인 life form형태 that lacks부족하다 these.
231
751000
3000
이것이 부족한 다른 형태의 지식 문명을 가질 수 있습니다
12:58
We're just lucky운이 좋은 that we have the requisite필요한 neural신경 machinery기계
232
754000
3000
음악을 전달하고, 그 진가를 알아보고, 즐길 수 있도록
13:01
to process방법 music음악 and to appreciate고맙다 it and enjoy즐겨 it.
233
757000
4000
필요한 두뇌 기능을 가지고 있다는 것은 참으로 행운 입니다
13:05
All of these would enable가능하게하다, in principle원리 -- be amenable받을 수 있는 to enhancement상승.
234
761000
3000
이러한 모든 것을은 기본적으로 기능강화에 우호적인 것들 일 수 있습니다
13:08
Some people have a better musical뮤지컬 ability능력
235
764000
2000
어떤 사람들은 음악적 재능이 뛰어나고,
13:10
and ability능력 to appreciate고맙다 music음악 than others다른 사람 have.
236
766000
2000
다른 사람들에 비하여 음악의 가치를 판단하는 능력이 뛰어 납니다
13:12
It's also또한 interesting재미있는 to think about what other things are --
237
768000
3000
다른 것이 무엇인지에 관하여 생각하는것 또한 흥미 있는 것으로,
13:15
so if these all enabled사용 가능 great values,
238
771000
3000
이 모든 것들이 훌륭한 가치를 증대 한다면,
13:19
why should we think that evolution진화 has happened일어난 to provide~을 제공하다 us
239
775000
3000
진화를 통하여 우리가 얻은 것은
13:22
with all the modalities양식 we would need to engage끌다
240
778000
3000
우리가 반드시 따라야만 하는 양식과 더불어,
13:25
with other values that there might be?
241
781000
2000
그 안에 담긴 다른 가치들에 대하여 생각해야 할까요?
13:27
Imagine상상해 보라. a species
242
783000
2000
한 종을 생각해 봅시다.
13:29
that just didn't have this neural신경 machinery기계 for processing가공 music음악.
243
785000
4000
음악을 전달하는 신경 기구가 없는 한 생명체요
13:33
And they would just stare응시 at us with bafflement당혹
244
789000
3000
그리고 이들이 화가 나서 우리를 노려보고 있습니다
13:36
when we spend보내 time listening청취 to a beautiful아름다운 performance공연,
245
792000
4000
우리가 아름다운 연주를 감상하는데 시간을 보내고 있을 때 말입니다
13:40
like the one we just heard들었던 -- because of people making만들기 stupid바보 movements동정,
246
796000
2000
우리가 방금 들었던 것과 같은 것을요- 사람들은 바보같은 행동을 하기 때문이죠.
13:42
and they would be really irritated자극받은 and wouldn't~ 않을거야. see what we were up to.
247
798000
3000
그리고 이들은 정말로 신경이 거슬려 있고, 우리가 무엇을 하고 있는지 알지 못하죠
13:45
But maybe they have another다른 faculty학부, something else그밖에
248
801000
3000
그러나 어쩌면 이들에게는 뭔가 다른 능력이 있을 수 있습니다
13:48
that would seem보다 equally같이 irrational비이성적 인 to us,
249
804000
3000
우리에게는 비정상적일 수 있지요
13:51
but they actually사실은 tap꼭지 into some great possible가능한 value there.
250
807000
3000
그렇지만 실제로 어떤 굉장한 가치를 부여하겠지요
13:54
But we are just literally말 그대로 deaf귀가 먹은 to that kind종류 of value.
251
810000
4000
우리는 그러나 이들 가치에 관하여 무지 합니다
13:58
So we could think of adding첨가 on different다른,
252
814000
2000
따라서 좀 색다른
14:00
new새로운 sensory감각 capacities수용력 and mental지적인 faculties교수진.
253
816000
4000
새로운 지각 능력과 지적 능력을 추가하는것을 생각해 볼 수 있습니다
14:04
Bodily육체적으로 functionality기능성 and morphology형태 and affective정서적 인 self-control자제.
254
820000
5000
신체적 기능과 형태론, 그리고 정서적인 자기 관리가 있습니다
14:09
Greater그레이터 subjective주걱 well-being안녕.
255
825000
2000
주관적인 행복
14:11
Be able할 수 있는 to switch스위치 between중에서 relaxation기분 전환 and activity활동 --
256
827000
3000
휴식과 활동 사이를 이동할 수 있는 능력
14:14
being존재 able할 수 있는 to go slow느린 when you need to do that, and to speed속도 up.
257
830000
4000
원하는 때에 속도를 조절할 수 있는 능력
14:18
Able할 수 있는 to switch스위치 back and forth앞으로 more easily용이하게
258
834000
2000
앞뒤로의 이동을 좀더 쉽게 할 수 있는 능력,
14:20
would be a neat산뜻한 thing to be able할 수 있는 to do --
259
836000
2000
이렇게 할 수 있게 된다면, 굉장한 능력이 될 겁니다
14:22
easier더 쉬운 to achieve이루다 the flow흐름 state상태,
260
838000
2000
유동상태를 달성하기 쉽죠
14:24
when you're totally전적으로 immersed잠긴 in something you are doing.
261
840000
4000
당신이 하고 있는 어떤 것에 완전히 몰두 하였을때,
14:28
Conscientiousness양심 and sympathy동정.
262
844000
2000
양심과 동정
14:30
The ability능력 to -- it's another다른 interesting재미있는 application신청
263
846000
3000
이것도 재미있는 적용사례인데요,
14:33
that would have large social사회적인 ramification분파, perhaps혹시.
264
849000
3000
이것도 거대한 사회적 결과를 초래할 수 있습니다
14:36
If you could actually사실은 choose고르다 to preserve영역 your romantic낭만적 인 attachments첨부 파일 to one person사람,
265
852000
6000
만일 여러분이 어떤 사람과의 로맨틱한 감정을 간직하길 원한다면,
14:42
undiminished약화되지 않은 through...을 통하여 time,
266
858000
2000
시간에 의하여 희미해 지지 않는 그런 로맨틱한 감정 말이지요
14:44
so that wouldn't~ 않을거야. have to -- love would never have to fade바래다 if you didn't want it to.
267
860000
3000
여러분이 원하지 않는 한 사랑은 절대로 희미해지지 않을 것입니다
14:49
That's probably아마 not all that difficult어려운.
268
865000
3000
이런건 그다지 어렵지 않습니다
14:52
It might just be a simple단순한 hormone호르몬 or something that could do this.
269
868000
3000
단순한 호르몬 같은 것이 이런 역할을 할겁니다
14:57
It's been done끝난 in voles의례자.
270
873000
2000
이것은 야생 들쥐를 대상으로 실험되어 왔습니다.
15:01
You can engineer기사 a prairie대초원 vole들쥐 to become지다 monogamous일부일처 제의
271
877000
3000
원래 다웅혼주인 들쥐를 ,
15:04
when it's naturally당연히 polygamous일부 다처제.
272
880000
2000
일자일웅으로 만들수 있는데
15:06
It's just a single단일 gene유전자.
273
882000
2000
단지 하나의 유전자를 수정해서 할수 있습니다
15:08
Might be more complicated복잡한 in humans인간, but perhaps혹시 not that much.
274
884000
2000
인간의 경우 대단히 복잡한 문제이겠지요, 그러나 그다지 복잡하지 않을 수도 있습니다.
15:10
This is the last picture그림 that I want to --
275
886000
2000
이 마지막 그림은 제가-
15:13
now we've우리는 got to use the laser원자 램프 pointer바늘.
276
889000
2000
자 이제 레이저 포인터를 사용하는 군요...
15:16
A possible가능한 mode방법 of being존재 here would be a way of life --
277
892000
3000
가능한 존재 방식은, 생활방식,
15:19
a way of being존재, experiencing경험하는, thinking생각, seeing,
278
895000
4000
존재, 경험, 사고, 관찰
15:23
interacting상호 작용하는 with the world세계.
279
899000
2000
세상과의 소통입니다
15:25
Down here in this little corner모서리, here, we have the little sub-space하위 공간
280
901000
5000
이 아래쪽 이 작은 구석에 우리는 아주 작은 하부 공간을 가지고 있습니다
15:30
of this larger더 큰 space공간 that is accessible얻기 쉬운 to human인간의 beings존재들 --
281
906000
4000
생물학적 능력범위 내의 인간이 접근가능한
15:34
beings존재들 with our biological생물학의 capacities수용력.
282
910000
3000
이렇게 거대한 공간 중에서 말이지요.
15:37
It's a part부품 of the space공간 that's accessible얻기 쉬운 to animals동물;
283
913000
3000
이부분은 동물들도 접근 가능한 공간 인데,
15:40
since이후 we are animals동물, we are a subset부분 집합 of that.
284
916000
3000
인류도 동물에 속하기 때문이죠
15:43
And then you can imagine상상하다 some enhancements향상 of human인간의 capacities수용력.
285
919000
4000
그리고 인류의 능력을 확장하는 것을 생각해 볼수 있습니다
15:47
There would be different다른 modes모드들 of being존재 you could experience경험
286
923000
3000
여러분이 경험할 수 있는 다른 형태의 존재가 있습니다
15:50
if you were able할 수 있는 to stay머무르다 alive살아 있는 for, say, 200 years연령.
287
926000
3000
만일 200년후 까지 생존해 있을 수 있다면요
15:53
Then you could live살고 있다 sorts종류 of lives and accumulate모으다 wisdoms지혜
288
929000
4000
다양한 종류의 삶을 계속 영위할 수 있고, 지혜를 축적할 수 있습니다
15:57
that are just not possible가능한 for humans인간 as we currently현재 are.
289
933000
3000
이런 것을은 현재 인류에게는 가능한 것은 아니지요
16:00
So then, you move움직임 off to this larger더 큰 sphere구체 of "human인간의 +,"
290
936000
4000
그리고, 여러분이 이러한 종류의 대규모의 인류 영역으로 이동할 수 있고,
16:04
and you could continue잇다 that process방법 and eventually결국
291
940000
3000
이러한 과정을 지속할 수 있으며,
16:07
explore탐험하다 a lot of this larger더 큰 space공간 of possible가능한 modes모드들 of being존재.
292
943000
4000
마침내, 대규모의 가능한 형태를 경험할 수 있습니다
16:11
Now, why is that a good thing to do?
293
947000
2000
자, 왜 이것이 이익이 되는 것일 까요?
16:13
Well, we know already이미 that in this little human인간의 circle there,
294
949000
4000
우리는 이미 이 작은 인류 순환에 대하여 알고 있고,
16:17
there are these enormously엄청나게 wonderful훌륭한 and worthwhile할 보람 있는 modes모드들 of being존재 --
295
953000
4000
이이 이렇게 어마어마하게 아름답고 가치있는 형태의 실존이 있으며,
16:21
human인간의 life at its best베스트 is wonderful훌륭한.
296
957000
3000
인류는 이때 가장 아름다울 수 있기 때문이죠
16:24
We have no reason이유 to believe that within이내에 this much, much larger더 큰 space공간
297
960000
5000
우리는 휠씬 방대한 규모의 영역내에
16:29
there would not also또한 be extremely매우 worthwhile할 보람 있는 modes모드들 of being존재,
298
965000
4000
특별히 가치있는 형태의 존재가 있을 수 없다는 것을 믿을 이유는 없습니다
16:33
perhaps혹시 ones그들 that would be way beyond...을 넘어서 our wildest사나운 ability능력
299
969000
6000
아마도 이것을 우리의 능력 밖의 것이며,
16:39
even to imagine상상하다 or dream about.
300
975000
2000
상상하기 조차 힘든 것일 지도 모릅니다
16:41
And so, to fix고치다 this third제삼 problem문제,
301
977000
2000
또한 세번째 문제를 해결하기 위하여
16:43
I think we need -- slowly천천히, carefully면밀히, with ethical윤리적 인 wisdom지혜 and constraint강제 --
302
979000
6000
우리는 천천히, 조심스럽게, 그리고 도적적 지혜와 규제로
16:49
develop나타나게 하다 the means방법 that enable가능하게하다 us to go out in this larger더 큰 space공간 and explore탐험하다 it
303
985000
5000
이 대규모 공간으로 전진하고 탐험할 수 있도록 해주는 방법을 개발해야 할 필요가 있다고 생각합니다
16:54
and find the great values that might hide숨는 장소 there.
304
990000
2000
그리고 이곳에 숨겨져 있는 대단한 가치를 찾아야 합니다.
16:56
Thanks감사.
305
992000
2000
감사합니다.
Translated by Sun A Cho
Reviewed by InHyuk Song

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com