ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

로드니 부룩스 교수가 들려주는 현재와 미래의 로봇 이야기

Filmed:
689,918 views

2003년 미래를 예측하는 강연에서, 로봇 전문가 로드니 부룩스 교수는 로봇이 우리의 삶에 어떠한 의미를 부여하고 어떠한 영향을 미치게 될지에 관한 이야기를 들려줍니다. 가사 도우미 로봇, 그리고 그 이상의 첨단 로봇에 관한 흥미로운 이야기들은, 장난감 로봇에 대한 이야기로부터 시작됩니다.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about today오늘 is how I see robots로봇 invading침입하는 our lives
0
0
5000
오늘 저는 여러분께 로봇이 얼마나 다양한 모습으로, 다양한 시간대에
00:23
at multiple배수 levels수준, over multiple배수 timescales시간 계.
1
5000
3000
우리의 삶에 밀어닥칠 것인지에 대한 제 견해를 말씀드리고자 합니다.
00:26
And when I look out in the future미래, I can't imagine상상하다 a world세계, 500 years연령 from now,
2
8000
4000
500년 뒤의 미래를 상상해보면
00:30
where we don't have robots로봇 everywhere어디에나.
3
12000
2000
로봇이 사용되지 않는 곳이 있는 세상을 상상 할 수 없습니다.
00:32
Assuming가정 -- despite무례 all the dire무서운 predictions예측 from many많은 people about our future미래 --
4
14000
5000
우리 미래에 대한 많은 비관적인 예측들을 배제하고, 여전히 인간이 존재한다면,
00:37
assuming가정 we're still around, I can't imagine상상하다 the world세계 not being존재 populated인구가 많은 with robots로봇.
5
19000
4000
로봇이 대중화 되지 않은 세상은 상상 할 수 없습니다.
00:41
And then the question문제 is, well, if they're going to be here in 500 years연령,
6
23000
3000
만약 그렇다면, 로봇이 500년 안에 그렇게 대중화가 될 수 있다고 한다면,
00:44
are they going to be everywhere어디에나 sooner더 일찍 than that?
7
26000
2000
500년보다 더 빨리 이뤄질 수는 없을까요?
00:46
Are they going to be around in 50 years연령?
8
28000
2000
앞으로 50년 안에 로봇을 우리 주변 곳곳에서 볼 수는 없을까요?
00:48
Yeah, I think that's pretty예쁜 likely아마도 -- there's going to be lots of robots로봇 everywhere어디에나.
9
30000
3000
네. 저는 멀지않은 미래에 로봇이 우리 삶 곳곳에 쓰여질 것이며
00:51
And in fact I think that's going to be a lot sooner더 일찍 than that.
10
33000
3000
그 시기가 우리의 예측보다 훨씬 빨리 이뤄질 것이라고 생각합니다.
00:54
I think we're sort종류 of on the cusp첨점 of robots로봇 becoming어울리는 common공유지,
11
36000
4000
저는 지금 우리가 로봇이 점차 일반화되기 시작하는 시점에 있다고 생각합니다.
00:58
and I think we're sort종류 of around 1978 or 1980 in personal개인적인 computer컴퓨터 years연령,
12
40000
6000
개인용 컴퓨터 시대와 비교했을 때, 처음으로 몇몇 로봇이 나타나기 시작한 지금은
01:04
where the first few조금 robots로봇 are starting출발 to appear나타나다.
13
46000
3000
1978년 혹은 1980년과 비슷한 상황인 것이죠.
01:07
Computers컴퓨터 sort종류 of came왔다 around through...을 통하여 games계략 and toys장난감.
14
49000
4000
컴퓨터는 처음 게임이나 장난감 형태로 세상에 나타나기 시작했습니다.
01:11
And you know, the first computer컴퓨터 most가장 people had in the house
15
53000
3000
여러분들도 아시다시피, 대부분의 사람들이 처음 집에 가지고 있었던 컴퓨터는
01:14
may할 수있다 have been a computer컴퓨터 to play놀이 Pong탁구,
16
56000
2000
작은 마이크로프로세서 내장한
01:16
a little microprocessor마이크로 프로세서 embedded내장 된,
17
58000
2000
"퐁(Pong, 초창기 아케이드 게임)" 게임기였습니다.
01:18
and then other games계략 that came왔다 after that.
18
60000
3000
그리고, 그 이후로 다른 게임들이 나타나기 시작했죠.
01:21
And we're starting출발 to see that same같은 sort종류 of thing with robots로봇:
19
63000
3000
지금 화면을 보시면 처음 컴퓨터와 똑같은 형태의 로봇들을 보실 수 있습니다.
01:24
LEGO레고 Mindstorms마인드 스톰, FurbiesFurbies -- who here -- did anyone누군가 here have a FurbyFurby?
20
66000
4000
레고의 마인드 스톰, 퍼비.. 여기 퍼비를 가져보신 분 계신가요?
01:28
Yeah, there's 38 million백만 of them sold팔린 worldwide세계적인.
21
70000
3000
네, 전세계적으로 3천8백만대가 팔렸었죠.
01:31
They are pretty예쁜 common공유지. And they're a little tiny작은 robot기계 인간,
22
73000
2000
퍼비는 몇개의 센서를 가지고, 간단한 동작을 할 수 있는
01:33
a simple단순한 robot기계 인간 with some sensors센서,
23
75000
2000
아주 작고 단순한 로봇으로
01:35
a little bit비트 of processing가공 actuation작동.
24
77000
2000
거의 대중적으로 인기를 끌었었죠.
01:37
On the right there is another다른 robot기계 인간 doll인형, who you could get a couple of years연령 ago...전에.
25
79000
3000
그 오른쪽에는 몇년전에 구입할 수 있었던 다른 로봇 인형도 보실 수 있습니다.
01:40
And just as in the early이른 days,
26
82000
2000
그리고, 컴퓨터를 통한 많은 아마추어 활동이 있었던
01:42
when there was a lot of sort종류 of amateur아마추어 interaction상호 작용 over computers컴퓨터들,
27
84000
5000
초창기 개인용 컴퓨터 시대 때와 같이, 로봇과 관련해서도
01:47
you can now get various여러 hacking해킹 kits키트, how-to-hack해킹 방법 books서적.
28
89000
4000
어떻게 해킹을 할 수 있는지를 설명하는 책들과 도구들을 구할 수 있습니다.
01:51
And on the left there is a platform플랫폼 from Evolution진화 Robotics로봇 공학,
29
93000
4000
그리고, 화면 왼쪽에 보이는 것은 Evolution Robotics에서 만든 플랫폼으로
01:55
where you put a PCPC on, and you program프로그램 this thing with a GUIGUI
30
97000
3000
PC를 장착하고, 그래픽 사용자 인터페이스를 통해
01:58
to wander방황하다 around your house and do various여러 stuff물건.
31
100000
3000
집안을 돌아다니거나, 여러가지 일들을 하도록 프로그램 할 수 있습니다.
02:01
And then there's a higher더 높은 price가격 point포인트 sort종류 of robot기계 인간 toys장난감 --
32
103000
3000
그리고, 여기에 고가의 장난감 로봇들이 있는데
02:04
the Sony소니 Aibo아이보. And on the right there, is one that the NECNEC developed개발 된,
33
106000
4000
소니의 "아이보"와 오른쪽에는 NEC에서 개발한 것으로
02:08
the PaPeRoPaPeRo, which어느 I don't think they're going to release해제.
34
110000
3000
"파페로"라는 로봇인데, 시장에 출시될 것 같지는 않습니다.
02:11
But nevertheless그렇지만, those sorts종류 of things are out there.
35
113000
3000
그렇지만, 이러한 장난감 로봇들이 현재 판매, 개발되고 있는 것은 분명합니다.
02:14
And we've우리는 seen, over the last two or three years연령, lawn-mowing잔디 깎기 robots로봇,
36
116000
4000
그리고, 우리는 2~3년 전부터 잔디깍이 로봇들을 보아왔습니다.
02:18
Husqvarna후스크 바르나 on the bottom바닥, Friendly친한 Robotics로봇 공학 on top상단 there, an Israeli이스라엘 인 company회사.
37
120000
6000
아래의 것이 "허스크바나"이고, 위에 것이 이스라엘 회사 Friendly Robotics입니다.
02:24
And then in the last 12 months개월 or so
38
126000
2000
그리고, 대략 1년전부터는,
02:26
we've우리는 started시작한 to see a bunch다발 of home-cleaning가정 청소 robots로봇 appear나타나다.
39
128000
4000
많은 종류의 청소 로봇들이 출시되고 있습니다.
02:30
The top상단 left one is a very nice좋은 home-cleaning가정 청소 robot기계 인간
40
132000
3000
먼저 좌측 상단에는 영국의 다이슨이란 회사에서 만든
02:33
from a company회사 called전화 한 Dyson다이슨, in the U.K. Except it was so expensive비싼 --
41
135000
4000
매우 좋은 성능의 청소 로봇이 있습니다.
02:37
3,500 dollars불화 -- they didn't release해제 it.
42
139000
2000
하지만, 3천5백달러나 하는 비싼 가격으로 출시되지 않았죠.
02:39
But at the bottom바닥 left, you see Electrolux일렉트로룩스, which어느 is on sale판매.
43
141000
3000
하지만, 좌측 하단의 일렉트로룩스 제품은 현재 판매되고 있습니다.
02:42
Another다른 one from Karcher케처.
44
144000
2000
그리고, 카처에서 만든 제품도 있고
02:44
At the bottom바닥 right is one that I built세워짐 in my lab
45
146000
2000
우측 하단의 것은 약 10년전 쯤에 저희 연구실에서 개발한 것입니다.
02:46
about 10 years연령 ago...전에, and we finally마침내 turned돌린 that into a product생성물.
46
148000
3000
그리고, 현재는 제품으로 상용화가 되었죠.
02:49
And let me just show보여 주다 you that.
47
151000
2000
그럼 직접 그 제품을 시연하도록 하겠습니다.
02:51
We're going to give this away I think, Chris크리스 said, after the talk.
48
153000
4000
먼저 크리스가 말한 것처럼 이 강연 이후에 더 보실 수 있도록 하겠습니다.
02:55
This is a robot기계 인간 that you can go out and buy사다, and that will clean깨끗한 up your floor바닥.
49
157000
6000
이 청소 로봇은 현재 시중에서 사실 수 있는 것으로, 바닥 청소를 해줍니다.
03:05
And it starts시작하다 off sort종류 of just going around in ever-increasing계속 증가하는 circles동그라미.
50
167000
5000
처음 시작하면 이 로봇은 점점 늘어나는 원형 형태로 움직이다가
03:10
If it hits히트 곡 something -- you people see that?
51
172000
4000
지금 보시는 것과 같이 어느 곳에 부딪히면
03:14
Now it's doing wall-following벽을 뒤쫓는, it's following수행원 around my feet피트
52
176000
3000
지금 제 발 주위로 움직이는 것처럼 벽을 따라 움직이면서
03:17
to clean깨끗한 up around me. Let's see, let's --
53
179000
4000
그 주변을 청소합니다.
03:21
oh, who stole스톨 my Rice Krispies크리스피? They stole스톨 my Rice Krispies크리스피!
54
183000
5000
어, 누가 내 과자를 훔쳐갔죠? 로봇들이 내 쌀과자를 훔쳐갔다 보군요!
03:26
(Laughter웃음)
55
188000
6000
(웃음)
03:32
Don't worry걱정, relax편하게 하다, no, relax편하게 하다, it's a robot기계 인간, it's smart똑똑한!
56
194000
3000
그냥 두세요. 괜찮아요. 그거 로봇이에요. 똑똑하다고요.
03:35
(Laughter웃음)
57
197000
3000
(웃음)
03:38
See, the three-year-old3 살짜리 kids아이들, they don't worry걱정 about it.
58
200000
4000
여기 세살짜리 꼬맹이들도 전혀 걱정안하고 있잖아요.
03:42
It's grown-ups어른들 that get really upset당황.
59
204000
2000
어른들이나 이런거에 신경을 곤두세우지요.
03:44
(Laughter웃음)
60
206000
1000
(웃음)
03:45
We'll just put some crap쓰레기 here.
61
207000
2000
자 여기에 과자를 한번 뿌려볼까요?
03:47
(Laughter웃음)
62
209000
4000
(웃음)
03:51
Okay.
63
213000
2000
자 됐습니다.
03:53
(Laughter웃음)
64
215000
4000
(웃음)
03:57
I don't know if you see -- so, I put a bunch다발 of Rice Krispies크리스피 there,
65
219000
3000
보이실런지 모르겠지만, 이곳에 과자를 좀 뿌렸고,
04:00
I put some pennies동전, let's just shoot사격 it at that, see if it cleans청소하다 up.
66
222000
7000
동전도 좀 놓았습니다. 그럼 로봇을 동작시켜 어떻게 청소를 하는지 보도록하죠.
04:10
Yeah, OK. So --
67
232000
2000
네, 좋습니다.
04:12
we'll leave휴가 that for later후에.
68
234000
4000
나중에 더 보여드리도록 하지요.
04:16
(Applause박수 갈채)
69
238000
5000
(박수)
04:22
Part부품 of the trick장난 was building건물 a better cleaning청소 mechanism기구, actually사실은;
70
244000
4000
까다로웠던 것 중 하나는 좀 더 효과적인 청소용 기구물을 제작하는 것이었습니다.
04:26
the intelligence지성 on board was fairly simple단순한.
71
248000
4000
사용된 인공지능은 의외로 간단했죠.
04:30
And that's true참된 with a lot of robots로봇.
72
252000
2000
이것은 다른 많은 로봇 개발에도 적용되는 사실입니다.
04:32
We've우리는 all, I think, become지다, sort종류 of computational전산의 chauvinists광신 주의자,
73
254000
4000
제 생각에는 우리가 언젠가부터 컴퓨터의 맹신자가 된 것 같은데
04:36
and think that computation계산 is everything,
74
258000
2000
그래서, 컴퓨터면 모든 것이 다 된다고 생각하는 경향이 있죠.
04:38
but the mechanics역학 still matter문제.
75
260000
2000
그러나, 사실은 기구물들이 여전히 핵심 기술입니다.
04:40
Here's여기에 another다른 robot기계 인간, the PackBotPackBot,
76
262000
3000
여기에 우리가 몇년에 걸쳐 개발하고 있는
04:43
that we've우리는 been building건물 for a bunch다발 of years연령.
77
265000
2000
"팩봇"이라는 또 하나의 로봇이 있습니다.
04:45
It's a military surveillance감시 robot기계 인간, to go in ahead앞으로 of troops군대 --
78
267000
6000
이것은 군사용 감시 로봇으로써, 예를들어
04:51
looking at caves동굴, for instance.
79
273000
3000
군인들보다 먼저 동굴에 들어가 위험 여부를 확인하는 등의 임무를 수행합니다.
04:54
But we had to make it fairly robust건장한,
80
276000
2000
우리는 이 로봇을 이제까지 개발했던 어떤 로봇보다
04:56
much more robust건장한 than the robots로봇 we build짓다 in our labs실험실.
81
278000
7000
더 강하게 만들어야 했습니다.
05:03
(Laughter웃음)
82
285000
3000
(웃음)
05:12
On board that robot기계 인간 is a PCPC running달리는 Linux리눅스.
83
294000
4000
이 로봇 자체는 리눅스로 운영되는 컴퓨터이고
05:16
It can withstand버티다 a 400G shock충격. The robot기계 인간 has local노동 조합 지부 intelligence지성:
84
298000
6000
400G 충격을 견딜 수 있도록 만들어졌습니다.
05:22
it can flip튀기다 itself그 자체 over, can get itself그 자체 into communication통신 range범위,
85
304000
6000
그리고, 이 로봇은 인공지능을 가지고 있어서 혼자 뒤집을 수도 있고,
05:28
can go upstairs높은 곳에 있는 by itself그 자체, et cetera세 테라.
86
310000
3000
스스로 통신지역으로 이동하거나, 층계를 올라가는 등의 일을 할 수 있습니다
05:38
Okay, so it's doing local노동 조합 지부 navigation항해 there.
87
320000
4000
네, 여기서는 로봇이 로컬 네비게이션을 수행하고 있는 것을 보여주고 있는데요.
05:42
A soldier병사 gives주는 it a command명령 to go upstairs높은 곳에 있는, and it does.
88
324000
6000
군인이 층계를 올라가라고 명령을 하면, 그대로 수행을 합니다.
05:49
That was not a controlled통제 된 descent하강.
89
331000
3000
보시는것처럼 가끔 말썽을 부리기도 하지만 말이지요.
05:52
(Laughter웃음)
90
334000
2000
(웃음)
05:54
Now it's going to head머리 off.
91
336000
2000
자 이제 스스로 다시 움직이는군요.
05:56
And the big breakthrough돌파구 for these robots로봇, really, was September구월 11th.
92
338000
5000
이 로봇이 수행한 가장 큰 작전 중 하나는 9월11일 그날에 있었습니다.
06:01
We had the robots로봇 down at the World세계 Trade무역 Center센터 late늦은 that evening저녁.
93
343000
4000
그날 저녁 우리는 국제 무역 센터로 이 로봇을 가지고 갔습니다.
06:06
Couldn't할 수 없었다. do a lot in the main본관 rubble파편 pile말뚝,
94
348000
2000
그 거대한 잔해속에서 할 수 있는 것도 별로 없었고
06:08
things were just too -- there was nothing left to do.
95
350000
3000
정말 아무것도 남아 있는 것도 없었지만
06:11
But we did go into all the surrounding주변의 buildings건물 that had been evacuated대피 한,
96
353000
5000
우리는 이미 소개된 그 주변의 모든 건물들에 들어가
06:16
and searched검색된 for possible가능한 survivors생존자 in the buildings건물
97
358000
3000
있을지도 모를 생존자 수색을 했습니다.
06:19
that were too dangerous위험한 to go into.
98
361000
2000
사람이 들어가기에는 너무 위험한 그곳에 이 로봇을 이용해서 말이죠.
06:21
Let's run운영 this video비디오.
99
363000
2000
이 영상 하나를 보도록 하겠습니다.
06:23
Reporter보고자: ...battlefield싸움터 companions동행자 are helping거들기 to reduce줄이다 the combat전투 risks위험.
100
365000
3000
리포터: ... 전쟁의 위험을 낮추는데 도움이 되고 있습니다.
06:26
Nick새긴 ​​금 Robertson로버트슨 has that story이야기.
101
368000
3000
닉 로버트슨 기자입니다.
06:31
Rodney로드니 BrooksBrooks: Can we have another다른 one of these?
102
373000
2000
로드니 부룩스: 이런 것 하나 더 얻을 수 있을까요?
06:38
Okay, good.
103
380000
2000
네, 좋네요.
06:43
So, this is a corporal상등병 who had seen a robot기계 인간 two weeks previously이전에.
104
385000
3000
여기에 나오는 이 군인은 2주정도 앞서 이 로봇에 대한 교육을 받았고
06:48
He's sending배상 robots로봇 into caves동굴, looking at what's going on.
105
390000
4000
현재 동굴 내부를 살펴보기 위해 로봇을 동굴 안으로 보냈습니다.
06:52
The robot's로봇 being존재 totally전적으로 autonomous자발적인.
106
394000
2000
이제부터 이 로봇은 완전히 자동으로 동작합니다.
06:54
The worst가장 나쁜 thing that's happened일어난 in the cave동굴 so far멀리
107
396000
4000
지금까지 이 동굴에서 작전 중 발생한 가장 안좋았던 사건은
06:58
was one of the robots로봇 fell되다 down ten meters미터.
108
400000
3000
로봇중 하나가 10미터 아래로 떨어졌던 것이었죠.
07:08
So one year ago...전에, the US military didn't have these robots로봇.
109
410000
3000
1년전만 하더라도 미군은 이러한 로봇을 가지고 있지 않았습니다.
07:11
Now they're on active유효한 duty의무 in Afghanistan아프가니스탄 every...마다 day.
110
413000
2000
하지만, 지금은 아프가니스탄에서 매일 그들의 임무를 수행하고 있습니다.
07:13
And that's one of the reasons원인 they say a robot기계 인간 invasion침입 is happening사고.
111
415000
3000
이것이 우리 주변에서 로봇이 쓰이기 시작했다고 말하는 이유중 하나입니다.
07:16
There's a sea바다 change변화 happening사고 in how -- where technology's기술의 going.
112
418000
4000
현재 로봇 기술이 어떻게, 어떤 방향으로 발전해나갈지에 대한 큰 변화가 일어나고 있습니다.
07:20
Thanks감사.
113
422000
2000
감사합니다.
07:23
And over the next다음 것 couple of months개월,
114
425000
2000
그리고, 몇달 뒤에 우리는
07:25
we're going to be sending배상 robots로봇 in production생산
115
427000
3000
향후 몇년동안 석유를 채취 할 유정(油井) 건설에 사용될
07:28
down producing생산 oil기름 wells우물 to get that last few조금 years연령 of oil기름 out of the ground바닥.
116
430000
4000
로봇을 생산 할 계획입니다.
07:32
Very hostile적의 environments환경, 150˚ C, 10,000 PSIPSI.
117
434000
4000
이 로봇은 섭씨 150도가 넘고, 10,000 PSI인 매우 혹독한 환경의
07:36
Autonomous자발적인 robots로봇 going down, doing this sort종류 of work.
118
438000
4000
땅속으로 내려가 그 임무를 수행하게 될 것입니다.
07:40
But robots로봇 like this, they're a little hard단단한 to program프로그램.
119
442000
3000
현재 이러한 로봇들은 프로그램하기가 좀 어렵습니다.
07:43
How, in the future미래, are we going to program프로그램 our robots로봇
120
445000
2000
그럼 미래에 우리는 어떻게 우리의 로봇들을 프로그램할까요?
07:45
and make them easier더 쉬운 to use?
121
447000
2000
어떻게 그들을 더욱 사용하기 쉽게 말들 수 있을까요?
07:47
And I want to actually사실은 use a robot기계 인간 here --
122
449000
3000
이해하기 쉽도록 여기있는 크리스를 로봇이라 가정하고 보여드리겠습니다.
07:50
a robot기계 인간 named명명 된 Chris크리스 -- stand up. Yeah. Okay.
123
452000
5000
크리스, 일어나세요. 네 좋습니다.
07:57
Come over here. Now notice주의, he thinks생각해. robots로봇 have to be a bit비트 stiff딱딱한.
124
459000
4000
이리로 오세요. 지금 크리스가 움직이는 것을 보시면
08:01
He sort종류 of does that. But I'm going to --
125
463000
3000
크리스는 로봇이라면 딱딱하게 움직여야 한다고 생각하고 그렇게 움직입니다.
08:04
Chris크리스 Anderson앤더슨: I'm just British영국인. RBRB: Oh.
126
466000
2000
난 그냥 영국인이라서 그래요.
08:06
(Laughter웃음)
127
468000
2000
(웃음)
08:08
(Applause박수 갈채)
128
470000
2000
(박수)
08:10
I'm going to show보여 주다 this robot기계 인간 a task태스크. It's a very complex복잡한 task태스크.
129
472000
3000
전 지금 이 로봇에게 매우 복잡한 작업을 하나 보여주려고 합니다.
08:13
Now notice주의, he nodded끄덕이는 there, he was giving주는 me some indication표시
130
475000
3000
지금 보시면 이 로봇은 끄덕이면서 저에게 반응을 보입니다.
08:16
he was understanding이해 the flow흐름 of communication통신.
131
478000
3000
그는 지금 대화의 흐름을 이해하고 있는 것이죠.
08:19
And if I'd said something completely완전히 bizarre기괴한
132
481000
2000
그리고, 만약 제가 전혀 이상한 것을 얘기하면
08:21
he would have looked보았다 askance비스듬히 at me, and regulated규제 된 the conversation대화.
133
483000
3000
그는 저를 이상하게 쳐다보고 대화를 바꾸려고 할 것입니다.
08:24
So now I brought가져온 this up in front of him.
134
486000
3000
자, 지금처럼 제가 이렇게 물병 하나를 들어보이면서, 이 로봇의 시선을 보면
08:27
I'd looked보았다 at his eyes, and I saw his eyes looked보았다 at this bottle top상단.
135
489000
4000
이 로봇이 지금 이 물병 뚜껑을 바라보고 있는 것을 알수 있습니다.
08:31
And I'm doing this task태스크 here, and he's checking확인 up.
136
493000
2000
그리고, 저는 이 로봇이 계속 주시하는 동안 이러한 동작을 보여줍니다.
08:33
His eyes are going back and forth앞으로 up to me, to see what I'm looking at --
137
495000
3000
그러면, 로봇은 눈을 위, 아래로 움직이면서, 내가 현재 쳐다보고 있는 것을 확인하죠.
08:36
so we've우리는 got shared공유 된 attention주의.
138
498000
2000
이런 식으로 우리는 서로에게 주시를 합니다.
08:38
And so I do this task태스크, and he looks외모, and he looks외모 to me
139
500000
3000
이렇게 내가 작업을 수행하고, 그가 쳐다보고, 다음에는 무엇이 진행될지 확인하기 위해
08:41
to see what's happening사고 next다음 것. And now I'll give him the bottle,
140
503000
4000
저를 쳐다보죠. 그런 다음 저는 물병을 로봇에게 건냅니다.
08:45
and we'll see if he can do the task태스크. Can you do that?
141
507000
2000
그럼 이 로봇이 똑같은 동작을 할 수 있는지 보도록하지요. 할 수 있어요?
08:47
(Laughter웃음)
142
509000
3000
(웃음)
08:50
Okay. He's pretty예쁜 good. Yeah. Good, good, good.
143
512000
4000
네, 아주 잘하고 있습니다. 매우 좋아요.
08:54
I didn't show보여 주다 you how to do that.
144
516000
2000
난 그런 동작을 보여주지 않았어요.
08:56
Now see if you can put it back together함께.
145
518000
2000
그럼 다시 이 뚜껑을 닫을 수 있는지 봅시다.
08:58
(Laughter웃음)
146
520000
2000
(웃음)
09:00
And he thinks생각해. a robot기계 인간 has to be really slow느린.
147
522000
1000
크리스는 로봇이 정말 천천히 움직여야 된다고 생각하나보네요.
09:01
Good robot기계 인간, that's good.
148
523000
2000
잘했어요 로봇. 아주 잘했어요.
09:03
So we saw a bunch다발 of things there.
149
525000
2000
자 우리는 지금까지 여러가지를 보았습니다.
09:06
We saw when we're interacting상호 작용하는,
150
528000
3000
우리는 서로 상호 작용을 할 때,
09:09
we're trying견딜 수 없는 to show보여 주다 someone어떤 사람 how to do something, we direct곧장 their그들의 visual시각적 인 attention주의.
151
531000
4000
어떤 것을 어떻게 하는지를 보여주면서, 그들의 시각적 주의를 이끌었죠.
09:13
The other thing communicates의사 소통하다 their그들의 internal내부의 state상태 to us,
152
535000
4000
다른 것으로는 그들의 내부 상태를 저희에게 알려주는 것이 있고
09:17
whether인지 어떤지 he's understanding이해 or not, regulates규제하다 a social사회적인 interaction상호 작용.
153
539000
3000
정말 이해하고 했는지 아닌지는 모르겠지만, 사회적 상호 작용을 제어했고,
09:20
There was shared공유 된 attention주의 looking at the same같은 sort종류 of thing,
154
542000
2000
같은 것을 바라보면서 서로에게 주시했죠.
09:22
and recognizing인식하는 socially사회적으로 communicated전달 된 reinforcement보강 at the end종료.
155
544000
4000
그리고, 마지막에는 사회적 의사 소통을 인식하고 강화했습니다.
09:26
And we've우리는 been trying견딜 수 없는 to put that into our lab robots로봇
156
548000
3000
그래서, 우리 연구실에서는 이와 같은 것들을 로봇에 넣으려고 노력해왔습니다.
09:29
because we think this is how you're going to want to interact상호 작용하다 with robots로봇 in the future미래.
157
551000
4000
왜냐하면, 이러한 방법들이 미래에 우리가 원하는 로봇과의 의사 소통 방법이라고 생각했기 때문입니다.
09:33
I just want to show보여 주다 you one technical전문인 diagram도표 here.
158
555000
2000
여기 기술적인 다이어그램 하나를 보여드리려고 합니다.
09:35
The most가장 important중대한 thing for building건물 a robot기계 인간 that you can interact상호 작용하다 with socially사회적으로
159
557000
4000
우리가 상호 작용을 할 수 있는 로봇을 개발하는데 가장 중요한 것은
09:39
is its visual시각적 인 attention주의 system체계.
160
561000
2000
로봇의 비주얼 어텐션 시스템입니다.
09:41
Because what it pays지불하다 attention주의 to is what it's seeing
161
563000
3000
왜냐하면, 어떤 것에 집중한다는 것은 그것을 보고 있다는 뜻이고,
09:44
and interacting상호 작용하는 with, and what you're understanding이해 what it's doing.
162
566000
3000
그것과 상호 작용을 한다는 것이며, 그것이 무엇을 하고 있는지를 이해한다는 뜻이기 때문입니다.
09:47
So in the videos비디오 I'm about to show보여 주다 you,
163
569000
3000
그래서, 제가 곧 보여드릴 비디오에서
09:50
you're going to see a visual시각적 인 attention주의 system체계 on a robot기계 인간
164
572000
4000
여러분은 로봇의 비쥬얼 어텐션 시스템을 보시게 될 것입니다.
09:54
which어느 has -- it looks외모 for skin피부 tone음정 in HSVHSV space공간,
165
576000
4000
HSV 컬러 모델에서
09:58
so it works공장 across건너서 all human인간의 colorings착색제.
166
580000
4000
인체색에 해당하는 피부색을 찾아내고
10:02
It looks외모 for highly고도로 saturated가득한 colors그림 물감, from toys장난감.
167
584000
2000
장난감 영역에 해당하는 색이 높게 포화된 영역을 찾아냅니다.
10:04
And it looks외모 for things that move움직임 around.
168
586000
2000
또, 영상에서 움직이는 영역들을 찾아냅니다.
10:06
And it weights무게 those together함께 into an attention주의 window창문,
169
588000
3000
그리고, 이 모든 것들에 가중치를 더해 어텐션 윈도우에 넣고,
10:09
and it looks외모 for the highest-scoring최고 득점 place장소 --
170
591000
2000
그중에서 가장 높게 매겨진 영역을
10:11
the stuff물건 where the most가장 interesting재미있는 stuff물건 is happening사고 --
171
593000
2000
가장 관심있는 영역이라 생각하고 찾는 것이죠.
10:13
and that is what its eyes then segue세그 to.
172
595000
4000
그리고, 그 영역을 로봇의 눈이
10:17
And it looks외모 right at that.
173
599000
2000
쳐다보게 되는 것입니다.
10:19
At the same같은 time, some top-down위에서 아래로 sort종류 of stuff물건:
174
601000
3000
그리고 동시에, 다른 접근 방식으로
10:22
might decide결정하다 that it's lonely고독한 and look for skin피부 tone음정,
175
604000
3000
로봇은 스스로 외롭다고 생각하고 피부색을 찾을 수도 있고,
10:25
or might decide결정하다 that it's bored지루한 and look for a toy장난감 to play놀이 with.
176
607000
3000
혹은, 심심하다고 생각되어 가지고 놀 장난감을 찾을 수도 있습니다.
10:28
And so these weights무게 change변화.
177
610000
2000
그러면, 이러한 가중치들이 변하게되죠.
10:30
And over here on the right,
178
612000
2000
그리고, 맨 오른쪽의 그림
10:32
this is what we call the Steven스티븐 Spielberg스필버그 memorial기념물 module기준 치수.
179
614000
3000
우리는 이것을 스티븐 스필버그 메모리얼 모듈이라고 부르는데
10:35
Did people see the movie영화 "AIAI"? (Audience청중: Yes.)
180
617000
2000
여기 영화 AI를 보신분 계신가요? 청중: 네.
10:37
RBRB: Yeah, it was really bad나쁜, but --
181
619000
2000
네, 정말 별로인 영화였죠, 하지만
10:39
remember생각해 내다, especially특히 when Haley헤일리 Joel조엘 Osment오스먼트, the little robot기계 인간,
182
621000
4000
작은 로봇 역활을 했던 할리 조엘 오스먼트가 파란색 요정을
10:43
looked보았다 at the blue푸른 fairy요정 for 2,000 years연령 without없이 taking취득 his eyes off it?
183
625000
4000
2천년동안 한시도 눈을 떼지 않고 바라본 것을 기억하시나요?
10:47
Well, this gets도착 rid구하다 of that,
184
629000
2000
이것이 그런 현상을 없앨 수 있습니다.
10:49
because this is a habituation요법 Gaussian가우시안 that gets도착 negative부정,
185
631000
4000
왜냐하면, 이것은 음수를 가지는 습관화 가우시안으로써,
10:53
and more and more intense심한 as it looks외모 at one thing.
186
635000
3000
로봇이 한 곳을 바라보면 그 부분의 강도가 점점 세어지도록 되어 있습니다.
10:56
And it gets도착 bored지루한, so it will then look away at something else그밖에.
187
638000
3000
그러므로, 로봇이 지루함을 느끼게 할 수 있고, 다른 흥미로운 것을 찾게 할 수 있지요.
10:59
So, once일단 you've got that -- and here's여기에 a robot기계 인간, here's여기에 Kismet키이스 멧,
188
641000
4000
그러면, 이러한 개념들을 가지고, 여기에 현재 장남감을 찾고 있는
11:03
looking around for a toy장난감. You can tell what it's looking at.
189
645000
4000
"키스멧"이라고 부르는 로봇을 보도록 하겠습니다.
11:07
You can estimate견적 its gaze응시하다 direction방향 from those eyeballs안구 covering피복 its camera카메라,
190
649000
5000
카메라를 감싸고 있는 로봇 눈의 방향을 가지고, 현재 로봇이 어디를 바라보고 있는지 알 수 있습니다.
11:12
and you can tell when it's actually사실은 seeing the toy장난감.
191
654000
3000
그러므로, 우리는 로봇이 저 장난감을 바라볼 때를 알 수 있고,
11:15
And it's got a little bit비트 of an emotional정서적 인 response응답 here.
192
657000
2000
작은 감정 표현을 하는 것도 볼 수 있네요.
11:17
(Laughter웃음)
193
659000
1000
(웃음)
11:18
But it's still going to pay지불 attention주의
194
660000
2000
그러나, 좀 더 중요한 것이 자신의 시각에 나타나면
11:20
if something more significant중요한 comes온다 into its field of view전망 --
195
662000
4000
그것으로 주의를 돌릴 수 있습니다.
11:24
such이러한 as Cynthia BreazealBreazeal, the builder건축업자 of this robot기계 인간, from the right.
196
666000
4000
지금 오른쪽에 나타난 이 로봇의 개발자 신디아 브리지얼을 쳐다보는 것처럼 말이죠.
11:28
It sees본다 her, pays지불하다 attention주의 to her.
197
670000
5000
네, 지금 로봇이 그녀를 쳐다보며, 그녀를 주시하고 있네요.
11:33
Kismet키이스 멧 has an underlying밑에 있는, three-dimensional입체의 emotional정서적 인 space공간,
198
675000
4000
키스멧은 감정적 벡터 영역인
11:37
a vector벡터 space공간, of where it is emotionally감정적으로.
199
679000
3000
3차원 감정 영역을 가지고 있습니다.
11:40
And at different다른 places장소들 in that space공간, it expresses표현하다 --
200
682000
5000
각각 다른 영역에서 그것이 표현하는 감정들이죠.
11:46
can we have the volume음량 on here?
201
688000
2000
볼륨을 좀 더 높일 수 있나요?
11:48
Can you hear듣다 that now, out there? (Audience청중: Yeah.)
202
690000
2000
네, 맨 뒤에까지 잘 들리세요? 청충: 네.
11:50
Kismet키이스 멧: Do you really think so? Do you really think so?
203
692000
5000
키스멧: 정말 그렇게 생각하세요? 정말 그렇게 생각해?
11:57
Do you really think so?
204
699000
2000
정말 그렇게 생각하니?
12:00
RBRB: So it's expressing표현하는 its emotion감정 through...을 통하여 its face얼굴
205
702000
3000
이렇게 로봇은 자신의 얼굴과 목소리의 변화를 통해서
12:03
and the prosody작시법 in its voice목소리.
206
705000
2000
자신의 감정을 표현합니다.
12:05
And when I was dealing취급 with my robot기계 인간 over here,
207
707000
4000
그리고, 제가 조금 전에 크리스란 로봇을 보여드렸을 때
12:09
Chris크리스, the robot기계 인간, was measuring자질 the prosody작시법 in my voice목소리,
208
711000
3000
크리스가 제 목소리의 억양을 감지할 수 있었던 것처럼
12:12
and so we have the robot기계 인간 measure법안 prosody작시법 for four basic기본 messages메시지
209
714000
5000
우리 어머니들이 말귀를 알아듣지 못하는 아기들에게 하는
12:17
that mothers어머니 give their그들의 children어린이 pre-linguistically사전 언어 학적으로.
210
719000
4000
기본적인 4가지 메세지를 인식하는 로봇을 보여드리도록 하겠습니다
12:21
Here we've우리는 got naive소박한 subjects과목들 praising찬양 the robot기계 인간:
211
723000
3000
먼저 로봇을 칭찬하는 것을 보도록 하죠.
12:26
Voice목소리: Nice좋은 robot기계 인간.
212
728000
2000
잘했어요.
12:29
You're such이러한 a cute귀엽다 little robot기계 인간.
213
731000
2000
너 참 작고 귀여운 로봇이구나.
12:31
(Laughter웃음)
214
733000
2000
(웃음)
12:33
RBRB: And the robot's로봇 reacting반응하는 appropriately적절하게.
215
735000
2000
그러면, 로봇은 적절하게 반응을 하죠.
12:35
Voice목소리: ...very good, Kismet키이스 멧.
216
737000
4000
아주 좋았어, 키스멧.
12:40
(Laughter웃음)
217
742000
2000
(웃음)
12:42
Voice목소리: Look at my smile미소.
218
744000
2000
내 웃는 모습을 좀 봐.
12:46
RBRB: It smiles웃음. She imitates모방하다 the smile미소. This happens일이 a lot.
219
748000
3000
로봇이 미소를 짓고, 그녀가 그 미소를 따라하고 있습니다. 이러한 상황은 자주 일어나죠.
12:49
These are naive소박한 subjects과목들.
220
751000
2000
이것은 아주 간단한 것들이었고요.
12:51
Here we asked물었다 them to get the robot's로봇 attention주의
221
753000
3000
다음으로 우리는 실험에 참여한 사람들에게 로봇의 주의를 끌어보고
12:54
and indicate가리키다 when they have the robot's로봇 attention주의.
222
756000
3000
성공했을 때를 나타내보라고 요구했습니다.
12:57
Voice목소리: Hey, Kismet키이스 멧, ah, there it is.
223
759000
4000
야 키스멧, 이제 나를 쳐다보는구나.
13:01
RBRB: So she realizes실현하다 she has the robot's로봇 attention주의.
224
763000
4000
이렇게 그녀는 로봇이 자신을 쳐다보고 있다는 것을 알죠.
13:08
Voice목소리: Kismet키이스 멧, do you like the toy장난감? Oh.
225
770000
4000
키스멧, 너 저 장난감 좋아하니? 그렇구나.
13:13
RBRB: Now, here they're asked물었다 to prohibit금지하다 the robot기계 인간,
226
775000
2000
자 그러면, 로봇을 야단치는 것을 보도록 하겠습니다.
13:15
and this first woman여자 really pushes푸시하다 the robot기계 인간 into an emotional정서적 인 corner모서리.
227
777000
4000
여기 첫번째 나오는 여성분은 정말 감정적으로 몰아세우고 있습니다.
13:19
Voice목소리: No. No. You're not to do that. No.
228
781000
5000
안돼! 안돼! 그러면 못써! 안돼!
13:24
(Laughter웃음)
229
786000
3000
(웃음)
13:27
Not appropriate적당한. No. No.
230
789000
6000
그것은 나쁜거야. 하지마. 하지마.
13:33
(Laughter웃음)
231
795000
3000
(웃음)
13:36
RBRB: I'm going to leave휴가 it at that.
232
798000
2000
그럼 여기까지 하도록 하고요.
13:38
We put that together함께. Then we put in turn회전 taking취득.
233
800000
2000
이 모든 것을 포함한 완전한 대화를 보도록 하겠습니다.
13:40
When we talk to someone어떤 사람, we talk.
234
802000
3000
우리는 누군가와 대화를 할 때
13:43
Then we sort종류 of raise증가 our eyebrows눈썹, move움직임 our eyes,
235
805000
4000
눈썹을 치켜올린다던지, 눈을 움직인다든지 하면서
13:47
give the other person사람 the idea생각 it's their그들의 turn회전 to talk.
236
809000
3000
상대방에게 얘기 할 차례라는 것은 암시하고는 합니다.
13:50
And then they talk, and then we pass패스 the baton지휘봉 back and forth앞으로 between중에서 each마다 other.
237
812000
4000
그러면, 그 사람이 얘기를 하고, 다시 상대방에게 넘기고 받고 하면서 대화를 하지요.
13:54
So we put this in the robot기계 인간.
238
816000
2000
그래서, 우리는 로봇이 이러한 것들을 할 수 있도록 했습니다.
13:56
We got a bunch다발 of naive소박한 subjects과목들 in,
239
818000
2000
위에서 보여드린 여러가지 간단한 것들을 로봇에 프로그램을 한 후
13:58
we didn't tell them anything about the robot기계 인간,
240
820000
2000
실험자들에게 로봇에 대해 아무런 얘기를 해주지않고
14:00
sat앉은 them down in front of the robot기계 인간 and said, talk to the robot기계 인간.
241
822000
2000
그냥 로봇 앞에 앉아서 로봇과 대화를 나누라고 했습니다.
14:02
Now what they didn't know was,
242
824000
2000
즉, 실험자들은
14:04
the robot기계 인간 wasn't아니었다. understanding이해 a word워드 they said,
243
826000
2000
로봇이 자신들의 말을 이해하지 못한다는 것과
14:06
and that the robot기계 인간 wasn't아니었다. speaking말하기 English영어.
244
828000
3000
로봇이 영어로 말을 하는 것이 아니라
14:09
It was just saying속담 random무작위의 English영어 phonemes음소.
245
831000
2000
임의의 영어 글자들을 소리낸다는 것을 알지 못했습니다.
14:11
And I want you to watch carefully면밀히, at the beginning처음 of this,
246
833000
2000
이 비디오 시작 부분을 주의깊게 살펴보시길 바랍니다.
14:13
where this person사람, Ritchie리치, who happened일어난 to talk to the robot기계 인간 for 25 minutes의사록 --
247
835000
4000
여기 리치라는 사람이 나와서 25분동안 로봇과 얘기를 하는데
14:17
(Laughter웃음)
248
839000
2000
(웃음)
14:19
-- says말한다, "I want to show보여 주다 you something.
249
841000
2000
이 사람이 "나 너에게 보여주고 싶은 것이 있어"
14:21
I want to show보여 주다 you my watch."
250
843000
2000
"내 시계 좀 봐바"라고 로봇에게 말을 하면서
14:23
And he brings가져다 준다 the watch center센터, into the robot's로봇 field of vision시력,
251
845000
5000
자신의 시계를 로봇의 시선 가운데로 가지고 옵니다.
14:28
points전철기 to it, gives주는 it a motion운동 cue,
252
850000
2000
그리고, 그 시계를 손가락으로 가르키면서 움직임으로 힌트를 주지요.
14:30
and the robot기계 인간 looks외모 at the watch quite아주 successfully성공적으로.
253
852000
2000
그러면, 로봇은 아주 성공적으로 그 시계를 바라봅니다.
14:32
We don't know whether인지 어떤지 he understood이해 된 or not that the robot기계 인간 --
254
854000
3000
우리는 그 사람이 이 로봇을 이해했는지 안했는지는 모릅니다.
14:36
Notice주의 the turn-taking차례 차례 복용.
255
858000
2000
서로 주고받는 대화를 주의깊게 보세요.
14:38
Ritchie리치: OK, I want to show보여 주다 you something. OK, this is a watch
256
860000
3000
리치: 너에게 보여줄 것이 있어.
14:41
that my girlfriend여자 친구 gave me.
257
863000
3000
이 시계 내 여자친구가 준거다.
14:44
Robot기계 인간: Oh, cool시원한.
258
866000
2000
로봇: 오, 멋진데.
14:46
Ritchie리치: Yeah, look, it's got a little blue푸른 light in it too. I almost거의 lost잃어버린 it this week.
259
868000
4000
리치: 응, 봐바, 작은 파란 불도 나온다. 이번 주에 하마터면 잃어버릴뻔했어.
14:51
(Laughter웃음)
260
873000
4000
(웃음)
14:55
RBRB: So it's making만들기 eye contact접촉 with him, following수행원 his eyes.
261
877000
3000
로봇이 지금 저 사람과 눈을 마주치고 있고, 그의 시선을 따라 봅니다.
14:58
Ritchie리치: Can you do the same같은 thing? Robot기계 인간: Yeah, sure.
262
880000
2000
너도 똑같이 할 수 있어? 응, 그럼.
15:00
RBRB: And they successfully성공적으로 have that sort종류 of communication통신.
263
882000
2000
이렇게 그들은 대화를 성공적으로 주고 받습니다.
15:02
And here's여기에 another다른 aspect양상 of the sorts종류 of things that Chris크리스 and I were doing.
264
884000
4000
그리고, 이번에는 아까 크리스와 함께 보여드린 것처럼
15:06
This is another다른 robot기계 인간, Cog장부.
265
888000
2000
여기 "코그"라는 로봇이
15:08
They first make eye contact접촉, and then, when Christie크리스티 looks외모 over at this toy장난감,
266
890000
6000
크리스티와 눈을 마주보고 있다가, 크리스티가 장난감을 쳐다보면
15:14
the robot기계 인간 estimates견적 her gaze응시하다 direction방향
267
896000
2000
그녀가 바라보고 있는 곳을 짐작하여
15:16
and looks외모 at the same같은 thing that she's looking at.
268
898000
2000
그녀와 같은 곳을 바라보는 것을 보실 수 있습니다.
15:18
(Laughter웃음)
269
900000
1000
(웃음)
15:19
So we're going to see more and more of this sort종류 of robot기계 인간
270
901000
3000
우리는 향후 몇년동안 이와 같은 로봇들을
15:22
over the next다음 것 few조금 years연령 in labs실험실.
271
904000
2000
점점 더 많이 접하게 될 것입니다.
15:24
But then the big questions질문들, two big questions질문들 that people ask청하다 me are:
272
906000
5000
사람들이 저에게 2가지 질문을 가장 많이 합니다.
15:29
if we make these robots로봇 more and more human-like인간과 같은,
273
911000
2000
첫번째로는, 만약 우리가 점점 더 사람과 같은 로봇을 만든다면
15:31
will we accept받아 들인다 them, will we -- will they need rights진상 eventually결국?
274
913000
5000
우리가 그들을 받아들일 수 있을까요? 결국 그들도 사람과 같은 권리가 필요할까요?
15:36
And the other question문제 people ask청하다 me is, will they want to take over?
275
918000
3000
그리고 두번째 질문으로는. 그들이 우리 인간을 지배하게 될까요?
15:39
(Laughter웃음)
276
921000
1000
(웃음)
15:40
And on the first -- you know, this has been a very Hollywood할리우드 theme테마
277
922000
3000
그럼 먼저 첫번째 질문, 그와 같은 얘기는 그동안 많은 헐리우드 영화의 테마가 됐었습니다.
15:43
with lots of movies영화 산업. You probably아마 recognize인정하다 these characters문자들 here --
278
925000
3000
여기 화면에 나오는 로봇 케릭터들이 익숙하실텐데요.
15:46
where in each마다 of these cases사례, the robots로봇 want more respect존경.
279
928000
4000
여기있는 모든 로봇들은 인간들이 좀 더 자기를 존중해주길 바랬습니다.
15:50
Well, do you ever need to give robots로봇 respect존경?
280
932000
3000
글쎄요, 우리가 로봇을 존중해야 할 필요가 있을까요?
15:54
They're just machines기계들, after all.
281
936000
2000
그냥 그들은 우리가 만든 기계일뿐인데요.
15:56
But I think, you know, we have to accept받아 들인다 that we are just machines기계들.
282
938000
4000
그러나, 저는 우리 인간도 기계와 같은 존재일 수도 있다는 것을 인정해야한다고 생각합니다.
16:00
After all, that's certainly확실히 what modern현대 molecular분자 biology생물학 says말한다 about us.
283
942000
5000
이것은 현대 분자 생물학에서 주장하는 것인데요.
16:05
You don't see a description기술 of how, you know,
284
947000
3000
이것이 어떻게 가능한지 볼 수는 없지만
16:08
Molecule분자 A, you know, comes온다 up and docks도크 with this other molecule분자.
285
950000
4000
A라는 분자가 다른 분자와 결합한 후
16:12
And it's moving움직이는 forward앞으로, you know, propelled추진 된 by various여러 charges요금,
286
954000
3000
여러가지 변화 과정을 거쳐 진화를 하게 되고
16:15
and then the soul영혼 steps걸음 in and tweaks비틀기 those molecules분자 so that they connect잇다.
287
957000
4000
결국, 이러한 분자들이 영혼과 결합하여 인간이 된다.
16:19
It's all mechanistic기계 론적. We are mechanism기구.
288
961000
3000
이 모든 것들은 기계적이며, 결국 인간도 기계의 일종일 수도 있다는 주장입니다.
16:22
If we are machines기계들, then in principle원리 at least가장 작은,
289
964000
3000
만약 이 설명처럼 우리 인간도 기계의 일종이라면, 최소한 이론적으로
16:25
we should be able할 수 있는 to build짓다 machines기계들 out of other stuff물건,
290
967000
4000
우리 인간과 같은 생명적인 요소들은 뺀
16:29
which어느 are just as alive살아 있는 as we are.
291
971000
4000
로봇을 개발 할 수 있다는 얘기입니다.
16:33
But I think for us to admit들이다 that,
292
975000
2000
그러나, 우리가 이러한 것들을 받아들이려면
16:35
we have to give up on our special-ness특별 함, in a certain어떤 way.
293
977000
3000
우리는 인간이 특별한 존재라는 것을 포기해야겠지요.
16:38
And we've우리는 had the retreat후퇴 from special-ness특별 함
294
980000
2000
과거를 돌아보면, 우리는 지난 몇백년동안
16:40
under아래에 the barrage연발 사격 of science과학 and technology과학 기술 many많은 times타임스
295
982000
3000
과학 기술의 발전에 의해
16:43
over the last few조금 hundred years연령, at least가장 작은.
296
985000
2000
인간 중심적인 많은 이론들을 포기해왔습니다.
16:45
500 years연령 ago...전에 we had to give up the idea생각
297
987000
2000
예를들면, 500년 전에 우리는
16:47
that we are the center센터 of the universe우주
298
989000
3000
지구가 태양 주의를 돈다는 것을 발견하면서
16:50
when the earth지구 started시작한 to go around the sun태양;
299
992000
2000
지구가 우주의 중심이라는 생각을 버려야했었죠.
16:52
150 years연령 ago...전에, with Darwin다윈, we had to give up the idea생각 we were different다른 from animals동물.
300
994000
5000
그리고, 150년 전에는 다윈에 의해서 인간은 동물과 다른 존재라는 생각을 버려야했고요.
16:57
And to imagine상상하다 -- you know, it's always hard단단한 for us.
301
999000
3000
정말 받아들이기 힘들지만 상상해보죠.
17:00
Recently요새 we've우리는 been battered오래 써서 낡은 with the idea생각 that maybe
302
1002000
3000
최근 인간의 창조론조차 없었던 것이라는 주장에
17:03
we didn't even have our own개인적인 creation창조 event행사, here on earth지구,
303
1005000
2000
많은 사람들이 그 주장을 싫어했었고,
17:05
which어느 people didn't like much. And then the human인간의 genome게놈 said,
304
1007000
3000
우리 인간이 겨우 35,000개의 유전자밖에 가지지 않았다는 주장도
17:08
maybe we only have 35,000 genes유전자. And that was really --
305
1010000
3000
많은 사람들이 정말 싫어했습니다.
17:11
people didn't like that, we've우리는 got more genes유전자 than that.
306
1013000
3000
우리 인간은 그보다 많은 유전자를 가지고 있다고 하면서 말이죠.
17:14
We don't like to give up our special-ness특별 함, so, you know,
307
1016000
3000
이렇게 우리는 인간의 특수성을 포기하기 싫어합니다.
17:17
having the idea생각 that robots로봇 could really have emotions감정,
308
1019000
2000
이러한 생각들을 가지고, 로봇이 감정을 가지게 된다?
17:19
or that robots로봇 could be living생활 creatures생물 --
309
1021000
2000
또는 로봇이 살아있는 생명체가 된다?
17:21
I think is going to be hard단단한 for us to accept받아 들인다.
310
1023000
2000
제 생각에는 이러한 것들이 받아들여지기는 무척 힘들꺼라고 생각합니다.
17:23
But we're going to come to accept받아 들인다 it over the next다음 것 50 years연령 or so.
311
1025000
4000
그러나, 우리들은 향후 50년 동안 이러한 것들을 받아들여야 할지도 모르죠.
17:27
And the second둘째 question문제 is, will the machines기계들 want to take over?
312
1029000
3000
다음으로 두번째 질문을 생각해보죠. 기계들이 우리 인간을 지배하게될까요?
17:30
And here the standard표준 scenario대본 is that we create몹시 떠들어 대다 these things,
313
1032000
5000
여기에 유명한 시나리오가 있습니다. 우리가 이런 로봇들을 개발하고,
17:35
they grow자라다, we nurture양육 them, they learn배우다 a lot from us,
314
1037000
3000
이들이 우리 인간들에 의해 점점 진화 하다가
17:38
and then they start스타트 to decide결정하다 that we're pretty예쁜 boring지루한, slow느린.
315
1040000
4000
어느 순간부터 우리 인간들이 느려터지고, 지루한 존재라고 생각하기 시작하고
17:42
They want to take over from us.
316
1044000
2000
결국엔 우리 인간들을 정복하려고 한다.
17:44
And for those of you that have teenagers십대, you know what that's like.
317
1046000
3000
이런 시나리오는 10대 자녀를 두신 분이라면 더욱 잘 아실꺼라 생각합니다.
17:47
(Laughter웃음)
318
1049000
1000
(웃음)
17:48
But Hollywood할리우드 extends확장하다 it to the robots로봇.
319
1050000
3000
헐리우드에서는 이런 시나리오를 로봇에게 적용하여 많은 영화를 만들고있죠.
17:51
And the question문제 is, you know,
320
1053000
3000
자, 여러분들에게 한번 묻겠습니다.
17:54
will someone어떤 사람 accidentally우윤히 build짓다 a robot기계 인간 that takes over from us?
321
1056000
4000
어느 누군가가 우연히 우리를 정복할 로봇을 만들게 될까요?
17:58
And that's sort종류 of like this lone고독한 guy in the backyard뒤뜰,
322
1060000
3000
어떤 외로운 남자가 자신의 뒷 마당에서
18:01
you know -- "I accidentally우윤히 built세워짐 a 747."
323
1063000
3000
"앗! 내가 우연히 747호를 만들었어!!" 라고 하는 그런 경우 말이죠.
18:04
I don't think that's going to happen우연히 있다.
324
1066000
2000
아시다시피, 그럴일은 없을겁니다.
18:06
And I don't think --
325
1068000
2000
그리고, 저는
18:08
(Laughter웃음)
326
1070000
1000
(웃음)
18:09
-- I don't think we're going to deliberately신중히 build짓다 robots로봇
327
1071000
3000
그리고, 저는 인류에게 좋은 영향을 끼치는
18:12
that we're uncomfortable앉기 불편한 with.
328
1074000
2000
로봇들만 만들어질 거라고 믿습니다.
18:14
We'll -- you know, they're not going to have a super감독자 bad나쁜 robot기계 인간.
329
1076000
2000
음.. 그 로봇들이 스스로 악당로봇이 되어 나타나지는 못할겁니다.
18:16
Before that has to come to be a mildly온화하게 bad나쁜 robot기계 인간,
330
1078000
3000
악당로봇이 되려면 우선 꽤 못된 로봇으로 진화해야 하고,
18:19
and before that a not so bad나쁜 robot기계 인간.
331
1081000
2000
그보다 먼저 약간 삐뚤어진 로봇이 먼저 되어야 하는데,
18:21
(Laughter웃음)
332
1083000
1000
(웃음)
18:22
And we're just not going to let it go that way.
333
1084000
2000
로봇들이 그렇게 삐뚤어지도록 놔두면 당연히 안되겠지요?
18:24
(Laughter웃음)
334
1086000
1000
(웃음)
18:25
So, I think I'm going to leave휴가 it at that: the robots로봇 are coming오는,
335
1087000
6000
그럼, 저는 로봇이 대중화되는 시대가 다가오고 있다는 것을 말씀드리며 이 강연을 마칠까합니다.
18:31
we don't have too much to worry걱정 about, it's going to be a lot of fun장난,
336
1093000
3000
너무 걱정하실 필요는 없습니다. 오히려 재미있는 일들이 많을꺼에요.
18:34
and I hope기대 you all enjoy즐겨 the journey여행 over the next다음 것 50 years연령.
337
1096000
4000
여기 계신 모든 분들께서 앞으로의 그 50년을 충분히 즐기실 수 있기를 바랍니다.
18:38
(Applause박수 갈채)
338
1100000
2000
(박수)
Translated by Hanme Kim
Reviewed by Ian Park

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com