ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Според Родни Брукс роботите ще нахлуят в живота ни

Filmed:
689,918 views

В този пророчески разговор от 2003 г. роботикът Родни Брукс говори за това как роботите ще си проправят път в живота ни - като се започне с играчки и се продължи към домакински задължения... и отвъд.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todayднес is how I see robotsроботи invadingнавлезе our livesживота
0
0
5000
Онова, за което искам да ви разкажа днес, е как виждам роботите да нахлуват в живота ни
00:23
at multipleмногократни levelsнива, over multipleмногократни timescalesВремевите графици.
1
5000
3000
на множество нива, в множество времеви пояси.
00:26
And when I look out in the futureбъдеще, I can't imagineПредставете си a worldсвят, 500 yearsгодини from now,
2
8000
4000
А когато погледна в бъдещето, не мога да си представя един свят след 500 години,
00:30
where we don't have robotsроботи everywhereнавсякъде.
3
12000
2000
при който да няма роботи навсякъде,
00:32
AssumingАко приемем -- despiteвъпреки all the direотчаяно predictionsпрогнози from manyмного people about our futureбъдеще --
4
14000
5000
като приемем... въпреки всички зловещи предсказания на много хора за нашето бъдеще -
00:37
assumingпредположи we're still around, I can't imagineПредставете си the worldсвят not beingсъщество populatedнаселен with robotsроботи.
5
19000
4000
като приемем, че още съществуваме, не мога да си представя светът да не е населен с роботи.
00:41
And then the questionвъпрос is, well, if they're going to be here in 500 yearsгодини,
6
23000
3000
А тогава въпросът е - ами, ако ще са тук след 500 години,
00:44
are they going to be everywhereнавсякъде soonerрано than that?
7
26000
2000
дали ще са навсякъде още по-скоро?
00:46
Are they going to be around in 50 yearsгодини?
8
28000
2000
Ще ги има ли след 50 години?
00:48
Yeah, I think that's prettyкрасива likelyвероятно -- there's going to be lots of robotsроботи everywhereнавсякъде.
9
30000
3000
Да, мисля, че това е доста вероятно - ще има множество роботи навсякъде.
00:51
And in factфакт I think that's going to be a lot soonerрано than that.
10
33000
3000
Всъщност мисля, че ще е много по-скоро.
00:54
I think we're sortвид of on the cuspзъбер of robotsроботи becomingпревръща commonчесто срещани,
11
36000
4000
Мисля, че сме на ръба на това роботите да станат обичайни
00:58
and I think we're sortвид of around 1978 or 1980 in personalперсонален computerкомпютър yearsгодини,
12
40000
6000
и мисля, че сме някъде около 1978 или 1980 в персонални компютърни години,
01:04
where the first fewмалцина robotsроботи are startingстартиране to appearсе появи.
13
46000
3000
когато започват да се появяват първите роботи.
01:07
ComputersКомпютри sortвид of cameдойде around throughпрез gamesигри and toysиграчки.
14
49000
4000
Компютрите някак навлязоха чрез игри и играчки.
01:11
And you know, the first computerкомпютър mostнай-много people had in the houseкъща
15
53000
3000
И знаете ли, първия компютър, който повечето хора са имали вкъщи,
01:14
mayможе have been a computerкомпютър to playиграя PongПонг,
16
56000
2000
може да е бил компютър за игра на "Понг",
01:16
a little microprocessorмикропроцесор embeddedвградени,
17
58000
2000
с вграден малък микропроцесор,
01:18
and then other gamesигри that cameдойде after that.
18
60000
3000
а след това дойдоха и други игри.
01:21
And we're startingстартиране to see that sameедин и същ sortвид of thing with robotsроботи:
19
63000
3000
Започваме да виждаме същото нещо при роботите:
01:24
LEGOЛЕГО MindstormsMindstorms, FurbiesFurbies -- who here -- did anyoneнякой here have a FurbyФърби?
20
66000
4000
"Лего Майндсторм", "Фърби"... някой тук имал ли е "Фърби"?
01:28
Yeah, there's 38 millionмилион of them soldпродаден worldwideв световен мащаб.
21
70000
3000
Да, по света са продадени 38 милиона от тях.
01:31
They are prettyкрасива commonчесто срещани. And they're a little tinyмъничък robotробот,
22
73000
2000
Доста често срещани са. Това е един мъничък робот,
01:33
a simpleпрост robotробот with some sensorsсензори,
23
75000
2000
прост робот с няколко сензори.
01:35
a little bitмалко of processingобработване actuationзадействане.
24
77000
2000
Малко преработващо задвижване.
01:37
On the right there is anotherоще robotробот dollкукла, who you could get a coupleдвойка of yearsгодини agoпреди.
25
79000
3000
Там вдясно има друга кукла робот, която можеше да вземеш преди две години.
01:40
And just as in the earlyрано daysдни,
26
82000
2000
И точно както в ранните дни,
01:42
when there was a lot of sortвид of amateurлюбител interactionвзаимодействие over computersкомпютри,
27
84000
5000
когато имаше много някак аматьорско взаимодействие край компютрите,
01:47
you can now get variousразлични hackingсух kitsкомплекти, how-to-hackКак за хакерство booksкниги.
28
89000
4000
сега може да се получат различни хакерски набори, книги за хакерство.
01:51
And on the left there is a platformплатформа from EvolutionЕволюция RoboticsРоботика,
29
93000
4000
А там вляво има една платформа от "Еволюционна роботика",
01:55
where you put a PCPC on, and you programпрограма this thing with a GUIGUI
30
97000
3000
върху която се поставя компютър и се програмира това нещо с графичен потребителски интерфейс
01:58
to wanderскитат around your houseкъща and do variousразлични stuffматерия.
31
100000
3000
да броди из къщата ти и да върши различни неща.
02:01
And then there's a higherпо-висок priceцена pointточка sortвид of robotробот toysиграчки --
32
103000
3000
А после - по-висок ценови клас, един вид роботи играчки...
02:04
the SonySony AiboAibo. And on the right there, is one that the NECNEC developedразвита,
33
106000
4000
"Сони Айбо". А там вдясно е един, създаден от NEC,
02:08
the PaPeRoPaPeRo, whichкойто I don't think they're going to releaseпускане.
34
110000
3000
ПаПеРо, който не смятам, че ще пуснат.
02:11
But neverthelessвъпреки това, those sortsвидове of things are out there.
35
113000
3000
Но въпреки това тези неща ги има.
02:14
And we'veние имаме seenвидян, over the last two or threeтри yearsгодини, lawn-mowing-Косачки robotsроботи,
36
116000
4000
През последните две-три години сме виждали роботи-косачки,
02:18
HusqvarnaХускварна on the bottomдъно, FriendlyПриятелски RoboticsРоботика on topвръх there, an IsraeliИзраелски companyкомпания.
37
120000
6000
"Husqvarna" отдолу, "Френдли Роботикс" там горе, израелска компания.
02:24
And then in the last 12 monthsмесеца or so
38
126000
2000
А после, през последните 12 месеца или там някъде
02:26
we'veние имаме startedзапочна to see a bunchкуп of home-cleaningПочистване на дома robotsроботи appearсе появи.
39
128000
4000
започнахме да виждаме появата на куп роботи за почистване на дома.
02:30
The topвръх left one is a very niceприятен home-cleaningПочистване на дома robotробот
40
132000
3000
Горе вляво е един много хубав робот за домашно почистване
02:33
from a companyкомпания calledНаречен DysonДайсън, in the U.K. ExceptС изключение на it was so expensiveскъп --
41
135000
4000
от една фирма, наречена "Дайсън", в Обединеното кралство. Само че бил толкова скъп...
02:37
3,500 dollarsдолара -- they didn't releaseпускане it.
42
139000
2000
3500 долара... че не го пуснали.
02:39
But at the bottomдъно left, you see ElectroluxElectrolux, whichкойто is on saleпродажба.
43
141000
3000
Но долу вляво виждате "Електролукс", който е в продажба.
02:42
AnotherДруг one from KarcherKarcher.
44
144000
2000
Друг от "Кархер".
02:44
At the bottomдъно right is one that I builtпостроен in my labлаборатория
45
146000
2000
Долу вдясно е един, който създадох в моята лаборатория
02:46
about 10 yearsгодини agoпреди, and we finallyнакрая turnedоказа that into a productпродукт.
46
148000
3000
преди десетина години, и най-сетне го превърнахме в продукт.
02:49
And let me just showшоу you that.
47
151000
2000
Нека просто да ви покажа това.
02:51
We're going to give this away I think, ChrisКрис said, after the talk.
48
153000
4000
Според мен Крис каза, че ще го подарим след разговора.
02:55
This is a robotробот that you can go out and buyКупувам, and that will cleanчист up your floorетаж.
49
157000
6000
Това е робот, който може да излезеш и да купиш, и той ще ти чисти пода.
03:05
And it startsзапочва off sortвид of just going around in ever-increasingвсе по-голям circlesкръгове.
50
167000
5000
И започва просто като се върти във все по-разширяващи се кръгове.
03:10
If it hitsхитове something -- you people see that?
51
172000
4000
Ако се удари в нещо... хора, виждате ли това?
03:14
Now it's doing wall-followingследване на стената, it's followingследното around my feetкрака
52
176000
3000
Сега започва да следва стените, заобикаля около краката ми,
03:17
to cleanчист up around me. Let's see, let's --
53
179000
4000
за да почисти около мен. Да видим, да...
03:21
oh, who stoleоткрадна my RiceОриз KrispiesKrispies? They stoleоткрадна my RiceОриз KrispiesKrispies!
54
183000
5000
о, кой ми открадна "Хрупкавите оризовки?" Откраднаха ми "Хрупкавите оризовки."
03:26
(LaughterСмях)
55
188000
6000
(Смях)
03:32
Don't worryтревожа, relaxрелакс, no, relaxрелакс, it's a robotробот, it's smartумен!
56
194000
3000
Не се безпокой, отпусни се, не, спокойно, робот е, умен е.
03:35
(LaughterСмях)
57
197000
3000
(Смях)
03:38
See, the three-year-oldтри-годишен kidsдеца, they don't worryтревожа about it.
58
200000
4000
Виждате ли, тригодишните деца не се безпокоят от това.
03:42
It's grown-upsвъзрастните that get really upsetразстроен.
59
204000
2000
Възрастните са тези, които се разстройват много.
03:44
(LaughterСмях)
60
206000
1000
(Смях)
03:45
We'llНие ще just put some crapглупости here.
61
207000
2000
Просто ще сложим малко боклук тук.
03:47
(LaughterСмях)
62
209000
4000
(Смях)
03:51
Okay.
63
213000
2000
Така.
03:53
(LaughterСмях)
64
215000
4000
(Смях)
03:57
I don't know if you see -- so, I put a bunchкуп of RiceОриз KrispiesKrispies there,
65
219000
3000
Не знам дали виждате... слагам тук куп хрупкави оризовки,
04:00
I put some penniesпари, let's just shootстрелям it at that, see if it cleansпочиства up.
66
222000
7000
слагам няколко монети, да спрем дотук, да видим дали ще почисти.
04:10
Yeah, OK. So --
67
232000
2000
Да, така. Значи...
04:12
we'llдобре leaveоставям that for laterпо късно.
68
234000
4000
ще оставим това за по-късно.
04:16
(ApplauseАплодисменти)
69
238000
5000
(Аплодисменти)
04:22
PartЧаст of the trickтрик was buildingсграда a better cleaningпочистване mechanismмеханизъм, actuallyвсъщност;
70
244000
4000
Част от номера всъщност беше изграждането на по-добър почистващ механизъм;
04:26
the intelligenceинтелигентност on boardборд was fairlyсравнително simpleпрост.
71
248000
4000
интелекта на борда беше доста прост.
04:30
And that's trueвярно with a lot of robotsроботи.
72
252000
2000
И това е вярно при много роботи.
04:32
We'veНие сме all, I think, becomeда стане, sortвид of computationalизчислителната chauvinistschauvinists,
73
254000
4000
Смятам, че всички сме станали един вид изчислителни шовинисти,
04:36
and think that computationизчисление is everything,
74
258000
2000
и мислим, че изчислението е всичко,
04:38
but the mechanicsмеханика still matterвъпрос.
75
260000
2000
но механиката все още има значение.
04:40
Here'sТук е anotherоще robotробот, the PackBotPackBot,
76
262000
3000
Ето друг робот, ПакБот,
04:43
that we'veние имаме been buildingсграда for a bunchкуп of yearsгодини.
77
265000
2000
който изграждаме от няколко години.
04:45
It's a militaryвоенен surveillanceнаблюдение robotробот, to go in aheadнапред of troopsвойска --
78
267000
6000
Това е робот за военно наблюдение, който да влиза пред войниците,
04:51
looking at cavesпещери, for instanceинстанция.
79
273000
3000
да разглежда пещери, например.
04:54
But we had to make it fairlyсравнително robustздрав,
80
276000
2000
Но трябваше да го направим доста як,
04:56
much more robustздрав than the robotsроботи we buildпострои in our labsлаборатории.
81
278000
7000
много по-як от роботите, които изграждаме в нашите лаборатории.
05:03
(LaughterСмях)
82
285000
3000
(Смях)
05:12
On boardборд that robotробот is a PCPC runningбягане LinuxLinux.
83
294000
4000
На борда на този робот има персонален компютър, на който върви с "Линукс".
05:16
It can withstandиздържат a 400G shockшок. The robotробот has localместен intelligenceинтелигентност:
84
298000
6000
Може да понесе шок от 400G. Роботът има локален интелект;
05:22
it can flipфлип itselfсебе си over, can get itselfсебе си into communicationобщуване rangeдиапазон,
85
304000
6000
може да се преобърне, може да навлезе сам в комуникационния обсег,
05:28
can go upstairsгорния етаж by itselfсебе си, etЕТ ceteraт.н..
86
310000
3000
може да се качва на горния етаж сам, и така нататък.
05:38
Okay, so it's doing localместен navigationнавигация there.
87
320000
4000
Така, значи тук прави местна навигация.
05:42
A soldierвойник givesдава it a commandкоманда to go upstairsгорния етаж, and it does.
88
324000
6000
Един войник му дава команда да се качи горе, и той го прави.
05:49
That was not a controlledконтролиран descentспускане.
89
331000
3000
Това не беше контролирано слизане.
05:52
(LaughterСмях)
90
334000
2000
(Смях)
05:54
Now it's going to headглава off.
91
336000
2000
Сега ще си тръгне.
05:56
And the bigголям breakthroughпробив for these robotsроботи, really, was SeptemberСептември 11thтата.
92
338000
5000
А големият пробив за тези роботи всъщност беше 11-ти септември.
06:01
We had the robotsроботи down at the WorldСветът TradeТърговия CenterЦентър lateкъсен that eveningвечер.
93
343000
4000
Изпратихме роботите долу в Световния търговски център късно онази вечер.
06:06
Couldn'tНе можех да do a lot in the mainосновен rubbleчакъл pileкупчина,
94
348000
2000
Не можехме да сторим много в основния куп отломки,
06:08
things were just too -- there was nothing left to do.
95
350000
3000
нещата просто бяха твърде... нямаше какво повече да се направи.
06:11
But we did go into all the surroundingобграждащ buildingsсгради that had been evacuatedевакуирани,
96
353000
5000
Но влязохме във всички околни сгради, които се евакуираха
06:16
and searchedтърсене for possibleвъзможен survivorsоцелели in the buildingsсгради
97
358000
3000
и търсехме възможни оцелели в сградите,
06:19
that were too dangerousопасно to go into.
98
361000
2000
в които беше твърде опасно да се влиза.
06:21
Let's runтичам this videoвидео.
99
363000
2000
Да пуснем това видео.
06:23
ReporterРепортер: ...battlefieldбойното поле companionsдругари are helpingподпомагане to reduceнамаляване на the combatбитка risksрискове.
100
365000
3000
Репортер: ...другари на бойното поле помагат за намаляване на бойните рискове.
06:26
NickНик RobertsonРобъртсън has that storyистория.
101
368000
3000
Ник Робъртсън с тази история.
06:31
RodneyРодни BrooksБрукс: Can we have anotherоще one of these?
102
373000
2000
Родни Брукс: Може ли още един от тези?
06:38
Okay, good.
103
380000
2000
Така, добре.
06:43
So, this is a corporalефрейтор who had seenвидян a robotробот two weeksседмици previouslyпреди това.
104
385000
3000
Това ефрейтор, който е видял робот преди две седмици.
06:48
He's sendingизпращане robotsроботи into cavesпещери, looking at what's going on.
105
390000
4000
Той изпраща роботи в пещери, за да гледа какво става.
06:52
The robot'sна робота beingсъщество totallyнапълно autonomousавтономен.
106
394000
2000
Роботът е напълно автономен.
06:54
The worstнай-лошото thing that's happenedсе случи in the caveПещерата so farдалече
107
396000
4000
Най-лошото, което се е случило в пещерата досега
06:58
was one of the robotsроботи fellпадна down tenдесет metersм.
108
400000
3000
е, че един от роботите паднал от десет метра височина.
07:08
So one yearгодина agoпреди, the US militaryвоенен didn't have these robotsроботи.
109
410000
3000
Преди една година военните в САЩ нямаха тези роботи.
07:11
Now they're on activeактивен dutyмито in AfghanistanАфганистан everyвсеки day.
110
413000
2000
Сега те са на активна служба в Афганистан всеки ден.
07:13
And that's one of the reasonsпричини they say a robotробот invasionинвазия is happeningслучва.
111
415000
3000
И това е една от причините да казват, че се случва нашествие на роботи.
07:16
There's a seaморе changeпромяна happeningслучва in how -- where technology'sтехнология going.
112
418000
4000
Случва се трансформация в това как... накъде върви технологията.
07:20
ThanksБлагодаря.
113
422000
2000
Благодаря.
07:23
And over the nextследващия coupleдвойка of monthsмесеца,
114
425000
2000
И в течение на следащите два месеца
07:25
we're going to be sendingизпращане robotsроботи in productionпроизводство
115
427000
3000
ще изпращаме роботи в производството,
07:28
down producingпроизводство oilмасло wellsУелс to get that last fewмалцина yearsгодини of oilмасло out of the groundприземен.
116
430000
4000
в действащи петролни кладенци, за да извадят тези малко последни години петрол от земята.
07:32
Very hostileвраждебен environmentsсреди, 150˚ C, 10,000 PSIPSI.
117
434000
4000
Много враждебна среда, 150 градуса по Целзий, 10 000 паунда на квадратен инч (69 MPa).
07:36
AutonomousАвтономни robotsроботи going down, doing this sortвид of work.
118
438000
4000
Автономни роботи слизат и вършат този тип работа.
07:40
But robotsроботи like this, they're a little hardтвърд to programпрограма.
119
442000
3000
Но такива роботи са малко трудни за програмиране.
07:43
How, in the futureбъдеще, are we going to programпрограма our robotsроботи
120
445000
2000
Как в бъдеще ще програмираме роботите си
07:45
and make them easierпо-лесно to use?
121
447000
2000
и ще ги правим по-лесни за употреба?
07:47
And I want to actuallyвсъщност use a robotробот here --
122
449000
3000
Всъщност, искам да използвам робот тук...
07:50
a robotробот namedна име ChrisКрис -- standстоя up. Yeah. Okay.
123
452000
5000
робот на име Крис... стани. Да. Така.
07:57
Come over here. Now noticeизвестие, he thinksмисли robotsроботи have to be a bitмалко stiffтвърд.
124
459000
4000
Ела тук. Забележете, той мисли, че роботите трябва да са малко сковани.
08:01
He sortвид of does that. But I'm going to --
125
463000
3000
Някак го прави. Но аз ще...
08:04
ChrisКрис AndersonАндерсън: I'm just BritishБритански. RBRB: Oh.
126
466000
2000
Крис Андерсън: Просто съм британец. РБ: О.
08:06
(LaughterСмях)
127
468000
2000
(Смях)
08:08
(ApplauseАплодисменти)
128
470000
2000
(Аплодисменти)
08:10
I'm going to showшоу this robotробот a taskзадача. It's a very complexкомплекс taskзадача.
129
472000
3000
Ще покажа на този робот една задача. Много сложна задача.
08:13
Now noticeизвестие, he noddedкимна there, he was givingдавайки me some indicationпосочване
130
475000
3000
Забележете, той кимна - показваше ми,
08:16
he was understandingразбиране the flowпоток of communicationобщуване.
131
478000
3000
че разбира потока на комуникация.
08:19
And if I'd said something completelyнапълно bizarreстранни
132
481000
2000
И ако бях казал нещо напълно странно,
08:21
he would have lookedпогледнах askanceподозрително at me, and regulatedрегулиран the conversationразговор.
133
483000
3000
той би ме погледнал въпросително и би регулирал разговора.
08:24
So now I broughtдонесе this up in frontпреден of him.
134
486000
3000
И така, сега донесох това пред него.
08:27
I'd lookedпогледнах at his eyesочи, and I saw his eyesочи lookedпогледнах at this bottleбутилка topвръх.
135
489000
4000
Погледнах го в очите и видях, че очите му гледат горната част на тази бутилка.
08:31
And I'm doing this taskзадача here, and he's checkingпроверка up.
136
493000
2000
Аз върша тази задача тук, а той проверява.
08:33
His eyesочи are going back and forthнапред up to me, to see what I'm looking at --
137
495000
3000
Очите му се движат напред-назад, нагоре към мен, за да види какво гледам,
08:36
so we'veние имаме got sharedсподелено attentionвнимание.
138
498000
2000
така че имаме споделено внимание.
08:38
And so I do this taskзадача, and he looksвъншност, and he looksвъншност to me
139
500000
3000
И така, аз върша тази задача, а той гледа, и гледа към мен,
08:41
to see what's happeningслучва nextследващия. And now I'll give him the bottleбутилка,
140
503000
4000
за да види какво ще се случи. Сега му давам бутилката
08:45
and we'llдобре see if he can do the taskзадача. Can you do that?
141
507000
2000
и ще видим може ли да изпълни задачата. Можеш ли да направиш това?
08:47
(LaughterСмях)
142
509000
3000
(Смях)
08:50
Okay. He's prettyкрасива good. Yeah. Good, good, good.
143
512000
4000
Така. Доста е добър. Да. Добре, добре, добре.
08:54
I didn't showшоу you how to do that.
144
516000
2000
Не съм ти показвал как се прави това.
08:56
Now see if you can put it back togetherзаедно.
145
518000
2000
А сега, да видим дали можеш да я поставиш обратно.
08:58
(LaughterСмях)
146
520000
2000
(Смях)
09:00
And he thinksмисли a robotробот has to be really slowбавен.
147
522000
1000
И мисли, че роботът трябва да е много бавен.
09:01
Good robotробот, that's good.
148
523000
2000
Добър робот, браво.
09:03
So we saw a bunchкуп of things there.
149
525000
2000
И така, видяхме куп неща тук.
09:06
We saw when we're interactingвзаимодействащи,
150
528000
3000
Видяхме, че когато взаимодействаме,
09:09
we're tryingопитвайки to showшоу someoneнякой how to do something, we directдиректен theirтехен visualзрителен attentionвнимание.
151
531000
4000
се опитваме да покажем на някого как да прави нещо, насочваме визуалното му внимание.
09:13
The other thing communicatesкомуникира theirтехен internalвътрешен stateсъстояние to us,
152
535000
4000
Другото нещо комуникира вътрешното му състояние към нас,
09:17
whetherдали he's understandingразбиране or not, regulatesрегулира a socialсоциален interactionвзаимодействие.
153
539000
3000
дали разбира, или не, регулира социално взаимодействие.
09:20
There was sharedсподелено attentionвнимание looking at the sameедин и същ sortвид of thing,
154
542000
2000
Имаше споделено внимание, докато гледахме едно и също,
09:22
and recognizingпризнаването sociallyсоциално communicatedсъобщена reinforcementармировка at the endкрай.
155
544000
4000
и признаване на социално комуникирано потвърждение накрая.
09:26
And we'veние имаме been tryingопитвайки to put that into our labлаборатория robotsроботи
156
548000
3000
Опитваме се да вкараме това в лабораторните си роботи,
09:29
because we think this is how you're going to want to interactвзаимодействат with robotsроботи in the futureбъдеще.
157
551000
4000
защото смятаме, че така ще е желателно да се взаимодейства с роботите в бъдеще.
09:33
I just want to showшоу you one technicalтехнически diagramдиаграма here.
158
555000
2000
Само искам да ви покажа една техническа диаграма тук.
09:35
The mostнай-много importantважно thing for buildingсграда a robotробот that you can interactвзаимодействат with sociallyсоциално
159
557000
4000
Най-важното за създаване на робот, с когото да можеш да взаимодействаш социално,
09:39
is its visualзрителен attentionвнимание systemсистема.
160
561000
2000
е системата му за визуално внимание.
09:41
Because what it paysплаща attentionвнимание to is what it's seeingвиждане
161
563000
3000
Защото онова, на което обръща внимание, е онова, което вижда
09:44
and interactingвзаимодействащи with, and what you're understandingразбиране what it's doing.
162
566000
3000
и с което взаимодейства и разбирате какво прави.
09:47
So in the videosвидеоклипове I'm about to showшоу you,
163
569000
3000
Във видеоклиповете, които ще ви покажа,
09:50
you're going to see a visualзрителен attentionвнимание systemсистема on a robotробот
164
572000
4000
ще видите система за визуално внимание в робот,
09:54
whichкойто has -- it looksвъншност for skinкожа toneтон in HSVHSV spaceпространство,
165
576000
4000
който има... търси цвят на кожата в HSV пространството,
09:58
so it worksвърши работа acrossпрез all humanчовек coloringsоцветители.
166
580000
4000
така че работи през всички човешки разцветки.
10:02
It looksвъншност for highlyсилно saturatedнаситен colorsцветове, from toysиграчки.
167
584000
2000
Търси силно наситени цветове, от играчки.
10:04
And it looksвъншност for things that moveход around.
168
586000
2000
Търси неща, които се движат наоколо.
10:06
And it weightsтежести those togetherзаедно into an attentionвнимание windowпрозорец,
169
588000
3000
Претегля ги заедно в прозорец за внимание
10:09
and it looksвъншност for the highest-scoringнай добър placeмясто --
170
591000
2000
и търси мястото с най-висок резултат...
10:11
the stuffматерия where the mostнай-много interestingинтересен stuffматерия is happeningслучва --
171
593000
2000
къде се случва най-интересното нещо.
10:13
and that is what its eyesочи then segueSegue to.
172
595000
4000
И тогава към това се насочват очите му.
10:17
And it looksвъншност right at that.
173
599000
2000
Гледа право към това.
10:19
At the sameедин и същ time, some top-downотгоре надолу sortвид of stuffматерия:
174
601000
3000
В същото време, подреждане на приоритети:
10:22
mightбиха могли, може decideреши that it's lonelyсамотен and look for skinкожа toneтон,
175
604000
3000
може да реши, че е самотен, и да търси цвят на кожата,
10:25
or mightбиха могли, може decideреши that it's boredотегчен and look for a toyиграчка to playиграя with.
176
607000
3000
или може да реши, че му е скучно, и да потърси играчка, с която да играе.
10:28
And so these weightsтежести changeпромяна.
177
610000
2000
Така че тези тежести се променят.
10:30
And over here on the right,
178
612000
2000
А ето тук, вдясно,
10:32
this is what we call the StevenСтивън SpielbergСпилбърг memorialпаметник moduleмодул.
179
614000
3000
това наричаме мемориален модул "Стивън Спилбърг".
10:35
Did people see the movieфилм "AIAI"? (AudienceАудитория: Yes.)
180
617000
2000
Хората гледали ли са филма "Изкуствен интелект"? Публика: Да.
10:37
RBRB: Yeah, it was really badлошо, but --
181
619000
2000
РБ: Да, наистина беше лош, но...
10:39
rememberпомня, especiallyособено when HaleyХейли JoelДжоел OsmentOsment, the little robotробот,
182
621000
4000
помните ли, особено когато Хейли Джоел Осмънт, малкият робот,
10:43
lookedпогледнах at the blueсин fairyфея for 2,000 yearsгодини withoutбез takingприемате his eyesочи off it?
183
625000
4000
гледа синята фея 2000 години, без да свали очи от нея?
10:47
Well, this getsполучава ridизбавям of that,
184
629000
2000
Е, този се отървава от това,
10:49
because this is a habituationпривикване GaussianГаусов that getsполучава negativeотрицателен,
185
631000
4000
защото това е гаусиански за привикване, който става негативен,
10:53
and more and more intenseинтензивен as it looksвъншност at one thing.
186
635000
3000
и все по-интензивен, като гледа едно нещо.
10:56
And it getsполучава boredотегчен, so it will then look away at something elseоще.
187
638000
3000
И му доскучава, така че после ще отклони поглед към нещо друго.
10:59
So, onceведнъж you've got that -- and here'sето a robotробот, here'sето KismetKismet,
188
641000
4000
Щом веднъж имаш това... ето един робот, ето го Късмет,
11:03
looking around for a toyиграчка. You can tell what it's looking at.
189
645000
4000
който се оглежда наоколо за играчка. Ясно е какво гледа.
11:07
You can estimateприблизителна оценка its gazeПогледът directionпосока from those eyeballsочните ябълки coveringпокриващи its cameraкамера,
190
649000
5000
Може да се установи посоката на погледа му от тези очни ябълки, покриващи камерата му,
11:12
and you can tell when it's actuallyвсъщност seeingвиждане the toyиграчка.
191
654000
3000
и може да се види кога всъщност вижда играчката.
11:15
And it's got a little bitмалко of an emotionalемоционален responseотговор here.
192
657000
2000
Тук има малко емоционален отклик.
11:17
(LaughterСмях)
193
659000
1000
(Смях)
11:18
But it's still going to payплащам attentionвнимание
194
660000
2000
Но все пак ще обърне внимание,
11:20
if something more significantзначителен comesидва into its fieldполе of viewизглед --
195
662000
4000
ако в зрителното му поле влезе нещо по-значително...
11:24
suchтакъв as CynthiaСинтия BreazealBreazeal, the builderстроител of this robotробот, from the right.
196
666000
4000
като Синтия Брийзъл, създателят на този робот... отдясно.
11:28
It seesвижда her, paysплаща attentionвнимание to her.
197
670000
5000
Вижда я, обръща й внимание.
11:33
KismetKismet has an underlyingосновните, three-dimensionalтриизмерен emotionalемоционален spaceпространство,
198
675000
4000
Късмет има скрито триизмерно емоционално пространство,
11:37
a vectorвектор spaceпространство, of where it is emotionallyемоционално.
199
679000
3000
векторно пространство, къде се намира емоционално.
11:40
And at differentразличен placesместа in that spaceпространство, it expressesизразява --
200
682000
5000
И на различни места в това пространство изразява...
11:46
can we have the volumeсила на звука on here?
201
688000
2000
може ли да увеличим звука тук?
11:48
Can you hearчувам that now, out there? (AudienceАудитория: Yeah.)
202
690000
2000
Чувате ли сега там? Публика: Да.
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Късмет: Наистина ли мислиш така? Наистина ли мислиш така?
11:57
Do you really think so?
204
699000
2000
Наистина ли мислиш така?
12:00
RBRB: So it's expressingизразявайки its emotionемоция throughпрез its faceлице
205
702000
3000
РБ: Той изразява емоцията си чрез лицето
12:03
and the prosodyпрозодия in its voiceглас.
206
705000
2000
и прозодията в гласа си.
12:05
And when I was dealingотношение with my robotробот over here,
207
707000
4000
А когато се занимавах с моя робот ей там,
12:09
ChrisКрис, the robotробот, was measuringизмерване the prosodyпрозодия in my voiceглас,
208
711000
3000
Крис, роботът, измерваше прозодията в гласа им,
12:12
and so we have the robotробот measureмярка prosodyпрозодия for fourчетирима basicосновен messagesсъобщения
209
714000
5000
и така роботът измерва прозодия за четири основни послания,
12:17
that mothersмайки give theirтехен childrenдеца pre-linguisticallypre-linguistically.
210
719000
4000
които майките дават на децата си пред-лингвистично.
12:21
Here we'veние имаме got naiveнаивен subjectsучебни предмети praisingхвали the robotробот:
211
723000
3000
Тук наивни субекти възхваляват робота.
12:26
VoiceГлас: NiceХубаво robotробот.
212
728000
2000
Глас: Добър робот.
12:29
You're suchтакъв a cuteСладък little robotробот.
213
731000
2000
Ти си такъв хубав малък робот
12:31
(LaughterСмях)
214
733000
2000
(Смях)
12:33
RBRB: And the robot'sна робота reactingвзаимодействие на appropriatelyподходящо.
215
735000
2000
И роботът реагира подходящо.
12:35
VoiceГлас: ...very good, KismetKismet.
216
737000
4000
Глас: ...много добре, Късмет.
12:40
(LaughterСмях)
217
742000
2000
(Смях)
12:42
VoiceГлас: Look at my smileусмивка.
218
744000
2000
Глас: Погледни усмивката ми.
12:46
RBRB: It smilesусмивки. She imitatesимитира the smileусмивка. This happensслучва се a lot.
219
748000
3000
РБ: Усмихва се. Тя имитира усмивката. Това се случва често.
12:49
These are naiveнаивен subjectsучебни предмети.
220
751000
2000
Това са наивни субекти.
12:51
Here we askedпопитах them to get the robot'sна робота attentionвнимание
221
753000
3000
Тук ги помолихме да привлекат вниманието на робота
12:54
and indicateпосочат when they have the robot'sна робота attentionвнимание.
222
756000
3000
и да покажат, когато вниманието на робота е насочено към тях.
12:57
VoiceГлас: Hey, KismetKismet, ahах, there it is.
223
759000
4000
Глас: Хей, Късмет, а, ето го.
13:01
RBRB: So she realizesосъзнава she has the robot'sна робота attentionвнимание.
224
763000
4000
РБ: Тя осъзнава, че е привлякла вниманието на робота.
13:08
VoiceГлас: KismetKismet, do you like the toyиграчка? Oh.
225
770000
4000
Глас: Късмет, харесва ли ти играчката? О.
13:13
RBRB: Now, here they're askedпопитах to prohibitзабрани the robotробот,
226
775000
2000
РБ: Тук са помолени да забранят на робота,
13:15
and this first womanжена really pushesизбутва the robotробот into an emotionalемоционален cornerъглов.
227
777000
4000
и пърата жена наистина притиска робота в ъгъла емоционално.
13:19
VoiceГлас: No. No. You're not to do that. No.
228
781000
5000
Глас: Не. Не. Не бива да правиш това. Не.
13:24
(LaughterСмях)
229
786000
3000
(Смях)
13:27
Not appropriateподходящ. No. No.
230
789000
6000
Глас: Не е подходящо. Не. Не.
13:33
(LaughterСмях)
231
795000
3000
(Смях)
13:36
RBRB: I'm going to leaveоставям it at that.
232
798000
2000
РБ: Ще го оставя дотук.
13:38
We put that togetherзаедно. Then we put in turnзавой takingприемате.
233
800000
2000
Сглобяваме това. После поставяме редуване.
13:40
When we talk to someoneнякой, we talk.
234
802000
3000
Когато разговаряме с някого, говорим.
13:43
Then we sortвид of raiseповишаване на our eyebrowsвежди, moveход our eyesочи,
235
805000
4000
После някак вдигаме вежди, движим очи,
13:47
give the other personчовек the ideaидея it's theirтехен turnзавой to talk.
236
809000
3000
даваме на другото лице идеята, че е негов ред да говори.
13:50
And then they talk, and then we passминавам the batonполицейска палка back and forthнапред betweenмежду eachвсеки other.
237
812000
4000
Тогава той говори, а после си предаваме диригентската палка напред-назад помежду си.
13:54
So we put this in the robotробот.
238
816000
2000
Значи, слагаме това в робота.
13:56
We got a bunchкуп of naiveнаивен subjectsучебни предмети in,
239
818000
2000
Имаме куп наивни субекти вътре,
13:58
we didn't tell them anything about the robotробот,
240
820000
2000
не сме им казали нищо за робота,
14:00
satсб them down in frontпреден of the robotробот and said, talk to the robotробот.
241
822000
2000
сложихме ги да седнат пред робота и казахме, говорете с робота.
14:02
Now what they didn't know was,
242
824000
2000
Онова, което знаеха, беше,
14:04
the robotробот wasn'tне е understandingразбиране a wordдума they said,
243
826000
2000
че роботът не разбира и дума от това, което казват,
14:06
and that the robotробот wasn'tне е speakingговорещ EnglishАнглийски.
244
828000
3000
и че роботът не говори английски.
14:09
It was just sayingпоговорка randomслучаен EnglishАнглийски phonemesфонеми.
245
831000
2000
Просто казваше произволни английски фонеми.
14:11
And I want you to watch carefullyвнимателно, at the beginningначало of this,
246
833000
2000
Искам да гледате внимателно в началото,
14:13
where this personчовек, RitchieРичи, who happenedсе случи to talk to the robotробот for 25 minutesминути --
247
835000
4000
където този човек, Ричи, който говори с робота 25 минути...
14:17
(LaughterСмях)
248
839000
2000
(Смях)
14:19
-- saysказва, "I want to showшоу you something.
249
841000
2000
...казва: "Искам да ти покажа нещо.
14:21
I want to showшоу you my watch."
250
843000
2000
Искам да ти покажа ръчния си часовник."
14:23
And he bringsноси the watch centerцентър, into the robot'sна робота fieldполе of visionзрение,
251
845000
5000
И поставя центъра на часовника в зрителното поле на робота,
14:28
pointsточки to it, givesдава it a motionдвижение cueщека,
252
850000
2000
сочи към него, прави емоционално загатване
14:30
and the robotробот looksвъншност at the watch quiteсъвсем successfullyуспешно.
253
852000
2000
и роботът поглежда часовника доста успешно.
14:32
We don't know whetherдали he understoodразбрах or not that the robotробот --
254
854000
3000
Не знаем дали е разбрал, или не, че роботът...
14:36
NoticeБележка the turn-takingвземане на завой.
255
858000
2000
Забележете как се редуват.
14:38
RitchieРичи: OK, I want to showшоу you something. OK, this is a watch
256
860000
3000
Ричи: Така, искам да ти покажа нещо. Така, това е часовник,
14:41
that my girlfriendприятелка gaveдадох me.
257
863000
3000
който ми подари моята приятелка.
14:44
RobotРобот: Oh, coolготино.
258
866000
2000
Робот: О, страхотно.
14:46
RitchieРичи: Yeah, look, it's got a little blueсин lightсветлина in it too. I almostпочти lostзагубен it this weekседмица.
259
868000
4000
Ричи: Да, виж, вътре има и малка синя лампичка. Едва не го изгубих тая седмица.
14:51
(LaughterСмях)
260
873000
4000
(Смях)
14:55
RBRB: So it's makingприготвяне eyeоко contactконтакт with him, followingследното his eyesочи.
261
877000
3000
РБ: Той улавя погледа му, следва очите му.
14:58
RitchieРичи: Can you do the sameедин и същ thing? RobotРобот: Yeah, sure.
262
880000
2000
Ричи: Можеш ли да правиш същото? Робот: Да, рабира се.
15:00
RBRB: And they successfullyуспешно have that sortвид of communicationобщуване.
263
882000
2000
РБ: И успешно комуникират по този начин.
15:02
And here'sето anotherоще aspectаспект of the sortsвидове of things that ChrisКрис and I were doing.
264
884000
4000
Ето още един аспект от типа неща, които правим с Крис.
15:06
This is anotherоще robotробот, CogЗъб.
265
888000
2000
Това е друг робот, Ког.
15:08
They first make eyeоко contactконтакт, and then, when ChristieКристи looksвъншност over at this toyиграчка,
266
890000
6000
Първо срещат погледи, а после, щом Кристи поглежда тази играчка,
15:14
the robotробот estimatesоценка her gazeПогледът directionпосока
267
896000
2000
роботът установява посоката на взора й
15:16
and looksвъншност at the sameедин и същ thing that she's looking at.
268
898000
2000
и поглежда същото, което гледа и тя.
15:18
(LaughterСмях)
269
900000
1000
(Смях)
15:19
So we're going to see more and more of this sortвид of robotробот
270
901000
3000
Ще виждаме този вид робот все повече и повече
15:22
over the nextследващия fewмалцина yearsгодини in labsлаборатории.
271
904000
2000
през следващите години в лабораториите.
15:24
But then the bigголям questionsвъпроси, two bigголям questionsвъпроси that people askпитам me are:
272
906000
5000
А после - големите въпроси, два големи въпроса, които хората ми задават, са:
15:29
if we make these robotsроботи more and more human-likeчовешки-подобна,
273
911000
2000
ако правим тези роботи все по-човекоподобни,
15:31
will we acceptприемам them, will we -- will they need rightsправа eventuallyв крайна сметка?
274
913000
5000
ще ги приемем ли, дали... дали ще са им нужни права в крайна сметка?
15:36
And the other questionвъпрос people askпитам me is, will they want to take over?
275
918000
3000
А другият въпрос, който хората ми задават е: те ще искат ли да надделеят?
15:39
(LaughterСмях)
276
921000
1000
(Смях)
15:40
And on the first -- you know, this has been a very HollywoodХоливуд themeтема
277
922000
3000
По първия - знаете ли, това е много холивудска тема
15:43
with lots of moviesкино. You probablyвероятно recognizeпризнавам these charactersзнаци here --
278
925000
3000
с много филми. Вероятно разпознавате тези герои тук...
15:46
where in eachвсеки of these casesслучаи, the robotsроботи want more respectотношение.
279
928000
4000
във всеки от тези случаи роботите искат повече уважение.
15:50
Well, do you ever need to give robotsроботи respectотношение?
280
932000
3000
Е, нужно ли е някога да се дава уважение на роботите?
15:54
They're just machinesмашини, after all.
281
936000
2000
Те са просто машини, в крайна сметка.
15:56
But I think, you know, we have to acceptприемам that we are just machinesмашини.
282
938000
4000
Но според мен трябва да приемем, че ние сме просто машини.
16:00
After all, that's certainlyразбира се what modernмодерен molecularмолекулен biologyбиология saysказва about us.
283
942000
5000
В крайна сметка това твърди за нас модерната молекулярна биология.
16:05
You don't see a descriptionописание of how, you know,
284
947000
3000
Не се вижда описание за това как
16:08
MoleculeМолекула A, you know, comesидва up and docksдокове with this other moleculeмолекула.
285
950000
4000
молекула А, разбирате ли, идва и се събира с тази друга молекула.
16:12
And it's movingдвижещ forwardнапред, you know, propelledпредизвикано by variousразлични chargesобвинения,
286
954000
3000
И тя се движи напред, разбирате ли, тласкана от различни заряди,
16:15
and then the soulдуша stepsстъпки in and tweaksощипвам those moleculesмолекули so that they connectсвържете.
287
957000
4000
и тогава душата влиза и побутва онези молекули, така че да се свържат.
16:19
It's all mechanisticмеханистични. We are mechanismмеханизъм.
288
961000
3000
Всичко е механично, ние сме механизъм.
16:22
If we are machinesмашини, then in principleпринцип at leastнай-малко,
289
964000
3000
Ако ние сме машини, тогава поне по принцип
16:25
we should be ableспособен to buildпострои machinesмашини out of other stuffматерия,
290
967000
4000
трябва да сме в състояние да създаваме машини от други неща,
16:29
whichкойто are just as aliveжив as we are.
291
971000
4000
също така живи, колкото сме и ние.
16:33
But I think for us to admitпризнавам that,
292
975000
2000
Но мисля, че за да признаем това,
16:35
we have to give up on our special-nessспециални-ност, in a certainопределен way.
293
977000
3000
трябва да се откажем от своята специалност, в известен смисъл.
16:38
And we'veние имаме had the retreatотстъпление from special-nessспециални-ност
294
980000
2000
Оттегляли сме се от специалност
16:40
underпри the barrageбараж of scienceнаука and technologyтехнология manyмного timesпъти
295
982000
3000
под заграждението на науката и технологията много пъти,
16:43
over the last fewмалцина hundredсто yearsгодини, at leastнай-малко.
296
985000
2000
поне през последните няколкостотин години.
16:45
500 yearsгодини agoпреди we had to give up the ideaидея
297
987000
2000
Преди 500 години трябвало да се откажем от идеята,
16:47
that we are the centerцентър of the universeвселена
298
989000
3000
че сме центърът на Вселената,
16:50
when the earthземя startedзапочна to go around the sunслънце;
299
992000
2000
когато Земята започнала да се върти около Слънцето;
16:52
150 yearsгодини agoпреди, with DarwinДарвин, we had to give up the ideaидея we were differentразличен from animalsживотни.
300
994000
5000
преди 150 години, с Дарвин, трябвало да се откажем от идеята, че сме различни от животните.
16:57
And to imagineПредставете си -- you know, it's always hardтвърд for us.
301
999000
3000
И да си представим... знаете ли, винаги ни е трудно.
17:00
RecentlyНаскоро we'veние имаме been batteredочукан with the ideaидея that maybe
302
1002000
3000
Наскоро ни обстреляха с идеята, че може би
17:03
we didn't even have our ownсобствен creationсъздаване eventсъбитие, here on earthземя,
303
1005000
2000
дори нямаме собствено събитие за създаване тук, на Земята,
17:05
whichкойто people didn't like much. And then the humanчовек genomeгеном said,
304
1007000
3000
което не се харесва много на хората. А после - според човешкия геном
17:08
maybe we only have 35,000 genesгени. And that was really --
305
1010000
3000
може би имаме само 35 000 гени. А това беше наистина...
17:11
people didn't like that, we'veние имаме got more genesгени than that.
306
1013000
3000
на хората не им хареса, трябваше да имаме повече гени от тези.
17:14
We don't like to give up our special-nessспециални-ност, so, you know,
307
1016000
3000
Не ни харесва да се отказваме от специалността си, затова, нали разбирате,
17:17
havingкато the ideaидея that robotsроботи could really have emotionsемоции,
308
1019000
2000
идеята, че роботите всъщност биха могли да имат емоции,
17:19
or that robotsроботи could be livingжив creaturesсъздания --
309
1021000
2000
или че роботите могат да са живи създания...
17:21
I think is going to be hardтвърд for us to acceptприемам.
310
1023000
2000
мисля, че ще ни е трудно да го приемем.
17:23
But we're going to come to acceptприемам it over the nextследващия 50 yearsгодини or so.
311
1025000
4000
Но ще стигнем до това да го приемем през следващите 50 години или там някъде.
17:27
And the secondвтори questionвъпрос is, will the machinesмашини want to take over?
312
1029000
3000
А вторият въпрос е, ще искат ли машините да надделеят?
17:30
And here the standardстандарт scenarioсценарий is that we createсъздавам these things,
313
1032000
5000
Тук стандартният сценарий е, че ние създаваме тези неща,
17:35
they growрастат, we nurtureвъзпитаване them, they learnуча a lot from us,
314
1037000
3000
те израстват, ние ги отглеждаме, научават много от нас,
17:38
and then they startначало to decideреши that we're prettyкрасива boringскучно е, slowбавен.
315
1040000
4000
а после започват да решават, че сме доста скучни и бавни.
17:42
They want to take over from us.
316
1044000
2000
Искат да надделеят над нас.
17:44
And for those of you that have teenagersтийнейджъри, you know what that's like.
317
1046000
3000
Онези от вас, които имат тийнейджъри, знаят за какво става въпрос.
17:47
(LaughterСмях)
318
1049000
1000
(Смях)
17:48
But HollywoodХоливуд extendsпростира it to the robotsроботи.
319
1050000
3000
Но Холивуд го разпростира към роботите.
17:51
And the questionвъпрос is, you know,
320
1053000
3000
И въпросът е, знаете ли,
17:54
will someoneнякой accidentallyслучайно buildпострои a robotробот that takes over from us?
321
1056000
4000
дали някой случайно ще създаде робот, който да надделее над нас?
17:58
And that's sortвид of like this loneсамотен guy in the backyardзаден двор,
322
1060000
3000
Това е малко като оня самотен тип в задния двор,
18:01
you know -- "I accidentallyслучайно builtпостроен a 747."
323
1063000
3000
разбирате ли, "Случайно построих един 747".
18:04
I don't think that's going to happenстава.
324
1066000
2000
Знаете ли, според мен няма да стане така.
18:06
And I don't think --
325
1068000
2000
И не смятам...
18:08
(LaughterСмях)
326
1070000
1000
(Смях)
18:09
-- I don't think we're going to deliberatelyпреднамерено buildпострои robotsроботи
327
1071000
3000
...не смятам, че съзнателно ще създадем роботи,
18:12
that we're uncomfortableнеудобен with.
328
1074000
2000
с които не се чувстваме удобно.
18:14
We'llНие ще -- you know, they're not going to have a superсупер badлошо robotробот.
329
1076000
2000
Е... разбирате ли, няма да има супер лош робот.
18:16
Before that has to come to be a mildlyлеко badлошо robotробот,
330
1078000
3000
Преди това да стане, нали знаете, леко лош робот,
18:19
and before that a not so badлошо robotробот.
331
1081000
2000
а преди това - не толкова лош робот.
18:21
(LaughterСмях)
332
1083000
1000
(Смях)
18:22
And we're just not going to let it go that way.
333
1084000
2000
А ние просто няма да оставим нещата така.
18:24
(LaughterСмях)
334
1086000
1000
(Смях)
18:25
So, I think I'm going to leaveоставям it at that: the robotsроботи are comingидващ,
335
1087000
6000
Мисля, че ще приключа с това: роботите идват,
18:31
we don't have too much to worryтревожа about, it's going to be a lot of funшега,
336
1093000
3000
няма кой знае за какво да се притесняваме, ще бъде много забавно
18:34
and I hopeнадявам се you all enjoyнаслади се the journeyпътуване over the nextследващия 50 yearsгодини.
337
1096000
4000
и се надявам всички да се радвате на пътуването през следващите 50 години.
18:38
(ApplauseАплодисменти)
338
1100000
2000
(Аплодисменти)
Translated by MaYoMo com
Reviewed by Anton Hikov

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com