ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Rodney Brooks dice que los robots invadirán nuestras vidas

Filmed:
689,918 views

En esta charla profética, del 2003, el experto en robótica Rodney Brooks nos habla de cómo los robots van a entrar en nuestras vidas -- comenzando por los juguetes y pasando a los electrodomésticos para el hogar... y más allá.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todayhoy is how I see robotsrobots invadinginvadiendo our livesvive
0
0
5000
De lo que quiero hablarles hoy es de cómo veo a los robots invadiendo nuestras vidas
00:23
at multiplemúltiple levelsniveles, over multiplemúltiple timescalesescalas de tiempo.
1
5000
3000
en múltiples niveles y líneas de tiempo.
00:26
And when I look out in the futurefuturo, I can't imagineimagina a worldmundo, 500 yearsaños from now,
2
8000
4000
Y cuando miro hacia el futuro, no puedo imaginarme un mundo, 500 años a partir de ahora,
00:30
where we don't have robotsrobots everywhereen todos lados.
3
12000
2000
en el cual no tengamos robots por todas partes,
00:32
AssumingAsumiendo -- despiteA pesar de all the direterrible predictionspredicciones from manymuchos people about our futurefuturo --
4
14000
5000
suponiendo que -- a pesar de todas las espantosas predicciones que mucha gente hace sobre nuestro futuro --
00:37
assumingasumiendo we're still around, I can't imagineimagina the worldmundo not beingsiendo populatedpoblado with robotsrobots.
5
19000
4000
suponiendo que todavía estemos por aquí, no puedo imaginar el mundo no estando poblado por robots.
00:41
And then the questionpregunta is, well, if they're going to be here in 500 yearsaños,
6
23000
3000
Y luego la pregunta es, bueno, si ellos van a estar por aquí en 500 años,
00:44
are they going to be everywhereen todos lados soonercuanto antes than that?
7
26000
2000
¿estarán por todas partes antes de ese tiempo?
00:46
Are they going to be around in 50 yearsaños?
8
28000
2000
¿Estarán por aquí dentro de 50 años?
00:48
Yeah, I think that's prettybonita likelyprobable -- there's going to be lots of robotsrobots everywhereen todos lados.
9
30000
3000
Sí, pienso que es muy probable -- habrá muchos robots por todas partes.
00:51
And in facthecho I think that's going to be a lot soonercuanto antes than that.
10
33000
3000
Y, de hecho, pienso que eso ocurrirá mucho antes.
00:54
I think we're sortordenar of on the cuspcúspide of robotsrobots becomingdevenir commoncomún,
11
36000
4000
Pienso que estamos a punto de que los robots se vuelvan cosa común
00:58
and I think we're sortordenar of around 1978 or 1980 in personalpersonal computercomputadora yearsaños,
12
40000
6000
y pienso que estamos como en 1978 ó 1980 en años de las computadoras personales
01:04
where the first fewpocos robotsrobots are startingcomenzando to appearAparecer.
13
46000
3000
cuando los primeros robots están comenzando a aparecer.
01:07
ComputersOrdenadores sortordenar of camevino around throughmediante gamesjuegos and toysjuguetes.
14
49000
4000
Las computadoras comenzaron a llegar a través de juegos de video y de juguetes.
01:11
And you know, the first computercomputadora mostmás people had in the housecasa
15
53000
3000
Y, saben, la primera computadora que muchas personas tuvieron en sus casas
01:14
maymayo have been a computercomputadora to playjugar PongApestar,
16
56000
2000
puede haber sido una para jugar Pong,
01:16
a little microprocessormicroprocesador embeddedincrustado,
17
58000
2000
con un pequeño microprocesador integrado,
01:18
and then other gamesjuegos that camevino after that.
18
60000
3000
y luego algunos otros juegos de video que vinieron después de ese.
01:21
And we're startingcomenzando to see that samemismo sortordenar of thing with robotsrobots:
19
63000
3000
Y estamos comenzado a ver el mismo tipo de cosas con los robots:
01:24
LEGOLEGO MindstormsMindstorms, FurbiesFurbies -- who here -- did anyonenadie here have a FurbyFurby?
20
66000
4000
LEGO Mindstorms, Furbies -- los cuales -- ¿alguien aquí tuvo un Furby?
01:28
Yeah, there's 38 millionmillón of them soldvendido worldwideen todo el mundo.
21
70000
3000
Claro, hay 38 millones vendidos a nivel mundial.
01:31
They are prettybonita commoncomún. And they're a little tinyminúsculo robotrobot,
22
73000
2000
Son muy comunes, y son un pequeño robot,
01:33
a simplesencillo robotrobot with some sensorssensores,
23
75000
2000
un robot simple con algunos sensores.
01:35
a little bitpoco of processingtratamiento actuationactuación.
24
77000
2000
Es un poco de procesamiento causal.
01:37
On the right there is anotherotro robotrobot dollmuñeca, who you could get a couplePareja of yearsaños agohace.
25
79000
3000
A la derecha vemos otra muñeca robot, la que podían obtener hace un par de años.
01:40
And just as in the earlytemprano daysdías,
26
82000
2000
Y tal como en los primeros días,
01:42
when there was a lot of sortordenar of amateuraficionado interactionInteracción over computersordenadores,
27
84000
5000
cuando había mucha interacción de aficionados a las computadoras,
01:47
you can now get variousvarios hackingseco kitskits, how-to-hackcomo hackear bookslibros.
28
89000
4000
pueden obtener ahora muchos juegos para armar robots, y libros de cómo armar robots.
01:51
And on the left there is a platformplataforma from EvolutionEvolución RoboticsRobótica,
29
93000
4000
Y a la izquierda hay una plataforma de Evolution Robotics,
01:55
where you put a PCordenador personal on, and you programprograma this thing with a GUIGUI
30
97000
3000
a la cual conectas una PC, y programas esto con una Interfaz Gráfica
01:58
to wanderdeambular around your housecasa and do variousvarios stuffcosas.
31
100000
3000
para moverse por tu casa y hacer diversas cosas.
02:01
And then there's a highermayor priceprecio pointpunto sortordenar of robotrobot toysjuguetes --
32
103000
3000
Y luego hay un punto de más alto precio, una especie de robots de juguete --
02:04
the SonySony AiboAibo. And on the right there, is one that the NECComité ejecutivo nacional developeddesarrollado,
33
106000
4000
el Aibo de Sony. Y a la derecha ahí, hay uno desarrollado por NEC,
02:08
the PaPeRoPaPeRo, whichcual I don't think they're going to releaselanzamiento.
34
110000
3000
el PaPeRo, el cual no creo que vayan a lanzar.
02:11
But neverthelesssin embargo, those sortstipo of things are out there.
35
113000
3000
Pero, sin embargo, ese tipo de cosas están ahí afuera.
02:14
And we'venosotros tenemos seenvisto, over the last two or threeTres yearsaños, lawn-mowingcortar el césped robotsrobots,
36
116000
4000
Y hemos visto, durante los últimos dos o tres años, robots para cortar el césped,
02:18
HusqvarnaHusqvarna on the bottomfondo, FriendlyAmistoso RoboticsRobótica on topparte superior there, an Israeliisraelí companyempresa.
37
120000
6000
Husqvarna en la parte de abajo, Friendly Robotics aquí arriba, una empresa israrelí.
02:24
And then in the last 12 monthsmeses or so
38
126000
2000
Y, luego, en los últimos 12 meses, aproximadamente,
02:26
we'venosotros tenemos startedempezado to see a bunchmanojo of home-cleaninglimpieza del hogar robotsrobots appearAparecer.
39
128000
4000
hemos comenzado a ver aparecer muchos robots para limpiar la casa.
02:30
The topparte superior left one is a very nicebonito home-cleaninglimpieza del hogar robotrobot
40
132000
3000
Arriba y a la derecha hay un robot muy bueno para limpiar la casa
02:33
from a companyempresa calledllamado DysonDyson, in the U.K. ExceptExcepto it was so expensivecostoso --
41
135000
4000
de una empresa llamada Dyson, de Reino Unido. Excepto que era tan caro --
02:37
3,500 dollarsdólares -- they didn't releaselanzamiento it.
42
139000
2000
US$3,500 dólares -- que no lo lanzaron al mercado.
02:39
But at the bottomfondo left, you see ElectroluxElectrolux, whichcual is on saleventa.
43
141000
3000
Pero abajo a la izquierda ven el Electrolux, que sí está de venta.
02:42
AnotherOtro one from KarcherKarcher.
44
144000
2000
Otro de Karcher.
02:44
At the bottomfondo right is one that I builtconstruido in my lablaboratorio
45
146000
2000
Y abajo a la derecha está uno que yo construí en mi laboratorio
02:46
about 10 yearsaños agohace, and we finallyfinalmente turnedconvertido that into a productproducto.
46
148000
3000
hace unos 10 años, y que finalmente convertimos en un producto.
02:49
And let me just showespectáculo you that.
47
151000
2000
Y permítanme mostrarles eso.
02:51
We're going to give this away I think, ChrisChris said, after the talk.
48
153000
4000
Vamos a regalar éste, creo que Chris dijo, al final de la charla.
02:55
This is a robotrobot that you can go out and buycomprar, and that will cleanlimpiar up your floorpiso.
49
157000
6000
Este es un robot que puedes salir y comprar, y que limpiará tu piso.
03:05
And it startsempieza off sortordenar of just going around in ever-increasingcada vez mayor circlescírculos.
50
167000
5000
Y arranca moviéndose en círculos cada vez más amplios.
03:10
If it hitsgolpes something -- you people see that?
51
172000
4000
Si golpea con algo -- ¿vieron eso?
03:14
Now it's doing wall-followingseguimiento de pared, it's followingsiguiendo around my feetpies
52
176000
3000
Ahora está comenzando a seguir la pared, está siguiendo el contorno de mis pies
03:17
to cleanlimpiar up around me. Let's see, let's --
53
179000
4000
para limpiar alrededor de mí. Veamos, vamos a --
03:21
oh, who stoleestola my RiceArroz KrispiesKrispies? They stoleestola my RiceArroz KrispiesKrispies!
54
183000
5000
oh, ¿quién se llevó mis Rice Krispies? ¡Se robaron mis Rice Krispies!
03:26
(LaughterRisa)
55
188000
6000
(Risas)
03:32
Don't worrypreocupación, relaxrelajarse, no, relaxrelajarse, it's a robotrobot, it's smartinteligente!
56
194000
3000
¡No se preocupen, relájense, no, relájense, es un robot , es inteligente!
03:35
(LaughterRisa)
57
197000
3000
(Risas)
03:38
See, the three-year-oldtres años kidsniños, they don't worrypreocupación about it.
58
200000
4000
Ven, los niños de tres años no se preocupan por él.
03:42
It's grown-upsadultos that get really upsettrastornado.
59
204000
2000
Son los adultos los que de verdad se sienten incómodos.
03:44
(LaughterRisa)
60
206000
1000
(Risas)
03:45
We'llBien just put some crapmierda here.
61
207000
2000
Vamos a poner algo de basura aquí.
03:47
(LaughterRisa)
62
209000
4000
(Risas)
03:51
Okay.
63
213000
2000
Bien.
03:53
(LaughterRisa)
64
215000
4000
(Risas)
03:57
I don't know if you see -- so, I put a bunchmanojo of RiceArroz KrispiesKrispies there,
65
219000
3000
No sé si lo pueden ver -- bueno, puse un poco de Rice Krispies allí,
04:00
I put some penniescentavos, let's just shootdisparar it at that, see if it cleanslimpia up.
66
222000
7000
puse algunas monedas, movámos el robot hacia allá, a ver si lo limpia.
04:10
Yeah, OK. So --
67
232000
2000
Sí, bien. Así que --
04:12
we'llbien leavesalir that for laterluego.
68
234000
4000
dejaremos esto para luego.
04:16
(ApplauseAplausos)
69
238000
5000
(Aplausos)
04:22
PartParte of the tricktruco was buildingedificio a better cleaninglimpieza mechanismmecanismo, actuallyactualmente;
70
244000
4000
De hecho, parte del truco fue construir un mejor mecanismo de limpieza;
04:26
the intelligenceinteligencia on boardtablero was fairlybastante simplesencillo.
71
248000
4000
la inteligencia a bordo era bastante simple.
04:30
And that's truecierto with a lot of robotsrobots.
72
252000
2000
Y eso es igual con muchos robots.
04:32
We'veNosotros tenemos all, I think, becomevolverse, sortordenar of computationalcomputacional chauvinistschovinistas,
73
254000
4000
Nos hemos convertido todos, pienso, en una especie de chauvinistas computacionales,
04:36
and think that computationcálculo is everything,
74
258000
2000
y piensan que la computación lo es todo,
04:38
but the mechanicsmecánica still matterimportar.
75
260000
2000
pero, la mecánica todavía es importante.
04:40
Here'sAquí está anotherotro robotrobot, the PackBotPackBot,
76
262000
3000
Aquí hay otro robot, el PackBot,
04:43
that we'venosotros tenemos been buildingedificio for a bunchmanojo of yearsaños.
77
265000
2000
que hemos estado construyendo durante algunos años.
04:45
It's a militarymilitar surveillancevigilancia robotrobot, to go in aheadadelante of troopstropas --
78
267000
6000
Es un robot militar de vigilancia, para ir delante de las tropas,
04:51
looking at cavescuevas, for instanceejemplo.
79
273000
3000
y examinar cavernas, por ejemplo.
04:54
But we had to make it fairlybastante robustrobusto,
80
276000
2000
Pero, tuvimos que hacerlo muy robusto,
04:56
much more robustrobusto than the robotsrobots we buildconstruir in our labslaboratorios.
81
278000
7000
mucho más robusto que los robots que construimos en nuestros laboratorios.
05:03
(LaughterRisa)
82
285000
3000
(Risas)
05:12
On boardtablero that robotrobot is a PCordenador personal runningcorriendo LinuxLinux.
83
294000
4000
A bordo de ese robot hay una PC que corre Linux.
05:16
It can withstandresistir a a 400G shockchoque. The robotrobot has locallocal intelligenceinteligencia:
84
298000
6000
Esto puede soportar un golpe de 400G. El robot tienen inteligencia local:
05:22
it can flipdar la vuelta itselfsí mismo over, can get itselfsí mismo into communicationcomunicación rangedistancia,
85
304000
6000
puede voltearse boca arriba él solo, y puede ubicarse dentro del rango de alcance de comunicaciones,
05:28
can go upstairspiso de arriba by itselfsí mismo, etet ceteraCetera.
86
310000
3000
puede subir escaleras por sí solo, etcétera.
05:38
Okay, so it's doing locallocal navigationnavegación there.
87
320000
4000
Bien, aquí está haciendo navegación local.
05:42
A soldiersoldado givesda it a commandmando to go upstairspiso de arriba, and it does.
88
324000
6000
Un soldado le da un comando de subir las escaleras y lo hace.
05:49
That was not a controlledrevisado descentdescendencia.
89
331000
3000
¡Ese no fue un descenso controlado!
05:52
(LaughterRisa)
90
334000
2000
(Risas)
05:54
Now it's going to headcabeza off.
91
336000
2000
Ahora se va.
05:56
And the biggrande breakthroughpenetración for these robotsrobots, really, was Septemberseptiembre 11thth.
92
338000
5000
Y la gran prueba para estos robots, realmente, fue el 11 de Septiembre.
06:01
We had the robotsrobots down at the WorldMundo TradeComercio CenterCentrar latetarde that eveningnoche.
93
343000
4000
Llevamos los robots hasta el World Trade Center tarde esa noche.
06:06
Couldn'tNo pudo do a lot in the mainprincipal rubbleescombros pilepila,
94
348000
2000
No pudieron hacer mucho en la montaña de escombros,
06:08
things were just too -- there was nothing left to do.
95
350000
3000
todo estaba muy -- no había nada que hacer.
06:11
But we did go into all the surroundingrodeando buildingsedificios that had been evacuatedevacuado,
96
353000
5000
Pero, sí penetramos en todos lo edificios circundantes que habían sido evacuados,
06:16
and searchedbuscado for possibleposible survivorssobrevivientes in the buildingsedificios
97
358000
3000
y buscamos posibles sobrevivientes en esos edificios
06:19
that were too dangerouspeligroso to go into.
98
361000
2000
en los cuales era peligroso entrar.
06:21
Let's runcorrer this videovídeo.
99
363000
2000
Veamos este video.
06:23
ReporterReportero: ...battlefieldcampo de batalla companionscompañeros are helpingración to reducereducir the combatcombate risksriesgos.
100
365000
3000
Reportera: ... unos compañeros del campo de batalla están ayudando a reducir los riesgos del combate.
06:26
NickMella RobertsonRobertson has that storyhistoria.
101
368000
3000
Nick Robertson tiene esa historia.
06:31
RodneyRodney BrooksBrooks: Can we have anotherotro one of these?
102
373000
2000
Rodney Brooks: ¿Podemos tener otro de estos?
06:38
Okay, good.
103
380000
2000
OK, bien.
06:43
So, this is a corporalcorporal who had seenvisto a robotrobot two weekssemanas previouslypreviamente.
104
385000
3000
Bien, este es un soldado que ha visto un robot hace dos semanas.
06:48
He's sendingenviando robotsrobots into cavescuevas, looking at what's going on.
105
390000
4000
Está enviando robots dentro de cuevas, viendo lo que ocurre.
06:52
The robot'srobot beingsiendo totallytotalmente autonomousautónomo.
106
394000
2000
El robot es totalmente autónomo.
06:54
The worstpeor thing that's happenedsucedió in the cavecueva so farlejos
107
396000
4000
Lo peor que ha ocurrido dentro de la cueva, hasta ahora,
06:58
was one of the robotsrobots fellcayó down tendiez metersmetros.
108
400000
3000
es que uno de los robots cayó diez metros.
07:08
So one yearaño agohace, the US militarymilitar didn't have these robotsrobots.
109
410000
3000
Así que, hace un año, el ejército de los Estados Unidos no tenía estos robots.
07:11
Now they're on activeactivo dutydeber in AfghanistanAfganistán everycada day.
110
413000
2000
Ahora están en servicio activo en Afganistán todos los días.
07:13
And that's one of the reasonsrazones they say a robotrobot invasioninvasión is happeningsucediendo.
111
415000
3000
Y esa es una de las razones por las que dicen que se está dando una invasión de robots.
07:16
There's a seamar changecambio happeningsucediendo in how -- where technology'stecnología going.
112
418000
4000
Hay un gran cambio ahora en cómo -- hacia dónde la tecnología está caminando.
07:20
ThanksGracias.
113
422000
2000
Gracias
07:23
And over the nextsiguiente couplePareja of monthsmeses,
114
425000
2000
Y en los próximos meses,
07:25
we're going to be sendingenviando robotsrobots in productionproducción
115
427000
3000
vamos a estar enviando robots que están en producción
07:28
down producingproductor oilpetróleo wellspozos to get that last fewpocos yearsaños of oilpetróleo out of the groundsuelo.
116
430000
4000
a perforar pozos de petróleo para sacar de la tierra esos pocos años de petróleo que quedan.
07:32
Very hostilehostil environmentsambientes, 150˚ C, 10,000 PSIPSI.
117
434000
4000
Son ambientes muy hostiles, 150 grados centígrados, 10,000 PSI.
07:36
AutonomousAutónomo robotsrobots going down, doing this sortordenar of work.
118
438000
4000
Robots autónomos descendiendo y haciendo este tipo de trabajo.
07:40
But robotsrobots like this, they're a little harddifícil to programprograma.
119
442000
3000
Pero, robots como éstos, son un poco difíciles de programar.
07:43
How, in the futurefuturo, are we going to programprograma our robotsrobots
120
445000
2000
¿Cómo, en el futuro, vamos a programar nuestros robots
07:45
and make them easiermás fácil to use?
121
447000
2000
y a hacerlos más fáciles de usar?
07:47
And I want to actuallyactualmente use a robotrobot here --
122
449000
3000
Y, de hecho, quiero usar un robot en este momento --
07:50
a robotrobot namedllamado ChrisChris -- standestar up. Yeah. Okay.
123
452000
5000
un robot llamado Chris -- ponte de pie. Sí. ¡Bien!
07:57
Come over here. Now noticedarse cuenta, he thinkspiensa robotsrobots have to be a bitpoco stiffrígido.
124
459000
4000
Ven aquí. Ahora fíjense, él cree que los robots tienen que ser un poco tiesos.
08:01
He sortordenar of does that. But I'm going to --
125
463000
3000
Él hace un poco eso. Pero voy a --
08:04
ChrisChris AndersonAnderson: I'm just Britishbritánico. RBRB: Oh.
126
466000
2000
Chris Anderson: Es sólo que soy inglés. RB: Oh.
08:06
(LaughterRisa)
127
468000
2000
(Risas)
08:08
(ApplauseAplausos)
128
470000
2000
(Aplauso)
08:10
I'm going to showespectáculo this robotrobot a tasktarea. It's a very complexcomplejo tasktarea.
129
472000
3000
Voy a enseñarle a este robot una tarea. Es una tarea muy compleja.
08:13
Now noticedarse cuenta, he noddedasintió there, he was givingdando me some indicationindicación
130
475000
3000
Ahora, fíjense, él asintió con la cabeza, dándome una indicación de que
08:16
he was understandingcomprensión the flowfluir of communicationcomunicación.
131
478000
3000
estaba comprendiendo el flujo de comunicación.
08:19
And if I'd said something completelycompletamente bizarreextraño
132
481000
2000
Y, si hubiese dicho algo totalmente extraño
08:21
he would have lookedmirado askancede reojo at me, and regulatedregulado the conversationconversacion.
133
483000
3000
él me habría mirado de lado, con dudas, y habría regulado la conversación.
08:24
So now I broughttrajo this up in frontfrente of him.
134
486000
3000
Bueno, ahora traje esto frente a él.
08:27
I'd lookedmirado at his eyesojos, and I saw his eyesojos lookedmirado at this bottlebotella topparte superior.
135
489000
4000
Miré sus ojos y ví que sus ojos miraron la tapa de la botella.
08:31
And I'm doing this tasktarea here, and he's checkingcomprobación up.
136
493000
2000
Y estoy realizando esta tarea aquí, y él está observando.
08:33
His eyesojos are going back and forthadelante up to me, to see what I'm looking at --
137
495000
3000
Sus ojos van y vienen hacia mi para ver qué estoy mirando,
08:36
so we'venosotros tenemos got sharedcompartido attentionatención.
138
498000
2000
así que tenemos atención compartida.
08:38
And so I do this tasktarea, and he looksmiradas, and he looksmiradas to me
139
500000
3000
Y entonces, realizo esta tarea, y él observa, y me mira
08:41
to see what's happeningsucediendo nextsiguiente. And now I'll give him the bottlebotella,
140
503000
4000
para ver qué ocurrirá luego. Y ahora le pasaré la botella,
08:45
and we'llbien see if he can do the tasktarea. Can you do that?
141
507000
2000
y veremos si puede realizar la tarea. ¿Puedes hacer eso?
08:47
(LaughterRisa)
142
509000
3000
(Risas)
08:50
Okay. He's prettybonita good. Yeah. Good, good, good.
143
512000
4000
Bien. Lo hace muy bien. Sí. Bien, bien, bien.
08:54
I didn't showespectáculo you how to do that.
144
516000
2000
No te enseñé a hacer eso.
08:56
Now see if you can put it back togetherjuntos.
145
518000
2000
Ahora veamos si lo puedes armar todo de nuevo.
08:58
(LaughterRisa)
146
520000
2000
(Risas)
09:00
And he thinkspiensa a robotrobot has to be really slowlento.
147
522000
1000
Y piensa que un robot tiene que ser muy lento.
09:01
Good robotrobot, that's good.
148
523000
2000
¡Buen robot, bien hecho!
09:03
So we saw a bunchmanojo of things there.
149
525000
2000
Bien, aquí vimos unas cuantas cosas.
09:06
We saw when we're interactinginteractuando,
150
528000
3000
Vimos que cuando interactuamos,
09:09
we're tryingmolesto to showespectáculo someonealguien how to do something, we directdirecto theirsu visualvisual attentionatención.
151
531000
4000
tratamos de enseñarle a alguien cómo hacer algo, dirigimos su atención visual.
09:13
The other thing communicatescomunica theirsu internalinterno stateestado to us,
152
535000
4000
Lo otro que nos comunica es su estado interno,
09:17
whethersi he's understandingcomprensión or not, regulatesregula a socialsocial interactionInteracción.
153
539000
3000
si nos está comprendiendo o no, regula nuestra interacción social.
09:20
There was sharedcompartido attentionatención looking at the samemismo sortordenar of thing,
154
542000
2000
Hubo atención compartida al mirar el mismo tipo de cosas,
09:22
and recognizingreconociendo sociallysocialmente communicatedcomunicado reinforcementreforzamiento at the endfin.
155
544000
4000
y reconocimiento del refuerzo social al final.
09:26
And we'venosotros tenemos been tryingmolesto to put that into our lablaboratorio robotsrobots
156
548000
3000
Y hemos estado tratando de incluir eso en los robots de nuestro laboratorio
09:29
because we think this is how you're going to want to interactinteractuar with robotsrobots in the futurefuturo.
157
551000
4000
porque pensamos que es así como ustedes querrán interactuar con los robots en el futuro.
09:33
I just want to showespectáculo you one technicaltécnico diagramdiagrama here.
158
555000
2000
Sólo quiero mostrarles un diagrama técnico aquí.
09:35
The mostmás importantimportante thing for buildingedificio a robotrobot that you can interactinteractuar with sociallysocialmente
159
557000
4000
Lo más importante para construir un robot con el cual se pueda interactuar socialmente
09:39
is its visualvisual attentionatención systemsistema.
160
561000
2000
es su sistema de atención visual.
09:41
Because what it payspaga attentionatención to is what it's seeingviendo
161
563000
3000
Porque a lo que le presta atención es a lo que está viendo
09:44
and interactinginteractuando with, and what you're understandingcomprensión what it's doing.
162
566000
3000
y con lo que está interactuando, y es así que comprendes lo que está haciendo.
09:47
So in the videosvideos I'm about to showespectáculo you,
163
569000
3000
Así que, en los videos que voy a mostrarles,
09:50
you're going to see a visualvisual attentionatención systemsistema on a robotrobot
164
572000
4000
van a ver un sistema de atención visual de un robot
09:54
whichcual has -- it looksmiradas for skinpiel tonetono in HSVHSV spaceespacio,
165
576000
4000
el cual tiene -- busca tonos de piel en el espacio HSV,
09:58
so it workstrabajos acrossa través de all humanhumano coloringscolorantes.
166
580000
4000
así que trabaja a través de todos los, bueno, los colores humanos.
10:02
It looksmiradas for highlyaltamente saturatedsaturado colorscolores, from toysjuguetes.
167
584000
2000
Busca colores muy saturados, en los juguetes.
10:04
And it looksmiradas for things that movemovimiento around.
168
586000
2000
Y busca cosas que se mueven.
10:06
And it weightspesas those togetherjuntos into an attentionatención windowventana,
169
588000
3000
Y compara todo eso en una ventana de atención,
10:09
and it looksmiradas for the highest-scoringmayor puntaje placelugar --
170
591000
2000
y busca el lugar de mayor puntuación --
10:11
the stuffcosas where the mostmás interestinginteresante stuffcosas is happeningsucediendo --
171
593000
2000
aquello en donde lo más interesante está ocurriendo.
10:13
and that is what its eyesojos then seguesegue to.
172
595000
4000
Y es a eso a lo que sus ojos siguen.
10:17
And it looksmiradas right at that.
173
599000
2000
Y mira directo hacia eso.
10:19
At the samemismo time, some top-downDe arriba hacia abajo sortordenar of stuffcosas:
174
601000
3000
Al mismo tiempo, toma decisiones comunes: :
10:22
mightpodría decidedecidir that it's lonelysolitario and look for skinpiel tonetono,
175
604000
3000
puede decidir que se siente solo y buscar tono de piel,
10:25
or mightpodría decidedecidir that it's boredaburrido and look for a toyjuguete to playjugar with.
176
607000
3000
o podría decidir que está aburrido y buscar un juguete para jugar.
10:28
And so these weightspesas changecambio.
177
610000
2000
Así que estos pesos cambian.
10:30
And over here on the right,
178
612000
2000
Y aquí arriba, a la derecha,
10:32
this is what we call the StevenSteven SpielbergSpielberg memorialmemorial modulemódulo.
179
614000
3000
esto es lo que llamamos el módulo en memoria de Steven Spielberg.
10:35
Did people see the moviepelícula "AIAI"? (AudienceAudiencia: Yes.)
180
617000
2000
¿Vieron la película IA? Audiencia: Sí.
10:37
RBRB: Yeah, it was really badmalo, but --
181
619000
2000
RB: Sí, era bastante mala, pero --
10:39
rememberrecuerda, especiallyespecialmente when HaleyHaley JoelJoel OsmentOsment, the little robotrobot,
182
621000
4000
¿recuerdan, especialmente cuando Haley Joel Osment, el pequeño robot,
10:43
lookedmirado at the blueazul fairyhada for 2,000 yearsaños withoutsin takingtomando his eyesojos off it?
183
625000
4000
miró al hada azul por 2,000 años sin quitar sus ojos de ella?
10:47
Well, this getsse pone rideliminar of that,
184
629000
2000
Bien, esto elimina ese asunto,
10:49
because this is a habituationhabituación GaussianGaussiano that getsse pone negativenegativo,
185
631000
4000
porque esto es una habituación Gaussiana que se vuelve negativa,
10:53
and more and more intenseintenso as it looksmiradas at one thing.
186
635000
3000
y más y más intensa cuando mira algo.
10:56
And it getsse pone boredaburrido, so it will then look away at something elsemás.
187
638000
3000
Y se aburre, así que entonces mira hacia otro lado.
10:59
So, onceuna vez you've got that -- and here'saquí está a robotrobot, here'saquí está KismetKismet,
188
641000
4000
Así que, una vez que tienes eso -- y aquí está un robot, aquí está Kismet,
11:03
looking around for a toyjuguete. You can tell what it's looking at.
189
645000
4000
mirando alrededor buscando un juguete. Puedes darte cuenta de lo que está mirando.
11:07
You can estimateestimar its gazemirada directiondirección from those eyeballsglobos oculares coveringcubierta its cameracámara,
190
649000
5000
Puedes estimar la dirección de su mirada por esos globos oculares que cubren la cámara,
11:12
and you can tell when it's actuallyactualmente seeingviendo the toyjuguete.
191
654000
3000
y puedes darte cuenta de cuándo está viendo directamente al juguete.
11:15
And it's got a little bitpoco of an emotionalemocional responserespuesta here.
192
657000
2000
Y tiene algo de respuesta emocional aquí.
11:17
(LaughterRisa)
193
659000
1000
(Risas)
11:18
But it's still going to paypaga attentionatención
194
660000
2000
Pero, aún así va a poner atención
11:20
if something more significantsignificativo comesproviene into its fieldcampo of viewver --
195
662000
4000
si algo más significativo penetra en su campo visual --
11:24
suchtal as CynthiaCynthia BreazealBreazeal, the builderconstructor of this robotrobot, from the right.
196
666000
4000
como, por ejemplo Cynthia Breazeal, quien construyó este robot -- desde la derecha.
11:28
It seesve her, payspaga attentionatención to her.
197
670000
5000
La mira, le presta atención a ella.
11:33
KismetKismet has an underlyingsubyacente, three-dimensionaltridimensional emotionalemocional spaceespacio,
198
675000
4000
Kismet tiene, subyacente, un espacio emocional tridimensional,
11:37
a vectorvector spaceespacio, of where it is emotionallyemocionalmente.
199
679000
3000
un espacio vectorial, de dónde se encuentra emocionalmente.
11:40
And at differentdiferente placeslugares in that spaceespacio, it expressesexpresa --
200
682000
5000
Y en diferentes lugares de ese espacio él expresa --
11:46
can we have the volumevolumen on here?
201
688000
2000
¿podemos tener volumen aquí?
11:48
Can you hearoír that now, out there? (AudienceAudiencia: Yeah.)
202
690000
2000
¿Pueden escuchar eso ahora, ahí? Audiencia: Sí.
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Kismet: ¿Realmente piensas eso? ¿Realmente piensas eso?
11:57
Do you really think so?
204
699000
2000
¿Realmente lo piensas?
12:00
RBRB: So it's expressingexpresando its emotionemoción throughmediante its facecara
205
702000
3000
RB: Así que está expresando su emoción mediante su cara
12:03
and the prosodyprosodia in its voicevoz.
206
705000
2000
y la prosodia en su voz.
12:05
And when I was dealingrelación comercial with my robotrobot over here,
207
707000
4000
Y, cuando yo estaba trabajando con mi robot aquí,
12:09
ChrisChris, the robotrobot, was measuringmedición the prosodyprosodia in my voicevoz,
208
711000
3000
Chris, el robot, estaba midiendo la prosodia en mi voz,
12:12
and so we have the robotrobot measuremedida prosodyprosodia for fourlas cuatro basicBASIC messagesmensajes
209
714000
5000
así que hicimos que el robot midiera la prosodia a partir de cuatro mensajes básicos
12:17
that mothersmadres give theirsu childrenniños pre-linguisticallyprelingüística.
210
719000
4000
que las madres dan a sus hijos de forma pre-lingüística.
12:21
Here we'venosotros tenemos got naiveingenuo subjectsasignaturas praisingalabando the robotrobot:
211
723000
3000
Aquí tenemos sujetos ingenuos elogiando al robot,
12:26
VoiceVoz: NiceBonito robotrobot.
212
728000
2000
Voz: Lindo robot.
12:29
You're suchtal a cutelinda little robotrobot.
213
731000
2000
Eres un robot tan lindo.
12:31
(LaughterRisa)
214
733000
2000
(Risas)
12:33
RBRB: And the robot'srobot reactingreaccionando appropriatelyadecuadamente.
215
735000
2000
Y el robot está reaccionando adecuadamente.
12:35
VoiceVoz: ...very good, KismetKismet.
216
737000
4000
Voz: ... muy bien, Kismet.
12:40
(LaughterRisa)
217
742000
2000
(Risas)
12:42
VoiceVoz: Look at my smilesonreír.
218
744000
2000
Voz: Mira mi sonrisa.
12:46
RBRB: It smilessonrisas. She imitatesimita the smilesonreír. This happenssucede a lot.
219
748000
3000
RB: Se sonríe. Imita la sonrisa. Esto pasa muchas veces.
12:49
These are naiveingenuo subjectsasignaturas.
220
751000
2000
Esos son sujetos ingenuos.
12:51
Here we askedpreguntó them to get the robot'srobot attentionatención
221
753000
3000
Aquí les pedimos que captaran la atención del robot
12:54
and indicateindicar when they have the robot'srobot attentionatención.
222
756000
3000
y que indicaran cuándo tenían la atención del robot.
12:57
VoiceVoz: Hey, KismetKismet, ahah, there it is.
223
759000
4000
Voz: Hey, Kismet, ah, ahí está.
13:01
RBRB: So she realizesse da cuenta she has the robot'srobot attentionatención.
224
763000
4000
RB: Así que se da cuenta de que tiene la atención del robot.
13:08
VoiceVoz: KismetKismet, do you like the toyjuguete? Oh.
225
770000
4000
Voz: Kismet, ¿te gusta el juguete? Oh.
13:13
RBRB: Now, here they're askedpreguntó to prohibitprohibir the robotrobot,
226
775000
2000
RB: Ahora aquí les pedimos que prohibieran algo al robot,
13:15
and this first womanmujer really pushesempuja the robotrobot into an emotionalemocional corneresquina.
227
777000
4000
y la primera mujer realmente empuja al robot hacia un rincón emocional.
13:19
VoiceVoz: No. No. You're not to do that. No.
228
781000
5000
Voz: No. No. No debes hacer eso. ¡No!
13:24
(LaughterRisa)
229
786000
3000
(Risas)
13:27
Not appropriateapropiado. No. No.
230
789000
6000
Voz: No es apropiado. No. No.
13:33
(LaughterRisa)
231
795000
3000
(Risas)
13:36
RBRB: I'm going to leavesalir it at that.
232
798000
2000
RB: Lo voy a dejar ahí.
13:38
We put that togetherjuntos. Then we put in turngiro takingtomando.
233
800000
2000
Integramos todo eso. Luego agregamos el tomar turnos.
13:40
When we talk to someonealguien, we talk.
234
802000
3000
Cuando conversamos con alguien, hablamos.
13:43
Then we sortordenar of raiseaumento our eyebrowsCejas, movemovimiento our eyesojos,
235
805000
4000
Luego levantamos nuestras cejas, movemos nuestros ojos,
13:47
give the other personpersona the ideaidea it's theirsu turngiro to talk.
236
809000
3000
para darle a la otra persona la idea de que es su turno de hablar.
13:50
And then they talk, and then we passpasar the batonbatuta back and forthadelante betweenEntre eachcada other.
237
812000
4000
Y luego ellos hablan, y nos pasamos la batuta el uno al otro.
13:54
So we put this in the robotrobot.
238
816000
2000
Así que ponemos esto en el robot.
13:56
We got a bunchmanojo of naiveingenuo subjectsasignaturas in,
239
818000
2000
Buscamos un grupo de sujetos ingenuos,
13:58
we didn't tell them anything about the robotrobot,
240
820000
2000
no les dijimos nada acerca del robot,
14:00
satsab them down in frontfrente of the robotrobot and said, talk to the robotrobot.
241
822000
2000
los sentamos frente al robot y les dijimos "habla con el robot".
14:02
Now what they didn't know was,
242
824000
2000
Ahora, lo que no sabían era que,
14:04
the robotrobot wasn'tno fue understandingcomprensión a wordpalabra they said,
243
826000
2000
el robot no comprendía ni una palabra de lo que ellos le decían,
14:06
and that the robotrobot wasn'tno fue speakingHablando EnglishInglés.
244
828000
3000
y que el robot no estaba hablando Inglés.
14:09
It was just sayingdiciendo randomaleatorio EnglishInglés phonemesfonemas.
245
831000
2000
Sólo pronunciaba fonemas de Inglés que eran aleatorios.
14:11
And I want you to watch carefullycuidadosamente, at the beginningcomenzando of this,
246
833000
2000
Y quiero que vean con atención, al inicio de esto,
14:13
where this personpersona, RitchieRitchie, who happenedsucedió to talk to the robotrobot for 25 minutesminutos --
247
835000
4000
cuando esta persona, Ritchie, quien habló con el robot por 25 minutos --
14:17
(LaughterRisa)
248
839000
2000
(Risas)
14:19
-- saysdice, "I want to showespectáculo you something.
249
841000
2000
-- dice "Quiero mostrarte algo.
14:21
I want to showespectáculo you my watch."
250
843000
2000
Quiero mostrarte mi reloj."
14:23
And he bringstrae the watch centercentrar, into the robot'srobot fieldcampo of visionvisión,
251
845000
5000
Y coloca el centro del reloj dentro del campo visual del robot,
14:28
pointspuntos to it, givesda it a motionmovimiento cueseñal,
252
850000
2000
lo señala, le da una pista emocional,
14:30
and the robotrobot looksmiradas at the watch quitebastante successfullyexitosamente.
253
852000
2000
y el robot mira al reloj exitosamente.
14:32
We don't know whethersi he understoodentendido or not that the robotrobot --
254
854000
3000
No sabemos si él entendió o no que el robot --
14:36
Noticedarse cuenta the turn-takingtomar turnos.
255
858000
2000
Fíjense en la toma de turnos.
14:38
RitchieRitchie: OK, I want to showespectáculo you something. OK, this is a watch
256
860000
3000
Ritchie: Bien, quiero mostrarte algo. Bueno, esto es un reloj
14:41
that my girlfriendNovia gavedio me.
257
863000
3000
que mi novia me regaló.
14:44
RobotRobot: Oh, coolguay.
258
866000
2000
Robot: Oh, bien.
14:46
RitchieRitchie: Yeah, look, it's got a little blueazul lightligero in it too. I almostcasi lostperdió it this weeksemana.
259
868000
4000
Ritchie: Sí, mira, tiene incluso una pequeña luz azul aquí. casi lo pierdo esta semana.
14:51
(LaughterRisa)
260
873000
4000
(Risas)
14:55
RBRB: So it's makingfabricación eyeojo contactcontacto with him, followingsiguiendo his eyesojos.
261
877000
3000
RB: Así que hace contacto visual con él, siguiendo sus ojos.
14:58
RitchieRitchie: Can you do the samemismo thing? RobotRobot: Yeah, sure.
262
880000
2000
Ritchie: ¿Puedes hacer lo mismo? Robot: Sí, claro.
15:00
RBRB: And they successfullyexitosamente have that sortordenar of communicationcomunicación.
263
882000
2000
RB: Y ellos tienen este tipo de comunicación con éxito.
15:02
And here'saquí está anotherotro aspectaspecto of the sortstipo of things that ChrisChris and I were doing.
264
884000
4000
Y aquí hay otro aspecto del tipo de cosas que Chris y yo estuvimos haciendo.
15:06
This is anotherotro robotrobot, CogDiente.
265
888000
2000
Este es otro robot, Cog.
15:08
They first make eyeojo contactcontacto, and then, when ChristieChristie looksmiradas over at this toyjuguete,
266
890000
6000
Ellos primero hicieron contacto visual, y luego, cuando Christie mira hacia este juguete,
15:14
the robotrobot estimatesestimados her gazemirada directiondirección
267
896000
2000
el robot estima la dirección de la mirada de ella
15:16
and looksmiradas at the samemismo thing that she's looking at.
268
898000
2000
y mira el mismo objeto que ella está mirando.
15:18
(LaughterRisa)
269
900000
1000
(Risas)
15:19
So we're going to see more and more of this sortordenar of robotrobot
270
901000
3000
Vamos a ver más y más de este tipo de robots
15:22
over the nextsiguiente fewpocos yearsaños in labslaboratorios.
271
904000
2000
en los próximos años en los laboratorios.
15:24
But then the biggrande questionspreguntas, two biggrande questionspreguntas that people askpedir me are:
272
906000
5000
Pero, entonces las grandes preguntas, dos grandes preguntas que la gente me hace son:
15:29
if we make these robotsrobots more and more human-likehumano,
273
911000
2000
si hacemos a estos robots cada vez más parecidos a los humanos,
15:31
will we acceptaceptar them, will we -- will they need rightsderechos eventuallyfinalmente?
274
913000
5000
¿los aceptaremos? -- ¿tendrán derechos eventualmente?
15:36
And the other questionpregunta people askpedir me is, will they want to take over?
275
918000
3000
Y la otra pregunta que la gente me hace es, ¿querrán ellos tomar el control?
15:39
(LaughterRisa)
276
921000
1000
(Risas)
15:40
And on the first -- you know, this has been a very HollywoodHollywood themetema
277
922000
3000
En cuanto a la primera -- saben, esto ha sido mucho un tema de Hollywood
15:43
with lots of moviespelículas. You probablyprobablemente recognizereconocer these characterscaracteres here --
278
925000
3000
en muchas películas. Probablemente reconozcan a estos personajes aquí --
15:46
where in eachcada of these casescasos, the robotsrobots want more respectel respeto.
279
928000
4000
en cada uno de estos casos, los robots querían más respeto.
15:50
Well, do you ever need to give robotsrobots respectel respeto?
280
932000
3000
Bueno pero, realmente necesitamos respetar a los robots?
15:54
They're just machinesmáquinas, after all.
281
936000
2000
Son sólo máquinas, después de todo.
15:56
But I think, you know, we have to acceptaceptar that we are just machinesmáquinas.
282
938000
4000
Pero creo que, bueno, tenemos que aceptar que nosotros somos sólo máquinas.
16:00
After all, that's certainlyciertamente what modernmoderno molecularmolecular biologybiología saysdice about us.
283
942000
5000
Después de todo, eso es en verdad lo que la biología molecular moderna dice sobre nosotros.
16:05
You don't see a descriptiondescripción of how, you know,
284
947000
3000
Tú no ves una descripción de cómo, bueno,
16:08
MoleculeMolécula A, you know, comesproviene up and docksmuelles with this other moleculemolécula.
285
950000
4000
la Molécula A, bueno, llega y se une a esta otra molecula.
16:12
And it's movingemocionante forwardadelante, you know, propelledpropulsado by variousvarios chargescargos,
286
954000
3000
Y entonces se mueve hacia adelante, bueno, impulsada por varias cargas,
16:15
and then the soulalma stepspasos in and tweaksretoques those moleculesmoléculas so that they connectconectar.
287
957000
4000
y luego el alma entra y pellizca esas moleculas para que se conecten.
16:19
It's all mechanisticmecánico. We are mechanismmecanismo.
288
961000
3000
Es todo mecánico, somos mecanismos.
16:22
If we are machinesmáquinas, then in principleprincipio at leastmenos,
289
964000
3000
Si somos máquinas, entonces en principio al menos,
16:25
we should be ablepoder to buildconstruir machinesmáquinas out of other stuffcosas,
290
967000
4000
deberíamos ser capaces de contruir máquinas con otros materiales,
16:29
whichcual are just as aliveviva as we are.
291
971000
4000
que estén tan vivas como estamos nosotros.
16:33
But I think for us to admitadmitir that,
292
975000
2000
Pero creo que para que podamos admitir esto,
16:35
we have to give up on our special-nessespecialidad, in a certaincierto way.
293
977000
3000
debemos renunciar a ser especiales, de alguna manera.
16:38
And we'venosotros tenemos had the retreatretirada from special-nessespecialidad
294
980000
2000
Y hemos tenido una retirada de esto de ser especiales
16:40
underdebajo the barragebombardeo of scienceciencia and technologytecnología manymuchos timesveces
295
982000
3000
bajo la descarga de artillería de la ciencia y de la tecnología muchas veces
16:43
over the last fewpocos hundredcien yearsaños, at leastmenos.
296
985000
2000
en los últimos cientos de años, al menos.
16:45
500 yearsaños agohace we had to give up the ideaidea
297
987000
2000
Hace 500 años tuvimos que abandonar la idea
16:47
that we are the centercentrar of the universeuniverso
298
989000
3000
de que éramos el centro del universo
16:50
when the earthtierra startedempezado to go around the sunsol;
299
992000
2000
cuando la Tierra comenzó a girar alrededor del Sol;
16:52
150 yearsaños agohace, with DarwinDarwin, we had to give up the ideaidea we were differentdiferente from animalsanimales.
300
994000
5000
hace 150 años, con Darwin, tuvimos que abandonar la idea de que éramos diferentes de los animales.
16:57
And to imagineimagina -- you know, it's always harddifícil for us.
301
999000
3000
Y que, bueno, imaginar -- saben, siempre es difícil para nosotros.
17:00
RecentlyRecientemente we'venosotros tenemos been batteredabollado with the ideaidea that maybe
302
1002000
3000
Incluso, recientemente nos han maltratado con la idea de que tal vez
17:03
we didn't even have our ownpropio creationcreación eventevento, here on earthtierra,
303
1005000
2000
ni siquiera tuvimos nuestro evento de creación, aquí en la Tierra,
17:05
whichcual people didn't like much. And then the humanhumano genomegenoma said,
304
1007000
3000
lo cual a la gente no le gustó mucho. Y luego el genoma humano dijo que
17:08
maybe we only have 35,000 genesgenes. And that was really --
305
1010000
3000
tal vez sólo tenemos unos 35,000 genes. Y eso fue realmente --
17:11
people didn't like that, we'venosotros tenemos got more genesgenes than that.
306
1013000
3000
a la gente no le gustó, tenemos más genes que eso.
17:14
We don't like to give up our special-nessespecialidad, so, you know,
307
1016000
3000
No nos gusta abandonar nuestra especialidad, así que, saben,
17:17
havingteniendo the ideaidea that robotsrobots could really have emotionsemociones,
308
1019000
2000
la idea de que los robots puedan en verdad tener emociones,
17:19
or that robotsrobots could be livingvivo creaturescriaturas --
309
1021000
2000
o que los robots puedan ser criaturas vivientes --
17:21
I think is going to be harddifícil for us to acceptaceptar.
310
1023000
2000
creo que eso va a ser difícil de aceptar para nosotros.
17:23
But we're going to come to acceptaceptar it over the nextsiguiente 50 yearsaños or so.
311
1025000
4000
Pero, lo aceptaremos de aquí a los próximos 50 años, más o menos.
17:27
And the secondsegundo questionpregunta is, will the machinesmáquinas want to take over?
312
1029000
3000
Y la segunda pregunta es, ¿querrán las máquinas tomar el control?
17:30
And here the standardestándar scenarioguión is that we createcrear these things,
313
1032000
5000
Y aquí el escenario es que nosotros creamos estas cosas,
17:35
they growcrecer, we nurturenutrir them, they learnaprender a lot from us,
314
1037000
3000
ellas crecen, las alimentamos, ellas aprenden mucho de nosotros,
17:38
and then they startcomienzo to decidedecidir that we're prettybonita boringaburrido, slowlento.
315
1040000
4000
y ellas comienzar a pensar que nosotros somos muy aburridos, lentos.
17:42
They want to take over from us.
316
1044000
2000
Ellas quieren controlarnos.
17:44
And for those of you that have teenagersadolescentes, you know what that's like.
317
1046000
3000
Y para aquellos de ustedes que tienen adolescentes, saben lo que se siente.
17:47
(LaughterRisa)
318
1049000
1000
(Risas)
17:48
But HollywoodHollywood extendsse extiende it to the robotsrobots.
319
1050000
3000
Pero, Hollywood lo extiende hasta los robots.
17:51
And the questionpregunta is, you know,
320
1053000
3000
Y la pregunta es, bueno,
17:54
will someonealguien accidentallyaccidentalmente buildconstruir a robotrobot that takes over from us?
321
1056000
4000
¿construirá alguien, accidentalmente, un robot que quiera tomar el control?
17:58
And that's sortordenar of like this lonesolitario guy in the backyardpatio interior,
322
1060000
3000
Y es un poco este tipo solitario, en el patio trasero de su casa,
18:01
you know -- "I accidentallyaccidentalmente builtconstruido a 747."
323
1063000
3000
y, bueno, "accidentalmente construí un 747."
18:04
I don't think that's going to happenocurrir.
324
1066000
2000
No creo que eso vaya a pasar.
18:06
And I don't think --
325
1068000
2000
Y no creo que --
18:08
(LaughterRisa)
326
1070000
1000
(Risas)
18:09
-- I don't think we're going to deliberatelydeliberadamente buildconstruir robotsrobots
327
1071000
3000
-- no creo que vamos deliberadamente a construir robots
18:12
that we're uncomfortableincómodo with.
328
1074000
2000
con los cuales nos sintamos incómodos.
18:14
We'llBien -- you know, they're not going to have a supersúper badmalo robotrobot.
329
1076000
2000
Bueno, pues, no van a construir un robot súper malvado.
18:16
Before that has to come to be a mildlylevemente badmalo robotrobot,
330
1078000
3000
Antes que eso tendrá que haber, bueno, un robot medianamente malvado,
18:19
and before that a not so badmalo robotrobot.
331
1081000
2000
y antes que ese uno que casi no sea malvado.
18:21
(LaughterRisa)
332
1083000
1000
(Risas)
18:22
And we're just not going to let it go that way.
333
1084000
2000
Y no vamos a dejar que eso ocurra.
18:24
(LaughterRisa)
334
1086000
1000
(Risas)
18:25
So, I think I'm going to leavesalir it at that: the robotsrobots are comingviniendo,
335
1087000
6000
Así que lo voy a dejar ahí: los robots ya vienen,
18:31
we don't have too much to worrypreocupación about, it's going to be a lot of fundivertido,
336
1093000
3000
no tenemos mucho de qué preocuparnos, será muy divertido,
18:34
and I hopeesperanza you all enjoydisfrutar the journeyviaje over the nextsiguiente 50 yearsaños.
337
1096000
4000
y espero que todos ustedes disfruten el viaje de los próximos 50 años.
18:38
(ApplauseAplausos)
338
1100000
2000
(Aplauso)
Translated by Reynaldo Valerio
Reviewed by William Martinez

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com