ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: el crecimiento de los robots personales

Filmed:
1,201,057 views

Como estudiante de posgrado Cynthia Breazeal se preguntó por qué estábamos usando robots en Marte pero no en nuestros hogares. Se dio cuenta de la clave: entrenar a los robots para interactuar con la gente. Ahora inventa y desarrolla robots que enseñan, aprenden… y juegan. Presta atención a una sorprendente exhibición de un nuevo juego interactivo para niños.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceya que I was a little girlniña
0
0
3000
Desde niña,
00:18
seeingviendo "StarEstrella WarsGuerras" for the first time,
1
3000
2000
viendo por primera vez la "Guerra de las Galaxias",
00:20
I've been fascinatedfascinado by this ideaidea
2
5000
2000
quedé fascinada con la idea
00:22
of personalpersonal robotsrobots.
3
7000
2000
de los robots personales.
00:24
And as a little girlniña,
4
9000
2000
Y como niña,
00:26
I lovedamado the ideaidea of a robotrobot that interactedinteractuado with us
5
11000
2000
me encantaba la idea de un robot que interactuara con nosotros
00:28
much more like a helpfulservicial, trustedconfiable sidekickcompañero --
6
13000
3000
como un secuaz servicial en quien confiar...
00:31
something that would delightdeleite us, enrichenriquecer our livesvive
7
16000
2000
algo que disfrutáramos y enriqueciera nuestras vidas
00:33
and help us savesalvar a galaxygalaxia or two.
8
18000
3000
y nos ayudara a salvar una o dos galaxias.
00:37
I knewsabía robotsrobots like that didn't really existexiste,
9
22000
3000
Yo sabía que robots como esos realmente no existían,
00:40
but I knewsabía I wanted to buildconstruir them.
10
25000
2000
pero sabía que quería construirlos.
00:42
So 20 yearsaños passpasar --
11
27000
2000
Pasaron 20 años...
00:44
I am now a graduategraduado studentestudiante at MITMIT
12
29000
2000
soy estudiante de postgrado en el MIT
00:46
studyingestudiando artificialartificial intelligenceinteligencia,
13
31000
2000
y estudio inteligencia artificial,
00:48
the yearaño is 1997,
14
33000
2000
es el año 1997,
00:50
and NASANASA has just landedaterrizado the first robotrobot on MarsMarte.
15
35000
3000
y acaba de descender el primer robot de la NASA en Marte.
00:53
But robotsrobots are still not in our home, ironicallyirónicamente.
16
38000
3000
Pero, irónicamente, los robots aún no están en nuestra casa.
00:56
And I rememberrecuerda thinkingpensando about
17
41000
2000
Y recuerdo que pensé
00:58
all the reasonsrazones why that was the casecaso.
18
43000
2000
en todas las razones por las que era así.
01:00
But one really struckgolpeado me.
19
45000
2000
Pero una me llamó la atención.
01:02
RoboticsRobótica had really been about interactinginteractuando with things,
20
47000
3000
La robótica se había ocupado de la interacción con las cosas,
01:05
not with people --
21
50000
2000
no con las personas;
01:07
certainlyciertamente not in a socialsocial way that would be naturalnatural for us
22
52000
2000
no en una forma social que nos resultara natural
01:09
and would really help people acceptaceptar robotsrobots
23
54000
2000
y ayudara a la gente a aceptar a los robots
01:11
into our dailydiariamente livesvive.
24
56000
2000
en sus vidas diarias.
01:13
For me, that was the whiteblanco spaceespacio; that's what robotsrobots could not do yettodavía.
25
58000
3000
Para mí, eso era una incógnita, algo que los robots no podían hacer todavía.
01:16
And so that yearaño, I startedempezado to buildconstruir this robotrobot, KismetKismet,
26
61000
3000
Y entonces ese año comencé a construir este robot, Kismet,
01:19
the world'smundo first socialsocial robotrobot.
27
64000
3000
el primer robot social del mundo.
01:22
ThreeTres yearsaños laterluego --
28
67000
2000
Así que tres años más tarde...
01:24
a lot of programmingprogramación,
29
69000
2000
y mucha programación mediante,
01:26
workingtrabajando with other graduategraduado studentsestudiantes in the lablaboratorio --
30
71000
2000
trabajando en el laboratorio con otros estudiantes de posgrado
01:28
KismetKismet was readyListo to startcomienzo interactinginteractuando with people.
31
73000
2000
Kismet estaba listo para empezar a interactuar con la gente.
01:30
(VideoVídeo) ScientistCientífico: I want to showespectáculo you something.
32
75000
2000
(Video) Científico: Quiero mostrarte algo.
01:32
KismetKismet: (NonsenseDisparates)
33
77000
2000
Kismet: (Sin sentido).
01:34
ScientistCientífico: This is a watch that my girlfriendNovia gavedio me.
34
79000
3000
Científico: Este es un reloj que me dio mi novia.
01:37
KismetKismet: (NonsenseDisparates)
35
82000
2000
Kismet: (Sin sentido).
01:39
ScientistCientífico: Yeah, look, it's got a little blueazul lightligero in it too.
36
84000
2000
Científico: Sí, mira, también tiene una lucecita azul.
01:41
I almostcasi lostperdió it this weeksemana.
37
86000
3000
Casi lo perdí esta semana.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedinteractuado with people
38
89000
3000
Cynthia Breazeal: Así Kismet interactuó con la gente
01:47
like kindtipo of a non-verbalno verbal childniño or pre-verbalpre-verbal childniño,
39
92000
3000
como un niño que no habla o que todavía no habla,
01:50
whichcual I assumeasumir was fittingadecuado because it was really the first of its kindtipo.
40
95000
3000
que supongo era apropiado, porque en realidad era el primero de su tipo.
01:53
It didn't speakhablar languageidioma, but it didn't matterimportar.
41
98000
2000
No hablaba el idioma, pero no importaba.
01:55
This little robotrobot was somehowde algun modo ablepoder
42
100000
2000
Este pequeño robot podía de alguna forma
01:57
to tapgrifo into something deeplyprofundamente socialsocial withindentro us --
43
102000
3000
calar hondo en nuestro ser social.
02:00
and with that, the promisepromesa of an entirelyenteramente newnuevo way
44
105000
2000
Y era la promesa de una forma totalmente nueva
02:02
we could interactinteractuar with robotsrobots.
45
107000
2000
de interacción con los robots.
02:04
So over the pastpasado severalvarios yearsaños
46
109000
2000
Así que en los últimos años
02:06
I've been continuingcontinuo to exploreexplorar this interpersonalinterpersonal dimensiondimensión of robotsrobots,
47
111000
2000
continué explorando esta dimensión interpersonal de los robots,
02:08
now at the mediamedios de comunicación lablaboratorio
48
113000
2000
ahora en el Media Lab [MIT]
02:10
with my ownpropio teamequipo of incrediblyincreíblemente talentedtalentoso studentsestudiantes.
49
115000
2000
con mi propio equipo de estudiantes muy talentosos.
02:12
And one of my favoritefavorito robotsrobots is LeonardoLeonardo.
50
117000
3000
Uno de mis robots favoritos es Leonardo.
02:15
We developeddesarrollado LeonardoLeonardo in collaborationcolaboración with StanStan WinstonWinston StudioEstudio.
51
120000
3000
Hemos desarrollado a Leonardo en colaboración con Stan Winston Studio.
02:18
And so I want to showespectáculo you a specialespecial momentmomento for me of LeoLeón.
52
123000
3000
Y quiero mostrarles un momento especial para mí de Leo.
02:21
This is MattMate BerlinBerlina interactinginteractuando with LeoLeón,
53
126000
2000
Este es Matt Berlin interactuando con Leo,
02:23
introducingintroduciendo LeoLeón to a newnuevo objectobjeto.
54
128000
2000
presentándole a Leo un nuevo objeto.
02:25
And because it's newnuevo, LeoLeón doesn't really know what to make of it.
55
130000
3000
Y, como es nuevo, Leo no sabe qué hacer realmente con él.
02:28
But sortordenar of like us, he can actuallyactualmente learnaprender about it
56
133000
2000
Pero, al igual que nosotros, puede aprender
02:30
from watchingacecho Matt'sMatt reactionreacción.
57
135000
3000
mirando la reacción de Matt.
02:33
(VideoVídeo) MattMate BerlinBerlina: HelloHola, LeoLeón.
58
138000
2000
(Video) Matt Berlin: Hola Leo.
02:38
LeoLeón, this is CookieGalleta MonsterMonstruo.
59
143000
3000
Leo, este es Cookie Monster.
02:44
Can you find CookieGalleta MonsterMonstruo?
60
149000
3000
¿Puedes encontrar a Cookie Monster?
02:52
LeoLeón, CookieGalleta MonsterMonstruo is very badmalo.
61
157000
3000
Leo, Cookie Monster es muy malo.
02:56
He's very badmalo, LeoLeón.
62
161000
2000
Es muy malo, Leo.
03:00
CookieGalleta MonsterMonstruo is very, very badmalo.
63
165000
3000
Cookie Monster es muy, muy malo.
03:07
He's a scaryde miedo monstermonstruo.
64
172000
2000
Es un monstruo aterrador.
03:09
He wants to get your cookiesgalletas.
65
174000
2000
Quiere tus galletas.
03:12
(LaughterRisa)
66
177000
2000
(Risas)
03:14
CBCB: All right, so LeoLeón and CookieGalleta
67
179000
3000
CB: Muy bien, Leo y Cookie
03:17
mightpodría have gottenconseguido off to a little bitpoco of a rougháspero startcomienzo,
68
182000
2000
pueden haber tenido un comienzo difícil
03:19
but they get alonga lo largo great now.
69
184000
3000
pero ahora se llevan muy bien.
03:22
So what I've learnedaprendido
70
187000
2000
Lo que aprendí
03:24
throughmediante buildingedificio these systemssistemas
71
189000
2000
al desarrollar estos sistemas
03:26
is that robotsrobots are actuallyactualmente
72
191000
2000
es que los robots en realidad son
03:28
a really intriguingintrigante socialsocial technologytecnología,
73
193000
2000
una tecnología social fascinante
03:30
where it's actuallyactualmente theirsu abilitycapacidad
74
195000
2000
donde su capacidad real
03:32
to pushempujar our socialsocial buttonsbotones
75
197000
2000
para accionar nuestros resortes sociales
03:34
and to interactinteractuar with us like a partnercompañero
76
199000
2000
e interactuar con nosotros como socio
03:36
that is a corenúcleo partparte of theirsu functionalityfuncionalidad.
77
201000
3000
es una parte central de su funcionalidad.
03:39
And with that shiftcambio in thinkingpensando, we can now startcomienzo to imagineimagina
78
204000
2000
Y, con ese cambio de mentalidad, ahora podemos imaginar
03:41
newnuevo questionspreguntas, newnuevo possibilitiesposibilidades for robotsrobots
79
206000
3000
nuevos interrogantes, nuevas posibilidades para los robots
03:44
that we mightpodría not have thought about otherwisede otra manera.
80
209000
3000
que de otra forma no habríamos pensado.
03:47
But what do I mean when I say "pushempujar our socialsocial buttonsbotones?"
81
212000
2000
Pero, ¿qué quiero decir con "accionar los resortes sociales"?
03:49
Well, one of the things that we'venosotros tenemos learnedaprendido
82
214000
2000
Bien, una de las cosas que he aprendido
03:51
is that, if we designdiseño these robotsrobots to communicatecomunicar with us
83
216000
2000
es que, si diseñamos estos robots para comunicarse con nosotros
03:53
usingutilizando the samemismo bodycuerpo languageidioma,
84
218000
2000
usando el mismo tipo de lenguaje,
03:55
the samemismo sortordenar of non-verbalno verbal cuesseñales that people use --
85
220000
2000
el mismo tipo de señales no verbales que usa la gente
03:57
like NexiNexi, our humanoidhumanoide robotrobot, is doing here --
86
222000
3000
-como Nexi, nuestro robot humanoide lo hace aquí-
04:00
what we find is that people respondresponder to robotsrobots
87
225000
2000
vemos que la gente responde a los robots
04:02
a lot like they respondresponder to people.
88
227000
2000
muy similar a como responde a otras personas.
04:04
People use these cuesseñales to determinedeterminar things like how persuasivepersuasivo someonealguien is,
89
229000
3000
La gente usa estas señales para determinar cosas como cuán persuasivo es alguien,
04:07
how likableagradable, how engagingatractivo,
90
232000
2000
cuán simpático, cuán participativo,
04:09
how trustworthyconfiable.
91
234000
2000
cuán confiable.
04:11
It turnsvueltas out it's the samemismo for robotsrobots.
92
236000
2000
Resulta que es lo mismo para los robots.
04:13
It's turningtorneado out now
93
238000
2000
Ahora está resultando que
04:15
that robotsrobots are actuallyactualmente becomingdevenir a really interestinginteresante newnuevo scientificcientífico toolherramienta
94
240000
3000
los robots se están convirtiendo en una nueva herramienta científica
04:18
to understandentender humanhumano behaviorcomportamiento.
95
243000
2000
muy interesante para entender el comportamiento humano.
04:20
To answerresponder questionspreguntas like, how is it that, from a briefbreve encounterencuentro,
96
245000
3000
Para responder a preguntas como: ¿cómo es que, a partir de un breve encuentro,
04:23
we're ablepoder to make an estimateestimar of how trustworthyconfiable anotherotro personpersona is?
97
248000
3000
somos capaces de estimar cuán confiable es otra persona?
04:26
Mimicry'sMimicry believedcreído to playjugar a rolepapel, but how?
98
251000
3000
Se cree que la imitación juega un papel, pero ¿cómo?
04:29
Is it the mimickingimitando of particularespecial gesturesgestos that mattersasuntos?
99
254000
3000
¿Es la imitación de gestos específicos lo que importa?
04:32
It turnsvueltas out it's really harddifícil
100
257000
2000
Resulta que es muy difícil
04:34
to learnaprender this or understandentender this from watchingacecho people
101
259000
2000
aprender o entender esto de mirar a las personas
04:36
because when we interactinteractuar we do all of these cuesseñales automaticallyautomáticamente.
102
261000
3000
porque cuando nos comunicamos hacemos todas estas señales de forma automática.
04:39
We can't carefullycuidadosamente controlcontrolar them because they're subconscioussubconsciente for us.
103
264000
2000
No podemos controlarlas en detalle porque para nosotros son subconscientes.
04:41
But with the robotrobot, you can.
104
266000
2000
Pero con un robot se puede.
04:43
And so in this videovídeo here --
105
268000
2000
Y así en este video...
04:45
this is a videovídeo takentomado from DavidDavid DeSteno'sDeSteno's lablaboratorio at NortheasternDel nordeste UniversityUniversidad.
106
270000
3000
este es un video del laboratorio de David DeSteno en la Universidad de Northeastern.
04:48
He's a psychologistpsicólogo we'venosotros tenemos been collaboratingcolaborando with.
107
273000
2000
Él es un psicólogo con quien hemos estado colaborando.
04:50
There's actuallyactualmente a scientistcientífico carefullycuidadosamente controllingcontrolador Nexi'sNexi cuesseñales
108
275000
3000
Hay un control científico cuidadoso de las señales de Nexi
04:53
to be ablepoder to studyestudiar this questionpregunta.
109
278000
3000
para poder estudiar estas preguntas.
04:56
And the bottomfondo linelínea is -- the reasonrazón why this workstrabajos is
110
281000
2000
Y la conclusión es -la razón por la que esto funciona es-
04:58
because it turnsvueltas out people just behavecomportarse like people
111
283000
2000
porque resulta que la gente se comporta como gente
05:00
even when interactinginteractuando with a robotrobot.
112
285000
3000
aún interactuando con un robot.
05:03
So givendado that keyllave insightvisión,
113
288000
2000
Considerando esta idea clave,
05:05
we can now startcomienzo to imagineimagina
114
290000
2000
ahora podemos empezar a imaginar
05:07
newnuevo kindsclases of applicationsaplicaciones for robotsrobots.
115
292000
3000
nuevos tipos de aplicaciones para los robots.
05:10
For instanceejemplo, if robotsrobots do respondresponder to our non-verbalno verbal cuesseñales,
116
295000
3000
Por ejemplo, si los robots responden a nuestras señales no verbales,
05:13
maybe they would be a coolguay, newnuevo communicationcomunicación technologytecnología.
117
298000
4000
quizá esa sería una nueva tecnología de comunicación.
05:17
So imagineimagina this:
118
302000
2000
Imaginen esto:
05:19
What about a robotrobot accessoryaccesorio for your cellphoneTeléfono móvil?
119
304000
2000
¿Qué tal un accesorio robot para el móvil?
05:21
You call your friendamigo, she putspone her handsetauricular in a robotrobot,
120
306000
2000
Uno llama a una amiga, ella pone su auricular en un robot,
05:23
and, bambam! You're a MeBotMeBot --
121
308000
2000
y ¡chan! uno es MeBot;
05:25
you can make eyeojo contactcontacto, you can talk with your friendsamigos,
122
310000
3000
se puede hacer contacto visual, hablar con los amigos,
05:28
you can movemovimiento around, you can gesturegesto --
123
313000
2000
moverte, hacer gestos...
05:30
maybe the nextsiguiente bestmejor thing to really beingsiendo there, or is it?
124
315000
3000
tal vez lo más parecido a estar realmente allí, ¿o no?
05:33
To exploreexplorar this questionpregunta,
125
318000
2000
Para explorar este interrogante
05:35
my studentestudiante, SiggySiggy AdalgeirssonAdalgeirsson, did a studyestudiar
126
320000
3000
mi estudiante, Siggy Adalgeirsson, hizo un estudio
05:38
where we broughttrajo humanhumano participantsParticipantes, people, into our lablaboratorio
127
323000
3000
donde trajimos participantes humanos, gente, a nuestro laboratorio
05:41
to do a collaborativecolaborativo tasktarea
128
326000
2000
para hacer una tarea colaborativa
05:43
with a remoteremoto collaboratorcolaborador.
129
328000
2000
con un colaborador a distancia.
05:45
The tasktarea involvedinvolucrado things
130
330000
2000
La tarea implicó cosas como
05:47
like looking at a setconjunto of objectsobjetos on the tablemesa,
131
332000
2000
mirar un conjunto de objetos sobre una mesa,
05:49
discussingque se discute them in termscondiciones of theirsu importanceimportancia and relevancepertinencia to performingamaestrado a certaincierto tasktarea --
132
334000
3000
analizarlos en términos de su importancia y pertinencia para realizar una determinada tarea
05:52
this endedterminado up beingsiendo a survivalsupervivencia tasktarea --
133
337000
2000
-esto terminó siendo una tarea de supervivencia-
05:54
and then ratingclasificación them in termscondiciones
134
339000
2000
y luego clasificarlos en términos
05:56
of how valuablevalioso and importantimportante they thought they were.
135
341000
2000
de cuán valioso e importante pensaban que eran.
05:58
The remoteremoto collaboratorcolaborador was an experimenterexperimentador from our groupgrupo
136
343000
3000
El colaborador a distancia fue un experimentador de nuestro grupo
06:01
who used one of threeTres differentdiferente technologiestecnologías
137
346000
2000
donde se usó una de las tres tecnologías diferentes
06:03
to interactinteractuar with the participantsParticipantes.
138
348000
2000
para interactuar con los participantes.
06:05
The first was just the screenpantalla.
139
350000
2000
Así que lo primero fue sólo la pantalla.
06:07
This is just like videovídeo conferencingconferencia todayhoy.
140
352000
3000
Esto es como la videoconferencia de hoy.
06:10
The nextsiguiente was to addañadir mobilitymovilidad -- so, have the screenpantalla on a mobilemóvil basebase.
141
355000
3000
Lo siguiente fue agregarle movilidad: la pantalla sobre una base móvil.
06:13
This is like, if you're familiarfamiliar with any of the telepresencetelepresencia robotsrobots todayhoy --
142
358000
3000
Si están familiarizados con algunos de los robots telepresenciales de hoy,
06:16
this is mirroringreflejo that situationsituación.
143
361000
3000
esto es como un reflejo de esa situación.
06:19
And then the fullycompletamente expressiveexpresivo MeBotMeBot.
144
364000
2000
Y luego MeBot completamente expresivo.
06:21
So after the interactionInteracción,
145
366000
2000
Luego de la interacción
06:23
we askedpreguntó people to ratetarifa theirsu qualitycalidad of interactionInteracción
146
368000
3000
le pedimos a la gente que calificara su calidad de interacción
06:26
with the technologytecnología, with a remoteremoto collaboratorcolaborador
147
371000
2000
con la tecnología, con el colaborador a distancia,
06:28
throughmediante this technologytecnología, in a numbernúmero of differentdiferente waysformas.
148
373000
3000
a través de esta tecnología en diferentes formas.
06:31
We lookedmirado at psychologicalpsicológico involvementenredo --
149
376000
2000
Observamos la participación psicológica:
06:33
how much empathyempatía did you feel for the other personpersona?
150
378000
2000
¿Cuánta empatía sentiste por la otra persona?
06:35
We lookedmirado at overallen general engagementcompromiso.
151
380000
2000
Observamos la participación general.
06:37
We lookedmirado at theirsu desiredeseo to cooperatecooperar.
152
382000
2000
Observamos sus deseos de colaborar.
06:39
And this is what we see when they use just the screenpantalla.
153
384000
3000
Y esto es lo que vemos cuando sólo usan la pantalla.
06:42
It turnsvueltas out, when you addañadir mobilitymovilidad -- the abilitycapacidad to rollrodar around the tablemesa --
154
387000
3000
Resulta que cuando se agrega movilidad -la capacidad de rodar por la mesa-
06:45
you get a little more of a boostaumentar.
155
390000
2000
se logra un poco más de estímulo.
06:47
And you get even more of a boostaumentar when you addañadir the fullcompleto expressionexpresión.
156
392000
3000
Y aún más si se agrega expresividad completa.
06:50
So it seemsparece like this physicalfísico, socialsocial embodimentencarnación
157
395000
2000
Pareciera como que esta personificación física social
06:52
actuallyactualmente really makeshace a differencediferencia.
158
397000
2000
realmente marca una diferencia.
06:54
Now let's try to put this into a little bitpoco of contextcontexto.
159
399000
3000
Ahora tratemos de darle a esto un poco de contexto.
06:57
TodayHoy we know that familiesfamilias are livingvivo furtherpromover and furtherpromover apartaparte,
160
402000
3000
Sabemos que las familias de hoy viven cada vez más separadas
07:00
and that definitelyseguro takes a tollPeaje on familyfamilia relationshipsrelaciones
161
405000
2000
y definitivamente eso tiene un gran impacto en las relaciones
07:02
and familyfamilia bondscautiverio over distancedistancia.
162
407000
2000
y en los lazos familiares en la distancia.
07:04
For me, I have threeTres youngjoven boyschicos,
163
409000
2000
En mi caso, tengo 3 niños pequeños
07:06
and I want them to have a really good relationshiprelación
164
411000
2000
y quiero que tengan una relación muy buena
07:08
with theirsu grandparentsabuelos.
165
413000
2000
con sus abuelos.
07:10
But my parentspadres livevivir thousandsmiles of milesmillas away,
166
415000
2000
Pero mis padres viven a miles de kilómetros de distancia,
07:12
so they just don't get to see eachcada other that oftena menudo.
167
417000
2000
por lo tanto no se ven con mucha frecuencia.
07:14
We try SkypeSkype, we try phoneteléfono callsllamadas,
168
419000
2000
Intentamos con Skype, con el teléfono,
07:16
but my boyschicos are little -- they don't really want to talk;
169
421000
2000
pero mis niños son pequeños; realmente no quieren hablar,
07:18
they want to playjugar.
170
423000
2000
quieren jugar.
07:20
So I love the ideaidea of thinkingpensando about robotsrobots
171
425000
2000
Les encanta la idea de pensar en los robots
07:22
as a newnuevo kindtipo of distance-playdistancia-juego technologytecnología.
172
427000
3000
como un nueva tecnología para jugar a la distancia.
07:25
I imagineimagina a time not too farlejos from now --
173
430000
3000
Así que imagino un tiempo no muy lejano...
07:28
my mommamá can go to her computercomputadora,
174
433000
2000
mi madre va a su computadora,
07:30
openabierto up a browsernavegador and jackJack into a little robotrobot.
175
435000
2000
abre un navegador y se conecta con un pequeño robot.
07:32
And as grandma-botabuela-bot,
176
437000
3000
Y como abuela-robot,
07:35
she can now playjugar, really playjugar,
177
440000
2000
ahora puede jugar, realmente jugar,
07:37
with my sonshijos, with her grandsonsnietos,
178
442000
2000
con mis hijos, con sus nietos,
07:39
in the realreal worldmundo with his realreal toysjuguetes.
179
444000
3000
en el mundo real, con sus juguetes reales.
07:42
I could imagineimagina grandmothersabuelas beingsiendo ablepoder to do social-playsjuegos sociales
180
447000
2000
Imagino a las abuelas pudiendo jugar
07:44
with theirsu granddaughtersnietas, with theirsu friendsamigos,
181
449000
2000
con sus nietas, con sus amigos,
07:46
and to be ablepoder to sharecompartir all kindsclases of other activitiesocupaciones around the housecasa,
182
451000
2000
y pudiendo compartir todo tipo de actividades en la casa,
07:48
like sharingcompartiendo a bedtimehora de acostarse storyhistoria.
183
453000
2000
como compartir un cuento antes de dormir.
07:50
And throughmediante this technologytecnología,
184
455000
2000
Y a través de esta tecnología
07:52
beingsiendo ablepoder to be an activeactivo participantpartícipe
185
457000
2000
participar activamente
07:54
in theirsu grandchildren'snietos livesvive
186
459000
2000
en las vidas de sus nietos
07:56
in a way that's not possibleposible todayhoy.
187
461000
2000
de una forma que hoy no es posible.
07:58
Let's think about some other domainsdominios,
188
463000
2000
Pensemos en algunos otros ámbitos
08:00
like maybe healthsalud.
189
465000
2000
como ser la salud.
08:02
So in the UnitedUnido StatesEstados todayhoy,
190
467000
2000
Hoy en EEUU
08:04
over 65 percentpor ciento of people are eitherya sea overweightexceso de peso or obeseobeso,
191
469000
3000
más del 65% de las personas tienen sobrepeso o son obesos,
08:07
and now it's a biggrande problemproblema with our childrenniños as well.
192
472000
2000
y también tenemos un gran problema con los niños.
08:09
And we know that as you get oldermayor in life,
193
474000
2000
Y sabemos que a medida que uno envejece en la vida,
08:11
if you're obeseobeso when you're youngermas joven, that can leaddirigir to chroniccrónico diseasesenfermedades
194
476000
3000
si de joven fue obeso, puede tener enfermedades crónicas
08:14
that not only reducereducir your qualitycalidad of life,
195
479000
2000
que no sólo disminuyen la calidad de vida
08:16
but are a tremendoustremendo economiceconómico burdencarga on our healthsalud carecuidado systemsistema.
196
481000
3000
sino que son una enorme carga económica para el sistema de salud.
08:19
But if robotsrobots can be engagingatractivo,
197
484000
2000
Pero si los robots pueden ser interesantes,
08:21
if we like to cooperatecooperar with robotsrobots,
198
486000
2000
si nos gusta colaborar con los robots,
08:23
if robotsrobots are persuasivepersuasivo,
199
488000
2000
si los robots son convincentes,
08:25
maybe a robotrobot can help you
200
490000
2000
tal vez un robot puede ayudar
08:27
maintainmantener a dietdieta and exerciseejercicio programprograma,
201
492000
2000
a mantener un programa de dieta y ejercicios,
08:29
maybe they can help you managegestionar your weightpeso.
202
494000
3000
tal vez puede ayudar a controlar el peso.
08:32
SortOrdenar of like a digitaldigital JiminyJiminy --
203
497000
2000
Una especie de Pepito Grillo digital,
08:34
as in the well-knownbien conocido fairyhada talecuento --
204
499000
2000
como el muy conocido cuento de hadas,
08:36
a kindtipo of friendlyamistoso, supportiveapoyo presencepresencia that's always there
205
501000
2000
un sostén amigable que siempre está ahí
08:38
to be ablepoder to help you make the right decisiondecisión
206
503000
2000
para ayudar a tomar la decisión correcta
08:40
in the right way at the right time
207
505000
2000
de la forma correcta, en el momento adecuado,
08:42
to help you formformar healthysaludable habitshábitos.
208
507000
2000
para ayudar a formar hábitos saludables.
08:44
So we actuallyactualmente exploredexplorado this ideaidea in our lablaboratorio.
209
509000
2000
Así que exploramos esta idea en nuestro laboratorio.
08:46
This is a robotrobot, AutomAutom.
210
511000
2000
Este es un robot, Autom.
08:48
CoryCory KiddKidd developeddesarrollado this robotrobot for his doctoraldoctoral work.
211
513000
3000
Cory Kidd desarrolló este robot para su trabajo de doctorado.
08:51
And it was designeddiseñado to be a robotrobot diet-and-exercisedieta y ejercicio coachentrenador.
212
516000
3000
Y fue diseñado para ser un consejero de dieta y ejercicios.
08:54
It had a couplePareja of simplesencillo non-verbalno verbal skillshabilidades it could do.
213
519000
2000
Podía realizar un par de habilidades no verbales simples.
08:56
It could make eyeojo contactcontacto with you.
214
521000
2000
Podía hacer contacto visual.
08:58
It could sharecompartir informationinformación looking down at a screenpantalla.
215
523000
2000
Podía compartir información mirando a una pantalla.
09:00
You'dTu hubieras use a screenpantalla interfaceinterfaz to enterentrar informationinformación,
216
525000
2000
Uno usaba una interfaz de pantalla para ingreso de datos,
09:02
like how manymuchos caloriescalorías you atecomió that day,
217
527000
2000
como la cantidad de calorías consumidas ese día,
09:04
how much exerciseejercicio you got.
218
529000
2000
y la cantidad de ejercicio realizado.
09:06
And then it could help trackpista that for you.
219
531000
2000
Y entonces podía ayudar en el seguimiento.
09:08
And the robotrobot spokehabló with a syntheticsintético voicevoz
220
533000
2000
Y el robot hablaba con voz sintética
09:10
to engagecontratar you in a coachingentrenamiento dialoguediálogo
221
535000
2000
para entablar un diálogo de consejero
09:12
modeledmodelado after trainersentrenadores
222
537000
2000
modelado a partir de
09:14
and patientspacientes and so forthadelante.
223
539000
2000
entrenadores, pacientes, etc.
09:16
And it would buildconstruir a workingtrabajando allianceAlianza with you
224
541000
2000
Y construía una alianza de trabajo con uno
09:18
throughmediante that dialoguediálogo.
225
543000
2000
mediante ese diálogo.
09:20
It could help you setconjunto goalsmetas and trackpista your progressProgreso,
226
545000
2000
Podía ayudar a fijar objetivos y hacer el seguimiento del progreso,
09:22
and it would help motivatemotivar you.
227
547000
2000
y servía de motivación.
09:24
So an interestinginteresante questionpregunta is,
228
549000
2000
Una pregunta interesante es:
09:26
does the socialsocial embodimentencarnación really matterimportar? Does it matterimportar that it's a robotrobot?
229
551000
3000
¿La encarnación social es tan importante? ¿Importa que sea un robot?
09:29
Is it really just the qualitycalidad of adviceConsejo and informationinformación that mattersasuntos?
230
554000
3000
¿Es la calidad del asesoramiento y la información lo que realmente importa?
09:32
To exploreexplorar that questionpregunta,
231
557000
2000
Para responder esa pregunta
09:34
we did a studyestudiar in the BostonBostón areazona
232
559000
2000
hicimos un estudio en el área de Boston
09:36
where we put one of threeTres interventionsintervenciones in people'sla gente homeshogares
233
561000
3000
donde pusimos una de tres intervenciones en los hogares
09:39
for a periodperíodo of severalvarios weekssemanas.
234
564000
2000
durante varias semanas.
09:41
One casecaso was the robotrobot you saw there, AutomAutom.
235
566000
3000
Uno de los casos fue el robot que vieron ahí, Autom.
09:44
AnotherOtro was a computercomputadora that rancorrió the samemismo touch-screenpantalla táctil interfaceinterfaz,
236
569000
3000
Otro fue una computadora que ejecutó la misma interfaz de pantalla táctil,
09:47
rancorrió exactlyexactamente the samemismo dialoguesdiálogos.
237
572000
2000
ejecutó exactamente los mismos diálogos.
09:49
The qualitycalidad of adviceConsejo was identicalidéntico.
238
574000
2000
La calidad del asesoramiento fue idéntico.
09:51
And the thirdtercero was just a penbolígrafo and paperpapel logIniciar sesión,
239
576000
2000
Y el tercero fue un bolígrafo y un anotador,
09:53
because that's the standardestándar interventionintervención you typicallytípicamente get
240
578000
2000
porque ese es el material típico utilizado
09:55
when you startcomienzo a diet-and-exercisedieta y ejercicio programprograma.
241
580000
3000
al empezar la dieta y el ejercicio.
09:58
So one of the things we really wanted to look at
242
583000
3000
Así que una de las cosas que realmente queríamos ver
10:01
was not how much weightpeso people lostperdió,
243
586000
3000
no era cuánto adelgazaba la gente,
10:04
but really how long they interactedinteractuado with the robotrobot.
244
589000
3000
sino cuánto interactuaban con el robot.
10:07
Because the challengereto is not losingperdiendo weightpeso, it's actuallyactualmente keepingacuerdo it off.
245
592000
3000
Porque el desafío no es adelgazar sino mantenerse.
10:10
And the longermás you could interactinteractuar with one of these interventionsintervenciones,
246
595000
3000
Y cuanto más interacción haya con el material
10:13
well that's indicativeindicativo, potentiallypotencialmente, of longer-terma más largo plazo successéxito.
247
598000
3000
más probable es el éxito a largo plazo.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Entonces lo primero que quiero observar
10:18
how long did people interactinteractuar with these systemssistemas.
249
603000
2000
es cuánto tiempo interactuaba la gente con estos sistemas.
10:20
It turnsvueltas out that people interactedinteractuado with the robotrobot
250
605000
2000
Resulta que la gente interactuaba con el robot
10:22
significantlysignificativamente more,
251
607000
2000
mucho más,
10:24
even thoughaunque the qualitycalidad of the adviceConsejo was identicalidéntico to the computercomputadora.
252
609000
3000
aún cuando la calidad del asesoramiento era idéntico al de la computadora.
10:28
When it askedpreguntó people to ratetarifa it on termscondiciones of the qualitycalidad of the workingtrabajando allianceAlianza,
253
613000
3000
Cuando se pidió a la gente que calificara la calidad de la colaboración,
10:31
people ratedclasificado the robotrobot highermayor
254
616000
2000
el robot tuvo mayor calificación
10:33
and they trustedconfiable the robotrobot more.
255
618000
2000
y confiaban más en él.
10:35
(LaughterRisa)
256
620000
2000
(Risas)
10:37
And when you look at emotionalemocional engagementcompromiso,
257
622000
2000
Y si miramos la integración emocional
10:39
it was completelycompletamente differentdiferente.
258
624000
2000
fue completamente diferente.
10:41
People would namenombre the robotsrobots.
259
626000
2000
La gente le da nombre a los robots.
10:43
They would dressvestir the robotsrobots.
260
628000
2000
Los visten.
10:45
(LaughterRisa)
261
630000
2000
(Risas)
10:47
And even when we would come up to pickrecoger up the robotsrobots at the endfin of the studyestudiar,
262
632000
3000
Incluso cuando pasábamos a recoger los robots al final del estudio,
10:50
they would come out to the carcoche and say good-byeadiós to the robotsrobots.
263
635000
2000
nos acompañaban al auto y les decían adiós a los robots.
10:52
They didn't do this with a computercomputadora.
264
637000
2000
No hacían esto con una computadora.
10:54
The last thing I want to talk about todayhoy
265
639000
2000
Por último quiero hablar
10:56
is the futurefuturo of children'spara niños mediamedios de comunicación.
266
641000
2000
del futuro de los medios para niños.
10:58
We know that kidsniños spendgastar a lot of time behinddetrás screenspantallas todayhoy,
267
643000
3000
Sabemos que hoy los niños pasan mucho tiempo detrás de las pantallas,
11:01
whethersi it's televisiontelevisión or computercomputadora gamesjuegos or whatnotcualquier cosa.
268
646000
3000
sean de televisión, o de videojuegos, etc.
11:04
My sonshijos, they love the screenpantalla. They love the screenpantalla.
269
649000
3000
Mis hijos adoran la pantalla. Les encanta.
11:07
But I want them to playjugar; as a mommamá, I want them to playjugar,
270
652000
3000
Pero quiero que jueguen, como madre quiero que ellos jueguen
11:10
like, real-worldmundo real playjugar.
271
655000
2000
juegos del mundo real.
11:12
And so I have a newnuevo projectproyecto in my groupgrupo I wanted to presentpresente to you todayhoy
272
657000
3000
Por eso tengo un nuevo proyecto en mi grupo que quiero presentarles hoy
11:15
calledllamado PlaytimeTiempo de juego ComputingInformática
273
660000
2000
llamado Playtime Computing [Info Recreo, NT]
11:17
that's really tryingmolesto to think about how we can take
274
662000
2000
que trata de pensar
11:19
what's so engagingatractivo about digitaldigital mediamedios de comunicación
275
664000
2000
qué es lo interesante de los medios digitales
11:21
and literallyliteralmente bringtraer it off the screenpantalla
276
666000
2000
y llevarlos, literalmente, fuera de la pantalla,
11:23
into the realreal worldmundo of the childniño,
277
668000
2000
hacia el mundo real del niño,
11:25
where it can take on manymuchos of the propertiespropiedades of real-worldmundo real playjugar.
278
670000
3000
donde pueda adoptar muchas de las propiedades del juego del mundo real.
11:29
So here'saquí está the first explorationexploración of this ideaidea,
279
674000
4000
Esta es la primera exploración de esta idea
11:33
where characterscaracteres can be physicalfísico or virtualvirtual,
280
678000
3000
en la que los personajes pueden ser físicos o virtuales,
11:36
and where the digitaldigital contentcontenido
281
681000
2000
y el contenido digital
11:38
can literallyliteralmente come off the screenpantalla
282
683000
2000
literalmente puede salir de la pantalla
11:40
into the worldmundo and back.
283
685000
2000
al mundo real y volver.
11:42
I like to think of this
284
687000
2000
Me gusta pensarlo
11:44
as the AtariAtari PongApestar
285
689000
2000
como el Atari Pong
11:46
of this blended-realitymezcla de realidad playjugar.
286
691000
2000
de este juego de realidad híbrida.
11:48
But we can pushempujar this ideaidea furtherpromover.
287
693000
2000
Pero podemos llevar esta idea más lejos.
11:50
What if --
288
695000
2000
¿Qué tal si...
11:52
(GameJuego) NathanNathan: Here it comesproviene. YayHurra!
289
697000
3000
(Juego) Nathan: Aquí viene. ¡Sí!
11:55
CBCB: -- the characterpersonaje itselfsí mismo could come into your worldmundo?
290
700000
3000
CB: ...el personaje mismo puede entrar a tu mundo?
11:58
It turnsvueltas out that kidsniños love it
291
703000
2000
Resulta que a las niños les encanta
12:00
when the characterpersonaje becomesse convierte realreal and entersentra into theirsu worldmundo.
292
705000
3000
cuando el personaje se vuelve real y entra en su mundo.
12:03
And when it's in theirsu worldmundo,
293
708000
2000
Y cuando está en su mundo,
12:05
they can relaterelacionar to it and playjugar with it in a way
294
710000
2000
se pueden relacionar y jugar de una forma
12:07
that's fundamentallyfundamentalmente differentdiferente from how they playjugar with it on the screenpantalla.
295
712000
2000
totalmente diferente a como juegan en la pantalla.
12:09
AnotherOtro importantimportante ideaidea is this notionnoción
296
714000
2000
También es importante esta idea
12:11
of persistencepersistencia of characterpersonaje acrossa través de realitiesrealidades.
297
716000
3000
de la persistencia del personaje a través de las realidades.
12:14
So changescambios that childrenniños make in the realreal worldmundo
298
719000
2000
Así que los cambios que los niños hacen en el mundo real
12:16
need to translatetraducir to the virtualvirtual worldmundo.
299
721000
2000
deben trasladarse al mundo virtual.
12:18
So here, NathanNathan has changedcambiado the lettercarta A to the numbernúmero 2.
300
723000
3000
Aquí, Nathan ha cambiado la letra A por el número 2.
12:21
You can imagineimagina maybe these symbolssímbolos
301
726000
2000
Imaginen que quizás estos símbolos
12:23
give the characterscaracteres specialespecial powerspotestades when it goesva into the virtualvirtual worldmundo.
302
728000
3000
le dan al personaje poderes especiales cuando entra al mundo virtual.
12:26
So they are now sendingenviando the characterpersonaje back into that worldmundo.
303
731000
3000
Así que ahora están enviando de vuelta al personaje a ese mundo.
12:29
And now it's got numbernúmero powerpoder.
304
734000
3000
Y ahora tiene poder de número.
12:32
And then finallyfinalmente, what I've been tryingmolesto to do here
305
737000
2000
Y, finalmente, aquí estoy tratando de
12:34
is createcrear a really immersiveinmersivo experienceexperiencia for kidsniños,
306
739000
3000
crear una experiencia realmente inmersiva para los niños,
12:37
where they really feel like they are partparte of that storyhistoria,
307
742000
3000
donde de verdad se sientan parte de esa historia,
12:40
a partparte of that experienceexperiencia.
308
745000
2000
parte de esa experiencia.
12:42
And I really want to sparkchispa theirsu imaginationsimaginaciones
309
747000
2000
Y realmente quiero despertar su imaginación
12:44
the way minemía was sparkedchispeado as a little girlniña watchingacecho "StarEstrella WarsGuerras."
310
749000
3000
así como "La Guerra de las Galaxias" despertó mi imaginación.
12:47
But I want to do more than that.
311
752000
2000
Pero quiero hacer más que eso.
12:49
I actuallyactualmente want them to createcrear those experiencesexperiencias.
312
754000
3000
De hecho, quiero que ellos creen esas experiencias.
12:52
I want them to be ablepoder to literallyliteralmente buildconstruir theirsu imaginationimaginación
313
757000
2000
Quiero que sean capaces de construir su imaginación
12:54
into these experiencesexperiencias and make them theirsu ownpropio.
314
759000
2000
con estas experiencias y que las hagan propias.
12:56
So we'venosotros tenemos been exploringexplorador a lot of ideasideas
315
761000
2000
Para ello hemos estado explorando un montón de ideas
12:58
in telepresencetelepresencia and mixedmezclado realityrealidad
316
763000
2000
en telepresencia y realidad híbrida
13:00
to literallyliteralmente allowpermitir kidsniños to projectproyecto theirsu ideasideas into this spaceespacio
317
765000
3000
para posibilitarles a los niños proyectar sus ideas en este espacio
13:03
where other kidsniños can interactinteractuar with them
318
768000
2000
donde puedan interactuar con otros niños
13:05
and buildconstruir uponsobre them.
319
770000
2000
y construir sobre ello.
13:07
I really want to come up with newnuevo waysformas of children'spara niños mediamedios de comunicación
320
772000
3000
Quiero llegar a nuevas formas de medios para niños
13:10
that fosterfomentar creativitycreatividad and learningaprendizaje and innovationinnovación.
321
775000
3000
que fomenten la creatividad, el aprendizaje y la innovación.
13:13
I think that's very, very importantimportante.
322
778000
3000
Creo que eso es muy, muy importante.
13:16
So this is a newnuevo projectproyecto.
323
781000
2000
Así que este es un nuevo proyecto.
13:18
We'veNosotros tenemos invitedinvitado a lot of kidsniños into this spaceespacio,
324
783000
2000
Hemos invitado a muchos niños a este espacio,
13:20
and they think it's prettybonita coolguay.
325
785000
3000
y ellos piensan que está muy bueno.
13:23
But I can tell you, the thing that they love the mostmás
326
788000
2000
Pero debo decirles que lo que más les gusta
13:25
is the robotrobot.
327
790000
2000
es el robot.
13:27
What they carecuidado about is the robotrobot.
328
792000
3000
Lo que les importa es el robot.
13:30
RobotsRobots touchtoque something deeplyprofundamente humanhumano withindentro us.
329
795000
3000
Los robots nos tocan una fibra humana íntima.
13:33
And so whethersi they're helpingración us
330
798000
2000
Y ya sea que nos estén ayudando
13:35
to becomevolverse creativecreativo and innovativeinnovador,
331
800000
2000
a ser más creativos e innovadores,
13:37
or whethersi they're helpingración us
332
802000
2000
o que nos ayuden
13:39
to feel more deeplyprofundamente connectedconectado despiteA pesar de distancedistancia,
333
804000
2000
a sentirnos más conectados a pesar de la distancia,
13:41
or whethersi they are our trustedconfiable sidekickcompañero
334
806000
2000
o que sean los secuaces en quien confiar
13:43
who'squien es helpingración us attainalcanzar our personalpersonal goalsmetas
335
808000
2000
que nos ayudan a lograr nuestras metas personales
13:45
in becomingdevenir our highestmás alto and bestmejor selvesyoes,
336
810000
2000
para dar lo mejor de nosotros mismos,
13:47
for me, robotsrobots are all about people.
337
812000
3000
para mí hablar de robots es hablar de personas.
13:50
Thank you.
338
815000
2000
Gracias.
13:52
(ApplauseAplausos)
339
817000
5000
(Aplausos)
Translated by Veronica Vera
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com