ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

Leila Takayama: ¿Cómo es ser un robot?

Filmed:
1,183,118 views

Ya vivimos entre robots: herramientas y máquinas como lavavajillas y termostatos tan integrados en nuestras vidas que nunca pensamos llamarlos así. ¿Cómo será un futuro con aún más robots? La especialista en ciencias sociales Leila Takayama comparte algunos desafíos únicos de diseño para las interacciones humano-robot, y cómo la experimentación con futuros robóticos en realidad nos lleva a una mejor comprensión de nosotros mismos.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

Solo se tiene una oportunidad
de causar una buena primera impresión,
00:12
You only get one chanceoportunidad
to make a first impressionimpresión,
0
760
2656
00:15
and that's truecierto if you're a robotrobot
as well as if you're a personpersona.
1
3440
3176
y eso es así, ya bien se sea
un robot o una persona.
00:18
The first time that I metreunió
one of these robotsrobots
2
6640
3016
La primera vez que conocí
a uno de estos robots
00:21
was at a placelugar
calledllamado WillowSauce GarageGaraje in 2008.
3
9680
2896
estaba en un lugar llamado
Willow Garage en 2008.
00:24
When I wentfuimos to visitvisitar there,
my hostanfitrión walkedcaminado me into the buildingedificio
4
12600
3016
Cuando fui allí,
mi anfitrión me acompañó al edificio
y conocimos a este pequeño hombre.
00:27
and we metreunió this little guy.
5
15640
1576
00:29
He was rollinglaminación into the hallwaypasillo,
6
17240
1656
Estaba rodando por el pasillo,
00:30
camevino up to me, satsab there,
7
18920
1816
se acercó a mí, se sentó allí,
00:32
staredmiró blanklycon la mirada vacía pastpasado me,
8
20760
2256
me miró sin comprender,
00:35
did nothing for a while,
9
23040
1656
no hizo nada un rato,
00:36
rapidlyrápidamente spunhilado his headcabeza around 180 degreesgrados
10
24720
1936
para rápidamente girar
su cabeza 180 grados
00:38
and then rancorrió away.
11
26680
1536
y huir.
00:40
And that was not a great first impressionimpresión.
12
28240
2176
Y esa no fue una buena primera impresión.
00:42
The thing that I learnedaprendido
about robotsrobots that day
13
30440
2176
Lo que aprendí sobre los robots ese día
00:44
is that they kindtipo of do theirsu ownpropio thing,
14
32640
2176
es que hacen su trabajo
00:46
and they're not totallytotalmente awareconsciente of us.
15
34840
2136
sin ser plenamente
conscientes de nosotros.
00:49
And I think as we're experimentingexperimentando
with these possibleposible robotrobot futuresfuturos,
16
37000
3239
Y creo que cuando experimentamos
con estos posibles futuros de robots,
00:52
we actuallyactualmente endfin up learningaprendizaje
a lot more about ourselvesNosotros mismos
17
40263
2673
en realidad aprendemos mucho más
sobre nosotros mismos
00:54
as opposedopuesto to just these machinesmáquinas.
18
42960
1656
que sobre estas máquinas.
00:56
And what I learnedaprendido that day
19
44640
1336
Y lo que aprendí ese día
00:58
was that I had prettybonita highalto
expectationsesperanzas de heredar for this little dudetipo.
20
46000
3416
fue que yo tenía muchas expectativas
en este pequeño amigo.
01:01
He was not only supposedsupuesto to be ablepoder
to navigatenavegar the physicalfísico worldmundo,
21
49440
3176
Pensaba que él no solo podía
navegar el mundo físico,
01:04
but alsoademás be ablepoder
to navigatenavegar my socialsocial worldmundo --
22
52640
2656
sino también mi mundo social,
01:07
he's in my spaceespacio; it's a personalpersonal robotrobot.
23
55320
2176
él está en mi espacio;
es un robot personal.
01:09
wWhywWhy didn't it understandentender me?
24
57520
2016
¿Por qué no me entendió?
01:11
My hostanfitrión explainedexplicado to me,
25
59560
1256
Mi anfitrión me explicó,
01:12
"Well, the robotrobot is tryingmolesto
to get from pointpunto A to pointpunto B,
26
60840
3176
"El robot intenta
ir del punto A al punto B,
01:16
and you were an obstacleobstáculo in his way,
27
64040
1776
y eras un obstáculo en su camino,
01:17
so he had to replanReplan his pathcamino,
28
65840
2016
así que tuvo que replanificar su camino,
01:19
figurefigura out where to go,
29
67880
1256
averiguar a dónde ir,
para luego llegar de otra manera".
01:21
and then get there some other way,"
30
69160
1696
Lo que en realidad no resulto ser
algo muy eficiente.
01:22
whichcual was actuallyactualmente
not a very efficienteficiente thing to do.
31
70880
2456
Si ese robot hubiera descubierto
que yo era una persona, no una silla,
01:25
If that robotrobot had figuredfigurado out
that I was a personpersona, not a chairsilla,
32
73360
3256
01:28
and that I was willingcomplaciente
to get out of its way
33
76640
2096
y que estaba dispuesta
a apartarme de su camino
01:30
if it was tryingmolesto to get somewherealgun lado,
34
78760
1656
si él quería llegar a alguna parte,
01:32
then it actuallyactualmente
would have been more efficienteficiente
35
80440
2216
entonces realmente
habría sido más eficiente
01:34
at gettingconsiguiendo its jobtrabajo donehecho
36
82680
1256
al hacer su trabajo
01:35
if it had botheredmolesto
to noticedarse cuenta that I was a humanhumano
37
83960
2216
si se hubiera molestado en entender
que yo era un humano
01:38
and that I have differentdiferente affordancesfacilidades
than things like chairssillas and wallsmuros do.
38
86200
3576
y que tengo posibilidades distintas de las
que tienen objetos como sillas y paredes.
01:41
You know, we tendtender to think of these robotsrobots
as beingsiendo from outerexterior spaceespacio
39
89800
3216
Tendemos a pensar que
estos robots son del espacio exterior
01:45
and from the futurefuturo
and from scienceciencia fictionficción,
40
93040
2136
y del futuro y de la ciencia ficción.
01:47
and while that could be truecierto,
41
95200
1416
Si bien eso podría ser cierto,
01:48
I'd actuallyactualmente like to arguediscutir
that robotsrobots are here todayhoy,
42
96640
2656
me gustaría exponer que
los robots están aquí hoy,
01:51
and they livevivir and work
amongstentre us right now.
43
99320
2776
y viven y trabajan
entre nosotros ahora.
01:54
These are two robotsrobots that livevivir in my home.
44
102120
2856
Estos son dos robots que viven en mi casa.
01:57
They vacuumvacío the floorspisos
and they cutcortar the grasscésped
45
105000
2496
Uno aspira los suelos y
el otro corta la hierba
01:59
everycada singlesoltero day,
46
107520
1216
todos los días.
02:00
whichcual is more than I would do
if I actuallyactualmente had time to do these tasksTareas,
47
108760
3376
Lo que es más de lo que yo haría si
tuviera tiempo para hacer estas tareas,
02:04
and they probablyprobablemente
do it better than I would, too.
48
112160
2336
y probablemente lo hacen mejor
de lo yo lo haría.
02:06
This one actuallyactualmente takes carecuidado of my kittybote.
49
114520
2496
Este realmente se ocupa de mi gatito.
02:09
EveryCada singlesoltero time
he usesusos the boxcaja, it cleanslimpia it,
50
117040
2576
Cada vez que usa la caja, la limpia,
02:11
whichcual is not something I'm willingcomplaciente to do,
51
119640
1976
que no es algo que tenga ganas de hacer,
02:13
and it actuallyactualmente makeshace
his life better as well as minemía.
52
121640
2576
y hace mejor la vida de mi gato y la mía.
02:16
And while we call these robotrobot productsproductos --
53
124240
2416
Y mientras llamamos
a estos robots:
02:18
it's a "robotrobot vacuumvacío cleanerlimpiador,
it's a robotrobot lawnmowercortacésped,
54
126680
2696
es un "robot aspirador,
es un robot cortacésped,
02:21
it's a robotrobot littlermás pequeño boxcaja,"
55
129400
1495
es una caja de robot más pequeña",
02:22
I think there's actuallyactualmente a bunchmanojo
of other robotsrobots hidingocultación in plainllanura sightvisión
56
130919
4137
creo que hay muchos otros robots
escondidos a plena vista
02:27
that have just becomevolverse so darnmaldito usefulútil
57
135080
1856
que se han vuelto
tan increíblemente útiles
02:28
and so darnmaldito mundanemundano
58
136960
1456
y mundanos
que los llamamos, por ejemplo,
"lavavajillas", ¿verdad?
02:30
that we call them things
like, "dishwasherlavavajillas," right?
59
138440
2496
02:32
They get newnuevo namesnombres.
60
140960
1216
Reciben nuevos nombres.
02:34
They don't get calledllamado robotrobot anymorenunca más
61
142200
1696
Ya no reciben el nombre de robot
porque sirven para un objetivo
en nuestras vidas.
02:35
because they actuallyactualmente
serveservir a purposepropósito in our livesvive.
62
143920
2416
Igualmente, un termostato, ¿verdad?
02:38
Similarlysimilar, a thermostattermostato, right?
63
146360
1496
Sé que mis amigos robotistas
02:39
I know my roboticsrobótica friendsamigos out there
64
147880
1776
quizá se encojan de hombros
al verme llamar a esto un robot,
02:41
are probablyprobablemente cringingpersona asquerosa
at me callingvocación this a robotrobot,
65
149680
2336
02:44
but it has a goalGol.
66
152040
1256
pero sirve a un objetivo.
02:45
Its goalGol is to make my housecasa
66 degreesgrados FahrenheitFahrenheit,
67
153320
2896
Su objetivo es tener mi casa
a la temperatura de 19 ºC
02:48
and it sensessentido the worldmundo.
68
156240
1256
y percibir el entorno.
02:49
It knowssabe it's a little bitpoco coldfrío,
69
157520
1576
Sabe que está un poco frío,
02:51
it makeshace a planplan and then
it actshechos on the physicalfísico worldmundo.
70
159120
2616
hace un plan y luego actúa
en el mundo físico.
02:53
It's roboticsrobótica.
71
161760
1256
Es robótica.
02:55
Even if it mightpodría not
look like RosieRosie the RobotRobot,
72
163040
2576
Incluso si no se parece a
Rosie the Robot,
02:57
it's doing something
that's really usefulútil in my life
73
165640
2936
está haciendo algo
que es realmente útil en mi vida
03:00
so I don't have to take carecuidado
74
168600
1376
para no tener que preocuparme
03:02
of turningtorneado the temperaturetemperatura
up and down myselfmí mismo.
75
170000
2576
de subir y bajar la temperatura yo misma.
03:04
And I think these systemssistemas
livevivir and work amongstentre us now,
76
172600
3816
Y creo que estos sistemas viven
y trabajan entre nosotros ahora,
03:08
and not only are these systemssistemas
livingvivo amongstentre us
77
176440
2336
y no solo estos sistemas
viven entre nosotros,
sino que probablemente también
sean usuarios de robots.
03:10
but you are probablyprobablemente
a robotrobot operatoroperador, too.
78
178800
2656
03:13
When you drivemanejar your carcoche,
79
181480
1256
Cuando conducen el auto,
03:14
it feelssiente like you are operatingoperando machinerymaquinaria.
80
182760
2216
es como estar manejando maquinaria.
03:17
You are alsoademás going
from pointpunto A to pointpunto B,
81
185000
2816
También uno va del punto A al punto B,
03:19
but your carcoche probablyprobablemente has powerpoder steeringgobierno,
82
187840
2216
pero su auto probablemente
disponga de dirección asistida,
03:22
it probablyprobablemente has automaticautomático brakingfrenado systemssistemas,
83
190080
2696
probablemente tenga
un sistema de frenado automático,
03:24
it mightpodría have an automaticautomático transmissiontransmisión
and maybe even adaptiveadaptado cruisecrucero controlcontrolar.
84
192800
3736
o un cambio de marchas automático y quizá
control de velocidad adaptativo.
03:28
And while it mightpodría not be
a fullycompletamente autonomousautónomo carcoche,
85
196560
2936
Y aunque no sea un automóvil
completamente autónomo,
03:31
it has bitsbits of autonomyautonomía,
86
199520
1296
tiene pedazos de autonomía,
03:32
and they're so usefulútil
87
200840
1336
y son muy útiles
03:34
and they make us drivemanejar safermás seguro,
88
202200
1816
y nos hacen manejar más seguros,
03:36
and we just sortordenar of feel
like they're invisible-in-useinvisible en el uso, right?
89
204040
3656
y parece como
si fueran invisibles al usarlos, ¿verdad?
03:39
So when you're drivingconducción your carcoche,
90
207720
1576
Cuando manejamos el auto,
03:41
you should just feel like
you're going from one placelugar to anotherotro.
91
209320
3096
simplemente sentimos
que vamos de un lugar a otro.
03:44
It doesn't feel like it's this biggrande thing
that you have to dealacuerdo with and operatefuncionar
92
212440
3736
No parece algo especial lidiar y operar
y utilizar controles
03:48
and use these controlscontroles
93
216200
1256
porque pasamos tanto tiempo
aprendiendo cómo conducir
03:49
because we spentgastado so long
learningaprendizaje how to drivemanejar
94
217480
2176
que los actos se han convertido
en extensiones de nosotros mismos.
03:51
that they'veellos tienen becomevolverse
extensionsextensiones of ourselvesNosotros mismos.
95
219680
2696
03:54
When you parkparque that carcoche
in that tightapretado little garagegaraje spaceespacio,
96
222400
2696
Cuando estacionamos el auto
en ese espacio estrecho de garaje,
03:57
you know where your cornersesquinas are.
97
225120
1576
sabemos dónde están los rincones.
03:58
And when you drivemanejar a rentalalquiler carcoche
that maybe you haven'tno tiene drivenimpulsado before,
98
226720
3256
Y cuando conducimos un auto alquilado
que no hemos conducido antes,
04:02
it takes some time
to get used to your newnuevo robotrobot bodycuerpo.
99
230000
3056
toma algo de tiempo acostumbrarse
a su nuevo cuerpo de robot.
04:05
And this is alsoademás truecierto for people
who operatefuncionar other typestipos of robotsrobots,
100
233080
3976
Y esto también aplica a las personas
que manejan otros tipos de robots.
04:09
so I'd like to sharecompartir with you
a fewpocos storiescuentos about that.
101
237080
2600
Me gustaría compartir con Uds.
algunas historias sobre eso.
Lidiando con el problema
de la colaboración remota.
04:12
DealingRelación comercial with the problemproblema
of remoteremoto collaborationcolaboración.
102
240240
2336
En Willow Garage tenía
un compañero de trabajo llamado Dallas,
04:14
So, at WillowSauce GarageGaraje
I had a coworkercompañero de trabajo namedllamado DallasDallas,
103
242600
2576
04:17
and DallasDallas lookedmirado like this.
104
245200
1576
y Dallas era así.
04:18
He workedtrabajó from his home in IndianaIndiana
in our companyempresa in CaliforniaCalifornia.
105
246800
4056
Trabajaba desde su casa en Indiana
en nuestra compañía en California.
Él era una voz en una caja sobre la mesa
en la mayoría de nuestras reuniones,
04:22
He was a voicevoz in a boxcaja
on the tablemesa in mostmás of our meetingsreuniones,
106
250880
2936
04:25
whichcual was kindtipo of OK
exceptexcepto that, you know,
107
253840
2215
lo que estaba bien, excepto
04:28
if we had a really heatedcalentado debatedebate
and we didn't like what he was sayingdiciendo,
108
256079
3377
si teníamos un debate acalorado
y no nos gustaba lo que decía,
podíamos simplemente colgar el teléfono.
04:31
we mightpodría just hangcolgar up on him.
109
259480
1416
04:32
(LaughterRisa)
110
260920
1015
(Risas)
04:33
Then we mightpodría have a meetingreunión
after that meetingreunión
111
261959
2217
Y podíamos tener una reunión
tras esa reunión
04:36
and actuallyactualmente make the decisionsdecisiones
in the hallwaypasillo afterwardsdespués
112
264200
2696
y tomar las decisiones en el pasillo
04:38
when he wasn'tno fue there anymorenunca más.
113
266920
1416
cuando él ya no estaba allí.
04:40
So that wasn'tno fue so great for him.
114
268360
1576
Y eso no era tan bueno para él.
04:41
And as a roboticsrobótica companyempresa at WillowSauce,
115
269960
1736
Y como compañía robótica en Willow,
04:43
we had some extraextra
robotrobot bodycuerpo partspartes layingtendido around,
116
271720
2336
teníamos algunas partes extra
de cuerpo del robot por ahí,
04:46
so DallasDallas and his buddycompañero CurtCurt
put togetherjuntos this thing,
117
274080
2496
y Dallas y su amigo Curt armaron esto,
04:48
whichcual looksmiradas kindtipo of
like SkypeSkype on a stickpalo on wheelsruedas,
118
276600
2936
que se parece a Skype
en un palo sobre ruedas,
04:51
whichcual seemsparece like a techyTechy, sillytonto toyjuguete,
119
279560
1736
que parece un juguete teki, tonto,
04:53
but really it's probablyprobablemente
one of the mostmás powerfulpoderoso toolsherramientas
120
281320
2776
pero probablemente sea
una de las herramientas más poderosas
04:56
that I've seenvisto ever madehecho
for remoteremoto collaborationcolaboración.
121
284120
2480
que he visto para colaboración remota.
04:59
So now, if I didn't answerresponder
Dallas'Dallas' emailcorreo electrónico questionpregunta,
122
287160
3496
Si no respondía la pregunta
de Dallas por correo electrónico,
05:02
he could literallyliteralmente rollrodar into my officeoficina,
123
290680
2216
él podía, literalmente,
rodar por mi oficina,
05:04
blockbloquear my doorwaypuerta
and askpedir me the questionpregunta again --
124
292920
2576
bloquear mi puerta y hacerme
la pregunta nuevamente
05:07
(LaughterRisa)
125
295520
1016
(Risas)
05:08
untilhasta I answeredcontestada it.
126
296560
1216
hasta que yo respondía.
05:09
And I'm not going to turngiro him off, right?
That's kindtipo of rudegrosero.
127
297800
2976
Y no voy a rechazarlo, ¿verdad?
Eso sería grosero.
05:12
Not only was it good
for these one-on-oneuno a uno communicationsComunicaciones,
128
300800
2696
No solo era bueno para
estas comunicaciones uno-a-uno,
05:15
but alsoademás for just showingdemostración up
at the companyempresa all-handsTodas las manos meetingreunión.
129
303520
2936
sino también en la reunión
general de la compañía.
05:18
GettingConsiguiendo your buttextremo in that chairsilla
130
306480
1696
Sentarse en esa silla
y mostrar a las personas que estás
presente y comprometido con su proyecto
05:20
and showingdemostración people that you're presentpresente
and committedcomprometido to your projectproyecto
131
308200
3216
05:23
is a biggrande dealacuerdo
132
311440
1256
es algo bueno
05:24
and can help remoteremoto collaborationcolaboración a tontonelada.
133
312720
2176
y puede ayudar mucho
a la colaboración remota.
05:26
We saw this over the periodperíodo
of monthsmeses and then yearsaños,
134
314920
2856
Vimos esto durante
el período de meses y luego años,
05:29
not only at our companyempresa
but at othersotros, too.
135
317800
2160
no solo en nuestra empresa,
sino también en otras.
05:32
The bestmejor thing that can happenocurrir
with these systemssistemas
136
320720
2336
Lo mejor que puede pasar
con estos sistemas
05:35
is that it startsempieza to feel
like you're just there.
137
323080
2336
es que se perciben
como si estuviera allí.
05:37
It's just you, it's just your bodycuerpo,
138
325440
1696
Solo eres tú, es solo tu cuerpo,
y así la gente en realidad comienza
a darle a estas cosas un espacio personal.
05:39
and so people actuallyactualmente startcomienzo
to give these things personalpersonal spaceespacio.
139
327160
3096
05:42
So when you're havingteniendo a stand-upLevántate meetingreunión,
140
330280
1976
Y, cuando tienes una reunión de pie,
05:44
people will standestar around the spaceespacio
141
332280
1656
la gente se sitúa alrededor del espacio
05:45
just as they would
if you were there in personpersona.
142
333960
2216
como lo harían
si uno estuviera allí en persona.
05:48
That's great untilhasta
there's breakdownsaverías and it's not.
143
336200
2576
Eso es genial hasta que hay averías.
05:50
People, when they first see these robotsrobots,
144
338800
1976
La gente, cuando ve
estos robots por primera vez,
05:52
are like, "WowGuau, where'sdonde esta the componentscomponentes?
There mustdebe be a cameracámara over there,"
145
340800
3576
dice, "Guau, ¿dónde están las piezas?
Debe haber una cámara allí".
05:56
and they startcomienzo pokinghurgando your facecara.
146
344400
1576
Y comienzan a hurgar la cara.
05:58
"You're talkinghablando too softlysuavemente,
I'm going to turngiro up your volumevolumen,"
147
346000
2936
"Estás hablando demasiado bajo,
voy a subir tu volumen"
06:00
whichcual is like havingteniendo a coworkercompañero de trabajo
walkcaminar up to you and say,
148
348960
2616
que es como tener un compañero
caminando hacia ti y decirle,
06:03
"You're speakingHablando too softlysuavemente,
I'm going to turngiro up your facecara."
149
351600
2896
"Estás hablando en voz muy baja,
voy a alzarte la cara".
06:06
That's awkwardtorpe and not OK,
150
354520
1256
Eso es incómodo y no está bien,
06:07
and so we endfin up havingteniendo to buildconstruir
these newnuevo socialsocial normsnormas
151
355800
2616
y así construimos
estas nuevas normas sociales
06:10
around usingutilizando these systemssistemas.
152
358440
2216
al usar estos sistemas.
06:12
Similarlysimilar, as you startcomienzo
feelingsensación like it's your bodycuerpo,
153
360680
3416
De forma similar a como uno
siente que es su cuerpo,
06:16
you startcomienzo noticingnotar things like,
"Oh, my robotrobot is kindtipo of shortcorto."
154
364120
3696
uno comienzas a notar cosas como,
"Oh, mi robot es bajito".
06:19
DallasDallas would say things to me --
he was six-footseis pies tallalto --
155
367840
2656
Dallas me decía que
medía 1.80 m,
06:22
and we would take him viavía robotrobot
to cocktailcóctel partiesfiestas and things like that,
156
370520
3456
y lo llevaban a cócteles y cosas así,
06:26
as you do,
157
374000
1216
como lo hacen Uds.,
06:27
and the robotrobot was about five-foot-tallcinco pies de altura,
whichcual is closecerca to my heightaltura.
158
375240
3336
y el robot medía aproximadamente 1.5 m,
que es más o menos mi altura.
06:30
And he would tell me,
159
378600
1216
Y él me dijo,
06:31
"You know, people are not
really looking at me.
160
379840
2536
"Sabes, la gente realmente
no me está mirando.
06:34
I feel like I'm just looking
at this seamar of shouldersespalda,
161
382400
2696
Siento que solo estoy viendo
este mar de hombros
06:37
and it's just -- we need a tallermás alto robotrobot."
162
385120
1976
y necesitamos un robot más alto".
06:39
And I told him,
163
387120
1256
Y le dije,
06:40
"UmUm, no.
164
388400
1296
"Mmm no.
Tienes que caminar
en mis zapatos solo hoy.
06:41
You get to walkcaminar in my shoesZapatos for todayhoy.
165
389720
1936
06:43
You get to see what it's like
to be on the shortercorta endfin of the spectrumespectro."
166
391680
3536
Podrás ver lo que es estar en
el extremo más corto del espectro".
06:47
And he actuallyactualmente endedterminado up buildingedificio
a lot of empathyempatía for that experienceexperiencia,
167
395240
3376
Y en realidad él generó
mucha empatía con esa experiencia,
06:50
whichcual was kindtipo of great.
168
398640
1256
lo cual fue genial.
06:51
So when he'del habria come visitvisitar in personpersona,
169
399920
1656
Y cuando vino de visita en persona,
06:53
he no longermás stooddestacado over me
as he was talkinghablando to me,
170
401600
2416
ya no se izaba ante
mí mientras me hablaba,
06:56
he would sitsentar down
and talk to me eyeojo to eyeojo,
171
404040
2096
se sentaba y me hablaba cara a cara,
06:58
whichcual was kindtipo of a beautifulhermosa thing.
172
406160
1736
lo que fue algo hermoso.
06:59
So we actuallyactualmente decideddecidido
to look at this in the laboratorylaboratorio
173
407920
2656
Y decidimos ver esto en el laboratorio
y ver qué otras diferencias podrían
hacer cosas como la altura del robot.
07:02
and see what othersotros kindsclases of differencesdiferencias
things like robotrobot heightaltura would make.
174
410600
3656
Y la mitad de las personas en nuestro
estudio usaron un robot más bajo,
07:06
And so halfmitad of the people in our studyestudiar
used a shortercorta robotrobot,
175
414280
2856
07:09
halfmitad of the people in our studyestudiar
used a tallermás alto robotrobot
176
417160
2416
la otra mitad en nuestro estudio
usaron un robot más alto.
07:11
and we actuallyactualmente foundencontró
that the exactexacto samemismo personpersona
177
419600
2256
Y comprobamos que
exactamente la misma persona
07:13
who has the exactexacto samemismo bodycuerpo
and saysdice the exactexacto samemismo things as someonealguien,
178
421880
3336
con el mismo cuerpo que dice
las mismas cosas que alguien,
07:17
is more persuasivepersuasivo
and perceivedpercibido as beingsiendo more crediblecreíble
179
425240
2616
es más persuasivo y
se percibe como más creíble
07:19
if they're in a tallermás alto robotrobot formformar.
180
427880
1656
si lo emite un robot de talla más alta.
07:21
It makeshace no rationalracional sensesentido,
181
429560
1816
No tiene sentido racional,
07:23
but that's why we studyestudiar psychologypsicología.
182
431400
1696
por eso estudiamos psicología.
07:25
And really, you know,
the way that CliffAcantilado NassNass would put this
183
433120
2856
Y realmente, la forma
en que Cliff Nass pondría esto
07:28
is that we're havingteniendo to dealacuerdo
with these newnuevo technologiestecnologías
184
436000
3016
es que tenemos que lidiar
con estas nuevas tecnologías
07:31
despiteA pesar de the facthecho
that we have very oldantiguo brainssesos.
185
439040
2736
a pesar del hecho de
tener cerebros muy viejos.
La psicología humana no cambia
a la misma velocidad que la tecnología
07:33
HumanHumano psychologypsicología is not changingcambiando
at the samemismo speedvelocidad that techtecnología is
186
441800
2976
y siempre jugamos a alcanzarla,
07:36
and so we're always playingjugando catch-upalcanzar,
187
444800
1816
tratando de dar
sentido a este mundo
07:38
tryingmolesto to make sensesentido of this worldmundo
188
446640
1656
en el que estas cosas autónomas
funcionan alrededor.
07:40
where these autonomousautónomo things
are runningcorriendo around.
189
448320
2336
Por lo general, las cosas que hablan
son personas, no máquinas.
07:42
UsuallyGeneralmente, things that talk are people,
not machinesmáquinas, right?
190
450680
2736
07:45
And so we breatherespirar a lot of meaningsentido
into things like just heightaltura of a machinemáquina,
191
453440
4576
Y otorgamos mucho significado a cosas
como la altura de una máquina,
07:50
not a personpersona,
192
458040
1256
no una persona,
07:51
and attributeatributo that
to the personpersona usingutilizando the systemsistema.
193
459320
2360
y a atribuir eso a la persona
que usa el sistema.
07:55
You know, this, I think,
is really importantimportante
194
463120
2216
Creo que esto es realmente importante
07:57
when you're thinkingpensando about roboticsrobótica.
195
465360
1736
cuando se piensa en robótica.
07:59
It's not so much about reinventingreinventando humanshumanos,
196
467120
2096
No se trata tanto de
reinventar a los humanos,
08:01
it's more about figuringfigurando out
how we extendampliar ourselvesNosotros mismos, right?
197
469240
3136
se trata más de averiguar
cómo nos extendemos, ¿verdad?
08:04
And we endfin up usingutilizando things
in waysformas that are sortordenar of surprisingsorprendente.
198
472400
2976
Y terminamos usando cosas
de una manera sorprendente.
08:07
So these guys can't playjugar poolpiscina
because the robotsrobots don't have armsbrazos,
199
475400
4256
Y estos tipos no pueden jugar al billar
porque los robots no tienen brazos,
08:11
but they can heckleinterrumpir a un orador the guys
who are playingjugando poolpiscina
200
479680
2336
pero pueden coordinar
a los tipos que están jugando al billar
08:14
and that can be an importantimportante thing
for teamequipo bondingvinculación,
201
482040
3176
y eso puede ser algo importante
para la unión de equipo,
08:17
whichcual is kindtipo of neatordenado.
202
485240
1296
que sea algo ordenado.
08:18
People who get really good
at operatingoperando these systemssistemas
203
486560
2496
Los que se vuelvan
muy buenos operando estos sistemas
08:21
will even do things
like make up newnuevo gamesjuegos,
204
489080
2056
incluso harán cosas
como inventar juegos nuevos,
08:23
like robotrobot soccerfútbol
in the middlemedio of the night,
205
491160
2136
como el fútbol robot
en el medio de la noche,
08:25
pushingemprendedor the trashbasura canslatas around.
206
493320
1456
empujando los botes de basura.
08:26
But not everyone'stodos good.
207
494800
1576
Pero no todos lo hacen bien.
08:28
A lot of people have troubleproblema
operatingoperando these systemssistemas.
208
496400
2496
Mucha gente tiene problemas
para manejar estos sistemas.
08:30
This is actuallyactualmente a guy
who loggedregistrado into the robotrobot
209
498920
2256
Este es un tipo que inició
sesión vía robot
08:33
and his eyeballglobo del ojo was turnedconvertido
90 degreesgrados to the left.
210
501200
2376
y su globo ocular giró 90 grados
hacia la izquierda.
08:35
He didn't know that,
211
503600
1256
Él no sabía eso,
así que terminó
dando golpes por la oficina,
08:36
so he endedterminado up just bashingpaliza
around the officeoficina,
212
504880
2176
corriendo hacia las mesas de
las personas, sintiéndose muy avergonzado,
08:39
runningcorriendo into people'sla gente desksescritorios,
gettingconsiguiendo supersúper embarrasseddesconcertado,
213
507080
2616
08:41
laughingriendo about it --
his volumevolumen was way too highalto.
214
509720
2336
riendo nervioso
con un volumen demasiado alto.
08:44
And this guy here
in the imageimagen is tellingnarración me,
215
512080
2136
Y este tipo aquí
en la imagen me está diciendo,
08:46
"We need a robotrobot mutemudo buttonbotón."
216
514240
2096
"Necesitamos un botón
para silenciar al robot".
08:48
And by that what he really meantsignificado
was we don't want it to be so disruptivedisruptivo.
217
516360
3496
Y con eso quiso decir que no
quería que fuera tan molesto.
08:51
So as a roboticsrobótica companyempresa,
218
519880
1616
Y, como compañía de robótica,
08:53
we addedadicional some obstacleobstáculo
avoidanceevitación to the systemsistema.
219
521520
2456
añadimos funciones
para evitar obstáculos al sistema.
08:56
It got a little laserláser rangedistancia finderdescubridor
that could see the obstaclesobstáculos,
220
524000
3056
Tenía un pequeño buscador láser
con el que veía los obstáculos,
08:59
and if I as a robotrobot operatoroperador
try to say, runcorrer into a chairsilla,
221
527080
3136
y si yo, como operadora del robot decía,
ve hacia la silla,
09:02
it wouldn'tno lo haría let me,
it would just planplan a pathcamino around,
222
530240
2496
no lo haría, solo planearía
un camino alternativo,
09:04
whichcual seemsparece like a good ideaidea.
223
532760
1856
lo que parece ser una buena idea.
09:06
People did hitgolpear fewermenos obstaclesobstáculos
usingutilizando that systemsistema, obviouslyobviamente,
224
534640
3176
La gente golpeó menos obstáculos
usando ese sistema, obviamente,
09:09
but actuallyactualmente, for some of the people,
225
537840
2096
pero en realidad, a algunas personas,
les tomó mucho más tiempo superar
nuestra carrera de obstáculos,
09:11
it tooktomó them a lot longermás
to get throughmediante our obstacleobstáculo coursecurso,
226
539960
2856
09:14
and we wanted to know why.
227
542840
1560
y queríamos saber por qué.
09:17
It turnsvueltas out that there's
this importantimportante humanhumano dimensiondimensión --
228
545080
3056
Existe esta importante
dimensión humana:
09:20
a personalitypersonalidad dimensiondimensión
calledllamado locuslugar of controlcontrolar,
229
548160
2296
una dimensión de la personalidad
llamada locus de control.
09:22
and people who have
a strongfuerte internalinterno locuslugar of controlcontrolar,
230
550480
3136
Y las personas con
un fuerte locus interno de control,
09:25
they need to be the mastersmaestros
of theirsu ownpropio destinydestino --
231
553640
3056
necesitan ser dueños de su propio destino:
09:28
really don't like givingdando up controlcontrolar
to an autonomousautónomo systemsistema --
232
556720
3096
realmente no les gusta ceder
el control a un sistema autónomo,
09:31
so much so that they will
fightlucha the autonomyautonomía;
233
559840
2136
tanto que lucharán contra la autonomía;
09:34
"If I want to hitgolpear that chairsilla,
I'm going to hitgolpear that chairsilla."
234
562000
3096
"Si quiero golpear esa silla,
voy a golpear esa silla".
09:37
And so they would actuallyactualmente suffersufrir
from havingteniendo that autonomousautónomo assistanceasistencia,
235
565120
3616
Y ellos realmente sufrirían
de tener esa asistencia autónoma,
09:40
whichcual is an importantimportante thing for us to know
236
568760
2576
lo que es importante saber para nosotros,
09:43
as we're buildingedificio increasinglycada vez más
autonomousautónomo, say, carscarros, right?
237
571360
3296
ya que estamos construyendo autos
cada vez más autónomos, por ejemplo.
09:46
How are differentdiferente people going
to grappleluchar with that losspérdida of controlcontrolar?
238
574680
3360
¿Cómo van a lidiar las personas
con esa pérdida de control?
09:50
It's going to be differentdiferente
dependingdependiente on humanhumano dimensionsdimensiones.
239
578880
2696
Va a ser diferente
según las dimensiones humanas.
09:53
We can't treattratar humanshumanos
as if we're just one monolithicmonolítico thing.
240
581600
3496
No podemos tratar a los humanos
como un ente monolítico.
09:57
We varyvariar by personalitypersonalidad, by culturecultura,
241
585120
2416
Variamos por personalidad, por cultura,
09:59
we even varyvariar by emotionalemocional stateestado
momentmomento to momentmomento,
242
587560
2456
incluso variamos por estado emocional
momento a momento.
10:02
and beingsiendo ablepoder to designdiseño these systemssistemas,
243
590040
1976
Y al diseñar estos sistemas,
10:04
these human-robothumano-robot interactionInteracción systemssistemas,
244
592040
2296
estos sistemas de
interacción humano-robot,
10:06
we need to take into accountcuenta
the humanhumano dimensionsdimensiones,
245
594360
2736
debemos tener en cuenta
las dimensiones humanas,
10:09
not just the technologicaltecnológico onesunos.
246
597120
1720
no solo las tecnológicas.
10:11
AlongA lo largo with a sensesentido of controlcontrolar
alsoademás comesproviene a sensesentido of responsibilityresponsabilidad.
247
599640
4296
Con una sensación de control, también
surge un sentido de responsabilidad.
10:15
And if you were a robotrobot operatoroperador
usingutilizando one of these systemssistemas,
248
603960
2856
Y si fueran operadores de robots
usando uno de estos sistemas,
10:18
this is what the interfaceinterfaz
would look like.
249
606840
2056
así se vería la interfaz.
10:20
It looksmiradas a little bitpoco like a videovídeo gamejuego,
250
608920
1936
Se parece un poco a un videojuego,
10:22
whichcual can be good because
that's very familiarfamiliar to people,
251
610880
2976
lo que puede ser bueno porque
resulta muy familiar a las personas,
10:25
but it can alsoademás be badmalo
252
613880
1216
pero también puede ser malo
10:27
because it makeshace people feel
like it's a videovídeo gamejuego.
253
615120
2456
porque hace que las personas
sientan que es un videojuego.
10:29
We had a bunchmanojo of kidsniños
over at StanfordStanford playjugar with the systemsistema
254
617600
2856
Tuvimos un montón de niños
en Stanford jugando con el sistema
10:32
and drivemanejar the robotrobot
around our officeoficina in MenloMenlo ParkParque,
255
620480
2456
conduciendo el robot
por nuestra oficina en Menlo Park,
10:34
and the kidsniños startedempezado sayingdiciendo things like,
256
622960
1936
y los niños decían cosas como,
10:36
"10 pointspuntos if you hitgolpear that guy over there.
20 pointspuntos for that one."
257
624920
3176
"10 puntos si das a ese tipo de ahí.
20 puntos por eso".
10:40
And they would
chasepersecución them down the hallwaypasillo.
258
628120
2016
Y los perseguían por el pasillo.
10:42
(LaughterRisa)
259
630160
1016
(Risas)
10:43
I told them, "UmUm, those are realreal people.
260
631200
1936
Les dije, "Esas personas son reales.
10:45
They're actuallyactualmente going to bleedsangrar
and feel paindolor if you hitgolpear them."
261
633160
3296
Realmente sangrarán y
sentirán dolor si los golpean".
10:48
And they'dellos habrían be like, "OK, got it."
262
636480
1616
Y contestaban: "Bien, lo entendí".
10:50
But fivecinco minutesminutos laterluego,
they would be like,
263
638120
2056
Pero cinco minutos después decían,
10:52
"20 pointspuntos for that guy over there,
he just looksmiradas like he needsnecesariamente to get hitgolpear."
264
640200
3616
"20 puntos para ese tipo de allí,
parece que necesita algún golpe".
10:55
It's a little bitpoco
like "Ender'sDe Ender GameJuego," right?
265
643840
2136
Es un poco como "El juego de Ender".
10:58
There is a realreal worldmundo on that other sidelado
266
646000
1936
Hay un mundo real en ese otro lado
y creo que es nuestra responsabilidad,
como personas que diseñan esas interfaces,
10:59
and I think it's our responsibilityresponsabilidad
as people designingdiseño these interfacesinterfaces
267
647960
3416
11:03
to help people rememberrecuerda
268
651400
1256
ayudar a la gente a recordar
11:04
that there's realreal consequencesConsecuencias
to theirsu actionscomportamiento
269
652680
2256
que hay consecuencias reales
de sus acciones
11:06
and to feel a sensesentido of responsibilityresponsabilidad
270
654960
2296
y obtener un sentido de responsabilidad
11:09
when they're operatingoperando
these increasinglycada vez más autonomousautónomo things.
271
657280
3280
cuando se están operando
estas cosas cada vez más autónomas.
11:13
These are kindtipo of a great exampleejemplo
272
661840
2296
Esto es un gran ejemplo
11:16
of experimentingexperimentando with one
possibleposible roboticrobótico futurefuturo,
273
664160
3256
de experimentar
con un posible futuro robótico,
11:19
and I think it's prettybonita coolguay
that we can extendampliar ourselvesNosotros mismos
274
667440
3856
y creo que es genial
que podamos extendernos
11:23
and learnaprender about the waysformas
that we extendampliar ourselvesNosotros mismos
275
671320
2336
y aprender de las formas
cómo nos extendemos
11:25
into these machinesmáquinas
276
673680
1216
en estas máquinas
11:26
while at the samemismo time
beingsiendo ablepoder to expressexprimir our humanityhumanidad
277
674920
2696
y al mismo tiempo
expresar nuestra humanidad
11:29
and our personalitypersonalidad.
278
677640
1216
y nuestra personalidad.
11:30
We alsoademás buildconstruir empathyempatía for othersotros
279
678880
1576
También construimos empatía para otros
11:32
in termscondiciones of beingsiendo
shortercorta, tallermás alto, fasterMás rápido, slowermás lento,
280
680480
3216
en términos de ser más bajo,
más alto, más rápido, más lento,
11:35
and maybe even armlesssin brazo,
281
683720
1416
y tal vez incluso sin brazos,
11:37
whichcual is kindtipo of neatordenado.
282
685160
1336
que es algo estupendo.
11:38
We alsoademás buildconstruir empathyempatía
for the robotsrobots themselvessí mismos.
283
686520
2536
También generamos empatía
para los mismos robots.
Este es uno de mis robots favoritos
11:41
This is one of my favoritefavorito robotsrobots.
284
689080
1656
11:42
It's calledllamado the TweenbotTweenbot.
285
690760
1456
Se llama Tweenbot.
11:44
And this guy has a little flagbandera that saysdice,
286
692240
1976
Y este lleva una banderita
que dice:
11:46
"I'm tryingmolesto to get
to this intersectionintersección in ManhattanManhattan,"
287
694240
2576
"Estoy tratando de llegar
a este cruce en Manhattan"
11:48
and it's cutelinda and rollsrollos
forwardadelante, that's it.
288
696840
2776
y es lindo y rueda, eso es todo.
11:51
It doesn't know how to buildconstruir a mapmapa,
it doesn't know how to see the worldmundo,
289
699640
3456
No sabe cómo construir un mapa,
no sabe cómo ver el mundo,
11:55
it just askspregunta for help.
290
703120
1256
solo pide ayuda.
11:56
The nicebonito thing about people
291
704400
1336
Lo bueno de las personas
11:57
is that it can actuallyactualmente dependdepender
uponsobre the kindnessamabilidad of strangersextraños.
292
705760
3096
es que realmente puede depender
de la bondad de los extraños.
12:00
It did make it acrossa través de the parkparque
to the other sidelado of ManhattanManhattan --
293
708880
3896
Lo hicieron cruzar el parque
al otro lado de Manhattan,
12:04
whichcual is prettybonita great --
294
712800
1256
lo que es bastante bueno,
12:06
just because people would pickrecoger it up
and pointpunto it in the right directiondirección.
295
714080
3456
solo porque las personas lo recogen
y lo orientan en la dirección correcta.
12:09
(LaughterRisa)
296
717560
936
(Risas)
12:10
And that's great, right?
297
718520
1256
Y eso es genial, ¿verdad?
12:11
We're tryingmolesto to buildconstruir
this human-robothumano-robot worldmundo
298
719800
2696
Estamos tratando de construir
este mundo humano-robot
12:14
in whichcual we can coexistcoexistir
and collaboratecolaborar with one anotherotro,
299
722520
3416
en el que podemos convivir y
colaborar el uno con el otro,
y no hay que ser completamente autónomos
y hacer cosas solo por nuestra cuenta.
12:17
and we don't need to be fullycompletamente autonomousautónomo
and just do things on our ownpropio.
300
725960
3376
12:21
We actuallyactualmente do things togetherjuntos.
301
729360
1496
De hecho, hacemos cosas juntos.
12:22
And to make that happenocurrir,
302
730880
1256
Y para que eso suceda,
12:24
we actuallyactualmente need help from people
like the artistsartistas and the designersdiseñadores,
303
732160
3256
en realidad, necesitamos ayuda de personas
como los artistas y los diseñadores,
12:27
the policypolítica makerscreadores, the legallegal scholarsestudiosos,
304
735440
1856
los políticos, los juristas,
12:29
psychologistspsicólogos, sociologistssociólogos,
anthropologistsantropólogos --
305
737320
2216
psicólogos, sociólogos, antropólogos,
12:31
we need more perspectivesperspectivas in the roomhabitación
306
739560
1816
necesitamos más perspectivas en la sala
12:33
if we're going to do the thing
that StuStu CardTarjeta saysdice we should do,
307
741400
2976
si vamos a hacer lo que Stu Card dice
que debemos hacer,
12:36
whichcual is inventinventar the futurefuturo
that we actuallyactualmente want to livevivir in.
308
744400
3936
que es inventar el futuro
en el que realmente queremos vivir.
12:40
And I think we can continuecontinuar to experimentexperimentar
309
748360
2656
Y creo que podemos
continuar experimentando
12:43
with these differentdiferente
roboticrobótico futuresfuturos togetherjuntos,
310
751040
2176
con estos diferentes
futuros robóticos juntos,
12:45
and in doing so, we will endfin up
learningaprendizaje a lot more about ourselvesNosotros mismos.
311
753240
4680
y al hacerlo, terminaremos aprendiendo
mucho más sobre nosotros mismos.
12:50
Thank you.
312
758720
1216
Gracias.
12:51
(ApplauseAplausos)
313
759960
2440
(Aplausos)
Translated by Lidia Cámara de la Fuente
Reviewed by Ciro Gomez

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com