ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

Leila Takayama: Ça fait quoi d'être un robot ?

Filmed:
1,183,118 views

Nous vivons déjà parmi les robots : les outils et les machines comme le lave-vaisselle et le thermostat sont tellement intégrés à nos vies qu'on ne penserait jamais à les appeler comme tels. À quoi un futur avec encore plus de robots ressemblerait-il ? La spécialiste en sciences sociales, Leila Takayama, raconte quels sont les défis propres à la conception d'interactions entre humains et robots et comment expérimenter les futurs robotiques nous conduit, en fait, à une meilleure compréhension de nous-mêmes.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chancechance
to make a first impressionimpression,
0
760
2656
On a une seule chance de
faire une première impression,
00:15
and that's truevrai if you're a robotrobot
as well as if you're a personla personne.
1
3440
3176
c'est aussi vrai pour un robot
que pour une personne.
00:18
The first time that I metrencontré
one of these robotsdes robots
2
6640
3016
La première fois que j'ai rencontré
un de ces robots,
00:21
was at a placeendroit
calledappelé WillowWillow GarageGarage in 2008.
3
9680
2896
c'était au Willow Garage, en 2008.
00:24
When I wentest allé to visitvisite there,
my hosthôte walkedmarcha me into the buildingbâtiment
4
12600
3016
Quand je l'ai visité, mon hôte
entrait dans le bâtiment
00:27
and we metrencontré this little guy.
5
15640
1576
et on a rencontré ce petit gars.
00:29
He was rollingroulant into the hallwaycouloir,
6
17240
1656
Il roulait dans le hall,
00:30
camevenu up to me, satsam there,
7
18920
1816
est arrivé vers moi, s'est assis,
00:32
staredregardé blanklyvide pastpassé me,
8
20760
2256
m'a fixée d'un regard vide,
00:35
did nothing for a while,
9
23040
1656
n'a rien fait pendant un moment,
00:36
rapidlyrapidement spunfilé his headtête around 180 degreesdegrés
10
24720
1936
a rapidement tourné
sa tête à 180 degrés
00:38
and then rancouru away.
11
26680
1536
et puis s'est enfui.
00:40
And that was not a great first impressionimpression.
12
28240
2176
Ce n'était pas une super
première impression.
00:42
The thing that I learnedappris
about robotsdes robots that day
13
30440
2176
Ce que j'ai appris
sur les robots ce jour-là,
00:44
is that they kindgentil of do theirleur ownposséder thing,
14
32640
2176
c'est qu'ils font un peu leur vie
00:46
and they're not totallytotalement awareconscient of us.
15
34840
2136
et ne sont pas totalement
conscients de nous.
00:49
And I think as we're experimentingexpérimenter
with these possiblepossible robotrobot futurescontrats à terme,
16
37000
3239
Je pense qu'en expérimentant
ces futurs robotiques possibles,
00:52
we actuallyréellement endfin up learningapprentissage
a lot more about ourselvesnous-mêmes
17
40263
2673
on finit par en apprendre plus
sur nous-mêmes
00:54
as opposedopposé to just these machinesmachines.
18
42960
1656
que juste sur les robots.
00:56
And what I learnedappris that day
19
44640
1336
J'ai appris, ce jour-là,
00:58
was that I had prettyjoli highhaute
expectationsattentes for this little dudeDude.
20
46000
3416
que j'avais des attentes plutôt
élevées pour ce petit gars.
01:01
He was not only supposedsupposé to be ablecapable
to navigatenaviguer the physicalphysique worldmonde,
21
49440
3176
Il ne devait pas seulement pouvoir
évoluer dans l'espace physique,
01:04
but alsoaussi be ablecapable
to navigatenaviguer my socialsocial worldmonde --
22
52640
2656
mais aussi dans mon espace social –
01:07
he's in my spaceespace; it's a personalpersonnel robotrobot.
23
55320
2176
il en fait partie :
c'est un robot personnel.
01:09
wWhywWhy didn't it understandcomprendre me?
24
57520
2016
Pourquoi ne me comprend-il pas?
01:11
My hosthôte explainedexpliqué to me,
25
59560
1256
Mon hôte m'a expliqué :
01:12
"Well, the robotrobot is tryingen essayant
to get from pointpoint A to pointpoint B,
26
60840
3176
« Un robot essaie d'aller
d'un point A vers un point B,
01:16
and you were an obstacleobstacle in his way,
27
64040
1776
tu étais un obstacle sur son chemin,
01:17
so he had to replanreplanifier his pathchemin,
28
65840
2016
il a donc dû reprogrammer son parcours,
01:19
figurefigure out where to go,
29
67880
1256
réfléchir où aller
01:21
and then get there some other way,"
30
69160
1696
et ensuite s'y rendre autrement »,
01:22
whichlequel was actuallyréellement
not a very efficientefficace thing to do.
31
70880
2456
ce qui n'était pas une façon
de faire très efficace.
01:25
If that robotrobot had figuredfiguré out
that I was a personla personne, not a chairchaise,
32
73360
3256
Si ce robot avait réalisé que
j'étais une personne, pas une chaise,
01:28
and that I was willingprêt
to get out of its way
33
76640
2096
que j'étais prête à m'écarter
de son chemin,
01:30
if it was tryingen essayant to get somewherequelque part,
34
78760
1656
où qu'il ait cherché à aller,
01:32
then it actuallyréellement
would have been more efficientefficace
35
80440
2216
il aurait plus efficacement
01:34
at gettingobtenir its jobemploi doneterminé
36
82680
1256
rempli sa mission,
01:35
if it had bothereddérangé
to noticeremarquer that I was a humanHumain
37
83960
2216
s'il avait détecté
que j'étais humaine
01:38
and that I have differentdifférent affordancesaffordances
than things like chairschaises and wallsdes murs do.
38
86200
3576
et que mes potentialités sont
différentes des chaises et des murs.
01:41
You know, we tendtendre to think of these robotsdes robots
as beingétant from outerextérieur spaceespace
39
89800
3216
On pense souvent que ces robots
viennent d'une autre planète,
01:45
and from the futureavenir
and from sciencescience fictionfiction,
40
93040
2136
du futur, de la science-fiction.
01:47
and while that could be truevrai,
41
95200
1416
Et même si c'était vrai,
01:48
I'd actuallyréellement like to arguese disputer
that robotsdes robots are here todayaujourd'hui,
42
96640
2656
j'aimerais soutenir qu'aujourd'hui,
les robots existent,
01:51
and they livevivre and work
amongstparmi us right now.
43
99320
2776
ils vivent et travaillent
parmi nous.
01:54
These are two robotsdes robots that livevivre in my home.
44
102120
2856
Voici deux robots qui vivent chez moi.
01:57
They vacuumvide the floorsétages
and they cutCouper the grassherbe
45
105000
2496
Ils passent l'aspirateur
et coupent l'herbe,
01:59
everychaque singleunique day,
46
107520
1216
tous les jours,
02:00
whichlequel is more than I would do
if I actuallyréellement had time to do these tasksles tâches,
47
108760
3376
c'est plus que ce que je ferais,
si j'avais le temps.
02:04
and they probablyProbablement
do it better than I would, too.
48
112160
2336
Ils le font aussi probablement
mieux que moi.
02:06
This one actuallyréellement takes carese soucier of my kittyminou.
49
114520
2496
Celui-ci s'occupe de mon chat.
02:09
EveryChaque singleunique time
he usesles usages the boxboîte, it cleansnettoie it,
50
117040
2576
Chaque fois qu'il utilise
son bac, il le nettoie,
02:11
whichlequel is not something I'm willingprêt to do,
51
119640
1976
ce que je ne suis pas prête à faire,
02:13
and it actuallyréellement makesfait du
his life better as well as minemien.
52
121640
2576
même si ça améliore beaucoup
sa vie et la mienne.
02:16
And while we call these robotrobot productsdes produits --
53
124240
2416
Comme on appelle ces robots des produits –
02:18
it's a "robotrobot vacuumvide cleanernettoyeur,
it's a robotrobot lawnmowertondeuse à gazon,
54
126680
2696
« robot aspirateur »,
« robot tondeuse à gazon »,
02:21
it's a robotrobot littlerLemaire boxboîte,"
55
129400
1495
« robot bac à litière » -
02:22
I think there's actuallyréellement a bunchbouquet
of other robotsdes robots hidingse cacher in plainplaine sightvue
56
130919
4137
je pense qu'il y a beaucoup
d'autres robots cachés sous nos yeux,
02:27
that have just becomedevenir so darnZut usefulutile
57
135080
1856
ils sont juste devenus tellement utiles
02:28
and so darnZut mundanebanal
58
136960
1456
et banals
02:30
that we call them things
like, "dishwasherlave vaisselle," right?
59
138440
2496
qu'on les appelle par exemple
« lave-vaisselle ».
02:32
They get newNouveau namesdes noms.
60
140960
1216
Ils ont de nouveaux noms.
02:34
They don't get calledappelé robotrobot anymoreplus
61
142200
1696
On ne les appelle plus « robots »
02:35
because they actuallyréellement
serveservir a purposeobjectif in our livesvies.
62
143920
2416
parce qu'ils ont une raison
d'être dans nos vies.
02:38
SimilarlyDe la même façon, a thermostatthermostat, right?
63
146360
1496
De même, un thermostat –
02:39
I know my roboticsrobotique friendscopains out there
64
147880
1776
je sais que mes amis roboticiens
02:41
are probablyProbablement cringingrampant
at me callingappel this a robotrobot,
65
149680
2336
seront sans doute gênés
que j'y voie un robot,
02:44
but it has a goalobjectif.
66
152040
1256
mais il a un but.
02:45
Its goalobjectif is to make my housemaison
66 degreesdegrés FahrenheitFahrenheit,
67
153320
2896
Son but est de faire en sorte
que ma maison soit à 19 degrés,
02:48
and it sensessens the worldmonde.
68
156240
1256
il sent ce qui l'entoure.
02:49
It knowssait it's a little bitbit colddu froid,
69
157520
1576
Quand il fait un peu froid,
02:51
it makesfait du a planplan and then
it actsactes on the physicalphysique worldmonde.
70
159120
2616
il crée un programme et
agit sur l'univers physique.
02:53
It's roboticsrobotique.
71
161760
1256
C'est de la robotique.
02:55
Even if it mightpourrait not
look like RosieRosie the RobotRobot,
72
163040
2576
Même s'il ne ressemble pas
à Rosie, le robot des Jetson,
02:57
it's doing something
that's really usefulutile in my life
73
165640
2936
il accomplit quelque chose
qui est très utile dans ma vie.
03:00
so I don't have to take carese soucier
74
168600
1376
Donc je n'ai plus besoin
03:02
of turningtournant the temperaturetempérature
up and down myselfmoi même.
75
170000
2576
d'augmenter ou de baisser
la température moi-même.
03:04
And I think these systemssystèmes
livevivre and work amongstparmi us now,
76
172600
3816
Les robots vivent et travaillent
parmi nous aujourd'hui,
03:08
and not only are these systemssystèmes
livingvivant amongstparmi us
77
176440
2336
mais ils ne font pas
que vivre parmi nous :
03:10
but you are probablyProbablement
a robotrobot operatoropérateur, too.
78
178800
2656
vous êtes probablement vous aussi
un opérateur de robot.
03:13
When you driveconduire your carvoiture,
79
181480
1256
Quand vous conduisez,
03:14
it feelsse sent like you are operatingen fonctionnement machinerymachinerie.
80
182760
2216
c'est comme si vous pilotiez un engin.
03:17
You are alsoaussi going
from pointpoint A to pointpoint B,
81
185000
2816
Vous allez vous aussi
d'un point A à un point B,
03:19
but your carvoiture probablyProbablement has powerPuissance steeringpilotage,
82
187840
2216
mais vous avez sûrement
une direction assistée,
03:22
it probablyProbablement has automaticAutomatique brakingde freinage systemssystèmes,
83
190080
2696
un système automatique de freins,
03:24
it mightpourrait have an automaticAutomatique transmissiontransmission
and maybe even adaptiveadaptatif cruisecroisière controlcontrôle.
84
192800
3736
peut-être une boîte automatique et
même un régulateur de vitesse.
03:28
And while it mightpourrait not be
a fullypleinement autonomousautonome carvoiture,
85
196560
2936
Bien que votre voiture ne soit pas
complètement autonome,
elle l'est quand même un peu
03:31
it has bitsmorceaux of autonomyautonomie,
86
199520
1296
03:32
and they're so usefulutile
87
200840
1336
et c'est tellement utile,
03:34
and they make us driveconduire saferplus sûr,
88
202200
1816
on peut conduire plus sûrement,
03:36
and we just sortTrier of feel
like they're invisible-in-useinvisible-à-l’emploi, right?
89
204040
3656
on a juste l'impression que
ça disparaît à l'usage, pas vrai ?
03:39
So when you're drivingau volant your carvoiture,
90
207720
1576
Donc, en conduisant sa voiture,
03:41
you should just feel like
you're going from one placeendroit to anotherun autre.
91
209320
3096
c'est juste comme aller
d'un endroit à un autre.
03:44
It doesn't feel like it's this biggros thing
that you have to dealtraiter with and operatefonctionner
92
212440
3736
On n'a pas l'impression
que c'est si compliqué à utiliser,
03:48
and use these controlscontrôles
93
216200
1256
toutes ces commandes.
03:49
because we spentdépensé so long
learningapprentissage how to driveconduire
94
217480
2176
C'était si long d'apprendre à conduire
03:51
that they'veils ont becomedevenir
extensionsextensions of ourselvesnous-mêmes.
95
219680
2696
qu'elles deviennent des
extensions de nous-mêmes.
03:54
When you parkparc that carvoiture
in that tightserré little garagegarage spaceespace,
96
222400
2696
Quand on gare sa voiture
dans une place étroite,
03:57
you know where your cornerscoins are.
97
225120
1576
on sait où sont les côtés.
03:58
And when you driveconduire a rentalLocation carvoiture
that maybe you haven'tn'a pas drivenentraîné before,
98
226720
3256
Mais quand on loue une voiture,
qu'on n'a peut-être jamais conduite,
04:02
it takes some time
to get used to your newNouveau robotrobot bodycorps.
99
230000
3056
on prend du temps à s'habituer
à notre nouveau corps robotique.
04:05
And this is alsoaussi truevrai for people
who operatefonctionner other typesles types of robotsdes robots,
100
233080
3976
C'est aussi vrai pour les gens
qui utilisent d'autres types de robots
04:09
so I'd like to sharepartager with you
a fewpeu storieshistoires about that.
101
237080
2600
et je voudrais vous partager
quelques expériences.
04:12
DealingPortant sur with the problemproblème
of remoteéloigné collaborationcollaboration.
102
240240
2336
À propos du travail à distance.
04:14
So, at WillowWillow GarageGarage
I had a coworkercollègue namednommé DallasDallas,
103
242600
2576
A Willow Garage, mon collègue Dallas
04:17
and DallasDallas lookedregardé like this.
104
245200
1576
ressemblait à ça.
04:18
He workedtravaillé from his home in IndianaIndiana
in our companycompagnie in CaliforniaCalifornie.
105
246800
4056
Il travaillait pour notre entreprise
californienne, de chez lui dans l'Indiana.
04:22
He was a voicevoix in a boxboîte
on the tabletable in mostles plus of our meetingsréunions,
106
250880
2936
C'était une voix au micro pendant
la plupart de nos réunions,
04:25
whichlequel was kindgentil of OK
exceptsauf that, you know,
107
253840
2215
et ça marchait plutôt bien, sauf
04:28
if we had a really heatedchauffé debatedébat
and we didn't like what he was sayingen disant,
108
256079
3377
quand on avait un débat animé,
qu'on n'était pas d'accord avec lui,
04:31
we mightpourrait just hangpendre up on him.
109
259480
1416
on pouvait juste raccrocher.
04:32
(LaughterRires)
110
260920
1015
(Rires)
04:33
Then we mightpourrait have a meetingréunion
after that meetingréunion
111
261959
2217
Ensuite on pouvait avoir
une autre réunion
04:36
and actuallyréellement make the decisionsles décisions
in the hallwaycouloir afterwardsensuite
112
264200
2696
et prendre les décisions dans le couloir,
04:38
when he wasn'tn'était pas there anymoreplus.
113
266920
1416
quand il n'était plus là.
04:40
So that wasn'tn'était pas so great for him.
114
268360
1576
Ce n'était pas super pour lui.
04:41
And as a roboticsrobotique companycompagnie at WillowWillow,
115
269960
1736
Comme on est fabricants de robots,
04:43
we had some extrasupplémentaire
robotrobot bodycorps partsles pièces layingportant around,
116
271720
2336
on avait quelques morceaux
en trop qui traînaient,
04:46
so DallasDallas and his buddycopain CurtCurt
put togetherensemble this thing,
117
274080
2496
alors Dallas et son ami Curt
ont fabriqué ça :
04:48
whichlequel looksregards kindgentil of
like SkypeSkype on a stickbâton on wheelsroues,
118
276600
2936
une sorte de Skype fixé
sur un bâton équipé de roues,
04:51
whichlequel seemssemble like a techyirritable, sillyidiot toyjouet,
119
279560
1736
qui ressemble à un jouet geek idiot,
mais, en vrai, c'est un des outils
les plus puissants
04:53
but really it's probablyProbablement
one of the mostles plus powerfulpuissant toolsoutils
120
281320
2776
04:56
that I've seenvu ever madefabriqué
for remoteéloigné collaborationcollaboration.
121
284120
2480
que j'aie jamais vus pour
travailler à distance.
04:59
So now, if I didn't answerrépondre
Dallas'Dallas' emailemail questionquestion,
122
287160
3496
Maintenant, si je ne réponds pas
à la question de Dallas par mail,
05:02
he could literallyLittéralement rollrouleau into my officeBureau,
123
290680
2216
il peut littéralement rouler
vers mon bureau,
05:04
blockbloc my doorwayporte
and askdemander me the questionquestion again --
124
292920
2576
bloquer ma porte et me reposer
la question –
05:07
(LaughterRires)
125
295520
1016
(Rires)
jusqu'à ce que je réponde.
05:08
untiljusqu'à I answeredrépondu it.
126
296560
1216
05:09
And I'm not going to turntour him off, right?
That's kindgentil of rudegrossier.
127
297800
2976
Je ne vais pas le désactiver,
ce serait impoli.
05:12
Not only was it good
for these one-on-oneface à face communicationscommunications,
128
300800
2696
Ce robot ne lui sert pas que
pour les discussions à deux,
05:15
but alsoaussi for just showingmontrer up
at the companycompagnie all-handsAll-mains meetingréunion.
129
303520
2936
mais aussi à être visible
à la réunion des employés.
05:18
GettingObtenir your buttbout à bout in that chairchaise
130
306480
1696
Se caler sur une chaise,
05:20
and showingmontrer people that you're presentprésent
and committedengagé to your projectprojet
131
308200
3216
montrer aux gens que vous êtes là,
engagé dans votre projet,
05:23
is a biggros dealtraiter
132
311440
1256
c'est important
05:24
and can help remoteéloigné collaborationcollaboration a tonton.
133
312720
2176
et ça peut booster
le travail à distance.
05:26
We saw this over the periodpériode
of monthsmois and then yearsannées,
134
314920
2856
On a pu le voir pendant
des mois, puis des années,
05:29
not only at our companycompagnie
but at othersautres, too.
135
317800
2160
pas que dans notre entreprise,
ailleurs aussi.
05:32
The bestmeilleur thing that can happense produire
with these systemssystèmes
136
320720
2336
Ce qui peut arriver de mieux
avec un robot,
05:35
is that it startsdéparts to feel
like you're just there.
137
323080
2336
c'est de sentir ne faire qu'un avec lui.
05:37
It's just you, it's just your bodycorps,
138
325440
1696
C'est juste vous, votre corps
05:39
and so people actuallyréellement startdébut
to give these things personalpersonnel spaceespace.
139
327160
3096
et les gens commencent à lui
reconnaître une existence propre.
05:42
So when you're havingayant a stand-upse lever meetingréunion,
140
330280
1976
Donc, quand il y aura une réunion debout,
05:44
people will standsupporter around the spaceespace
141
332280
1656
les gens se placeront
autour de lui
05:45
just as they would
if you were there in personla personne.
142
333960
2216
comme ils l'auraient fait
si vous étiez là.
05:48
That's great untiljusqu'à
there's breakdownsventilations and it's not.
143
336200
2576
C'est génial, jusqu'à ce
qu'il y ait des bugs.
05:50
People, when they first see these robotsdes robots,
144
338800
1976
La première fois qu'ils voient ces robots,
05:52
are like, "WowWow, where'soù est the componentsComposants?
There mustdoit be a cameracaméra over there,"
145
340800
3576
les gens cherchent les composants :
« Il doit y avoir une caméra par ici »,
05:56
and they startdébut pokingpiquer your facevisage.
146
344400
1576
ils tapotent votre tête :
05:58
"You're talkingparlant too softlydoucement,
I'm going to turntour up your volumele volume,"
147
346000
2936
« Tu parles trop bas, je vais
augmenter ton volume. »
06:00
whichlequel is like havingayant a coworkercollègue
walkmarche up to you and say,
148
348960
2616
C'est comme si un collègue
venait chez vous et disait :
06:03
"You're speakingParlant too softlydoucement,
I'm going to turntour up your facevisage."
149
351600
2896
« Tu parles trop bas, je vais
monter le son de ta tête. »
06:06
That's awkwardmaladroite and not OK,
150
354520
1256
C'est gênant et incorrect,
06:07
and so we endfin up havingayant to buildconstruire
these newNouveau socialsocial normsnormes
151
355800
2616
on a donc dû créer
de nouvelles normes sociales
06:10
around usingen utilisant these systemssystèmes.
152
358440
2216
pour utiliser ces systèmes.
06:12
SimilarlyDe la même façon, as you startdébut
feelingsentiment like it's your bodycorps,
153
360680
3416
De même, dès qu'on commence à
s'y sentir comme dans son propre corps,
06:16
you startdébut noticingremarquer things like,
"Oh, my robotrobot is kindgentil of shortcourt."
154
364120
3696
on se met à remarquer des choses
comme : « Mon robot est trop petit. »
06:19
DallasDallas would say things to me --
he was six-footsix pieds tallgrand --
155
367840
2656
Si Dallas me parlait –
il fait 1 mètre 80 –
06:22
and we would take him viavia robotrobot
to cocktailcocktail partiesdes soirées and things like that,
156
370520
3456
qu'on emmenait son robot
à des cocktails et à des soirées,
06:26
as you do,
157
374000
1216
où on va,
06:27
and the robotrobot was about five-foot-tallcinq pieds de hauteur,
whichlequel is closeFermer to my heightla taille.
158
375240
3336
et que le robot fait 1 mètre 50,
ce qui est proche de ma taille,
06:30
And he would tell me,
159
378600
1216
Dallas me dirait :
06:31
"You know, people are not
really looking at me.
160
379840
2536
« Les gens ne me
regardent pas vraiment.
06:34
I feel like I'm just looking
at this seamer of shouldersépaules,
161
382400
2696
J'ai l'impression de ne voir
qu'une mer d'épaules –
06:37
and it's just -- we need a tallerplus grand robotrobot."
162
385120
1976
il me faut un robot plus grand. »
06:39
And I told him,
163
387120
1256
Je lui ai répondu :
06:40
"UmUmm, no.
164
388400
1296
« Euh, non.
06:41
You get to walkmarche in my shoeschaussures for todayaujourd'hui.
165
389720
1936
Tu vas te sentir à ma place aujourd'hui.
06:43
You get to see what it's like
to be on the shorterplus court endfin of the spectrumspectre."
166
391680
3536
Tu vas voir ce que ça fait d'être
au niveau de l'épaule des gens. »
06:47
And he actuallyréellement endedterminé up buildingbâtiment
a lot of empathyempathie for that experienceexpérience,
167
395240
3376
Cette expérience lui a fait
ressentir beaucoup d'empathie,
06:50
whichlequel was kindgentil of great.
168
398640
1256
c'était plutôt formidable.
06:51
So when he'dil aurait come visitvisite in personla personne,
169
399920
1656
Quand il venait lui-même me voir,
06:53
he no longerplus long stooddebout over me
as he was talkingparlant to me,
170
401600
2416
il ne restait plus debout,
devant moi, à me parler,
06:56
he would sitasseoir down
and talk to me eyeœil to eyeœil,
171
404040
2096
il s'asseyait et me
parlait à mon niveau,
06:58
whichlequel was kindgentil of a beautifulbeau thing.
172
406160
1736
c'était très touchant.
06:59
So we actuallyréellement decideddécidé
to look at this in the laboratorylaboratoire
173
407920
2656
On a donc décidé d'étudier
ce phénomène en laboratoire,
07:02
and see what othersautres kindssortes of differencesdifférences
things like robotrobot heightla taille would make.
174
410600
3656
de voir ce que des différences,
comme la taille d'un robot, changent.
07:06
And so halfmoitié of the people in our studyétude
used a shorterplus court robotrobot,
175
414280
2856
La moitié de notre échantillon
a utilisé un petit robot,
07:09
halfmoitié of the people in our studyétude
used a tallerplus grand robotrobot
176
417160
2416
l'autre moitié, un grand robot.
07:11
and we actuallyréellement founda trouvé
that the exactexact sameMême personla personne
177
419600
2256
On a découvert que la même personne,
07:13
who has the exactexact sameMême bodycorps
and saysdit the exactexact sameMême things as someoneQuelqu'un,
178
421880
3336
avec exactement le même physique et
qui dit exactement la même chose,
07:17
is more persuasivepersuasive
and perceivedperçue as beingétant more crediblecrédible
179
425240
2616
est plus convaincante
et paraît plus crédible
07:19
if they're in a tallerplus grand robotrobot formforme.
180
427880
1656
avec la grande version du robot.
07:21
It makesfait du no rationalrationnel sensesens,
181
429560
1816
Ce n'est pas rationnel,
07:23
but that's why we studyétude psychologypsychologie.
182
431400
1696
d'où le recours à la psychologie.
07:25
And really, you know,
the way that CliffFalaise NassNass would put this
183
433120
2856
En fait, Cliff Nass dirait
07:28
is that we're havingayant to dealtraiter
with these newNouveau technologiesles technologies
184
436000
3016
qu'il nous faut interagir avec
ces nouvelles technologies,
07:31
despitemalgré the factfait
that we have very oldvieux brainscerveaux.
185
439040
2736
malgré le fait que nous ayons
de très vieux cerveaux.
07:33
HumanHumaine psychologypsychologie is not changingen changeant
at the sameMême speedla vitesse that techtechnologie is
186
441800
2976
La psychologie humaine
n'évolue pas aussi vite que la tech,
on se met tout le temps à jour,
07:36
and so we're always playingen jouant catch-uprattraper,
187
444800
1816
pour chercher du sens dans un monde
07:38
tryingen essayant to make sensesens of this worldmonde
188
446640
1656
07:40
where these autonomousautonome things
are runningfonctionnement around.
189
448320
2336
où les machines autonomes nous entourent.
07:42
UsuallyGénéralement, things that talk are people,
not machinesmachines, right?
190
450680
2736
Normalement ce sont les gens
qui parlent, pas les machines.
07:45
And so we breatherespirer a lot of meaningsens
into things like just heightla taille of a machinemachine,
191
453440
4576
Et donc on associe beaucoup de choses
comme la taille d'une machine –
07:50
not a personla personne,
192
458040
1256
pas de la personne –
07:51
and attributeattribut that
to the personla personne usingen utilisant the systemsystème.
193
459320
2360
à celui qui utilise le système.
07:55
You know, this, I think,
is really importantimportant
194
463120
2216
Je pense que c'est très important
07:57
when you're thinkingen pensant about roboticsrobotique.
195
465360
1736
quand on réfléchit à la robotique.
07:59
It's not so much about reinventingréinventer humanshumains,
196
467120
2096
Ce n'est pas tant réinventer l'humain,
08:01
it's more about figuringfigurer out
how we extendétendre ourselvesnous-mêmes, right?
197
469240
3136
mais plutôt découvrir comment
étendre ses possibilités.
08:04
And we endfin up usingen utilisant things
in waysfaçons that are sortTrier of surprisingsurprenant.
198
472400
2976
On en vient à utiliser les robots
d'une façon très surprenante.
08:07
So these guys can't playjouer poolpiscine
because the robotsdes robots don't have armsbras,
199
475400
4256
Ces robots ne peuvent pas jouer
au billard car ils n'ont pas de bras,
08:11
but they can heckleheckle the guys
who are playingen jouant poolpiscine
200
479680
2336
mais ils peuvent interpeller les joueurs,
08:14
and that can be an importantimportant thing
for teaméquipe bondingcollage,
201
482040
3176
ce qui peut beaucoup contribuer
à créer un esprit d'équipe,
08:17
whichlequel is kindgentil of neatsoigné.
202
485240
1296
c'est assez génial.
08:18
People who get really good
at operatingen fonctionnement these systemssystèmes
203
486560
2496
Les gens qui arrivent très bien
à utiliser les robots
08:21
will even do things
like make up newNouveau gamesJeux,
204
489080
2056
inventent même de nouveaux jeux,
08:23
like robotrobot soccerfootball
in the middlemilieu of the night,
205
491160
2136
comme le football robotique
en pleine nuit,
08:25
pushingen poussant the trashpoubelle canscanettes around.
206
493320
1456
renversant les poubelles.
08:26
But not everyone'stout le monde good.
207
494800
1576
Tout le monde n'y arrive pas.
08:28
A lot of people have troubledifficulté
operatingen fonctionnement these systemssystèmes.
208
496400
2496
Beaucoup de gens ont
du mal à utiliser les robots.
08:30
This is actuallyréellement a guy
who loggedconnecté into the robotrobot
209
498920
2256
Cet homme s'est connecté à un robot,
08:33
and his eyeballglobe oculaire was turnedtourné
90 degreesdegrés to the left.
210
501200
2376
dont l'œil était tourné
à 90 degrés sur la gauche.
08:35
He didn't know that,
211
503600
1256
Il ne le savait pas
08:36
so he endedterminé up just bashingbashing
around the officeBureau,
212
504880
2176
et il s'est mis à se cogner
partout au bureau,
08:39
runningfonctionnement into people'sles gens desksBureau,
gettingobtenir supersuper embarrassedembarrassé,
213
507080
2616
à foncer dans les gens,
qui devenaient très gênés.
08:41
laughingen riant about it --
his volumele volume was way too highhaute.
214
509720
2336
Il en riait – son volume
était bien trop fort.
08:44
And this guy here
in the imageimage is tellingrécit me,
215
512080
2136
Cet homme me disait sur l'image :
08:46
"We need a robotrobot mutemettre en sourdine buttonbouton."
216
514240
2096
« Il faut un bouton pour couper le son. »
08:48
And by that what he really meantsignifiait
was we don't want it to be so disruptiveperturbateur.
217
516360
3496
En fait, il voulait dire qu'on ne veut pas
de robots aussi turbulents.
08:51
So as a roboticsrobotique companycompagnie,
218
519880
1616
En tant que fabricants de robots,
08:53
we addedajoutée some obstacleobstacle
avoidanceévitement to the systemsystème.
219
521520
2456
on a intégré au système
des obstacles à éviter.
08:56
It got a little laserlaser rangegamme finderFinder
that could see the obstaclesobstacles,
220
524000
3056
Il a reçu un petit laser
pour détecter les obstacles.
08:59
and if I as a robotrobot operatoropérateur
try to say, runcourir into a chairchaise,
221
527080
3136
Si l'opérateur du robot essaie
de le faire aller dans une chaise,
09:02
it wouldn'tne serait pas let me,
it would just planplan a pathchemin around,
222
530240
2496
ça ne marchera pas :
le robot en fera juste le tour,
09:04
whichlequel seemssemble like a good ideaidée.
223
532760
1856
ce qui est une meilleure idée.
09:06
People did hitfrappé fewermoins obstaclesobstacles
usingen utilisant that systemsystème, obviouslyévidemment,
224
534640
3176
Grâce à ce programme, les gens
heurtaient moins d'obstacles,
09:09
but actuallyréellement, for some of the people,
225
537840
2096
mais quelques personnes
09:11
it tooka pris them a lot longerplus long
to get throughpar our obstacleobstacle coursecours,
226
539960
2856
mettaient plus de temps à finir
la classe d'obstacles,
09:14
and we wanted to know why.
227
542840
1560
on a voulu savoir pourquoi.
09:17
It turnsse tourne out that there's
this importantimportant humanHumain dimensiondimension --
228
545080
3056
Il s'est avéré qu'il y a un élément
important chez l'humain :
09:20
a personalitypersonnalité dimensiondimension
calledappelé locuslocus of controlcontrôle,
229
548160
2296
le locus de contrôle,
rattaché à la personnalité.
09:22
and people who have
a strongfort internalinterne locuslocus of controlcontrôle,
230
550480
3136
Les gens dotés d'un fort
locus interne de contrôle
09:25
they need to be the mastersmaîtres
of theirleur ownposséder destinydestin --
231
553640
3056
ont besoin de maîtriser
leur propre destin –
09:28
really don't like givingdonnant up controlcontrôle
to an autonomousautonome systemsystème --
232
556720
3096
ils détestent laisser le contrôle
à un système autonome.
09:31
so much so that they will
fightbats toi the autonomyautonomie;
233
559840
2136
Ils se battent contre
ce système autonome :
09:34
"If I want to hitfrappé that chairchaise,
I'm going to hitfrappé that chairchaise."
234
562000
3096
« Si je veux heurter
cette chaise, je le ferai. »
09:37
And so they would actuallyréellement suffersouffrir
from havingayant that autonomousautonome assistanceassistance,
235
565120
3616
Ils n'apprécient pas d'avoir
une aide programmée,
09:40
whichlequel is an importantimportant thing for us to know
236
568760
2576
c'est une chose importante à savoir
09:43
as we're buildingbâtiment increasinglyde plus en plus
autonomousautonome, say, carsdes voitures, right?
237
571360
3296
alors qu'on construit des voitures
de plus en plus autonomes, non ?
09:46
How are differentdifférent people going
to grapplegrappin with that lossperte of controlcontrôle?
238
574680
3360
Comment réagiront des gens différents
face à cette perte de contrôle ?
09:50
It's going to be differentdifférent
dependingen fonction, dépendemment on humanHumain dimensionsdimensions.
239
578880
2696
Ce sera différent selon
les caractéristiques de chacun.
09:53
We can't treattraiter humanshumains
as if we're just one monolithicmonolithique thing.
240
581600
3496
On ne peut pas traiter les humains
comme s'ils étaient semblables.
09:57
We varyvarier by personalitypersonnalité, by cultureCulture,
241
585120
2416
On diffère par notre
personnalité, notre culture,
09:59
we even varyvarier by emotionalémotif stateEtat
momentmoment to momentmoment,
242
587560
2456
parfois même, en fonction
de notre état émotionnel.
10:02
and beingétant ablecapable to designconception these systemssystèmes,
243
590040
1976
Pour concevoir des systèmes
10:04
these human-robothomme-robot interactioninteraction systemssystèmes,
244
592040
2296
d'interactions entre humains et robots,
10:06
we need to take into accountCompte
the humanHumain dimensionsdimensions,
245
594360
2736
on doit prendre en compte
les caractéristiques humaines,
10:09
not just the technologicaltechnologique onesceux.
246
597120
1720
pas que celles de la technologie.
10:11
AlongLe long de with a sensesens of controlcontrôle
alsoaussi comesvient a sensesens of responsibilityresponsabilité.
247
599640
4296
Avec le sens du contrôle vient
le sens des responsabilités.
10:15
And if you were a robotrobot operatoropérateur
usingen utilisant one of these systemssystèmes,
248
603960
2856
Si vous pilotiez un robot
utilisant un de ces systèmes,
10:18
this is what the interfaceinterface
would look like.
249
606840
2056
voilà ce à quoi l'interface ressemblerait.
10:20
It looksregards a little bitbit like a videovidéo gameJeu,
250
608920
1936
C'est un peu comme dans un jeu vidéo :
10:22
whichlequel can be good because
that's very familiarfamilier to people,
251
610880
2976
c'est bien, car c'est très
familier pour les gens.
10:25
but it can alsoaussi be badmal
252
613880
1216
Mais le mauvais côté,
10:27
because it makesfait du people feel
like it's a videovidéo gameJeu.
253
615120
2456
c'est que les gens se croient
dans un jeu vidéo.
10:29
We had a bunchbouquet of kidsdes gamins
over at StanfordStanford playjouer with the systemsystème
254
617600
2856
Des enfants sont venus jouer
avec le système à Stanford,
10:32
and driveconduire the robotrobot
around our officeBureau in MenloMenlo ParkParc,
255
620480
2456
conduire un robot dans
nos bureaux à Menlo Park
10:34
and the kidsdes gamins startedcommencé sayingen disant things like,
256
622960
1936
et ils se sont mis à dire, par exemple :
10:36
"10 pointspoints if you hitfrappé that guy over there.
20 pointspoints for that one."
257
624920
3176
« 10 points si tu cognes le type
là-bas, 20 points pour l'autre ».
10:40
And they would
chaseChase them down the hallwaycouloir.
258
628120
2016
Ils poursuivaient les gens dans le hall.
10:42
(LaughterRires)
259
630160
1016
(Rires)
10:43
I told them, "UmUmm, those are realréal people.
260
631200
1936
Je leur ai dit : « Ce sont de vrais gens
10:45
They're actuallyréellement going to bleedfond perdu
and feel paindouleur if you hitfrappé them."
261
633160
3296
qui vont vraiment saigner et
avoir mal si vous les cognez. »
10:48
And they'dils auraient be like, "OK, got it."
262
636480
1616
Ils répondaient : « OK, compris. »
10:50
But fivecinq minutesminutes laterplus tard,
they would be like,
263
638120
2056
Mais cinq minutes plus tard, c'était :
10:52
"20 pointspoints for that guy over there,
he just looksregards like he needsBesoins to get hitfrappé."
264
640200
3616
« 20 points pour le type là-bas,
il a l'air d'avoir besoin d'être cogné. »
10:55
It's a little bitbit
like "Ender'sDe Ender GameJeu," right?
265
643840
2136
Un peu comme dans La Stratégie Ender.
10:58
There is a realréal worldmonde on that other sidecôté
266
646000
1936
Il y a un monde réel de l'autre côté,
10:59
and I think it's our responsibilityresponsabilité
as people designingconception these interfacesinterfaces
267
647960
3416
je pense que c'est notre responsabilité,
en créant ces interfaces,
11:03
to help people rememberrappelles toi
268
651400
1256
d'aider à se souvenir
11:04
that there's realréal consequencesconséquences
to theirleur actionsactes
269
652680
2256
que nos actions ont
des conséquences réelles,
11:06
and to feel a sensesens of responsibilityresponsabilité
270
654960
2296
à avoir le sens des responsabilités
11:09
when they're operatingen fonctionnement
these increasinglyde plus en plus autonomousautonome things.
271
657280
3280
quand on utilise ces systèmes
de plus en plus autonomes.
11:13
These are kindgentil of a great exampleExemple
272
661840
2296
Voici de très bons exemples
11:16
of experimentingexpérimenter with one
possiblepossible roboticrobotique futureavenir,
273
664160
3256
d'expérimentations d'un futur
robotique possible.
11:19
and I think it's prettyjoli coolcool
that we can extendétendre ourselvesnous-mêmes
274
667440
3856
Je pense que c'est formidable
de pouvoir étendre ses possibilités,
11:23
and learnapprendre about the waysfaçons
that we extendétendre ourselvesnous-mêmes
275
671320
2336
d'apprendre de
notre façon de le faire,
11:25
into these machinesmachines
276
673680
1216
dans ces machines,
11:26
while at the sameMême time
beingétant ablecapable to expressExpress our humanityhumanité
277
674920
2696
tout en étant capable
d'exprimer son humanité
11:29
and our personalitypersonnalité.
278
677640
1216
et sa personnalité.
11:30
We alsoaussi buildconstruire empathyempathie for othersautres
279
678880
1576
Et on a de l'empathie pour autrui
11:32
in termstermes of beingétant
shorterplus court, tallerplus grand, fasterPlus vite, slowerRalentissez,
280
680480
3216
quelle que soit sa taille, sa vitesse
11:35
and maybe even armlesssans bras,
281
683720
1416
et parfois même son handicap,
11:37
whichlequel is kindgentil of neatsoigné.
282
685160
1336
c'est génial.
11:38
We alsoaussi buildconstruire empathyempathie
for the robotsdes robots themselvesse.
283
686520
2536
On a aussi de l'empathie
pour les robots eux-mêmes.
11:41
This is one of my favoritepréféré robotsdes robots.
284
689080
1656
Voici un de mes robots préférés.
11:42
It's calledappelé the TweenbotTweenbot.
285
690760
1456
C'est le Tweenbot.
11:44
And this guy has a little flagdrapeau that saysdit,
286
692240
1976
Ce petit gars a un fanion qui dit :
11:46
"I'm tryingen essayant to get
to this intersectionintersection in ManhattanManhattan,"
287
694240
2576
« J'essaie d'aller à ce
croisement à Manhattan »,
11:48
and it's cutemignon and rollsRouleaux
forwardvers l'avant, that's it.
288
696840
2776
il est mignon, il roule,
et c'est tout.
11:51
It doesn't know how to buildconstruire a mapcarte,
it doesn't know how to see the worldmonde,
289
699640
3456
Il ne sait pas comment créer
une carte, ni voir le monde :
11:55
it just asksdemande for help.
290
703120
1256
il demande de l'aide.
11:56
The niceagréable thing about people
291
704400
1336
Ce qui est bien chez les gens,
11:57
is that it can actuallyréellement dependdépendre
uponsur the kindnessbonté of strangersétrangers.
292
705760
3096
c'est qu'il a pu compter sur
la gentillesse d'étrangers.
12:00
It did make it acrossà travers the parkparc
to the other sidecôté of ManhattanManhattan --
293
708880
3896
Il a bien traversé le parc jusqu'à
l'autre côté de Manhattan –
12:04
whichlequel is prettyjoli great --
294
712800
1256
ce qui est génial –
12:06
just because people would pickchoisir it up
and pointpoint it in the right directiondirection.
295
714080
3456
juste parce que les gens le mettaient
dans la bonne direction.
12:09
(LaughterRires)
296
717560
936
(Rires)
12:10
And that's great, right?
297
718520
1256
Et c'est génial, non ?
12:11
We're tryingen essayant to buildconstruire
this human-robothomme-robot worldmonde
298
719800
2696
On cherche à construire ce monde
mixte humain et robotique
dans lequel on peut coexister
et travailler, tous ensemble.
12:14
in whichlequel we can coexistcoexister
and collaboratecollaborer with one anotherun autre,
299
722520
3416
12:17
and we don't need to be fullypleinement autonomousautonome
and just do things on our ownposséder.
300
725960
3376
Pas besoin d'être complètement
autonome et de tout faire tout seul.
12:21
We actuallyréellement do things togetherensemble.
301
729360
1496
On fait les choses ensemble.
12:22
And to make that happense produire,
302
730880
1256
Et pour y arriver,
12:24
we actuallyréellement need help from people
like the artistsartistes and the designersconcepteurs,
303
732160
3256
on a besoin de l'aide
des artistes et designers,
12:27
the policypolitique makersles décideurs, the legallégal scholarssavants,
304
735440
1856
dirigeants politiques, juristes,
12:29
psychologistspsychologues, sociologistssociologues,
anthropologistsanthropologues --
305
737320
2216
psychologues, sociologues,
anthropologues, etc.
12:31
we need more perspectivespoints de vue in the roomchambre
306
739560
1816
On a besoin de plus de points de vue
12:33
if we're going to do the thing
that StuStu CardCarte saysdit we should do,
307
741400
2976
si on veut faire ce que
Stuart Card nous conseille :
12:36
whichlequel is inventinventer the futureavenir
that we actuallyréellement want to livevivre in.
308
744400
3936
inventer le futur dans lequel
on veut vraiment vivre.
12:40
And I think we can continuecontinuer to experimentexpérience
309
748360
2656
Je pense qu'on peut
continuer à expérimenter
12:43
with these differentdifférent
roboticrobotique futurescontrats à terme togetherensemble,
310
751040
2176
différents futurs robotiques ensemble,
12:45
and in doing so, we will endfin up
learningapprentissage a lot more about ourselvesnous-mêmes.
311
753240
4680
et, ce faisant, on finira par en apprendre
beaucoup plus sur nous-mêmes.
12:50
Thank you.
312
758720
1216
Merci.
12:51
(ApplauseApplaudissements)
313
759960
2440
(Applaudissements)
Translated by Jules Daunay
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com