ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

Leila Takayama: Hoe voelt het om een robot te zijn?

Filmed:
1,183,118 views

We leven reeds te midden van robots: werktuigen en machines zoals afwasmachines en thermostaten, die zo geïntegreerd zijn in onze levens dat we er niet eens meer aan denken om ze zo te noemen. Hoe zal een toekomst met nog meer robots eruitzien? Sociaal wetenschapper Leila Takayama vertelt over een aantal uitdagingen die uniek zijn aan het ontwerpen van mens-robotinteracties en hoe het experimenteren met de mogelijke toekomst van de robot ons leidt naar een beter begrip van onszelf.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chancekans
to make a first impressionindruk,
0
760
2656
Je krijgt maar één kans
om een eerste indruk te maken
00:15
and that's truewaar if you're a robotrobot
as well as if you're a personpersoon.
1
3440
3176
en dat geldt evenzeer
voor robots als voor mensen.
00:18
The first time that I metleerde kennen
one of these robotsrobots
2
6640
3016
De eerste keer dat ik
een robot ontmoette,
00:21
was at a placeplaats
calledriep WillowWillow GarageGarage in 2008.
3
9680
2896
was op een plek die
Willow Garage heette, in 2008.
00:24
When I wentgegaan to visitbezoek there,
my hostgastheer walkedwandelde me into the buildinggebouw
4
12600
3016
Toen ik er op bezoek ging,
leidde mijn gastheer me naar binnen
00:27
and we metleerde kennen this little guy.
5
15640
1576
en kwamen we deze jongen tegen.
00:29
He was rollingrollend into the hallwaygang,
6
17240
1656
Hij reed de gang in,
00:30
camekwam up to me, satza there,
7
18920
1816
kwam naar me toe, zat daar,
00:32
staredstaarde blanklybotweg pastverleden me,
8
20760
2256
keek wezenloos langs me heen,
00:35
did nothing for a while,
9
23040
1656
deed niets gedurende een tijd,
00:36
rapidlysnel spungesponnen his headhoofd around 180 degreesgraden
10
24720
1936
draaide zijn hoofd snel 180 graden om
en liep vervolgens weg.
00:38
and then ranrende away.
11
26680
1536
00:40
And that was not a great first impressionindruk.
12
28240
2176
Dat was geen goede eerste indruk.
00:42
The thing that I learnedgeleerd
about robotsrobots that day
13
30440
2176
Wat ik die dag over robots geleerd heb,
00:44
is that they kindsoort of do theirhun owneigen thing,
14
32640
2176
is dat ze hun eigen ding doen
00:46
and they're not totallyhelemaal awarebewust of us.
15
34840
2136
en zich niet geheel
bewust zijn van ons.
Ik denk dat door te experimenteren
met mogelijke toekomstige robots,
00:49
And I think as we're experimentingexperimenteren
with these possiblemogelijk robotrobot futuresFutures,
16
37000
3239
00:52
we actuallywerkelijk endeinde up learningaan het leren
a lot more about ourselvesonszelf
17
40263
2673
we eigenlijk veel meer over onszelf leren
00:54
as opposedgekant tegen to just these machinesmachines.
18
42960
1656
en niet enkel over deze machines.
00:56
And what I learnedgeleerd that day
19
44640
1336
Wat ik die dag geleerd heb,
00:58
was that I had prettymooi highhoog
expectationsverwachtingen for this little dudedude.
20
46000
3416
is dat ik vrij veel verwachtte
van deze kleine jongen.
01:01
He was not only supposedvermeend to be ablein staat
to navigatenavigeren the physicalfysiek worldwereld-,
21
49440
3176
Hij moest niet alleen
de fysieke wereld kunnen navigeren,
01:04
but alsoook be ablein staat
to navigatenavigeren my socialsociaal worldwereld- --
22
52640
2656
maar ook mijn sociale wereld --
01:07
he's in my spaceruimte; it's a personalpersoonlijk robotrobot.
23
55320
2176
het is een persoonlijke robot.
01:09
wWhywWhy didn't it understandbegrijpen me?
24
57520
2016
Waarom begreep hij me niet?
01:11
My hostgastheer explaineduitgelegd to me,
25
59560
1256
Mijn gastheer vertelde me:
01:12
"Well, the robotrobot is tryingproberen
to get from pointpunt A to pointpunt B,
26
60840
3176
"Wel, de robot probeert
om van punt A naar punt B te raken
01:16
and you were an obstacleobstakel in his way,
27
64040
1776
en jij was een obstakel op zijn weg,
01:17
so he had to replanHerplannen his pathpad,
28
65840
2016
dus moest hij zijn route opnieuw plannen,
01:19
figurefiguur out where to go,
29
67880
1256
uitzoeken waarheen te gaan
01:21
and then get there some other way,"
30
69160
1696
en er via een andere weg raken."
01:22
whichwelke was actuallywerkelijk
not a very efficientdoeltreffend thing to do.
31
70880
2456
Eigenlijk was dat niet efficiënt.
01:25
If that robotrobot had figuredbedacht out
that I was a personpersoon, not a chairstoel,
32
73360
3256
Als deze robot begrepen had
dat ik een persoon was, geen stoel,
01:28
and that I was willinggewillig
to get out of its way
33
76640
2096
en dat ik bereid was uit de weg te gaan
als hij ergens naartoe moest,
01:30
if it was tryingproberen to get somewhereergens,
34
78760
1656
dan zou hij eigenlijk zijn taak
efficiënter hebben kunnen volbrengen
01:32
then it actuallywerkelijk
would have been more efficientdoeltreffend
35
80440
2216
01:34
at gettingkrijgen its jobbaan donegedaan
36
82680
1256
als hij opgemerkt had dat ik een mens was
01:35
if it had botheredlastig gevallen
to noticekennisgeving that I was a humanmenselijk
37
83960
2216
en dat ik dus flexibeler ben
dan dingen zoals stoelen of muren.
01:38
and that I have differentverschillend affordancesdigiborden
than things like chairsstoelen and wallswanden do.
38
86200
3576
We hebben de neiging om robots
te zien als wezens uit de ruimte
01:41
You know, we tendde neiging hebben to think of these robotsrobots
as beingwezen from outerbuitenste spaceruimte
39
89800
3216
en uit de toekomst en uit science fiction,
01:45
and from the futuretoekomst
and from sciencewetenschap fictionfictie,
40
93040
2136
en hoewel dat waar kan zijn,
01:47
and while that could be truewaar,
41
95200
1416
zou ik graag argumenteren
dat robots hier zijn, vandaag,
01:48
I'd actuallywerkelijk like to argueargumenteren
that robotsrobots are here todayvandaag,
42
96640
2656
01:51
and they liveleven and work
amongstte midden van us right now.
43
99320
2776
en dat ze op dit moment
leven en werken onder ons.
01:54
These are two robotsrobots that liveleven in my home.
44
102120
2856
Deze twee robots wonen in mijn huis.
01:57
They vacuumvacuüm the floorsvloeren
and they cutbesnoeiing the grassgras
45
105000
2496
Ze stofzuigen en maaien het gras,
01:59
everyelk singlesingle day,
46
107520
1216
elke dag,
02:00
whichwelke is more than I would do
if I actuallywerkelijk had time to do these taskstaken,
47
108760
3376
wat meer is dan ik zou doen
als ik al tijd had om klusjes te doen,
en ze doen het waarschijnlijk
ook nog eens beter.
02:04
and they probablywaarschijnlijk
do it better than I would, too.
48
112160
2336
Deze verzorgt mijn kat.
02:06
This one actuallywerkelijk takes carezorg of my kittypot.
49
114520
2496
Elke keer dat hij in de bak gaat,
maakt hij die schoon,
02:09
EveryElke singlesingle time
he usestoepassingen the boxdoos, it cleansreinigt it,
50
117040
2576
wat ik niet bereid ben om te doen,
02:11
whichwelke is not something I'm willinggewillig to do,
51
119640
1976
en zo maakt hij zowel
zijn leven als het mijne beter.
02:13
and it actuallywerkelijk makesmerken
his life better as well as minede mijne.
52
121640
2576
02:16
And while we call these robotrobot productsproducten --
53
124240
2416
Hoewel we deze dingen 'robots' noemen -
02:18
it's a "robotrobot vacuumvacuüm cleanerschoonmaakster,
it's a robotrobot lawnmowergrasmaaier,
54
126680
2696
een robotstofzuiger, een robotmaaier,
02:21
it's a robotrobot littlerlittler boxdoos,"
55
129400
1495
een kattenbakrobot -
02:22
I think there's actuallywerkelijk a bunchbos
of other robotsrobots hidingverbergen in plainvlakte sightzicht
56
130919
4137
denk ik dat er heel wat andere robots
zich ongemerkt voor onze neus bevinden
02:27
that have just becomeworden so darndarn usefulnuttig
57
135080
1856
die zo verdomd nuttig
en alledaags geworden zijn
02:28
and so darndarn mundanemondain
58
136960
1456
02:30
that we call them things
like, "dishwashervaatwasser," right?
59
138440
2496
dat we ze bijvoorbeeld
'afwasmachine' noemen.
Ze krijgen nieuwe namen.
02:32
They get newnieuwe namesnamen.
60
140960
1216
We noemen ze geen robots meer
02:34
They don't get calledriep robotrobot anymoremeer
61
142200
1696
omdat ze effectief een doel
in onze levens hebben.
02:35
because they actuallywerkelijk
servedienen a purposedoel in our liveslevens.
62
143920
2416
Neem ook een thermostaat.
02:38
SimilarlyOp dezelfde manier, a thermostatthermostaat, right?
63
146360
1496
02:39
I know my roboticsRobotica friendsvrienden out there
64
147880
1776
Ik weet dat mijn robotica-vrienden
02:41
are probablywaarschijnlijk cringingserviliteit
at me callingroeping this a robotrobot,
65
149680
2336
erom moeten huiveren
dat ik dit een robot noem,
02:44
but it has a goaldoel.
66
152040
1256
maar hij heeft een doel.
02:45
Its goaldoel is to make my househuis
66 degreesgraden FahrenheitFahrenheit,
67
153320
2896
Zijn doel is om mijn huis
tot 19 graden Celsius op te warmen.
02:48
and it sensesverstand the worldwereld-.
68
156240
1256
Hij voelt de wereld aan.
02:49
It knowsweet it's a little bitbeetje coldkoude,
69
157520
1576
Hij weet dat het wat koud is,
02:51
it makesmerken a planplan and then
it actsacts on the physicalfysiek worldwereld-.
70
159120
2616
maakt een plan en beïnvloedt
dan de fysieke wereld.
Het is robotica.
02:53
It's roboticsRobotica.
71
161760
1256
Hij ziet er misschien niet uit
als Rosie de Robot,
02:55
Even if it mightmacht not
look like RosieRosie the RobotRobot,
72
163040
2576
maar hij doet iets
heel nuttigs in mijn leven,
02:57
it's doing something
that's really usefulnuttig in my life
73
165640
2936
03:00
so I don't have to take carezorg
74
168600
1376
zodat ik niet zelf de temperatuur
hoger of lager hoef te zetten.
03:02
of turningdraaien the temperaturetemperatuur-
up and down myselfmezelf.
75
170000
2576
03:04
And I think these systemssystemen
liveleven and work amongstte midden van us now,
76
172600
3816
Deze systemen leven en werken
te midden van ons op dit moment
03:08
and not only are these systemssystemen
livingleven amongstte midden van us
77
176440
2336
en niet alleen leven
deze systemen onder ons,
03:10
but you are probablywaarschijnlijk
a robotrobot operatoroperator, too.
78
178800
2656
maar jij bent waarschijnlijk
ook een robotbestuurder.
03:13
When you driverijden your carauto,
79
181480
1256
Als je met de auto rijdt,
03:14
it feelsvoelt like you are operatingbedrijfs- machinerymachinerie.
80
182760
2216
lijkt het alsof je een machine bestuurt.
03:17
You are alsoook going
from pointpunt A to pointpunt B,
81
185000
2816
Je gaat van punt A naar punt B,
03:19
but your carauto probablywaarschijnlijk has powermacht steeringstuurinrichting,
82
187840
2216
maar je auto heeft mogelijk
stuurbekrachtiging.
03:22
it probablywaarschijnlijk has automaticAutomatisch brakingremmen systemssystemen,
83
190080
2696
Het heeft waarschijnlijk
een automatisch remsysteem,
03:24
it mightmacht have an automaticAutomatisch transmissiontransmissie
and maybe even adaptiveaangepaste cruiseCruise controlcontrole.
84
192800
3736
een automatische versnellingsbak
en misschien zelfs cruise control.
03:28
And while it mightmacht not be
a fullygeheel autonomousautonoom carauto,
85
196560
2936
En hoewel het misschien
geen volledig autonome auto is,
03:31
it has bitsstukjes of autonomyautonomie,
86
199520
1296
heeft het autonome delen
03:32
and they're so usefulnuttig
87
200840
1336
die heel nuttig zijn
en ons veiliger laten rijden
03:34
and they make us driverijden saferveiliger,
88
202200
1816
03:36
and we just sortsoort of feel
like they're invisible-in-useonzichtbaar-in-use, right?
89
204040
3656
en waarvan we het gevoel hebben
dat ze onzichtbaar in gebruik zijn, neen?
Dus wanneer je met de auto rijdt,
03:39
So when you're drivinghet rijden your carauto,
90
207720
1576
moet je het gevoel hebben
dat je van hier naar daar gaat.
03:41
you should just feel like
you're going from one placeplaats to anothereen ander.
91
209320
3096
Het voelt niet aan als een groot ding
dat je moet bedienen
03:44
It doesn't feel like it's this biggroot thing
that you have to dealtransactie with and operatebedienen
92
212440
3736
met allerlei bedieningselementen,
03:48
and use these controlscontrols
93
216200
1256
omdat we zo lang hebben leren rijden
03:49
because we spentdoorgebracht so long
learningaan het leren how to driverijden
94
217480
2176
03:51
that they'veze hebben becomeworden
extensionsextensies of ourselvesonszelf.
95
219680
2696
dat het een verlenging
van onszelf geworden is.
Wanneer je de auto parkeert
in die krappe garageplaats,
03:54
When you parkpark that carauto
in that tightstrak little garagegarage spaceruimte,
96
222400
2696
weet je waar je hoeken zijn.
03:57
you know where your cornershoeken are.
97
225120
1576
En wanneer je in een huurauto rijdt
die je niet eerder hebt gereden,
03:58
And when you driverijden a rentalVerhuur carauto
that maybe you haven'thebben niet drivenaangedreven before,
98
226720
3256
duurt het even om gewend te raken
aan je nieuwe robotlichaam.
04:02
it takes some time
to get used to your newnieuwe robotrobot bodylichaam.
99
230000
3056
04:05
And this is alsoook truewaar for people
who operatebedienen other typestypes of robotsrobots,
100
233080
3976
Dit geldt ook voor mensen
die andere soorten robots besturen,
04:09
so I'd like to sharedelen with you
a fewweinig storiesverhalen about that.
101
237080
2600
dus zou ik hierover graag
enkele verhalen vertellen.
04:12
DealingOmgaan with the problemprobleem
of remoteafgelegen collaborationsamenwerking.
102
240240
2336
Omgaan met het probleem
van telesamenwerking.
04:14
So, at WillowWillow GarageGarage
I had a coworkercollega namedgenaamd DallasDallas,
103
242600
2576
In Willow Garage had ik
een collega die Dallas heette.
04:17
and DallasDallas lookedkeek like this.
104
245200
1576
Dallas zag er zo uit.
04:18
He workedwerkte from his home in IndianaIndiana
in our companybedrijf in CaliforniaCalifornië.
105
246800
4056
Hij werkte vanuit zijn huis in Indiana
voor ons bedrijf in Californië.
04:22
He was a voicestem in a boxdoos
on the tabletafel in mostmeest of our meetingsvergaderingen,
106
250880
2936
Hij was een stem in een doos op tafel
tijdens onze meetings,
04:25
whichwelke was kindsoort of OK
exceptbehalve that, you know,
107
253840
2215
en dat gaf meestal niet,
maar wanneer we een verhit debat hadden
en we waren het niet eens
04:28
if we had a really heatedverwarmd debatedebat
and we didn't like what he was sayinggezegde,
108
256079
3377
dan hingen we weleens op.
04:31
we mightmacht just hanghangen up on him.
109
259480
1416
(Gelach)
04:32
(LaughterGelach)
110
260920
1015
Dan hadden we een meeting na die meeting
04:33
Then we mightmacht have a meetingvergadering
after that meetingvergadering
111
261959
2217
en namen we de beslissingen pas achteraf
wanneer hij er niet meer was.
04:36
and actuallywerkelijk make the decisionsbeslissingen
in the hallwaygang afterwardsdaarna
112
264200
2696
04:38
when he wasn'twas niet there anymoremeer.
113
266920
1416
Dat was niet zo goed voor hem.
04:40
So that wasn'twas niet so great for him.
114
268360
1576
En als roboticabedrijf hadden we in Widow
wat extra robotlichaamsdelen liggen,
04:41
And as a roboticsRobotica companybedrijf at WillowWillow,
115
269960
1736
04:43
we had some extraextra
robotrobot bodylichaam partsonderdelen layingtot vaststelling van around,
116
271720
2336
dus maakten Dallas
en zijn vriend Curt dit ding,
04:46
so DallasDallas and his buddymakker CurtCurt
put togethersamen this thing,
117
274080
2496
dat er een beetje uitziet
als Skype op een stok op wielen.
04:48
whichwelke lookslooks kindsoort of
like SkypeSkype on a stickstok on wheelswielen,
118
276600
2936
04:51
whichwelke seemslijkt like a techytechnischer, sillydwaas toyspeelgoed-,
119
279560
1736
Het lijkt een 'techy', dom speeltje,
04:53
but really it's probablywaarschijnlijk
one of the mostmeest powerfulkrachtig toolsgereedschap
120
281320
2776
maar het is waarschijnlijk
een van de krachtigste middelen
04:56
that I've seengezien ever madegemaakt
for remoteafgelegen collaborationsamenwerking.
121
284120
2480
die ik ooit heb zien maken
voor telesamenwerking.
04:59
So now, if I didn't answerantwoord
Dallas'Dallas emaile-mail questionvraag,
122
287160
3496
Als ik nu niet antwoordde
op de e-mailvraag van Dallas,
05:02
he could literallyletterlijk rollrollen into my officekantoor,
123
290680
2216
kon hij mijn bureau
letterlijk binnenrollen,
05:04
blockblok my doorwaydeuropening
and askvragen me the questionvraag again --
124
292920
2576
de ingang blokkeren
en de vraag opnieuw stellen -
05:07
(LaughterGelach)
125
295520
1016
(Gelach)
05:08
untiltot I answeredantwoordde it.
126
296560
1216
tot ik antwoord gaf.
05:09
And I'm not going to turnbeurt him off, right?
That's kindsoort of rudeonbeleefd.
127
297800
2976
En ik ga hem niet afzetten, toch?
Dat is onbeleefd.
Niet alleen was het goed
voor één-op-ééncommunicatie,
05:12
Not only was it good
for these one-on-oneOne-on-One communicationscommunicatie,
128
300800
2696
maar ook om aanwezig te zijn
bij de voltallige vergaderingen.
05:15
but alsoook for just showingtonen up
at the companybedrijf all-handsall-handen meetingvergadering.
129
303520
2936
05:18
GettingKrijgen your buttkont in that chairstoel
130
306480
1696
Op die stoel gaan zitten

en mensen tonen dat je aanwezig bent
en toegewijd aan je project
05:20
and showingtonen people that you're presentaanwezig
and committedtoegewijd to your projectproject
131
308200
3216
is belangrijk
05:23
is a biggroot dealtransactie
132
311440
1256
en kan telesamenwerking enorm helpen.
05:24
and can help remoteafgelegen collaborationsamenwerking a tonton.
133
312720
2176
05:26
We saw this over the periodperiode
of monthsmaanden and then yearsjaar,
134
314920
2856
We zagen dit over een periode
van maanden en daarna jaren,
05:29
not only at our companybedrijf
but at othersanderen, too.
135
317800
2160
niet enkel in ons bedrijf,
maar ook in andere.
Het beste dat kan gebeuren
met deze systemen
05:32
The bestbeste thing that can happengebeuren
with these systemssystemen
136
320720
2336
is dat het begint te voelen
alsof je daar bent.
05:35
is that it startsstarts to feel
like you're just there.
137
323080
2336
Jij bent het, het is jouw lichaam,
05:37
It's just you, it's just your bodylichaam,
138
325440
1696
en mensen beginnen deze dingen
zelfs persoonlijke ruimte te geven.
05:39
and so people actuallywerkelijk startbegin
to give these things personalpersoonlijk spaceruimte.
139
327160
3096
Wanneer je een rechtstaande meeting hebt,
05:42
So when you're havingmet a stand-upsta op meetingvergadering,
140
330280
1976
zullen mensen rondom staan
05:44
people will standstand around the spaceruimte
141
332280
1656
net zoals ze zouden doen
als je echt daar was.
05:45
just as they would
if you were there in personpersoon.
142
333960
2216
Dat is goed tot er storingen zijn
en dan niet meer.
05:48
That's great untiltot
there's breakdownsstoringen and it's not.
143
336200
2576
Dus als mensen robots voor het eerst zien,
05:50
People, when they first see these robotsrobots,
144
338800
1976
zeggen ze: "Wow, waar zijn de componenten?
Er moet daar een camera zijn."
05:52
are like, "WowWow, where'swaar is the componentscomponenten?
There mustmoet be a cameracamera over there,"
145
340800
3576
En ze porren je gezicht.
05:56
and they startbegin pokingprikken your facegezicht.
146
344400
1576
"Je praat te zacht,
ik ga je volume hoger zetten."
05:58
"You're talkingpratend too softlyzacht,
I'm going to turnbeurt up your volumevolume,"
147
346000
2936
Dat is alsof een collega
naar je toe komt en zegt:
06:00
whichwelke is like havingmet a coworkercollega
walklopen up to you and say,
148
348960
2616
"Je praat te zacht,
ik ga je gezicht hoger zetten."
06:03
"You're speakingsprekend too softlyzacht,
I'm going to turnbeurt up your facegezicht."
149
351600
2896
Dat is gênant en niet oké
06:06
That's awkwardonhandig and not OK,
150
354520
1256
06:07
and so we endeinde up havingmet to buildbouwen
these newnieuwe socialsociaal normsnormen
151
355800
2616
en dus moeten we
nieuwe sociale normen creëren
06:10
around usinggebruik makend van these systemssystemen.
152
358440
2216
omtrent het gebruik van deze systemen.
06:12
SimilarlyOp dezelfde manier, as you startbegin
feelinggevoel like it's your bodylichaam,
153
360680
3416
Evenzo, naarmate het begint
aan te voelen als je lichaam,
06:16
you startbegin noticingin de gaten hebben things like,
"Oh, my robotrobot is kindsoort of shortkort."
154
364120
3696
begin je dingen op te merken
zoals "Oh, mijn robot is vrij klein."
Dallas zei dingen tegen me -
hij was één meter tachtig -
06:19
DallasDallas would say things to me --
he was six-footzes-voet talllang --
155
367840
2656
en we namen hem als robot mee
naar feestjes en dat soort dingen,
06:22
and we would take him viavia robotrobot
to cocktailcocktail partiespartijen and things like that,
156
370520
3456
zoals dat gaat.
06:26
as you do,
157
374000
1216
De robot was ongeveer één meter vijftig,
ongeveer even groot als ik.
06:27
and the robotrobot was about five-foot-tallvijf-voet-hoge,
whichwelke is closedichtbij to my heighthoogte.
158
375240
3336
Hij vertelde me:
06:30
And he would tell me,
159
378600
1216
"Weet je, mensen kijken
niet echt naar mij.
06:31
"You know, people are not
really looking at me.
160
379840
2536
06:34
I feel like I'm just looking
at this seazee of shouldersschouders,
161
382400
2696
Ik heb gevoel alsof ik kijk
naar een zee van schouders.
06:37
and it's just -- we need a tallergroter robotrobot."
162
385120
1976
We hebben een grotere robot nodig."
06:39
And I told him,
163
387120
1256
En ik vertelde hem:
06:40
"UmUm, no.
164
388400
1296
"Euh, neen.
06:41
You get to walklopen in my shoesschoenen for todayvandaag.
165
389720
1936
Jij mag vandaag in mijn schoenen staan.
06:43
You get to see what it's like
to be on the shorterkortere endeinde of the spectrumspectrum."
166
391680
3536
Je mag eens zien hoe het is
aan het kortere eind van het spectrum."
En hij begon eigenlijk heel wat empathie
te voelen voor deze ervaring,
06:47
And he actuallywerkelijk endedbeëindigde up buildinggebouw
a lot of empathyempathie for that experienceervaring,
167
395240
3376
wat best geweldig was.
06:50
whichwelke was kindsoort of great.
168
398640
1256
Wanneer hij in persoon langskwam,
06:51
So when he'dhij zou come visitbezoek in personpersoon,
169
399920
1656
stond hij niet langer
over me heen als hij praatte.
06:53
he no longerlanger stoodstond over me
as he was talkingpratend to me,
170
401600
2416
Hij zat neer en sprak
met me op ooghoogte,
06:56
he would sitzitten down
and talk to me eyeoog to eyeoog,
171
404040
2096
wat heel mooi was.
06:58
whichwelke was kindsoort of a beautifulmooi thing.
172
406160
1736
Dus besloten we om
in het laboratorium te bekijken
06:59
So we actuallywerkelijk decidedbeslist
to look at this in the laboratorylaboratorium
173
407920
2656
07:02
and see what othersanderen kindssoorten of differencesverschillen
things like robotrobot heighthoogte would make.
174
410600
3656
welke andere verschillen
zaken zoals robotgrootte uitmaken.
De helft van onze onderzoeksgroep
kreeg een kleinere robot,
07:06
And so halfvoor de helft of the people in our studystudie
used a shorterkortere robotrobot,
175
414280
2856
de andere helft kreeg een grotere robot
07:09
halfvoor de helft of the people in our studystudie
used a tallergroter robotrobot
176
417160
2416
en we vonden dat de exact zelfde persoon
07:11
and we actuallywerkelijk foundgevonden
that the exactexact samedezelfde personpersoon
177
419600
2256
met exact hetzelfde lichaam
die exact hetzelfde zegt als iemand anders
07:13
who has the exactexact samedezelfde bodylichaam
and sayszegt the exactexact samedezelfde things as someoneiemand,
178
421880
3336
overtuigender is en als
geloofwaardiger gezien wordt
07:17
is more persuasiveovertuigend
and perceivedwaargenomen as beingwezen more crediblegeloofwaardig
179
425240
2616
als hij een grotere robot heeft.
07:19
if they're in a tallergroter robotrobot formformulier.
180
427880
1656
07:21
It makesmerken no rationalrationeel sensezin,
181
429560
1816
Rationeel gezien slaat het op niets,
maar daarom studeren we psychologie.
07:23
but that's why we studystudie psychologypsychologie.
182
431400
1696
07:25
And really, you know,
the way that CliffCliff NassNass would put this
183
433120
2856
Cliff Nass zou hiervan zeggen
dat we het beste moeten maken
van deze nieuwe technologieën
07:28
is that we're havingmet to dealtransactie
with these newnieuwe technologiestechnologieën
184
436000
3016
07:31
despiteondanks the factfeit
that we have very oldoud brainshersenen.
185
439040
2736
ook al hebben we nog zulke oude breinen.
07:33
HumanMenselijke psychologypsychologie is not changingveranderen
at the samedezelfde speedsnelheid that techtech is
186
441800
2976
Menselijke psychologie verandert
niet zo snel als technologie
07:36
and so we're always playingspelen catch-upinhalen,
187
444800
1816
en dus lopen we altijd achter
en proberen we de wereld te begrijpen
waar deze autonome dingen rondlopen.
07:38
tryingproberen to make sensezin of this worldwereld-
188
446640
1656
07:40
where these autonomousautonoom things
are runninglopend around.
189
448320
2336
Normaal zijn pratende dingen mensen,
geen machines, toch?
07:42
UsuallyMeestal, things that talk are people,
not machinesmachines, right?
190
450680
2736
07:45
And so we breatheademen a lot of meaningbetekenis
into things like just heighthoogte of a machinemachine,
191
453440
4576
Dus geven we veel betekenis aan zaken
zoals de grootte van een machine,
07:50
not a personpersoon,
192
458040
1256
niet van een persoon,
07:51
and attributeattribuut that
to the personpersoon usinggebruik makend van the systemsysteem.
193
459320
2360
en schrijven dat toe aan de gebruiker.
07:55
You know, this, I think,
is really importantbelangrijk
194
463120
2216
Dit is, denk ik, heel belangrijk
wanneer je nadenkt over robotica.
07:57
when you're thinkinghet denken about roboticsRobotica.
195
465360
1736
Het is niet zozeer mensen heruitvinden,
07:59
It's not so much about reinventingopnieuw uitvinden humansmensen,
196
467120
2096
08:01
it's more about figuringuitzoeken out
how we extenduitbreiden ourselvesonszelf, right?
197
469240
3136
maar uitzoeken hoe we
onszelf verruimen, niet?
08:04
And we endeinde up usinggebruik makend van things
in waysmanieren that are sortsoort of surprisingverrassend.
198
472400
2976
En zo gebruiken we dingen
op enigszins verrassende manieren.
08:07
So these guys can't playspelen poolzwembad
because the robotsrobots don't have armsarmen,
199
475400
4256
Deze mensen kunnen geen pool spelen,
omdat de robots geen armen hebben,
08:11
but they can heckleHeckle the guys
who are playingspelen poolzwembad
200
479680
2336
maar ze kunnen de spelers wel afleiden
08:14
and that can be an importantbelangrijk thing
for teamteam bondinghechting,
201
482040
3176
en dat kan belangrijk zijn
om een band te scheppen,
08:17
whichwelke is kindsoort of neatnetjes.
202
485240
1296
wat best cool is.
08:18
People who get really good
at operatingbedrijfs- these systemssystemen
203
486560
2496
Mensen die deze systemen
heel goed kunnen besturen,
zullen zelfs nieuwe spelletjes bedenken,
08:21
will even do things
like make up newnieuwe gamesspellen,
204
489080
2056
zoals robotvoetbal
in het midden van de nacht
08:23
like robotrobot soccervoetbal
in the middlemidden- of the night,
205
491160
2136
door vuilbakken rond te duwen.
08:25
pushingduwen the trashuitschot cansblikjes around.
206
493320
1456
08:26
But not everyone'sieders good.
207
494800
1576
Maar niet iedereen is er goed in.
08:28
A lot of people have troublemoeite
operatingbedrijfs- these systemssystemen.
208
496400
2496
Heel wat mensen hebben moeite
met de besturing.
Dit is een man die in een robot inlogde
08:30
This is actuallywerkelijk a guy
who loggedaangemeld into the robotrobot
209
498920
2256
waarvan de oogbal
90° naar links gedraaid was.
08:33
and his eyeballoogbol was turnedgedraaid
90 degreesgraden to the left.
210
501200
2376
Hij wist dat niet en botste dus
tegen alles in het kantoor aan,
08:35
He didn't know that,
211
503600
1256
08:36
so he endedbeëindigde up just bashingbashing
around the officekantoor,
212
504880
2176
liep tegen bureaus aan,
voelde zich belachelijk
08:39
runninglopend into people'sPeople's desksbureaus,
gettingkrijgen supersuper embarrassedin verlegenheid gebracht,
213
507080
2616
en lachte ermee -
zijn volume stond veel te hoog.
08:41
laughinglachend about it --
his volumevolume was way too highhoog.
214
509720
2336
En deze man op de foto vertelt me:
08:44
And this guy here
in the imagebeeld is tellingvertellen me,
215
512080
2136
"We hebben een robotdempknop nodig."
08:46
"We need a robotrobot mutedempen buttonknop."
216
514240
2096
08:48
And by that what he really meantbedoelde
was we don't want it to be so disruptiveverstorend.
217
516360
3496
Daarmee bedoelde hij
dat het niet zo storend mag zijn.
08:51
So as a roboticsRobotica companybedrijf,
218
519880
1616
Dus als roboticabedrijf
08:53
we addedtoegevoegd some obstacleobstakel
avoidancevermijden to the systemsysteem.
219
521520
2456
voegden we obstakelvermijding
aan het systeem toe.
08:56
It got a little laserlaser rangereeks finderFinder
that could see the obstaclesobstakels,
220
524000
3056
Het had een laser met een radius
die de obstakels kon zien
08:59
and if I as a robotrobot operatoroperator
try to say, runrennen into a chairstoel,
221
527080
3136
en als ik als robotbestuurder
wil zeggen: "Bots tegen een stoel",
09:02
it wouldn'tzou het niet let me,
it would just planplan a pathpad around,
222
530240
2496
dan zou hij dit niet doen,
maar eromheen gaan,
09:04
whichwelke seemslijkt like a good ideaidee.
223
532760
1856
wat een goed idee lijkt.
09:06
People did hitraken fewerminder obstaclesobstakels
usinggebruik makend van that systemsysteem, obviouslyduidelijk,
224
534640
3176
Mensen raakten minder obstakels
met dat systeem, natuurlijk,
09:09
but actuallywerkelijk, for some of the people,
225
537840
2096
maar voor sommige mensen
09:11
it tooknam them a lot longerlanger
to get throughdoor our obstacleobstakel courseCursus,
226
539960
2856
duurde het veel langer
om door ons parcours te raken
09:14
and we wanted to know why.
227
542840
1560
en we wilden weten waarom.
09:17
It turnsbochten out that there's
this importantbelangrijk humanmenselijk dimensiondimensie --
228
545080
3056
Het blijkt dat er een belangrijke
menselijke dimensie is,
09:20
a personalitypersoonlijkheid dimensiondimensie
calledriep locusLocus of controlcontrole,
229
548160
2296
een karakterdimensie:
beheersingsoriëntatie,
09:22
and people who have
a strongsterk internalintern locusLocus of controlcontrole,
230
550480
3136
en mensen die een sterke innerlijke
beheersingsoriëntatie hebben,
09:25
they need to be the mastersMasters
of theirhun owneigen destinylotsbestemming --
231
553640
3056
moeten meester zijn van hun eigen lot.
09:28
really don't like givinggeven up controlcontrole
to an autonomousautonoom systemsysteem --
232
556720
3096
Ze vinden het niets om controle
te geven aan een autonoom systeem,
09:31
so much so that they will
fightstrijd the autonomyautonomie;
233
559840
2136
in die mate dat ze tegen
de autonomie ingaan.
09:34
"If I want to hitraken that chairstoel,
I'm going to hitraken that chairstoel."
234
562000
3096
"Als ik die stoel wil raken,
dan zal ik die stoel raken."
09:37
And so they would actuallywerkelijk sufferlijden
from havingmet that autonomousautonoom assistancebijstand,
235
565120
3616
En zij leden dus onder
deze autonome assistentie,
09:40
whichwelke is an importantbelangrijk thing for us to know
236
568760
2576
wat belangrijk is voor ons om te weten
09:43
as we're buildinggebouw increasinglyin toenemende mate
autonomousautonoom, say, carsauto's, right?
237
571360
3296
als we bijvoorbeeld auto's maken
die steeds zelfstandiger zijn, toch?
09:46
How are differentverschillend people going
to grappleGrApple with that lossverlies of controlcontrole?
238
574680
3360
Hoe zullen verschillende mensen
omgaan met dat controleverlies?
09:50
It's going to be differentverschillend
dependingafhankelijk on humanmenselijk dimensionsdimensies.
239
578880
2696
Het zal afhangen van menselijke dimensies.
09:53
We can't treattraktatie humansmensen
as if we're just one monolithicmonolitisch thing.
240
581600
3496
We kunnen mensen niet behandelen
alsof we één homogeen geheel zijn.
09:57
We varyvariëren by personalitypersoonlijkheid, by culturecultuur,
241
585120
2416
We verschillen van karakter, van cultuur,
09:59
we even varyvariëren by emotionalemotioneel statestaat
momentmoment to momentmoment,
242
587560
2456
zelfs van emotionele toestand,
van moment op moment.
10:02
and beingwezen ablein staat to designontwerp these systemssystemen,
243
590040
1976
Om deze systemen te kunnen ontwerpen,
10:04
these human-robotmens-robot interactionwisselwerking systemssystemen,
244
592040
2296
deze systemen van mens-robotinteractie,
10:06
we need to take into accountaccount
the humanmenselijk dimensionsdimensies,
245
594360
2736
moeten we rekening houden
met de menselijke dimensies,
10:09
not just the technologicaltechnologisch onesdegenen.
246
597120
1720
niet alleen met de technologische.
10:11
AlongLangs with a sensezin of controlcontrole
alsoook comeskomt a sensezin of responsibilityverantwoordelijkheid.
247
599640
4296
Samen met een gevoel van controle
komt een verantwoordelijkheidsgevoel.
10:15
And if you were a robotrobot operatoroperator
usinggebruik makend van one of these systemssystemen,
248
603960
2856
Als jij een robot bestuurde
met een van deze systemen,
10:18
this is what the interfaceinterface
would look like.
249
606840
2056
dan zou de interface er als volgt uitzien.
10:20
It lookslooks a little bitbeetje like a videovideo- gamespel,
250
608920
1936
Het ziet er wat uit als een videospel,
10:22
whichwelke can be good because
that's very familiarvertrouwd to people,
251
610880
2976
wat goed kan zijn, omdat dat
zeer bekend is voor mensen,
maar ook slecht,
10:25
but it can alsoook be badslecht
252
613880
1216
omdat het het gevoel geeft
dat het een videospel is.
10:27
because it makesmerken people feel
like it's a videovideo- gamespel.
253
615120
2456
We lieten enkele kinderen
in Stanford spelen met het systeem
10:29
We had a bunchbos of kidskinderen
over at StanfordStanford playspelen with the systemsysteem
254
617600
2856
en de robot besturen
in ons bureau in Menlo Park,
10:32
and driverijden the robotrobot
around our officekantoor in MenloMenlo ParkPark,
255
620480
2456
en ze zeiden dingen zoals:
10:34
and the kidskinderen startedbegonnen sayinggezegde things like,
256
622960
1936
"10 punten als je die man raakt.
20 punten voor die man."
10:36
"10 pointspoints if you hitraken that guy over there.
20 pointspoints for that one."
257
624920
3176
Ze joegen hen na in de gang.
10:40
And they would
chaseChase them down the hallwaygang.
258
628120
2016
(Gelach)
10:42
(LaughterGelach)
259
630160
1016
Ik zei: "Dat zijn echte mensen.
10:43
I told them, "UmUm, those are realecht people.
260
631200
1936
Ze gaan echt bloeden
en pijn voelen als je hen raakt."
10:45
They're actuallywerkelijk going to bleedafloop
and feel painpijn if you hitraken them."
261
633160
3296
En zij reageerden met: "OK."
10:48
And they'dze zouden be like, "OK, got it."
262
636480
1616
Maar vijf minuten later zeiden ze:
10:50
But fivevijf minutesnotulen laterlater,
they would be like,
263
638120
2056
"20 punten voor die man daar;
het lijkt alsof hij slaag nodig heeft."
10:52
"20 pointspoints for that guy over there,
he just lookslooks like he needsbehoefte aan to get hitraken."
264
640200
3616
Het is een beetje
zoals "Ender's Game", niet?
10:55
It's a little bitbeetje
like "Ender'sEnder's GameSpel," right?
265
643840
2136
De wereld aan de andere kant is echt
10:58
There is a realecht worldwereld- on that other sidekant
266
646000
1936
en het is onze verantwoordelijkheid
als ontwerpers van deze interfaces
10:59
and I think it's our responsibilityverantwoordelijkheid
as people designingontwerpen these interfacesinterfaces
267
647960
3416
dat mensen onthouden
dat hun daden echte gevolgen hebben
11:03
to help people rememberonthouden
268
651400
1256
11:04
that there's realecht consequencesgevolgen
to theirhun actionsacties
269
652680
2256
11:06
and to feel a sensezin of responsibilityverantwoordelijkheid
270
654960
2296
en dat ze verantwoordelijk moeten zijn
11:09
when they're operatingbedrijfs-
these increasinglyin toenemende mate autonomousautonoom things.
271
657280
3280
wanneer ze deze steeds
autonomere objecten besturen.
11:13
These are kindsoort of a great examplevoorbeeld
272
661840
2296
Dit zijn heel goede voorbeelden
11:16
of experimentingexperimenteren with one
possiblemogelijk roboticrobot futuretoekomst,
273
664160
3256
van het experimenteren
met één mogelijke robottoekomst
11:19
and I think it's prettymooi coolkoel
that we can extenduitbreiden ourselvesonszelf
274
667440
3856
en ik denk dat het best cool is
dat we onszelf kunnen verruimen
11:23
and learnleren about the waysmanieren
that we extenduitbreiden ourselvesonszelf
275
671320
2336
en leren over de manieren
waarop we dat doen in deze machines
11:25
into these machinesmachines
276
673680
1216
en tegelijk onze menselijkheid
kunnen uitdrukken
11:26
while at the samedezelfde time
beingwezen ablein staat to expressuitdrukken our humanityde mensheid
277
674920
2696
en onze persoonlijkheid.
11:29
and our personalitypersoonlijkheid.
278
677640
1216
Het wekt empathie op voor anderen
11:30
We alsoook buildbouwen empathyempathie for othersanderen
279
678880
1576
die kleiner, groter, sneller, trager zijn
11:32
in termstermen of beingwezen
shorterkortere, tallergroter, fastersneller, slowertragere,
280
680480
3216
11:35
and maybe even armlessArmless,
281
683720
1416
en misschien zelfs armloos,
11:37
whichwelke is kindsoort of neatnetjes.
282
685160
1336
wat best cool is.
11:38
We alsoook buildbouwen empathyempathie
for the robotsrobots themselveszich.
283
686520
2536
Het wekt ook empathie op
voor de robots zelf.
11:41
This is one of my favoritefavoriete robotsrobots.
284
689080
1656
Deze robot is een favoriet van me.
11:42
It's calledriep the TweenbotTweenbot.
285
690760
1456
Hij wordt de Tweenbot genoemd.
11:44
And this guy has a little flagvlag that sayszegt,
286
692240
1976
Hij heeft een kleine vlag waarop staat:
11:46
"I'm tryingproberen to get
to this intersectionkruispunt in ManhattanManhattan,"
287
694240
2576
"Ik probeer naar dit kruispunt
in Manhattan te raken."
11:48
and it's cuteschattig and rollsbroodjes
forwardvooruit, that's it.
288
696840
2776
Hij is schattig
en rolt vooruit, dat is het.
11:51
It doesn't know how to buildbouwen a mapkaart,
it doesn't know how to see the worldwereld-,
289
699640
3456
Hij kan geen kaart maken.
Hij kan de wereld niet zien.
Hij vraagt gewoon om hulp.
11:55
it just asksvraagt for help.
290
703120
1256
11:56
The niceleuk thing about people
291
704400
1336
Het leuke aan mensen
11:57
is that it can actuallywerkelijk dependafhangen
uponop the kindnessvriendelijkheid of strangersonbekenden.
292
705760
3096
is dat hij kan vertrouwen
op de vriendelijkheid van vreemden.
12:00
It did make it acrossaan de overkant the parkpark
to the other sidekant of ManhattanManhattan --
293
708880
3896
Hij heeft het park kunnen oversteken
naar de andere kant van Manhattan -
12:04
whichwelke is prettymooi great --
294
712800
1256
wat best fantastisch is -
12:06
just because people would pickplukken it up
and pointpunt it in the right directionrichting.
295
714080
3456
omdat mensen hem oppakten
en de juiste richting wezen.
(Gelach)
12:09
(LaughterGelach)
296
717560
936
Dat is geweldig, toch?
12:10
And that's great, right?
297
718520
1256
12:11
We're tryingproberen to buildbouwen
this human-robotmens-robot worldwereld-
298
719800
2696
We proberen een mens-robotwereld te bouwen
12:14
in whichwelke we can coexistnaast elkaar
and collaboratesamenwerken with one anothereen ander,
299
722520
3416
waarin we kunnen samenleven en samenwerken
en we niet geheel zelfstandig moeten zijn
en dingen alleen moeten doen.
12:17
and we don't need to be fullygeheel autonomousautonoom
and just do things on our owneigen.
300
725960
3376
We doen echt dingen samen.
12:21
We actuallywerkelijk do things togethersamen.
301
729360
1496
En om daarvoor te zorgen,
12:22
And to make that happengebeuren,
302
730880
1256
hebben we hulp nodig van mensen
zoals artiesten en ontwerpers,
12:24
we actuallywerkelijk need help from people
like the artistskunstenaars and the designersontwerpers,
303
732160
3256
beleidsmakers, juristen,
12:27
the policyhet beleid makersmakers, the legalwettelijk scholarsgeleerden,
304
735440
1856
psychologen, sociologen, antropologen.
12:29
psychologistspsychologen, sociologistssociologen,
anthropologistsantropologen --
305
737320
2216
We hebben meer gezichtspunten nodig
12:31
we need more perspectivesvooruitzichten in the roomkamer
306
739560
1816
12:33
if we're going to do the thing
that StuStu CardKaart sayszegt we should do,
307
741400
2976
als we datgene gaan doen
dat Stu Card zegt dat we moeten doen,
12:36
whichwelke is inventuitvinden the futuretoekomst
that we actuallywerkelijk want to liveleven in.
308
744400
3936
namelijk het uitvinden van de toekomst
waarin we effectief willen leven.
12:40
And I think we can continuevoortzetten to experimentexperiment
309
748360
2656
Ik denk dat we samen
verder kunnen experimenteren
12:43
with these differentverschillend
roboticrobot futuresFutures togethersamen,
310
751040
2176
met deze verschillende robottoekomsten
12:45
and in doing so, we will endeinde up
learningaan het leren a lot more about ourselvesonszelf.
311
753240
4680
en dat we al doende
veel meer over onszelf zullen leren.
12:50
Thank you.
312
758720
1216
Bedankt.
12:51
(ApplauseApplaus)
313
759960
2440
(Applaus)
Translated by Kim De Groot
Reviewed by Peter Van de Ven

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com