ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Waarom we een emotionele band met robots hebben

Filmed:
2,403,010 views

We zijn nog lang niet zover dat we robots kunnen maken die emoties hebben, maar we hebben al wel emoties naar hen toe, zegt robot-ethicus Kate Darling, en dat kan consequenties hebben. Kom meer te weten over de manier waarop we biologisch geprogrammeerd zijn om intenties en gevoelens aan machines toe te schrijven -- en hoe ons dat kan helpen onszelf beter te begrijpen.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsjaar agogeleden,
0
1047
2508
Op een dag, zo'n tien jaar geleden,
vroeg ik aan een vriend
00:15
when I askedgevraagd a friendvriend to holdhouden
a babybaby dinosaurDinosaur robotrobot upsidebovenkant down.
1
3579
3944
of hij een babydinosaurusrobot
ondersteboven wilde houden.
00:21
It was this toyspeelgoed- calledriep a PleoPleo
that I had orderedbestelde,
2
9889
3446
Het was een speelgoedbeest,
een Pleo, dat ik besteld had,
00:25
and I was really excitedopgewonden about it
because I've always lovedgeliefde robotsrobots.
3
13359
4401
en ik was er erg enthousiast over
omdat ik altijd van robots gehouden heb.
En deze had hele gave
technologische functies.
00:29
And this one has really coolkoel
technicaltechnisch featuresKenmerken.
4
17784
2279
Hij had motortjes, aanraaksensoren
en een infraroodcamera.
00:32
It had motorsmotoren and touchaanraken sensorssensors
5
20087
2119
00:34
and it had an infraredinfrarood cameracamera.
6
22230
2244
00:36
And one of the things it had
was a tiltkantelen sensorsensor,
7
24498
2763
Hij had ook een kantelsensor,
zodat hij wist welke kant boven was.
00:39
so it knewwist what directionrichting it was facinggeconfronteerd.
8
27285
2318
00:42
And when you heldheld it upsidebovenkant down,
9
30095
2134
En als je hem ondersteboven hield,
begon hij te huilen.
00:44
it would startbegin to cryhuilen.
10
32253
1572
00:46
And I thought this was supersuper coolkoel,
so I was showingtonen it off to my friendvriend,
11
34527
3496
Ik vond dit erg gaaf
en liet hem trots aan mijn vriend zien.
00:50
and I said, "Oh, holdhouden it up by the tailstaart.
See what it does."
12
38047
2805
"Hou hem eens bij zijn staart vast",
zei ik, "en kijk wat er gebeurt."
00:55
So we're watchingkijken
the theatricstheatrale of this robotrobot
13
43268
3625
Dus we staan te kijken
naar de verrichtingen van deze robot,
00:58
struggleworstelen and cryhuilen out.
14
46917
2199
die spartelt en huilt.
01:02
And after a fewweinig secondsseconden,
15
50767
2047
Na een paar seconden
ga ik me een beetje ongemakkelijk voelen
01:04
it startsstarts to botherde moeite me a little,
16
52838
1972
01:07
and I said, "OK, that's enoughgenoeg now.
17
55744
3424
en zeg ik: "Oké, nu is het wel genoeg.
Zet hem maar weer neer."
01:11
Let's put him back down."
18
59930
2305
01:14
And then I pethuisdier the robotrobot
to make it stop cryinghuilen.
19
62259
2555
Daarna aaide ik de robot
om hem te laten ophouden met huilen.
01:18
And that was kindsoort of
a weirdvreemd experienceervaring for me.
20
66973
2452
Dat was best een vreemde ervaring voor me.
01:22
For one thing, I wasn'twas niet the mostmeest
maternalmoeders personpersoon at the time.
21
70084
4569
Ten eerste was ik destijds
niet zo'n moederlijk type.
01:26
AlthoughHoewel sincesinds then I've becomeworden
a mothermoeder, ninenegen monthsmaanden agogeleden,
22
74677
2731
Al ben ik negen maanden geleden
zelf moeder geworden
01:29
and I've learnedgeleerd that babiesbabies alsoook squirmSquirm
when you holdhouden them upsidebovenkant down.
23
77432
3433
en heb ik geleerd dat baby's ook spartelen
als je ze ondersteboven houdt.
01:32
(LaughterGelach)
24
80889
1563
(Gelach)
Maar mijn reactie op deze robot
was ook interessant,
01:35
But my responseantwoord to this robotrobot
was alsoook interestinginteressant
25
83023
2358
01:37
because I knewwist exactlyprecies
how this machinemachine workedwerkte,
26
85405
4101
omdat ik precies wist
hoe dit apparaat werkte
01:41
and yetnog I still feltvoelde
compelledgedwongen to be kindsoort to it.
27
89530
3262
en er toch aardig tegen wilde zijn.
01:46
And that observationobservatie sparkedaangewakkerd a curiositynieuwsgierigheid
28
94450
2707
Dat intrigeerde mij en daar ben ik
de laatste tien jaar mee bezig geweest.
01:49
that I've spentdoorgebracht the pastverleden decadedecennium pursuingnastreven.
29
97181
2832
01:52
Why did I comfortcomfort this robotrobot?
30
100911
1793
Waarom troostte ik die robot?
01:56
And one of the things I discoveredontdekt
was that my treatmentbehandeling of this machinemachine
31
104228
3579
Ik ontdekte dat de manier
waarop ik dit apparaat behandelde
01:59
was more than just an awkwardonhandig momentmoment
in my livingleven roomkamer,
32
107831
3701
meer om het lijf had dan een enkel
ongemakkelijk moment in mijn woonkamer,
02:03
that in a worldwereld- where we're increasinglyin toenemende mate
integratingintegreren robotsrobots into our liveslevens,
33
111556
5420
en dat in een wereld waar robots
steeds meer een deel van ons leven worden,
02:09
an instinctinstinct like that
mightmacht actuallywerkelijk have consequencesgevolgen,
34
117000
3126
zo'n instinct daadwerkelijk
consequenties zou kunnen hebben,
02:13
because the first thing that I discoveredontdekt
is that it's not just me.
35
121452
3749
want het eerste waar ik achter kwam,
was dat ik niet de enige ben.
02:19
In 2007, the WashingtonWashington PostVerzenden
reportedgerapporteerd that the UnitedVerenigd StatesStaten militaryleger
36
127249
4802
In 2007 schreef de Washington Post
dat het Amerikaanse leger
02:24
was testingtesting this robotrobot
that defusedonschadelijk gemaakt landland- minesmijnen.
37
132075
3230
een robot aan het testen was
die landmijnen onschadelijk maakte.
02:27
And the way it workedwerkte
was it was shapedgevormd like a stickstok insectinsect
38
135329
2912
Het was een soort wandelende tak
die over een mijnenveld liep
02:30
and it would walklopen
around a minefieldmijnenveld on its legsbenen,
39
138265
2651
en als hij op een mijn trapte,
werd een van zijn poten opgeblazen
02:32
and everyelk time it steppedgetrapte on a minede mijne,
one of the legsbenen would blowblazen up,
40
140940
3206
en liep hij verder op één poot minder
om nog meer mijnen op te blazen.
02:36
and it would continuevoortzetten on the other legsbenen
to blowblazen up more minesmijnen.
41
144170
3057
02:39
And the colonelkolonel who was in chargein rekening brengen
of this testingtesting exerciseoefening
42
147251
3786
De kolonel die deze testoefening leidde,
blies haar uiteindelijk helemaal af,
02:43
endsloopt af up callingroeping it off,
43
151061
2118
02:45
because, he sayszegt, it's too inhumaneonmenselijke
44
153203
2435
omdat hij het onmenselijk vond
02:47
to watch this damagedbeschadigde robotrobot
dragslepen itselfzelf alonglangs the minefieldmijnenveld.
45
155662
4516
om toe te kijken hoe deze robot
zich over het mijnenveld sleepte.
02:54
Now, what would causeoorzaak
a hardenedgehard militaryleger officerofficier
46
162978
3897
Hoe zou het kunnen dat een
door de wol geverfde legerofficier
02:58
and someoneiemand like myselfmezelf
47
166899
2043
en iemand zoals ik
op deze manier op robots reageren?
03:00
to have this responseantwoord to robotsrobots?
48
168966
1857
03:03
Well, of courseCursus, we're primedprimer
by sciencewetenschap fictionfictie and popknal culturecultuur
49
171537
3310
Natuurlijk hebben science fiction
en popcultuur ons ertoe aangezet
03:06
to really want to personifyverpersoonlijken these things,
50
174871
2579
deze dingen te verpersoonlijken,
03:09
but it goesgaat a little bitbeetje deeperdiepere than that.
51
177474
2789
maar het gaat dieper.
03:12
It turnsbochten out that we're biologicallybiologisch
hardwiredHardwired to projectproject intentvoornemen and life
52
180287
5309
Het blijkt dat het in onze natuur zit
om intenties en leven toe te schrijven
03:17
ontonaar any movementbeweging in our physicalfysiek spaceruimte
that seemslijkt autonomousautonoom to us.
53
185620
4766
aan alles wat in onze omgeving
uit zichzelf lijkt te bewegen.
03:23
So people will treattraktatie all sortssoorten
of robotsrobots like they're alivelevend.
54
191214
3465
Dus we zullen allerlei soorten robots
behandelen alsof het levende wezens zijn.
03:26
These bomb-disposalbom-verwijdering unitsunits get namesnamen.
55
194703
2683
Robots die mijnen ontmantelen,
krijgen een naam.
03:29
They get medalsmedailles of honoreer.
56
197410
1682
Ze krijgen eremedailles.
03:31
They'veZe hebben had funeralsbegrafenissen for them
with gungeweer salutessalutes.
57
199116
2325
Er zijn begrafenissen met saluutschoten
voor hen georganiseerd.
03:34
And researchOnderzoek showsshows that we do this
even with very simpleeenvoudig householdhuishouden robotsrobots,
58
202380
3833
Onderzoek wijst uit dat we dit zelfs
met simpele huishoudrobots doen,
03:38
like the RoombaRoomba vacuumvacuüm cleanerschoonmaakster.
59
206237
2135
zoals de Roomba-stofzuiger.
03:40
(LaughterGelach)
60
208396
1291
(Gelach)
Dat is niet meer dan een schijf
die rondrijdt en je vloer schoonmaakt,
03:41
It's just a discschijf that roamszwerft
around your floorverdieping to cleanschoon it,
61
209711
3089
03:44
but just the factfeit it's movingin beweging
around on its owneigen
62
212824
2306
maar het feit dat hij zelfstandig beweegt
zorgt ervoor dat mensen hem een naam geven
03:47
will causeoorzaak people to namenaam the RoombaRoomba
63
215154
2167
03:49
and feel badslecht for the RoombaRoomba
when it getskrijgt stuckgeplakt underonder the couchdivan.
64
217345
3182
en het rot voor hem vinden
als hij onder de bank vast komt te zitten.
03:52
(LaughterGelach)
65
220551
1865
(Gelach)
03:54
And we can designontwerp robotsrobots
specificallyspecifiek to evokeoproepen this responseantwoord,
66
222440
3340
We kunnen robots zo ontwerpen
dat ze juist deze reactie uitlokken,
03:57
usinggebruik makend van eyesogen and facesgezichten or movementsbewegingen
67
225804
3461
door ze uit te rusten
met ogen en gezichten of bewegingen
04:01
that people automaticallyautomatisch,
subconsciouslyonbewust associatekoppelen
68
229289
3259
die mensen automatisch en onbewust
associëren met gemoedstoestanden.
04:04
with statesstaten of mindgeest.
69
232572
2020
04:06
And there's an entiregeheel bodylichaam of researchOnderzoek
calledriep human-robotmens-robot interactionwisselwerking
70
234616
3293
Er is een hele onderzoekstak,
mens-robotinteractie genaamd,
die laat zien hoe goed dit werkt.
04:09
that really showsshows how well this workswerken.
71
237933
1826
04:11
So for examplevoorbeeld, researchersonderzoekers
at StanfordStanford UniversityUniversiteit foundgevonden out
72
239783
3126
Onderzoekers van de Stanford University
ontdekten bijvoorbeeld
dat mensen zich ongemakkelijk voelen
04:14
that it makesmerken people really uncomfortableongemakkelijk
73
242933
2001
als je hen vraagt de edele delen
van een robot aan te raken.
04:16
when you askvragen them to touchaanraken
a robot'sde robot privateprivaat partsonderdelen.
74
244958
2472
04:19
(LaughterGelach)
75
247454
2120
(Gelach)
04:21
So from this, but from manyveel other studiesstudies,
76
249598
2023
Door deze en veel andere onderzoeken
weten we dat mensen reageren
04:23
we know, we know that people
respondreageren to the cuessignalen givengegeven to them
77
251645
4223
op signalen die ze krijgen
van deze levensechte apparaten,
04:27
by these lifelikelevensechte machinesmachines,
78
255892
2022
04:29
even if they know that they're not realecht.
79
257938
2017
zelfs als ze weten dat ze niet echt zijn.
04:33
Now, we're headedopschrift towardsnaar a worldwereld-
where robotsrobots are everywhereoveral.
80
261654
4056
We gaan naar een wereld toe
waarin overal robots zijn.
04:37
RoboticRobotic technologytechnologie is movingin beweging out
from behindachter factoryfabriek wallswanden.
81
265734
3065
Robottechnologie begeeft zich
buiten de fabrieksmuren.
04:40
It's enteringinvoeren workplaceswerkplekken, householdshuishoudens.
82
268823
3013
Het komt naar de werkvloer en huishoudens.
04:43
And as these machinesmachines that can sensezin
and make autonomousautonoom decisionsbeslissingen and learnleren
83
271860
6209
Als deze apparaten, die kunnen voelen,
zelfstandig beslissingen nemen en leren,
04:50
enterinvoeren into these sharedgedeelde spacesruimten,
84
278093
2552
tot deze gedeelde ruimtes doordringen,
04:52
I think that maybe the bestbeste
analogyanalogie we have for this
85
280669
2496
denk ik dat we dat het beste
kunnen vergelijken
04:55
is our relationshipverhouding with animalsdieren.
86
283189
1935
met de relatie die we met dieren hebben.
04:57
ThousandsDuizenden of yearsjaar agogeleden,
we startedbegonnen to domesticatedomesticate animalsdieren,
87
285523
3888
Duizenden jaren geleden
begonnen we dieren te temmen
05:01
and we trainedgetraind them for work
and weaponrywapens and companionshipgezelschap.
88
289435
4045
en hen te leren voor ons te werken,
te vechten en ons gezelschap te houden.
05:05
And throughoutoveral historygeschiedenis, we'vewij hebben treatedbehandelde
some animalsdieren like toolsgereedschap or like productsproducten,
89
293504
4985
Sommige dieren hebben we behandeld
als gereedschap of als product;
andere hebben we vriendelijk behandeld
05:10
and other animalsdieren,
we'vewij hebben treatedbehandelde with kindnessvriendelijkheid
90
298513
2174
05:12
and we'vewij hebben givengegeven a placeplaats in societymaatschappij
as our companionsmetgezellen.
91
300711
3078
en als huisdier een plaats gegeven
in onze gemeenschap.
05:15
I think it's plausibleplausibel we mightmacht startbegin
to integrateintegreren robotsrobots in similarsoortgelijk waysmanieren.
92
303813
3849
Het is denkbaar dat we robots
op dezelfde manier zullen integreren.
05:21
And sure, animalsdieren are alivelevend.
93
309484
3096
Natuurlijk, dieren zijn levende wezens.
05:24
RobotsRobots are not.
94
312604
1150
Robots zijn dat niet.
Ik kan jullie vertellen,
door mijn werk met robotici,
05:27
And I can tell you,
from workingwerkend with roboticistsroboticists,
95
315626
2580
dat we nog lang geen robots
kunnen ontwikkelen die iets kunnen voelen.
05:30
that we're prettymooi farver away from developingontwikkelen
robotsrobots that can feel anything.
96
318230
3522
05:35
But we feel for them,
97
323072
1460
Maar wij hebben wel gevoelens
ten aanzien van hén
05:37
and that mattersaangelegenheden,
98
325835
1207
en dat is belangrijk,
05:39
because if we're tryingproberen to integrateintegreren
robotsrobots into these sharedgedeelde spacesruimten,
99
327066
3627
want als we robots willen toelaten
in deze gezamenlijke ruimtes,
05:42
we need to understandbegrijpen that people will
treattraktatie them differentlyanders than other devicesapparaten,
100
330717
4628
dan moeten we begrijpen dat we er anders
mee omgaan dan met andere apparaten
05:47
and that in some casesgevallen,
101
335369
1844
en dat dit soms,
05:49
for examplevoorbeeld, the casegeval of a soldiersoldaat
who becomeswordt emotionallyemotioneel attachedgehecht
102
337237
3172
zoals bij de soldaat die zich emotioneel
hecht aan de robot waarmee hij werkt,
05:52
to the robotrobot that they work with,
103
340433
2047
05:54
that can be anything
from inefficientinefficiënt to dangerousgevaarlijk.
104
342504
2504
inefficiënt kan zijn
of zelfs ronduit gevaarlijk.
05:58
But in other casesgevallen,
it can actuallywerkelijk be usefulnuttig
105
346551
2138
In andere gevallen
kan het juist handig zijn
06:00
to fosterbevorderen this emotionalemotioneel
connectionverbinding to robotsrobots.
106
348713
2623
om deze emotionele band
met robots te versterken.
We kennen al verschillende
praktische toepassingen,
06:04
We're alreadynu al seeingziend some great use casesgevallen,
107
352184
2134
06:06
for examplevoorbeeld, robotsrobots workingwerkend
with autisticautistisch childrenkinderen
108
354342
2604
zoals robots die werken
met autistische kinderen
06:08
to engagebezighouden them in waysmanieren
that we haven'thebben niet seengezien previouslyeerder,
109
356970
3634
en hun aandacht vasthouden op manieren
die we nog niet eerder gezien hebben,
06:12
or robotsrobots workingwerkend with teachersleraren to engagebezighouden
kidskinderen in learningaan het leren with newnieuwe resultsuitslagen.
110
360628
4000
of robots die samen met leraren
kinderen helpen te leren, met resultaat.
06:17
And it's not just for kidskinderen.
111
365433
1381
En het werkt niet alleen bij kinderen.
Vroege studies laten zien dat robots
artsen en patiënten kunnen helpen
06:19
EarlyVroeg studiesstudies showtonen that robotsrobots
can help doctorsartsen and patientspatiënten
112
367750
3223
06:22
in healthGezondheid carezorg settingsInstellingen.
113
370997
1427
op het gebied van zorg.
06:25
This is the PAROParo babybaby sealzegel robotrobot.
114
373535
1810
Dit is de PARO-babyzeehondrobot.
06:27
It's used in nursingverpleegkunde homeshuizen
and with dementiadementie patientspatiënten.
115
375369
3285
Hij wordt gebruikt in verzorgingshuizen
en bij dementiepatiënten.
06:30
It's been around for a while.
116
378678
1570
Hij is er al een tijdje.
06:32
And I rememberonthouden, yearsjaar agogeleden,
beingwezen at a partyfeest
117
380272
3325
En ik herinner me, jaren geleden,
toen ik op een feestje was
06:35
and tellingvertellen someoneiemand about this robotrobot,
118
383621
2571
en ik iemand vertelde over deze robot,
06:38
and her responseantwoord was,
119
386216
2126
haar reactie was:
06:40
"Oh my goshJeetje.
120
388366
1262
"Oh, mijn god. Dat is verschrikkelijk.
06:42
That's horribleverschrikkelijk.
121
390508
1188
06:45
I can't believe we're givinggeven people
robotsrobots insteadin plaats daarvan of humanmenselijk carezorg."
122
393056
3397
Niet te geloven dat we mensen robots geven
in plaats van menselijke zorg."
06:50
And this is a really commongemeenschappelijk responseantwoord,
123
398540
1875
Deze reactie komt vaak voor
06:52
and I think it's absolutelyAbsoluut correctcorrect,
124
400439
2499
en ik denk inderdaad
dat hij helemaal terecht is,
06:54
because that would be terribleverschrikkelijk.
125
402962
2040
want dat zou verschrikkelijk zijn.
06:57
But in this casegeval,
it's not what this robotrobot replacesvervangt.
126
405795
2484
Maar dat is niet
wat de robot hier vervangt.
07:00
What this robotrobot replacesvervangt is animaldier therapybehandeling
127
408858
3120
Deze robot vervangt diertherapie
als we geen echte dieren
kunnen gebruiken maar robots wel,
07:04
in contextscontexten where
we can't use realecht animalsdieren
128
412002
3198
07:07
but we can use robotsrobots,
129
415224
1168
omdat we die consequent
meer als dier dan als apparaat behandelen.
07:08
because people will consistentlyconsequent treattraktatie
them more like an animaldier than a deviceapparaat.
130
416416
5230
Als we deze emotionele band
met robots erkennen,
07:15
AcknowledgingErkenning this emotionalemotioneel
connectionverbinding to robotsrobots
131
423502
2380
kan ons dat ook helpen
uitdagingen het hoofd te bieden
07:17
can alsoook help us anticipateanticiperen challengesuitdagingen
132
425906
1969
07:19
as these devicesapparaten moveverhuizing into more intimateintieme
areasgebieden of people'sPeople's liveslevens.
133
427899
3451
als deze apparaten hun intrede doen
in onze privésfeer.
07:24
For examplevoorbeeld, is it OK
if your child'skind teddyTeddy bearbeer robotrobot
134
432111
3404
Is het bijvoorbeeld acceptabel
als de teddybeerrobot van je kind
07:27
recordsarchief privateprivaat conversationsconversaties?
135
435539
2237
vertrouwelijke gesprekken opneemt?
07:29
Is it OK if your sexseks robotrobot
has compellingdwingende in-appin-app purchasesaankopen?
136
437800
4063
Is het acceptabel als je seksrobot
onweerstaanbare in-app aankopen aanbiedt?
07:33
(LaughterGelach)
137
441887
1396
(Gelach)
07:35
Because robotsrobots plusplus capitalismkapitalisme
138
443307
2501
Want de combinatie
van robots en kapitalisme
07:37
equalsis gelijk aan questionsvragen around
consumerklant protectionbescherming and privacyprivacy.
139
445832
3705
roept vragen op over
consumentenbescherming en privacy.
En dat zijn niet de enige redenen
07:42
And those aren'tzijn niet the only reasonsredenen
140
450549
1612
waarom onze opstelling tegenover
deze apparaten van belang kan zijn.
07:44
that our behaviorgedrag around
these machinesmachines could matterer toe doen.
141
452185
2570
07:48
A fewweinig yearsjaar after that first
initialeerste experienceervaring I had
142
456747
3270
Een paar jaar na mijn eerste ervaring
met die babydinosaurusrobot
07:52
with this babybaby dinosaurDinosaur robotrobot,
143
460041
2311
gaf ik een workshop
met mijn vriend Hannes Gassert.
07:54
I did a workshopwerkplaats
with my friendvriend HannesHannes GassertGassert.
144
462376
2501
07:56
And we tooknam fivevijf
of these babybaby dinosaurDinosaur robotsrobots
145
464901
2897
We gaven vijf van deze
babydinosaurusrobots
07:59
and we gavegaf them to fivevijf teamsteams of people.
146
467822
2453
aan vijf groepjes mensen.
08:02
And we had them namenaam them
147
470299
1697
Ze moesten er een naam voor verzinnen
08:04
and playspelen with them and interactop elkaar inwerken with them
for about an houruur.
148
472020
3809
en ze mochten ermee spelen
en ermee aanrommelen, zo'n uur lang.
08:08
And then we unveiledonthuld
a hammerhamer and a hatchetbijl
149
476707
2206
Toen haalden we
een hamer en bijl tevoorschijn
en vroegen hen de robots
te martelen en vermoorden.
08:10
and we told them to torturemartelen
and killdoden the robotsrobots.
150
478937
2278
08:13
(LaughterGelach)
151
481239
3007
(Gelach)
08:16
And this turnedgedraaid out to be
a little more dramaticdramatisch
152
484857
2294
Dit leek iets gevoeliger te liggen
dan we gedacht hadden,
08:19
than we expectedverwacht it to be,
153
487175
1278
want geen van de deelnemers
wilde ook maar een tik uitdelen
08:20
because nonegeen of the participantsdeelnemers
would even so much as strikestaking
154
488477
3072
aan deze babydinosaurusrobots,
08:23
these babybaby dinosaurDinosaur robotsrobots,
155
491573
1307
08:24
so we had to improviseimproviseren a little,
and at some pointpunt, we said,
156
492904
5150
dus moesten we improviseren
en op een gegeven moment zeiden we:
"Jullie kunnen je eigen robot redden
als jullie die van een ander team slopen."
08:30
"OK, you can savebesparen your team'steam robotrobot
if you destroyvernietigen anothereen ander team'steam robotrobot."
157
498078
4437
08:34
(LaughterGelach)
158
502539
1855
(Gelach)
Zelfs dat werkte niet. Ze konden het niet.
08:36
And even that didn't work.
They couldn'tkon het niet do it.
159
504839
2195
Uiteindelijk zeiden we:
08:39
So finallyTenslotte, we said,
160
507058
1151
08:40
"We're going to destroyvernietigen all of the robotsrobots
161
508233
2032
"We gaan alle robots vernietigen
tenzij iemand er één
met een bijl bewerkt."
08:42
unlesstenzij someoneiemand takes
a hatchetbijl to one of them."
162
510289
2285
08:45
And this guy stoodstond up,
and he tooknam the hatchetbijl,
163
513586
3579
Eén man stond op en pakte de bijl,
en iedereen kromp ineen
toen hij de bijl liet neerkomen
08:49
and the wholegeheel roomkamer wincedhuiverde
as he broughtbracht the hatchetbijl down
164
517189
2706
op de nek van de robot;
08:51
on the robot'sde robot necknek,
165
519919
1780
08:53
and there was this half-jokinghalf-grap,
half-serioushalf-ernstige momentmoment of silencestilte in the roomkamer
166
521723
6338
in de kamer viel een ogenblik stilte,
half geamuseerd, half ernstig,
09:00
for this fallengesneuvelde robotrobot.
167
528085
1698
vanwege deze gevallen robot.
09:01
(LaughterGelach)
168
529807
1406
(Gelach)
09:03
So that was a really
interestinginteressant experienceervaring.
169
531237
3694
Dat was een heel interessante ervaring.
Het was natuurlijk
geen gecontroleerd onderzoek,
09:06
Now, it wasn'twas niet a controlledgecontroleerde
studystudie, obviouslyduidelijk,
170
534955
2459
maar het zorgde ervoor dat ik
meer onderzoek ging doen aan het MIT
09:09
but it did leadlood to some
laterlater researchOnderzoek that I did at MITMIT
171
537438
2850
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
met Palash Nandy en Cynthia Breazeal.
09:14
where we had people come into the lablaboratorium
and smashSmash these HEXBUGsHEXBUGs
173
542564
3627
We lieten mensen naar het lab komen
en lieten hen deze HEXBUGs slopen;
09:18
that moveverhuizing around in a really
lifelikelevensechte way, like insectsinsecten.
174
546215
3087
ze bewegen zich als insecten,
op een levensechte manier.
In plaats van iets schattigs te kiezen
waar mensen zich tot aangetrokken voelen,
09:21
So insteadin plaats daarvan of choosingkiezen something cuteschattig
that people are drawngetrokken to,
175
549326
3134
09:24
we chosekoos something more basicbasis-,
176
552484
2093
kozen we iets simpelers
09:26
and what we foundgevonden
was that high-empathyHigh-empathie people
177
554601
3480
en we ontdekten dat mensen
die veel inlevingsvermogen hebben
09:30
would hesitateaarzelen more to hitraken the HEXBUGSHEXBUGS.
178
558105
2143
langer aarzelden om
op de HEXBUGs in te slaan.
Dit is maar een klein onderzoek,
09:33
Now this is just a little studystudie,
179
561575
1564
maar het maakt deel uit
van een grote groep onderzoeken
09:35
but it's partdeel of a largergrotere bodylichaam of researchOnderzoek
180
563163
2389
09:37
that is startingbeginnend to indicateaangeven
that there maymei be a connectionverbinding
181
565576
2944
die beginnen uit te wijzen
dat er een verband zou kunnen zijn
09:40
betweentussen people'sPeople's tendenciestendensen for empathyempathie
182
568544
2373
tussen iemands inlevingsvermogen
en zijn houding ten aanzien van robots.
09:42
and theirhun behaviorgedrag around robotsrobots.
183
570941
1976
09:45
But my questionvraag for the comingkomt eraan eratijdperk
of human-robotmens-robot interactionwisselwerking
184
573721
3627
Mijn vraag voor de toekomst
van mens-robotinteractie is niet:
09:49
is not: "Do we empathizeinleven with robotsrobots?"
185
577372
3055
'Kunnen we ons inleven in robots?'
09:53
It's: "Can robotsrobots changeverandering
people'sPeople's empathyempathie?"
186
581211
2920
maar: 'Hebben robots invloed
op ons inlevingsvermogen?'
09:57
Is there reasonreden to, for examplevoorbeeld,
187
585489
2287
Moet je bijvoorbeeld verhinderen
dat je kind een robothond schopt,
09:59
preventvoorkomen your childkind
from kickingschoppen a roboticrobot doghond,
188
587800
2333
10:03
not just out of respecteerbied for propertyeigendom,
189
591228
2914
niet alleen omdat je nu eenmaal
tegen spullen aan trapt,
10:06
but because the childkind mightmacht be
more likelywaarschijnlijk to kicktrap a realecht doghond?
190
594166
2953
maar omdat het kind misschien anders
ook sneller een echte hond zou schoppen?
10:10
And again, it's not just kidskinderen.
191
598507
1883
Nogmaals, het gaat hier
niet alleen over kinderen.
Hetzelfde speelt bij
gewelddadige videogames,
10:13
This is the violentgewelddadig videovideo- gamesspellen questionvraag,
but it's on a completelyhelemaal newnieuwe levelniveau
192
601564
4056
maar nu is het op totaal onbekend terrein,
10:17
because of this visceralviscerale physicalitylichamelijkheid
that we respondreageren more intenselyintens to
193
605644
4760
want op lichamelijke prikkels reageren we
veel sterker dan op schermbeelden.
10:22
than to imagesafbeeldingen on a screenscherm.
194
610428
1547
10:25
When we behavezich gedragen violentlyheftig towardsnaar robotsrobots,
195
613674
2578
Als we ons gewelddadig opstellen
naar robots toe,
vooral naar robots die ontworpen zijn
om levensecht te lijken,
10:28
specificallyspecifiek robotsrobots
that are designedontworpen to mimicnabootsen life,
196
616276
3120
10:31
is that a healthygezond outletstopcontact
for violentgewelddadig behaviorgedrag
197
619420
3892
is dat dan een gezonde uitlaatklep
voor onze gewelddadige gevoelens
10:35
or is that trainingopleiding our crueltywreedheid musclesspieren?
198
623336
2544
of trainen we dan juist ons vermogen
om ons wreed te gedragen?
10:39
We don't know ...
199
627511
1150
We weten het niet ...
10:42
But the answerantwoord to this questionvraag has
the potentialpotentieel to impactbotsing humanmenselijk behaviorgedrag,
200
630622
3945
Het antwoord op deze vraag
kan menselijk gedrag beïnvloeden,
10:46
it has the potentialpotentieel
to impactbotsing socialsociaal normsnormen,
201
634591
2768
kan sociale normen beïnvloeden,
10:49
it has the potentialpotentieel to inspireinspireren rulesreglement
around what we can and can't do
202
637383
3849
kan leiden tot regels
over wat we wel en niet kunnen doen
10:53
with certainzeker robotsrobots,
203
641256
1151
met bepaalde robots,
10:54
similarsoortgelijk to our animaldier crueltywreedheid lawswetten.
204
642431
1848
net zoals er wetten zijn
omtrent dierenmishandeling.
10:57
Because even if robotsrobots can't feel,
205
645228
2864
Want zelfs als robots geen gevoel hebben,
11:00
our behaviorgedrag towardsnaar them
mightmacht matterer toe doen for us.
206
648116
3080
dan nog kan de manier waarop we ons
tegenover hen opstellen, belangrijk zijn.
11:04
And regardlessachteloos of whetherof
we endeinde up changingveranderen our rulesreglement,
207
652889
2855
Of we nu wel of niet
de regels gaan veranderen,
11:08
robotsrobots mightmacht be ablein staat to help us
come to a newnieuwe understandingbegrip of ourselvesonszelf.
208
656926
3556
robots zouden ons kunnen helpen
onszelf beter te gaan begrijpen.
Het meeste van wat ik
de laatste tien jaar heb geleerd,
11:14
MostDe meeste of what I've learnedgeleerd
over the pastverleden 10 yearsjaar
209
662276
2316
11:16
has not been about technologytechnologie at all.
210
664616
2238
ging helemaal niet over technologie.
11:18
It's been about humanmenselijk psychologypsychologie
211
666878
2503
Het ging over psychologie en empathie
11:21
and empathyempathie and how we relatebetrekking hebben to othersanderen.
212
669405
2603
en hoe we met elkaar omgaan.
11:25
Because when a childkind is kindsoort to a RoombaRoomba,
213
673524
2365
Want als een kind lief doet
tegen een Roomba,
11:29
when a soldiersoldaat triesprobeert to savebesparen
a robotrobot on the battlefieldslagveld,
214
677262
4015
als een soldaat een robot
op het slagveld probeert te redden,
11:33
or when a groupgroep of people refusesweigert
to harmkwaad a roboticrobot babybaby dinosaurDinosaur,
215
681301
3638
of als een groep mensen weigert
om een babydinosaurusrobot kwaad te doen,
11:38
those robotsrobots aren'tzijn niet just motorsmotoren
and gearsversnellingen and algorithmsalgoritmen.
216
686248
3191
dan zijn deze robots niet alleen
motoren en tandwielen en algoritmes.
11:42
They're reflectionsreflecties of our owneigen humanityde mensheid.
217
690501
1905
Dan zijn ze reflecties
van onze eigen menselijkheid.
11:45
Thank you.
218
693523
1151
Dank jullie wel.
11:46
(ApplauseApplaus)
219
694698
3397
(Applaus)
Translated by Esther van Driel
Reviewed by Boukeline Arnold

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com