ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Warum wir eine emotionale Verbindung zu Robotern haben

Filmed:
2,403,010 views

Wir sind weit davon entfernt, empfindungsfähige Roboter zu entwickeln. Jedoch haben wir schon Gefühle für sie, sagt Roboterethikerin Kate Darling, und ein solcher Instinkt kann Konsequenzen haben. Lernen Sie mehr darüber, wie wir biologisch darauf programmiert sind, Absicht und Leben auf Maschinen zu projizieren -- und wie es uns helfen könnte uns selbst besser zu verstehen.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

An einem Tag vor etwa zehn Jahren
00:13
There was a day, about 10 yearsJahre agovor,
0
1047
2508
00:15
when I askedaufgefordert a friendFreund to holdhalt
a babyBaby dinosaurDinosaurier robotRoboter upsidenach oben down.
1
3579
3944
ließ ich einen Freund einen
Baby-Dino-Roboter kopfüber halten.
00:21
It was this toySpielzeug callednamens a PleoPleo
that I had orderedbestellt,
2
9889
3446
Es war ein Spielzeug namens Pleo,
das ich mir bestellt hatte.
00:25
and I was really excitedaufgeregt about it
because I've always lovedliebte robotsRoboter.
3
13359
4401
Ich freute mich sehr darauf,
denn ich liebe Roboter.
00:29
And this one has really coolcool
technicaltechnisch featuresEigenschaften.
4
17784
2279
Dieser hatte echt coole
technische Features.
00:32
It had motorsMotoren and touchberühren sensorsSensoren
5
20087
2119
Er hatte Motoren, Tastsensoren
und eine Infrarotkamera
00:34
and it had an infraredInfrarot cameraKamera.
6
22230
2244
00:36
And one of the things it had
was a tiltNeigung sensorSensor,
7
24498
2763
und dann besaß er einen Neigungssensor.
00:39
so it knewwusste what directionRichtung it was facinggegenüber.
8
27285
2318
Er kannte also seine Ausrichtung im Raum.
00:42
And when you heldgehalten it upsidenach oben down,
9
30095
2134
Wenn man ihn kopfüber hielt,
00:44
it would startAnfang to crySchrei.
10
32253
1572
würde er anfangen zu heulen.
00:46
And I thought this was superSuper coolcool,
so I was showingzeigt it off to my friendFreund,
11
34527
3496
Das fand ich supercool und
zeigte ich ihn daher einer Freundin,
00:50
and I said, "Oh, holdhalt it up by the tailSchwanz.
See what it does."
12
38047
2805
ich sagte: "Hey, heb ihn am Schwanz hoch.
Schau was er macht."
00:55
So we're watchingAufpassen
the theatricsTheatralik of this robotRoboter
13
43268
3625
Wir schauten uns also
das Agieren des Roboters an,
00:58
struggleKampf and crySchrei out.
14
46917
2199
wie er leidet und heult.
01:02
And after a fewwenige secondsSekunden,
15
50767
2047
Nach ein paar Sekunden
01:04
it startsbeginnt to botherdie Mühe me a little,
16
52838
1972
fing es an mich ein wenig zu stören,
01:07
and I said, "OK, that's enoughgenug now.
17
55744
3424
und ich sagte: "Okay, das reicht.
01:11
Let's put him back down."
18
59930
2305
Lassen wir ihn wieder runter."
01:14
And then I petHaustier the robotRoboter
to make it stop cryingWeinen.
19
62259
2555
Dann streichelte ich den Roboter,
damit er zu heulen aufhörte.
01:18
And that was kindArt of
a weirdseltsam experienceErfahrung for me.
20
66973
2452
Das war eine etwas
seltsame Erfahrung für mich.
01:22
For one thing, I wasn'twar nicht the mostdie meisten
maternalmütterliche personPerson at the time.
21
70084
4569
Ich war nämlich zu dieser Zeit
nicht besonders mütterlich.
01:26
AlthoughObwohl sinceschon seit then I've becomewerden
a motherMutter, nineneun monthsMonate agovor,
22
74677
2731
Wobei ich vor 9 Monaten
Mutter geworden bin,
01:29
and I've learnedgelernt that babiesBabys alsoebenfalls squirmWinden
when you holdhalt them upsidenach oben down.
23
77432
3433
und jetzt weiß, dass kopfüber
gehaltene Babies sich auch wehren.
(Gelächter)
01:32
(LaughterLachen)
24
80889
1563
01:35
But my responseAntwort to this robotRoboter
was alsoebenfalls interestinginteressant
25
83023
2358
Aber meine Reaktion auf den Roboter
war auch interessant,
01:37
because I knewwusste exactlygenau
how this machineMaschine workedhat funktioniert,
26
85405
4101
da ich genau wusste,
wie diese Maschine funktioniert,
01:41
and yetnoch I still feltFilz
compelledgezwungen to be kindArt to it.
27
89530
3262
und dennoch fühlte ich mich
veranlasst, lieb zu ihr zu sein.
01:46
And that observationÜberwachung sparkedentfacht a curiosityNeugierde
28
94450
2707
Diese Erkenntnis entfachte eine Neugier,
01:49
that I've spentverbraucht the pastVergangenheit decadeDekade pursuingverfolgen.
29
97181
2832
der ich die letzten Jahre
nachgegangen bin.
01:52
Why did I comfortKomfort this robotRoboter?
30
100911
1793
Warum tröstete ich diesen Roboter?
01:56
And one of the things I discoveredentdeckt
was that my treatmentBehandlung of this machineMaschine
31
104228
3579
Eine Erkenntnis war,
dass mein Umgang mit dieser Maschine
01:59
was more than just an awkwardumständlich momentMoment
in my livingLeben roomZimmer,
32
107831
3701
mehr als nur ein verlegener Moment
in meinem Wohnzimmer war
02:03
that in a worldWelt where we're increasinglyzunehmend
integratingintegrierend robotsRoboter into our livesLeben,
33
111556
5420
und dass in einer Welt, in die wir
immer mehr Roboter integrieren,
02:09
an instinctInstinkt like that
mightMacht actuallytatsächlich have consequencesFolgen,
34
117000
3126
ein solcher Instinkt
Konsequenzen haben könnte.
02:13
because the first thing that I discoveredentdeckt
is that it's not just me.
35
121452
3749
Denn meine erste Entdeckung war,
dass das nicht nur mich betrifft.
02:19
In 2007, the WashingtonWashington PostBereitstellen
reportedberichtet that the UnitedVereinigte StatesStaaten militaryMilitär-
36
127249
4802
Im Jahr 2007 meldete The Washington Post,
dass das US-amerikanische Militär
02:24
was testingtesten this robotRoboter
that defusedentschärft landLand minesMinen.
37
132075
3230
einen Roboter testete, der
Landminen entschärfen sollte.
02:27
And the way it workedhat funktioniert
was it was shapedgeformt like a stickStock insectInsekt
38
135329
2912
Gebaut wie eine Stabheuschrecke,
funktionierte er so,
02:30
and it would walkgehen
around a minefieldMinenfeld on its legsBeine,
39
138265
2651
dass er in einem Minenfeld
auf seinen Beinen herumlief
02:32
and everyjeden time it steppedtrat on a mineBergwerk,
one of the legsBeine would blowSchlag up,
40
140940
3206
und jedes Mal, wenn er auf
eine Mine trat und ein Bein explodierte,
lief er auf den übrigen Beinen weiter,
um mehr Minen zu finden.
02:36
and it would continuefortsetzen on the other legsBeine
to blowSchlag up more minesMinen.
41
144170
3057
02:39
And the colonelOberst who was in chargeberechnen
of this testingtesten exerciseÜbung
42
147251
3786
Der zuständige Oberst dieses Tests
beschloss ihn abzublasen,
02:43
endsendet up callingBerufung it off,
43
151061
2118
02:45
because, he sayssagt, it's too inhumaneunmenschliche
44
153203
2435
weil es zu unmenschlich wäre,
02:47
to watch this damagedbeschädigt robotRoboter
dragziehen itselfselbst alongeine lange the minefieldMinenfeld.
45
155662
4516
den beschädigten Roboter zu beobachten
wie er sich über das Feld schleppt.
02:54
Now, what would causeUrsache
a hardenedgehärtet militaryMilitär- officerOffizier
46
162978
3897
Was veranlasst einen
abgehärteten Militäroffizier
02:58
and someonejemand like myselfmich selber
47
166899
2043
und jemanden wie mich,
03:00
to have this responseAntwort to robotsRoboter?
48
168966
1857
so auf einen Roboter zu reagieren?
03:03
Well, of courseKurs, we're primedgrundiert
by scienceWissenschaft fictionFiktion and popPop cultureKultur
49
171537
3310
Natürlich sind wir durch
Science-Fiction und Popkultur geprägt
03:06
to really want to personifyverkörpern these things,
50
174871
2579
und möchten diese Dinge vermenschlichen,
03:09
but it goesgeht a little bitBit deeperTiefer than that.
51
177474
2789
aber es ist etwas tiefgehender als das.
03:12
It turnswendet sich out that we're biologicallybiologisch
hardwiredfest verdrahtet to projectProjekt intentAbsicht and life
52
180287
5309
Wir sind nämlich genetisch
programmiert Absicht und Leben
03:17
ontoauf zu any movementBewegung in our physicalphysisch spacePlatz
that seemsscheint autonomousautonom to us.
53
185620
4766
auf jede selbstständige Bewegung
unserer Umgebung zu projizieren.
03:23
So people will treatbehandeln all sortssortiert
of robotsRoboter like they're aliveam Leben.
54
191214
3465
Deswegen behandeln Menschen
alle Arten von Robotern wie Lebewesen.
03:26
These bomb-disposalBombenentschärfung unitsEinheiten get namesNamen.
55
194703
2683
Diese Bombenentschärfungsroboter
erhalten Namen.
03:29
They get medalsMedaillen of honorEhre.
56
197410
1682
Sie erhalten Ehrenmedaillen.
03:31
They'veSie haben had funeralsBeerdigungen for them
with gunGewehr salutessalutiert.
57
199116
2325
Sie hatten Beerdigungen mit Salutschüssen.
03:34
And researchForschung showszeigt an that we do this
even with very simpleeinfach householdHaushalt robotsRoboter,
58
202380
3833
Studien zeigen, dass wir das sogar
mit einfachen Hausrobotern machen,
03:38
like the RoombaRoomba vacuumVakuum cleanerReiniger.
59
206237
2135
wie dem Roomba-Staubsauger.
03:40
(LaughterLachen)
60
208396
1291
(Gelächter)
03:41
It's just a discScheibe that roamsWechselt
around your floorStock to cleanreinigen it,
61
209711
3089
Das ist nur eine fahrende Scheibe,
die unseren Boden säubert,
03:44
but just the factTatsache it's movingbewegend
around on its ownbesitzen
62
212824
2306
aber allein, dass sie sich frei bewegt,
03:47
will causeUrsache people to nameName the RoombaRoomba
63
215154
2167
veranlasst Leute, ihr einen Namen zu geben
03:49
and feel badschlecht for the RoombaRoomba
when it getsbekommt stuckfest underunter the couchCouch.
64
217345
3182
und Mitleid zu empfinden,
wenn sie unter dem Sofa feststeckt.
03:52
(LaughterLachen)
65
220551
1865
(Gelächter)
03:54
And we can designEntwurf robotsRoboter
specificallyspeziell to evokehervorrufen this responseAntwort,
66
222440
3340
Wir können Roboter entwickeln,
um genau diese Reaktionen herbeizurufen
03:57
usingmit eyesAugen and facesGesichter or movementsBewegungen
67
225804
3461
durch Integrierung von Augen,
Gesichtern und Bewegungen,
04:01
that people automaticallyautomatisch,
subconsciouslyunbewusst associateAssociate
68
229289
3259
die automatisch unterbewusst
als Gemütszustand verstanden werden.
04:04
with statesZustände of mindVerstand.
69
232572
2020
Es gibt ein ganzes Forschungsgebiet,
genannt Mensch-Roboter-Interaktion,
04:06
And there's an entireganz bodyKörper of researchForschung
callednamens human-robotMensch-Roboter interactionInteraktion
70
234616
3293
das zeigt, wie gut das funktioniert.
04:09
that really showszeigt an how well this worksWerke.
71
237933
1826
04:11
So for exampleBeispiel, researchersForscher
at StanfordStanford UniversityUniversität foundgefunden out
72
239783
3126
So fanden Forscher
an der Stanford-Universität heraus,
04:14
that it makesmacht people really uncomfortableunbequem
73
242933
2001
dass es für Probanden unangenehm ist,
den Intimbereich eines Roboters
berühren zu müssen.
04:16
when you askFragen them to touchberühren
a robot'sdes Roboters privatePrivatgelände partsTeile.
74
244958
2472
(Gelächter)
04:19
(LaughterLachen)
75
247454
2120
04:21
So from this, but from manyviele other studiesStudien,
76
249598
2023
Von dieser und vielen anderen Studien
04:23
we know, we know that people
respondreagieren to the cuesHinweise givengegeben to them
77
251645
4223
wissen wir, dass Menschen auf die Signale
dieser lebendig erscheinenden
Maschinen reagieren,
04:27
by these lifelikelebensechte machinesMaschinen,
78
255892
2022
04:29
even if they know that they're not realecht.
79
257938
2017
auch im Wissen, dass sie nicht echt sind.
04:33
Now, we're headedgeleitet towardsin Richtung a worldWelt
where robotsRoboter are everywhereüberall.
80
261654
4056
Nun rücken wir näher an eine Welt,
wo Roboter überall sind.
04:37
RoboticRoboter technologyTechnologie is movingbewegend out
from behindhinter factoryFabrik wallsWände.
81
265734
3065
Robotertechnik verlässt die Fabrikhallen
04:40
It's enteringeintreten workplacesArbeitsplätze, householdsHaushalte.
82
268823
3013
und kommt im Arbeitsalltag
und unseren Haushalten an.
04:43
And as these machinesMaschinen that can senseSinn
and make autonomousautonom decisionsEntscheidungen and learnlernen
83
271860
6209
Da diese Maschinen, die fühlen können,
selbständig Entscheidungen treffen
und lernen können,
nun in diese gemeinsamen Räume eintreten,
04:50
entereingeben into these sharedgeteilt spacesLeerzeichen,
84
278093
2552
04:52
I think that maybe the bestBeste
analogyAnalogie we have for this
85
280669
2496
ist die beste Analogie dafür
04:55
is our relationshipBeziehung with animalsTiere.
86
283189
1935
vielleicht unsere Beziehung
mit Haustieren.
04:57
ThousandsTausende of yearsJahre agovor,
we startedhat angefangen to domesticatezu zähmen animalsTiere,
87
285523
3888
Vor Tausenden von Jahren
begannen wir Haustiere zu halten,
05:01
and we trainedausgebildet them for work
and weaponryWaffen and companionshipKameradschaft.
88
289435
4045
wir trainierten sie als Arbeiter,
Waffen oder Begleiter.
05:05
And throughoutwährend historyGeschichte, we'vewir haben treatedbehandelt
some animalsTiere like toolsWerkzeuge or like productsProdukte,
89
293504
4985
Wir behandelten manche Tiere
wie Werkzeug oder Ware,
05:10
and other animalsTiere,
we'vewir haben treatedbehandelt with kindnessFreundlichkeit
90
298513
2174
während wir andere liebevoll behandelten
05:12
and we'vewir haben givengegeben a placeOrt in societyGesellschaft
as our companionsGefährten.
91
300711
3078
und sie als Begleiter
in unserer Gesellschaft aufnahmen.
05:15
I think it's plausibleplausible we mightMacht startAnfang
to integrateintegrieren robotsRoboter in similarähnlich waysWege.
92
303813
3849
Es ist möglich, dass wir anfangen,
Roboter gleichermaßen zu integrieren.
05:21
And sure, animalsTiere are aliveam Leben.
93
309484
3096
Natürlich, Tiere sind lebendig,
05:24
RobotsRoboter are not.
94
312604
1150
Roboter sind es nicht.
Durch die Zusammenarbeit
mit Roboteringenieuren weiß ich,
05:27
And I can tell you,
from workingArbeiten with roboticistsRobotiker,
95
315626
2580
05:30
that we're prettyziemlich farweit away from developingEntwicklung
robotsRoboter that can feel anything.
96
318230
3522
dass wir noch weit davon entfernt sind,
empfindungsfähige Roboter zu bauen.
05:35
But we feel for them,
97
323072
1460
Aber wir empfinden etwas
für sie und das zählt,
05:37
and that mattersAngelegenheiten,
98
325835
1207
05:39
because if we're tryingversuchen to integrateintegrieren
robotsRoboter into these sharedgeteilt spacesLeerzeichen,
99
327066
3627
denn wenn wir versuchen,
Roboter in unseren Alltag zu integrieren,
05:42
we need to understandverstehen that people will
treatbehandeln them differentlyanders than other devicesGeräte,
100
330717
4628
müssen wir verstehen, dass wir sie anders
als normale Geräte behandeln werden,
05:47
and that in some casesFälle,
101
335369
1844
und dass in manchen Fällen,
05:49
for exampleBeispiel, the caseFall of a soldierSoldat
who becomeswird emotionallyemotional attachedangebracht
102
337237
3172
wie beim Soldaten, der sich emotional
an seinen Roboterkollegen bindet,
05:52
to the robotRoboter that they work with,
103
340433
2047
05:54
that can be anything
from inefficientineffizient to dangerousgefährlich.
104
342504
2504
das ineffizient bis gefährlich sein kann.
05:58
But in other casesFälle,
it can actuallytatsächlich be usefulsinnvoll
105
346551
2138
Andererseits kann es auch nützlich sein,
06:00
to fosterfördern this emotionalemotional
connectionVerbindung to robotsRoboter.
106
348713
2623
diese emotionale Verbindung
zu Robotern zu fördern.
06:04
We're alreadybereits seeingSehen some great use casesFälle,
107
352184
2134
Wir kennen schon einige tolle Anwendungen,
06:06
for exampleBeispiel, robotsRoboter workingArbeiten
with autisticautistisch childrenKinder
108
354342
2604
beispielsweise Roboter
für autistische Kinder,
06:08
to engageengagieren them in waysWege
that we haven'thabe nicht seengesehen previouslyvorher,
109
356970
3634
die sie auf eine noch nie gesehene
Art und Weise beschäftigen,
06:12
or robotsRoboter workingArbeiten with teachersLehrer to engageengagieren
kidsKinder in learningLernen with newneu resultsErgebnisse.
110
360628
4000
oder Roboter, die mit Lehrern arbeiten,
um Kinder beim Lernen zu unterstützen.
06:17
And it's not just for kidsKinder.
111
365433
1381
Das gilt nicht nur für Kinder.
06:19
EarlySchon früh studiesStudien showShow that robotsRoboter
can help doctorsÄrzte and patientsPatienten
112
367750
3223
Erste Studien zeigen,
Roboter können im Gesundheitswesen
06:22
in healthGesundheit carePflege settingsEinstellungen.
113
370997
1427
für Ärzte und Patienten nützlich sein.
06:25
This is the PAROParo babyBaby sealDichtung robotRoboter.
114
373535
1810
Das ist der Baby-Robben-Roboter PARO.
06:27
It's used in nursingKrankenpflege homesHäuser
and with dementiaDemenz patientsPatienten.
115
375369
3285
Er wird in Pflegeheimen und
bei dementen Patienten verwendet.
06:30
It's been around for a while.
116
378678
1570
Es gibt ihn schon länger.
06:32
And I remembermerken, yearsJahre agovor,
beingSein at a partyParty
117
380272
3325
Vor ein paar Jahren auf einer Party
06:35
and tellingErzählen someonejemand about this robotRoboter,
118
383621
2571
sprach ich mit jemandem
über diesen Roboter
06:38
and her responseAntwort was,
119
386216
2126
und ihre Reaktion war:
06:40
"Oh my goshMeine Güte.
120
388366
1262
"Meine Güte.
06:42
That's horribleschrecklich.
121
390508
1188
Das ist ja entsetzlich.
06:45
I can't believe we're givinggeben people
robotsRoboter insteadstattdessen of humanMensch carePflege."
122
393056
3397
Kaum zu glauben, dass wir Leuten
Roboter statt Menschen als Pfleger geben."
06:50
And this is a really commonverbreitet responseAntwort,
123
398540
1875
Das ist eine ziemlich häufige Reaktion,
06:52
and I think it's absolutelyunbedingt correctrichtig,
124
400439
2499
und meiner Ansicht nach
ist sie komplett richtig,
06:54
because that would be terriblefurchtbar.
125
402962
2040
denn das wäre schrecklich.
06:57
But in this caseFall,
it's not what this robotRoboter replacesersetzt.
126
405795
2484
Aber der Roboter ersetzt
hier etwas anderes.
07:00
What this robotRoboter replacesersetzt is animalTier therapyTherapie
127
408858
3120
Er ersetzt die Tier-Therapie
07:04
in contextsKontexten where
we can't use realecht animalsTiere
128
412002
3198
in Situationen, wo wir keine
echten Tiere verwenden können,
07:07
but we can use robotsRoboter,
129
415224
1168
aber Roboter eben schon,
07:08
because people will consistentlykonsequent treatbehandeln
them more like an animalTier than a deviceGerät.
130
416416
5230
da Menschen sie konsequent eher
wie ein Tier als ein Gerät behandeln.
07:15
AcknowledgingIn Anerkennung this emotionalemotional
connectionVerbindung to robotsRoboter
131
423502
2380
Diese emotionale Bindung
zu Robotern anzuerkennen,
07:17
can alsoebenfalls help us anticipateerwarten challengesHerausforderungen
132
425906
1969
kann uns helfen, Probleme vorauszuahnen,
07:19
as these devicesGeräte moveBewegung into more intimateintime
areasBereiche of people'sMenschen livesLeben.
133
427899
3451
da diese Maschinen Teil
des persönlichen Lebens werden.
07:24
For exampleBeispiel, is it OK
if your child'sdes Kindes teddyTeddy bearBär robotRoboter
134
432111
3404
Ist es zum Beispiel okay,
wenn der Teddybär Ihres Kindes
07:27
recordsAufzeichnungen privatePrivatgelände conversationsGespräche?
135
435539
2237
private Gespräche aufzeichnet?
07:29
Is it OK if your sexSex robotRoboter
has compellingüberzeugende in-appIn-app purchasesKäufe?
136
437800
4063
Ist es okay, wenn ihr Sexroboter
verlockende in-App-Angebote hat?
07:33
(LaughterLachen)
137
441887
1396
(Gelächter)
07:35
Because robotsRoboter plusPlus capitalismKapitalismus
138
443307
2501
Denn Roboter plus Kapitalismus
07:37
equalsgleich questionsFragen around
consumerVerbraucher protectionSchutz and privacyDatenschutz.
139
445832
3705
bedingt Fragen über Privatsphäre
und Verbraucherschutz.
07:42
And those aren'tsind nicht the only reasonsGründe dafür
140
450549
1612
Nicht nur deswegen ist unser Umgang
mit diesen Maschinen bedeutend.
07:44
that our behaviorVerhalten around
these machinesMaschinen could matterAngelegenheit.
141
452185
2570
07:48
A fewwenige yearsJahre after that first
initialInitiale experienceErfahrung I had
142
456747
3270
Ein paar Jahre nach diesem ersten Erlebnis
07:52
with this babyBaby dinosaurDinosaurier robotRoboter,
143
460041
2311
mit dem Baby-Dino-Roboter,
hielt ich ein Seminar
mit meinem Freund Hannes Gassert.
07:54
I did a workshopWerkstatt
with my friendFreund HannesHannes GassertGassert.
144
462376
2501
07:56
And we tookdauerte fivefünf
of these babyBaby dinosaurDinosaurier robotsRoboter
145
464901
2897
Dort nahmen wir 5 dieser Baby-Dino-Roboter
07:59
and we gavegab them to fivefünf teamsTeams of people.
146
467822
2453
und gaben sie an fünf Gruppen.
08:02
And we had them nameName them
147
470299
1697
Wir ließen sie ihnen Namen geben
08:04
and playspielen with them and interactinteragieren with them
for about an hourStunde.
148
472020
3809
und für eine Stunde mit ihnen
spielen und interagieren.
08:08
And then we unveiledenthüllt
a hammerHammer and a hatchetBeil
149
476707
2206
Dann enthüllten wir
einen Hammer und ein Beil
08:10
and we told them to tortureFolter
and killtöten the robotsRoboter.
150
478937
2278
und riefen sie auf die Roboter
zu quälen und zu töten.
08:13
(LaughterLachen)
151
481239
3007
(Gelächter)
08:16
And this turnedgedreht out to be
a little more dramaticdramatisch
152
484857
2294
Das erwies sich als
dramatischer als erwartet,
08:19
than we expectederwartet it to be,
153
487175
1278
da keiner der Teilnehmer
es über das Herz brachte
08:20
because nonekeiner of the participantsTeilnehmer
would even so much as strikeStreik
154
488477
3072
08:23
these babyBaby dinosaurDinosaurier robotsRoboter,
155
491573
1307
ihren Babydino zu schlagen.
08:24
so we had to improviseimprovisieren a little,
and at some pointPunkt, we said,
156
492904
5150
Also improvisierten wir und schlugen vor:
"Okay, ihr könnt euren Roboter retten,
wenn ihr den eines anderen Teams zerstört."
08:30
"OK, you can savesparen your team'sdes Teams robotRoboter
if you destroyzerstören anotherein anderer team'sdes Teams robotRoboter."
157
498078
4437
08:34
(LaughterLachen)
158
502539
1855
(Gelächter)
08:36
And even that didn't work.
They couldn'tkonnte nicht do it.
159
504839
2195
Auch das brachte keiner übers Herz.
Als letztes drohten wir:
08:39
So finallyendlich, we said,
160
507058
1151
08:40
"We're going to destroyzerstören all of the robotsRoboter
161
508233
2032
"Wir zerstören alle eure Roboter,
08:42
unlesses sei denn someonejemand takes
a hatchetBeil to one of them."
162
510289
2285
es sei denn jemand schlägt
mit dem Beil auf einen."
08:45
And this guy stoodstand up,
and he tookdauerte the hatchetBeil,
163
513586
3579
Dieser eine Kerl stand auf, nahm das Beil
08:49
and the wholeganze roomZimmer wincedWinzelt
as he broughtgebracht the hatchetBeil down
164
517189
2706
und der ganze Raum
zuckte zusammen als er das Beil
08:51
on the robot'sdes Roboters neckHals,
165
519919
1780
auf das Genick des Roboters hämmerte.
08:53
and there was this half-jokinghalb scherzend,
half-seriousHalbernst momentMoment of silenceSchweigen in the roomZimmer
166
521723
6338
Es entstand diese halb scherzhafte,
halb ernste Stille im Raum
09:00
for this fallengefallen robotRoboter.
167
528085
1698
wegen des kaputten Roboters.
09:01
(LaughterLachen)
168
529807
1406
(Gelächter)
09:03
So that was a really
interestinginteressant experienceErfahrung.
169
531237
3694
Das war ein echt interessantes Erlebnis.
09:06
Now, it wasn'twar nicht a controlledkontrolliert
studyStudie, obviouslyoffensichtlich,
170
534955
2459
Natürlich war das
keine kontrollierte Studie,
aber es führte zu weiterer Forschung,
die ich am MIT zusammen
09:09
but it did leadführen to some
laterspäter researchForschung that I did at MITMIT
171
537438
2850
mit Palash Nandy und
Cynthia Breazal durchführte.
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
09:14
where we had people come into the labLabor
and smashSmash these HEXBUGsHEXBUGs
173
542564
3627
Dort luden wir Leute in unser Labor ein,
um diese HEXBUGs zu zerschlagen,
09:18
that moveBewegung around in a really
lifelikelebensechte way, like insectsInsekten.
174
546215
3087
die sich wie lebende Insekten bewegen.
09:21
So insteadstattdessen of choosingdie Wahl something cuteniedlich
that people are drawngezeichnet to,
175
549326
3134
Anstatt etwas Niedliches
zu wählen, was sympathisch wirkt,
09:24
we chosewählte something more basicBasic,
176
552484
2093
nahmen wir etwas Einfacheres.
09:26
and what we foundgefunden
was that high-empathyHochempathie people
177
554601
3480
So fanden wir heraus,
dass empathischere Menschen
09:30
would hesitatezögern more to hitschlagen the HEXBUGSHEXBUGS.
178
558105
2143
eher zögern, den HEXBUG zu schlagen.
09:33
Now this is just a little studyStudie,
179
561575
1564
Das ist nur eine kleine Studie,
09:35
but it's partTeil of a largergrößer bodyKörper of researchForschung
180
563163
2389
die aber Teil einer
größeren Forschungsarbeit ist.
09:37
that is startingbeginnend to indicatezeigen
that there maykann be a connectionVerbindung
181
565576
2944
Diese deutet immer mehr darauf hin,
dass es eine Verbindung gibt
09:40
betweenzwischen people'sMenschen tendenciesTendenzen for empathyEmpathie
182
568544
2373
zwischen den empathischen
Tendenzen der Probanden
09:42
and theirihr behaviorVerhalten around robotsRoboter.
183
570941
1976
und ihren Verhalten gegenüber Robotern.
09:45
But my questionFrage for the comingKommen eraEpoche
of human-robotMensch-Roboter interactionInteraktion
184
573721
3627
Aber meine Frage für die kommende Ära
der Mensch-Roboter-Interaktion
09:49
is not: "Do we empathizeeinfühlen with robotsRoboter?"
185
577372
3055
ist nicht: "Fühlen wir mit Robotern mit?",
09:53
It's: "Can robotsRoboter changeVeränderung
people'sMenschen empathyEmpathie?"
186
581211
2920
sondern: "Können Roboter
menschliches Mitgefühl verändern?"
09:57
Is there reasonGrund to, for exampleBeispiel,
187
585489
2287
Gibt es Gründe, zum Beispiel,
09:59
preventverhindern your childKind
from kickingtreten a roboticRoboter dogHund,
188
587800
2333
ihr Kind vom Treten
eines Robohundes abzuhalten,
10:03
not just out of respectdie Achtung for propertyEigentum,
189
591228
2914
nicht nur aus purem Respekt vor Eigentum,
10:06
but because the childKind mightMacht be
more likelywahrscheinlich to kickKick a realecht dogHund?
190
594166
2953
sondern weil ihr Kind dann eher
einen echten Hund treten würde?
10:10
And again, it's not just kidsKinder.
191
598507
1883
Nochmal, es geht nicht nur um Kinder.
10:13
This is the violentheftig videoVideo gamesSpiele questionFrage,
but it's on a completelyvollständig newneu levelEbene
192
601564
4056
Es erinnert an die Frage
über Gewalt in Videospielen,
nur auf einem ganz neuem Level.
10:17
because of this visceralviszerale physicalityKörperlichkeit
that we respondreagieren more intenselyintensiv to
193
605644
4760
Denn auf diese instinktiven Körperkontakte
reagieren wir intensiver
10:22
than to imagesBilder on a screenBildschirm.
194
610428
1547
als auf Bilder am Bildschirm.
10:25
When we behavesich verhalten violentlyheftig towardsin Richtung robotsRoboter,
195
613674
2578
Wenn wir Roboter gewaltsam behandeln,
10:28
specificallyspeziell robotsRoboter
that are designedentworfen to mimicnachahmen life,
196
616276
3120
besonders lebensähnliche Roboter,
10:31
is that a healthygesund outletAuslauf
for violentheftig behaviorVerhalten
197
619420
3892
ist das eine gesunde Art,
Gewalt auszuleben,
10:35
or is that trainingAusbildung our crueltyGrausamkeit musclesMuskeln?
198
623336
2544
oder Training für unsere grausame Seite?
Das wissen wir nicht ...
10:39
We don't know ...
199
627511
1150
10:42
But the answerAntworten to this questionFrage has
the potentialPotenzial to impactEinfluss humanMensch behaviorVerhalten,
200
630622
3945
Aber die Antwort auf diese Frage könnte
menschliche Verhaltensmuster verändern.
10:46
it has the potentialPotenzial
to impactEinfluss socialSozial normsNormen,
201
634591
2768
Sie hat das Potential,
soziale Normen zu beeinflussen,
10:49
it has the potentialPotenzial to inspireinspirieren rulesRegeln
around what we can and can't do
202
637383
3849
und Regeln anzuregen,
was wir tun und nicht tun dürfen
10:53
with certainsicher robotsRoboter,
203
641256
1151
mit bestimmen Robotern,
10:54
similarähnlich to our animalTier crueltyGrausamkeit lawsGesetze.
204
642431
1848
analog zu den Gesetzen zur Tierquälerei.
10:57
Because even if robotsRoboter can't feel,
205
645228
2864
Denn auch wenn Roboter nichts fühlen,
11:00
our behaviorVerhalten towardsin Richtung them
mightMacht matterAngelegenheit for us.
206
648116
3080
unser Verhalten ihnen gegenüber
kann für uns wichtig sein.
11:04
And regardlessungeachtet of whetherob
we endEnde up changingÄndern our rulesRegeln,
207
652889
2855
Egal ob wir unsere Regeln ändern,
11:08
robotsRoboter mightMacht be ablefähig to help us
come to a newneu understandingVerstehen of ourselvesuns selbst.
208
656926
3556
Roboter könnten uns helfen
uns selbst besser zu verstehen.
11:14
MostDie meisten of what I've learnedgelernt
over the pastVergangenheit 10 yearsJahre
209
662276
2316
In den letzten 10 Jahren habe ich
eher wenig über Technologie gelernt,
11:16
has not been about technologyTechnologie at all.
210
664616
2238
11:18
It's been about humanMensch psychologyPsychologie
211
666878
2503
sondern vor allem über Psychologie,
11:21
and empathyEmpathie and how we relatesich beziehen to othersAndere.
212
669405
2603
Empathie und gegenseitigen Umgang.
11:25
Because when a childKind is kindArt to a RoombaRoomba,
213
673524
2365
Wenn ein Kind nämlich nett zum Roomba ist,
11:29
when a soldierSoldat triesversucht to savesparen
a robotRoboter on the battlefieldSchlachtfeld,
214
677262
4015
wenn ein Soldat versucht,
einen Roboter im Schlachtfeld zu retten,
11:33
or when a groupGruppe of people refusesweigert sich
to harmSchaden a roboticRoboter babyBaby dinosaurDinosaurier,
215
681301
3638
oder wenn eine Gruppe ablehnt,
einem mechanischen Babydino zu schaden,
11:38
those robotsRoboter aren'tsind nicht just motorsMotoren
and gearsGetriebe and algorithmsAlgorithmen.
216
686248
3191
dann sind diese Roboter nicht nur
Motoren, Gewinde und Algorithmen.
11:42
They're reflectionsReflexionen of our ownbesitzen humanityMenschheit.
217
690501
1905
Sie sind Spiegelungen
unserer eigenen Menschlichkeit.
11:45
Thank you.
218
693523
1151
Danke schön.
11:46
(ApplauseApplaus)
219
694698
3397
(Applaus)
Translated by Max Hohenschutz
Reviewed by Angelika Lueckert Leon

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com