ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Les raisons de notre lien émotionnel avec les robots

Filmed:
2,403,010 views

Nous ne sommes pas près de développer des robots qui ressentent des émotions, toutefois, nous éprouvons des sentiments à leur égard et cet instinct peut avoir des conséquences. Tels sont les propos de Kate Darling, éthicienne. Découvrez en quoi l'homme est conçu pour insuffler intention et vie dans les machines et en quoi cela peut nous être utile pour mieux nous comprendre.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsannées agodepuis,
0
1047
2508
Un jour, il y a environ 10 ans,
00:15
when I askeda demandé a friendami to holdtenir
a babybébé dinosaurdinosaure robotrobot upsideà l'envers down.
1
3579
3944
j'ai demandé à un ami de tenir à l'envers
un robot en forme de petit dinosaure.
00:21
It was this toyjouet calledappelé a PleoPleo
that I had orderedcommandé,
2
9889
3446
J'avais commandé ce jouet
qui répond au nom de Pleo.
00:25
and I was really excitedexcité about it
because I've always lovedaimé robotsdes robots.
3
13359
4401
J'étais vraiment ravie
car j'ai toujours aimé les robots.
Celui-ci avait des caractéristiques
vraiment cool.
00:29
And this one has really coolcool
technicaltechnique featuresfonctionnalités.
4
17784
2279
00:32
It had motorsmoteurs and touchtoucher sensorscapteurs
5
20087
2119
Il avait des moteurs,
des capteurs haptiques
00:34
and it had an infraredinfrarouge cameracaméra.
6
22230
2244
et une caméra infrarouge.
00:36
And one of the things it had
was a tiltinclinaison sensorcapteur,
7
24498
2763
Il avait aussi un capteur d'inclinaison
00:39
so it knewa connu what directiondirection it was facingorienté vers.
8
27285
2318
qui lui permettait de savoir
dans quelle direction il était.
00:42
And when you heldtenu it upsideà l'envers down,
9
30095
2134
Si on le tenait la tête en bas,
00:44
it would startdébut to crycri.
10
32253
1572
il se mettait à pleurer.
00:46
And I thought this was supersuper coolcool,
so I was showingmontrer it off to my friendami,
11
34527
3496
Je trouvais ça super et donc
j'étais fière de le montrer à mon ami.
Je lui ai proposé de le tenir
par la queue pour voir sa réaction.
00:50
and I said, "Oh, holdtenir it up by the tailqueue.
See what it does."
12
38047
2805
00:55
So we're watchingen train de regarder
the theatricsthéâtralité of this robotrobot
13
43268
3625
On observe les gesticulations du robot
00:58
strugglelutte and crycri out.
14
46917
2199
qui se débat et pleure,
01:02
And after a fewpeu secondssecondes,
15
50767
2047
mais après quelques secondes,
01:04
it startsdéparts to botherpas la peine me a little,
16
52838
1972
ça a commencé à me perturber un peu.
01:07
and I said, "OK, that's enoughassez now.
17
55744
3424
Alors j'ai décrété que c'était assez
01:11
Let's put him back down."
18
59930
2305
et que nous devrions
le remettre à l'endroit.
J'ai alors caressé le robot
jusqu'à ce qu'il arrête de pleurer.
01:14
And then I petanimal de compagnie the robotrobot
to make it stop cryingpleurs.
19
62259
2555
01:18
And that was kindgentil of
a weirdbizarre experienceexpérience for me.
20
66973
2452
Ce fut une expérience troublante pour moi.
01:22
For one thing, I wasn'tn'était pas the mostles plus
maternalmaternelle personla personne at the time.
21
70084
4569
D'abord, je n'étais pas particulièrement
maternelle à l'époque.
01:26
AlthoughBien que sincedepuis then I've becomedevenir
a mothermère, nineneuf monthsmois agodepuis,
22
74677
2731
Je suis devenue une maman
il y a neuf mois,
et j'ai appris que les enfants aussi sont
contrariés si on les tient la tête en bas.
01:29
and I've learnedappris that babiesbébés alsoaussi squirmmal à l’aise
when you holdtenir them upsideà l'envers down.
23
77432
3433
01:32
(LaughterRires)
24
80889
1563
(Rires)
01:35
But my responseréponse to this robotrobot
was alsoaussi interestingintéressant
25
83023
2358
Mais ma réaction vis-à-vis
du robot est intéressante
01:37
because I knewa connu exactlyexactement
how this machinemachine workedtravaillé,
26
85405
4101
car, en dépit du fait
que je savais exactement
comment la machine fonctionnait,
01:41
and yetencore I still feltse sentait
compelledcontraint to be kindgentil to it.
27
89530
3262
j'ai quand-même ressenti le besoin
de lui montrer de l'affection.
01:46
And that observationobservation sparkeddéclenché a curiositycuriosité
28
94450
2707
Cette observation a piqué ma curiosité
01:49
that I've spentdépensé the pastpassé decadedécennie pursuingpoursuivre.
29
97181
2832
et cela fait une dizaine d'années
que je m'y intéresse.
01:52
Why did I comfortconfort this robotrobot?
30
100911
1793
Pourquoi ai-je consolé ce robot ?
01:56
And one of the things I discovereddécouvert
was that my treatmenttraitement of this machinemachine
31
104228
3579
Une des choses que j'ai découvertes
est que ma réaction avec cette machine
01:59
was more than just an awkwardmaladroite momentmoment
in my livingvivant roomchambre,
32
107831
3701
est davantage qu'un moment
bizarre dans mon salon
02:03
that in a worldmonde where we're increasinglyde plus en plus
integratingen intégrant robotsdes robots into our livesvies,
33
111556
5420
et que dans un monde où nous intégrons
de plus en plus les robots dans nos vies,
02:09
an instinctinstinct like that
mightpourrait actuallyréellement have consequencesconséquences,
34
117000
3126
un tel instinct peut avoir
des conséquences concrètes,
02:13
because the first thing that I discovereddécouvert
is that it's not just me.
35
121452
3749
car la première chose que j'ai découverte,
c'est que je ne suis pas la seule.
02:19
In 2007, the WashingtonWashington PostPublier
reportedsignalé that the UnitedUnie StatesÉtats militarymilitaire
36
127249
4802
En 2007, le Washington Post a publié
un reportage sur l'armée américaine
qui faisait des essais avec un robot
détonateur de mines antipersonnel.
02:24
was testingessai this robotrobot
that defuseddésamorcé landterre minesmines.
37
132075
3230
02:27
And the way it workedtravaillé
was it was shapeden forme de like a stickbâton insectinsecte
38
135329
2912
Le robot avait la forme d'un phasme.
02:30
and it would walkmarche
around a minefieldchamp de mines on its legsjambes,
39
138265
2651
Il marchait dans les champs de mines
02:32
and everychaque time it steppedétagé on a minemien,
one of the legsjambes would blowcoup up,
40
140940
3206
et chaque fois qu'une de ses pattes
en touchait une, elle explosait.
Le robot continuait de chercher
d'autres mines sur ses pattes restantes.
02:36
and it would continuecontinuer on the other legsjambes
to blowcoup up more minesmines.
41
144170
3057
02:39
And the colonelcolonel who was in chargecharge
of this testingessai exerciseexercice
42
147251
3786
Le colonel responsable de cet essai
02:43
endsprend fin up callingappel it off,
43
151061
2118
a fini par arrêter le programme,
02:45
because, he saysdit, it's too inhumaneinhumaines
44
153203
2435
car, selon lui, c'était trop inhumain
02:47
to watch this damagedendommagé robotrobot
dragtraîne itselfse alongle long de the minefieldchamp de mines.
45
155662
4516
d'observer le robot endommagé
se traîner dans les champs de mines.
02:54
Now, what would causecause
a hardenedendurci militarymilitaire officerofficier
46
162978
3897
Qu'est-ce qui peut bien
susciter chez un militaire endurci
02:58
and someoneQuelqu'un like myselfmoi même
47
166899
2043
et quelqu'un comme moi
une telle réaction vis-à-vis des robots ?
03:00
to have this responseréponse to robotsdes robots?
48
168966
1857
03:03
Well, of coursecours, we're primedapprêté
by sciencescience fictionfiction and poppop cultureCulture
49
171537
3310
Il est vrai que nous sommes poussés
par la science-fiction et la culture pop
03:06
to really want to personifypersonnifier these things,
50
174871
2579
à concevoir de l'anthropomorphisme
pour ces objets.
03:09
but it goesva a little bitbit deeperPlus profond than that.
51
177474
2789
Mais c'est un peu plus compliqué que ça.
03:12
It turnsse tourne out that we're biologicallybiologiquement
hardwiredcâblé to projectprojet intentintention and life
52
180287
5309
En fait, nous sommes biologiquement
conçus pour projeter intention et vie
03:17
ontosur any movementmouvement in our physicalphysique spaceespace
that seemssemble autonomousautonome to us.
53
185620
4766
dans toutes les choses animées dans notre
espace physique qui paraissent autonomes.
03:23
So people will treattraiter all sortssortes
of robotsdes robots like they're alivevivant.
54
191214
3465
Dès lors, on traite toutes sortes
de robots comme s'ils étaient vivants.
03:26
These bomb-disposaldestruction de bombes unitsunités get namesdes noms.
55
194703
2683
On donne des noms aux engins de déminage
03:29
They get medalsmédailles of honorhonneur.
56
197410
1682
et on leur remettait des médailles.
Ils ont même eu des funérailles
avec salve d'honneur.
03:31
They'veIls ont had funeralsfunérailles for them
with gunpistolet salutessaluts.
57
199116
2325
03:34
And researchrecherche showsmontre that we do this
even with very simplesimple householdMénage robotsdes robots,
58
202380
3833
Les recherches éclairent le fait que nous
agissons ainsi avec nos robots ménagers
03:38
like the RoombaRoomba vacuumvide cleanernettoyeur.
59
206237
2135
comme l'aspirateur Roomba.
03:40
(LaughterRires)
60
208396
1291
(Rires)
03:41
It's just a discdisque that roamserre
around your floorsol to cleannettoyer it,
61
209711
3089
C'est un simple disque qui déambule
sur le sol pour le nettoyer,
03:44
but just the factfait it's movingen mouvement
around on its ownposséder
62
212824
2306
mais le seul fait de se mouvoir
autours de nous
03:47
will causecause people to nameprénom the RoombaRoomba
63
215154
2167
incite les gens à lui donner un nom
et à ressentir de la peine pour le Roomba
quand celui-ci est coincé.
03:49
and feel badmal for the RoombaRoomba
when it getsobtient stuckcoincé underen dessous de the couchcanapé.
64
217345
3182
03:52
(LaughterRires)
65
220551
1865
(Rires)
03:54
And we can designconception robotsdes robots
specificallyPlus précisément to evokeévoquer this responseréponse,
66
222440
3340
On peut concevoir des robots précisément
pour susciter cette réaction,
03:57
usingen utilisant eyesles yeux and facesvisages or movementsmouvements
67
225804
3461
en utilisant des yeux et un visage
ou des mouvements
04:01
that people automaticallyautomatiquement,
subconsciouslyinconsciemment associateassocié
68
229289
3259
que les gens vont automatiquement
associer inconsciemment
04:04
with statesÉtats of mindesprit.
69
232572
2020
à des états d'esprit.
04:06
And there's an entiretout bodycorps of researchrecherche
calledappelé human-robothomme-robot interactioninteraction
70
234616
3293
Il y a un champ de recherche entier,
l'interaction humains - robots,
qui explique ces mécanismes.
04:09
that really showsmontre how well this workstravaux.
71
237933
1826
04:11
So for exampleExemple, researchersdes chercheurs
at StanfordStanford UniversityUniversité founda trouvé out
72
239783
3126
Par exemple, des chercheurs
de l'Université de Stanford ont découvert
04:14
that it makesfait du people really uncomfortableinconfortable
73
242933
2001
que ça met les gens très mal à l'aise
quand on leur demande de toucher
les parties intimes d'un robot.
04:16
when you askdemander them to touchtoucher
a robot'sdu robot privateprivé partsles pièces.
74
244958
2472
04:19
(LaughterRires)
75
247454
2120
(Rires)
04:21
So from this, but from manybeaucoup other studiesétudes,
76
249598
2023
De ces réactions, et d'autres recherches,
04:23
we know, we know that people
respondrépondre to the cuesindices givendonné to them
77
251645
4223
nous savons que les gens réagissent
à des indices qui leur sont tendus
04:27
by these lifelikeréaliste machinesmachines,
78
255892
2022
par ces engins mimant la vie,
même quand ils savent
que ces engins ne sont pas vivants.
04:29
even if they know that they're not realréal.
79
257938
2017
04:33
Now, we're headedà tête towardsvers a worldmonde
where robotsdes robots are everywherepartout.
80
261654
4056
Notre avenir sera rempli de robots.
04:37
RoboticRobotique technologyLa technologie is movingen mouvement out
from behindderrière factoryusine wallsdes murs.
81
265734
3065
La technologie robotique est en train
de sortir des usines.
04:40
It's enteringentrer workplaceslieux de travail, householdsménages.
82
268823
3013
Elle intègre le lieu de travail,
le domicile.
04:43
And as these machinesmachines that can sensesens
and make autonomousautonome decisionsles décisions and learnapprendre
83
271860
6209
Alors que ces machines autonomes
qui peuvent sentir,
prendre des décisions et apprendre,
intègrent notre environnement de vie,
04:50
enterentrer into these sharedpartagé spacesles espaces,
84
278093
2552
04:52
I think that maybe the bestmeilleur
analogyanalogie we have for this
85
280669
2496
je pense que la meilleure
analogie à disposition
04:55
is our relationshiprelation with animalsanimaux.
86
283189
1935
est notre relation avec les animaux.
04:57
ThousandsMilliers of yearsannées agodepuis,
we startedcommencé to domesticatedomestiquer animalsanimaux,
87
285523
3888
Il y a des milliers d'années,
on a domestiqué les animaux
05:01
and we trainedqualifié them for work
and weaponryarmement and companionshipcompagnie.
88
289435
4045
et on les a entraînés au travail,
à la guerre et à devenir nos compagnons.
05:05
And throughouttout au long de historyhistoire, we'venous avons treatedtraité
some animalsanimaux like toolsoutils or like productsdes produits,
89
293504
4985
Durant l'histoire, on a traité certaines
bêtes comme des outils ou des marchandises
et on a traité d'autres animaux
avec affection,
05:10
and other animalsanimaux,
we'venous avons treatedtraité with kindnessbonté
90
298513
2174
05:12
and we'venous avons givendonné a placeendroit in societysociété
as our companionscompagnons.
91
300711
3078
on leur a donné une place dans la société
en tant que compagnons.
05:15
I think it's plausibleplausible we mightpourrait startdébut
to integrateintégrer robotsdes robots in similarsimilaire waysfaçons.
92
303813
3849
Je pense plausible que nous commencions
à intégrer les robots de la même manière.
05:21
And sure, animalsanimaux are alivevivant.
93
309484
3096
Certes, les animaux sont vivants.
Les robots ne le sont pas.
05:24
RobotsRobots are not.
94
312604
1150
05:27
And I can tell you,
from workingtravail with roboticistsroboticiens,
95
315626
2580
Et mon expérience avec des ingénieurs
en robotique me permet d'affirmer
05:30
that we're prettyjoli farloin away from developingdéveloppement
robotsdes robots that can feel anything.
96
318230
3522
qu'on est loin de concevoir des robots
qui ressentent quoi que ce soit.
05:35
But we feel for them,
97
323072
1460
Mais nous éprouvons
des sentiments à leur égard
05:37
and that mattersimporte,
98
325835
1207
et c'est crucial.
05:39
because if we're tryingen essayant to integrateintégrer
robotsdes robots into these sharedpartagé spacesles espaces,
99
327066
3627
Car si nous tentons d'intégrer
des robots dans nos espaces de vie,
05:42
we need to understandcomprendre that people will
treattraiter them differentlydifféremment than other devicesdispositifs,
100
330717
4628
il faut comprendre qu'on ne va pas
les traiter comme d'autres objets
05:47
and that in some casescas,
101
335369
1844
et que dans certains cas,
05:49
for exampleExemple, the caseCas of a soldiersoldat
who becomesdevient emotionallyémotionnellement attachedattaché
102
337237
3172
par exemple, celui du soldat
qui s'est attaché affectivement
05:52
to the robotrobot that they work with,
103
340433
2047
au robot avec lequel il travaille,
05:54
that can be anything
from inefficientinefficace to dangerousdangereux.
104
342504
2504
ça peut devenir improductif,
voire dangereux.
05:58
But in other casescas,
it can actuallyréellement be usefulutile
105
346551
2138
Dans d'autres cas toutefois,
ça peut être utile
06:00
to fosterfavoriser la this emotionalémotif
connectionconnexion to robotsdes robots.
106
348713
2623
de nourrir une connexion
émotionnelle avec un robot.
06:04
We're alreadydéjà seeingvoyant some great use casescas,
107
352184
2134
Il y a des usages fabuleux,
comme par exemple les robots
qui travaillent avec des enfants autistes.
06:06
for exampleExemple, robotsdes robots workingtravail
with autisticautistique childrenles enfants
108
354342
2604
06:08
to engageengager them in waysfaçons
that we haven'tn'a pas seenvu previouslyprécédemment,
109
356970
3634
Ils créent un lien avec eux
jamais constaté auparavant.
06:12
or robotsdes robots workingtravail with teachersenseignants to engageengager
kidsdes gamins in learningapprentissage with newNouveau resultsrésultats.
110
360628
4000
Il y a aussi des robots
aux côtés des enseignants
pour pousser, avec succès,
les enfants à apprendre.
06:17
And it's not just for kidsdes gamins.
111
365433
1381
Il n'y a pas que les enfants.
06:19
EarlyDès le début studiesétudes showmontrer that robotsdes robots
can help doctorsmédecins and patientsles patients
112
367750
3223
Des études montrent que les robots peuvent
assister médecins et infirmières
06:22
in healthsanté carese soucier settingsParamètres.
113
370997
1427
dans le milieu des soins de la santé.
06:25
This is the PAROParo babybébé sealjoint robotrobot.
114
373535
1810
PARO est un robot bébé phoque.
06:27
It's used in nursingsoins infirmiers homesmaisons
and with dementiadémence patientsles patients.
115
375369
3285
Il est utilisé dans des maisons
pour patients atteints de démence.
Ça fait déjà un certain temps.
06:30
It's been around for a while.
116
378678
1570
06:32
And I rememberrappelles toi, yearsannées agodepuis,
beingétant at a partyfête
117
380272
3325
Je me souviens d'une soirée,
il y a des années,
06:35
and tellingrécit someoneQuelqu'un about this robotrobot,
118
383621
2571
où j'avais parlé de ce robot à quelqu'un.
06:38
and her responseréponse was,
119
386216
2126
Et cette personne avait réagi ainsi :
06:40
"Oh my goshça alors.
120
388366
1262
« Oh mon dieu !
06:42
That's horriblehorrible.
121
390508
1188
C'est horrible.
06:45
I can't believe we're givingdonnant people
robotsdes robots insteadau lieu of humanHumain carese soucier."
122
393056
3397
Je ne peux pas croire qu'on donne aux gens
des robots à la place d'attention. »
06:50
And this is a really commoncommun responseréponse,
123
398540
1875
C'était une réaction habituelle
06:52
and I think it's absolutelyabsolument correctcorrect,
124
400439
2499
et qui est correcte, je pense,
06:54
because that would be terribleterrible.
125
402962
2040
car en effet, ce serait terrible.
06:57
But in this caseCas,
it's not what this robotrobot replacesremplace.
126
405795
2484
Dans ce cas, le robot
ne remplace pas l'homme.
C'est de la thérapie animale
07:00
What this robotrobot replacesremplace is animalanimal therapythérapie
127
408858
3120
07:04
in contextscontextes where
we can't use realréal animalsanimaux
128
412002
3198
dans un contexte où on ne peut pas
utiliser des animaux.
Mais on peut utiliser des robots
07:07
but we can use robotsdes robots,
129
415224
1168
07:08
because people will consistentlyconstamment treattraiter
them more like an animalanimal than a devicedispositif.
130
416416
5230
car les gens vont les traiter davantage
comme un animal que comme un robot.
07:15
AcknowledgingReconnaissant this emotionalémotif
connectionconnexion to robotsdes robots
131
423502
2380
Reconnaître cette connexion
émotionnelle aux robots
peut aussi nous aider
à anticiper les défis
07:17
can alsoaussi help us anticipateanticiper challengesdéfis
132
425906
1969
07:19
as these devicesdispositifs movebouge toi into more intimateintime
areaszones of people'sles gens livesvies.
133
427899
3451
liés au fait que ces engins intègrent
les espaces intimes de nos vies.
07:24
For exampleExemple, is it OK
if your child'sde l’enfant teddynounours bearours robotrobot
134
432111
3404
Par exemple, serait-il acceptable
que le robot nounours de votre enfant
07:27
recordsEnregistrements privateprivé conversationsconversations?
135
435539
2237
enregistre des conversations privées ?
07:29
Is it OK if your sexsexe robotrobot
has compellingimpérieuses in-appdans l'appli purchasesachats?
136
437800
4063
Serait-il tolérable que votre robot sexuel
ait une fonction d'achat attractive ?
07:33
(LaughterRires)
137
441887
1396
(Rires)
07:35
Because robotsdes robots plusplus capitalismcapitalisme
138
443307
2501
Car robots plus capitalisme
07:37
equalséquivaut à questionsdes questions around
consumerconsommateur protectionprotection and privacyvie privée.
139
445832
3705
égalent les questions sur la protection
du consommateur et la vie privée.
07:42
And those aren'tne sont pas the only reasonsles raisons
140
450549
1612
Ce ne sont pas les seules raisons
07:44
that our behaviorcomportement around
these machinesmachines could mattermatière.
141
452185
2570
pour lesquelles nos comportements
avec ces engins sont importants.
07:48
A fewpeu yearsannées after that first
initialinitiale experienceexpérience I had
142
456747
3270
Quelques années
après ma première expérience
07:52
with this babybébé dinosaurdinosaure robotrobot,
143
460041
2311
avec le robot bébé dinosaure,
07:54
I did a workshopatelier
with my friendami HannesHannes GassertGassert.
144
462376
2501
j'ai organisé un atelier
avec mon ami Hannes Gassert.
07:56
And we tooka pris fivecinq
of these babybébé dinosaurdinosaure robotsdes robots
145
464901
2897
On a pris cinq robots bébés dinosaures
07:59
and we gavea donné them to fivecinq teamséquipes of people.
146
467822
2453
que l'on a remis à cinq équipes.
08:02
And we had them nameprénom them
147
470299
1697
Elles devaient leur donner un nom,
08:04
and playjouer with them and interactinteragir with them
for about an hourheure.
148
472020
3809
jouer avec et interagir avec eux
pendant une heure environ.
08:08
And then we unveileddévoilé
a hammermarteau and a hatchethache de guerre
149
476707
2206
Ensuite, on leur a remis
un marteau et une hache
08:10
and we told them to torturetorture
and killtuer the robotsdes robots.
150
478937
2278
et on leur a demandé
de torturer et tuer les robots.
08:13
(LaughterRires)
151
481239
3007
(Rires)
08:16
And this turnedtourné out to be
a little more dramaticdramatique
152
484857
2294
La situation est devenue
beaucoup plus tendue
que ce que nous avions pensé
08:19
than we expectedattendu it to be,
153
487175
1278
08:20
because noneaucun of the participantsparticipants
would even so much as strikegrève
154
488477
3072
car aucun participant
n'a voulu faire de mal
aux robots bébés dinosaures.
08:23
these babybébé dinosaurdinosaure robotsdes robots,
155
491573
1307
08:24
so we had to improviseimproviser a little,
and at some pointpoint, we said,
156
492904
5150
Du coup, on a dû improviser
et leur dire ceci :
08:30
"OK, you can saveenregistrer your team'séquipe robotrobot
if you destroydétruire anotherun autre team'séquipe robotrobot."
157
498078
4437
« D'accord. Vous pouvez sauver votre robot
si vous détruisez celui des autres. »
08:34
(LaughterRires)
158
502539
1855
(Rires)
08:36
And even that didn't work.
They couldn'tne pouvait pas do it.
159
504839
2195
Même ça, ça n'a pas marché.
Ils n'y arrivaient pas.
08:39
So finallyenfin, we said,
160
507058
1151
Alors on leur a dit :
08:40
"We're going to destroydétruire all of the robotsdes robots
161
508233
2032
« On va détruire tous les robots
08:42
unlesssauf si someoneQuelqu'un takes
a hatchethache de guerre to one of them."
162
510289
2285
si personne n'en casse un à la hache. »
08:45
And this guy stooddebout up,
and he tooka pris the hatchethache de guerre,
163
513586
3579
Alors, un type s'est levé
et a pris la hache.
08:49
and the wholeentier roomchambre winceda fait la grimace
as he broughtapporté the hatchethache de guerre down
164
517189
2706
Toute l'assemblée a grimacé
quand il l'a abattue
08:51
on the robot'sdu robot neckcou,
165
519919
1780
sur le cou du robot.
08:53
and there was this half-jokingdemi-blague,
half-seriousdemi-grave momentmoment of silencesilence in the roomchambre
166
521723
6338
Un silence s'est installé dans la salle,
mi-sérieux, mi-plaisanterie,
09:00
for this fallendéchu robotrobot.
167
528085
1698
pour le robot tombé.
09:01
(LaughterRires)
168
529807
1406
(Rires)
09:03
So that was a really
interestingintéressant experienceexpérience.
169
531237
3694
C'était une expérience
vraiment intéressante.
09:06
Now, it wasn'tn'était pas a controlledcontrôlé
studyétude, obviouslyévidemment,
170
534955
2459
Ce n'était pas une expérience contrôlée
09:09
but it did leadconduire to some
laterplus tard researchrecherche that I did at MITMIT
171
537438
2850
mais elle a mené à des recherches
ultérieures au MIT
que j'ai conduites avec Palash Nandy
et Cynthia Breazeal.
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
09:14
where we had people come into the lablaboratoire
and smashSmash these HEXBUGsLes HEXBUGs
173
542564
3627
Nous invitions des gens dans le labo
pour écraser ces HEXBUGs
09:18
that movebouge toi around in a really
lifelikeréaliste way, like insectsinsectes.
174
546215
3087
qui se meuvent très réalistement,
comme des insectes.
09:21
So insteadau lieu of choosingchoisir something cutemignon
that people are drawntiré to,
175
549326
3134
Au lieu de choisir des objets mignons
qui attirent les gens,
09:24
we chosechoisi something more basicde base,
176
552484
2093
on a choisi quelque chose de plus basique.
09:26
and what we founda trouvé
was that high-empathyhaute-empathie people
177
554601
3480
Nous avons découvert que les gens
avec une grande empathie
09:30
would hesitatehésiter more to hitfrappé the HEXBUGSLes HEXBUGS.
178
558105
2143
hésitaient davantage
à frapper les HEXBUGs.
09:33
Now this is just a little studyétude,
179
561575
1564
C'est une petite étude
09:35
but it's partpartie of a largerplus grand bodycorps of researchrecherche
180
563163
2389
qui fait partie d'un grand
champ de recherches
09:37
that is startingdépart to indicateindiquer
that there maymai be a connectionconnexion
181
565576
2944
qui semble indiquer
qu'il pourrait y avoir un lien
09:40
betweenentre people'sles gens tendenciestendances for empathyempathie
182
568544
2373
entre les tendances
pour l'empathie des gens
09:42
and theirleur behaviorcomportement around robotsdes robots.
183
570941
1976
et leur comportement avec des robots.
09:45
But my questionquestion for the comingvenir eraère
of human-robothomme-robot interactioninteraction
184
573721
3627
Ma question cruciale pour l'ère prochaine
d'interactions hommes - robots
09:49
is not: "Do we empathizefaire preuve d’empathie with robotsdes robots?"
185
577372
3055
n'est pas : « Ressentons-nous
de l'empathie pour les robots ? »
09:53
It's: "Can robotsdes robots changechangement
people'sles gens empathyempathie?"
186
581211
2920
C'est : « Les robots peuvent-ils
changer l'empathie des gens ? »
09:57
Is there reasonraison to, for exampleExemple,
187
585489
2287
Y a-t-il une bonne raison
pour, par exemple,
09:59
preventprévenir your childenfant
from kickingcoups de pied a roboticrobotique dogchien,
188
587800
2333
empêcher votre enfant
de frapper un robot-chien,
10:03
not just out of respectle respect for propertypropriété,
189
591228
2914
non pas pour le respect des biens,
10:06
but because the childenfant mightpourrait be
more likelyprobable to kickdonner un coup a realréal dogchien?
190
594166
2953
mais parce que ça pourrait le rendre plus
susceptible de frapper un vrai chien ?
10:10
And again, it's not just kidsdes gamins.
191
598507
1883
À nouveau, il n'y a pas que les enfants.
10:13
This is the violentviolent videovidéo gamesJeux questionquestion,
but it's on a completelycomplètement newNouveau levelniveau
192
601564
4056
C'est le débat des jeux vidéo violents,
mais à un tout autre niveau,
10:17
because of this visceralviscérale physicalityla physicalité
that we respondrépondre more intenselyintensément to
193
605644
4760
à cause de cette réaction physique
et viscérale plus intense
10:22
than to imagesimages on a screenécran.
194
610428
1547
que celle ressentie
face à des images sur écran.
10:25
When we behavese comporter violentlyviolemment towardsvers robotsdes robots,
195
613674
2578
Si nous agissons avec violence
vis-à-vis des robots,
10:28
specificallyPlus précisément robotsdes robots
that are designedconçu to mimicimiter life,
196
616276
3120
des robots conçus pour imiter la vie,
10:31
is that a healthyen bonne santé outletsortie
for violentviolent behaviorcomportement
197
619420
3892
est-ce un exutoire sain
des comportements violents
10:35
or is that trainingentraînement our crueltycruauté musclesmuscles?
198
623336
2544
ou bien est-ce en train
de nourrir notre cruauté ?
10:39
We don't know ...
199
627511
1150
On ne sait pas.
10:42
But the answerrépondre to this questionquestion has
the potentialpotentiel to impactimpact humanHumain behaviorcomportement,
200
630622
3945
Toutefois la réponse peut influencer
les comportements humains,
10:46
it has the potentialpotentiel
to impactimpact socialsocial normsnormes,
201
634591
2768
elle peut influencer les normes sociales,
10:49
it has the potentialpotentiel to inspireinspirer rulesrègles
around what we can and can't do
202
637383
3849
elle peut inspirer des règles
sur ce qu'on peut et ne peut pas faire
10:53
with certaincertain robotsdes robots,
203
641256
1151
avec certains robots,
à l'instar des lois contre la cruauté
envers les animaux.
10:54
similarsimilaire to our animalanimal crueltycruauté lawslois.
204
642431
1848
10:57
Because even if robotsdes robots can't feel,
205
645228
2864
Même si les robots ne ressentent pas,
11:00
our behaviorcomportement towardsvers them
mightpourrait mattermatière for us.
206
648116
3080
notre comportement à leur égard
est important pour nous-mêmes.
11:04
And regardlessindépendamment of whetherqu'il s'agisse
we endfin up changingen changeant our rulesrègles,
207
652889
2855
Que nous changions ou pas
nos réglementations,
11:08
robotsdes robots mightpourrait be ablecapable to help us
come to a newNouveau understandingcompréhension of ourselvesnous-mêmes.
208
656926
3556
les robots pourraient nous offrir une
compréhension nouvelle de nous-mêmes.
11:14
MostPlupart of what I've learnedappris
over the pastpassé 10 yearsannées
209
662276
2316
Tout ce que j'ai appris
ces dix dernières années,
11:16
has not been about technologyLa technologie at all.
210
664616
2238
ne concerne pas la technologie.
11:18
It's been about humanHumain psychologypsychologie
211
666878
2503
Il s'agit de la psychologie de l'homme,
11:21
and empathyempathie and how we relaterapporter to othersautres.
212
669405
2603
de l'empathie et de la façon
dont nous nous lions avec autrui.
11:25
Because when a childenfant is kindgentil to a RoombaRoomba,
213
673524
2365
Car quand un enfant
est gentil avec Roomba,
11:29
when a soldiersoldat triesessais to saveenregistrer
a robotrobot on the battlefieldchamp de bataille,
214
677262
4015
qu'un soldat tente de sauver
un robot sur le champ de bataille
11:33
or when a groupgroupe of people refusesrefuse
to harmnuire a roboticrobotique babybébé dinosaurdinosaure,
215
681301
3638
ou qu'un groupe de personnes refuse
d'abîmer un robot bébé dinosaure,
11:38
those robotsdes robots aren'tne sont pas just motorsmoteurs
and gearsengrenages and algorithmsalgorithmes.
216
686248
3191
ces robots ne sont plus que des moteurs,
des engrenages et des algorithmes.
11:42
They're reflectionsréflexions of our ownposséder humanityhumanité.
217
690501
1905
Ils deviennent le reflet
de notre propre humanité.
11:45
Thank you.
218
693523
1151
Merci.
11:46
(ApplauseApplaudissements)
219
694698
3397
(Applaudissements)
Translated by Claire Ghyselen
Reviewed by Morgane Quilfen

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com