ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Perché abbiamo una connessione emotiva con i robot

Filmed:
2,403,010 views

Siamo ben lontani dallo sviluppo di robot che provano emozioni, ma abbiamo già dei sentimenti nei loro confronti, dice l'esperta di robotica Kate Darling, e un istinto del genere può avere delle conseguenze. Scopri di più su come siamo biologicamente programmati per proiettare inteto e vita sulle macchine -- e come potrebbe aiutarci a capire meglio noi stessi.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsanni agofa,
0
1047
2508
Un giorno, circa 10 anni fa,
00:15
when I askedchiesto a friendamico to holdtenere
a babybambino dinosaurdinosauro robotrobot upsidesottosopra down.
1
3579
3944
ho chiesto a un amico di tenere
un cucciolo di dinosauro robot
a testa in giù.
00:21
It was this toygiocattolo calledchiamato a PleoPleo
that I had orderedordinato,
2
9889
3446
Era un giocattolo chiamato Pleo
che avevo ordinato,
00:25
and I was really excitedemozionato about it
because I've always lovedamato robotsrobot.
3
13359
4401
e ne ero davvero entusiasta
perché ho sempre amato i robot.
00:29
And this one has really coolfreddo
technicaltecnico featuresCaratteristiche.
4
17784
2279
E questo ha funzioni
davvero eccezionali.
00:32
It had motorsmotori and touchtoccare sensorssensori
5
20087
2119
Aveva dei motori, sensori tattili
00:34
and it had an infraredinfrarosso cameramacchina fotografica.
6
22230
2244
e una telecamera ad infrarossi.
00:36
And one of the things it had
was a tiltinclinazione sensorsensore,
7
24498
2763
Una delle cose che aveva
era un sensore di inclinazione,
00:39
so it knewconosceva what directiondirezione it was facingdi fronte.
8
27285
2318
quindi riconosceva la direzione
verso cui era rivolto.
00:42
And when you heldheld it upsidesottosopra down,
9
30095
2134
E quando lo tenevi
a testa in giù,
00:44
it would startinizio to crypiangere.
10
32253
1572
incominciava a piangere.
00:46
And I thought this was supersuper coolfreddo,
so I was showingmostrando it off to my friendamico,
11
34527
3496
Pensavo fosse eccezionale,
così l'ho mostrato ai miei amici,
00:50
and I said, "Oh, holdtenere it up by the tailcoda.
See what it does."
12
38047
2805
e ho detto, "Oh, tienilo per la coda.
Vedi cosa fa."
00:55
So we're watchingGuardando
the theatricsteatralità of this robotrobot
13
43268
3625
Così osserviamo
la teatralità di questo robot
00:58
strugglelotta and crypiangere out.
14
46917
2199
che si dimenava e piange.
01:02
And after a fewpochi secondssecondi,
15
50767
2047
E dopo pochi secondi,
01:04
it startsinizia to botherperdete tempo me a little,
16
52838
1972
comincia a infastidirmi,
01:07
and I said, "OK, that's enoughabbastanza now.
17
55744
3424
e ho detto, "OK, adesso basta.
01:11
Let's put him back down."
18
59930
2305
Rimettiamolo giù."
01:14
And then I petanimale domestico the robotrobot
to make it stop cryingpiangere.
19
62259
2555
Così accarezzo il robot
per farlo smettere di piangere.
01:18
And that was kindgenere of
a weirdstrano experienceEsperienza for me.
20
66973
2452
È stata un'esperienza
alquanto strana per me.
01:22
For one thing, I wasn'tnon era the mostmaggior parte
maternalmaterna personpersona at the time.
21
70084
4569
Per prima cosa, al tempo non ero
la persona più materna.
01:26
AlthoughAnche se sinceda then I've becomediventare
a mothermadre, ninenove monthsmesi agofa,
22
74677
2731
Benché da allora sono diventata mamma,
nove mesi fa,
01:29
and I've learnedimparato that babiesbambini alsoanche squirmSquirm
when you holdtenere them upsidesottosopra down.
23
77432
3433
e ho imparato che anche i bimbi si agitano
quando li tieni a testa in giù.
01:32
(LaughterRisate)
24
80889
1563
(Risate)
01:35
But my responserisposta to this robotrobot
was alsoanche interestinginteressante
25
83023
2358
Ma la mia reazione a questo robot
è stata interessante
01:37
because I knewconosceva exactlydi preciso
how this machinemacchina workedlavorato,
26
85405
4101
perché sapevo esattamente
come funzionava questa macchina,
01:41
and yetancora I still feltprovato
compelledcostretto to be kindgenere to it.
27
89530
3262
eppure mi sentivo costretta
a essere gentile.
01:46
And that observationosservazione sparkedscatenato a curiositycuriosità
28
94450
2707
E quell'osservazione
suscitò una curiosità
01:49
that I've spentspeso the pastpassato decadedecennio pursuingperseguendo.
29
97181
2832
che ho perseguito nell'ultimo decennio.
01:52
Why did I comfortcomfort this robotrobot?
30
100911
1793
Perché ho consolato questo robot?
01:56
And one of the things I discoveredscoperto
was that my treatmenttrattamento of this machinemacchina
31
104228
3579
Una delle cose che ho scoperto
è stato che il modo di trattare la macchina
01:59
was more than just an awkwardimbarazzante momentmomento
in my livingvita roomcamera,
32
107831
3701
era più che solo un momento imbarazzante
nel mio salotto,
02:03
that in a worldmondo where we're increasinglysempre più
integratingintegrazione robotsrobot into our livesvite,
33
111556
5420
che in un mondo dove stiamo sempre più
integrando i robot nelle nostre vite,
02:09
an instinctistinto like that
mightpotrebbe actuallyin realtà have consequencesconseguenze,
34
117000
3126
un istinto come quello in realtà
potrebbe avere conseguenze,
02:13
because the first thing that I discoveredscoperto
is that it's not just me.
35
121452
3749
perché la prima cosa che ho scoperto
è che non è capitato solo a me.
02:19
In 2007, the WashingtonWashington PostInserisci
reportedsegnalati that the UnitedUniti d'America StatesStati militarymilitare
36
127249
4802
Nel 2007, il Washington Post riportò
che l'esercito degli Stati Uniti
02:24
was testinganalisi this robotrobot
that defuseddisinnescato landsbarcare minesminiere.
37
132075
3230
stava testando un robot
che disinnescava le mine.
02:27
And the way it workedlavorato
was it was shapeda forma di like a stickbastone insectinsetto
38
135329
2912
Aveva la forma di un insetto stecco
02:30
and it would walkcamminare
around a minefieldcampo minato on its legsgambe,
39
138265
2651
e camminava per un campo minato
con le sue zampe,
02:32
and everyogni time it steppedfatto un passo on a mineil mio,
one of the legsgambe would blowsoffio up,
40
140940
3206
e ogni volta che calpestava una mina,
una delle zampe esplodeva,
02:36
and it would continueContinua on the other legsgambe
to blowsoffio up more minesminiere.
41
144170
3057
e continuava poi con le altre zampe
a far esplodere le altre mine.
02:39
And the colonelColonnello who was in chargecarica
of this testinganalisi exerciseesercizio
42
147251
3786
Il colonnello al comando
di questa esercitazione
02:43
endsestremità up callingchiamata it off,
43
151061
2118
alla fine si tirò indientro,
02:45
because, he saysdice, it's too inhumanedisumane
44
153203
2435
perché, disse, era inumano
02:47
to watch this damageddanneggiato robotrobot
dragtrascinare itselfsi alonglungo the minefieldcampo minato.
45
155662
4516
guardare quel robot danneggiato
trascinarsi lungo il campo minato.
02:54
Now, what would causecausa
a hardenedindurito militarymilitare officerufficiale
46
162978
3897
Ora, cosa porta
un ufficiale militare indurito
02:58
and someonequalcuno like myselfme stessa
47
166899
2043
e qualcuno come me
03:00
to have this responserisposta to robotsrobot?
48
168966
1857
ad avere questa reazione
di fronte ai robot?
03:03
Well, of coursecorso, we're primedinnescato
by sciencescienza fictionfinzione and poppop culturecultura
49
171537
3310
Certo, siamo stati preparati
dalla fantascienza e dalla cultura pop
03:06
to really want to personifypersonificare these things,
50
174871
2579
nel voler personificare queste cose,
03:09
but it goesva a little bitpo deeperpiù profondo than that.
51
177474
2789
ma va un po' più in profondità.
03:12
It turnsgiri out that we're biologicallybiologicamente
hardwiredHardwired to projectprogetto intentintento and life
52
180287
5309
Apparentemente siamo biologicamente
programmati per proiettare intento e vita
03:17
ontosu any movementmovimento in our physicalfisico spacespazio
that seemssembra autonomousautonomo to us.
53
185620
4766
su qualsiasi movimento
nel nostro spazio fisico
che ci sembra autonomo.
03:23
So people will treattrattare all sortstipi
of robotsrobot like they're alivevivo.
54
191214
3465
Quindi la gente tratterà tutti i tipi
di robot come se fossero vivi.
03:26
These bomb-disposaleliminazione di bomba unitsunità get namesnomi.
55
194703
2683
A queste unità di smaltimento di bombe
viene dato un nome.
03:29
They get medalsmedaglie of honoronore.
56
197410
1682
Ricevono medaglie d'onore.
03:31
They'veHanno had funeralsfunerali for them
with gunpistola salutessaluti.
57
199116
2325
Hanno avuto i funerali
con il saluto delle armi.
03:34
And researchricerca showsSpettacoli that we do this
even with very simplesemplice householddomestico robotsrobot,
58
202380
3833
E la ricerca dimostra che lo facciamo
anche con un semplice robot domestico,
03:38
like the RoombaRoomba vacuumvuoto cleaneraddetto alle pulizie.
59
206237
2135
come l'aspirapolvere Roomba.
03:40
(LaughterRisate)
60
208396
1291
(Risate)
03:41
It's just a discdisco that roamsvaga
around your floorpavimento to cleanpulito it,
61
209711
3089
È solo un disco che vaga
sul pavimento per pulirlo,
03:44
but just the factfatto it's movingin movimento
around on its ownproprio
62
212824
2306
ma solo il fatto che si muova
autonomamente
03:47
will causecausa people to namenome the RoombaRoomba
63
215154
2167
porterà la gente a chiamarlo Roomba
03:49
and feel badcattivo for the RoombaRoomba
when it getsprende stuckincollato undersotto the couchdivano.
64
217345
3182
e dispiacersi per Roomba
quando si incastra sotto il divano.
03:52
(LaughterRisate)
65
220551
1865
(Risate)
03:54
And we can designdesign robotsrobot
specificallyspecificamente to evokeevocare this responserisposta,
66
222440
3340
Possiamo progettare i robot
proprio per evocare questa reazione,
03:57
usingutilizzando eyesocchi and facesfacce or movementsmovimenti
67
225804
3461
usando gli occhi e i volti o i movimenti
04:01
that people automaticallyautomaticamente,
subconsciouslyinconsciamente associateassociare
68
229289
3259
che le persone automaticamente,
inconsciamente associano
04:04
with statesstati of mindmente.
69
232572
2020
con gli stati mentali.
04:06
And there's an entireintero bodycorpo of researchricerca
calledchiamato human-robotuomo-robot interactioninterazione
70
234616
3293
E c'è un intero campo di ricerca
chiamato interazione uomo-robot
04:09
that really showsSpettacoli how well this workslavori.
71
237933
1826
che dimostra quanto bene funzioni.
04:11
So for exampleesempio, researchersricercatori
at StanfordStanford UniversityUniversità foundtrovato out
72
239783
3126
Per esempio, i ricercatori
dell'università di Stanford hanno scoperto
04:14
that it makesfa people really uncomfortablescomodo
73
242933
2001
che le persone si imbarazzavano
04:16
when you askChiedere them to touchtoccare
a robot'sdi robot privateprivato partsparti.
74
244958
2472
quando viene chiesto loro di toccare
le parti intime di un robot.
04:19
(LaughterRisate)
75
247454
2120
(Risate)
04:21
So from this, but from manymolti other studiesstudi,
76
249598
2023
Quindi da questo
e da moltissimi altri studi,
04:23
we know, we know that people
respondrispondere to the cuesstecche givendato to them
77
251645
4223
sappiamo che le persone
reagiscono ai segnali dati
04:27
by these lifelikerealistici machinesmacchine,
78
255892
2022
da queste macchine realistiche
04:29
even if they know that they're not realvero.
79
257938
2017
anche se sanno che non sono reali.
04:33
Now, we're headedheaded towardsin direzione a worldmondo
where robotsrobot are everywhereovunque.
80
261654
4056
Andiamo verso un mondo
in cui i robot sono ovunque.
04:37
RoboticRobotica technologytecnologia is movingin movimento out
from behinddietro a factoryfabbrica wallsmuri.
81
265734
3065
La tecnologia robotica sta uscendo
da dietro le mura delle fabbriche.
04:40
It's enteringentrare workplacesluoghi di lavoro, householdsfamiglie.
82
268823
3013
Sta entrando nei luoghi di lavoro
e domestici.
04:43
And as these machinesmacchine that can sensesenso
and make autonomousautonomo decisionsdecisioni and learnimparare
83
271860
6209
Quando queste macchine che possono sentire,
prendere decisioni autonome e imparare
04:50
enteraccedere into these shareddiviso spacesspazi,
84
278093
2552
entrano in questi spazi condivisi,
04:52
I think that maybe the bestmigliore
analogyanalogia we have for this
85
280669
2496
penso che forse la migliore
analogia che abbiamo
04:55
is our relationshiprelazione with animalsanimali.
86
283189
1935
è la nostra relazione con gli animali.
04:57
ThousandsMigliaia of yearsanni agofa,
we startediniziato to domesticateaddomesticare animalsanimali,
87
285523
3888
Migliaia di anni fa, abbiamo iniziato
ad addomesticare gli animali,
05:01
and we trainedallenato them for work
and weaponryarmi and companionshipcompagnia.
88
289435
4045
e li abbiamo addestrati per il lavoro,
gli armamenti e per compagnia.
05:05
And throughoutper tutto historystoria, we'venoi abbiamo treatedtrattati
some animalsanimali like toolsutensili or like productsprodotti,
89
293504
4985
Nel corso della storia, abbiamo trattato
gli animali come strumenti o come prodotti,
05:10
and other animalsanimali,
we'venoi abbiamo treatedtrattati with kindnessgentilezza
90
298513
2174
e altri animali
li abbiamo trattati con gentilezza
05:12
and we'venoi abbiamo givendato a placeposto in societysocietà
as our companionscompagni.
91
300711
3078
e dato loro un posto nella società
come nostri compagni.
05:15
I think it's plausibleplausibile we mightpotrebbe startinizio
to integrateintegrare robotsrobot in similarsimile waysmodi.
92
303813
3849
Penso che sia plausibile iniziare
a integrare i robot allo stesso modo.
05:21
And sure, animalsanimali are alivevivo.
93
309484
3096
E certo, gli animali sono vivi.
05:24
RobotsRobot are not.
94
312604
1150
I Robot non lo sono.
05:27
And I can tell you,
from workinglavoro with roboticistsRobotica,
95
315626
2580
E posso dirvi,
lavorando con robottisti,
05:30
that we're prettybella farlontano away from developingin via di sviluppo
robotsrobot that can feel anything.
96
318230
3522
che siamo molto lontani dallo sviluppo
di robot che possono sentire qualcosa.
05:35
But we feel for them,
97
323072
1460
Noi sentiamo per loro
05:37
and that mattersquestioni,
98
325835
1207
ed è quello che conta,
05:39
because if we're tryingprovare to integrateintegrare
robotsrobot into these shareddiviso spacesspazi,
99
327066
3627
perché se stiamo cercando di integrare
i robot in questi spazi condivisi,
05:42
we need to understandcapire that people will
treattrattare them differentlydiversamente than other devicesdispositivi,
100
330717
4628
dobbiamo capire che la gente
li tratterà in modo diverso
rispetto ad altri dispositivi,
05:47
and that in some casescasi,
101
335369
1844
e che in alcuni casi,
05:49
for exampleesempio, the casecaso of a soldiersoldato
who becomesdiventa emotionallyemotivamente attachedallegato
102
337237
3172
per esempio, il caso di un soldato
che si affeziona
05:52
to the robotrobot that they work with,
103
340433
2047
al robot con con cui lavorava,
05:54
that can be anything
from inefficientinefficiente to dangerouspericoloso.
104
342504
2504
può essere qualsiasi cosa,
da inefficiente a pericoloso.
05:58
But in other casescasi,
it can actuallyin realtà be usefulutile
105
346551
2138
Ma in altri casi,
può effettivamente essere utile
06:00
to fosterfavorire this emotionalemotivo
connectionconnessione to robotsrobot.
106
348713
2623
favorire questa connessione emotiva
con i robot.
06:04
We're alreadygià seeingvedendo some great use casescasi,
107
352184
2134
Osserviamo già dei casi
di utilizzo eccezionali,
06:06
for exampleesempio, robotsrobot workinglavoro
with autisticautistico childrenbambini
108
354342
2604
ad esempio, i robot che lavorano
con bambini autistici
06:08
to engageimpegnare them in waysmodi
that we haven'tnon hanno seenvisto previouslyin precedenza,
109
356970
3634
per coinvolgerli in modi
che non abbiamo visto in precedenza,
06:12
or robotsrobot workinglavoro with teachersinsegnanti to engageimpegnare
kidsbambini in learningapprendimento with newnuovo resultsrisultati.
110
360628
4000
o robot che lavorano con gli insegnanti
per coinvolgere i bambini
nell'apprendimento.
06:17
And it's not just for kidsbambini.
111
365433
1381
E non solo per i bambini.
06:19
EarlyPresto studiesstudi showmostrare that robotsrobot
can help doctorsmedici and patientspazienti
112
367750
3223
I primi studi mostrano che i robot
possono aiutare dottori e pazienti
06:22
in healthSalute carecura settingsImpostazioni.
113
370997
1427
in ambito sanitario.
06:25
This is the PAROPARO babybambino sealfoca robotrobot.
114
373535
1810
Questo è il cucciolo di foca robot Paro.
06:27
It's used in nursingprofessione d'infermiera homesle case
and with dementiademenza patientspazienti.
115
375369
3285
È usato nelle case di cura
e con pazienti affetti da demenza.
06:30
It's been around for a while.
116
378678
1570
È in giro da un po'.
06:32
And I rememberricorda, yearsanni agofa,
beingessere at a partypartito
117
380272
3325
E ricordo, anni fa,
a una festa
06:35
and tellingraccontare someonequalcuno about this robotrobot,
118
383621
2571
raccontai a qualcuno di questo robot,
06:38
and her responserisposta was,
119
386216
2126
e la sua risposta fu:
06:40
"Oh my goshPerbacco.
120
388366
1262
"Oh mio Dio.
06:42
That's horribleorribile.
121
390508
1188
È orribile.
06:45
I can't believe we're givingdando people
robotsrobot insteadanziché of humanumano carecura."
122
393056
3397
Non posso credere che diamo dei robot
alle persone invece di cure umane."
06:50
And this is a really commonComune responserisposta,
123
398540
1875
Questa è una risposta molto comune,
06:52
and I think it's absolutelyassolutamente correctcorretta,
124
400439
2499
e penso che sia assolutamente corretta,
06:54
because that would be terribleterribile.
125
402962
2040
perché sarebbe terribile.
06:57
But in this casecaso,
it's not what this robotrobot replacessostituisce.
126
405795
2484
Ma in questo caso,
non è ciò che questo robot sostituisce.
07:00
What this robotrobot replacessostituisce is animalanimale therapyterapia
127
408858
3120
Ciò che questo robot sostituisce
è la terapia animale
07:04
in contextscontesti where
we can't use realvero animalsanimali
128
412002
3198
in contesti in cui
non possiamo usare animali veri
07:07
but we can use robotsrobot,
129
415224
1168
ma possiamo usare i robot,
07:08
because people will consistentlymodo coerente treattrattare
them more like an animalanimale than a devicedispositivo.
130
416416
5230
perché le persone li tratterebbero sempre
più come animali che come dispositivi.
07:15
AcknowledgingRiconoscendo this emotionalemotivo
connectionconnessione to robotsrobot
131
423502
2380
Riconoscere questa connessione emotiva
con i robot
07:17
can alsoanche help us anticipateanticipare challengessfide
132
425906
1969
può anche aiutarci
ad anticipare le sfide
07:19
as these devicesdispositivi movemossa into more intimateintimo
areasle zone of people'spersone di livesvite.
133
427899
3451
poiché questi dispositivi si spostano
nelle aree private della vita della gente.
07:24
For exampleesempio, is it OK
if your child'sdi bambino teddyorsacchiotto bearorso robotrobot
134
432111
3404
Ad esempio, va bene
se l'orsacchiotto robot di tuo figlio
07:27
recordsrecord privateprivato conversationsconversazioni?
135
435539
2237
registra le conversazioni private?
07:29
Is it OK if your sexsesso robotrobot
has compellingconvincente in-appin-app purchasesacquisti?
136
437800
4063
Va bene se il tuo sex robot
ha interessanti acquisti in-app?
07:33
(LaughterRisate)
137
441887
1396
(Risate)
07:35
Because robotsrobot pluspiù capitalismcapitalismo
138
443307
2501
Perché robot più capitalismo
07:37
equalsequivale questionsle domande around
consumerconsumatore protectionprotezione and privacysulla privacy.
139
445832
3705
equivale a domande sulla protezione
dei consumatori e sulla privacy.
07:42
And those aren'tnon sono the only reasonsmotivi
140
450549
1612
E non sono le uniche ragioni
07:44
that our behaviorcomportamento around
these machinesmacchine could matterimporta.
141
452185
2570
per cui nostro comportamento
con queste macchine.
potrebbe essere importante.
07:48
A fewpochi yearsanni after that first
initialiniziale experienceEsperienza I had
142
456747
3270
Qualche anno dopo
la mia prima esperienza
07:52
with this babybambino dinosaurdinosauro robotrobot,
143
460041
2311
con questo cucciolo di dinosauro robot,
07:54
I did a workshoplaboratorio
with my friendamico HannesHannes GassertGassert.
144
462376
2501
ho fatto un workshop
con la mia amica Hannes Gassert.
07:56
And we tookha preso fivecinque
of these babybambino dinosaurdinosauro robotsrobot
145
464901
2897
Abbiamo preso cinque
di questi piccoli dinosauri robot
07:59
and we gaveha dato them to fivecinque teamssquadre of people.
146
467822
2453
e li abbiamo dati
a cinque gruppi di persone.
08:02
And we had them namenome them
147
470299
1697
Abbiamo fatto dare loro un nome,
08:04
and playgiocare with them and interactinteragire with them
for about an hourora.
148
472020
3809
li abbiamo fatti giocare e interagire
con loro per circa un'ora.
08:08
And then we unveiledsvelato
a hammermartello and a hatchetascia di guerra
149
476707
2206
E poi abbiamo mostrato
un martello e un'accetta
08:10
and we told them to torturetortura
and killuccidere the robotsrobot.
150
478937
2278
e abbiamo detto loro di torturare
e uccidere i robot.
08:13
(LaughterRisate)
151
481239
3007
(Risate)
08:16
And this turnedtrasformato out to be
a little more dramaticdrammatico
152
484857
2294
Risultò essere
un po' più drammatico
08:19
than we expectedprevisto it to be,
153
487175
1278
di quanto ci aspettassimo,
08:20
because nonenessuna of the participantspartecipanti
would even so much as strikesciopero
154
488477
3072
perché nessuno dei partecipanti
avrebbe colpito
08:23
these babybambino dinosaurdinosauro robotsrobot,
155
491573
1307
questi cuccioli di dinosauro robot,
08:24
so we had to improviseimprovvisare a little,
and at some pointpunto, we said,
156
492904
5150
quindi abbiamo dovuto improvvisare un po',
e a un certo punto, abbiamo detto,
08:30
"OK, you can savesalvare your team'sdella squadra robotrobot
if you destroydistruggere anotherun altro team'sdella squadra robotrobot."
157
498078
4437
"Potete salvare il vostro robot,
se distruggete il robot
di un'altra squadra. "
08:34
(LaughterRisate)
158
502539
1855
(Risate)
08:36
And even that didn't work.
They couldn'tnon poteva do it.
159
504839
2195
E anche quello non ha funzionato.
Non riuscivano a farlo.
08:39
So finallyfinalmente, we said,
160
507058
1151
Alla fine, abbiamo detto,
08:40
"We're going to destroydistruggere all of the robotsrobot
161
508233
2032
"Distruggeremo tutti i robot
08:42
unlesssalvo che someonequalcuno takes
a hatchetascia di guerra to one of them."
162
510289
2285
a meno che qualcuno
non ne distrugga uno con l'accetta."
08:45
And this guy stoodsorgeva up,
and he tookha preso the hatchetascia di guerra,
163
513586
3579
E questo ragazzo si alzò,
prese l'accetta,
08:49
and the wholetotale roomcamera winceduna smorfia
as he broughtportato the hatchetascia di guerra down
164
517189
2706
e tutta la stanza sussultò
mentre calava l'accetta
08:51
on the robot'sdi robot neckcollo,
165
519919
1780
sul collo del robot,
08:53
and there was this half-jokingscherzoso,
half-serioussemiserio momentmomento of silencesilenzio in the roomcamera
166
521723
6338
calò nella stanza un silenzio
tra il serio e lo scherzoso
09:00
for this fallencaduto robotrobot.
167
528085
1698
per il robot ucciso.
09:01
(LaughterRisate)
168
529807
1406
(Risate)
09:03
So that was a really
interestinginteressante experienceEsperienza.
169
531237
3694
È stata davvero
un'esperienza interessante
09:06
Now, it wasn'tnon era a controlledcontrollata
studystudia, obviouslyovviamente,
170
534955
2459
Non era uno studio controllato,
ovviamente,
09:09
but it did leadcondurre to some
laterdopo researchricerca that I did at MITMIT
171
537438
2850
ma ha portato a successive ricerche
che ho condotto al MIT
09:12
with PalashPatriciello NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
con Palash Nandy e Cynthia Breazeal,
09:14
where we had people come into the lablaboratorio
and smashSmash these HEXBUGsHEXBUGs
173
542564
3627
dove abbiamo fatto distruggere
alla gente questi HEXBUG
09:18
that movemossa around in a really
lifelikerealistici way, like insectsinsetti.
174
546215
3087
che si muovono davvero
in modo realistico, come degli insetti.
09:21
So insteadanziché of choosingscegliendo something cutecarina
that people are drawndisegnato to,
175
549326
3134
Invece di scegliere qualcosa di carino
verso cui si è attratti,
09:24
we chosescelto something more basicdi base,
176
552484
2093
abbiamo scelto qualcosa di più basilare,
09:26
and what we foundtrovato
was that high-empathyalta-empatia people
177
554601
3480
e abbiamo scoperto che persone
con elevata empatia
09:30
would hesitateesitare more to hitcolpire the HEXBUGSHEXBUGS.
178
558105
2143
esitano di più a colpire gli HEXBUG.
09:33
Now this is just a little studystudia,
179
561575
1564
Questo è solo un piccolo studio,
09:35
but it's partparte of a largerpiù grandi bodycorpo of researchricerca
180
563163
2389
ma fa parte di una più ampia ricerca
09:37
that is startingdi partenza to indicateindicare
that there maypuò be a connectionconnessione
181
565576
2944
che sta iniziando a indicare
che potrebbe esserci una connessione
09:40
betweenfra people'spersone di tendenciestendenze for empathyempatia
182
568544
2373
tra le tendenze per l'empatia
09:42
and theirloro behaviorcomportamento around robotsrobot.
183
570941
1976
e il comportamento con i robot.
09:45
But my questiondomanda for the comingvenuta eraera
of human-robotuomo-robot interactioninterazione
184
573721
3627
Ma la mia domanda per la prossima era
di interazione uomo-robot
09:49
is not: "Do we empathizeentrare in empatia with robotsrobot?"
185
577372
3055
non è: "Siamo empatici
nei confronti dei robot?"
09:53
It's: "Can robotsrobot changemodificare
people'spersone di empathyempatia?"
186
581211
2920
È: "I robot possono cambiare
l'empatia delle persone?"
09:57
Is there reasonragionare to, for exampleesempio,
187
585489
2287
C'è un motivo, ad esempio,
09:59
preventimpedire your childbambino
from kickingcalci a roboticrobotica dogcane,
188
587800
2333
per impedire a tuo figlio
di prendere a calci un cane robot,
10:03
not just out of respectrispetto for propertyproprietà,
189
591228
2914
non solo per rispetto della proprietà.
10:06
but because the childbambino mightpotrebbe be
more likelyprobabile to kickcalcio a realvero dogcane?
190
594166
2953
ma perché il bambino ha più probabilità
di prendere a calci un vero cane?
10:10
And again, it's not just kidsbambini.
191
598507
1883
E non vale solo per i bambini.
10:13
This is the violentviolento videovideo gamesi giochi questiondomanda,
but it's on a completelycompletamente newnuovo levellivello
192
601564
4056
È la questione dei videogiochi violenti,
ma su un livello completamente nuovo
10:17
because of this visceralviscerale physicalityfisicità
that we respondrispondere more intenselyintensamente to
193
605644
4760
a causa di questa fisicità viscerale
per cui reagiamo più intensamente
10:22
than to imagesimmagini on a screenschermo.
194
610428
1547
che alle immagini su uno schermo.
10:25
When we behavecomportarsi violentlyviolentemente towardsin direzione robotsrobot,
195
613674
2578
Quando ci comportiamo
in modo violento con i robot,
10:28
specificallyspecificamente robotsrobot
that are designedprogettato to mimicimitare life,
196
616276
3120
in particolare con robot
che sono progettati per imitare la vita,
10:31
is that a healthysalutare outletpresa
for violentviolento behaviorcomportamento
197
619420
3892
può essere considerato uno sfogo sano
per un comportamento violento
10:35
or is that trainingformazione our crueltycrudeltà musclesmuscoli?
198
623336
2544
o è quello che allena la nostra crudeltà?
10:39
We don't know ...
199
627511
1150
Non sappiamo...
10:42
But the answerrisposta to this questiondomanda has
the potentialpotenziale to impacturto humanumano behaviorcomportamento,
200
630622
3945
Ma la risposta a questa domanda
ha la possibilità
di influenzare il comportamento umano,
10:46
it has the potentialpotenziale
to impacturto socialsociale normsnorme,
201
634591
2768
ha la possibilità di influire
sulle norme sociali,
10:49
it has the potentialpotenziale to inspireispirare rulesregole
around what we can and can't do
202
637383
3849
potrebbe ispirare le regole
su ciò che possiamo e non possiamo fare
10:53
with certaincerto robotsrobot,
203
641256
1151
con alcuni robot,
10:54
similarsimile to our animalanimale crueltycrudeltà lawslegislazione.
204
642431
1848
simile alle leggi
sulla crudeltà sugli animali.
10:57
Because even if robotsrobot can't feel,
205
645228
2864
Perché anche se i robot
non possono sentire,
11:00
our behaviorcomportamento towardsin direzione them
mightpotrebbe matterimporta for us.
206
648116
3080
il nostro comportamento
nei loro confronti
potrebbe essere importante per noi.
11:04
And regardlessindipendentemente of whetherse
we endfine up changingmutevole our rulesregole,
207
652889
2855
Indipendentemente dal fatto
che finiamo per cambiare le nostre regole,
11:08
robotsrobot mightpotrebbe be ablecapace to help us
come to a newnuovo understandingcomprensione of ourselvesnoi stessi.
208
656926
3556
i robot potrebbero aiutarci a raggiungere
una nuova consapevolezza di noi stessi.
11:14
MostMaggior parte of what I've learnedimparato
over the pastpassato 10 yearsanni
209
662276
2316
Gran parte delle cose
che ho imparato negli ultimi 10 anni
11:16
has not been about technologytecnologia at all.
210
664616
2238
non ha mai riguardato la tecnologia.
11:18
It's been about humanumano psychologyPsicologia
211
666878
2503
È psicologia umana
11:21
and empathyempatia and how we relateriferirsi to othersaltri.
212
669405
2603
è empatia e come
ci relazioniamo con gli altri.
11:25
Because when a childbambino is kindgenere to a RoombaRoomba,
213
673524
2365
Perché, quando un bambino
è gentile con un Roomba,
11:29
when a soldiersoldato triescerca to savesalvare
a robotrobot on the battlefieldcampo di battaglia,
214
677262
4015
quando un soldato cerca di salvare
un robot sul campo di battaglia,
11:33
or when a groupgruppo of people refusesrifiuta
to harmdanno a roboticrobotica babybambino dinosaurdinosauro,
215
681301
3638
o quando un gruppo di persone si rifiuta
di danneggiare un dinosauro robot,
11:38
those robotsrobot aren'tnon sono just motorsmotori
and gearsingranaggi and algorithmsalgoritmi.
216
686248
3191
quei robot non sono solo motori,
ingranaggi e algoritmi.
11:42
They're reflectionsriflessioni of our ownproprio humanityumanità.
217
690501
1905
Sono il riflesso
della nostra stessa umanità.
11:45
Thank you.
218
693523
1151
Grazie.
11:46
(ApplauseApplausi)
219
694698
3397
(Applausi)
Translated by Linda Cervellera
Reviewed by Anna Cristiana Minoli

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com