ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Por qué tenemos una conexión emocional con los robots

Filmed:
2,403,010 views

Estamos lejos de desarrollar robots que sientan emociones, pero ya tenemos sentimientos hacia ellos, dice la robotista Kate Darling, y un instinto como ese puede tener consecuencias. Conozca más sobre cómo estamos programados biológicamente para proyectar la intención y la vida en las máquinas, y cómo eso podría ayudarnos a entendernos mejor a nosotros mismos.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsaños agohace,
0
1047
2508
Un día, hace unos 10 años,
pedí a un amigo que sostuviera
un robot dinosaurio bebé boca abajo.
00:15
when I askedpreguntó a friendamigo to holdsostener
a babybebé dinosaurdinosaurio robotrobot upsideboca arriba down.
1
3579
3944
00:21
It was this toyjuguete calledllamado a PleoPleo
that I had orderedordenado,
2
9889
3446
Era el juguete llamado Pleo
que había encargado,
00:25
and I was really excitedemocionado about it
because I've always lovedamado robotsrobots.
3
13359
4401
y estaba muy emocionada
porque siempre me han gustado los robots.
Y este tiene características técnicas
realmente geniales.
00:29
And this one has really coolguay
technicaltécnico featurescaracteristicas.
4
17784
2279
00:32
It had motorsmotores and touchtoque sensorssensores
5
20087
2119
Tenía motores y sensores táctiles
00:34
and it had an infraredinfrarrojo cameracámara.
6
22230
2244
y una cámara infrarroja.
00:36
And one of the things it had
was a tiltinclinación sensorsensor,
7
24498
2763
Y también tenía un sensor de inclinación,
00:39
so it knewsabía what directiondirección it was facingfrente a.
8
27285
2318
por lo que sabía
en qué dirección estaba orientado.
00:42
And when you heldretenida it upsideboca arriba down,
9
30095
2134
Y cuando lo poníamos boca abajo,
00:44
it would startcomienzo to cryllorar.
10
32253
1572
empezaba a llorar.
00:46
And I thought this was supersúper coolguay,
so I was showingdemostración it off to my friendamigo,
11
34527
3496
Y pensé que esto era genial,
por eso se lo estaba mostrando a mi amigo,
00:50
and I said, "Oh, holdsostener it up by the tailcola.
See what it does."
12
38047
2805
y dije: "Levántalo por la cola.
Mira lo que hace".
00:55
So we're watchingacecho
the theatricsteatral of this robotrobot
13
43268
3625
Así que estamos viendo
la teatralidad de este robot.
00:58
strugglelucha and cryllorar out.
14
46917
2199
luchando y llorando.
01:02
And after a fewpocos secondssegundos,
15
50767
2047
Y después de unos segundos,
01:04
it startsempieza to bothermolestia me a little,
16
52838
1972
esto me empezó a agobiar un poco,
01:07
and I said, "OK, that's enoughsuficiente now.
17
55744
3424
y dije, "Es suficiente por ahora.
01:11
Let's put him back down."
18
59930
2305
Vamos a ponerlo de nuevo hacia abajo".
01:14
And then I petmascota the robotrobot
to make it stop cryingllorando.
19
62259
2555
Y luego acaricié el robot
para que dejara de llorar.
01:18
And that was kindtipo of
a weirdextraño experienceexperiencia for me.
20
66973
2452
Y esa fue una experiencia extraña para mí.
01:22
For one thing, I wasn'tno fue the mostmás
maternalmaterno personpersona at the time.
21
70084
4569
Por un lado, yo no era la persona
más maternal en ese momento.
01:26
AlthoughA pesar de que sinceya que then I've becomevolverse
a mothermadre, ninenueve monthsmeses agohace,
22
74677
2731
Aunque ahora desde hace
nueve meses, soy madre,
01:29
and I've learnedaprendido that babiescriaturas alsoademás squirmretorcerse
when you holdsostener them upsideboca arriba down.
23
77432
3433
y he aprendido que los bebés también
se retuercen al sostenerlos boca abajo.
01:32
(LaughterRisa)
24
80889
1563
(Risas)
Pero mi respuesta a este robot
también fue interesante.
01:35
But my responserespuesta to this robotrobot
was alsoademás interestinginteresante
25
83023
2358
01:37
because I knewsabía exactlyexactamente
how this machinemáquina workedtrabajó,
26
85405
4101
porque sabía exactamente
cómo funcionaba esta máquina,
01:41
and yettodavía I still feltsintió
compelledobligado to be kindtipo to it.
27
89530
3262
y aun así me sentía obligada
a ser amable con ella.
01:46
And that observationobservación sparkedchispeado a curiositycuriosidad
28
94450
2707
Y esa observación despertó una curiosidad
01:49
that I've spentgastado the pastpasado decadedécada pursuingperseguir.
29
97181
2832
a la que he dedicado la última década.
01:52
Why did I comfortcomodidad this robotrobot?
30
100911
1793
¿Por qué he de consolar a este robot?
01:56
And one of the things I discovereddescubierto
was that my treatmenttratamiento of this machinemáquina
31
104228
3579
Y una de las cosas que descubrí fue
que mi trato a esta máquina
01:59
was more than just an awkwardtorpe momentmomento
in my livingvivo roomhabitación,
32
107831
3701
era algo más que un momento incómodo
en mi sala de estar,
02:03
that in a worldmundo where we're increasinglycada vez más
integratingintegrando robotsrobots into our livesvive,
33
111556
5420
que en un mundo donde integramos
cada vez más robots en nuestras vidas,
02:09
an instinctinstinto like that
mightpodría actuallyactualmente have consequencesConsecuencias,
34
117000
3126
un instinto así podría
tener consecuencias,
02:13
because the first thing that I discovereddescubierto
is that it's not just me.
35
121452
3749
porque lo primero que descubrí
es que no soy solo yo.
02:19
In 2007, the WashingtonWashington PostEnviar
reportedreportado that the UnitedUnido StatesEstados militarymilitar
36
127249
4802
En 2007 el Washington Post informó
que los militares de EE. UU.
02:24
was testingpruebas this robotrobot
that defuseddesactivado landtierra minesminas.
37
132075
3230
estaban probando el robot
que desactivaba minas terrestres.
02:27
And the way it workedtrabajó
was it was shapedconformado like a stickpalo insectinsecto
38
135329
2912
Y funcionaba
con la forma de un insecto palo,
caminando sobre sus piernas
alrededor de un campo minado
02:30
and it would walkcaminar
around a minefieldcampo de minas on its legspiernas,
39
138265
2651
02:32
and everycada time it steppedcaminado on a minemía,
one of the legspiernas would blowsoplar up,
40
140940
3206
y cada vez que pisaba una mina,
una de las piernas explotaba,
02:36
and it would continuecontinuar on the other legspiernas
to blowsoplar up more minesminas.
41
144170
3057
y seguía sobre las restantes piernas
para hacer explotar más minas.
02:39
And the colonelcoronel who was in chargecargar
of this testingpruebas exerciseejercicio
42
147251
3786
Y el coronel a cargo
de este ejercicio de prueba
02:43
endstermina up callingvocación it off,
43
151061
2118
terminó suspendiendo,
02:45
because, he saysdice, it's too inhumaneinhumano
44
153203
2435
porque decía que era demasiado inhumano
02:47
to watch this damageddañado robotrobot
dragarrastrar itselfsí mismo alonga lo largo the minefieldcampo de minas.
45
155662
4516
ver a ese robot dañado
arrastrarse por el campo minado.
02:54
Now, what would causeporque
a hardenedcurtido militarymilitar officeroficial
46
162978
3897
Y ¿qué causaría que
un oficial militar endurecido
02:58
and someonealguien like myselfmí mismo
47
166899
2043
y alguien como yo
03:00
to have this responserespuesta to robotsrobots?
48
168966
1857
tuviéramos esa reacción a los robots?
Por supuesto, estamos preparados
por la ciencia ficción y la cultura pop
03:03
Well, of coursecurso, we're primedpreparado
by scienceciencia fictionficción and poppopular culturecultura
49
171537
3310
03:06
to really want to personifypersonificar these things,
50
174871
2579
a querer de verdad
personificar estas cosas,
03:09
but it goesva a little bitpoco deeperMás adentro than that.
51
177474
2789
pero esto es un poco más profundo que eso.
03:12
It turnsvueltas out that we're biologicallybiológicamente
hardwiredcableado to projectproyecto intentintención and life
52
180287
5309
Resulta que estamos
biológicamente programados
para proyectar intencionalidad y vida
03:17
ontosobre any movementmovimiento in our physicalfísico spaceespacio
that seemsparece autonomousautónomo to us.
53
185620
4766
a cualquier movimiento en nuestro
espacio físico que nos parezca autónomo.
Así que la gente tratará todo tipo
de robots como si estuvieran vivos.
03:23
So people will treattratar all sortstipo
of robotsrobots like they're aliveviva.
54
191214
3465
Estas unidades de eliminación
de bombas obtienen nombres.
03:26
These bomb-disposaleliminación de bomba unitsunidades get namesnombres.
55
194703
2683
03:29
They get medalsmedallas of honorhonor.
56
197410
1682
Obtienen medallas de honor.
03:31
They'veHan had funeralsfunerales for them
with gunpistola salutessaludos.
57
199116
2325
Les han homenajeado
con funerales con salvas.
Y la investigación muestra que lo hacemos
incluso con robots domésticos muy simples,
03:34
And researchinvestigación showsmuestra that we do this
even with very simplesencillo householdcasa robotsrobots,
58
202380
3833
03:38
like the RoombaRoomba vacuumvacío cleanerlimpiador.
59
206237
2135
como la aspiradora Roomba.
03:40
(LaughterRisa)
60
208396
1291
(Risas)
03:41
It's just a discdesct that roamsitinerancia
around your floorpiso to cleanlimpiar it,
61
209711
3089
Es solo un disco que vaga
por el piso para limpiarlo,
pero el hecho de que
se está moviendo de forma autónoma
03:44
but just the facthecho it's movingemocionante
around on its ownpropio
62
212824
2306
03:47
will causeporque people to namenombre the RoombaRoomba
63
215154
2167
hará que la gente le denomine el Roomba
03:49
and feel badmalo for the RoombaRoomba
when it getsse pone stuckatascado underdebajo the couchsofá.
64
217345
3182
y se sienta mal por el Roomba
cuando se atasca debajo del sofá.
03:52
(LaughterRisa)
65
220551
1865
(Risas)
03:54
And we can designdiseño robotsrobots
specificallyespecíficamente to evokeevocar this responserespuesta,
66
222440
3340
Y podemos diseñar concretamente robots
para evocar esta respuesta,
03:57
usingutilizando eyesojos and facescaras or movementsmovimientos
67
225804
3461
usando ojos y caras o movimientos.
04:01
that people automaticallyautomáticamente,
subconsciouslyde modo subconsciente associateasociar
68
229289
3259
para que la gente automáticamente
y subconscientemente lo asocie
04:04
with statesestados of mindmente.
69
232572
2020
con estados de ánimo.
Y hay todo un cuerpo de investigación
denominado interacción humano-robot
04:06
And there's an entiretodo bodycuerpo of researchinvestigación
calledllamado human-robothumano-robot interactionInteracción
70
234616
3293
que muestra realmente
lo bien que funciona esto.
04:09
that really showsmuestra how well this workstrabajos.
71
237933
1826
04:11
So for exampleejemplo, researchersinvestigadores
at StanfordStanford UniversityUniversidad foundencontró out
72
239783
3126
Por ejemplo, los investigadores de
la Universidad de Stanford descubrieron
04:14
that it makeshace people really uncomfortableincómodo
73
242933
2001
que la gente se siente realmente incómoda
04:16
when you askpedir them to touchtoque
a robot'srobot privateprivado partspartes.
74
244958
2472
cuando se les pide tocar
las partes íntimas de un robot.
04:19
(LaughterRisa)
75
247454
2120
(Risas)
A partir de esto y
a partir de muchos otros estudios,
04:21
So from this, but from manymuchos other studiesestudios,
76
249598
2023
04:23
we know, we know that people
respondresponder to the cuesseñales givendado to them
77
251645
4223
sabemos que las personas responden
a las señales que reciben
04:27
by these lifelikenatural machinesmáquinas,
78
255892
2022
a través de estas máquinas realistas,
04:29
even if they know that they're not realreal.
79
257938
2017
incluso sabiendo que no son reales.
04:33
Now, we're headedcon membrete towardshacia a worldmundo
where robotsrobots are everywhereen todos lados.
80
261654
4056
Nos dirigimos hacia un mundo
donde los robots estarán en todas partes.
La robótica se está moviendo
desde detrás de las paredes de la fábrica.
04:37
RoboticRobótico technologytecnología is movingemocionante out
from behinddetrás factoryfábrica wallsmuros.
81
265734
3065
04:40
It's enteringentrando workplaceslugares de trabajo, householdshogares.
82
268823
3013
Está entrando a
los lugares de trabajo, a los hogares.
04:43
And as these machinesmáquinas that can sensesentido
and make autonomousautónomo decisionsdecisiones and learnaprender
83
271860
6209
Y como esas máquinas pueden percibir
y tomar decisiones autónomas y aprender,
04:50
enterentrar into these sharedcompartido spacesespacios,
84
278093
2552
entran en estos espacios compartidos.
04:52
I think that maybe the bestmejor
analogyanalogía we have for this
85
280669
2496
Creo que tal vez la mejor analogía
que tenemos para esto
04:55
is our relationshiprelación with animalsanimales.
86
283189
1935
es nuestra relación con los animales.
04:57
ThousandsMiles de personas of yearsaños agohace,
we startedempezado to domesticatedomesticar animalsanimales,
87
285523
3888
Hace miles de años
comenzamos a domesticar animales,
05:01
and we trainedentrenado them for work
and weaponryarmas and companionshipcompañerismo.
88
289435
4045
y los entrenamos para el trabajo,
la guerra y la compañía.
05:05
And throughouten todo historyhistoria, we'venosotros tenemos treatedtratado
some animalsanimales like toolsherramientas or like productsproductos,
89
293504
4985
Y a lo largo de la historia
hemos tratado a algunos animales
como herramientas o productos similares.
05:10
and other animalsanimales,
we'venosotros tenemos treatedtratado with kindnessamabilidad
90
298513
2174
y a otros animales
los hemos tratado con amabilidad.
05:12
and we'venosotros tenemos givendado a placelugar in societysociedad
as our companionscompañeros.
91
300711
3078
Y les hemos dado un lugar en la sociedad
como nuestros compañeros.
05:15
I think it's plausibleplausible we mightpodría startcomienzo
to integrateintegrar robotsrobots in similarsimilar waysformas.
92
303813
3849
Creo entonces plausible comenzar
a integrar robots de manera similar.
05:21
And sure, animalsanimales are aliveviva.
93
309484
3096
Y claro, los animales están vivos.
05:24
RobotsRobots are not.
94
312604
1150
Los robots no.
05:27
And I can tell you,
from workingtrabajando with roboticistsroboticists,
95
315626
2580
Y les puedo decir,
por mi trabajo en robótica.
05:30
that we're prettybonita farlejos away from developingdesarrollando
robotsrobots that can feel anything.
96
318230
3522
que estamos bastante lejos de
desarrollar robots que puedan sentir.
05:35
But we feel for them,
97
323072
1460
Pero sentimos por ellos,
05:37
and that mattersasuntos,
98
325835
1207
y eso importa,
05:39
because if we're tryingmolesto to integrateintegrar
robotsrobots into these sharedcompartido spacesespacios,
99
327066
3627
Porque si intentamos integrar
robots en estos espacios compartidos,
hay que entender que
05:42
we need to understandentender that people will
treattratar them differentlydiferentemente than other devicesdispositivos,
100
330717
4628
las personas los tratarán
de manera diferente a otros dispositivos,
05:47
and that in some casescasos,
101
335369
1844
y que, en algunos casos,
05:49
for exampleejemplo, the casecaso of a soldiersoldado
who becomesse convierte emotionallyemocionalmente attachedadjunto
102
337237
3172
por ejemplo, el caso de un soldado
que se une emocionalmente
05:52
to the robotrobot that they work with,
103
340433
2047
al robot con el que trabaja,
05:54
that can be anything
from inefficientineficiente to dangerouspeligroso.
104
342504
2504
puede ser desde ineficiente
hasta peligroso.
Pero en otros casos,
en realidad, puede ser útil
05:58
But in other casescasos,
it can actuallyactualmente be usefulútil
105
346551
2138
06:00
to fosterfomentar this emotionalemocional
connectionconexión to robotsrobots.
106
348713
2623
fomentar esta conexión
emocional con los robots.
Ya estamos viendo
algunos buenos casos de uso,
06:04
We're alreadyya seeingviendo some great use casescasos,
107
352184
2134
06:06
for exampleejemplo, robotsrobots workingtrabajando
with autisticautista childrenniños
108
354342
2604
Por ejemplo, robots
que trabajan con niños autistas.
06:08
to engagecontratar them in waysformas
that we haven'tno tiene seenvisto previouslypreviamente,
109
356970
3634
para involucrarlos en formas
que no se han visto antes o
06:12
or robotsrobots workingtrabajando with teachersprofesores to engagecontratar
kidsniños in learningaprendizaje with newnuevo resultsresultados.
110
360628
4000
robots que trabajan con maestros
para involucrar a los niños
en el aprendizaje con nuevos resultados.
06:17
And it's not just for kidsniños.
111
365433
1381
Y no solo para niños.
06:19
EarlyTemprano studiesestudios showespectáculo that robotsrobots
can help doctorsdoctores and patientspacientes
112
367750
3223
Los primeros estudios muestran que
los robots pueden ayudar
a médicos y pacientes
en entornos sanitarios.
06:22
in healthsalud carecuidado settingsajustes.
113
370997
1427
06:25
This is the PAROPARO babybebé sealsello robotrobot.
114
373535
1810
Este es el robot de foca bebé PARO.
Se utilizan en hogares de ancianos
y con pacientes con demencia
06:27
It's used in nursingenfermería homeshogares
and with dementiademencia patientspacientes.
115
375369
3285
y ya se aplican hace algún tiempo.
06:30
It's been around for a while.
116
378678
1570
06:32
And I rememberrecuerda, yearsaños agohace,
beingsiendo at a partyfiesta
117
380272
3325
Y recuerdo, hace años estar en una fiesta
06:35
and tellingnarración someonealguien about this robotrobot,
118
383621
2571
contándole a alguien sobre este robot,
06:38
and her responserespuesta was,
119
386216
2126
y su respuesta fue,
06:40
"Oh my goshDios mío.
120
388366
1262
"Oh Dios mío.
06:42
That's horriblehorrible.
121
390508
1188
Esto es horrible.
06:45
I can't believe we're givingdando people
robotsrobots insteaden lugar of humanhumano carecuidado."
122
393056
3397
No puedo creer estar dando a las personas
robots en vez de cuidado humano".
06:50
And this is a really commoncomún responserespuesta,
123
398540
1875
Y esta es una respuesta muy común,
06:52
and I think it's absolutelyabsolutamente correctcorrecto,
124
400439
2499
y creo que es absolutamente correcto,
06:54
because that would be terribleterrible.
125
402962
2040
porque eso sería terrible.
06:57
But in this casecaso,
it's not what this robotrobot replacesreemplaza.
126
405795
2484
Pero en este caso,
no es lo que reemplaza este robot.
07:00
What this robotrobot replacesreemplaza is animalanimal therapyterapia
127
408858
3120
Lo que este robot reemplaza
es la terapia animal.
07:04
in contextscontextos where
we can't use realreal animalsanimales
128
412002
3198
En contextos donde
no podemos usar animales reales,
podemos usar robots,
porque la gente
07:07
but we can use robotsrobots,
129
415224
1168
07:08
because people will consistentlyconsecuentemente treattratar
them more like an animalanimal than a devicedispositivo.
130
416416
5230
los tratará de forma más parecida
a un animal que a un dispositivo.
Reconocer esta conexión
emocional con los robots
07:15
AcknowledgingReconociendo this emotionalemocional
connectionconexión to robotsrobots
131
423502
2380
también nos puede ayudar
a anticipar desafíos, porque
07:17
can alsoademás help us anticipateprever challengesdesafíos
132
425906
1969
07:19
as these devicesdispositivos movemovimiento into more intimateíntimo
areasáreas of people'sla gente livesvive.
133
427899
3451
estos dispositivos se mueven hacia áreas
más íntimas de la vida de las personas.
07:24
For exampleejemplo, is it OK
if your child'sniño teddyosito de peluche bearoso robotrobot
134
432111
3404
Por ejemplo, ¿está bien
si el robot de oso de peluche de su hijo
07:27
recordsarchivos privateprivado conversationsconversaciones?
135
435539
2237
graba conversaciones privadas?
07:29
Is it OK if your sexsexo robotrobot
has compellingirresistible in-appen la aplicación purchasescompras?
136
437800
4063
¿Está bien si su robot sexual tiene
compras atractivas dentro de la app?
07:33
(LaughterRisa)
137
441887
1396
(Risas)
07:35
Because robotsrobots plusmás capitalismcapitalismo
138
443307
2501
Porque los robots
más capitalismo es igual a
07:37
equalsigual questionspreguntas around
consumerconsumidor protectionproteccion and privacyintimidad.
139
445832
3705
preguntas sobre la protección
del consumidor y la privacidad.
Y esas no son las únicas razones para que
07:42
And those aren'tno son the only reasonsrazones
140
450549
1612
07:44
that our behaviorcomportamiento around
these machinesmáquinas could matterimportar.
141
452185
2570
nuestro comportamiento relacionado
con estas máquinas pueda ser relevante.
07:48
A fewpocos yearsaños after that first
initialinicial experienceexperiencia I had
142
456747
3270
Unos años antes de
esa primera experiencia inicial
07:52
with this babybebé dinosaurdinosaurio robotrobot,
143
460041
2311
con este robot dinosaurio bebé,
07:54
I did a workshoptaller
with my friendamigo HannesHannes GassertGassert.
144
462376
2501
hice un taller
con mi amigo Hannes Gassert.
07:56
And we tooktomó fivecinco
of these babybebé dinosaurdinosaurio robotsrobots
145
464901
2897
Y tomamos cinco
de estos robots bebé dinosaurio
07:59
and we gavedio them to fivecinco teamsequipos of people.
146
467822
2453
y se los dimos
a cinco equipos de personas.
08:02
And we had them namenombre them
147
470299
1697
Y les pedimos que los nombraran
08:04
and playjugar with them and interactinteractuar with them
for about an hourhora.
148
472020
3809
y jugaran e interactuaran con ellos
durante aproximadamente una hora.
08:08
And then we unveileddevelado
a hammermartillo and a hatchethacha
149
476707
2206
Y luego les dimos un martillo y un hacha
08:10
and we told them to torturetortura
and killmatar the robotsrobots.
150
478937
2278
y les dijimos que torturaran
y mataran a los robots.
08:13
(LaughterRisa)
151
481239
3007
(Risas)
08:16
And this turnedconvertido out to be
a little more dramaticdramático
152
484857
2294
Y esto resultó ser un poco más dramático.
08:19
than we expectedesperado it to be,
153
487175
1278
de lo que esperábamos,
08:20
because noneninguna of the participantsParticipantes
would even so much as strikeHuelga
154
488477
3072
porque ninguno de
los participantes lo hizo eso
a estos robots dinosaurios bebé,
08:23
these babybebé dinosaurdinosaurio robotsrobots,
155
491573
1307
08:24
so we had to improviseimprovisar a little,
and at some pointpunto, we said,
156
492904
5150
así que tuvimos que improvisar un poco,
y en un momento dijimos,
08:30
"OK, you can savesalvar your team'sequipo robotrobot
if you destroydestruir anotherotro team'sequipo robotrobot."
157
498078
4437
"Bien, pueden salvar el robot de su equipo
si destruyen el robot de otro equipo".
08:34
(LaughterRisa)
158
502539
1855
(Risas)
E incluso eso no funcionó.
No querían hacerlo.
08:36
And even that didn't work.
They couldn'tno pudo do it.
159
504839
2195
Así que finalmente, dijimos,
08:39
So finallyfinalmente, we said,
160
507058
1151
08:40
"We're going to destroydestruir all of the robotsrobots
161
508233
2032
"Vamos a destruir todos los robots
08:42
unlessa no ser que someonealguien takes
a hatchethacha to one of them."
162
510289
2285
a no ser que alguien destruya
con un hacha uno de ellos".
08:45
And this guy stooddestacado up,
and he tooktomó the hatchethacha,
163
513586
3579
Y un tipo se puso de pie
y tomó el hacha,
y toda la habitación se estremeció
cuando dio un hachazo
08:49
and the wholetodo roomhabitación wincedhecho trizas
as he broughttrajo the hatchethacha down
164
517189
2706
08:51
on the robot'srobot neckcuello,
165
519919
1780
en el cuello del robot,
y hubo un momento de silencio medio
jocoso, medio serio en la habitación
08:53
and there was this half-jokingmedio en broma,
half-seriousmedio-grave momentmomento of silencesilencio in the roomhabitación
166
521723
6338
09:00
for this fallencaído robotrobot.
167
528085
1698
por este robot muerto.
09:01
(LaughterRisa)
168
529807
1406
(Risas)
09:03
So that was a really
interestinginteresante experienceexperiencia.
169
531237
3694
Fue una experiencia realmente interesante.
09:06
Now, it wasn'tno fue a controlledrevisado
studyestudiar, obviouslyobviamente,
170
534955
2459
No era un estudio controlado, obviamente,
09:09
but it did leaddirigir to some
laterluego researchinvestigación that I did at MITMIT
171
537438
2850
pero condujo a una investigación
posterior que hice en el MIT
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
con Palash Nandy y Cynthia Breazeal,
09:14
where we had people come into the lablaboratorio
and smashaplastar these HEXBUGsHEXBUGs
173
542564
3627
donde hubo personas que vinieron al
laboratorio y aplastaron a estos HEXBUGs
09:18
that movemovimiento around in a really
lifelikenatural way, like insectsinsectos.
174
546215
3087
que se mueven de manera muy realista,
como los insectos.
09:21
So insteaden lugar of choosingElegir something cutelinda
that people are drawndibujado to,
175
549326
3134
Así que en lugar de elegir algo lindo
que atrae a la gente,
09:24
we choseElegir something more basicBASIC,
176
552484
2093
elegimos algo más básico.
09:26
and what we foundencontró
was that high-empathyalta empatía people
177
554601
3480
Y lo que descubrimos fue que
las personas de alta empatía
09:30
would hesitatevacilar more to hitgolpear the HEXBUGSHEXBUGS.
178
558105
2143
dudaban más en golpear a los HEXBUGS.
09:33
Now this is just a little studyestudiar,
179
561575
1564
Esto es solo un pequeño estudio,
09:35
but it's partparte of a largermás grande bodycuerpo of researchinvestigación
180
563163
2389
pero es parte de
un gran cuerpo de investigación.
09:37
that is startingcomenzando to indicateindicar
that there maymayo be a connectionconexión
181
565576
2944
Eso está empezando a indicar
que puede haber una conexión
09:40
betweenEntre people'sla gente tendenciestendencias for empathyempatía
182
568544
2373
entre las tendencias
de empatía de las personas
09:42
and theirsu behaviorcomportamiento around robotsrobots.
183
570941
1976
y su comportamiento en torno a los robots.
09:45
But my questionpregunta for the comingviniendo eraera
of human-robothumano-robot interactionInteracción
184
573721
3627
Pero mi pregunta para la era venidera
de la interacción humano-robot
09:49
is not: "Do we empathizeempatizarse with robotsrobots?"
185
577372
3055
no es: "¿Simpatizamos con los robots?",
sino: "¿Pueden los robots cambiar
la empatía de las personas?".
09:53
It's: "Can robotsrobots changecambio
people'sla gente empathyempatía?"
186
581211
2920
09:57
Is there reasonrazón to, for exampleejemplo,
187
585489
2287
¿Hay alguna razón para, por ejemplo,
09:59
preventevitar your childniño
from kickingpateando a roboticrobótico dogperro,
188
587800
2333
evitar que su hijo patee
a un perro robótico,
10:03
not just out of respectel respeto for propertypropiedad,
189
591228
2914
no solo por respeto a la propiedad,
sino porque
10:06
but because the childniño mightpodría be
more likelyprobable to kickpatada a realreal dogperro?
190
594166
2953
el niño podría ser más propenso
a patear a un perro de verdad?
10:10
And again, it's not just kidsniños.
191
598507
1883
Y de nuevo, no son solo niños.
Esta es la pregunta
sobre los videojuegos violentos,
10:13
This is the violentviolento videovídeo gamesjuegos questionpregunta,
but it's on a completelycompletamente newnuevo levelnivel
192
601564
4056
pero a un nivel completamente nuevo,
10:17
because of this visceralvisceral physicalityfisicalidad
that we respondresponder more intenselyintensamente to
193
605644
4760
debido a esta fisicalidad visceral
a la que respondemos más intensamente
10:22
than to imagesimágenes on a screenpantalla.
194
610428
1547
que a las imágenes en una pantalla.
10:25
When we behavecomportarse violentlyviolentamente towardshacia robotsrobots,
195
613674
2578
Cuando nos comportamos
violentamente hacia los robots,
10:28
specificallyespecíficamente robotsrobots
that are designeddiseñado to mimicimitar life,
196
616276
3120
concretamente robots diseñados
para imitar la vida,
10:31
is that a healthysaludable outletsalida
for violentviolento behaviorcomportamiento
197
619420
3892
¿es esta una salida saludable
para el comportamiento violento
10:35
or is that trainingformación our crueltycrueldad musclesmúsculos?
198
623336
2544
o significa entrenar
nuestros músculos para la crueldad?
10:39
We don't know ...
199
627511
1150
Nosotros no lo sabemos.
Sin embargo, la respuesta a esta pregunta
10:42
But the answerresponder to this questionpregunta has
the potentialpotencial to impactimpacto humanhumano behaviorcomportamiento,
200
630622
3945
tiene el potencial
de impactar el comportamiento humano,
10:46
it has the potentialpotencial
to impactimpacto socialsocial normsnormas,
201
634591
2768
tiene el potencial de impactar
normas sociales,
10:49
it has the potentialpotencial to inspireinspirar rulesreglas
around what we can and can't do
202
637383
3849
tiene el potencial de inspirar reglas
sobre lo que podemos
y no podemos hacer con ciertos robots,
10:53
with certaincierto robotsrobots,
203
641256
1151
10:54
similarsimilar to our animalanimal crueltycrueldad lawsleyes.
204
642431
1848
similar a nuestras leyes
de crueldad animal.
10:57
Because even if robotsrobots can't feel,
205
645228
2864
Porque incluso
si los robots no pueden sentir,
nuestro comportamiento hacia ellos
puede ser importante para nosotros.
11:00
our behaviorcomportamiento towardshacia them
mightpodría matterimportar for us.
206
648116
3080
11:04
And regardlessindependientemente of whethersi
we endfin up changingcambiando our rulesreglas,
207
652889
2855
Y sin importar si terminamos
cambiando nuestras reglas,
11:08
robotsrobots mightpodría be ablepoder to help us
come to a newnuevo understandingcomprensión of ourselvesNosotros mismos.
208
656926
3556
los robots podrían ayudarnos a llegar a
una nueva comprensión de nosotros mismos.
La mayor parte de lo que he aprendido
en los últimos 10 años,
11:14
MostMás of what I've learnedaprendido
over the pastpasado 10 yearsaños
209
662276
2316
11:16
has not been about technologytecnología at all.
210
664616
2238
no es tecnología en absoluto,
11:18
It's been about humanhumano psychologypsicología
211
666878
2503
sino psicología humana
11:21
and empathyempatía and how we relaterelacionar to othersotros.
212
669405
2603
empatía y cómo nos
relacionamos con los demás.
11:25
Because when a childniño is kindtipo to a RoombaRoomba,
213
673524
2365
Porque cuando un niño
es amable con un Roomba,
11:29
when a soldiersoldado triesintentos to savesalvar
a robotrobot on the battlefieldcampo de batalla,
214
677262
4015
cuando un soldado trata de salvar
a un robot en el campo de batalla,
11:33
or when a groupgrupo of people refusesse niega
to harmdaño a roboticrobótico babybebé dinosaurdinosaurio,
215
681301
3638
o cuando un grupo de personas se niega
a dañar a un bebé dinosaurio robótico,
11:38
those robotsrobots aren'tno son just motorsmotores
and gearsengranajes and algorithmsAlgoritmos.
216
686248
3191
esos robots no son solo motores,
engranajes y algoritmos,
11:42
They're reflectionsreflexiones of our ownpropio humanityhumanidad.
217
690501
1905
son reflejos de nuestra propia humanidad.
11:45
Thank you.
218
693523
1151
Gracias.
11:46
(ApplauseAplausos)
219
694698
3397
(Aplausos)
Translated by Lidia Cámara de la Fuente
Reviewed by Ciro Gomez

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com