ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: ¿Qué decisiones morales deberían tomar los vehículos autónomos?

Filmed:
1,147,381 views

Si para salvarle a vida a cinco peatones tu vehículo autónomo tuviera que matarte a ti ¿debería hacerlo? En esta introducción a los dilemas sociales de los vehículos autónomos, Iyad Rahwan analiza cómo esta tecnología va a desafiar nuestra moralidad. Asimismo, Rahwan explica su trabajo de recolección de datos a través de encuestas con el público, acerca de los compromisos éticos que estamos dispuestos a hacer, o no.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayHoy I'm going to talk
about technologytecnología and societysociedad.
0
1000
4080
Hoy voy a hablar de tecnología
y de la sociedad.
00:19
The DepartmentDepartamento of TransportTransporte
estimatedestimado that last yearaño
1
7040
3696
El Departamento de Transporte
estimó que, el año pasado,
00:22
35,000 people diedmurió
from traffictráfico crasheschoques in the US alonesolo.
2
10760
4080
hubo 35 000 muertos
en accidentes de auto, tan solo en EE.UU.
00:28
WorldwideEn todo el mundo, 1.2 millionmillón people
diemorir everycada yearaño in traffictráfico accidentsaccidentes.
3
16040
4800
A nivel mundial, mueren 1,2 millones
de personas por año en accidentes de auto.
00:33
If there was a way we could eliminateeliminar
90 percentpor ciento of those accidentsaccidentes,
4
21760
4096
Si hubiera una manera de eliminar
el 90 % de esos accidentes,
00:37
would you supportapoyo it?
5
25880
1200
¿apoyarían la causa?
00:39
Of coursecurso you would.
6
27720
1296
Por supuesto que lo harían.
00:41
This is what driverlesssin conductor carcoche technologytecnología
promisespromesas to achievelograr
7
29040
3655
Esto es lo que promete
la tecnología de vehículos autónomos,
00:44
by eliminatingeliminando the mainprincipal
sourcefuente of accidentsaccidentes --
8
32720
2816
al eliminar la principal causa
de accidentes:
00:47
humanhumano errorerror.
9
35560
1200
el error humano.
00:49
Now pictureimagen yourselftú mismo
in a driverlesssin conductor carcoche in the yearaño 2030,
10
37920
5416
Imagínense en el año 2030,
viajando en un vehículo autónomo,
00:55
sittingsentado back and watchingacecho
this vintagevendimia TEDxCambridgeTEDxCambridge videovídeo.
11
43360
3456
sentados, mirando este video vintage
de un evento TEDxCambridge.
00:58
(LaughterRisa)
12
46840
2000
(Risas)
01:01
All of a suddenrepentino,
13
49520
1216
De pronto,
01:02
the carcoche experiencesexperiencias mechanicalmecánico failurefracaso
and is unableincapaz to stop.
14
50760
3280
el auto tiene una falla mecánica
y no puede detenerse.
01:07
If the carcoche continuescontinúa,
15
55360
1520
Si el auto continúa,
01:09
it will crashchoque into a bunchmanojo
of pedestrianspeatones crossingcruce the streetcalle,
16
57720
4120
va a atropellar a un grupo
de peatones que cruza la calle.
01:15
but the carcoche maymayo swerveviraje,
17
63080
2135
Pero el auto puede cambiar de dirección,
01:17
hittinggolpeando one bystanderespectador,
18
65239
1857
atropellar a un solo transeúnte,
01:19
killingasesinato them to savesalvar the pedestrianspeatones.
19
67120
2080
matarlo, y así salvar a los peatones.
01:22
What should the carcoche do,
and who should decidedecidir?
20
70040
2600
¿Qué debería hacer el auto,
y quién debería decidir?
01:25
What if insteaden lugar the carcoche
could swerveviraje into a wallpared,
21
73520
3536
¿Y si en cambio el auto
pudiera irse contra una pared,
01:29
crashingestrellarse and killingasesinato you, the passengerpasajero,
22
77080
3296
chocar y matarte a ti, el pasajero,
01:32
in orderorden to savesalvar those pedestrianspeatones?
23
80400
2320
para salvar a los peatones?
01:35
This scenarioguión is inspiredinspirado
by the trolleycarretilla problemproblema,
24
83240
3080
Este caso hipotético está inspirado
en el dilema del tranvía,
01:38
whichcual was inventedinventado
by philosophersfilósofos a fewpocos decadesdécadas agohace
25
86960
3776
que fue inventado por unos filósofos
hace unas décadas
01:42
to think about ethicsética.
26
90760
1240
para reflexionar sobre la ética.
01:46
Now, the way we think
about this problemproblema mattersasuntos.
27
94120
2496
Es importante saber
cómo pensamos en este problema.
01:48
We maymayo for exampleejemplo
not think about it at all.
28
96640
2616
Podríamos, por ejemplo,
no pensar en esto en absoluto.
01:51
We maymayo say this scenarioguión is unrealisticpoco realista,
29
99280
3376
Podríamos decir que la situación
es poco realista,
01:54
incrediblyincreíblemente unlikelyimprobable, or just sillytonto.
30
102680
2320
remotamente probable,
o simplemente absurda.
01:57
But I think this criticismcrítica
missesfallas the pointpunto
31
105760
2736
Pero para mí esta crítica
pierde de vista el problema,
02:00
because it takes
the scenarioguión too literallyliteralmente.
32
108520
2160
porque se toma la situación
muy al pie de la letra.
02:03
Of coursecurso no accidentaccidente
is going to look like this;
33
111920
2736
Por supuesto que ningún accidente
es exactamente así;
02:06
no accidentaccidente has two or threeTres optionsopciones
34
114680
3336
ningún accidente tiene dos o tres opciones
02:10
where everybodytodos diesmuere somehowde algun modo.
35
118040
2000
donde de una forma u otra muere alguien.
02:13
InsteadEn lugar, the carcoche is going
to calculatecalcular something
36
121480
2576
Lo que va a ocurrir,
es que el auto va a calcular algo,
02:16
like the probabilityprobabilidad of hittinggolpeando
a certaincierto groupgrupo of people,
37
124080
4896
como la probabilidad de atropellar
a un determinado grupo de personas
02:21
if you swerveviraje one directiondirección
versusversus anotherotro directiondirección,
38
129000
3336
si toma una dirección u otra.
02:24
you mightpodría slightlyligeramente increaseincrementar the riskriesgo
to passengerspasajeros or other driversconductores
39
132360
3456
Se podría aumentar levemente el riesgo
de los pasajeros y conductores,
02:27
versusversus pedestrianspeatones.
40
135840
1536
en favor de los peatones.
02:29
It's going to be
a more complexcomplejo calculationcálculo,
41
137400
2160
Va a ser un cálculo más complejo,
02:32
but it's still going
to involveinvolucrar trade-offscompensaciones,
42
140480
2520
pero aun así va a implicar
hacer concesiones,
02:35
and trade-offscompensaciones oftena menudo requireexigir ethicsética.
43
143840
2880
y las concesiones normalmente
requieren una ética.
02:39
We mightpodría say then,
"Well, let's not worrypreocupación about this.
44
147840
2736
Podríamos decir: "Bueno,
no nos preocupemos por esto.
02:42
Let's wait untilhasta technologytecnología
is fullycompletamente readyListo and 100 percentpor ciento safeseguro."
45
150600
4640
Esperemos a que la tecnología esté
totalmente preparada y sea 100 % segura".
02:48
SupposeSuponer that we can indeeden efecto
eliminateeliminar 90 percentpor ciento of those accidentsaccidentes,
46
156520
3680
Supongamos que efectivamente podemos
eliminar el 90 % de esos accidentes,
02:53
or even 99 percentpor ciento in the nextsiguiente 10 yearsaños.
47
161080
2840
o incluso el 99 % en los próximos 10 años.
02:56
What if eliminatingeliminando
the last one percentpor ciento of accidentsaccidentes
48
164920
3176
¿Qué pasaría si eliminar el 1 %
de los accidentes restante
03:00
requiresrequiere 50 more yearsaños of researchinvestigación?
49
168120
3120
llevara 50 años más de investigación?
03:04
Should we not adoptadoptar the technologytecnología?
50
172400
1800
¿No deberíamos adoptar la tecnología?
03:06
That's 60 millionmillón people
deadmuerto in carcoche accidentsaccidentes
51
174720
4776
Estaríamos hablando de 60 millones
de muertos en accidentes de auto
03:11
if we maintainmantener the currentcorriente ratetarifa.
52
179520
1760
si seguimos al ritmo al que vamos.
03:14
So the pointpunto is,
53
182760
1216
Quiere decir que,
03:16
waitingesperando for fullcompleto safetyla seguridad is alsoademás a choiceelección,
54
184000
3616
esperar a tener seguridad total
también es una elección
03:19
and it alsoademás involvesinvolucra trade-offscompensaciones.
55
187640
2160
y también implica hacer concesiones.
03:23
People onlineen línea on socialsocial mediamedios de comunicación
have been comingviniendo up with all sortstipo of waysformas
56
191560
4336
En línea, en las redes sociales, la gente
ha estado proponiendo todo tipo de ideas
03:27
to not think about this problemproblema.
57
195920
2016
para no pensar en este problema.
03:29
One personpersona suggestedsugirió
the carcoche should just swerveviraje somehowde algun modo
58
197960
3216
Una persona sugirió que el auto
debería zigzaguear de alguna forma
03:33
in betweenEntre the passengerspasajeros --
59
201200
2136
entre los peatones...
03:35
(LaughterRisa)
60
203360
1016
(Risas)
03:36
and the bystanderespectador.
61
204400
1256
y el transeúnte.
03:37
Of coursecurso if that's what the carcoche can do,
that's what the carcoche should do.
62
205680
3360
Por supuesto que, si el auto fuera capaz
de hacer eso, debería hacerlo.
03:41
We're interestedinteresado in scenariosescenarios
in whichcual this is not possibleposible.
63
209920
2840
Pero nos interesan las situaciones
donde esto no es posible.
03:45
And my personalpersonal favoritefavorito
was a suggestionsugerencia by a bloggerblogger
64
213280
5416
Mi favorita fue la idea de un bloguero
03:50
to have an ejectexpulsar buttonbotón in the carcoche
that you pressprensa --
65
218720
3016
que propuso un botón de "eyectarse"
que se presiona justo antes...
03:53
(LaughterRisa)
66
221760
1216
(Risas)
03:55
just before the carcoche self-destructsse autodestruye.
67
223000
1667
de que el auto se autodestruya.
03:56
(LaughterRisa)
68
224691
1680
(Risas)
03:59
So if we acknowledgereconocer that carscarros
will have to make trade-offscompensaciones on the roadla carretera,
69
227840
5200
Entonces, si aceptamos que los autos
van a tener que hacer concesiones,
04:06
how do we think about those trade-offscompensaciones,
70
234200
1880
¿cómo pensamos en esas concesiones,
04:09
and how do we decidedecidir?
71
237320
1576
y cómo decidimos cuáles son?
04:10
Well, maybe we should runcorrer a surveyencuesta
to find out what societysociedad wants,
72
238920
3136
Tal vez deberíamos hacer una encuesta
y ver qué quiere la sociedad,
04:14
because ultimatelypor último,
73
242080
1456
porque en última instancia,
04:15
regulationsregulaciones and the lawley
are a reflectionreflexión of societalsocietal valuesvalores.
74
243560
3960
las regulaciones y las leyes
son el reflejo de los valores sociales.
04:20
So this is what we did.
75
248040
1240
Y fue lo que hicimos.
04:21
With my collaboratorscolaboradores,
76
249880
1616
Con mis colaboradores,
04:23
Jean-FranJean-Françoisois BonnefonBonnefon and AzimAzim ShariffShariff,
77
251520
2336
Jean-François Bonnefon y Azim Shariff,
04:25
we rancorrió a surveyencuesta
78
253880
1616
hicimos una encuesta
04:27
in whichcual we presentedpresentado people
with these typestipos of scenariosescenarios.
79
255520
2855
en la que le propusimos a la gente
este tipo de situaciones.
04:30
We gavedio them two optionsopciones
inspiredinspirado by two philosophersfilósofos:
80
258399
3777
Les dimos dos opciones
inspiradas en dos filósofos:
04:34
JeremyJeremy BenthamBentham and ImmanuelImmanuel KantKant.
81
262200
2640
Jeremy Bentham e Immanuel Kant.
04:37
BenthamBentham saysdice the carcoche
should followseguir utilitarianutilitario ethicsética:
82
265600
3096
Bentham dice que el auto
debería seguir la ética del utilitarismo:
04:40
it should take the actionacción
that will minimizeminimizar totaltotal harmdaño --
83
268720
3416
debería tomar la acción
que minimice el daño total,
04:44
even if that actionacción will killmatar a bystanderespectador
84
272160
2816
aun si esto implica matar a un transeúnte,
04:47
and even if that actionacción
will killmatar the passengerpasajero.
85
275000
2440
y aun si esto implica matar al pasajero.
04:50
ImmanuelImmanuel KantKant saysdice the carcoche
should followseguir duty-boundderecho consolidado principlesprincipios,
86
278120
4976
Immanuel Kant dice que el auto
debería seguir la ética del deber,
04:55
like "Thou shaltShalt not killmatar."
87
283120
1560
tal como "No matarás".
04:57
So you should not take an actionacción
that explicitlyexplícitamente harmsdaños a humanhumano beingsiendo,
88
285480
4456
O sea que no deberías tomar ninguna acción
que implique hacerle daño a un ser humano,
05:01
and you should let the carcoche take its coursecurso
89
289960
2456
y deberías dejar que el auto siga su curso
05:04
even if that's going to harmdaño more people.
90
292440
1960
aun si eso resulta en más heridos.
05:07
What do you think?
91
295640
1200
¿Uds. qué piensan?
05:09
BenthamBentham or KantKant?
92
297360
1520
¿Bentham o Kant?
05:11
Here'sAquí está what we foundencontró.
93
299760
1256
El resultado fue este:
05:13
MostMás people sidedde lado with BenthamBentham.
94
301040
1800
la mayoría optó por Bentham.
05:16
So it seemsparece that people
want carscarros to be utilitarianutilitario,
95
304160
3776
Así que parece que la gente quiere
que los autos sean utilitarios,
05:19
minimizeminimizar totaltotal harmdaño,
96
307960
1416
minimizar el daño total,
05:21
and that's what we should all do.
97
309400
1576
y eso es lo que deberíamos hacer.
05:23
ProblemProblema solvedresuelto.
98
311000
1200
Problema solucionado.
05:25
But there is a little catchcaptura.
99
313240
1480
Pero hay una pequeña trampa.
05:27
When we askedpreguntó people
whethersi they would purchasecompra suchtal carscarros,
100
315920
3736
Cuando le preguntamos a la gente
si comprarían estos autos,
05:31
they said, "AbsolutelyAbsolutamente not."
101
319680
1616
la respuesta fue un "No" rotundo.
05:33
(LaughterRisa)
102
321320
2296
(Risas)
05:35
They would like to buycomprar carscarros
that protectproteger them at all costscostos,
103
323640
3896
Les gustaría comprar un auto
que los proteja a ellos a toda costa,
05:39
but they want everybodytodos elsemás
to buycomprar carscarros that minimizeminimizar harmdaño.
104
327560
3616
pero quieren que los demás compren autos
que minimicen el daño.
05:43
(LaughterRisa)
105
331200
2520
(Risas)
05:46
We'veNosotros tenemos seenvisto this problemproblema before.
106
334720
1856
Ya conocemos este tipo de problema.
05:48
It's calledllamado a socialsocial dilemmadilema.
107
336600
1560
Es un dilema social.
05:51
And to understandentender the socialsocial dilemmadilema,
108
339160
1816
Y para entender el dilema social,
05:53
we have to go a little bitpoco
back in historyhistoria.
109
341000
2040
hay que retroceder
un poco en la historia.
05:56
In the 1800s,
110
344000
2576
En el 1800,
05:58
EnglishInglés economisteconomista WilliamGuillermo ForsterForster LloydLloyd
publishedpublicado a pamphletfolleto
111
346600
3736
el economista inglés William Forster Lloyd
publicó un folleto
06:02
whichcual describesdescribe the followingsiguiendo scenarioguión.
112
350360
2216
que describe la siguiente situación.
06:04
You have a groupgrupo of farmersagricultores --
113
352600
1656
Hay un grupo de pastores,
06:06
EnglishInglés farmersagricultores --
114
354280
1336
pastores ingleses,
06:07
who are sharingcompartiendo a commoncomún landtierra
for theirsu sheepoveja to grazepacer.
115
355640
2680
que comparten un prado común
donde pastan sus ovejas.
06:11
Now, if eachcada farmeragricultor
bringstrae a certaincierto numbernúmero of sheepoveja --
116
359520
2576
Si cada pastor
trae una cierta cantidad de ovejas,
06:14
let's say threeTres sheepoveja --
117
362120
1496
digamos tres ovejas,
06:15
the landtierra will be rejuvenatedrejuvenecido,
118
363640
2096
el suelo se recupera bien,
06:17
the farmersagricultores are happycontento,
119
365760
1216
los pastores contentos,
06:19
the sheepoveja are happycontento,
120
367000
1616
las ovejas contentas,
06:20
everything is good.
121
368640
1200
todo va bien.
06:22
Now, if one farmeragricultor bringstrae one extraextra sheepoveja,
122
370440
2520
Ahora, si uno de los pastores
trae una oveja extra,
06:25
that farmeragricultor will do slightlyligeramente better,
and no one elsemás will be harmeddañado.
123
373800
4720
ese pastor va a estar un poquito mejor,
y nadie más va a salir perjudicado.
06:31
But if everycada farmeragricultor madehecho
that individuallyindividualmente rationalracional decisiondecisión,
124
379160
3640
Pero si cada pastor tomara esa decisión
individualmente racional,
06:35
the landtierra will be overruninvadir,
and it will be depletedagotado
125
383840
2720
el prado se vería sobreexplotado
y el pasto se agotaría,
06:39
to the detrimentdetrimento of all the farmersagricultores,
126
387360
2176
en detrimento de todos los pastores,
06:41
and of coursecurso,
to the detrimentdetrimento of the sheepoveja.
127
389560
2120
y por supuesto,
en detrimento de las ovejas.
06:44
We see this problemproblema in manymuchos placeslugares:
128
392720
3680
Es un problema que se ve mucho:
06:49
in the difficultydificultad of managinggerente overfishingsobrepesca,
129
397080
3176
en la dificultad de
controlar la sobrepesca,
06:52
or in reducingreduciendo carboncarbón emissionsemisiones
to mitigatemitigar climateclima changecambio.
130
400280
4560
o al reducir las emisiones de carbono
para contrarrestar el cambio climático.
06:59
When it comesproviene to the regulationregulación
of driverlesssin conductor carscarros,
131
407160
2920
Volviendo al tema de la regulación
de vehículos autónomos,
07:03
the commoncomún landtierra now
is basicallybásicamente publicpúblico safetyla seguridad --
132
411080
4336
el prado común vendría a ser
básicamente la seguridad pública;
07:07
that's the commoncomún good --
133
415440
1240
ese es el bien común.
07:09
and the farmersagricultores are the passengerspasajeros
134
417400
1976
Y los pastores serían los pasajeros
07:11
or the carcoche ownerspropietarios who are choosingElegir
to ridepaseo in those carscarros.
135
419400
3600
o los dueños de los autos que
eligen viajar en esos vehículos.
07:16
And by makingfabricación the individuallyindividualmente
rationalracional choiceelección
136
424960
2616
Y al tomar la decisión
individualmente racional
07:19
of prioritizingpriorizando theirsu ownpropio safetyla seguridad,
137
427600
2816
de priorizar su propia seguridad,
07:22
they maymayo collectivelycolectivamente be
diminishingmenguante the commoncomún good,
138
430440
3136
podrían estar disminuyendo
colectivamente el bien común,
07:25
whichcual is minimizingminimizando totaltotal harmdaño.
139
433600
2200
que es minimizar el daño total.
07:30
It's calledllamado the tragedytragedia of the commonslos comunes,
140
438320
2136
Esto se llama "tragedia de los comunes",
07:32
traditionallytradicionalmente,
141
440480
1296
tradicionalmente,
07:33
but I think in the casecaso
of driverlesssin conductor carscarros,
142
441800
3096
pero creo que en el caso
de los vehículos autónomos,
07:36
the problemproblema maymayo be
a little bitpoco more insidiousinsidioso
143
444920
2856
el problema es tal vez
un poquito más traicionero
07:39
because there is not necessarilynecesariamente
an individualindividual humanhumano beingsiendo
144
447800
3496
porque no es necesariamente
un ser humano
07:43
makingfabricación those decisionsdecisiones.
145
451320
1696
el que toma las decisiones.
07:45
So carcoche manufacturersfabricantes
maymayo simplysimplemente programprograma carscarros
146
453040
3296
Entonces, los fabricantes podrían
simplemente programar los autos
07:48
that will maximizemaximizar safetyla seguridad
for theirsu clientsclientela,
147
456360
2520
para maximizar la seguridad
de sus clientes.
07:52
and those carscarros maymayo learnaprender
automaticallyautomáticamente on theirsu ownpropio
148
460080
2976
Y esos autos podrían aprender,
automáticamente y por su cuenta,
07:55
that doing so requiresrequiere slightlyligeramente
increasingcreciente riskriesgo for pedestrianspeatones.
149
463080
3520
que hacer eso requiere aumentar
levemente el riesgo de los peatones.
07:59
So to use the sheepoveja metaphormetáfora,
150
467520
1416
O sea que, volviendo a las ovejas:
08:00
it's like we now have electriceléctrico sheepoveja
that have a mindmente of theirsu ownpropio.
151
468960
3616
es como si ahora tuviéramos
ovejas eléctricas que piensan solas.
08:04
(LaughterRisa)
152
472600
1456
(Risas)
08:06
And they maymayo go and grazepacer
even if the farmeragricultor doesn't know it.
153
474080
3080
Y pueden irse a pastar solas
aunque el pastor no lo sepa.
08:10
So this is what we maymayo call
the tragedytragedia of the algorithmicalgorítmico commonslos comunes,
154
478640
3976
O sea que a esto podríamos llamarlo
"la tragedia de los comunes algorítmicos",
08:14
and if offersofertas newnuevo typestipos of challengesdesafíos.
155
482640
2360
y nos presenta nuevos desafíos.
08:22
TypicallyTípicamente, traditionallytradicionalmente,
156
490520
1896
Típicamente, tradicionalmente,
08:24
we solveresolver these typestipos
of socialsocial dilemmasdilemas usingutilizando regulationregulación,
157
492440
3336
este tipo de dilemas sociales
se resuelven implementando regulación.
08:27
so eitherya sea governmentsgobiernos
or communitiescomunidades get togetherjuntos,
158
495800
2736
Ya sea el gobierno
o la comunidad, se juntan
08:30
and they decidedecidir collectivelycolectivamente
what kindtipo of outcomeSalir they want
159
498560
3736
y deciden colectivamente
qué resultado quieren obtener,
08:34
and what sortordenar of constraintsrestricciones
on individualindividual behaviorcomportamiento
160
502320
2656
y qué tipo de restricciones
a la conducta individual
08:37
they need to implementimplementar.
161
505000
1200
necesitan implementar.
08:39
And then usingutilizando monitoringsupervisión and enforcementaplicación,
162
507600
2616
Y luego, a través del control
y la imposición de normas,
08:42
they can make sure
that the publicpúblico good is preservedPreservado.
163
510240
2559
pueden garantizar
la preservación del bien común.
08:45
So why don't we just,
164
513440
1575
Entonces ¿por qué no exigimos,
08:47
as regulatorsreguladores,
165
515039
1496
en nuestro rol de reguladores,
que todos los autos
tienen que minimizar el daño?
08:48
requireexigir that all carscarros minimizeminimizar harmdaño?
166
516559
2897
08:51
After all, this is
what people say they want.
167
519480
2240
A fin de cuentas, eso es
lo que la gente dice que quiere.
08:55
And more importantlyen tono rimbombante,
168
523200
1416
Y más importante aún,
08:56
I can be sure that as an individualindividual,
169
524640
3096
puedo estar seguro de que, como individuo,
08:59
if I buycomprar a carcoche that maymayo
sacrificesacrificio me in a very rareraro casecaso,
170
527760
3856
si compro un auto que en un caso
muy extremo podría llegar a sacrificarme,
09:03
I'm not the only suckerventosa doing that
171
531640
1656
no soy el único papanatas haciéndolo
09:05
while everybodytodos elsemás
enjoysdisfruta unconditionalincondicional protectionproteccion.
172
533320
2680
mientras todos los demás
gozan de protección ilimitada.
09:09
In our surveyencuesta, we did askpedir people
whethersi they would supportapoyo regulationregulación
173
537120
3336
En nuestra encuesta indagamos
acerca de la idea de la regulación,
09:12
and here'saquí está what we foundencontró.
174
540480
1200
y el resultado fue este:
09:14
First of all, people
said no to regulationregulación;
175
542360
3760
Primero, la gente dijo
"no" a la regulación;
09:19
and secondsegundo, they said,
176
547280
1256
y segundo:
09:20
"Well if you regulateregular carscarros to do this
and to minimizeminimizar totaltotal harmdaño,
177
548560
3936
"Bueno, si van a regular los autos
para actuar así y minimizar el daño total,
09:24
I will not buycomprar those carscarros."
178
552520
1480
yo no los voy a comprar".
09:27
So ironicallyirónicamente,
179
555400
1376
Entonces, irónicamente,
09:28
by regulatingregulando carscarros to minimizeminimizar harmdaño,
180
556800
3496
al regular los autos
para minimizar el daño,
09:32
we maymayo actuallyactualmente endfin up with more harmdaño
181
560320
1840
podríamos acabar con más daño
09:35
because people maymayo not
optoptar into the safermás seguro technologytecnología
182
563040
3656
porque la gente no adoptaría
esta nueva tecnología
09:38
even if it's much safermás seguro
than humanhumano driversconductores.
183
566720
2080
aun cuando es mucho más segura
que los conductores humanos.
09:42
I don't have the finalfinal
answerresponder to this riddleenigma,
184
570360
3416
No tengo la respuesta final
a este acertijo,
09:45
but I think as a startingcomenzando pointpunto,
185
573800
1576
pero creo que, para empezar,
09:47
we need societysociedad to come togetherjuntos
186
575400
3296
necesitamos que la sociedad
se ponga de acuerdo
09:50
to decidedecidir what trade-offscompensaciones
we are comfortablecómodo with
187
578720
2760
sobre las concesiones
que está dispuesta a aceptar,
09:54
and to come up with waysformas
in whichcual we can enforcehacer cumplir those trade-offscompensaciones.
188
582360
3480
y las posibles maneras
de imponer esas concesiones.
09:58
As a startingcomenzando pointpunto,
my brilliantbrillante studentsestudiantes,
189
586520
2536
Como punto de partida,
mis brillantes alumnos,
10:01
EdmondEdmond AwadAwad and SohanSohan DsouzaDsouza,
190
589080
2456
Edmond Awad y Sohan Dsouza,
10:03
builtconstruido the MoralMoral MachineMáquina websitesitio web,
191
591560
1800
construyeron el sitio web Moral Machine,
10:06
whichcual generatesgenera randomaleatorio scenariosescenarios at you --
192
594200
2680
que genera y presenta
situaciones hipotéticas al azar;
10:10
basicallybásicamente a bunchmanojo
of randomaleatorio dilemmasdilemas in a sequencesecuencia
193
598080
2456
es básicamente una secuencia
aleatoria de dilemas
10:12
where you have to chooseescoger what
the carcoche should do in a givendado scenarioguión.
194
600560
3920
donde tienes que elegir
qué debería hacer el auto en cada caso.
10:17
And we varyvariar the agessiglos and even
the speciesespecies of the differentdiferente victimsvíctimas.
195
605040
4600
Y variamos las edades y hasta las especies
de las distintas víctimas.
10:23
So farlejos we'venosotros tenemos collectedrecogido
over fivecinco millionmillón decisionsdecisiones
196
611040
3696
Hasta ahora hemos recolectado
más de 5 millones de decisiones,
10:26
by over one millionmillón people worldwideen todo el mundo
197
614760
2200
de más de un millón de personas
en todo el mundo
10:30
from the websitesitio web.
198
618400
1200
a través del sitio web.
10:32
And this is helpingración us
formformar an earlytemprano pictureimagen
199
620360
2416
Esto nos está ayudando
a pintar un panorama inicial
10:34
of what trade-offscompensaciones
people are comfortablecómodo with
200
622800
2616
de las concesiones
que la gente está dispuesta a hacer
10:37
and what mattersasuntos to them --
201
625440
1896
y de qué es lo que les importa,
10:39
even acrossa través de culturesculturas.
202
627360
1440
incluso en distintas culturas.
10:42
But more importantlyen tono rimbombante,
203
630240
1496
Pero, lo que es más importante,
10:43
doing this exerciseejercicio
is helpingración people recognizereconocer
204
631760
3376
este ejercicio está ayudando
a la gente a comprender
10:47
the difficultydificultad of makingfabricación those choiceselecciones
205
635160
2816
lo difícil que es tomar esas decisiones,
10:50
and that the regulatorsreguladores
are taskedtarea with impossibleimposible choiceselecciones.
206
638000
3800
y que los organismos reguladores
se enfrentan con decisiones imposibles.
10:55
And maybe this will help us as a societysociedad
understandentender the kindsclases of trade-offscompensaciones
207
643360
3576
Y tal vez esto nos ayude, como sociedad,
a entender el tipo de concesiones
10:58
that will be implementedimplementado
ultimatelypor último in regulationregulación.
208
646960
3056
que se van a implementar,
en última instancia, como normativa.
11:02
And indeeden efecto, I was very happycontento to hearoír
209
650040
1736
Me alegré mucho cuando me enteré
11:03
that the first setconjunto of regulationsregulaciones
210
651800
2016
de que el primer conjunto de regulaciones
11:05
that camevino from
the DepartmentDepartamento of TransportTransporte --
211
653840
2136
que publicó el Departamento de Transporte
11:08
announcedAnunciado last weeksemana --
212
656000
1376
la semana pasada
11:09
includedincluido a 15-point-punto checklistlista de control
for all carmakersfabricantes de automóviles to provideproporcionar,
213
657400
6576
incluye una lista de 15 ítems
que deben presentar los fabricantes,
11:16
and numbernúmero 14 was ethicalético considerationconsideración --
214
664000
3256
y el número 14
es "consideraciones éticas";
11:19
how are you going to dealacuerdo with that.
215
667280
1720
cómo van a manejar ese tema.
11:23
We alsoademás have people
reflectreflejar on theirsu ownpropio decisionsdecisiones
216
671800
2656
En el sitio, la gente también
puede reflexionar sobre sus decisiones
11:26
by givingdando them summariesresúmenes
of what they choseElegir.
217
674480
3000
al recibir un resumen
de las opciones que eligieron.
11:30
I'll give you one exampleejemplo --
218
678440
1656
Les voy a dar un ejemplo.
11:32
I'm just going to warnadvertir you
that this is not your typicaltípico exampleejemplo,
219
680120
3536
Les advierto que no es un ejemplo típico;
11:35
your typicaltípico userusuario.
220
683680
1376
no es un usuario típico.
11:37
This is the mostmás sacrificedsacrificado and the mostmás
savedsalvado characterpersonaje for this personpersona.
221
685080
3616
Estos son los individuos que esta persona
más salvó y más sacrificó.
11:40
(LaughterRisa)
222
688720
5200
(Risas)
11:46
Some of you maymayo agreede acuerdo with him,
223
694680
1896
Algunos de Uds. estarán de acuerdo con él,
11:48
or her, we don't know.
224
696600
1640
o ella, no sabemos.
11:52
But this personpersona alsoademás seemsparece to slightlyligeramente
preferpreferir passengerspasajeros over pedestrianspeatones
225
700480
6136
Esta persona también parece inclinarse
más a favor del pasajero que del peatón,
11:58
in theirsu choiceselecciones
226
706640
2096
según las opciones que escogió,
12:00
and is very happycontento to punishcastigar jaywalkingjaywalking.
227
708760
2816
y no tiene problema
en castigar al peatón imprudente.
12:03
(LaughterRisa)
228
711600
3040
(Risas)
12:09
So let's wrapenvolver up.
229
717320
1216
Entonces, redondeando.
12:10
We startedempezado with the questionpregunta --
let's call it the ethicalético dilemmadilema --
230
718559
3416
Empezamos con la pregunta,
llamémosle dilema ético,
12:14
of what the carcoche should do
in a specificespecífico scenarioguión:
231
722000
3056
de qué debería hacer el auto
en una situación específica:
12:17
swerveviraje or staypermanecer?
232
725080
1200
¿cambiar de dirección o seguir?
12:19
But then we realizeddio cuenta
that the problemproblema was a differentdiferente one.
233
727240
2736
Pero luego nos dimos cuenta
de que el problema es otro.
12:22
It was the problemproblema of how to get
societysociedad to agreede acuerdo on and enforcehacer cumplir
234
730000
4536
El problema es que la sociedad
se ponga de acuerdo
sobre qué concesiones le son aceptables
y cómo imponerlas.
12:26
the trade-offscompensaciones they're comfortablecómodo with.
235
734560
1936
12:28
It's a socialsocial dilemmadilema.
236
736520
1256
Es un dilema social.
12:29
In the 1940s, IsaacIsaac AsimovAsimov
wroteescribió his famousfamoso lawsleyes of roboticsrobótica --
237
737800
5016
En 1940, Isaac Asimov escribió
sus famosas leyes de la robótica;
12:34
the threeTres lawsleyes of roboticsrobótica.
238
742840
1320
las tres leyes de la robótica.
12:37
A robotrobot maymayo not harmdaño a humanhumano beingsiendo,
239
745240
2456
Un robot no hará daño al ser humano,
12:39
a robotrobot maymayo not disobeydesobedecer a humanhumano beingsiendo,
240
747720
2536
un robot debe obedecer al ser humano,
12:42
and a robotrobot maymayo not allowpermitir
itselfsí mismo to come to harmdaño --
241
750280
3256
y un robot debe preservarse a sí mismo.
12:45
in this orderorden of importanceimportancia.
242
753560
1960
En ese orden de importancia.
12:48
But after 40 yearsaños or so
243
756360
2136
Pero después de 40 años más o menos,
12:50
and after so manymuchos storiescuentos
pushingemprendedor these lawsleyes to the limitlímite,
244
758520
3736
y después de tantas historias
que llevaron estas leyes al límite,
12:54
AsimovAsimov introducedintroducido the zerothzeroth lawley
245
762280
3696
Asimov introdujo la ley cero,
12:58
whichcual takes precedenceprecedencia aboveencima all,
246
766000
2256
que precede a las demás,
13:00
and it's that a robotrobot
maymayo not harmdaño humanityhumanidad as a wholetodo.
247
768280
3280
y es que un robot
no hará daño a la Humanidad.
13:04
I don't know what this meansmedio
in the contextcontexto of driverlesssin conductor carscarros
248
772480
4376
No sé qué quiere decir esto
en el contexto de los vehículos autónomos,
13:08
or any specificespecífico situationsituación,
249
776880
2736
o en cualquier situación específica,
13:11
and I don't know how we can implementimplementar it,
250
779640
2216
y no sé cómo lo podemos implementar,
13:13
but I think that by recognizingreconociendo
251
781880
1536
pero creo que reconociendo
13:15
that the regulationregulación of driverlesssin conductor carscarros
is not only a technologicaltecnológico problemproblema
252
783440
6136
que la regulación de vehículos autónomos
no es solo un problema tecnológico
13:21
but alsoademás a societalsocietal cooperationcooperación problemproblema,
253
789600
3280
sino también un problema
de cooperación social,
13:25
I hopeesperanza that we can at leastmenos beginempezar
to askpedir the right questionspreguntas.
254
793800
2880
espero que podamos al menos empezar
a hacer las preguntas adecuadas.
13:29
Thank you.
255
797200
1216
Gracias.
13:30
(ApplauseAplausos)
256
798440
2920
(Aplausos)
Translated by Analia Padin
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com