ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Quelles décisions morales les voitures sans conducteur devraient-elles prendre?

Filmed:
1,147,381 views

Votre voiture sans conducteur devrait-elle vous tuer pour sauver cinq piétons? Dans cette introduction sur le dilemme social des voitures sans conducteur, Iyad Rahwan examine comment la technologie peut défier notre moralité. Il présente aussi son travail en ayant réuni des informations auprès de la population à propos des compromis éthiques que nous sommes (ou pas) prêts à faire.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayAujourd'hui I'm going to talk
about technologyLa technologie and societysociété.
0
1000
4080
Aujourd'hui, je vais parler
de technologie et de société.
00:19
The DepartmentDépartement of TransportTransport
estimatedestimé that last yearan
1
7040
3696
Le Département du Transport a estimé
que, l'année dernière,
00:22
35,000 people dieddécédés
from trafficcirculation crashesdes accidents in the US aloneseul.
2
10760
4080
le nombre de morts dû aux accidents de la
circulation à 35 000, seulement aux USA.
00:28
WorldwideDans le monde entier, 1.2 millionmillion people
diemourir everychaque yearan in trafficcirculation accidentsles accidents.
3
16040
4800
Au niveau mondial, c'est 1,2 million de
gens qui meurent chaque année.
00:33
If there was a way we could eliminateéliminer
90 percentpour cent of those accidentsles accidents,
4
21760
4096
S'il y avait une possibilité d'éliminer
90% de ces accidents,
00:37
would you supportsoutien it?
5
25880
1200
la soutiendriez-vous ?
00:39
Of coursecours you would.
6
27720
1296
Bien sûr que oui.
00:41
This is what driverlesssans conducteur carvoiture technologyLa technologie
promisespromesses to achieveatteindre
7
29040
3655
La technologie des voitures sans
conducteur promet d'y arriver
00:44
by eliminatingéliminer the mainprincipale
sourcela source of accidentsles accidents --
8
32720
2816
en éliminant la principale source
d'accidents--
00:47
humanHumain errorErreur.
9
35560
1200
l'erreur humaine.
00:49
Now picturephoto yourselftoi même
in a driverlesssans conducteur carvoiture in the yearan 2030,
10
37920
5416
Imaginez vous, en 2030, dans une voiture
sans conducteur,
00:55
sittingséance back and watchingen train de regarder
this vintageVintage TEDxCambridgeTEDxCambridge videovidéo.
11
43360
3456
regardant cette ancienne vidéo TED.
00:58
(LaughterRires)
12
46840
2000
(Rires)
01:01
All of a suddensoudain,
13
49520
1216
Quand tout à coup,
01:02
the carvoiture experiencesexpériences mechanicalmécanique failureéchec
and is unableincapable to stop.
14
50760
3280
une panne mécanique l'empêche
de s'arrêter.
01:07
If the carvoiture continuescontinue,
15
55360
1520
Si la voiture roule toujours,
01:09
it will crashcrash into a bunchbouquet
of pedestrianspiétons crossingtraversée the streetrue,
16
57720
4120
elle peut écraser les piétons qui sont
en train de traverser;
01:15
but the carvoiture maymai swerveune embardée,
17
63080
2135
mais elle peut aussi faire une embardée,
01:17
hittingfrappe one bystanderObservateur,
18
65239
1857
touchant un passant en le tuant
01:19
killingmeurtre them to saveenregistrer the pedestrianspiétons.
19
67120
2080
pour sauver les piétons.
01:22
What should the carvoiture do,
and who should decidedécider?
20
70040
2600
Que devrait faire la voiture
et qui devrait décider ?
01:25
What if insteadau lieu the carvoiture
could swerveune embardée into a wallmur,
21
73520
3536
Et si la voiture fonçait dans un mur,
01:29
crashings’écraser and killingmeurtre you, the passengerpassager,
22
77080
3296
vous tuant vous, le passager
01:32
in ordercommande to saveenregistrer those pedestrianspiétons?
23
80400
2320
pour sauver ces piétons ?
01:35
This scenarioscénario is inspiredinspiré
by the trolleychariot problemproblème,
24
83240
3080
Ce scénario est inspiré du problème
venant des trolleybus,
01:38
whichlequel was inventeda inventé
by philosophersphilosophes a fewpeu decadesdécennies agodepuis
25
86960
3776
inventé par des philosophes il y a
quelques décennies
01:42
to think about ethicsdéontologie.
26
90760
1240
pour penser à l'éthique.
01:46
Now, the way we think
about this problemproblème mattersimporte.
27
94120
2496
Il est important de savoir ce que nous
en pensons.
01:48
We maymai for exampleExemple
not think about it at all.
28
96640
2616
Peut être que nous n'y pensons
pas du tout.
01:51
We maymai say this scenarioscénario is unrealisticirréaliste,
29
99280
3376
On peut trouver ce scénario irréel,
01:54
incrediblyincroyablement unlikelyimprobable, or just sillyidiot.
30
102680
2320
extrêmement peu probable ou juste stupide.
01:57
But I think this criticismcritique
missesmanque the pointpoint
31
105760
2736
Je pense que cette critique manque
d'un point important
02:00
because it takes
the scenarioscénario too literallyLittéralement.
32
108520
2160
car elle suit ce scénario à la lettre.
02:03
Of coursecours no accidentaccident
is going to look like this;
33
111920
2736
Il est évident qu'aucun accident
ne ressemblera à ça,
02:06
no accidentaccident has two or threeTrois optionsoptions
34
114680
3336
aucun accident n'a deux ou trois options
02:10
where everybodyTout le monde diesmeurt somehowen quelque sorte.
35
118040
2000
où tout le monde finit par mourir.
02:13
InsteadAu lieu de cela, the carvoiture is going
to calculatecalculer something
36
121480
2576
Pour contrer tout cela, la voiture
pourrait calculer
02:16
like the probabilityprobabilité of hittingfrappe
a certaincertain groupgroupe of people,
37
124080
4896
la probabilité d'heurter
un groupe de personnes,
02:21
if you swerveune embardée one directiondirection
versuscontre anotherun autre directiondirection,
38
129000
3336
si on dévie d'un côté ou d'un autre,
02:24
you mightpourrait slightlylégèrement increaseaugmenter the riskrisque
to passengerspassagers or other driverspilotes
39
132360
3456
on augmenterait le risque des passagers
ou des conducteurs
02:27
versuscontre pedestrianspiétons.
40
135840
1536
versus les piétons.
02:29
It's going to be
a more complexcomplexe calculationcalcul,
41
137400
2160
Il s'agit d'un calcul un peu plus
complexe,
02:32
but it's still going
to involveimpliquer trade-offscompromis,
42
140480
2520
mais cela impliquerait quand même
des compromis,
02:35
and trade-offscompromis oftensouvent requireexiger ethicsdéontologie.
43
143840
2880
et les compromis demandent souvent
de l'éthique.
02:39
We mightpourrait say then,
"Well, let's not worryinquiéter about this.
44
147840
2736
On pourrait donc dire :
« Ne nous en préoccupons pas.
02:42
Let's wait untiljusqu'à technologyLa technologie
is fullypleinement readyprêt and 100 percentpour cent safesûr."
45
150600
4640
Attendons à ce que la technologie soit
prête et sûre à 100%. »
02:48
SupposeSupposons que that we can indeedeffectivement
eliminateéliminer 90 percentpour cent of those accidentsles accidents,
46
156520
3680
Imaginez qu'on puisse éliminer 90%
de ces accidents,
02:53
or even 99 percentpour cent in the nextprochain 10 yearsannées.
47
161080
2840
ou même 99% dans les dix prochaines
années.
02:56
What if eliminatingéliminer
the last one percentpour cent of accidentsles accidents
48
164920
3176
Et si l'élimination du dernier 1%
des accidents
03:00
requiresa besoin 50 more yearsannées of researchrecherche?
49
168120
3120
demandait plus de 50 ans de recherches ?
03:04
Should we not adoptadopter the technologyLa technologie?
50
172400
1800
Ne devrions-nous pas
adopter cette technologie ?
03:06
That's 60 millionmillion people
deadmort in carvoiture accidentsles accidents
51
174720
4776
Ce sont 60 millions de morts à cause
des accidents de voiture
03:11
if we maintainmaintenir the currentactuel ratetaux.
52
179520
1760
si nous maintenons les taux actuels.
03:14
So the pointpoint is,
53
182760
1216
Le fait est que,
03:16
waitingattendre for fullplein safetysécurité is alsoaussi a choicechoix,
54
184000
3616
attendre pour une sécurité optimale
est aussi un choix
03:19
and it alsoaussi involvesimplique trade-offscompromis.
55
187640
2160
mais cela implique aussi des compromis.
03:23
People onlineen ligne on socialsocial mediamédias
have been comingvenir up with all sortssortes of waysfaçons
56
191560
4336
Les gens ont trouvé plusieurs manières,
sur les réseaux sociaux,
03:27
to not think about this problemproblème.
57
195920
2016
pour éviter de penser à ce problème.
03:29
One personla personne suggestedsuggéré
the carvoiture should just swerveune embardée somehowen quelque sorte
58
197960
3216
Une personne a suggéré que la voiture
devrait pouvoir dévier
03:33
in betweenentre the passengerspassagers --
59
201200
2136
entre les piétons--
03:35
(LaughterRires)
60
203360
1016
(Rires)
03:36
and the bystanderObservateur.
61
204400
1256
et les passants.
03:37
Of coursecours if that's what the carvoiture can do,
that's what the carvoiture should do.
62
205680
3360
Si la voiture avait les capacités
de le faire, elle le ferait sûrement.
03:41
We're interestedintéressé in scenariosscénarios
in whichlequel this is not possiblepossible.
63
209920
2840
Nous sommes intéressés
par d'autres scénarios.
03:45
And my personalpersonnel favoritepréféré
was a suggestionsuggestion by a bloggerblogueur
64
213280
5416
Mon préféré est une suggestion
de la part d'un blogueur,
03:50
to have an ejectEJECT buttonbouton in the carvoiture
that you presspresse --
65
218720
3016
qui est d'avoir un bouton pour
siège éjectable--
03:53
(LaughterRires)
66
221760
1216
(Rires)
03:55
just before the carvoiture self-destructsAuto-détruit.
67
223000
1667
juste avant l'autodestruction.
03:56
(LaughterRires)
68
224691
1680
(Rires)
03:59
So if we acknowledgereconnaître that carsdes voitures
will have to make trade-offscompromis on the roadroute,
69
227840
5200
Si nous considérons que les voitures
devront aussi faire des compromis,
04:06
how do we think about those trade-offscompromis,
70
234200
1880
comment y penser,
04:09
and how do we decidedécider?
71
237320
1576
mais surtout comment se décider ?
04:10
Well, maybe we should runcourir a surveyenquête
to find out what societysociété wants,
72
238920
3136
Peut être devrions-nous faire un sondage
auprès de la société,
04:14
because ultimatelyen fin de compte,
73
242080
1456
car finalement,
04:15
regulationsrèglements and the lawloi
are a reflectionréflexion of societalsociétales valuesvaleurs.
74
243560
3960
les règlements et la loi sont les reflets
des valeurs sociétales.
04:20
So this is what we did.
75
248040
1240
Nous avons donc fait ceci.
04:21
With my collaboratorscollaborateurs,
76
249880
1616
En compagnie de mes collaborateurs,
04:23
Jean-FranJean-Françoisois BonnefonBonnefon and AzimAzim ShariffShariff,
77
251520
2336
Jean-François Bonnefon et Azim Shariff,
04:25
we rancouru a surveyenquête
78
253880
1616
nous avons mené une enquête
04:27
in whichlequel we presentedprésenté people
with these typesles types of scenariosscénarios.
79
255520
2855
où nous avons présenté ces scénarios
aux gens.
04:30
We gavea donné them two optionsoptions
inspiredinspiré by two philosophersphilosophes:
80
258399
3777
Nous leur avons donné deux options,
inspirées par deux philosophes :
04:34
JeremyJeremy BenthamBentham and ImmanuelEmmanuel KantKant.
81
262200
2640
Jeremy Bentham et Emmanuel Kant.
04:37
BenthamBentham saysdit the carvoiture
should followsuivre utilitarianutilitaires ethicsdéontologie:
82
265600
3096
Selon Bentham, la voiture devrait suivre
l'éthique utilitariste :
04:40
it should take the actionaction
that will minimizeminimiser totaltotal harmnuire --
83
268720
3416
son action devrait être celle qui réduit
tous les dommages --
04:44
even if that actionaction will killtuer a bystanderObservateur
84
272160
2816
même si cette action finira par tuer
un passant
04:47
and even if that actionaction
will killtuer the passengerpassager.
85
275000
2440
ou même si elle finira par tuer
le passager.
04:50
ImmanuelEmmanuel KantKant saysdit the carvoiture
should followsuivre duty-bounddevoir principlesdes principes,
86
278120
4976
Selon Kant, la voiture devrait agir selon
certains commandements,
04:55
like "ThouTu shaltseras not killtuer."
87
283120
1560
comme  « Tu ne tueras point. »
04:57
So you should not take an actionaction
that explicitlyexplicitement harmsHarms a humanHumain beingétant,
88
285480
4456
Ton action ne devrait donc pas nuire à
un être humain de manière explicite,
05:01
and you should let the carvoiture take its coursecours
89
289960
2456
et tu devrais laisser la voiture faire
sa route
05:04
even if that's going to harmnuire more people.
90
292440
1960
même si plus de gens finiront blessés.
05:07
What do you think?
91
295640
1200
Qu'en pensez-vous ?
05:09
BenthamBentham or KantKant?
92
297360
1520
Bentham ou bien Kant ?
05:11
Here'sVoici what we founda trouvé.
93
299760
1256
Voici notre solution.
05:13
MostPlupart people sidedverso with BenthamBentham.
94
301040
1800
La plupart étaient pour Bentham.
05:16
So it seemssemble that people
want carsdes voitures to be utilitarianutilitaires,
95
304160
3776
Les gens veulent donc que la voiture
soit utilitariste,
05:19
minimizeminimiser totaltotal harmnuire,
96
307960
1416
réduire les dommages,
05:21
and that's what we should all do.
97
309400
1576
ce que nous devrions tous faire.
05:23
ProblemProblème solvedrésolu.
98
311000
1200
Problème résolu.
05:25
But there is a little catchcapture.
99
313240
1480
Mais il y a un petit piège.
05:27
When we askeda demandé people
whetherqu'il s'agisse they would purchaseachat suchtel carsdes voitures,
100
315920
3736
Lorsque nous leur avons demandé
s'ils achèteraient ces voitures,
05:31
they said, "AbsolutelyAbsolument not."
101
319680
1616
ils ont répondu : « Absolument pas. »
05:33
(LaughterRires)
102
321320
2296
(Rires)
05:35
They would like to buyacheter carsdes voitures
that protectprotéger them at all costsfrais,
103
323640
3896
Ils aimeraient acheter des voitures qui
les protègent à tout prix,
05:39
but they want everybodyTout le monde elseautre
to buyacheter carsdes voitures that minimizeminimiser harmnuire.
104
327560
3616
mais ils veulent que tous les autres les
achètent pour réduire les dommages.
05:43
(LaughterRires)
105
331200
2520
(Rires)
05:46
We'veNous avons seenvu this problemproblème before.
106
334720
1856
Nous connaissons ce type de problème.
05:48
It's calledappelé a socialsocial dilemmadilemme.
107
336600
1560
C'est un dilemme social.
05:51
And to understandcomprendre the socialsocial dilemmadilemme,
108
339160
1816
Pour comprendre ce dilemme social,
05:53
we have to go a little bitbit
back in historyhistoire.
109
341000
2040
nous devons remonter un peu dans le temps.
05:56
In the 1800s,
110
344000
2576
Dans les années 1800,
05:58
EnglishAnglais economistéconomiste WilliamWilliam ForsterForster LloydLloyd
publishedpublié a pamphletbrochure
111
346600
3736
l'économiste anglais William Forster Lloyd
a publié un pamphlet
06:02
whichlequel describesdécrit the followingSuivant scenarioscénario.
112
350360
2216
décrivant le scénario suivant.
06:04
You have a groupgroupe of farmersLes agriculteurs --
113
352600
1656
Vous avez un groupe de fermiers--
06:06
EnglishAnglais farmersLes agriculteurs --
114
354280
1336
fermiers anglais--
06:07
who are sharingpartage a commoncommun landterre
for theirleur sheepmouton to grazepaître.
115
355640
2680
qui se partagent des terres
pour leurs moutons.
06:11
Now, if eachchaque farmeragriculteur
bringsapporte a certaincertain numbernombre of sheepmouton --
116
359520
2576
Si chaque fermier ramène un certain nombre
de moutons--
06:14
let's say threeTrois sheepmouton --
117
362120
1496
disons trois moutons--
06:15
the landterre will be rejuvenatedrajeuni,
118
363640
2096
la terre sera régénérée,
06:17
the farmersLes agriculteurs are happycontent,
119
365760
1216
les fermiers heureux,
06:19
the sheepmouton are happycontent,
120
367000
1616
les moutons heureux,
06:20
everything is good.
121
368640
1200
tout est en ordre.
06:22
Now, if one farmeragriculteur bringsapporte one extrasupplémentaire sheepmouton,
122
370440
2520
Maintenant si un fermier en ramène un
de plus,
06:25
that farmeragriculteur will do slightlylégèrement better,
and no one elseautre will be harmedblessé.
123
373800
4720
il s'en sortira un peu mieux,
au détriment de personne.
06:31
But if everychaque farmeragriculteur madefabriqué
that individuallyindividuellement rationalrationnel decisiondécision,
124
379160
3640
Mais si chaque fermier faisait de même,
06:35
the landterre will be overrunsaturation de la,
and it will be depletedl’appauvri
125
383840
2720
la terre serait surexploitée et appauvrie
06:39
to the detrimentdétriment of all the farmersLes agriculteurs,
126
387360
2176
au détriment de tous les fermiers
06:41
and of coursecours,
to the detrimentdétriment of the sheepmouton.
127
389560
2120
et bien sûr à celui des moutons.
06:44
We see this problemproblème in manybeaucoup placesdes endroits:
128
392720
3680
Nous rencontrons ce problème
à plusieurs endroits :
06:49
in the difficultydifficulté of managinggestion overfishingla surpêche,
129
397080
3176
dans la difficulté à gérer la surpêche,
06:52
or in reducingréduire carboncarbone emissionsles émissions
to mitigateatténuer les climateclimat changechangement.
130
400280
4560
ou à réduire les émissions de carbone pour
atténuer le changement climatique.
06:59
When it comesvient to the regulationrèglement
of driverlesssans conducteur carsdes voitures,
131
407160
2920
Quand il s'agit du règlement des voitures
sans conducteur,
07:03
the commoncommun landterre now
is basicallyen gros publicpublic safetysécurité --
132
411080
4336
la terre commune représente
la sécurité publique --
07:07
that's the commoncommun good --
133
415440
1240
c'est le bien commun --
07:09
and the farmersLes agriculteurs are the passengerspassagers
134
417400
1976
et les fermiers sont les passagers
07:11
or the carvoiture ownerspropriétaires who are choosingchoisir
to ridebalade in those carsdes voitures.
135
419400
3600
ou les propriétaires de ces voitures qui
décident de les conduire.
07:16
And by makingfabrication the individuallyindividuellement
rationalrationnel choicechoix
136
424960
2616
En faisant ce choix rationnel
07:19
of prioritizingprioriser theirleur ownposséder safetysécurité,
137
427600
2816
de prioriser leur propre sécurité,
07:22
they maymai collectivelycollectivement be
diminishingdiminuer the commoncommun good,
138
430440
3136
ils sont peut être en train d'affaiblir
le bien commun,
07:25
whichlequel is minimizingréduire au minimum totaltotal harmnuire.
139
433600
2200
de réduire donc les dommages.
07:30
It's calledappelé the tragedyla tragédie of the commonsChambre des communes,
140
438320
2136
C'est la Tragédie des biens communs,
07:32
traditionallytraditionnellement,
141
440480
1296
typiquement,
07:33
but I think in the caseCas
of driverlesssans conducteur carsdes voitures,
142
441800
3096
mais je pense que dans le cas des voitures
sans conducteur,
07:36
the problemproblème maymai be
a little bitbit more insidiousinsidieux
143
444920
2856
le problème est peut-être
un peu plus insidieux
07:39
because there is not necessarilynécessairement
an individualindividuel humanHumain beingétant
144
447800
3496
car ce n'est pas forcément
un seul être humain
07:43
makingfabrication those decisionsles décisions.
145
451320
1696
qui prend ces décisions.
07:45
So carvoiture manufacturersfabricants
maymai simplysimplement programprogramme carsdes voitures
146
453040
3296
Les fabricants de voitures pourraient
simplement les programmer
07:48
that will maximizemaximiser safetysécurité
for theirleur clientsles clients,
147
456360
2520
pour maximiser la sécurité des clients,
07:52
and those carsdes voitures maymai learnapprendre
automaticallyautomatiquement on theirleur ownposséder
148
460080
2976
et elles pourraient apprendre
par elles-mêmes
07:55
that doing so requiresa besoin slightlylégèrement
increasingen augmentant riskrisque for pedestrianspiétons.
149
463080
3520
qu'en agissant de cette manière, elles
augmenteraient le risque des piétons.
07:59
So to use the sheepmouton metaphormétaphore,
150
467520
1416
Revenons à notre métaphore,
08:00
it's like we now have electricélectrique sheepmouton
that have a mindesprit of theirleur ownposséder.
151
468960
3616
c'est comme si maintenant nous avions
des moutons électriques conscients.
08:04
(LaughterRires)
152
472600
1456
(Rires)
08:06
And they maymai go and grazepaître
even if the farmeragriculteur doesn't know it.
153
474080
3080
Ils peuvent brouter sans que le fermier
le sache.
08:10
So this is what we maymai call
the tragedyla tragédie of the algorithmicalgorithmique commonsChambre des communes,
154
478640
3976
C'est ce qu'on pourrait appeler la
Tragédie des communs algorithmiques,
08:14
and if offersdes offres newNouveau typesles types of challengesdéfis.
155
482640
2360
qui offre de nouveaux types de défis.
08:22
TypicallyEn général, traditionallytraditionnellement,
156
490520
1896
De manière générale, typiquement,
08:24
we solverésoudre these typesles types
of socialsocial dilemmasdilemmes usingen utilisant regulationrèglement,
157
492440
3336
nous résolvons ces types de dilemmes
sociaux grâce aux lois :
08:27
so eithernon plus governmentsGouvernements
or communitiescommunautés get togetherensemble,
158
495800
2736
soit les gouvernements soit
les communautés se réunissent
08:30
and they decidedécider collectivelycollectivement
what kindgentil of outcomerésultat they want
159
498560
3736
pour décider ensemble quel est
le résultat voulu
08:34
and what sortTrier of constraintscontraintes
on individualindividuel behaviorcomportement
160
502320
2656
et quelles sortes de contraintes liées
au comportement
08:37
they need to implementmettre en place.
161
505000
1200
doivent être appliquées.
08:39
And then usingen utilisant monitoringsurveillance and enforcementmise en vigueur,
162
507600
2616
Ensuite grâce à la surveillance
et au contrôle,
08:42
they can make sure
that the publicpublic good is preservedpréservés.
163
510240
2559
ils peuvent s'assurer que le bien civil
soit préservé.
08:45
So why don't we just,
164
513440
1575
Pourquoi ne pourrions-nous pas,
08:47
as regulatorsles régulateurs,
165
515039
1496
en tant que régulateurs,
08:48
requireexiger that all carsdes voitures minimizeminimiser harmnuire?
166
516559
2897
exiger à ce que toutes les voitures
réduisent les dommages ?
08:51
After all, this is
what people say they want.
167
519480
2240
Après tout, c'est ce que veulent les gens.
08:55
And more importantlyimportant,
168
523200
1416
Plus important encore,
08:56
I can be sure that as an individualindividuel,
169
524640
3096
je peux être sûr qu'en tant qu'individu,
08:59
if I buyacheter a carvoiture that maymai
sacrificesacrifice me in a very rarerare caseCas,
170
527760
3856
si j'achète une voiture pouvant
me sacrifier dans un cas très rare,
09:03
I'm not the only suckerMeunier doing that
171
531640
1656
je ne vais pas être le seul pigeon
09:05
while everybodyTout le monde elseautre
enjoysbénéficie d' unconditionalinconditionnel protectionprotection.
172
533320
2680
à le faire alors que tous les autres
sont protégés.
09:09
In our surveyenquête, we did askdemander people
whetherqu'il s'agisse they would supportsoutien regulationrèglement
173
537120
3336
Dans notre enquête, nous avons demandé
s'ils valideraient un telle loi
09:12
and here'svoici what we founda trouvé.
174
540480
1200
et voici le résultat.
09:14
First of all, people
said no to regulationrèglement;
175
542360
3760
Tout d'abord, les gens ont répondu
non à la loi ;
09:19
and secondseconde, they said,
176
547280
1256
ensuite, ils ont dit :
09:20
"Well if you regulateréglementer les carsdes voitures to do this
and to minimizeminimiser totaltotal harmnuire,
177
548560
3936
« Si vous légiférer pour que les voitures
réduisent les dommages,
09:24
I will not buyacheter those carsdes voitures."
178
552520
1480
je ne les achèterais pas. »
09:27
So ironicallyironiquement,
179
555400
1376
Donc ironiquement,
09:28
by regulatingrégulation de carsdes voitures to minimizeminimiser harmnuire,
180
556800
3496
en réglant les voitures pour réduire
les dommages,
09:32
we maymai actuallyréellement endfin up with more harmnuire
181
560320
1840
ça pourrait être pire
09:35
because people maymai not
optopter into the saferplus sûr technologyLa technologie
182
563040
3656
car les gens n'opteraient pas pour
la technologie plus sécurisée
09:38
even if it's much saferplus sûr
than humanHumain driverspilotes.
183
566720
2080
même si c'est plus sûr qu'un conducteur.
09:42
I don't have the finalfinal
answerrépondre to this riddleRiddle,
184
570360
3416
Je n'ai pas la réponse finale de
cette énigme,
09:45
but I think as a startingdépart pointpoint,
185
573800
1576
mais pour commencer,
09:47
we need societysociété to come togetherensemble
186
575400
3296
notre société devrait s'unir
09:50
to decidedécider what trade-offscompromis
we are comfortableconfortable with
187
578720
2760
pour décider quels compromis
nous correspondent le plus
09:54
and to come up with waysfaçons
in whichlequel we can enforceimposer those trade-offscompromis.
188
582360
3480
et trouver des moyens pour les appliquer.
09:58
As a startingdépart pointpoint,
my brilliantbrillant studentsélèves,
189
586520
2536
Pour commencer, mes brillants étudiants,
10:01
EdmondEdmond AwadAwad and SohanSohan DsouzaDonnay,
190
589080
2456
Edmond Awad et Sohan De Souza
10:03
builtconstruit the MoralMoral MachineMachine websitesite Internet,
191
591560
1800
ont créé le site Moral Machine;
10:06
whichlequel generatesgénère randomau hasard scenariosscénarios at you --
192
594200
2680
celui-ci génère des scénarios aléatoires--
10:10
basicallyen gros a bunchbouquet
of randomau hasard dilemmasdilemmes in a sequenceséquence
193
598080
2456
une série de dilemmes à la chaîne
10:12
where you have to choosechoisir what
the carvoiture should do in a givendonné scenarioscénario.
194
600560
3920
où vous devez choisir ce que ferait
la voiture dans ces cas.
10:17
And we varyvarier the agesâge and even
the speciesespèce of the differentdifférent victimsles victimes.
195
605040
4600
Nous varions les âges et la nature
des différentes victimes.
10:23
So farloin we'venous avons collectedrecueilli
over fivecinq millionmillion decisionsles décisions
196
611040
3696
Jusqu'à présent, nous avons récolté
plus de 5 millions de décisions
10:26
by over one millionmillion people worldwideà l'échelle mondiale
197
614760
2200
prises par plus d'un million de gens
10:30
from the websitesite Internet.
198
618400
1200
depuis le site internet.
10:32
And this is helpingportion us
formforme an earlyde bonne heure picturephoto
199
620360
2416
Ceci nous aide à avoir une idée
10:34
of what trade-offscompromis
people are comfortableconfortable with
200
622800
2616
de quels compromis les gens sont prêts
à accepter
10:37
and what mattersimporte to them --
201
625440
1896
et ce qui compte pour eux--
10:39
even acrossà travers culturesdes cultures.
202
627360
1440
même à travers les cultures.
10:42
But more importantlyimportant,
203
630240
1496
Mais surtout,
10:43
doing this exerciseexercice
is helpingportion people recognizereconnaître
204
631760
3376
ces exercices aident les gens
à reconnaître
10:47
the difficultydifficulté of makingfabrication those choicesles choix
205
635160
2816
la difficulté que représente le fait
de faire un choix
10:50
and that the regulatorsles régulateurs
are taskedchargé with impossibleimpossible choicesles choix.
206
638000
3800
et que les lesgilateurs sont confrontés
à des choix impossibles.
10:55
And maybe this will help us as a societysociété
understandcomprendre the kindssortes of trade-offscompromis
207
643360
3576
Peut-être que ceci nous aidera
à comprendre, en tant que société,
10:58
that will be implementedmis en œuvre
ultimatelyen fin de compte in regulationrèglement.
208
646960
3056
quels compromis seront mis en place
dans la loi.
11:02
And indeedeffectivement, I was very happycontent to hearentendre
209
650040
1736
En effet, j'ai été très heureux
11:03
that the first setensemble of regulationsrèglements
210
651800
2016
d'entendre que la première série
11:05
that camevenu from
the DepartmentDépartement of TransportTransport --
211
653840
2136
venue du Département des Transports--
11:08
announcedannoncé last weekla semaine --
212
656000
1376
annoncée la semaine dernière
11:09
includedinclus a 15-point-point checklistliste de vérification
for all carmakersconstructeurs automobiles to providefournir,
213
657400
6576
a inclus une liste de 15 points à remplir
par tous les fabricants de voitures.
11:16
and numbernombre 14 was ethicaléthique considerationconsidération --
214
664000
3256
Le numéro 14 était la consideration
éthique --
11:19
how are you going to dealtraiter with that.
215
667280
1720
comment allez-vous gérer ça ?
11:23
We alsoaussi have people
reflectréfléchir on theirleur ownposséder decisionsles décisions
216
671800
2656
Ces personnes peuvent aussi réfléchir
à leurs décisions
11:26
by givingdonnant them summariesrésumés
of what they chosechoisi.
217
674480
3000
en recevant des résumés à propos
de leurs choix.
11:30
I'll give you one exampleExemple --
218
678440
1656
Je vais vous donner un exemple --
11:32
I'm just going to warnprévenir you
that this is not your typicaltypique exampleExemple,
219
680120
3536
je vous avertis juste que ceci n'est pas
un exemple typique,
11:35
your typicaltypique userutilisateur.
220
683680
1376
ni un utilisateur typique.
11:37
This is the mostles plus sacrificedsacrifié and the mostles plus
savedenregistré characterpersonnage for this personla personne.
221
685080
3616
Voici ce que la personne a sauvé
et a tué le plus.
11:40
(LaughterRires)
222
688720
5200
(Rires)
11:46
Some of you maymai agreese mettre d'accord with him,
223
694680
1896
Certains d'entre vous allez être
11:48
or her, we don't know.
224
696600
1640
d'accord avec lui ou avec elle.
11:52
But this personla personne alsoaussi seemssemble to slightlylégèrement
preferpréférer passengerspassagers over pedestrianspiétons
225
700480
6136
Cette personne a aussi l'air de préférer
les passagers aux piétons
11:58
in theirleur choicesles choix
226
706640
2096
dans ses choix
12:00
and is very happycontent to punishpunir jaywalkingjaywalking.
227
708760
2816
et est très heureuse de punir
ceux qui traversent en dehors des clous.
12:03
(LaughterRires)
228
711600
3040
(Rires)
12:09
So let's wrapemballage up.
229
717320
1216
Résumons.
12:10
We startedcommencé with the questionquestion --
let's call it the ethicaléthique dilemmadilemme --
230
718559
3416
Nous avons commencé avec une question --
un dilemme éthique --
12:14
of what the carvoiture should do
in a specificspécifique scenarioscénario:
231
722000
3056
de ce que devrait faire la voiture dans
un scénario précis :
12:17
swerveune embardée or stayrester?
232
725080
1200
dévier ou rester ?
12:19
But then we realizedréalisé
that the problemproblème was a differentdifférent one.
233
727240
2736
Mais nous avons réalisé que
le problème était autre.
12:22
It was the problemproblème of how to get
societysociété to agreese mettre d'accord on and enforceimposer
234
730000
4536
Le problème était de comment faire pour
que la société accepte et applique
12:26
the trade-offscompromis they're comfortableconfortable with.
235
734560
1936
les compromis qui lui conviennent.
12:28
It's a socialsocial dilemmadilemme.
236
736520
1256
C'est un dilemme social.
12:29
In the 1940s, IsaacIsaac AsimovAsimov
wrotea écrit his famouscélèbre lawslois of roboticsrobotique --
237
737800
5016
Dans les années 1940, Isaac Asimov a écrit
sa célèbre loi de la robotique --
12:34
the threeTrois lawslois of roboticsrobotique.
238
742840
1320
les trois règles de la robotique.
12:37
A robotrobot maymai not harmnuire a humanHumain beingétant,
239
745240
2456
Un robot ne nuira pas à un être humain,
12:39
a robotrobot maymai not disobeydésobéir à a humanHumain beingétant,
240
747720
2536
un robot ne désobéira pas
12:42
and a robotrobot maymai not allowpermettre
itselfse to come to harmnuire --
241
750280
3256
et il ne s'autorisera pas
à faire au mal --
12:45
in this ordercommande of importanceimportance.
242
753560
1960
dans cet ordre d'importance.
12:48
But after 40 yearsannées or so
243
756360
2136
Mais environ 40 ans plus tard
12:50
and after so manybeaucoup storieshistoires
pushingen poussant these lawslois to the limitlimite,
244
758520
3736
et après tellement de scénarios qui ont
testé ces règles,
12:54
AsimovAsimov introducedintroduit the zerothzéro lawloi
245
762280
3696
Asimov a présenté la loi Zéro
12:58
whichlequel takes precedencepriorité aboveau dessus all,
246
766000
2256
qui a préséance avant tout.
13:00
and it's that a robotrobot
maymai not harmnuire humanityhumanité as a wholeentier.
247
768280
3280
Un robot ne devrait pas nuire
à l'Humanité.
13:04
I don't know what this meansveux dire
in the contextle contexte of driverlesssans conducteur carsdes voitures
248
772480
4376
Je ne sais pas ce que cela représente dans
le cas des voitures sans conducteur
13:08
or any specificspécifique situationsituation,
249
776880
2736
ou dans une situation spécifique,
13:11
and I don't know how we can implementmettre en place it,
250
779640
2216
et je ne sais pas comment
la mettre en œuvre ;
13:13
but I think that by recognizingreconnaissant
251
781880
1536
mais en admettant que
13:15
that the regulationrèglement of driverlesssans conducteur carsdes voitures
is not only a technologicaltechnologique problemproblème
252
783440
6136
la législation de ces voitures n'est pas
uniquement un problème technique
13:21
but alsoaussi a societalsociétales cooperationla coopération problemproblème,
253
789600
3280
mais aussi un problème de coopération
sociétale, j'espère que
13:25
I hopeespérer that we can at leastmoins begincommencer
to askdemander the right questionsdes questions.
254
793800
2880
nous puissions au moins nous poser
les bonnes questions.
13:29
Thank you.
255
797200
1216
Merci.
13:30
(ApplauseApplaudissements)
256
798440
2920
(Applaudissements)
Translated by Mariana Ciric
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com