ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Milyen morális döntéseket kell a vezető nélküli autóknak hozniuk?

Filmed:
1,147,381 views

Megölje-e önt a vezető nélküli autó, ha ezzel megmentheti öt gyalogos életét? A vezető nélküli autó által fölvetett társadalmi dilemmák bevezetéseként Iyad Rahwan bemutatja, hogy a technológia miként teszi próbára erkölcsi tartásunkat, és elmagyarázza munkáját, amelynek során adatokat gyűjtöttek arról, hogy az emberek milyen erkölcsi kompromisszumokra képesek (vagy nem képesek).
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayMa I'm going to talk
about technologytechnológia and societytársadalom.
0
1000
4080
Ma a technológiáról
és a társadalomról fogok beszélni.
00:19
The DepartmentOsztály of TransportKözlekedés
estimatedbecsült that last yearév
1
7040
3696
A Közlekedési Minisztérium
2015-ös adata szerint
00:22
35,000 people diedmeghalt
from trafficforgalom crashesösszeomlik in the US aloneegyedül.
2
10760
4080
csupán az USA-ban 35 000 fő
halt meg közlekedési balesetben.
00:28
WorldwideVilágszerte, 1.2 millionmillió people
diemeghal everyminden yearév in trafficforgalom accidentsbalesetek.
3
16040
4800
A világon ugyanezen okból 1,2 milliónyian.
00:33
If there was a way we could eliminatemegszüntetése
90 percentszázalék of those accidentsbalesetek,
4
21760
4096
Ha mód lenne a balesetek
90%-ának elkerülésére,
00:37
would you supporttámogatás it?
5
25880
1200
támogatnák-e?
00:39
Of coursetanfolyam you would.
6
27720
1296
Nyilvánvalóan igen.
00:41
This is what driverlessmeghajtó carautó technologytechnológia
promisesígér to achieveelér
7
29040
3655
A vezető nélküli autó
technológiája erre ad reményt,
00:44
by eliminatingmegszüntetése the mainfő-
sourceforrás of accidentsbalesetek --
8
32720
2816
mert megszünteti a fő baleseti forrást,
00:47
humanemberi errorhiba.
9
35560
1200
az emberi hibát.
00:49
Now picturekép yourselfsaját magad
in a driverlessmeghajtó carautó in the yearév 2030,
10
37920
5416
Képzeljük el magunkat a 2030-as évek
vezető nélküli autójában,
00:55
sittingülés back and watchingnézni
this vintageVintage TEDxCambridgeTEDxCambridge videovideó-.
11
43360
3456
amint hátuljában nézzük
a TEDxCambridge ősrégi videóját.
00:58
(LaughterNevetés)
12
46840
2000
(Nevetés)
01:01
All of a suddenhirtelen,
13
49520
1216
Az autó váratlanul
01:02
the carautó experiencestapasztalatok mechanicalmechanikai failurehiba
and is unableképtelen to stop.
14
50760
3280
műszaki hibát észlel,
de képtelen megállni.
01:07
If the carautó continuesfolytatódik,
15
55360
1520
Ha továbbhalad,
01:09
it will crashcsattanás into a bunchcsokor
of pedestriansgyalogosok crossingátkelés the streetutca,
16
57720
4120
elüt egy csomó, zebrán átkelő gyalogost,
01:15
but the carautó maylehet swervekanyarodás,
17
63080
2135
de elkanyarodhat,
01:17
hittingütő one bystanderszemlélő,
18
65239
1857
s így egy bámészkodót gázol halálra,
01:19
killinggyilkolás them to savementés the pedestriansgyalogosok.
19
67120
2080
s ezzel megóvja a gyalogosokat.
01:22
What should the carautó do,
and who should decidedöntsd el?
20
70040
2600
Mit tegyen a kocsi, és ki döntsön róla?
01:25
What if insteadhelyette the carautó
could swervekanyarodás into a wallfal,
21
73520
3536
De mi lenne, ha falba csapódna,
01:29
crashingösszetörő and killinggyilkolás you, the passengerutas,
22
77080
3296
s ezzel önt, az utast ölné meg,
01:32
in ordersorrend to savementés those pedestriansgyalogosok?
23
80400
2320
hogy a gyalogosokat mentse meg?
01:35
This scenarioforgatókönyv is inspiredihletett
by the trolleytargonca problemprobléma,
24
83240
3080
E feladványt az ún.
villamoskocsi-dilemma ihlette,
01:38
whichmelyik was inventedfeltalált
by philosophersfilozófusok a fewkevés decadesévtizedekben agoezelőtt
25
86960
3776
amelyet filozófusok pár évtizede
erkölcsi döntésre gondoltak ki.
01:42
to think about ethicsetikai.
26
90760
1240
01:46
Now, the way we think
about this problemprobléma mattersügyek.
27
94120
2496
Fontos, miként oldjuk meg a dilemmát.
01:48
We maylehet for examplepélda
not think about it at all.
28
96640
2616
De azt is lehet, hogy nem törődünk vele.
01:51
We maylehet say this scenarioforgatókönyv is unrealisticirreális,
29
99280
3376
Mondhatjuk, hogy a feladvány nem reális,
01:54
incrediblyhihetetlenül unlikelyvalószínűtlen, or just sillybolondos.
30
102680
2320
teljesen valószínűtlen és ostobaság.
01:57
But I think this criticismkritika
misseshiányzik the pointpont
31
105760
2736
De a kritika szem elől
téveszti a lényeget,
02:00
because it takes
the scenarioforgatókönyv too literallyszó szerint.
32
108520
2160
mert szó szerint veszi a feladványt.
02:03
Of coursetanfolyam no accidentbaleset
is going to look like this;
33
111920
2736
Igaz, hogy ilyen baleset nem történik,
02:06
no accidentbaleset has two or threehárom optionslehetőségek
34
114680
3336
nem szokott két-három
választási lehetőség adódni,
02:10
where everybodymindenki diesmeghal somehowvalahogy.
35
118040
2000
ahol valaki mindenképp meghal.
02:13
InsteadEhelyett, the carautó is going
to calculatekiszámítja something
36
121480
2576
Az autó valamit ki fog számolni,
02:16
like the probabilityvalószínűség of hittingütő
a certainbizonyos groupcsoport of people,
37
124080
4896
pl. mennyi valamely embercsoportba
való csapódás valószínűsége,
02:21
if you swervekanyarodás one directionirány
versusellen anotheregy másik directionirány,
38
129000
3336
ha egyik vagy másik irányba kanyarodik,
02:24
you mightesetleg slightlynémileg increasenövekedés the riskkockázat
to passengersaz utasok or other driversillesztőprogramok
39
132360
3456
kissé növelhető az utasok
vagy idegen vezetők kockázata
02:27
versusellen pedestriansgyalogosok.
40
135840
1536
a gyalogosokéhoz képest.
02:29
It's going to be
a more complexösszetett calculationszámítás,
41
137400
2160
A számítás elég bonyolult lesz,
02:32
but it's still going
to involvevonja trade-offskompromisszumokat,
42
140480
2520
de a kompromisszum benne lesz,
02:35
and trade-offskompromisszumokat oftengyakran requirekíván ethicsetikai.
43
143840
2880
és a kompromisszum
gyakran erkölcsi kérdés.
02:39
We mightesetleg say then,
"Well, let's not worryaggodalom about this.
44
147840
2736
Mondhatják: "Ne törődjünk vele, várjuk ki,
02:42
Let's wait untilamíg technologytechnológia
is fullyteljesen readykész and 100 percentszázalék safebiztonságos."
45
150600
4640
amíg a technológia 100%-osan
fejlett és biztonságos nem lesz."
02:48
SupposeTegyük fel, hogy that we can indeedvalóban
eliminatemegszüntetése 90 percentszázalék of those accidentsbalesetek,
46
156520
3680
Tegyük föl, hogy 10 éven belül valóban
kiküszöbölhetjük a balesetek 90%-át,
02:53
or even 99 percentszázalék in the nextkövetkező 10 yearsévek.
47
161080
2840
vagy akár 99%-ukat.
02:56
What if eliminatingmegszüntetése
the last one percentszázalék of accidentsbalesetek
48
164920
3176
Mi van, ha az utolsó
százalék kiküszöbölése
03:00
requiresigényel 50 more yearsévek of researchkutatás?
49
168120
3120
további 50 kutatói évet igényel?
03:04
Should we not adoptelfogad the technologytechnológia?
50
172400
1800
Addig ne vezessük be a technológiát?
03:06
That's 60 millionmillió people
deadhalott in carautó accidentsbalesetek
51
174720
4776
A jelenlegi arányok mellett
03:11
if we maintainfenntart the currentjelenlegi ratearány.
52
179520
1760
ez 60 millió halott.
03:14
So the pointpont is,
53
182760
1216
A lényeg:
03:16
waitingvárakozás for fullteljes safetybiztonság is alsois a choiceválasztás,
54
184000
3616
a teljes biztonság kivárása is lehetőség,
03:19
and it alsois involvesjár trade-offskompromisszumokat.
55
187640
2160
s ennek ára is kompromisszum.
03:23
People onlineonline on socialtársadalmi mediamédia
have been comingeljövetel up with all sortsfajta of waysmódokon
56
191560
4336
A közösségi oldalakon rengeteg az ötlet,
03:27
to not think about this problemprobléma.
57
195920
2016
hogyan kerüljük el e konfliktust.
03:29
One personszemély suggestedjavasolt
the carautó should just swervekanyarodás somehowvalahogy
58
197960
3216
Valaki azt javasolta, hogy az autó
03:33
in betweenközött the passengersaz utasok --
59
201200
2136
valahogy szlalomozzon a gyalogosok...
03:35
(LaughterNevetés)
60
203360
1016
(Nevetés)
03:36
and the bystanderszemlélő.
61
204400
1256
és a bámészkodó között.
03:37
Of coursetanfolyam if that's what the carautó can do,
that's what the carautó should do.
62
205680
3360
Persze, ha nincs más lehetőség,
az autó így fog tenni.
03:41
We're interestedérdekelt in scenariosforgatókönyvek
in whichmelyik this is not possiblelehetséges.
63
209920
2840
De minket azok a változatok
érdekelnek, ahol ez nem lehetséges.
03:45
And my personalszemélyes favoritekedvenc
was a suggestionjavaslat by a bloggerblogger
64
213280
5416
Kedvencem az egyik blogger ötlete,
03:50
to have an ejectkilövell buttongomb in the carautó
that you pressnyomja meg --
65
218720
3016
hogy legyen katapultáló gomb
az autóban, amelyet megnyomunk...
03:53
(LaughterNevetés)
66
221760
1216
(Nevetés)
mielőtt az autó
megsemmisítené magát.
03:55
just before the carautó self-destructssaját destructs.
67
223000
1667
03:56
(LaughterNevetés)
68
224691
1680
(Nevetés)
03:59
So if we acknowledgeelismerni that carsautók
will have to make trade-offskompromisszumokat on the roadút,
69
227840
5200
Ha elfogadjuk, hogy az autóknak
kompromisszumokat kell kötniük
04:06
how do we think about those trade-offskompromisszumokat,
70
234200
1880
mit tartunk róluk,
04:09
and how do we decidedöntsd el?
71
237320
1576
és ki fog dönteni?
04:10
Well, maybe we should runfuss a surveyfelmérés
to find out what societytársadalom wants,
72
238920
3136
Tán kutatást kellene végeznünk,
hogy mit akar a társadalom,
04:14
because ultimatelyvégül,
73
242080
1456
mert végül is,
04:15
regulationselőírások and the lawtörvény
are a reflectionvisszaverődés of societaltársadalmi valuesértékeket.
74
243560
3960
a szabályozások és törvények
a társadalmi értékekhez igazodnak.
04:20
So this is what we did.
75
248040
1240
Ezt tettük.
04:21
With my collaboratorsegyüttműködők,
76
249880
1616
Munkatársaimmal,
04:23
Jean-FranJean-FrançoisOIS BonnefonBonnefon and AzimTatai Béláné ShariffDóra,
77
251520
2336
Jean-François Bonnefonnal
és Azim Shariff-fal,
04:25
we ranfutott a surveyfelmérés
78
253880
1616
kutatást végeztünk,
04:27
in whichmelyik we presentedbemutatva people
with these typestípusok of scenariosforgatókönyvek.
79
255520
2855
amelyben az emberek elé
tártuk a lehetőségeket.
04:30
We gaveadott them two optionslehetőségek
inspiredihletett by two philosophersfilozófusok:
80
258399
3777
Két filozófus, Jeremy Bentham
és Immanuel Kant alapján
két lehetőséget adtunk meg.
04:34
JeremyJeremy BenthamBentham and ImmanuelImmanuel KantKant.
81
262200
2640
04:37
BenthamBentham saysmondja the carautó
should followkövesse utilitarianhaszonelvű ethicsetikai:
82
265600
3096
Bentham szerint az autónak
haszonelvű etikát kell követnie:
04:40
it should take the actionakció
that will minimizeminimalizálása totalteljes harmsérelem --
83
268720
3416
úgy kell tennie, hogy csak
minimális kár keletkezzék,
04:44
even if that actionakció will killmegöl a bystanderszemlélő
84
272160
2816
még ha a bámészkodó meghal is,
04:47
and even if that actionakció
will killmegöl the passengerutas.
85
275000
2440
és még ha miatta meghal egy utas.
04:50
ImmanuelImmanuel KantKant saysmondja the carautó
should followkövesse duty-boundkötelessége principleselvek,
86
278120
4976
Immanuel Kant szerint az autónak
kötelességelvű etikát kell követnie:
04:55
like "ThouTe shaltmiattad not killmegöl."
87
283120
1560
pl, a "Ne ölj!" elvét.
04:57
So you should not take an actionakció
that explicitlykifejezetten harmsHarms a humanemberi beinglény,
88
285480
4456
Nem szabad olyat tenni,
ami kárt okoz egy emberi lénynek,
05:01
and you should let the carautó take its coursetanfolyam
89
289960
2456
s hagyni kell, hogy a kocsi csak menjen,
05:04
even if that's going to harmsérelem more people.
90
292440
1960
még ha több embert megsebesít is.
05:07
What do you think?
91
295640
1200
Önök mit gondolnak?
05:09
BenthamBentham or KantKant?
92
297360
1520
Bentham vagy Kant?
05:11
Here'sItt van what we foundtalál.
93
299760
1256
Mi az eredmény?
05:13
MostA legtöbb people sidedkétoldalas with BenthamBentham.
94
301040
1800
A legtöbben Benthamot támogatták.
05:16
So it seemsÚgy tűnik, that people
want carsautók to be utilitarianhaszonelvű,
95
304160
3776
Úgy látszik, az emberek
inkább haszonelvűek,
05:19
minimizeminimalizálása totalteljes harmsérelem,
96
307960
1416
minimalizálják a teljes kárt,
05:21
and that's what we should all do.
97
309400
1576
és ezt kell tennünk.
05:23
ProblemProbléma solvedmegoldott.
98
311000
1200
A kérdés megoldva.
05:25
But there is a little catchfogás.
99
313240
1480
De van egy kis bökkenő.
05:27
When we askedkérdezte people
whetherakár they would purchaseVásárlás suchilyen carsautók,
100
315920
3736
Amikor azt kérdeztük:
"Vennének-e ilyen autót?",
05:31
they said, "AbsolutelyTeljesen not."
101
319680
1616
határozott nemmel válaszoltak.
05:33
(LaughterNevetés)
102
321320
2296
(Nevetés)
05:35
They would like to buyVásárol carsautók
that protectvéd them at all costskiadások,
103
323640
3896
Olyan kocsit vennének,
amely mindenáron megvédi őket,
05:39
but they want everybodymindenki elsemás
to buyVásárol carsautók that minimizeminimalizálása harmsérelem.
104
327560
3616
ám azt akarják, hogy mások csakis
a kárt minimalizálót vegyenek.
05:43
(LaughterNevetés)
105
331200
2520
(Nevetés)
05:46
We'veMost már seenlátott this problemprobléma before.
106
334720
1856
Már találkoztunk ezzel a problémával:
05:48
It's calledhívott a socialtársadalmi dilemmadilemma.
107
336600
1560
ez a társadalmi dilemma.
05:51
And to understandmegért the socialtársadalmi dilemmadilemma,
108
339160
1816
A társadalmi dilemma megértéséhez
05:53
we have to go a little bitbit
back in historytörténelem.
109
341000
2040
egy kissé menjünk vissza a történelemben.
05:56
In the 1800s,
110
344000
2576
Az 1800-as években
05:58
Englishangol economistközgazdász WilliamWilliam ForsterForster LloydLloyd
publishedközzétett a pamphletröpirat
111
346600
3736
William Forster Lloyd angol közgazdász
az alábbi tartalmú vitairatot
jelentette meg.
06:02
whichmelyik describeskörülír the followingkövetkező scenarioforgatókönyv.
112
350360
2216
06:04
You have a groupcsoport of farmersgazdák --
113
352600
1656
Gazdák egy csoportja –
06:06
Englishangol farmersgazdák --
114
354280
1336
angol gazdák –
fölosztják maguk között a közlegelőt,
hogy birkáik legelhessenek.
06:07
who are sharingmegosztás a commonközös landföld
for theirazok sheepjuh to grazehorzsolás.
115
355640
2680
06:11
Now, if eachminden egyes farmerGazda
bringshoz a certainbizonyos numberszám of sheepjuh --
116
359520
2576
Na mármost, ha mindenki ugyanannyi juhot,
06:14
let's say threehárom sheepjuh --
117
362120
1496
mondjuk, hármat legeltet,
06:15
the landföld will be rejuvenatedmegújulva,
118
363640
2096
a legelő megújul,
06:17
the farmersgazdák are happyboldog,
119
365760
1216
a gazdák elégedettek,
06:19
the sheepjuh are happyboldog,
120
367000
1616
a birkák elégedettek,
06:20
everything is good.
121
368640
1200
minden rendben.
06:22
Now, if one farmerGazda bringshoz one extrakülön- sheepjuh,
122
370440
2520
Ha valamelyik gazda
még egy birkát odavisz,
06:25
that farmerGazda will do slightlynémileg better,
and no one elsemás will be harmedkárosult.
123
373800
4720
az kissé jobban jár,
és senki sem károsodik.
06:31
But if everyminden farmerGazda madekészült
that individuallykülön-külön rationalracionális decisiondöntés,
124
379160
3640
Ám ha mindenki ezt
az egyénileg észszerű döntést hozná,
06:35
the landföld will be overruntúllépés,
and it will be depletedkimerült
125
383840
2720
a legelőt túlhasználnák és fölélnék
06:39
to the detrimenthátrány of all the farmersgazdák,
126
387360
2176
minden gazda hátrányára,
06:41
and of coursetanfolyam,
to the detrimenthátrány of the sheepjuh.
127
389560
2120
és persze, a birkák hátrányára is.
06:44
We see this problemprobléma in manysok placeshelyek:
128
392720
3680
E problémával gyakran találkozunk:
06:49
in the difficultynehézség of managingkezelése overfishingtúlhalászás,
129
397080
3176
pl. a túlhalászat esetén,
06:52
or in reducingcsökkentő carbonszén emissionskibocsátás
to mitigateenyhítésére climateéghajlat changeváltozás.
130
400280
4560
vagy a klímaváltozás mérséklésére
a CO₂-kibocsátás csökkentésénél.
06:59
When it comesjön to the regulationszabályozás
of driverlessmeghajtó carsautók,
131
407160
2920
A vezető nélküli autó szabályozása esetén
07:03
the commonközös landföld now
is basicallyalapvetően publicnyilvános safetybiztonság --
132
411080
4336
a közlegelő itt a közbiztonság,
07:07
that's the commonközös good --
133
415440
1240
ez a közjó;
07:09
and the farmersgazdák are the passengersaz utasok
134
417400
1976
a gazdák az utasok,
07:11
or the carautó ownerstulajdonosok who are choosingkiválasztása
to ridelovagol in those carsautók.
135
419400
3600
vagy a kocsitulajdonos,
aki az autóban utazik.
07:16
And by makinggyártás the individuallykülön-külön
rationalracionális choiceválasztás
136
424960
2616
Egyénileg észszerű döntéssel
07:19
of prioritizingprioritások theirazok ownsaját safetybiztonság,
137
427600
2816
előnyben részesítve saját biztonságunkat
07:22
they maylehet collectivelyegyüttesen be
diminishingcsökkenő the commonközös good,
138
430440
3136
közösségileg csökkentenénk a közjót,
07:25
whichmelyik is minimizingkicsinyít totalteljes harmsérelem.
139
433600
2200
amely minimalizálná a teljes kárt.
07:30
It's calledhívott the tragedytragédia of the commonsköznép,
140
438320
2136
Hagyományosan ezt hívjuk
07:32
traditionallyhagyományosan,
141
440480
1296
a közbirtok tragédiájának,
07:33
but I think in the caseügy
of driverlessmeghajtó carsautók,
142
441800
3096
de a vezető nélküli autó esetében
07:36
the problemprobléma maylehet be
a little bitbit more insidiousalattomos
143
444920
2856
a dilemma tán kissé még fogósabb,
07:39
because there is not necessarilyszükségszerűen
an individualEgyedi humanemberi beinglény
144
447800
3496
mert nem szükségképpen emberi lény
07:43
makinggyártás those decisionsdöntések.
145
451320
1696
hozza a döntéseket.
07:45
So carautó manufacturersgyártók
maylehet simplyegyszerűen programprogram carsautók
146
453040
3296
Az autógyárak a kocsikat
egyszerűen beprogramozhatják,
07:48
that will maximizemaximalizálása safetybiztonság
for theirazok clientsügyfelek,
147
456360
2520
amellyel maximalizálhatják
ügyfeleik biztonságát,
07:52
and those carsautók maylehet learntanul
automaticallyautomatikusan on theirazok ownsaját
148
460080
2976
és a kocsik automatikusan
önállóan tanulhatnak,
07:55
that doing so requiresigényel slightlynémileg
increasingnövekvő riskkockázat for pedestriansgyalogosok.
149
463080
3520
és ez a biztonság kissé fokozza
a gyalogosok kockázatát.
07:59
So to use the sheepjuh metaphormetafora,
150
467520
1416
A birka-hasonlattal élve:
08:00
it's like we now have electricelektromos sheepjuh
that have a mindelme of theirazok ownsaját.
151
468960
3616
nekünk most saját tudatú
elektromos birkáink vannak.
08:04
(LaughterNevetés)
152
472600
1456
(Nevetés)
08:06
And they maylehet go and grazehorzsolás
even if the farmerGazda doesn't know it.
153
474080
3080
A gazda tudtán kívül is
bemehetnek a legelőre.
08:10
So this is what we maylehet call
the tragedytragédia of the algorithmicalgoritmikus commonsköznép,
154
478640
3976
Hívhatjuk ezt az algoritmikus
közbirtok tragédiájának,
08:14
and if offersajánlatok newúj typestípusok of challengeskihívások.
155
482640
2360
s ez új feladatot ró ránk.
08:22
TypicallyÁltalában, traditionallyhagyományosan,
156
490520
1896
E társadalmi jellegű dilemmákat
08:24
we solvemegfejt these typestípusok
of socialtársadalmi dilemmasdilemmák usinghasználva regulationszabályozás,
157
492440
3336
általában szabályozással oldjuk meg.
08:27
so eitherbármelyik governmentskormányok
or communitiesközösségek get togetheregyütt,
158
495800
2736
Kormányszervek vagy közösségek
megvitatják őket,
08:30
and they decidedöntsd el collectivelyegyüttesen
what kindkedves of outcomeeredmény they want
159
498560
3736
és közösen döntik el,
milyen eredményt szeretnének,
08:34
and what sortfajta of constraintskorlátok
on individualEgyedi behaviorviselkedés
160
502320
2656
és az egyéni cselekvés
milyen korlátozására van szükség.
08:37
they need to implementvégrehajtása.
161
505000
1200
08:39
And then usinghasználva monitoringmegfigyelés and enforcementvégrehajtás,
162
507600
2616
Aztán ellenőrzési
és végrehajtási intézkedésekkel
08:42
they can make sure
that the publicnyilvános good is preservedtartósított.
163
510240
2559
elérhető a közjó megmaradása.
08:45
So why don't we just,
164
513440
1575
Akkor szabályozó szervként
08:47
as regulatorsszabályozók,
165
515039
1496
mondjuk ki,
08:48
requirekíván that all carsautók minimizeminimalizálása harmsérelem?
166
516559
2897
hogy minden autó köteles
minimalizálni a kárt!
08:51
After all, this is
what people say they want.
167
519480
2240
Végtére, mindenki ezt akarja.
08:55
And more importantlyfontosabb,
168
523200
1416
De ennél is fontosabb,
08:56
I can be sure that as an individualEgyedi,
169
524640
3096
hogy személy szerint biztos lehetek benne,
08:59
if I buyVásárol a carautó that maylehet
sacrificeáldozat me in a very rareritka caseügy,
170
527760
3856
hogy ha ilyen kocsit veszek,
és kivételes esetben engem föláldoz,
nem én leszek az egyetlen palimadár,
09:03
I'm not the only suckerbalek doing that
171
531640
1656
09:05
while everybodymindenki elsemás
enjoysélvez unconditionalfeltétel nélküli protectionvédelem.
172
533320
2680
miközben a többiek élvezik
a feltétlen biztonságot.
09:09
In our surveyfelmérés, we did askkérdez people
whetherakár they would supporttámogatás regulationszabályozás
173
537120
3336
Kutatásunkban azt kérdeztük az emberektől,
támogatnák-e a szabályozást;
íme, az eredmény.
09:12
and here'sitt what we foundtalál.
174
540480
1200
09:14
First of all, people
said no to regulationszabályozás;
175
542360
3760
Nemet mondtak a szabályozásra,
09:19
and secondmásodik, they said,
176
547280
1256
s hozzátették:
09:20
"Well if you regulateszabályozzák a carsautók to do this
and to minimizeminimalizálása totalteljes harmsérelem,
177
548560
3936
"Ha szabályozzák az autókat,
hogy minimalizálják a kárt,
09:24
I will not buyVásárol those carsautók."
178
552520
1480
nem veszek olyan kocsit."
09:27
So ironicallyironikusan,
179
555400
1376
Elég vicces,
09:28
by regulatingszabályozó carsautók to minimizeminimalizálása harmsérelem,
180
556800
3496
hogy a kárminimalizációs szabályozás
09:32
we maylehet actuallytulajdonképpen endvég up with more harmsérelem
181
560320
1840
nagyobb kárral járhat,
09:35
because people maylehet not
optdönt into the saferbiztonságosabb technologytechnológia
182
563040
3656
mert az emberek nem a biztonságosabb
technológiát választják,
09:38
even if it's much saferbiztonságosabb
than humanemberi driversillesztőprogramok.
183
566720
2080
még ha a vezetőnél megbízhatóbb is.
09:42
I don't have the finalvégső
answerválasz to this riddlerejtély,
184
570360
3416
Nincs végső válaszom e rejtélyre,
09:45
but I think as a startingkiindulási pointpont,
185
573800
1576
de mindenekelőtt
09:47
we need societytársadalom to come togetheregyütt
186
575400
3296
a társadalomnak kell megvitatnia,
09:50
to decidedöntsd el what trade-offskompromisszumokat
we are comfortablekényelmes with
187
578720
2760
mi az elfogadható kompromisszum,
09:54
and to come up with waysmódokon
in whichmelyik we can enforceérvényesíteni those trade-offskompromisszumokat.
188
582360
3480
és azt hogyan lehet megvalósítani.
09:58
As a startingkiindulási pointpont,
my brilliantragyogó studentsdiákok,
189
586520
2536
Kiváló hallgatóim,
10:01
EdmondEdmond AwadZsófia and SohanLászlóné DsouzaDsouza,
190
589080
2456
Edmond Awad és Sohan Dsouza
10:03
builtépült the MoralErkölcsi MachineGép websiteweboldal,
191
591560
1800
létrehozták a Moral Machine honlapot,
10:06
whichmelyik generatesgenerál randomvéletlen scenariosforgatókönyvek at you --
192
594200
2680
amely véletlenszerűen
generál baleseti helyzeteket,
10:10
basicallyalapvetően a bunchcsokor
of randomvéletlen dilemmasdilemmák in a sequencesorrend
193
598080
2456
dilemmákat,
10:12
where you have to chooseválaszt what
the carautó should do in a givenadott scenarioforgatókönyv.
194
600560
3920
ahol ki kell választanunk,
mit tegyen az autó.
10:17
And we varyváltozik the ageskorosztály and even
the speciesfaj of the differentkülönböző victimsáldozatai.
195
605040
4600
Az áldozatok korát
és fajtáját változtatjuk.
10:23
So farmessze we'vevoltunk collectedösszegyűjtött
over fiveöt millionmillió decisionsdöntések
196
611040
3696
Idáig több mint ötmillió döntést
gyűjtöttünk össze világszerte,
10:26
by over one millionmillió people worldwidevilágszerte
197
614760
2200
egymillió fő részvételével
10:30
from the websiteweboldal.
198
618400
1200
a honlapról.
10:32
And this is helpingsegít us
formforma an earlykorai picturekép
199
620360
2416
Ezzel fölvázolhatjuk,
milyen kompromisszummal
10:34
of what trade-offskompromisszumokat
people are comfortablekényelmes with
200
622800
2616
lennének elégedettek az emberek,
10:37
and what mattersügyek to them --
201
625440
1896
és mi fontos nekik
10:39
even acrossát cultureskultúrák.
202
627360
1440
a különböző kultúrákban.
10:42
But more importantlyfontosabb,
203
630240
1496
De még ennél is fontosabb,
10:43
doing this exercisegyakorlat
is helpingsegít people recognizeelismerik
204
631760
3376
hogy e gyakorlatok
megértetik az emberekkel,
10:47
the difficultynehézség of makinggyártás those choicesválasztás
205
635160
2816
milyen bonyolult dönteni,
10:50
and that the regulatorsszabályozók
are taskedfeladata with impossiblelehetetlen choicesválasztás.
206
638000
3800
s hogy a szabályozó szervek
lehetetlen döntésekre kényszerülnek.
10:55
And maybe this will help us as a societytársadalom
understandmegért the kindsféle of trade-offskompromisszumokat
207
643360
3576
Talán ez elősegíti, hogy a társadalom
megértse a kompromisszum szerepét
10:58
that will be implementedvégrehajtott
ultimatelyvégül in regulationszabályozás.
208
646960
3056
a meghozandó szabályozásban.
11:02
And indeedvalóban, I was very happyboldog to hearhall
209
650040
1736
Nagyon örültem, amikor meghallottam,
11:03
that the first setkészlet of regulationselőírások
210
651800
2016
hogy a Közlekedési Minisztérium
11:05
that camejött from
the DepartmentOsztály of TransportKözlekedés --
211
653840
2136
kezdeti szabályozása
11:08
announcedbejelentett last weekhét --
212
656000
1376
– múlt héten tették közzé –
11:09
includedbeleértve a 15-point-pont checklistFeladatlista
for all carmakersautógyártók to providebiztosítani,
213
657400
6576
minden autógyártóra kötelező, 15 tételből
álló követelménylistát tartalmaz;
11:16
and numberszám 14 was ethicaletikai considerationmegfontolás --
214
664000
3256
és a 14. pont erkölcsi jellegű:
11:19
how are you going to dealüzlet with that.
215
667280
1720
milyen döntés szülessen.
Arra késztetjük az embereket,
hogy gondolkozzanak el döntéseiken
11:23
We alsois have people
reflecttükrözik on theirazok ownsaját decisionsdöntések
216
671800
2656
11:26
by givingígy them summariesösszefoglalók
of what they choseválasztotta.
217
674480
3000
az összesített eredmények ismeretében.
11:30
I'll give you one examplepélda --
218
678440
1656
Mondok egy példát.
11:32
I'm just going to warnfigyelmeztet you
that this is not your typicaltipikus examplepélda,
219
680120
3536
A példa nem tipikus.
11:35
your typicaltipikus userhasználó.
220
683680
1376
A használó sem az.
11:37
This is the mosta legtöbb sacrificedfeláldozta and the mosta legtöbb
savedmentett characterkarakter for this personszemély.
221
685080
3616
Az illető megkíméli a macskákat,
és föl szokta áldozni a gyerekeket.
11:40
(LaughterNevetés)
222
688720
5200
(Nevetés)
11:46
Some of you maylehet agreeegyetért with him,
223
694680
1896
Lehet, hogy van,
11:48
or her, we don't know.
224
696600
1640
aki egyetért vele.
11:52
But this personszemély alsois seemsÚgy tűnik, to slightlynémileg
preferjobban szeret passengersaz utasok over pedestriansgyalogosok
225
700480
6136
De az illető inkább az utasoknak
kedvez döntései során,
11:58
in theirazok choicesválasztás
226
706640
2096
semmint a gyalogosoknak, és boldog,
12:00
and is very happyboldog to punishbüntet jaywalkingjaywalking.
227
708760
2816
ha megbüntetheti a szabálytalankodó
gyalogosokat.
12:03
(LaughterNevetés)
228
711600
3040
(Nevetés)
12:09
So let's wrapbetakar up.
229
717320
1216
Összegezve:
12:10
We startedindult with the questionkérdés --
let's call it the ethicaletikai dilemmadilemma --
230
718559
3416
azzal kezdtük,
hívjuk erkölcsi dilemmának,
12:14
of what the carautó should do
in a specifickülönleges scenarioforgatókönyv:
231
722000
3056
mit tegyen az autó bizonyos helyzetben,
12:17
swervekanyarodás or staymarad?
232
725080
1200
kanyarodjon vagy álljon meg.
12:19
But then we realizedrealizált
that the problemprobléma was a differentkülönböző one.
233
727240
2736
De rájöttünk, hogy más a probléma,
12:22
It was the problemprobléma of how to get
societytársadalom to agreeegyetért on and enforceérvényesíteni
234
730000
4536
az, hogyan vegyük rá a társadalmat
egy általa elfogadott
kompromisszum betartására?
12:26
the trade-offskompromisszumokat they're comfortablekényelmes with.
235
734560
1936
12:28
It's a socialtársadalmi dilemmadilemma.
236
736520
1256
Ez társadalmi dilemma.
12:29
In the 1940s, IsaacIzsák AsimovAsimov
wroteírt his famoushíres lawstörvények of roboticsRobotika --
237
737800
5016
1940-ben Isaac Asimov leírta
a híres robotikai törvényeit,
12:34
the threehárom lawstörvények of roboticsRobotika.
238
742840
1320
a három törvényt.
12:37
A robotrobot maylehet not harmsérelem a humanemberi beinglény,
239
745240
2456
A robot nem árthat az emberi lénynek,
12:39
a robotrobot maylehet not disobeymegszegik a humanemberi beinglény,
240
747720
2536
engedelmeskednie kell neki,
12:42
and a robotrobot maylehet not allowlehetővé teszi
itselfmaga to come to harmsérelem --
241
750280
3256
és a robot magában sem tehet kárt:
12:45
in this ordersorrend of importancefontosság.
242
753560
1960
ez a fontossági sorrend.
12:48
But after 40 yearsévek or so
243
756360
2136
Ám kb. 40 év múltán,
12:50
and after so manysok storiestörténetek
pushingnyomja these lawstörvények to the limithatár,
244
758520
3736
s annyi történet után,
amelyek kipróbálták a törvényeket,
12:54
AsimovAsimov introducedbemutatott the zerothnulladik lawtörvény
245
762280
3696
Asimov bevezette a nulladik törvényt,
12:58
whichmelyik takes precedencesorrend abovefelett all,
246
766000
2256
amely minden mást megelőz.
13:00
and it's that a robotrobot
maylehet not harmsérelem humanityemberiség as a wholeegész.
247
768280
3280
Ez pedig: a robot nem árthat
az egész emberiségnek.
13:04
I don't know what this meanseszközök
in the contextkontextus of driverlessmeghajtó carsautók
248
772480
4376
Nem tudom, hogy értendő ez
a vezető nélküli autóra
13:08
or any specifickülönleges situationhelyzet,
249
776880
2736
vagy valami különleges helyzetre,
13:11
and I don't know how we can implementvégrehajtása it,
250
779640
2216
s azt sem, hogyan vezethetnénk be,
13:13
but I think that by recognizingfelismerés
251
781880
1536
de ha elismerjük,
13:15
that the regulationszabályozás of driverlessmeghajtó carsautók
is not only a technologicaltechnikai problemprobléma
252
783440
6136
hogy a vezető nélküli autóra vonatkozó
szabályozás nem csak technológiai,
13:21
but alsois a societaltársadalmi cooperationegyüttműködés problemprobléma,
253
789600
3280
hanem társadalmi együttműködési
probléma is, remélem,
13:25
I hoperemény that we can at leastlegkevésbé beginkezdődik
to askkérdez the right questionskérdések.
254
793800
2880
hogy legalább hozzáláthatunk
a helyes kérdések föltevéséhez.
13:29
Thank you.
255
797200
1216
Köszönöm.
13:30
(ApplauseTaps)
256
798440
2920
(Taps)
Translated by Peter Pallós
Reviewed by Zsuzsanna Lőrincz

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com