ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Lyad Rahwan: 无人车的道德评判标准是什么?

Filmed:
1,147,381 views

你的无人车是否应该为了挽救5个行人的生命而牺牲你的生命?在这个关于无人车社会道德困境的前瞻性演讲中,Lyad Rahwan探索了技术会如何挑战我们的道德伦理,并解释了他的工作是如何从群众中搜集我们希望(或不希望)做出的道德权衡数据的。
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
Today今天 I'm going to talk
about technology技术 and society社会.
0
1000
4080
今天我想谈谈技术和社会。
00:19
The Department of Transport运输
estimated预计 that last year
1
7040
3696
据交通部的估算,
在美国,仅去年就有
3万5千人死于交通事故。
00:22
35,000 people died死亡
from traffic交通 crashes崩溃 in the US alone单独.
2
10760
4080
00:28
Worldwide全世界, 1.2 million百万 people
die every一切 year in traffic交通 accidents事故.
3
16040
4800
而在全世界,每年则有
120万人死于交通事故。
00:33
If there was a way we could eliminate消除
90 percent百分 of those accidents事故,
4
21760
4096
如果有一种方法能减少90%的交通事故,
你会支持它吗?
00:37
would you support支持 it?
5
25880
1200
00:39
Of course课程 you would.
6
27720
1296
答案绝对是肯定的。
这就是无人车技术所承诺实现的目标,
00:41
This is what driverless无人驾驶 car汽车 technology技术
promises许诺 to achieve实现
7
29040
3655
通过消除造成事故的主要原因——
00:44
by eliminating消除 the main主要
source资源 of accidents事故 --
8
32720
2816
人为过错。
00:47
human人的 error错误.
9
35560
1200
00:49
Now picture图片 yourself你自己
in a driverless无人驾驶 car汽车 in the year 2030,
10
37920
5416
现在想象一下你在2030年中的一天,
坐在一辆无人车里
00:55
sitting坐在 back and watching观看
this vintage酿酒 TEDxCambridgeTEDxCambridge video视频.
11
43360
3456
悠闲地观看我这个过时的
TEDxCambridge视频。
00:58
(Laughter笑声)
12
46840
2000
(笑声)
01:01
All of a sudden突然,
13
49520
1216
突然间,
车子出现了机械故障,刹车失灵了。
01:02
the car汽车 experiences经验 mechanical机械 failure失败
and is unable无法 to stop.
14
50760
3280
01:07
If the car汽车 continues继续,
15
55360
1520
如果车继续行驶,
01:09
it will crash紧急 into a bunch
of pedestrians行人 crossing路口 the street,
16
57720
4120
就会冲入正在穿越人行道的人群中,
01:15
but the car汽车 may可能 swerve转弯,
17
63080
2135
但是车还可能转向,
01:17
hitting one bystander旁观者,
18
65239
1857
撞到路边一个不相干的人,
01:19
killing谋杀 them to save保存 the pedestrians行人.
19
67120
2080
用他的生命来换那些行人的生命。
01:22
What should the car汽车 do,
and who should decide决定?
20
70040
2600
这辆车该怎么做,
又该是谁来做这个决定呢?
01:25
What if instead代替 the car汽车
could swerve转弯 into a wall,
21
73520
3536
再如果,这辆车会转向并撞墙,
01:29
crashing轰然 and killing谋杀 you, the passenger乘客,
22
77080
3296
连你在内人车俱毁,
从而挽救其他人的生命,
01:32
in order订购 to save保存 those pedestrians行人?
23
80400
2320
这会是个更好的选择吗?
01:35
This scenario脚本 is inspired启发
by the trolley手推车 problem问题,
24
83240
3080
这个场景假设是受到了
“电车问题”的启发,
01:38
which哪一个 was invented发明
by philosophers哲学家 a few少数 decades几十年 ago
25
86960
3776
这是几十年前由一群哲学家
01:42
to think about ethics伦理.
26
90760
1240
发起的对道德的拷问。
01:46
Now, the way we think
about this problem问题 matters事项.
27
94120
2496
我们如何思考这个问题非常关键。
01:48
We may可能 for example
not think about it at all.
28
96640
2616
我们也许压根儿就
不应该去纠结这个问题。
01:51
We may可能 say this scenario脚本 is unrealistic不切实际,
29
99280
3376
我们可以辩称这个场景假设不现实,
01:54
incredibly令人难以置信 unlikely不会, or just silly愚蠢.
30
102680
2320
太不靠谱,简直无聊透顶。
01:57
But I think this criticism批评
misses错过 the point
31
105760
2736
不过我觉得这种批判没有切中要害,
02:00
because it takes
the scenario脚本 too literally按照字面.
32
108520
2160
因为仅仅是停留在了问题表面。
02:03
Of course课程 no accident事故
is going to look like this;
33
111920
2736
当然没有任何事故会出现这种情况;
02:06
no accident事故 has two or three options选项
34
114680
3336
没有哪个事故会同时出现2-3种选择,
02:10
where everybody每个人 dies somehow不知何故.
35
118040
2000
而每种选择中都会有人失去生命。
02:13
Instead代替, the car汽车 is going
to calculate计算 something
36
121480
2576
相反,车辆自身会做些计算,
02:16
like the probability可能性 of hitting
a certain某些 group of people,
37
124080
4896
比如撞击一群人的可能性,
02:21
if you swerve转弯 one direction方向
versus another另一个 direction方向,
38
129000
3336
如果转向另一个方向,
相对于行人来说,你可能略微
增加了乘客,或者其他驾驶员
02:24
you might威力 slightly increase增加 the risk风险
to passengers乘客 or other drivers司机
39
132360
3456
受伤的可能性。
02:27
versus pedestrians行人.
40
135840
1536
02:29
It's going to be
a more complex复杂 calculation计算,
41
137400
2160
这将会是一个更加复杂的计算,
02:32
but it's still going
to involve涉及 trade-offs权衡,
42
140480
2520
不过仍然会涉及到某种权衡,
02:35
and trade-offs权衡 often经常 require要求 ethics伦理.
43
143840
2880
而这种权衡经常需要做出道德考量。
02:39
We might威力 say then,
"Well, let's not worry担心 about this.
44
147840
2736
我们可能会说,“还是别杞人忧天了。
02:42
Let's wait until直到 technology技术
is fully充分 ready准备 and 100 percent百分 safe安全."
45
150600
4640
不如等到技术完全成熟,能达到
100%安全的时候再用吧。”
02:48
Suppose假设 that we can indeed确实
eliminate消除 90 percent百分 of those accidents事故,
46
156520
3680
假设我们的确可以在
未来的10年内消除90%,
02:53
or even 99 percent百分 in the next下一个 10 years年份.
47
161080
2840
甚至99%的事故。
02:56
What if eliminating消除
the last one percent百分 of accidents事故
48
164920
3176
如果消除最后这1%的事故
却需要再研究50年才能实现呢?
03:00
requires要求 50 more years年份 of research研究?
49
168120
3120
03:04
Should we not adopt采用 the technology技术?
50
172400
1800
我们是不是应该放弃这项技术了?
03:06
That's 60 million百万 people
dead in car汽车 accidents事故
51
174720
4776
按照目前的死亡率计算,
那可还要牺牲
03:11
if we maintain保持 the current当前 rate.
52
179520
1760
6千万人的生命啊。
03:14
So the point is,
53
182760
1216
所以关键在于,
03:16
waiting等候 for full充分 safety安全 is also a choice选择,
54
184000
3616
等待万无一失的技术也是一种选择,
03:19
and it also involves涉及 trade-offs权衡.
55
187640
2160
这里也有权衡的考虑。
03:23
People online线上 on social社会 media媒体
have been coming未来 up with all sorts排序 of ways方法
56
191560
4336
社交媒体上的人们想尽了办法
03:27
to not think about this problem问题.
57
195920
2016
去回避这个问题。
03:29
One person suggested建议
the car汽车 should just swerve转弯 somehow不知何故
58
197960
3216
有人建议无人车应该把握好角度,
刚好从人群和路边的
03:33
in between之间 the passengers乘客 --
59
201200
2136
无辜者之间的缝隙——
(笑声)
03:35
(Laughter笑声)
60
203360
1016
穿过去。
03:36
and the bystander旁观者.
61
204400
1256
03:37
Of course课程 if that's what the car汽车 can do,
that's what the car汽车 should do.
62
205680
3360
当然,如果车辆能做到这一点,
毫无疑问就应该这么做。
03:41
We're interested有兴趣 in scenarios场景
in which哪一个 this is not possible可能.
63
209920
2840
我们讨论的是无法实现这一点的情况。
03:45
And my personal个人 favorite喜爱
was a suggestion建议 by a blogger博客
64
213280
5416
我个人比较赞同一个博主的点子,
03:50
to have an eject喷射 button按键 in the car汽车
that you press --
65
218720
3016
在车里加装一个弹射按钮——
03:53
(Laughter笑声)
66
221760
1216
(笑声)
在车辆自毁前按一下就行了。
03:55
just before the car汽车 self-destructs自毁.
67
223000
1667
(笑声)
03:56
(Laughter笑声)
68
224691
1680
03:59
So if we acknowledge确认 that cars汽车
will have to make trade-offs权衡 on the road,
69
227840
5200
那么如果我们认同车辆
将不得不在行驶中做出权衡的话,
04:06
how do we think about those trade-offs权衡,
70
234200
1880
我们要如何考量这种权衡
04:09
and how do we decide决定?
71
237320
1576
并做出决策呢?
04:10
Well, maybe we should run a survey调查
to find out what society社会 wants,
72
238920
3136
也许我们应该做些调查问卷
看看大众是什么想法,
04:14
because ultimately最终,
73
242080
1456
毕竟最终,
04:15
regulations法规 and the law
are a reflection反射 of societal社会的 values.
74
243560
3960
规则和法律应该反映社会价值。
04:20
So this is what we did.
75
248040
1240
所以我们做了这么件事儿。
04:21
With my collaborators合作者,
76
249880
1616
跟我的合作者
朗·弗朗索瓦·伯尼夫和
阿米滋·谢里夫一起,
04:23
Jean-Fran让 - 弗朗索瓦çoisOIS BonnefonBonnefon and Azim阿齐姆 Shariff沙里夫,
77
251520
2336
04:25
we ran a survey调查
78
253880
1616
我们做了一项调查问卷,
为人们列举了这些假设的场景。
04:27
in which哪一个 we presented呈现 people
with these types类型 of scenarios场景.
79
255520
2855
04:30
We gave them two options选项
inspired启发 by two philosophers哲学家:
80
258399
3777
受哲学家杰里米·边沁(英国)和
伊曼努尔·康德(德国)的启发,
04:34
Jeremy杰里米 Bentham边沁 and Immanuel伊曼纽尔 Kant康德.
81
262200
2640
我们给出了两种选择。
04:37
Bentham边沁 says the car汽车
should follow跟随 utilitarian功利 ethics伦理:
82
265600
3096
边沁认为车辆应该
遵循功利主义道德:
它应该采取最小伤害的行动——
04:40
it should take the action行动
that will minimize最小化 total harm危害 --
83
268720
3416
04:44
even if that action行动 will kill a bystander旁观者
84
272160
2816
即使是以牺牲一个无辜者为代价,
04:47
and even if that action行动
will kill the passenger乘客.
85
275000
2440
即使会令乘客身亡。
04:50
Immanuel伊曼纽尔 Kant康德 says the car汽车
should follow跟随 duty-bound责无旁贷 principles原则,
86
278120
4976
伊曼努尔·康德则认为
车辆应该遵循义不容辞的原则,
04:55
like "Thou shalt not kill."
87
283120
1560
比如“不可杀人。”
04:57
So you should not take an action行动
that explicitly明确地 harms危害 a human人的 being存在,
88
285480
4456
因此你不应该有意
去伤害一个人,
应该让车顺其自然行驶,
05:01
and you should let the car汽车 take its course课程
89
289960
2456
即使这样会伤害到更多的人。
05:04
even if that's going to harm危害 more people.
90
292440
1960
05:07
What do you think?
91
295640
1200
你会怎么选择?
05:09
Bentham边沁 or Kant康德?
92
297360
1520
支持边沁还是康德?
05:11
Here's这里的 what we found发现.
93
299760
1256
我们得到的结果是这样的。
大部分人赞同边沁的观点。
05:13
Most people sided双面 with Bentham边沁.
94
301040
1800
05:16
So it seems似乎 that people
want cars汽车 to be utilitarian功利,
95
304160
3776
所以人们似乎希望
车辆是功利主义的,
将伤害降到最小,
05:19
minimize最小化 total harm危害,
96
307960
1416
我们都应该这么做。
05:21
and that's what we should all do.
97
309400
1576
问题解决了。
05:23
Problem问题 solved解决了.
98
311000
1200
05:25
But there is a little catch抓住.
99
313240
1480
不过这里还有个小插曲。
05:27
When we asked people
whether是否 they would purchase采购 such这样 cars汽车,
100
315920
3736
当我们问大家他们
会不会买这样一辆车时,
他们不约而同地回答,“绝对不会。”
05:31
they said, "Absolutely绝对 not."
101
319680
1616
05:33
(Laughter笑声)
102
321320
2296
(笑声)
他们更希望买能够
不顾一切保障自己安全的车,
05:35
They would like to buy购买 cars汽车
that protect保护 them at all costs成本,
103
323640
3896
05:39
but they want everybody每个人 else其他
to buy购买 cars汽车 that minimize最小化 harm危害.
104
327560
3616
不过却指望其他人
都买能将伤害降到最低的车。
05:43
(Laughter笑声)
105
331200
2520
(笑声)
05:46
We've我们已经 seen看到 this problem问题 before.
106
334720
1856
这个问题以前就出现过。
叫做社会道德困境。
05:48
It's called a social社会 dilemma困境.
107
336600
1560
05:51
And to understand理解 the social社会 dilemma困境,
108
339160
1816
为了理解这个概念,
我们要先简单回顾一下历史。
05:53
we have to go a little bit
back in history历史.
109
341000
2040
05:56
In the 1800s,
110
344000
2576
在19世纪,
05:58
English英语 economist经济学家 William威廉 Forster福斯特 Lloyd劳埃德
published发表 a pamphlet小册子
111
346600
3736
英国经济学家威廉·福斯特·劳埃德
出版了一个宣传册,
里面描述了这样一个场景。
06:02
which哪一个 describes介绍 the following以下 scenario脚本.
112
350360
2216
有一群农场主,
06:04
You have a group of farmers农民 --
113
352600
1656
06:06
English英语 farmers农民 --
114
354280
1336
英国农场主,
共同在一片地里放羊。
06:07
who are sharing分享 a common共同 land土地
for their sheep to graze轻擦.
115
355640
2680
06:11
Now, if each farmer农民
brings带来 a certain某些 number of sheep --
116
359520
2576
如果每个农场主都
带了一定数量的羊,
比如每家三只,
06:14
let's say three sheep --
117
362120
1496
06:15
the land土地 will be rejuvenated焕发青春,
118
363640
2096
这片土地上的植被还可以正常再生,
农场主们自然高兴,
06:17
the farmers农民 are happy快乐,
119
365760
1216
06:19
the sheep are happy快乐,
120
367000
1616
羊群也自在逍遥,
一切都相安无事。
06:20
everything is good.
121
368640
1200
06:22
Now, if one farmer农民 brings带来 one extra额外 sheep,
122
370440
2520
如果有一个农场主多放了一只羊,
06:25
that farmer农民 will do slightly better,
and no one else其他 will be harmed伤害.
123
373800
4720
他就会获益更多,
不过其他人也都没什么损失。
06:31
But if every一切 farmer农民 made制作
that individually个别地 rational合理的 decision决定,
124
379160
3640
但是如果每个农场主
都擅自增加羊的数量,
06:35
the land土地 will be overrun泛滥,
and it will be depleted耗尽
125
383840
2720
土地容量就会饱和,变得不堪重负,
06:39
to the detriment损害 of all the farmers农民,
126
387360
2176
所有农场主都会受损,
06:41
and of course课程,
to the detriment损害 of the sheep.
127
389560
2120
当然,羊群也会开始挨饿。
06:44
We see this problem问题 in many许多 places地方:
128
392720
3680
我们在很多场合都见到过这个问题:
06:49
in the difficulty困难 of managing管理的 overfishing过度捕捞,
129
397080
3176
比如过度捕捞的困境,
06:52
or in reducing减少 carbon emissions排放
to mitigate减轻 climate气候 change更改.
130
400280
4560
或者应对气候变化的碳减排。
06:59
When it comes to the regulation
of driverless无人驾驶 cars汽车,
131
407160
2920
而到了无人车的制度问题,
07:03
the common共同 land土地 now
is basically基本上 public上市 safety安全 --
132
411080
4336
公共土地在这里指的就是公共安全,
07:07
that's the common共同 good --
133
415440
1240
也就是公共利益,
07:09
and the farmers农民 are the passengers乘客
134
417400
1976
而农场主就是乘客,
07:11
or the car汽车 owners拥有者 who are choosing选择
to ride in those cars汽车.
135
419400
3600
或者车主,决定乘车出行的人。
07:16
And by making制造 the individually个别地
rational合理的 choice选择
136
424960
2616
通过自作主张把自己的安全凌驾于
07:19
of prioritizing优先 their own拥有 safety安全,
137
427600
2816
其他人的利益之上,
他们可能共同损害了
能将总损失降到最低的
07:22
they may可能 collectively be
diminishing逐渐缩小的 the common共同 good,
138
430440
3136
公共利益。
07:25
which哪一个 is minimizing减少 total harm危害.
139
433600
2200
07:30
It's called the tragedy悲剧 of the commons公地,
140
438320
2136
传统上把这称为
07:32
traditionally传统,
141
440480
1296
公地悲剧,
不过我认为对于无人车来说,
07:33
but I think in the case案件
of driverless无人驾驶 cars汽车,
142
441800
3096
07:36
the problem问题 may可能 be
a little bit more insidious阴险
143
444920
2856
问题可能是更深层次的,
07:39
because there is not necessarily一定
an individual个人 human人的 being存在
144
447800
3496
因为并没有一个人
07:43
making制造 those decisions决定.
145
451320
1696
去做决策。
07:45
So car汽车 manufacturers制造商
may可能 simply只是 program程序 cars汽车
146
453040
3296
那么无人车制造商可能会
简单的把行车电脑程序
07:48
that will maximize最大化 safety安全
for their clients客户,
147
456360
2520
设定成最大程度保护车主的安全,
07:52
and those cars汽车 may可能 learn学习
automatically自动 on their own拥有
148
460080
2976
而那些车可能会自主学习,
07:55
that doing so requires要求 slightly
increasing增加 risk风险 for pedestrians行人.
149
463080
3520
而这一过程也就会略微增加
对行人的潜在危险。
07:59
So to use the sheep metaphor隐喻,
150
467520
1416
跟羊群的比喻类似,
08:00
it's like we now have electric电动 sheep
that have a mind心神 of their own拥有.
151
468960
3616
这就好像换成了一批
可以自己思考的机器羊。
08:04
(Laughter笑声)
152
472600
1456
(笑声)
08:06
And they may可能 go and graze轻擦
even if the farmer农民 doesn't know it.
153
474080
3080
它们可能会自己去吃草,
而农场主对此毫不知情。
08:10
So this is what we may可能 call
the tragedy悲剧 of the algorithmic算法 commons公地,
154
478640
3976
这就是我们所谓的算法共享悲剧,
08:14
and if offers报价 new types类型 of challenges挑战.
155
482640
2360
这会带来新的类型的挑战。
08:22
Typically通常, traditionally传统,
156
490520
1896
通常在传统模式下,
08:24
we solve解决 these types类型
of social社会 dilemmas困境 using运用 regulation,
157
492440
3336
我们可以通过制定规则
来解决这些社会道德困境,
08:27
so either governments政府
or communities社区 get together一起,
158
495800
2736
政府或者社区共同商讨决定
08:30
and they decide决定 collectively
what kind of outcome结果 they want
159
498560
3736
他们能够接受什么样的后果,
08:34
and what sort分类 of constraints限制
on individual个人 behavior行为
160
502320
2656
以及需要对个人行为施加
08:37
they need to implement实行.
161
505000
1200
什么形式的限制。
08:39
And then using运用 monitoring监控 and enforcement强制,
162
507600
2616
通过监管和强制执行,
08:42
they can make sure
that the public上市 good is preserved罐头.
163
510240
2559
就可以确定公共利益得到了保障。
08:45
So why don't we just,
164
513440
1575
那么我们为什么不像
08:47
as regulators监管机构,
165
515039
1496
立法者那样,
08:48
require要求 that all cars汽车 minimize最小化 harm危害?
166
516559
2897
让所有无人车把危险降到最小?
08:51
After all, this is
what people say they want.
167
519480
2240
毕竟这是所有人的共同意愿。
08:55
And more importantly重要的,
168
523200
1416
更重要的是,
08:56
I can be sure that as an individual个人,
169
524640
3096
作为一个个体,我很确定
08:59
if I buy购买 a car汽车 that may可能
sacrifice牺牲 me in a very rare罕见 case案件,
170
527760
3856
如果我买了一辆会在极端情况下
牺牲我的利益的车,
09:03
I'm not the only sucker吸盘 doing that
171
531640
1656
我不会是唯一一个自残,
让其他所有人都受到无条件保护的人。
09:05
while everybody每个人 else其他
enjoys享受 unconditional无条件的 protection保护.
172
533320
2680
09:09
In our survey调查, we did ask people
whether是否 they would support支持 regulation
173
537120
3336
在我们的调查问卷中确实
也问了人们,是否会支持立法,
调查结果如下。
09:12
and here's这里的 what we found发现.
174
540480
1200
09:14
First of all, people
said no to regulation;
175
542360
3760
首先,人们并不赞同立法,
09:19
and second第二, they said,
176
547280
1256
其次,他们认为,
“如果你们要制定规则保证
这些车造成的损失最小,
09:20
"Well if you regulate调节 cars汽车 to do this
and to minimize最小化 total harm危害,
177
548560
3936
那我肯定不会买。”
09:24
I will not buy购买 those cars汽车."
178
552520
1480
09:27
So ironically讽刺地,
179
555400
1376
讽刺的是,
让无人车遵循最小损失原则,
09:28
by regulating调节 cars汽车 to minimize最小化 harm危害,
180
556800
3496
我们得到的反而可能是更大的损失,
09:32
we may可能 actually其实 end结束 up with more harm危害
181
560320
1840
09:35
because people may可能 not
opt选择 into the safer更安全 technology技术
182
563040
3656
因为人们可能放弃
使用这种更安全的技术,
即便其安全性远超过人类驾驶员。
09:38
even if it's much safer更安全
than human人的 drivers司机.
183
566720
2080
09:42
I don't have the final最后
answer回答 to this riddle谜语,
184
570360
3416
对于这场争论
我并没有得到最终的答案,
不过我认为作为一个开始,
09:45
but I think as a starting开始 point,
185
573800
1576
09:47
we need society社会 to come together一起
186
575400
3296
我们需要团结整个社会
09:50
to decide决定 what trade-offs权衡
we are comfortable自在 with
187
578720
2760
来决定哪种折中方案
是大家都可以接受的,
09:54
and to come up with ways方法
in which哪一个 we can enforce执行 those trade-offs权衡.
188
582360
3480
更要商讨出可以有效推行
这种权衡决策的方法。
09:58
As a starting开始 point,
my brilliant辉煌 students学生们,
189
586520
2536
以此为基础,我的两位出色的学生,
Edmond Awad和Sohan Dsouza,
10:01
Edmond爱德蒙 Awadawad and SohanSohan DsouzaDsouza,
190
589080
2456
10:03
built内置 the Moral道德 Machine website网站,
191
591560
1800
创建了“道德衡量器”网站,
10:06
which哪一个 generates生成 random随机 scenarios场景 at you --
192
594200
2680
可以为你设计出随机的场景——
10:10
basically基本上 a bunch
of random随机 dilemmas困境 in a sequence序列
193
598080
2456
简单来说就是一系列
按顺序发生的随机困境,
10:12
where you have to choose选择 what
the car汽车 should do in a given特定 scenario脚本.
194
600560
3920
你需要据此判断无人车应该如何抉择。
10:17
And we vary变化 the ages年龄 and even
the species种类 of the different不同 victims受害者.
195
605040
4600
我们还对不同的(潜在)受害者
设置了年龄,甚至种族信息。
10:23
So far we've我们已经 collected
over five million百万 decisions决定
196
611040
3696
目前我们已经搜集到了
超过5百万份决定,
10:26
by over one million百万 people worldwide全世界
197
614760
2200
来自于全世界超过1百万人
10:30
from the website网站.
198
618400
1200
在网上给出的答案。
10:32
And this is helping帮助 us
form形成 an early picture图片
199
620360
2416
这帮助我们
形成了一个概念雏形,
10:34
of what trade-offs权衡
people are comfortable自在 with
200
622800
2616
告诉了我们对人们来说
哪些折中方案最适用,
他们最在意的是什么——
10:37
and what matters事项 to them --
201
625440
1896
10:39
even across横过 cultures文化.
202
627360
1440
甚至跨越了文化障碍。
10:42
But more importantly重要的,
203
630240
1496
不过更重要的是,
10:43
doing this exercise行使
is helping帮助 people recognize认识
204
631760
3376
这项练习能帮助人们认识到
10:47
the difficulty困难 of making制造 those choices选择
205
635160
2816
做出这些选择有多难,
10:50
and that the regulators监管机构
are tasked任务 with impossible不可能 choices选择.
206
638000
3800
而立法者更是被要求做出
不现实的选择。
10:55
And maybe this will help us as a society社会
understand理解 the kinds of trade-offs权衡
207
643360
3576
这还可能帮助我们整个社会
去理解那些最终将会被
10:58
that will be implemented实施
ultimately最终 in regulation.
208
646960
3056
纳入法规的折中方案。
11:02
And indeed确实, I was very happy快乐 to hear
209
650040
1736
诚然,我很高兴听到
11:03
that the first set of regulations法规
210
651800
2016
第一套由交通部
11:05
that came来了 from
the Department of Transport运输 --
211
653840
2136
批准的法规——
上周刚刚公布——
11:08
announced公布 last week --
212
656000
1376
11:09
included包括 a 15-point-点 checklist清单
for all carmakers汽车制造商 to provide提供,
213
657400
6576
囊括了需要所有无人车厂商
提供的15点清单,
11:16
and number 14 was ethical合乎道德的 consideration考虑 --
214
664000
3256
而其中第14点就是道德考量——
11:19
how are you going to deal合同 with that.
215
667280
1720
要如何处理道德困境。
11:23
We also have people
reflect反映 on their own拥有 decisions决定
216
671800
2656
我们还通过为大家
提供自己选择的概要,
11:26
by giving them summaries摘要
of what they chose选择.
217
674480
3000
让人们反思自己的决定。
11:30
I'll give you one example --
218
678440
1656
给大家举个例子——
我要提醒大家
这不是一个典型的例子,
11:32
I'm just going to warn警告 you
that this is not your typical典型 example,
219
680120
3536
也不是典型的车主。
11:35
your typical典型 user用户.
220
683680
1376
11:37
This is the most sacrificed牺牲 and the most
saved保存 character字符 for this person.
221
685080
3616
这个人有着最容易牺牲(儿童),
也最容易被保护的特征(宠物)。
11:40
(Laughter笑声)
222
688720
5200
(笑声)
11:46
Some of you may可能 agree同意 with him,
223
694680
1896
你们中有人可能会赞同他,
11:48
or her, we don't know.
224
696600
1640
或者她,我们并不知道其性别。
11:52
But this person also seems似乎 to slightly
prefer比较喜欢 passengers乘客 over pedestrians行人
225
700480
6136
不过这位调查对象
也似乎更愿意保护乘客,
11:58
in their choices选择
226
706640
2096
而不是行人,
甚至相当支持严惩横穿马路的行人。
12:00
and is very happy快乐 to punish惩治 jaywalking乱穿马路.
227
708760
2816
12:03
(Laughter笑声)
228
711600
3040
(笑声)
12:09
So let's wrap up.
229
717320
1216
那么我们来总结一下。
我们由一个问题开始——
就叫它道德困境问题——
12:10
We started开始 with the question --
let's call it the ethical合乎道德的 dilemma困境 --
230
718559
3416
12:14
of what the car汽车 should do
in a specific具体 scenario脚本:
231
722000
3056
关于在特定条件下
无人车应该如何抉择:
转向还是直行?
12:17
swerve转弯 or stay?
232
725080
1200
12:19
But then we realized实现
that the problem问题 was a different不同 one.
233
727240
2736
但之后我们意识到这并不是问题的核心。
12:22
It was the problem问题 of how to get
society社会 to agree同意 on and enforce执行
234
730000
4536
关键的问题在于如何让
大众在他们能够接受的权衡方案中
达成一致并付诸实施。
12:26
the trade-offs权衡 they're comfortable自在 with.
235
734560
1936
这是个社会道德困境。
12:28
It's a social社会 dilemma困境.
236
736520
1256
在20世纪40年代, 艾萨克·阿西莫夫
(俄科幻小说家)就写下了他那著名的
12:29
In the 1940s, Isaac艾萨克 Asimov阿西莫夫
wrote his famous著名 laws法律 of robotics机器人 --
237
737800
5016
12:34
the three laws法律 of robotics机器人.
238
742840
1320
机器人三大法则。
12:37
A robot机器人 may可能 not harm危害 a human人的 being存在,
239
745240
2456
机器人不能伤害人类,
12:39
a robot机器人 may可能 not disobey a human人的 being存在,
240
747720
2536
机器人不能违背人类的命令,
12:42
and a robot机器人 may可能 not allow允许
itself本身 to come to harm危害 --
241
750280
3256
机器人不能擅自伤害自己——
12:45
in this order订购 of importance重要性.
242
753560
1960
这是按重要性由高到低排序的。
12:48
But after 40 years年份 or so
243
756360
2136
但是大约40年后,
12:50
and after so many许多 stories故事
pushing推动 these laws法律 to the limit限制,
244
758520
3736
太多事件不断挑战这些法则的底线,
12:54
Asimov阿西莫夫 introduced介绍 the zeroth law
245
762280
3696
阿西莫夫又引入了第零号法则,
12:58
which哪一个 takes precedence优先权 above以上 all,
246
766000
2256
凌驾于之前所有法则之上,
13:00
and it's that a robot机器人
may可能 not harm危害 humanity人性 as a whole整个.
247
768280
3280
说的是机器人不能伤害人类这个整体。
13:04
I don't know what this means手段
in the context上下文 of driverless无人驾驶 cars汽车
248
772480
4376
我不太明白在无人车和
其他特殊背景下
13:08
or any specific具体 situation情况,
249
776880
2736
这句话是什么意思,
13:11
and I don't know how we can implement实行 it,
250
779640
2216
也不清楚我们要如何实践它,
13:13
but I think that by recognizing认识
251
781880
1536
但我认为通过认识到
13:15
that the regulation of driverless无人驾驶 cars汽车
is not only a technological技术性 problem问题
252
783440
6136
针对无人车的立法不仅仅是个技术问题,
13:21
but also a societal社会的 cooperation合作 problem问题,
253
789600
3280
还是一个社会合作问题,
13:25
I hope希望 that we can at least最小 begin开始
to ask the right questions问题.
254
793800
2880
我希望我们至少可以
从提出正确的问题入手。
13:29
Thank you.
255
797200
1216
谢谢大家。
(掌声)
13:30
(Applause掌声)
256
798440
2920
Reviewed by Bangyou Xiang

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com