ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

ダニエル・スアレース: 人殺しの決定をロボットに任せてはいけない

Filmed:
1,946,706 views

ダニエル・スアレースが普段小説家として描き出しているのは悲観的未来像ですが、TEDGlobalのステージで彼が語るのは私達がもっと知らなければならない現実のシナリオ、自律的ロボット兵器の台頭です。最新鋭のドローン、自動兵器、人工知能搭載の諜報ツールなどが、人の手を離れて自ら決断を下す可能性を彼は示しています。
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I write書きます fictionフィクション sci-fiSFの thrillersスリラー,
0
691
3158
私はSFスリラーの
小説家です
00:15
so if I say "killerキラー robotsロボット,"
1
3849
2193
その私が「殺人ロボット」
と言ったら
00:18
you'dあなたは probably多分 think something like this.
2
6042
2361
おそらく こんな感じのものを
想像されるでしょう
00:20
But I'm actually実際に not here to talk about fictionフィクション.
3
8403
2555
でも 今日はフィクションの話を
しに来たのではありません
00:22
I'm here to talk about very realリアル killerキラー robotsロボット,
4
10958
2948
まさに現実化している
「殺人ロボット」―
00:25
autonomous自律的 combat戦闘 drones無人機.
5
13906
3122
そう 完全自律型の戦闘ドローンのことを
話しに来ました
00:29
Now, I'm not referring参照する to Predatorプレデター and Reaperリーパー drones無人機,
6
17028
3627
ご存知のプレデター型や
リーパー型のことではありません
00:32
whichどの have a human人間 making作る targetingターゲティング decisions決定.
7
20655
3260
これらの無人機は 標的の決定を
人間が行っています
00:35
I'm talking話す about fully完全に autonomous自律的 roboticロボット weapons兵器
8
23915
3129
私は完全自律型のロボット兵器のことを
言っているんです
00:39
that make lethal致死 decisions決定 about human人間 beings存在
9
27044
2654
このロボット兵器は
人間殺害の決定を
00:41
all on their彼らの own自分の.
10
29698
2417
ロボット自体が行います
00:44
There's actually実際に a technicalテクニカル term期間 for this: lethal致死 autonomy自律性.
11
32115
4000
実は これを指す専門用語もあります
「完全自律型殺傷機能」です
00:48
Now, lethally致死的 autonomous自律的 killerキラー robotsロボット
12
36115
2856
「完全自律型殺傷機能」を持つ
殺人ロボットは
00:50
would take manyたくさんの formsフォーム -- flying飛行, driving運転,
13
38971
3069
多様な姿で現れます
飛行し 走行し あるいは
00:54
or just lying嘘つき in wait.
14
42040
2746
待ち伏せするような
ものもあるでしょう
00:56
And actually実際に, they're very quickly早く becoming〜になる a reality現実.
15
44786
3109
実は これらのロボットは
急速に現実のものとなりつつあります
00:59
These are two automatic自動 sniperスナイパー stations
16
47895
2484
この2種類の
自動狙撃装置は
01:02
currently現在 deployed展開された in the DMZDMZ betweenの間に North and South Korea韓国.
17
50379
4137
現在 北朝鮮との非武装地帯の
韓国側に配備されています
01:06
Bothどちらも of these machines機械 are capable可能な of automatically自動的に
18
54516
2171
この機械はどちらも
攻撃対象となる—
01:08
identifying識別 a human人間 targetターゲット and firing発砲 on it,
19
56687
3524
人間を自動的に特定し
銃撃する機能があります
01:12
the one on the left at a distance距離 of over a kilometerキロメートル.
20
60211
4324
左側のものには
1キロ以上の射程があります
01:16
Now, in bothどちらも cases症例, there's still a human人間 in the loopループ
21
64535
3589
現在のところは どちらの機械でも
射殺決定の枠組みに
01:20
to make that lethal致死 firing発砲 decision決定,
22
68124
2372
今のところは
人間が介在しています
01:22
but it's not a technological技術的 requirement要件. It's a choice選択.
23
70496
5413
しかし 技術的には人を要するわけではなく
そこに人を介在させる選択をしたわけです
01:27
And it's that choice選択 that I want to focusフォーカス on,
24
75909
3093
この選択こそが
今日 私が焦点を当てたいことです
01:31
because as we migrate移行する lethal致死 decision-making意思決定
25
79002
2641
なぜなら この
殺人の意思決定が
01:33
from humans人間 to softwareソフトウェア,
26
81643
3109
人間からソフトウェアに
移行しつつあって
01:36
we riskリスク not only taking取る the humanity人類 out of war戦争,
27
84752
3476
それは 戦争から人間性を
取り去ってしまうだけでなく
01:40
but alsoまた、 changing変化 our socialソーシャル landscape風景 entirely完全に,
28
88228
3526
戦場から遠く隔たった
社会の情勢をも
01:43
far遠い from the battlefield戦場.
29
91754
2224
変えてしまう危険が
あるからです
01:45
That's because the way humans人間 resolve解決する conflict紛争
30
93978
4509
なぜなら人間が対立を解決する方法によって
私たちを取り巻く社会情勢が
01:50
shapes our socialソーシャル landscape風景.
31
98487
1733
形成されるからです
01:52
And this has always been the case場合, throughout全体を通して history歴史.
32
100220
2633
歴史上ずっと
そうやって形成されてきたのです
01:54
For example, these were state-of-the-art最先端 weapons兵器 systemsシステム
33
102853
2661
たとえば 西暦1400年には
これが最先端の―
01:57
in 1400 A.D.
34
105514
2079
兵器システムでした
01:59
Now they were bothどちらも very expensive高価な to buildビルドする and maintain維持する,
35
107593
3144
両方とも 作るのも維持するのも
とても高く付きましたが
02:02
but with these you could dominate支配的 the populace民衆,
36
110737
3240
これがあれば民衆を
支配できました
02:05
and the distribution分布 of political政治的 powerパワー in feudal封建 society社会 reflected反射した that.
37
113977
3889
封建社会の政治権力の分布は
誰が武力を持つかを反映し
02:09
Power was focused集中した at the very top.
38
117866
2687
力は権力のトップにいる人に
集中していたのです
02:12
And what changedかわった? Technological技術的 innovation革新.
39
120553
3528
それから何が変わったのでしょう?
技術革新です
02:16
Gunpowder火薬, cannon大砲.
40
124081
1871
火薬 大砲
02:17
And prettyかなり soonすぐに, armor and castles were obsolete時代遅れの,
41
125952
3817
すぐに 甲冑と城は
時代遅れになりました
02:21
and it mattered重要な lessもっと少なく who you brought持ってきた to the battlefield戦場
42
129769
2533
戦場に誰を連れて行くかは
重要でなくなり
02:24
versus how manyたくさんの people you brought持ってきた to the battlefield戦場.
43
132302
3779
戦場にどれだけの人数を
送り込めるかが重要になりました
02:28
And as armies軍隊 grew成長しました in sizeサイズ, the nation-state国家 arose起きた
44
136081
3638
軍隊の人数が増えるようになると
防衛のための—
02:31
as a political政治的 and logistical物流 requirement要件 of defense防衛.
45
139719
3680
政治的 物流的な要請から
国家が必要となりました
02:35
And as leaders指導者 had to rely頼りにする on more of their彼らの populace民衆,
46
143399
2376
指導者は民衆に
依存する必要が出てきて
02:37
they began始まった to shareシェア powerパワー.
47
145775
1833
力が共有されるようになりました
02:39
Representative代表 government政府 began始まった to form.
48
147608
2599
そして代議制が
形成されだします
02:42
So again, the toolsツール we use to resolve解決する conflict紛争
49
150207
3288
ここでもまた
対立解消にどんな手段を取るかが
02:45
shape形状 our socialソーシャル landscape風景.
50
153495
3304
私たちを取り巻く社会情勢を
形作っています
02:48
Autonomous自律 roboticロボット weapons兵器 are suchそのような a toolツール,
51
156799
4064
自律ロボット兵器も
そのような手段の1つです
02:52
exceptを除いて that, by requiring必要 very few少数 people to go to war戦争,
52
160863
5168
ただ戦争を始めるのに
非常に少数の人間しか必要としないため
02:58
they riskリスク re-centralizing再集中化する powerパワー into very few少数 hands,
53
166031
4840
ごく少数の人の手に力を
再び集中させるリスクがあります
03:02
possiblyおそらく reversing逆転 a five-century5世紀 trend傾向 toward〜に向かって democracy民主主義.
54
170871
6515
民主化の流れを 5世紀分ほど
逆戻りさせてしまうかもしれません
03:09
Now, I think, knowing知っている this,
55
177386
1757
でも 私たちが
03:11
we can take decisive決定的 stepsステップ to preserve保存する our democratic民主的 institutions機関,
56
179143
4352
このリスクを理解していれば
民主主義制度を守るための断固たる措置を取れます
03:15
to do what humans人間 do bestベスト, whichどの is adapt適応する.
57
183495
3979
人間が長けている能力によって—
すなわち適応力です
03:19
But time is a factor因子.
58
187474
2005
しかし タイミングが
重要です
03:21
Seventy70 nations are developing現像 remotely-piloted遠隔操縦された
59
189479
2851
70の国が遠隔操縦可能な―
03:24
combat戦闘 drones無人機 of their彼らの own自分の,
60
192330
2157
戦闘ドローンを
独自に開発しています
03:26
and as you'llあなたは see, remotely-piloted遠隔操縦された combat戦闘 drones無人機
61
194487
2593
おわかりと思いますが
遠隔操作戦闘ドローンは
03:29
are the precursors前駆体 to autonomous自律的 roboticロボット weapons兵器.
62
197080
4472
自律ロボット兵器を
作り始める前兆です
03:33
That's because once一度 you've deployed展開された remotely-piloted遠隔操縦された drones無人機,
63
201552
2767
なぜなら遠隔操作の無人機が
03:36
there are three powerful強力な factors要因 pushing押して decision-making意思決定
64
204319
3384
一旦配備されてしまうと
意思決定を人の手から
03:39
away from humans人間 and on to the weapon武器 platformプラットフォーム itself自体.
65
207703
4600
兵器そのものへと押しやることになる
大きな要因が3つあるからです
03:44
The first of these is the deluge大洪水 of videoビデオ that drones無人機 produce作物.
66
212303
5259
1つ目の要因は
無人機が撮影するビデオが膨大になることです
03:49
For example, in 2004, the U.S. drone無人機 fleet艦隊 produced生産された
67
217562
3853
たとえば 2004 年に
米国のドローン軍団が撮影した
03:53
a grand壮大 total合計 of 71 hours時間 of videoビデオ surveillance監視 for analysis分析.
68
221415
5312
分析が必要な偵察映像は
総計71 時間でした
03:58
By 2011, this had gone行った up to 300,000 hours時間,
69
226727
4499
それが2011 年には 30万時間へと
増えたのです
04:03
outstrippingアウトストリップ human人間 ability能力 to reviewレビュー it all,
70
231226
3149
すべてを確認するのは
人間の能力を超えてしまいました
04:06
but even that number is about to go up drastically劇的に.
71
234375
3664
しかも この時間はまだまだ
増加しそうです
04:10
The Pentagon'sペンタゴンズ Gorgonゴルゴン Stare見詰める and Argusアーガス programsプログラム
72
238039
2575
米国防総省のゴルゴンステアや
アーガスという計画では
04:12
will put up to 65 independently独立して operated操作された cameraカメラ eyes
73
240614
3164
最大65個の独立した
カメラの目を
04:15
on each drone無人機 platformプラットフォーム,
74
243778
2038
個々のドローンに付けるもので
04:17
and this would vastly大いに outstrip引き出し human人間 ability能力 to reviewレビュー it.
75
245816
3303
これは人間が確認できる量を
大幅に上回るものとなります
04:21
And that means手段 visualビジュアル intelligenceインテリジェンス softwareソフトウェア will need
76
249119
2160
こうなると
関心を引く対象を発見するために
04:23
to scanスキャン it for itemsアイテム of interest利子.
77
251279
4048
視覚情報分析ソフトの力が
必要になります
04:27
And that means手段 very soonすぐに
78
255327
1348
これは じきにドローンが
04:28
drones無人機 will tell humans人間 what to look at,
79
256675
2747
注目すべき所を人間に
指示するようになるということで
04:31
not the other way around.
80
259422
2497
人間側からではありません
04:33
But there's a second二番 powerful強力な incentiveインセンティブ pushing押して
81
261919
2473
意思決定を
人間から機械へと
04:36
decision-making意思決定 away from humans人間 and onto〜に machines機械,
82
264392
3383
強く推しやる
2つ目の要因は
04:39
and that's electromagnetic電磁 jammingジャミング,
83
267775
2872
電磁波による妨害です
04:42
severing切断 the connection接続 betweenの間に the drone無人機
84
270647
2236
妨害されると
ドローンと遠隔操作者の間の
04:44
and its operatorオペレーター.
85
272883
2814
通信が途切れてしまいます
04:47
Now we saw an example of this in 2011
86
275697
2618
2011年に これが起こった
例がありました
04:50
when an Americanアメリカ人 RQ-RQ-170 Sentinelセンチネル drone無人機
87
278315
2956
アメリカ軍の RQ-170
センチネル ドローンが
04:53
got a bitビット confused混乱した over Iranイラン due支払う to a GPSGPS spoofingなりすまし attack攻撃,
88
281271
4307
イラン軍による GPS 信号のなりすまし攻撃で
混乱させられたのです
04:57
but any remotely-piloted遠隔操縦された drone無人機 is susceptible影響を受けやすいです to this typeタイプ of attack攻撃,
89
285578
5114
遠隔操作型のドローンである限り
この種の攻撃には弱いものです
05:02
and that means手段 drones無人機
90
290692
2052
つまりドローンは
05:04
will have to shoulderショルダー more decision-making意思決定.
91
292744
3620
意思決定の より多くの割合を
背負わなければならなくなるのです
05:08
They'll彼らは know their彼らの missionミッション objective目的,
92
296364
3043
ドローンは 作戦目的を把握し
05:11
and they'll彼らは react反応する to new新しい circumstances状況 withoutなし human人間 guidanceガイダンス.
93
299407
4845
人間の導きなしに
新しい状況に対応するようになるでしょう
05:16
They'll彼らは ignore無視する external外部 radio無線 signalsシグナル
94
304252
2581
ドローンは 外部からの
無線信号を無視し
05:18
and send送信する very few少数 of their彼らの own自分の.
95
306833
2330
自分側からは ほとんど
発信しなくなります
05:21
Whichどの bringsもたらす us to, really, the third三番
96
309163
2006
そして ここから—
05:23
and most最も powerful強力な incentiveインセンティブ pushing押して decision-making意思決定
97
311169
3862
3つ目の
最も強力に意思決定を
05:27
away from humans人間 and onto〜に weapons兵器:
98
315031
3342
人から兵器へ移すように
促す要因が出てきます
05:30
plausibleもっともらしい deniability拒否権.
99
318373
3293
それは
「まことしやかな関与否定」です
05:33
Now we liveライブ in a globalグローバル economy経済.
100
321666
2887
私たちは グローバル経済の
時代にいます
05:36
High-techハイテク manufacturing製造 is occurring発生する on most最も continents大陸.
101
324553
4334
ハイテク製品の製造は
ほとんどの大陸で行われています
05:40
Cyberサイバー espionageスパイ活動 is spiriting元気 away advanced高度な designsデザイン
102
328887
2914
サイバー諜報戦の一環で
先進的設計を
05:43
to parts部品 unknown未知の,
103
331801
1886
様々な部品に隠しますが
05:45
and in that environment環境, it is very likelyおそらく
104
333687
2014
このような環境では
05:47
that a successful成功した drone無人機 design設計 will be knockedノックアウト off in contract契約する factories工場,
105
335701
4734
ドローン設計が契約工場で模倣される
可能性が非常に高いのです
05:52
proliferate増殖する in the grayグレー market市場.
106
340435
2170
そして裏市場へと
拡散します
05:54
And in that situation状況, siftingふるい分け throughを通して the wreckage残骸
107
342605
2460
こんな状況では
自爆攻撃ドローンの残骸を
05:57
of a suicide自殺 drone無人機 attack攻撃, it will be very difficult難しい to say
108
345065
2960
調査したところで
06:00
who sent送られた that weapon武器.
109
348025
4400
兵器で攻撃を仕掛けたのが
誰なのかわかりません
06:04
This raises起き上がる the very realリアル possibility可能性
110
352425
2800
見えない敵との戦いが
06:07
of anonymous匿名 war戦争.
111
355225
2935
非常に現実的な可能性として
浮かび上がります
06:10
This could tilt傾ける the geopolitical地政学的 balanceバランス on its head,
112
358160
2614
地政学的なバランスを
180度変えてしまう可能性があり
06:12
make it very difficult難しい for a nation国家 to turn順番 its firepower火力
113
360774
3491
国家が攻撃してきた相手へ反撃することを
非常に困難にします
06:16
againstに対して an attackerアタッカー, and that could shiftシフト the balanceバランス
114
364265
2848
これによって 21世紀において
防衛中心の考えから
06:19
in the 21stセント century世紀 away from defense防衛 and toward〜に向かって offense犯罪.
115
367113
3764
攻撃中心の考えへと
重心が変わってしまうかもしれません
06:22
It could make military軍事 actionアクション a viable実行可能な optionオプション
116
370877
3124
匿名での攻撃が可能になることで
06:26
not just for small小さい nations,
117
374001
2288
小国家や 犯罪組織
民間企業
06:28
but criminal犯罪者 organizations組織, privateプライベート enterprise企業,
118
376289
2545
さらには有力な個人にさえ
06:30
even powerful強力な individuals個人.
119
378834
2479
軍事行動が有効な手段と
なりえるのです
06:33
It could create作成する a landscape風景 of rivalライバル warlords軍隊
120
381313
3328
これは 法の支配と市民社会の
土台を壊してしまい
06:36
undermining弱体化する ruleルール of law法律 and civil市民 society社会.
121
384641
3680
群雄割拠の情勢を
作り出すかもしれません
06:40
Now if responsibility責任 and transparency透明性
122
388321
3616
責任と透明性は
06:43
are two of the cornerstones礎石 of representative代表 government政府,
123
391937
2384
代議制を支える
土台と言えるかもしれませんが
06:46
autonomous自律的 roboticロボット weapons兵器 could undermine衰弱させる bothどちらも.
124
394321
4320
自律ロボット兵器は
その両方を弱体化させる可能性があります
06:50
Now you mightかもしれない be thinking考え that
125
398641
1546
みなさんは こう考えるかもしれません
06:52
citizens市民 of high-techハイテク nations
126
400187
2246
ハイテク諸国の市民なら
06:54
would have the advantage利点 in any roboticロボット war戦争,
127
402433
2703
ロボット戦争で優位に立っていて
06:57
that citizens市民 of those nations would be lessもっと少なく vulnerable脆弱な,
128
405136
3633
これらの国の市民は
危険にさらされにくいと考えるかもしれません
07:00
particularly特に againstに対して developing現像 nations.
129
408769
4288
特に途上国が相手なら
なおさらです
07:05
But I think the truth真実 is the exact正確 opposite反対の.
130
413057
3524
しかし 真実は全く逆だと思います
07:08
I think citizens市民 of high-techハイテク societies社会
131
416581
2251
ハイテク社会の市民は
07:10
are more vulnerable脆弱な to roboticロボット weapons兵器,
132
418832
3729
より大きく ロボット兵器の
危険にさらされています
07:14
and the reason理由 can be summed合計 up in one wordワード: dataデータ.
133
422561
4465
この理由は 1語に要約できます
「データ」です
07:19
Dataデータ powers high-techハイテク societies社会.
134
427026
3481
データは ハイテク社会を
動かしています
07:22
Cell細胞 phone電話 geolocationジオロケーション, telecomテレコム metadataメタデータ,
135
430507
3190
携帯電話の位置情報
電話の会話から集められるメタデータ
07:25
socialソーシャル mediaメディア, emailEメール, textテキスト, financial金融 transactionトランザクション dataデータ,
136
433697
3472
ソーシャルメディア 電子メール
SMS 金融取引のデータ
07:29
transportation交通 dataデータ, it's a wealth of real-timeリアルタイム dataデータ
137
437169
3532
交通機関や移動のデータなどです
これらは人々の活動や
07:32
on the movements動き and socialソーシャル interactionsインタラクション of people.
138
440701
3373
社会的な交流を表す
膨大なリアルタイムデータの塊です
07:36
In shortショート, we are more visible目に見える to machines機械
139
444074
3775
だから 私たちは
歴史上のどんな時代の人たちよりも
07:39
than any people in history歴史,
140
447849
2242
機械に行動が
筒抜けになっているのです
07:42
and this perfectly完全に suitsスーツ the targetingターゲティング needsニーズ of autonomous自律的 weapons兵器.
141
450091
5616
これは自律的兵器が標的を探すために
絶好のものとなります
07:47
What you're looking at here
142
455707
1738
いま画面に映っているのは
07:49
is a linkリンク analysis分析 map地図 of a socialソーシャル groupグループ.
143
457445
3246
ある社会的集団が
どうつながっているか分析した図です
07:52
Linesライン indicate示す socialソーシャル connectedness接続性 betweenの間に individuals個人.
144
460691
3634
線は個人間の社会的な
つながりを示しています
07:56
And these typesタイプ of maps地図 can be automatically自動的に generated生成された
145
464325
2880
現代人が日常的に残す
データの痕跡から
07:59
basedベース on the dataデータ trailトレイル modernモダン people leave離れる behind後ろに.
146
467205
4715
このような図を自動的に
生成することができます
08:03
Now it's typically典型的には used to market市場 goods and servicesサービス
147
471920
2477
この技術は通常は
人口動態で標的を割り出して
08:06
to targeted目標 demographics人口統計, but it's a dual-use二重使用 technology技術,
148
474397
4416
商品やサービスを販売するのに使われますが
諸刃の技術でもあります
08:10
because targetingターゲティング is used in another別の contextコンテキスト.
149
478813
3360
標的を割り出す技術が
別の用途に使われるからです
08:14
Notice通知 that certainある individuals個人 are highlighted強調表示された.
150
482173
2560
赤色で表示されている
人たちがいますが これは
08:16
These are the hubsハブ of socialソーシャル networksネットワーク.
151
484733
3280
社会的なネットワークの
ハブとなっている人たちです
08:20
These are organizers主催者, opinion-makers意見作成者, leaders指導者,
152
488013
3590
この人たちは 組織のまとめ役や
オピニオンメーカーやリーダーです
08:23
and these people alsoまた、 can be automatically自動的に identified特定された
153
491603
2682
この人たちも
通信のパターンを追跡することで
08:26
from their彼らの communicationコミュニケーション patternsパターン.
154
494285
2382
自動的に見つけ出すことが可能です
08:28
Now, if you're a marketerマーケティング担当者, you mightかもしれない then targetターゲット them
155
496667
2146
マーケティング担当者なら
08:30
with product製品 samplesサンプル, try to spread普及 your brandブランド
156
498813
2543
社会的グループに
ブランドを広めるために
08:33
throughを通して their彼らの socialソーシャル groupグループ.
157
501356
2829
製品サンプルを送る
標的にするでしょう
08:36
But if you're a repressive抑圧的な government政府
158
504185
1953
しかし もし抑圧的な政府で
08:38
searching検索 for political政治的 enemies, you mightかもしれない instead代わりに remove除去する them,
159
506138
4810
政治上の敵となる相手を探しているなら
彼らは排除する標的となるでしょう
08:42
eliminate排除する them, disrupt混乱する their彼らの socialソーシャル groupグループ,
160
510948
2760
リーダーを抹殺し
社会的グループを混乱させ
08:45
and those who remain残る behind後ろに lose失う socialソーシャル cohesion凝集
161
513708
3169
そして 残されたグループの人たちは
社会的つながりや
08:48
and organization組織.
162
516877
2621
組織を失ってしまいます
08:51
Now in a world世界 of cheap安いです, proliferating増殖する roboticロボット weapons兵器,
163
519498
3324
安いロボット兵器が
拡散するような世界になったら
08:54
borders国境 would offer提供 very little protection保護
164
522822
2635
遠くにいる政府反対派や
08:57
to critics評論家 of distant遠い governments政府
165
525457
1946
国際的犯罪組織に対し
08:59
or trans-nationalトランスナショナル criminal犯罪者 organizations組織.
166
527403
3646
国境はほとんど防衛線になりません
09:03
Popular人気 movements動き agitating攪拌する for change変化する
167
531049
3493
支持されて 変革を起こすような
扇動活動があれば
09:06
could be detected検出された early早い and their彼らの leaders指導者 eliminated除去された
168
534542
3609
クリティカルマスに到達する前に
早期に検出されてしまい
09:10
before their彼らの ideasアイデア achieve達成する criticalクリティカルな mass質量.
169
538151
2911
指導者は排除される
ようになるでしょう
09:13
And ideasアイデア achieving達成する criticalクリティカルな mass質量
170
541062
2591
アイデアがクリティカルマスに
到達できる環境は
09:15
is what political政治的 activism行動主義 in popular人気 government政府 is all about.
171
543653
3936
人民政府における
政治運動の全てと言ってもいいでしょう
09:19
Anonymous匿名 lethal致死 weapons兵器 could make lethal致死 actionアクション
172
547589
3997
正体不明の殺戮兵器があることで
あらゆる利害の対立において
09:23
an easy簡単 choice選択 for all sortsソート of competing競合する interests関心.
173
551586
3782
殺害という選択が
簡単にできてしまうようになるでしょう
09:27
And this would put a chill冷やす on free無料 speechスピーチ
174
555368
3734
そして このことは
民主主義のまさに中核と言える
09:31
and popular人気 political政治的 actionアクション, the very heartハート of democracy民主主義.
175
559102
5308
言論の自由や支持される政治的行動を
縮み上がらせることになります
09:36
And this is why we need an international国際 treaty条約
176
564410
2914
これが 私たちに
ロボット兵器の国際条約が
09:39
on roboticロボット weapons兵器, and in particular特に a globalグローバル ban禁止
177
567324
3540
必要な理由です
特に世界全体での
09:42
on the development開発 and deployment配備 of killerキラー robotsロボット.
178
570864
3908
殺人ロボットの開発と配備を
禁止することが必要です
09:46
Now we already既に have international国際 treaties条約
179
574772
3254
私たちにはすでに
核兵器と生物兵器に関する
09:50
on nuclear and biological生物学的 weapons兵器, and, while imperfect不完全,
180
578026
3386
国際条約があります
不完全ではありますが
09:53
these have largely主に worked働いた.
181
581412
2288
条約は概ね
効力を発揮してきました
09:55
But roboticロボット weapons兵器 mightかもしれない be everyすべて bitビット as dangerous危険な,
182
583700
3768
しかし ロボット兵器は 全ての点で
同じくらい危険なもので
09:59
because they will almostほぼ certainly確かに be used,
183
587468
3288
ほぼ確実に
使われるようになるでしょう
10:02
and they would alsoまた、 be corrosive腐食性の to our democratic民主的 institutions機関.
184
590756
5027
そして 民主主義制度を
蝕むものになるでしょう
10:07
Now in November11月 2012 the U.S. Department部門 of Defense防衛
185
595783
3468
2012年11月に
米国防総省が
10:11
issued発行済み a directive指令 requiring必要
186
599251
2458
すべての殺害に関する
意思決定に
10:13
a human人間 beingであること be presentプレゼント in all lethal致死 decisions決定.
187
601709
4519
人間の介在を義務づける
命令を出しました
10:18
This temporarily一時的に effectively効果的に banned禁止された autonomous自律的 weapons兵器 in the U.S. military軍事,
188
606228
4776
これによって ひとまずは
米軍の自律的兵器を事実上禁止しました
10:23
but that directive指令 needsニーズ to be made permanent永久的な.
189
611004
3753
しかし その命令を
恒久化する必要があります
10:26
And it could setセット the stageステージ for globalグローバル actionアクション.
190
614757
4376
これが行われれば
世界が同じように行動する基準となりえます
10:31
Because we need an international国際 legal法的 frameworkフレームワーク
191
619133
3845
ロボット兵器の
国際的な法的枠組みは
10:34
for roboticロボット weapons兵器.
192
622978
2138
必要なものなのです
10:37
And we need it now, before there's a devastating壊滅的な attack攻撃
193
625116
2928
しかも 今必要なのです
壊滅的な攻撃が起きたり
10:40
or a terroristテロリスト incident入射 that causes原因 nations of the world世界
194
628044
3152
テロ事件が起きたことが引き金となって
世界の国々が
10:43
to rushラッシュ to adopt採用 these weapons兵器
195
631196
1924
ロボット兵器が招く
帰結を熟慮せずに
10:45
before thinking考え throughを通して the consequences結果.
196
633120
3771
これらの兵器をこぞって採用するようになる前に
必要なのです
10:48
Autonomous自律 roboticロボット weapons兵器 concentrate集中 too much powerパワー
197
636891
2981
自律ロボット兵器を使うと
10:51
in too few少数 hands, and they would imperil害虫 democracy民主主義 itself自体.
198
639872
6283
少数の手に 余りに大きな力が集中することになり
民主主義そのものを危うくしてしまうでしょう
10:58
Now, don't get me wrong違う, I think there are tonsトン
199
646155
2686
でも 誤解しないでください
民生の非武装無人ドローンには
11:00
of great uses用途 for unarmed非武装の civilian文民 drones無人機:
200
648841
2618
優れた用途が沢山
あると考えています
11:03
environmental環境 monitoringモニタリング, searchサーチ and rescueレスキュー, logisticsロジスティクス.
201
651459
3939
自然環境の観測や
捜索と救難 輸送などです
11:07
If we have an international国際 treaty条約 on roboticロボット weapons兵器,
202
655398
2826
もし ロボット兵器の
国際条約があるとして
11:10
how do we gain利得 the benefits利点 of autonomous自律的 drones無人機
203
658224
3587
どのようにすれば自律無人機や
自律走行車の利便を享受しつつ
11:13
and vehicles乗り物 while still protecting保護 ourselves自分自身
204
661811
2648
違法なロボット兵器に対して
11:16
againstに対して illegal違法 roboticロボット weapons兵器?
205
664459
3980
身を守ることができるでしょうか?
11:20
I think the secret秘密 will be transparency透明性.
206
668439
4741
成功の秘密は
透明性にあるはずです
11:25
No robotロボット should have an expectation期待 of privacyプライバシー
207
673180
3013
公共の場所にいる限り
ロボットに—
11:28
in a publicパブリック place場所.
208
676193
3451
プライバシーがあるなどと
思ってもらっては困ります
11:31
(Applause拍手)
209
679644
5048
(拍手)
11:36
Each robotロボット and drone無人機 should have
210
684692
2045
ロボットやドローンは
1体1体 全てが
11:38
a cryptographically暗号で signed署名された I.D. burned焼かれた in at the factory工場
211
686737
2883
工場出荷時に個体番号を
暗号技術で署名し
11:41
that can be used to trackトラック its movement移動 throughを通して publicパブリック spacesスペース.
212
689620
2923
公共の場所での動きを
追跡できるようにするべきです
11:44
We have licenseライセンス platesプレート on cars, tail numbers数字 on aircraft航空機.
213
692543
3381
既に車にはナンバー プレートがあり
航空機には機体記号があります
11:47
This is no different異なる.
214
695924
1841
ロボットも例外ではありません
11:49
And everyすべて citizen市民 should be ableできる to downloadダウンロード an appアプリ
215
697765
2012
公共の空間を移動している―
11:51
that showsショー the population人口 of drones無人機 and autonomous自律的 vehicles乗り物
216
699777
3125
ドローンや自律走行車の
所在を示すアプリを
11:54
moving動く throughを通して publicパブリック spacesスペース around them,
217
702902
2429
誰でもダウンロードできて
しかるべきです
11:57
bothどちらも right now and historically歴史的に.
218
705331
2733
現時点と過去の記録の両方を
把握可能にすべきです
12:00
And civicシビック leaders指導者 should deploy展開する sensorsセンサ and civicシビック drones無人機
219
708064
3548
市民のリーダーは
不正なドローンを探索する―
12:03
to detect検出する rogue不正 drones無人機,
220
711612
2344
探知機や無人偵察機を
展開すべきです
12:05
and instead代わりに of sending送信 killerキラー drones無人機 of their彼らの own自分の up to shootシュート them down,
221
713956
3176
そして 不正ドローンを撃墜する
攻撃ドローンを送りこむ代わりに
12:09
they should notify通知する humans人間 to their彼らの presence存在.
222
717132
2992
人間に ドローンが居ることを
知らせるべきです
12:12
And in certainある very high-security高セキュリティ areasエリア,
223
720124
2606
高い安全性が求められる地域なら
不正ドローンを
12:14
perhapsおそらく civicシビック drones無人機 would snareスネア them
224
722730
1909
市民のためのドローンが
捕獲して
12:16
and dragドラッグ them off to a bomb爆弾 disposal廃棄 facility施設.
225
724639
2841
爆弾処理施設へと
引っ張って行くこともできるでしょう
12:19
But notice通知, this is more an immune免疫 systemシステム
226
727480
3027
これは兵器システムというより
免疫システムということに
12:22
than a weapons兵器 systemシステム.
227
730507
1321
注意してください
12:23
It would allow許す us to avail利用可能な ourselves自分自身 of the use
228
731828
2592
こうすれば
自律走行車両やドローンを
12:26
of autonomous自律的 vehicles乗り物 and drones無人機
229
734420
2032
人間側が利用しつつ
12:28
while still preserving保存 our open開いた, civil市民 society社会.
230
736452
4295
開かれた市民社会を
維持できます
12:32
We must必須 ban禁止 the deployment配備 and development開発
231
740747
2999
私たちは 殺人ロボットの
開発と配備を
12:35
of killerキラー robotsロボット.
232
743746
1862
禁止する必要があります
12:37
Let's not succumb負ける to the temptation誘惑 to automate自動化する war戦争.
233
745608
4850
戦争を自動化する誘惑に
負けないようにしましょう
12:42
Autocratic独裁者 governments政府 and criminal犯罪者 organizations組織
234
750458
2718
独裁政府や犯罪組織は間違いなく
その魅力に屈するでしょうが
12:45
undoubtedly間違いなく will, but let's not join参加する them.
235
753176
2956
私たちは その同類に
ならないようにしましょう
12:48
Autonomous自律 roboticロボット weapons兵器
236
756132
1891
自律ロボット兵器は
12:50
would concentrate集中 too much powerパワー
237
758023
2051
あまりにも強力な力を
12:52
in too few少数 unseen見えない hands,
238
760074
2482
ごくわずかな人の手に
集中させることになります
12:54
and that would be corrosive腐食性の to representative代表 government政府.
239
762556
3255
そして 民主主義制度を
蝕むものになるでしょう
12:57
Let's make sure, for democracies民主主義 at least少なくとも,
240
765811
2961
民主主義のために
殺人ロボットは
13:00
killerキラー robotsロボット remain残る fictionフィクション.
241
768772
2604
フィクションだけのものに
しておきましょう
13:03
Thank you.
242
771376
1110
ありがとう
13:04
(Applause拍手)
243
772486
4565
(拍手)
13:09
Thank you. (Applause拍手)
244
777051
4616
ありがとう
(拍手)
Translated by Akinori Oyama
Reviewed by Yasushi Aoki

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com