ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: Beslut att döda ska inte fattas av robotar

Filmed:
1,946,706 views

Romanförfattaren Daniel Suarez skapar dystopiska framtidsberättelser. Men på TEDGlobal tar han oss igenom ett verkligt scenario som vi alla behöver veta mer om: de framväxande autonoma krigsvapnen. Avancerade drönare, automatiska vapen och informationsinsamling med artificiell intelligens kan komma att ta ifrån människorna beslutsfattandet inom krigföring.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeskriva fictionfiktion sci-fiSci-Fi thrillersthrillers,
0
691
3158
Jag skriver fiktion, science-fiction thrillers,
00:15
so if I say "killermördare robotsrobotar,"
1
3849
2193
så om jag säger "mördarrobotar",
00:18
you'ddu skulle probablyförmodligen think something like this.
2
6042
2361
så tänker ni antagligen på någonting sånt här.
00:20
But I'm actuallyfaktiskt not here to talk about fictionfiktion.
3
8403
2555
Men jag är inte här för att tala om fiktion.
00:22
I'm here to talk about very realverklig killermördare robotsrobotar,
4
10958
2948
Jag är här för att tala om mycket verkliga mördarrrobotar,
00:25
autonomousautonom combatbekämpa dronesdrönare.
5
13906
3122
autonoma stridsdrönare.
00:29
Now, I'm not referringhänvisar to PredatorPredator and ReaperReaper dronesdrönare,
6
17028
3627
Jag menar inte drönare som Predator och Reaper,
00:32
whichsom have a humanmänsklig makingtillverkning targetingtargeting decisionsbeslut.
7
20655
3260
som har en människa som avgör angreppsmålen.
00:35
I'm talkingtalande about fullyfullt autonomousautonom roboticrobot weaponsvapen
8
23915
3129
Jag talar om helt autonoma robotvapen
00:39
that make lethaldödlig decisionsbeslut about humanmänsklig beingsvarelser
9
27044
2654
som tar dödliga beslut om människor
00:41
all on theirderas ownegen.
10
29698
2417
helt på eget bevåg.
00:44
There's actuallyfaktiskt a technicalteknisk termtermin for this: lethaldödlig autonomyautonomi.
11
32115
4000
Det finns faktiskt en teknisk term för detta: dödlig autonomi.
00:48
Now, lethallydödligt autonomousautonom killermördare robotsrobotar
12
36115
2856
Dödliga, autonoma mördarrobotar
00:50
would take manymånga formsformer -- flyingflygande, drivingkörning,
13
38971
3069
finns i många former - flygande, körande
00:54
or just lyingliggande in wait.
14
42040
2746
eller sådana som bara ligger och väntar.
00:56
And actuallyfaktiskt, they're very quicklysnabbt becomingpassande a realityverklighet.
15
44786
3109
De har faktiskt snabbt blivit verkliga.
00:59
These are two automaticautomatiska sniperSniper stationsstationer
16
47895
2484
Detta är två automatiska krypskyttestationer
01:02
currentlyför närvarande deployedutplaceras in the DMZDMZ betweenmellan NorthNorr and SouthSödra KoreaKorea.
17
50379
4137
som nu finns i den demilitariserade zonen
mellan Nord- och Sydkorea.
01:06
BothBåda of these machinesmaskiner are capablekapabel of automaticallyautomatiskt
18
54516
2171
Båda dessa maskiner är kapabla att automatiskt
01:08
identifyingatt identifiera a humanmänsklig targetmål and firingbränning on it,
19
56687
3524
identifiera en människa och beskjuta henne,
01:12
the one on the left at a distancedistans of over a kilometerkilometer.
20
60211
4324
den vänstra på ett avstånd av över en kilometer.
01:16
Now, in bothbåde casesfall, there's still a humanmänsklig in the loopslinga
21
64535
3589
I båda fallen finns det fortfarande en människa med
01:20
to make that lethaldödlig firingbränning decisionbeslut,
22
68124
2372
som tar beslutet om att skjuta för att döda,
01:22
but it's not a technologicalteknologisk requirementkrav. It's a choiceval.
23
70496
5413
men det är inget tekniskt krav, det är ett val.
01:27
And it's that choiceval that I want to focusfokus on,
24
75909
3093
Och det valet vill jag fokusera på,
01:31
because as we migrateflytta lethaldödlig decision-makingbeslutsfattande
25
79002
2641
eftersom när vi överför dödligt beslutsfattande
01:33
from humansmänniskor to softwareprogramvara,
26
81643
3109
från människor till mjukvara,
01:36
we riskrisk not only takingtar the humanitymänskligheten out of warkrig,
27
84752
3476
så riskerar vi inte bara att ta bort människan från krigföringen,
01:40
but alsoockså changingskiftande our socialsocial landscapelandskap entirelyhelt,
28
88228
3526
utan också att förändra vårt sociala landskap,
01:43
farlångt from the battlefieldBattlefield.
29
91754
2224
långt från slagfältet.
01:45
That's because the way humansmänniskor resolvelösa conflictkonflikt
30
93978
4509
Detta eftersom sättet som människor löser konflikter
01:50
shapesformer our socialsocial landscapelandskap.
31
98487
1733
formar vårt sociala landskap.
01:52
And this has always been the casefall, throughoutgenom hela historyhistoria.
32
100220
2633
Och så har det alltid varit, genom historien.
01:54
For exampleexempel, these were state-of-the-arttoppmodern weaponsvapen systemssystem
33
102853
2661
Exempelvis, så var dessa vapen spjutspetsteknologi
01:57
in 1400 A.D.
34
105514
2079
på 1400-talet.
01:59
Now they were bothbåde very expensivedyr to buildbygga and maintainupprätthålla,
35
107593
3144
De var dock mycket dyra att bygga och underhålla,
02:02
but with these you could dominatedominera the populacebefolkningen,
36
110737
3240
men med dessa kunde man kontrollera massorna,
02:05
and the distributiondistribution of politicalpolitisk powerkraft in feudalfeodala societysamhälle reflectedreflekterade that.
37
113977
3889
och det reflekterades i distributionen
av politisk makt i feodalsamhället.
02:09
PowerMakt was focusedfokuserade at the very toptopp.
38
117866
2687
Makt fokuserades till den översta toppen.
02:12
And what changedändrats? TechnologicalTekniska innovationinnovation.
39
120553
3528
Vad hände sedan? Teknikutvecklingen.
02:16
GunpowderKrut, cannonCannon.
40
124081
1871
Krut, kanoner.
02:17
And prettySöt soonsnart, armorrustning and castlesslott were obsoleteföråldrad,
41
125952
3817
Snart var rustningar och slott föråldrade,
02:21
and it matteredbetydde lessmindre who you broughttog med to the battlefieldBattlefield
42
129769
2533
och det betydde mindre vad du tog med till slagfältet
02:24
versusmot how manymånga people you broughttog med to the battlefieldBattlefield.
43
132302
3779
jämfört med hur många människor
du tog med till slagfältet.
02:28
And as armiesarméer grewväxte in sizestorlek, the nation-statenationalstaten aroseuppstod
44
136081
3638
När arméer växte i storlek uppstod nationalstaten
02:31
as a politicalpolitisk and logisticallogistiska requirementkrav of defenseförsvar.
45
139719
3680
som ett politiskt och logistiskt försvarskrav.
02:35
And as leadersledare had to relylita on more of theirderas populacebefolkningen,
46
143399
2376
När ledarna blev mera beroende av sin befolkning,
02:37
they beganbörjade to sharedela med sig powerkraft.
47
145775
1833
började de dela med sig av makten.
02:39
RepresentativeRepresentant governmentregering beganbörjade to formform.
48
147608
2599
Representativt styre började ta form.
02:42
So again, the toolsverktyg we use to resolvelösa conflictkonflikt
49
150207
3288
Så igen, verktygen som vi använder för att lösa konflikter
02:45
shapeform our socialsocial landscapelandskap.
50
153495
3304
formar vårt sociala landskap.
02:48
AutonomousAutonoma roboticrobot weaponsvapen are suchsådan a toolverktyg,
51
156799
4064
Autonoma robotvapen är ett sådant verktyg.
02:52
exceptbortsett från that, by requiringsom kräver very few people to go to warkrig,
52
160863
5168
Eftersom de kräver mycket få
människor för att starta krig,
02:58
they riskrisk re-centralizingcentralisering av åter powerkraft into very few handshänder,
53
166031
4840
så riskerar de att återigen centralisera makten till ett fåtal.
03:02
possiblyeventuellt reversingbackning a five-centuryfem-talet trendtrend towardmot democracydemokrati.
54
170871
6515
Därigenom reverseras femhundra års
utveckling mot demokrati.
03:09
Now, I think, knowingmenande this,
55
177386
1757
Nu tror jag att när vi vet detta,
03:11
we can take decisiveavgörande stepssteg to preservebevara our democraticdemokratisk institutionsinstitutioner,
56
179143
4352
så kan vi ta avgörande steg för att bevara
våra demokratiska institutioner.
03:15
to do what humansmänniskor do bestbäst, whichsom is adaptanpassa.
57
183495
3979
Vi kan anpassa oss.
03:19
But time is a factorfaktor.
58
187474
2005
Men tiden är en faktor.
03:21
SeventySjuttio nationsnationer are developingutvecklande remotely-piloteddistans lotsade
59
189479
2851
Sjuttio länder utvecklar egna
03:24
combatbekämpa dronesdrönare of theirderas ownegen,
60
192330
2157
fjärrstyrda stridsdrönare.
03:26
and as you'lldu kommer see, remotely-piloteddistans lotsade combatbekämpa dronesdrönare
61
194487
2593
Som ni kommer att se så är
fjärrstyrda stridsdrönare
03:29
are the precursorsprekursorer to autonomousautonom roboticrobot weaponsvapen.
62
197080
4472
förstadiet till autonoma robotvapen.
03:33
That's because onceen gång you've deployedutplaceras remotely-piloteddistans lotsade dronesdrönare,
63
201552
2767
Det beror på att när man har utvecklat
fjärrstyrda drönare
03:36
there are threetre powerfulkraftfull factorsfaktorer pushingatt trycka decision-makingbeslutsfattande
64
204319
3384
så finns det tre starka faktorer som styr beslutsfattandet
03:39
away from humansmänniskor and on to the weaponvapen platformplattform itselfsig.
65
207703
4600
bort från människor och mot själva vapenplattformen.
03:44
The first of these is the delugesyndafloden of videovideo- that dronesdrönare produceproducera.
66
212303
5259
Den första är floden av data som skapas av drönare.
03:49
For exampleexempel, in 2004, the U.S. droneDrone fleetflotta producedproduceras
67
217562
3853
2004 så producerade de amerikanska drönarna
03:53
a grandstor totaltotal of 71 hourstimmar of videovideo- surveillanceövervakning for analysisanalys.
68
221415
5312
totalt 71 timmar övervakningsvideo för analys.
03:58
By 2011, this had goneborta up to 300,000 hourstimmar,
69
226727
4499
2011 hade detta ökat till 300 000 timmar,
04:03
outstrippingsnabbare än humanmänsklig abilityförmåga to reviewrecension it all,
70
231226
3149
vilket överstiger den mänskliga förmågan att gå igenom.
04:06
but even that numbersiffra is about to go up drasticallydrastiskt.
71
234375
3664
Men till och med den siffran kommer att öka drastiskt.
04:10
The Pentagon'sPentagons GorgonGorgon StareStare and ArgusArgus programsprogram
72
238039
2575
Pentagons program Gorgon Stare och Argus
04:12
will put up to 65 independentlysjälvständigt operateddrivs camerakamera eyesögon
73
240614
3164
kommer att sätta 65 självständiga kameror
04:15
on eachvarje droneDrone platformplattform,
74
243778
2038
på varje drönare,
04:17
and this would vastlyväldigt outstripöverträffa humanmänsklig abilityförmåga to reviewrecension it.
75
245816
3303
vilket skulle omöjliggöra mänsklig analys.
04:21
And that meansbetyder visualvisuell intelligenceintelligens softwareprogramvara will need
76
249119
2160
Det betyder att program för
visuell analys
04:23
to scanskanna it for itemsobjekt of interestintressera.
77
251279
4048
krävs för att hitta intressanta händelser.
04:27
And that meansbetyder very soonsnart
78
255327
1348
Och det betyder att
inom kort
04:28
dronesdrönare will tell humansmänniskor what to look at,
79
256675
2747
kommer drönare att säga till människor
vad de ska se på,
04:31
not the other way around.
80
259422
2497
och inte tvärtom.
04:33
But there's a secondandra powerfulkraftfull incentiveincitament pushingatt trycka
81
261919
2473
Men det finns en andra faktor som driver
04:36
decision-makingbeslutsfattande away from humansmänniskor and ontotill machinesmaskiner,
82
264392
3383
beslutsfattande från människor till maskiner,
04:39
and that's electromagneticElektromagnetisk jammingJamming,
83
267775
2872
det är elektromagnetiska störsändare,
04:42
severingSevering the connectionförbindelse betweenmellan the droneDrone
84
270647
2236
som bryter förbindelsen
mellan drönaren
04:44
and its operatoroperatör.
85
272883
2814
och dess operatör.
04:47
Now we saw an exampleexempel of this in 2011
86
275697
2618
Vi såg ett exempel på detta 2011,
04:50
when an AmericanAmerikansk RQ-RQ-170 SentinelSentinel droneDrone
87
278315
2956
när en amerikansk RQ-170 Sentinel-drönare
04:53
got a bitbit confusedförvirrad over IranIran duepå grund av to a GPSGPS spoofingspoofing attackge sig på,
88
281271
4307
blev förvirrad ovanför Iran på grund av en GPS-störning,
04:57
but any remotely-piloteddistans lotsade droneDrone is susceptiblemottaglig to this typetyp of attackge sig på,
89
285578
5114
men alla fjärrstyrda drönare är mottagliga
för denna typ av attacker,
05:02
and that meansbetyder dronesdrönare
90
290692
2052
och det betyder att drönare
05:04
will have to shoulderaxel more decision-makingbeslutsfattande.
91
292744
3620
måste fatta fler beslut själva.
05:08
They'llDe kommer know theirderas missionuppdrag objectivemål,
92
296364
3043
De vet syftet med sina uppdrag,
05:11
and they'llde ska reactreagera to newny circumstancesomständigheter withoututan humanmänsklig guidancevägledning.
93
299407
4845
och de kommer att reagera på nya omständigheter
utan mänsklig styrning.
05:16
They'llDe kommer ignoreignorera externalextern radioradio signalssignaler
94
304252
2581
De kommer att ignorera externa radiosignaler
05:18
and sendskicka very few of theirderas ownegen.
95
306833
2330
och skicka väldigt få signaler själva.
05:21
WhichSom bringsger us to, really, the thirdtredje
96
309163
2006
Detta leder oss till den tredje
05:23
and mostmest powerfulkraftfull incentiveincitament pushingatt trycka decision-makingbeslutsfattande
97
311169
3862
och starkaste faktor som driver beslutsfattande
05:27
away from humansmänniskor and ontotill weaponsvapen:
98
315031
3342
från människor till vapen:
05:30
plausiblerimliga deniabilityförnekande.
99
318373
3293
möjligheten att förneka.
05:33
Now we liveleva in a globalglobal economyekonomi.
100
321666
2887
Vi lever i en global ekonomi.
05:36
High-techHögteknologiska manufacturingtillverkning is occurringförekommande on mostmest continentskontinenter.
101
324553
4334
Högteknologisk tillverkning sker på de flesta kontinenter.
05:40
CyberCyber espionagespionage is spiritingspiriting away advancedAvancerad designsmönster
102
328887
2914
Cyberspioneri sprider avancerade konstruktioner
05:43
to partsdelar unknownokänd,
103
331801
1886
till okända parter,
05:45
and in that environmentmiljö, it is very likelytroligt
104
333687
2014
i den miljön är det mycket troligt
05:47
that a successfulframgångsrik droneDrone designdesign will be knockedknackade off in contractavtal factoriesfabriker,
105
335701
4734
att en lyckad drönardesign kommer att kopieras i fabriker
05:52
proliferateföröka in the graygrå marketmarknadsföra.
106
340435
2170
som växer fram på den grå marknaden.
05:54
And in that situationsituation, siftingsiktning throughgenom the wreckagevraket
107
342605
2460
I den situationen,
när man går igenom vraket
05:57
of a suicidesjälvmord droneDrone attackge sig på, it will be very difficultsvår to say
108
345065
2960
efter en självmordsattack av en drönare, kommer det
06:00
who sentskickat that weaponvapen.
109
348025
4400
vara mycket svårt att säga vem som sände vapnet.
06:04
This raiseshöjningar the very realverklig possibilitymöjlighet
110
352425
2800
Detta skapar reella möjligheter
06:07
of anonymousanonym warkrig.
111
355225
2935
till anonym krigföring.
06:10
This could tiltluta the geopoliticalgeopolitiska balancebalans on its headhuvud,
112
358160
2614
Detta kan ge slagsida åt den
geopolitiska balansen,
06:12
make it very difficultsvår for a nationnation to turnsväng its firepowereldkraft
113
360774
3491
och göra det mycket svårt för en stat att rikta sin eldkraft
06:16
againstmot an attackerangripare, and that could shiftflytta the balancebalans
114
364265
2848
mot en motståndare, och det kan flytta balansen
06:19
in the 21stst centuryårhundrade away from defenseförsvar and towardmot offensebrott.
115
367113
3764
i vårt århundrade från försvar till offensiv.
06:22
It could make militarymilitär- actionhandling a viablegenomförbar, livskraftig optionalternativ
116
370877
3124
Det kan göra militära aktioner genomförbara
06:26
not just for smallsmå nationsnationer,
117
374001
2288
inte bara för små länder,
06:28
but criminalkriminell organizationsorganisationer, privateprivat enterpriseEnterprise,
118
376289
2545
utan även för kriminella organisationer,
privata företag,
06:30
even powerfulkraftfull individualsindivider.
119
378834
2479
till och med mäktiga individer.
06:33
It could createskapa a landscapelandskap of rivalrival warlordskrigsherrar
120
381313
3328
Det kan skapa en miljö med rivaliserande krigsherrar
06:36
underminingundergräva ruleregel of lawlag and civilcivil societysamhälle.
121
384641
3680
som underminerar lagar och samhälle.
06:40
Now if responsibilityansvar and transparencygenomskinlighet
122
388321
3616
Om nu ansvarsfullhet och transparens
06:43
are two of the cornerstoneshörnstenar of representativerepresentativ governmentregering,
123
391937
2384
är två hörnstenar för
representativt regerande,
06:46
autonomousautonom roboticrobot weaponsvapen could undermineunderminera bothbåde.
124
394321
4320
så kan autonoma robotvapen underminera båda.
06:50
Now you mightmakt be thinkingtänkande that
125
398641
1546
Nu tror du kanske att
06:52
citizensmedborgare of high-techavancerad nationsnationer
126
400187
2246
medborgare i högteknologiska nationer
06:54
would have the advantageFördelen in any roboticrobot warkrig,
127
402433
2703
skulle ha en fördel i ett robotkrig,
06:57
that citizensmedborgare of those nationsnationer would be lessmindre vulnerablesårbar,
128
405136
3633
att dessa medborgare skulle vara mindre sårbara,
07:00
particularlysärskilt againstmot developingutvecklande nationsnationer.
129
408769
4288
framförallt gentemot utvecklingsländer.
07:05
But I think the truthsanning is the exactexakt oppositemotsatt.
130
413057
3524
Men jag tror att det är precis tvärtom.
07:08
I think citizensmedborgare of high-techavancerad societiessamhällen
131
416581
2251
Jag tror att medborgare i
högteknologiska samhällen
07:10
are more vulnerablesårbar to roboticrobot weaponsvapen,
132
418832
3729
är mer sårbara för robotvapen,
07:14
and the reasonanledning can be summedsummeras up in one wordord: datadata.
133
422561
4465
anledningen kan summeras till ett ord: data.
07:19
DataData powersbefogenheter high-techavancerad societiessamhällen.
134
427026
3481
Data driver högteknologiska samhällen.
07:22
CellCell phonetelefon geolocationGeolocation, telecomTelecom metadatametadata,
135
430507
3190
Mobiltelefoners positionering, metadata inom telekom,
07:25
socialsocial mediamedia, emaile-post, texttext, financialfinansiell transactiontransaktion datadata,
136
433697
3472
sociala medier, email, SMS, finansiella data,
07:29
transportationtransport datadata, it's a wealthrikedom of real-timerealtid datadata
137
437169
3532
transportdata. Det finns ett överflöd av realtids-data
07:32
on the movementsrörelser and socialsocial interactionsinteraktioner of people.
138
440701
3373
om människors rörelser och sociala interaktioner.
07:36
In shortkort, we are more visiblesynlig to machinesmaskiner
139
444074
3775
Kort sagt, vi är mer synliga för maskiner
07:39
than any people in historyhistoria,
140
447849
2242
än något folk har varit genom historien,
07:42
and this perfectlyperfekt suitspassar the targetingtargeting needsbehov of autonomousautonom weaponsvapen.
141
450091
5616
och det är perfekt för autonoma vapens målsökande.
07:47
What you're looking at here
142
455707
1738
Vad ni ser här
07:49
is a linklänk analysisanalys mapKarta of a socialsocial groupgrupp.
143
457445
3246
är en analyskarta för länkarna inom en social grupp.
07:52
LinesLinjer indicateange socialsocial connectednesssamhörighet betweenmellan individualsindivider.
144
460691
3634
Linjerna visar kopplingarna mellan individer.
07:56
And these typestyper of mapsKartor can be automaticallyautomatiskt generatedgenererad
145
464325
2880
Dessa typer av kartor kan skapas automatiskt,
07:59
basedbaserad on the datadata trailspår modernmodern people leavelämna behindBakom.
146
467205
4715
baserat på de data-spår som
moderna människor efterlämnar.
08:03
Now it's typicallytypiskt used to marketmarknadsföra goodsvaror and servicestjänster
147
471920
2477
Det används normalt för marknadsföring
av saker och tjänster
08:06
to targetedmålinriktad demographicsdemografi, but it's a dual-usedubbla användningsområden technologyteknologi,
148
474397
4416
till riktade målgrupper, men tekniken kan även hitta mål
08:10
because targetingtargeting is used in anotherannan contextsammanhang.
149
478813
3360
i en annan kontext.
08:14
NoticeMeddelande that certainvissa individualsindivider are highlightedmarkerad.
150
482173
2560
Notera att vissa individer är markerade.
08:16
These are the hubshubbar of socialsocial networksnät.
151
484733
3280
De är centralfigurerna i sociala nätverk.
08:20
These are organizersarrangörer, opinion-makersopinionsbildare, leadersledare,
152
488013
3590
De är organisatörer, opinionsbildare, ledare
08:23
and these people alsoockså can be automaticallyautomatiskt identifiedidentifierade
153
491603
2682
och de kan även identifieras automatiskt
08:26
from theirderas communicationkommunikation patternsmönster.
154
494285
2382
genom deras kommunikationsmönster.
08:28
Now, if you're a marketermarknadsförare, you mightmakt then targetmål them
155
496667
2146
Om du är marknadsförare kanske du vill ge dem
08:30
with productprodukt samplesprover, try to spreadspridning your brandvarumärke
156
498813
2543
produkter att prova, för att sprida ditt varumärke
08:33
throughgenom theirderas socialsocial groupgrupp.
157
501356
2829
genom deras sociala grupp.
08:36
But if you're a repressiverepressiv governmentregering
158
504185
1953
Men om du är en
förtryckarregim
08:38
searchingsökande for politicalpolitisk enemiesfiender, you mightmakt insteadistället removeavlägsna them,
159
506138
4810
som söker politiska fiender,
så kanske du istället vill eliminera dem
08:42
eliminateeliminera them, disruptstöra theirderas socialsocial groupgrupp,
160
510948
2760
splittra deras sociala grupp,
08:45
and those who remainförbli behindBakom loseförlora socialsocial cohesionsammanhållning
161
513708
3169
så att deras anhängare tappar social sammanhållning
08:48
and organizationorganisation.
162
516877
2621
och organisering.
08:51
Now in a worldvärld of cheapbillig, proliferatingfrodas roboticrobot weaponsvapen,
163
519498
3324
I en värld med en växande samling billiga robotvapen,
08:54
bordersgränser would offererbjudande very little protectionskydd
164
522822
2635
skulle gränser erbjuda väldigt lite skydd
08:57
to criticskritik of distantavlägsen governmentsregeringar
165
525457
1946
för kritiker av avlägsna regeringar
08:59
or trans-nationaltransnationella criminalkriminell organizationsorganisationer.
166
527403
3646
eller transnationella kriminella organisationer.
09:03
PopularPopulära movementsrörelser agitatingomrörande for changeByta
167
531049
3493
Populära rörelser som agiterar för förändring
09:06
could be detectedupptäckt earlytidigt and theirderas leadersledare eliminatedutslagen
168
534542
3609
kan upptäckas tidigt och deras ledare elimineras
09:10
before theirderas ideasidéer achieveuppnå criticalkritisk massmassa.
169
538151
2911
innan deras idéer har uppnått kritisk massa.
09:13
And ideasidéer achievingatt uppnå criticalkritisk massmassa
170
541062
2591
Idéer som uppnår kritisk massa
09:15
is what politicalpolitisk activismaktivism in popularpopulär governmentregering is all about.
171
543653
3936
är precis vad politisk aktivism handlar om.
09:19
AnonymousAnonyma lethaldödlig weaponsvapen could make lethaldödlig actionhandling
172
547589
3997
Anonyma, dödliga vapen kan göra dödligt våld
09:23
an easylätt choiceval for all sortssorterar of competingtävlande interestsintressen.
173
551586
3782
till ett lätt val för alla sorters konkurrerande intressen.
09:27
And this would put a chillChill on freefri speechTal
174
555368
3734
Det skulle hindra det fria ordet
09:31
and popularpopulär politicalpolitisk actionhandling, the very hearthjärta of democracydemokrati.
175
559102
5308
och folkliga, politiska kampanjer, själva kärnan i demokrati.
09:36
And this is why we need an internationalinternationell treatyfördraget
176
564410
2914
Därför behöver vi ett internationellt avtal
09:39
on roboticrobot weaponsvapen, and in particularsärskild a globalglobal banförbjuda
177
567324
3540
om robotvapen och särskilt ett globalt förbud
09:42
on the developmentutveckling and deploymentdistribution of killermördare robotsrobotar.
178
570864
3908
mot utveckling och användning av mördarrobotar.
09:46
Now we alreadyredan have internationalinternationell treatiesfördragen
179
574772
3254
Vi har redan internationella avtal
09:50
on nuclearkärn and biologicalbiologisk weaponsvapen, and, while imperfectofullständig,
180
578026
3386
om kärnvapen och biologiska vapen som inte är perfekta,
09:53
these have largelyi stora drag workedarbetade.
181
581412
2288
men som i stort sett har fungerat.
09:55
But roboticrobot weaponsvapen mightmakt be everyvarje bitbit as dangerousfarlig,
182
583700
3768
Robotvapen kan vara precis lika farliga,
09:59
because they will almostnästan certainlysäkert be used,
183
587468
3288
eftersom de säkerligen skulle användas,
10:02
and they would alsoockså be corrosivekorrosiva to our democraticdemokratisk institutionsinstitutioner.
184
590756
5027
och därför komma att bryta ner våra demokratiska institutioner.
10:07
Now in NovemberNovember 2012 the U.S. DepartmentInstitutionen of DefenseFörsvar
185
595783
3468
I november 2012 utfärdade det
amerikanska försvarsdepartementet
10:11
issuedutfärdad a directivedirektiv requiringsom kräver
186
599251
2458
ett direktiv om att
10:13
a humanmänsklig beingvarelse be presentnärvarande in all lethaldödlig decisionsbeslut.
187
601709
4519
en människa ska vara närvarande vid dödliga beslut.
10:18
This temporarilytillfälligt effectivelyeffektivt bannedförbjudna autonomousautonom weaponsvapen in the U.S. militarymilitär-,
188
606228
4776
Detta har temporärt stoppat autonoma vapen
inom den amerikanska militären,
10:23
but that directivedirektiv needsbehov to be madegjord permanentpermanent.
189
611004
3753
men detta direktiv måste göras permanent.
10:26
And it could setuppsättning the stageskede for globalglobal actionhandling.
190
614757
4376
Det skulle kunna bli norm för en global aktion.
10:31
Because we need an internationalinternationell legalrättslig frameworkramverk
191
619133
3845
Vi behöver ett internationellt legalt ramverk
10:34
for roboticrobot weaponsvapen.
192
622978
2138
för robotvapen.
10:37
And we need it now, before there's a devastatingförödande attackge sig på
193
625116
2928
Och vi behöver det nu, innan det sker en förödande attack
10:40
or a terroristterrorist incidentincident that causesorsaker nationsnationer of the worldvärld
194
628044
3152
eller en terroristincident som får världens länder
10:43
to rushrusa to adoptanta these weaponsvapen
195
631196
1924
att rusa för att införa dessa vapen
10:45
before thinkingtänkande throughgenom the consequenceskonsekvenser.
196
633120
3771
innan de tänker igenom konsekvenserna.
10:48
AutonomousAutonoma roboticrobot weaponsvapen concentratekoncentrera too much powerkraft
197
636891
2981
Autonoma robotvapen koncentrerar för mycket makt
10:51
in too few handshänder, and they would imperiläventyra democracydemokrati itselfsig.
198
639872
6283
i för få händer och de skulle äventyra själva demokratin.
10:58
Now, don't get me wrongfel, I think there are tonston
199
646155
2686
Missförstå mig inte, jag tror att det finns massor
11:00
of great usesanvändningar for unarmedobeväpnade civiliancivil dronesdrönare:
200
648841
2618
av bra användningsområden för obeväpnade civila drönare:
11:03
environmentalmiljö- monitoringövervakning, searchSök and rescuerädda, logisticslogistik.
201
651459
3939
miljöövervakning, personeftersökning, logistik.
11:07
If we have an internationalinternationell treatyfördraget on roboticrobot weaponsvapen,
202
655398
2826
Om vi har ett internationellt avtal om robotvapen,
11:10
how do we gain the benefitsfördelar of autonomousautonom dronesdrönare
203
658224
3587
hur kan vi dra nytta av fördelarna med autonoma drönare
11:13
and vehiclesfordon while still protectingskyddande ourselvesoss själva
204
661811
2648
och farkoster medan vi skyddar oss själva
11:16
againstmot illegalolaglig roboticrobot weaponsvapen?
205
664459
3980
mot illegala robotvapen?
11:20
I think the secrethemlighet will be transparencygenomskinlighet.
206
668439
4741
Jag tror att svaret är transparens.
11:25
No robotrobot should have an expectationförväntan of privacysekretess
207
673180
3013
Ingen robot ska kunna ha något privatliv
11:28
in a publicoffentlig placeplats.
208
676193
3451
i publika områden.
11:31
(ApplauseApplåder)
209
679644
5048
(Applåd)
11:36
EachVarje robotrobot and droneDrone should have
210
684692
2045
Varje robot eller drönare ska ha
11:38
a cryptographicallykryptografiskt signedsignerad I.D. burnedbränt in at the factoryfabrik
211
686737
2883
ett kryptografiskt signerat ID inbränt i fabriken
11:41
that can be used to trackspåra its movementrörelse throughgenom publicoffentlig spacesutrymmen.
212
689620
2923
som kan användas för att spåra
dess rörelser i publika områden.
11:44
We have licenselicens platestallrikar on carsbilar, tailsvans numberstal on aircraftflygplan.
213
692543
3381
Vi har nummerplåtar på bilar, ID-nummer på flygplan.
11:47
This is no differentannorlunda.
214
695924
1841
Detta är samma sak.
11:49
And everyvarje citizenmedborgare should be ablestånd to downloadladda ner an appapp
215
697765
2012
Varje medborgare ska kunna
ladda ner en app
11:51
that showsvisar the populationbefolkning of dronesdrönare and autonomousautonom vehiclesfordon
216
699777
3125
som visar alla drönare och autonoma farkoster
11:54
movingrör på sig throughgenom publicoffentlig spacesutrymmen around them,
217
702902
2429
som rör sig i deras område,
11:57
bothbåde right now and historicallyhistoriskt.
218
705331
2733
både just nu och tidigare.
12:00
And civicmedborgerlig leadersledare should deploydistribuera sensorssensorer and civicmedborgerlig dronesdrönare
219
708064
3548
Våra ledare bör sätta in sensorer och civila drönare
12:03
to detectupptäcka, detektera rogueRogue dronesdrönare,
220
711612
2344
som detekterar kriminella drönare
12:05
and insteadistället of sendingsändning killermördare dronesdrönare of theirderas ownegen up to shootskjuta them down,
221
713956
3176
och istället för att skjuta ner dem
12:09
they should notifyanmäla humansmänniskor to theirderas presencenärvaro.
222
717132
2992
ska de underrätta människor om deras närvaro.
12:12
And in certainvissa very high-securityhög säkerhet areasområden,
223
720124
2606
I vissa högsäkerhetsområden,
12:14
perhapskanske civicmedborgerlig dronesdrönare would snaresnara them
224
722730
1909
kan kanske civila drönare
snärja in dem
12:16
and dragdrag them off to a bombbomba disposalavfallshantering facilityanläggning.
225
724639
2841
och dra iväg dem till en plats för att
desarmera dem.
12:19
But noticelägga märke till, this is more an immuneimmun systemsystemet
226
727480
3027
Lägg märke till att detta är mer ett immunsystem
12:22
than a weaponsvapen systemsystemet.
227
730507
1321
än ett vapensystem.
12:23
It would allowtillåta us to availnytta ourselvesoss själva of the use
228
731828
2592
Det låter oss dra nytta av att använda
12:26
of autonomousautonom vehiclesfordon and dronesdrönare
229
734420
2032
autonoma farkoster och drönare
12:28
while still preservingbevara our openöppen, civilcivil societysamhälle.
230
736452
4295
samtidigt som vi bevarar vårt öppna civila samhälle.
12:32
We mustmåste banförbjuda the deploymentdistribution and developmentutveckling
231
740747
2999
Vi måste förbjuda användning och utveckling
12:35
of killermördare robotsrobotar.
232
743746
1862
av mördarrobotar.
12:37
Let's not succumbduka to the temptationfrestelse to automateAutomatisera warkrig.
233
745608
4850
Låt oss inte falla för frestelsen att automatisera krig.
12:42
AutocraticEnväldiga governmentsregeringar and criminalkriminell organizationsorganisationer
234
750458
2718
Autokratiska regeringar och kriminella organisationer
12:45
undoubtedlyutan tvekan will, but let's not joinansluta sig them.
235
753176
2956
kommer utan tvivel att göra det,
men låt oss inte följa efter.
12:48
AutonomousAutonoma roboticrobot weaponsvapen
236
756132
1891
Autonoma robotvapen
12:50
would concentratekoncentrera too much powerkraft
237
758023
2051
skulle koncentrera för mycket makt
12:52
in too few unseenosedda handshänder,
238
760074
2482
i för få osynliga händer,
12:54
and that would be corrosivekorrosiva to representativerepresentativ governmentregering.
239
762556
3255
det skulle bryta ner representativt styre.
12:57
Let's make sure, for democraciesdemokratier at leastminst,
240
765811
2961
Låt oss säkerställa, åtminstone för demokratier,
13:00
killermördare robotsrobotar remainförbli fictionfiktion.
241
768772
2604
att mördarrobotar förblir fiktion.
13:03
Thank you.
242
771376
1110
Tack
13:04
(ApplauseApplåder)
243
772486
4565
(Applåder)
13:09
Thank you. (ApplauseApplåder)
244
777051
4616
Tack (Applåd)
Translated by Henrik Ahlen
Reviewed by Stephanie Green

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com