ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Ντάνιελ Σουάρεζ: Η απόφαση θανάτωσης δεν θα πρέπει να ανήκει σε ρομπότ

Filmed:
1,946,706 views

Ως συγγραφέας, ο Ντάνιελ Σουάρεζ γνέθει δυστοπικές ιστορίες του μέλλοντος. Αλλά, στη σκηνή του TEDGlobal, μας εξηγεί ένα ρεαλιστικό σενάριο για το οποίο όλοι μας χρειάζεται να γνωρίζουμε περισσότερα: η άνοδος των αυτόνομων ρομποτικών όπλων πολέμου. Εισηγείται ότι προηγμένα μη επανδρωμένα μέσα, αυτοματοποιημένα όπλα κι εργαλεία συλλογής πληροφοριών με τη χρήση τεχνητής νοημοσύνης θα μπορούσαν να πάρουν την απόφαση κήρυξης πολέμου μέσα από τα χέρια των ανθρώπων.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeγράφω fictionμυθιστόρημα sci-fiεπιστημονικής φαντασίας thrillersΘρίλερ,
0
691
3158
Γράφω θρίλερ επιστημονικής φαντασίας,
00:15
so if I say "killerφονιάς robotsρομπότ,"
1
3849
2193
οπότε εάν πω «ρομπότ δολοφόνοι»,
00:18
you'dεσείς probablyπιθανώς think something like this.
2
6042
2361
πιθανότατα θα σκεφτείτε κάτι σαν αυτό.
00:20
But I'm actuallyπράγματι not here to talk about fictionμυθιστόρημα.
3
8403
2555
Αλλά, δεν είμαι εδώ για να μιλήσω
για επιστημονική φαντασία.
00:22
I'm here to talk about very realπραγματικός killerφονιάς robotsρομπότ,
4
10958
2948
Είμαι εδώ για να μιλήσω για πολύ πραγματικά ρομπότ δολοφόνους,
00:25
autonomousαυτονόμος combatμάχη dronesΚηφήνες.
5
13906
3122
αυτόνομα μη επανδρωμένα μέσα μάχης.
00:29
Now, I'm not referringπαραπομπή to PredatorΑρπακτικό and ReaperΘεριστική μηχανή dronesΚηφήνες,
6
17028
3627
Τώρα, δεν αναφέρομαι στα μη επανδρωμένα
αεροσκάφη Predator και Reaper,
00:32
whichοι οποίες have a humanο άνθρωπος makingκατασκευή targetingστόχευση decisionsαποφάσεων.
7
20655
3260
στα οποία κάποιος άνθρωπος παίρνει
αποφάσεις στοχοποίησης.
00:35
I'm talkingομιλία about fullyπλήρως autonomousαυτονόμος roboticρομποτικό weaponsόπλα
8
23915
3129
Μιλάω για πλήρως αυτόνομα ρομποτικά όπλα
00:39
that make lethalθανατηφόρος decisionsαποφάσεων about humanο άνθρωπος beingsόντα
9
27044
2654
που παίρνουν θανατηφόρες αποφάσεις
σχετικές με τον άνθρωπο
00:41
all on theirδικα τους ownτα δικά.
10
29698
2417
τελείως μόνα τους.
00:44
There's actuallyπράγματι a technicalτεχνικός termόρος for this: lethalθανατηφόρος autonomyαυτονομία.
11
32115
4000
Για την ακρίβεια υπάρχει ένας τεχνικός όρος
γι' αυτό: θανατηφόρα αυτονομία.
00:48
Now, lethallyθανάσιμα autonomousαυτονόμος killerφονιάς robotsρομπότ
12
36115
2856
Τώρα, τα θανατηφόρα αυτόνομα ρομπότ δολοφόνοι
00:50
would take manyΠολλά formsμορφές -- flyingπέταγμα, drivingοδήγηση,
13
38971
3069
θα μπορούσαν να πάρουν πολλές μορφές
-ιπτάμενα, εποχούμενα
00:54
or just lyingξαπλωμένη in wait.
14
42040
2746
ή απλά ευρισκόμενα σε αναμονή.
00:56
And actuallyπράγματι, they're very quicklyγρήγορα becomingθελκτικός a realityπραγματικότητα.
15
44786
3109
Και μάλιστα, γίνονται πολύ γρήγορα πραγματικότητα.
00:59
These are two automaticΑυτόματη sniperελεύθερος σκοπευτής stationsσταθμούς
16
47895
2484
Αυτοί είναι δύο αυτόματοι σταθμοί ελεύθερου σκοπευτή
01:02
currentlyεπί του παρόντος deployedαναπτυχθεί in the DMZDMZ betweenμεταξύ NorthΒόρεια and SouthΝότια KoreaΚορέα.
17
50379
4137
που τώρα παρατάσσονται στην αποστρατικοποιημένη ζώνη μεταξύ Β. & Ν. Κορέας.
01:06
BothΚαι οι δύο of these machinesμηχανές are capableικανός of automaticallyαυτομάτως
18
54516
2171
Και τα δύο αυτά μηχανήματα είναι σε θέση
ν' αναγνωρίσουν
01:08
identifyingτον εντοπισμό a humanο άνθρωπος targetστόχος and firingψήσιμο on it,
19
56687
3524
αυτόματα έναν ανθρώπινο στόχο και
να ρίξουν σε αυτόν,
01:12
the one on the left at a distanceαπόσταση of over a kilometerχιλιόμετρο.
20
60211
4324
αυτό στα αριστερά σε απόσταση
μεγαλύτερη του ενός χιλιομέτρου.
01:16
Now, in bothκαι τα δυο casesπεριπτώσεις, there's still a humanο άνθρωπος in the loopβρόχος
21
64535
3589
Τώρα, και στις δύο περιπτώσεις, υπάρχει ακόμη κάποιος άνθρωπος στη διαδικασία
01:20
to make that lethalθανατηφόρος firingψήσιμο decisionαπόφαση,
22
68124
2372
για να παρθεί αυτή η απόφαση θανάσιμης βολής,
01:22
but it's not a technologicalτεχνολογικός requirementαπαίτηση. It's a choiceεπιλογή.
23
70496
5413
αλλά δεν είναι μια τεχνολογική απαίτηση.
Είναι μια επιλογή.
01:27
And it's that choiceεπιλογή that I want to focusΣυγκεντρώνω on,
24
75909
3093
Και είναι αυτή η επιλογή στην οποία
θα ήθελα να εστιάσω,
01:31
because as we migrateμεταναστεύω lethalθανατηφόρος decision-makingλήψη αποφάσης
25
79002
2641
γιατί καθώς μεταφέρουμε
τη λήψη θανατηφόρων αποφάσεων
01:33
from humansτου ανθρώπου to softwareλογισμικό,
26
81643
3109
από τους ανθρώπους στο λογισμικό,
01:36
we riskκίνδυνος not only takingλήψη the humanityανθρωπότητα out of warπόλεμος,
27
84752
3476
κινδυνεύουμε όχι μόνο να θέσουμε
την ανθρωπιά εκτός πολέμου,
01:40
but alsoεπίσης changingαλλάζοντας our socialκοινωνικός landscapeτοπίο entirelyεξ ολοκλήρου,
28
88228
3526
αλλά, ν' αλλάξουμε επίσης
το κοινωνικό μας τοπίο εξ' ολοκλήρου,
01:43
farμακριά from the battlefieldπεδίο μάχης.
29
91754
2224
μακριά από το πεδίο της μάχης.
01:45
That's because the way humansτου ανθρώπου resolveαποφασίζω conflictσύγκρουση
30
93978
4509
Αυτό γιατί ο τρόπος με τον οποίο
οι άνθρωποι επιλύουν τις διαφορές τους
01:50
shapesσχήματα our socialκοινωνικός landscapeτοπίο.
31
98487
1733
διαμορφώνει το κοινωνικό μας τοπίο.
01:52
And this has always been the caseπερίπτωση, throughoutκαθόλη τη διάρκεια historyιστορία.
32
100220
2633
Και πάντα αυτό ήταν το ζήτημα, σε όλη την Ιστορία.
01:54
For exampleπαράδειγμα, these were state-of-the-artτελευταίας τεχνολογίας weaponsόπλα systemsσυστήματα
33
102853
2661
Για παράδειγμα, αυτά ήταν
τα τελευταίας τεχνολογίας οπλικά συστήματα
01:57
in 1400 A.D.
34
105514
2079
το 1400 μ.Χ..
01:59
Now they were bothκαι τα δυο very expensiveακριβός to buildχτίζω and maintainδιατηρούν,
35
107593
3144
Ήταν και τα δύο πολύ ακριβά να κατασκευαστούν
και να διατηρηθούν,
02:02
but with these you could dominateκατακυριεύω the populaceπληθυσμός,
36
110737
3240
αλλά με αυτά θα μπορούσατε
να εξουσιάσετε τον λαό
02:05
and the distributionδιανομή of politicalπολιτικός powerεξουσία in feudalφεουδαρχική societyκοινωνία reflectedαντανακλάται that.
37
113977
3889
κι αυτό αντικατοπτρίστηκε στην κατανομή
της πολιτικής εξουσίας στην φεουδαρχική κοινωνία.
02:09
PowerΔύναμη was focusedεστιασμένη at the very topμπλουζα.
38
117866
2687
Η εξουσία ήταν συγκεντρωμένη στην κορυφή.
02:12
And what changedάλλαξε? TechnologicalΤεχνολογική innovationκαινοτομία.
39
120553
3528
Και τι άλλαξε; Η τεχνολογική καινοτομία.
02:16
GunpowderΠυρίτιδα, cannonκανόνι.
40
124081
1871
Μπαρούτι, κανόνι.
02:17
And prettyαρκετά soonσύντομα, armorπανοπλία and castlesκάστρα were obsoleteαπαρχαιωμένος,
41
125952
3817
Κι αρκετά σύντομα, πανοπλίες και κάστρα απαρχαιώθηκαν
02:21
and it matteredπείραξε lessπιο λιγο who you broughtέφερε to the battlefieldπεδίο μάχης
42
129769
2533
και είχε λιγότερη σημασία ποιον φέρνατε
στο πεδίο της μάχης
02:24
versusεναντίον how manyΠολλά people you broughtέφερε to the battlefieldπεδίο μάχης.
43
132302
3779
σε αντίθεση με τον αριθμό των ατόμων
που φέρνατε στο πεδίο της μάχης.
02:28
And as armiesστρατοί grewαυξήθηκε in sizeμέγεθος, the nation-stateέθνος-κράτος aroseδημιουργήθηκε
44
136081
3638
Και καθώς οι στρατοί μεγάλωναν σε μέγεθος, προέκυψε το έθνος-κράτος
02:31
as a politicalπολιτικός and logisticalδιοικητικής μέριμνας requirementαπαίτηση of defenseάμυνα.
45
139719
3680
ως μια πολιτική και υλικοτεχνική
απαίτηση της άμυνας.
02:35
And as leadersηγέτες had to relyβασίζομαι on more of theirδικα τους populaceπληθυσμός,
46
143399
2376
Και καθώς οι ηγέτες έπρεπε να βασίζονται περισσότερο στον λαό τους,
02:37
they beganάρχισε to shareμερίδιο powerεξουσία.
47
145775
1833
άρχισαν να μοιράζουν την εξουσία.
02:39
RepresentativeΑντιπρόσωπος governmentκυβέρνηση beganάρχισε to formμορφή.
48
147608
2599
Άρχισε να δημιουργείται η αντιπροσωπευτική κυβέρνηση.
02:42
So again, the toolsεργαλεία we use to resolveαποφασίζω conflictσύγκρουση
49
150207
3288
Έτσι και πάλι, τα εργαλεία που χρησιμοποιούμε
για την επίλυση διαφορών
02:45
shapeσχήμα our socialκοινωνικός landscapeτοπίο.
50
153495
3304
διαμορφώνουν το κοινωνικό μας τοπίο.
02:48
AutonomousΑυτόνομη roboticρομποτικό weaponsόπλα are suchτέτοιος a toolεργαλείο,
51
156799
4064
Τα αυτόνομα ρομποτικά όπλα
είναι ένα τέτοιο εργαλείο,
02:52
exceptεκτός that, by requiringπου απαιτούν very fewλίγοι people to go to warπόλεμος,
52
160863
5168
εκτός απ' το ότι, απαιτώντας
πολύ λίγους ανθρώπους να πάνε στον πόλεμο,
02:58
they riskκίνδυνος re-centralizingεκ νέου συγκέντρωση powerεξουσία into very fewλίγοι handsτα χέρια,
53
166031
4840
ρισκάρουν την επανακεντρικοποίηση της εξουσίας
σε ελάχιστα χέρια,
03:02
possiblyπιθανώς reversingαντιστροφή a five-centuryπέντε-αιώνα trendτάση towardπρος democracyΔημοκρατία.
54
170871
6515
αντιστρέφοντας ενδεχομένως μια τάση πέντε αιώνων
προς τη δημοκρατία.
03:09
Now, I think, knowingγνωρίζων this,
55
177386
1757
Τώρα, πιστεύω ότι, γνωρίζοντας αυτό,
03:11
we can take decisiveαποφασιστική stepsβήματα to preserveδιατηρώ our democraticδημοκρατικός institutionsιδρύματα,
56
179143
4352
μπορούμε να λάβουμε αποφασιστικά μέτρα για να διατηρήσουμε τους δημοκρατικούς μας θεσμούς,
03:15
to do what humansτου ανθρώπου do bestκαλύτερος, whichοι οποίες is adaptπροσαρμόζω.
57
183495
3979
να κάνουμε αυτό που ο άνθρωπος κάνει καλύτερα, που είναι η προσαρμογή.
03:19
But time is a factorπαράγοντας.
58
187474
2005
Αλλά ο χρόνος είναι ένας παράγοντας.
03:21
SeventyΕβδομήντα nationsέθνη are developingανάπτυξη remotely-pilotedΤηλεκατευθυνόμενα
59
189479
2851
Εβδομήντα χώρες αναπτύσσουν δικά τους τηλεκατευθυνόμενα
03:24
combatμάχη dronesΚηφήνες of theirδικα τους ownτα δικά,
60
192330
2157
μη επανδρωμένα μέσα μάχης
03:26
and as you'llθα το κάνετε see, remotely-pilotedΤηλεκατευθυνόμενα combatμάχη dronesΚηφήνες
61
194487
2593
κι όπως θα δείτε, τα τηλεκατευθυνόμενα μη επανδρωμένα μέσα
03:29
are the precursorsπρόδρομοι to autonomousαυτονόμος roboticρομποτικό weaponsόπλα.
62
197080
4472
είναι ο πρόδρομος των αυτόματων ρομποτικών όπλων.
03:33
That's because onceμια φορά you've deployedαναπτυχθεί remotely-pilotedΤηλεκατευθυνόμενα dronesΚηφήνες,
63
201552
2767
Αυτό συμβαίνει γιατί άπαξ κι αναπτυχθούν τηλεκατευθυνόμενα μη επανδρωμένα μέσα,
03:36
there are threeτρία powerfulισχυρός factorsπαράγοντες pushingπιέζοντας decision-makingλήψη αποφάσης
64
204319
3384
υπάρχουν τρεις ισχυροί παράγοντες
που σπρώχνουν τη λήψη αποφάσεων
03:39
away from humansτου ανθρώπου and on to the weaponόπλο platformπλατφόρμα itselfεαυτό.
65
207703
4600
μακριά από τον άνθρωπο και
προς την ίδια την οπλική πλατφόρμα.
03:44
The first of these is the delugeΚατακλυσμός of videoβίντεο that dronesΚηφήνες produceπαράγω.
66
212303
5259
Ο πρώτος από αυτούς είναι ο κατακλυσμός
από βίντεο που παράγουν τα μη επανδρωμένα μέσα.
03:49
For exampleπαράδειγμα, in 2004, the U.S. droneκηφήνας fleetστόλος producedπαράγεται
67
217562
3853
Για παράδειγμα, το 2004, ο στόλος των μη επανδρωμένων μέσων των ΗΠΑ παρήγαγε
03:53
a grandμεγαλειώδης totalσύνολο of 71 hoursώρες of videoβίντεο surveillanceεπιτήρηση for analysisανάλυση.
68
221415
5312
ένα γενικό σύνολο 71 ωρών βιντεοεπιτήρησης
για ανάλυση.
03:58
By 2011, this had goneχαμένος up to 300,000 hoursώρες,
69
226727
4499
Μέχρι το 2011, αυτό είχε ανέβει στις 300.000 ώρες,
04:03
outstrippingξεπερνούν humanο άνθρωπος abilityικανότητα to reviewανασκόπηση it all,
70
231226
3149
ξεπερνώντας την ανθρώπινη ικανότητα
για την ολική του αξιολόγηση,
04:06
but even that numberαριθμός is about to go up drasticallyδραστικά.
71
234375
3664
αλλά ακόμη κι αυτός ο αριθμός
είναι έτοιμος ν' αυξηθεί δραστικά.
04:10
The Pentagon'sΤου Πενταγώνου GorgonΓοργώ StareΚοιτάζω and ArgusArgus programsπρογράμματα
72
238039
2575
Τα προγράμματα Gorgon Stare και Argus
του Πενταγώνου
04:12
will put up to 65 independentlyανεξάρτητα operatedλειτουργεί cameraΦΩΤΟΓΡΑΦΙΚΗ ΜΗΧΑΝΗ eyesμάτια
73
240614
3164
θα θέσουν μέχρι 65 λειτουργικώς ανεξάρτητα
μάτια καμερών
04:15
on eachκαθε droneκηφήνας platformπλατφόρμα,
74
243778
2038
σε κάθε πλατφόρμα μη επανδρωμένου μέσου
04:17
and this would vastlyευρέως outstripξεπερνά τον humanο άνθρωπος abilityικανότητα to reviewανασκόπηση it.
75
245816
3303
κι αυτό θα ξεπερνούσε κατά πολύ
την ανθρώπινη ικανότητα για αξιολόγηση.
04:21
And that meansπου σημαίνει visualοπτικός intelligenceνοημοσύνη softwareλογισμικό will need
76
249119
2160
Αυτό σημαίνει ότι το λογισμικό οπτικής νοημοσύνης
θα πρέπει
04:23
to scanσάρωση it for itemsαντικειμένων of interestενδιαφέρον.
77
251279
4048
να το εξετάζει για στοιχεία
που παρουσιάζουν ενδιαφέρον.
04:27
And that meansπου σημαίνει very soonσύντομα
78
255327
1348
Κι αυτό σημαίνει ότι πολύ σύντομα
04:28
dronesΚηφήνες will tell humansτου ανθρώπου what to look at,
79
256675
2747
τα μη επανδρωμένα μέσα
θα λένε στους ανθρώπους τι να κοιτάξουν,
04:31
not the other way around.
80
259422
2497
όχι το αντίστροφο.
04:33
But there's a secondδεύτερος powerfulισχυρός incentiveκίνητρο pushingπιέζοντας
81
261919
2473
Αλλά υπάρχει ένα δεύτερο ισχυρό κίνητρο που ωθεί
04:36
decision-makingλήψη αποφάσης away from humansτου ανθρώπου and ontoεπάνω σε machinesμηχανές,
82
264392
3383
τη λήψη αποφάσεων μακριά από τους ανθρώπους και προς τις μηχανές
04:39
and that's electromagneticΗλεκτρομαγνητική jammingμπλοκάρισμα,
83
267775
2872
κι αυτό είναι οι ηλεκτρομαγνητικές παρεμβολές
04:42
severingδιάρρηξη the connectionσύνδεση betweenμεταξύ the droneκηφήνας
84
270647
2236
που διακόπτουν τη σύνδεση μεταξύ
του μη επανδρωμένου μέσου
04:44
and its operatorχειριστή.
85
272883
2814
και του χειριστή του.
04:47
Now we saw an exampleπαράδειγμα of this in 2011
86
275697
2618
Είδαμε ένα τέτοιο παράδειγμα το 2011
04:50
when an AmericanΑμερικανική RQ-RQ-170 Sentinel«Sentinel» droneκηφήνας
87
278315
2956
όταν ένα αμερικανικό μη επανδρωμένο αεροσκάφος RQ-170 Sentinel
04:53
got a bitκομμάτι confusedταραγμένος over IranΙράν dueλόγω to a GPSGPS spoofingπλαστογράφηση attackεπίθεση,
88
281271
4307
μπερδεύτηκε λίγο πάνω από το Ιράν, λόγω μιας επίθεσης εξαπάτησης του GPS, αλλά
04:57
but any remotely-pilotedΤηλεκατευθυνόμενα droneκηφήνας is susceptibleευαίσθητος to this typeτύπος of attackεπίθεση,
89
285578
5114
οποιοδήποτε τηλεκατευθυνόμενο μη επανδρωμένο μέσο είναι ευπαθές σε αυτού του είδους την επίθεση
05:02
and that meansπου σημαίνει dronesΚηφήνες
90
290692
2052
κι αυτό σημαίνει ότι τα μη επανδρωμένα μέσα
05:04
will have to shoulderώμος more decision-makingλήψη αποφάσης.
91
292744
3620
θα πρέπει να αναλάβουν περισσότερες
λήψεις αποφάσεων.
05:08
They'llΑυτοί θα know theirδικα τους missionαποστολή objectiveσκοπός,
92
296364
3043
Θα γνωρίζουν τον αντικειμενικό σκοπό της αποστολής τους
05:11
and they'llθα το κάνουν reactαντιδρώ to newνέος circumstancesπεριστάσεις withoutχωρίς humanο άνθρωπος guidanceκαθοδήγηση.
93
299407
4845
και θα αντιδρούν στα νέα δεδομένα
χωρίς ανθρώπινη καθοδήγηση.
05:16
They'llΑυτοί θα ignoreαγνοώ externalεξωτερικός radioραδιόφωνο signalsσήματα
94
304252
2581
Θα αγνοούν εξωτερικά ραδιοσήματα
05:18
and sendστείλετε very fewλίγοι of theirδικα τους ownτα δικά.
95
306833
2330
και θα στέλνουν ελάχιστα δικά τους.
05:21
WhichΟποία bringsφέρνει us to, really, the thirdτρίτος
96
309163
2006
Αυτό μας φέρνει, πραγματικά, στο τρίτο
05:23
and mostπλέον powerfulισχυρός incentiveκίνητρο pushingπιέζοντας decision-makingλήψη αποφάσης
97
311169
3862
και πιο ισχυρό κίνητρο πίεσης της λήψης αποφάσεων
05:27
away from humansτου ανθρώπου and ontoεπάνω σε weaponsόπλα:
98
315031
3342
μακριά από τον άνθρωπο και προς τα όπλα:
05:30
plausibleεύλογες deniabilitydeniability.
99
318373
3293
την εύλογη δυνατότητα άρνησης.
05:33
Now we liveζω in a globalπαγκόσμια economyοικονομία.
100
321666
2887
Ζούμε σε μια παγκόσμια οικονομία.
05:36
High-techΥψηλής τεχνολογίας manufacturingβιομηχανοποίηση is occurringπου συμβαίνουν on mostπλέον continentsηπείρους.
101
324553
4334
Κατασκευές υψηλής τεχνολογίας πραγματοποιούνται
στις περισσότερες ηπείρους.
05:40
CyberΣτον κυβερνοχώρο espionageκατασκοπεία is spiritingβρεθεί πίσω away advancedπροχωρημένος designsσχέδια
102
328887
2914
Η κυβερνοκατασκοπεία διακτινίζει
προηγμένα σχέδια μακριά
05:43
to partsεξαρτήματα unknownάγνωστο,
103
331801
1886
σε άγνωστα μέρη
05:45
and in that environmentπεριβάλλον, it is very likelyπιθανός
104
333687
2014
και σε αυτό το περιβάλλον, είναι πολύ πιθανό
05:47
that a successfulεπιτυχής droneκηφήνας designσχέδιο will be knockedχτύπησε off in contractσύμβαση factoriesεργοστάσια,
105
335701
4734
ότι ένας επιτυχής σχεδιασμός μη επανδρωμένου μέσου θα ξεφύγει από τα εργοστάσια της σύμβασης,
05:52
proliferateπολλαπλασιάζονται in the grayγκρί marketαγορά.
106
340435
2170
θα εξαπλωθεί στην γκρίζα αγορά.
05:54
And in that situationκατάσταση, siftingκοσκίνισμα throughδιά μέσου the wreckageσυντρίμμια
107
342605
2460
Και σε αυτή την περίπτωση, σε μια προσεκτική εξέταση των συντριμμιών
05:57
of a suicideαυτοκτονία droneκηφήνας attackεπίθεση, it will be very difficultδύσκολος to say
108
345065
2960
μιας επίθεσης αυτοκτονίας μη επανδρωμένου μέσου, πολύ δύσκολα θα μπορεί να ειπωθεί
06:00
who sentΑπεσταλμένα that weaponόπλο.
109
348025
4400
ποιος έστειλε το εν λόγω όπλο.
06:04
This raisesαυξήσεις the very realπραγματικός possibilityδυνατότητα
110
352425
2800
Αυτό εγείρει την πολύ πραγματική πιθανότητα
06:07
of anonymousΑνώνυμος warπόλεμος.
111
355225
2935
του ανώνυμου πολέμου.
06:10
This could tiltκλίση the geopoliticalγεωπολιτική balanceισορροπία on its headκεφάλι,
112
358160
2614
Αυτό θα μπορούσε να ταρακουνήσει
τις γεωπολιτικές ισορροπίες κατακέφαλα,
06:12
make it very difficultδύσκολος for a nationέθνος to turnστροφή its firepowerδύναμη πυρός
113
360774
3491
να καταστήσει πολύ δύσκολο σε ένα έθνος
να στρέψει τη δύναμη πυρός του
06:16
againstκατά an attackerεισβολέας, and that could shiftβάρδια the balanceισορροπία
114
364265
2848
εναντίον ενός εισβολέα και αυτό θα μπορούσε
να μετατοπίσει την ισορροπία
06:19
in the 21stst centuryαιώνας away from defenseάμυνα and towardπρος offenseαδίκημα.
115
367113
3764
του 21ου αιώνα, μακριά από την άμυνα
και προς την επίθεση.
06:22
It could make militaryΣΤΡΑΤΟΣ actionδράση a viableβιώσιμος optionεπιλογή
116
370877
3124
Θα μπορούσε να κάνει τη στρατιωτική δράση μία βιώσιμη επιλογή
06:26
not just for smallμικρό nationsέθνη,
117
374001
2288
όχι μόνο για τα μικρά έθνη,
06:28
but criminalεγκληματίας organizationsοργανώσεις, privateιδιωτικός enterpriseεπιχείρηση,
118
376289
2545
αλλά για εγκληματικές οργανώσεις,
ιδιωτικές επιχειρήσεις,
06:30
even powerfulισχυρός individualsτα άτομα.
119
378834
2479
ακόμη και ισχυρών ατόμων.
06:33
It could createδημιουργώ a landscapeτοπίο of rivalαντίπαλος warlordsπολέμαρχοι
120
381313
3328
Αυτό θα μπορούσε να δημιουργήσει ένα πεδίο
από αντίπαλους πολέμαρχους
06:36
underminingυπονόμευση ruleκανόνας of lawνόμος and civilεμφύλιος societyκοινωνία.
121
384641
3680
υπονομεύοντας το κράτος δικαίου
και την κοινωνία των πολιτών.
06:40
Now if responsibilityευθύνη and transparencyδιαφάνεια
122
388321
3616
Εάν η υπευθυνότητα και η διαφάνεια
06:43
are two of the cornerstonesακρογωνιαίοι λίθοι of representativeεκπρόσωπος governmentκυβέρνηση,
123
391937
2384
είναι δύο από τους ακρογωνιαίους λίθους
της αντιπροσωπευτικής κυβέρνησης,
06:46
autonomousαυτονόμος roboticρομποτικό weaponsόπλα could undermineυπονομεύω bothκαι τα δυο.
124
394321
4320
τα αυτόνομα ρομποτικά όπλα θα μπορούσαν
να υποσκάψουν και τα δύο.
06:50
Now you mightθα μπορούσε be thinkingσκέψη that
125
398641
1546
Μπορεί να σκέφτεστε ότι
06:52
citizensοι πολίτες of high-techυψηλής τεχνολογίας nationsέθνη
126
400187
2246
οι πολίτες των εθνών υψηλής τεχνολογίας
06:54
would have the advantageπλεονέκτημα in any roboticρομποτικό warπόλεμος,
127
402433
2703
θα είχαν το πλεονέκτημα σε κάθε ρομποτικό πόλεμο,
06:57
that citizensοι πολίτες of those nationsέθνη would be lessπιο λιγο vulnerableευάλωτα,
128
405136
3633
ότι οι πολίτες αυτών των εθνών θα ήταν
λιγότερο ευάλωτοι,
07:00
particularlyιδιαίτερα againstκατά developingανάπτυξη nationsέθνη.
129
408769
4288
ιδιαίτερα ενάντια στις αναπτυσσόμενες χώρες.
07:05
But I think the truthαλήθεια is the exactακριβής oppositeαπεναντι απο.
130
413057
3524
Αλλά νομίζω ότι η αλήθεια είναι το ακριβώς αντίθετο.
07:08
I think citizensοι πολίτες of high-techυψηλής τεχνολογίας societiesκοινωνίες
131
416581
2251
Νομίζω ότι οι πολίτες των κοινωνιών
υψηλής τεχνολογίας
07:10
are more vulnerableευάλωτα to roboticρομποτικό weaponsόπλα,
132
418832
3729
είναι πιο ευάλωτοι στα ρομποτικά όπλα
07:14
and the reasonλόγος can be summedαθροίσω up in one wordλέξη: dataδεδομένα.
133
422561
4465
και η αιτία μπορεί να συνοψιστεί σε μία λέξη: Δεδομένα.
07:19
DataΔεδομένα powersεξουσίες high-techυψηλής τεχνολογίας societiesκοινωνίες.
134
427026
3481
Τα δεδομένα κινούν τις κοινωνίες
υψηλής τεχνολογίας.
07:22
CellΚελί phoneτηλέφωνο geolocationGeolocation, telecomτηλεπικοινωνιών metadataμετα-δεδομένα,
135
430507
3190
Γεωτοποθεσία κινητού τηλεφώνου,
μεταδεδομένα τηλεπικοινωνιών,
07:25
socialκοινωνικός mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ, emailΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ, textκείμενο, financialχρηματοοικονομική transactionσυναλλαγή dataδεδομένα,
136
433697
3472
κοινωνικά μέσα, ηλεκτρονικό ταχυδρομείο, κείμενα,
δεδομένα οικονομικών συναλλαγών,
07:29
transportationΜεταφορά dataδεδομένα, it's a wealthπλούτος of real-timeπραγματικός χρόνος dataδεδομένα
137
437169
3532
μεταφορά δεδομένων,
είναι μία πληθώρα δεδομένων πραγματικού χρόνου
07:32
on the movementsκινήσεις and socialκοινωνικός interactionsαλληλεπιδράσεις of people.
138
440701
3373
σχετικά με τις κινήσεις και
τις κοινωνικές αλληλεπιδράσεις των ατόμων.
07:36
In shortμικρός, we are more visibleορατός to machinesμηχανές
139
444074
3775
Εν ολίγοις, είμαστε πιο ορατοί στις μηχανές
07:39
than any people in historyιστορία,
140
447849
2242
από οποιαδήποτε πληθυσμιακή ομάδα στην ιστορία
07:42
and this perfectlyτέλεια suitsκοστούμια the targetingστόχευση needsανάγκες of autonomousαυτονόμος weaponsόπλα.
141
450091
5616
κι αυτό ταιριάζει απόλυτα στις ανάγκες στόχευσης
των αυτόνομων όπλων.
07:47
What you're looking at here
142
455707
1738
Αυτό που βλέπετε εδώ
07:49
is a linkΣύνδεσμος analysisανάλυση mapχάρτης of a socialκοινωνικός groupομάδα.
143
457445
3246
είναι ένας χάρτης ανάλυσης συνδέσμων
μιας κοινωνικής ομάδας.
07:52
LinesΓραμμές indicateυποδεικνύω socialκοινωνικός connectednessσυνεκτικότητα betweenμεταξύ individualsτα άτομα.
144
460691
3634
Οι γραμμές υποδηλώνουν κοινωνική συνεκτικότητα μεταξύ των ατόμων.
07:56
And these typesτύπους of mapsχάρτες can be automaticallyαυτομάτως generatedδημιουργούνται
145
464325
2880
Κι αυτοί οι τύποι των χαρτών
μπορούν να δημιουργηθούν αυτόματα
07:59
basedμε βάση on the dataδεδομένα trailμονοπάτι modernμοντέρνο people leaveάδεια behindπίσω.
146
467205
4715
με βάση τα ίχνη δεδομένων
που οι σύγχρονοι άνθρωποι αφήνουν πίσω τους.
08:03
Now it's typicallyτυπικά used to marketαγορά goodsεμπορεύματα and servicesΥπηρεσίες
147
471920
2477
Συνήθως χρησιμοποιούνται για την προώθηση
αγαθών και υπηρεσιών
08:06
to targetedστοχοθετημένη demographicsδημογραφικά στοιχεία, but it's a dual-useδιπλής χρήσης technologyτεχνολογία,
148
474397
4416
με δημογραφική στόχευση, αλλά
είναι μια τεχνολογία διττής χρήσης,
08:10
because targetingστόχευση is used in anotherαλλο contextσυμφραζόμενα.
149
478813
3360
επειδή η στόχευση χρησιμοποιείται
σ' ένα άλλο πλαίσιο.
08:14
NoticeΕιδοποίηση that certainβέβαιος individualsτα άτομα are highlightedεπισημάνθηκε.
150
482173
2560
Παρατηρήστε ότι ορισμένα άτομα
είναι επισημασμένα.
08:16
These are the hubsδιανομείς of socialκοινωνικός networksδικτύων.
151
484733
3280
Είναι οι κόμβοι των κοινωνικών δικτύων.
08:20
These are organizersΟι διοργανωτές, opinion-makersδιαμορφωτές της κοινής γνώμης, leadersηγέτες,
152
488013
3590
Πρόκειται για διοργανωτές, διαμορφωτές
της κοινής γνώμης, ηγέτες
08:23
and these people alsoεπίσης can be automaticallyαυτομάτως identifiedαναγνωρισθείς
153
491603
2682
κι αυτοί οι άνθρωποι επίσης μπορούν
ν' αναγνωριστούν αυτόματα
08:26
from theirδικα τους communicationεπικοινωνία patternsσχέδια.
154
494285
2382
από τα μοτίβα επικοινωνίας τους.
08:28
Now, if you're a marketerέμπορος, you mightθα μπορούσε then targetστόχος them
155
496667
2146
Τώρα, εάν είστε έμποροι, ίσως μετά
να τους στοχοποιούσατε
08:30
with productπροϊόν samplesδείγματα, try to spreadδιάδοση your brandμάρκα
156
498813
2543
με δείγματα προϊόντων, ίσως επιχειρούσατε
να προωθήσετε τη μάρκα σας
08:33
throughδιά μέσου theirδικα τους socialκοινωνικός groupομάδα.
157
501356
2829
μέσω των κοινωνικών τους ομάδων.
08:36
But if you're a repressiveκατασταλτικός governmentκυβέρνηση
158
504185
1953
Αλλά, αν είστε μια τυραννική κυβέρνηση
08:38
searchingερευνητικός for politicalπολιτικός enemiesεχθρούς, you mightθα μπορούσε insteadαντι αυτου removeαφαιρώ them,
159
506138
4810
που αναζητά πολιτικούς εχθρούς,
αντί αυτού μπορείτε ίσως να τους απομακρύνετε,
08:42
eliminateεξαλείφω them, disruptαναστατώνω theirδικα τους socialκοινωνικός groupομάδα,
160
510948
2760
να τους εξαλείψετε, να διαταράξετε
την κοινωνική ομάδα τους
08:45
and those who remainπαραμένει behindπίσω loseχάνω socialκοινωνικός cohesionσυνοχής
161
513708
3169
κι εκείνοι που παραμείνουν πίσω
χάνουν την κοινωνική συνοχή
08:48
and organizationοργάνωση.
162
516877
2621
και οργάνωση.
08:51
Now in a worldκόσμος of cheapφτηνός, proliferatingπολλαπλασιάζονται roboticρομποτικό weaponsόπλα,
163
519498
3324
Τώρα σε έναν κόσμο από φτηνά, πολλαπλασιαζόμενα ρομποτικά όπλα,
08:54
bordersσύνορα would offerπροσφορά very little protectionΠΡΟΣΤΑΣΙΑ
164
522822
2635
τα σύνορα θα προσέφεραν πολύ μικρή προστασία
08:57
to criticsκριτικούς of distantμακρινός governmentsκυβερνήσεις
165
525457
1946
στους επικριτές απόμακρων κυβερνήσεων
08:59
or trans-nationalδιακρατική criminalεγκληματίας organizationsοργανώσεις.
166
527403
3646
ή διακρατικών εγκληματικών οργανώσεων.
09:03
PopularΔημοφιλή movementsκινήσεις agitatingανακίνηση for changeαλλαγή
167
531049
3493
Λαϊκά κινήματα διψασμένα για αλλαγή
09:06
could be detectedΕντοπίστηκε earlyνωρίς and theirδικα τους leadersηγέτες eliminatedεξαλειφθεί
168
534542
3609
θα μπορούσαν να εντοπιστούν νωρίς
και οι ηγέτες τους να εξαλειφθούν
09:10
before theirδικα τους ideasιδέες achieveφέρνω σε πέρας criticalκρίσιμος massμάζα.
169
538151
2911
πριν οι ιδέες τους επιτύχουν την κρίσιμη μάζα.
09:13
And ideasιδέες achievingτην επίτευξη criticalκρίσιμος massμάζα
170
541062
2591
Και οι ιδέες που επιτυγχάνουν την κρίσιμη μάζα
09:15
is what politicalπολιτικός activismακτιβισμός in popularδημοφιλής governmentκυβέρνηση is all about.
171
543653
3936
αφορούν τον πολιτικό ακτιβισμό στη λαϊκή κυβέρνηση.
09:19
AnonymousΑνώνυμος lethalθανατηφόρος weaponsόπλα could make lethalθανατηφόρος actionδράση
172
547589
3997
Ανώνυμα θανατηφόρα όπλα θα μπορούσαν
να κάνουν τη θανατηφόρο δράση
09:23
an easyεύκολος choiceεπιλογή for all sortsείδος of competingανταγωνίζονται interestsτα ενδιαφέροντα.
173
551586
3782
μια εύκολη επιλογή για όλα τα είδη των ανταγωνιστικών συμφερόντων.
09:27
And this would put a chillψύχρα on freeΕλεύθερος speechομιλία
174
555368
3734
Κι αυτό θα πάγωνε την ελευθερία του λόγου
09:31
and popularδημοφιλής politicalπολιτικός actionδράση, the very heartκαρδιά of democracyΔημοκρατία.
175
559102
5308
και την λαϊκή πολιτική δράση,
την ίδια την καρδιά της Δημοκρατίας.
09:36
And this is why we need an internationalΔιεθνές treatyΣυνθήκη
176
564410
2914
Γι' αυτό χρειαζόμαστε μια διεθνή συνθήκη
09:39
on roboticρομποτικό weaponsόπλα, and in particularιδιαιτερος a globalπαγκόσμια banαπαγόρευση
177
567324
3540
για τα ρομποτικά όπλα και ειδικότερα
μια καθολική απαγόρευση
09:42
on the developmentανάπτυξη and deploymentανάπτυξης of killerφονιάς robotsρομπότ.
178
570864
3908
στη δημιουργία και ανάπτυξη
των ρομπότ δολοφόνων.
09:46
Now we alreadyήδη have internationalΔιεθνές treatiesσυνθήκες
179
574772
3254
Ήδη έχουμε διεθνείς συνθήκες
09:50
on nuclearπυρηνικός and biologicalβιολογικός weaponsόπλα, and, while imperfectατελής,
180
578026
3386
για πυρηνικά και βιολογικά όπλα και, παρότι ελλιπείς,
09:53
these have largelyσε μεγάλο βαθμό workedεργάστηκε.
181
581412
2288
αυτές έχουν λειτουργήσει σε μεγάλο βαθμό.
09:55
But roboticρομποτικό weaponsόπλα mightθα μπορούσε be everyκάθε bitκομμάτι as dangerousεπικίνδυνος,
182
583700
3768
Αλλά τα ρομποτικά όπλα μπορεί να είναι
εξίσου επικίνδυνα,
09:59
because they will almostσχεδόν certainlyσίγουρα be used,
183
587468
3288
επειδή σχεδόν σίγουρα θα χρησιμοποιηθούν
10:02
and they would alsoεπίσης be corrosiveδιαβρωτικό to our democraticδημοκρατικός institutionsιδρύματα.
184
590756
5027
κι επίσης θα διάβρωναν
τους δημοκρατικούς μας θεσμούς.
10:07
Now in NovemberΝοέμβριος 2012 the U.S. DepartmentΤμήμα of DefenseΆμυνα
185
595783
3468
Το Νοέμβριο του 2012,
το Υπουργείο Άμυνας των ΗΠΑ
10:11
issuedεκδόθηκε a directiveοδηγία requiringπου απαιτούν
186
599251
2458
εξέδωσε μια οδηγία που απαιτούσε
10:13
a humanο άνθρωπος beingνα εισαι be presentπαρόν in all lethalθανατηφόρος decisionsαποφάσεων.
187
601709
4519
την παρουσία ανθρώπου σε όλες τις θανατηφόρες αποφάσεις.
10:18
This temporarilyπροσωρινά effectivelyαποτελεσματικά bannedαπαγόρευση autonomousαυτονόμος weaponsόπλα in the U.S. militaryΣΤΡΑΤΟΣ,
188
606228
4776
Αυτό προσωρινά απαγόρευσε αποτελεσματικά
τα αυτόνομα όπλα του αμερικάνικου στρατού,
10:23
but that directiveοδηγία needsανάγκες to be madeέκανε permanentμόνιμος.
189
611004
3753
αλλά, η εν λόγω οδηγία χρειάζεται να γίνει μόνιμη.
10:26
And it could setσειρά the stageστάδιο for globalπαγκόσμια actionδράση.
190
614757
4376
Και θα μπορούσε να θέσει τη βάση
για παγκόσμια δράση.
10:31
Because we need an internationalΔιεθνές legalνομικός frameworkδομή
191
619133
3845
Διότι χρειαζόμαστε ένα διεθνές νομικό πλαίσιο
10:34
for roboticρομποτικό weaponsόπλα.
192
622978
2138
για τα ρομποτικά όπλα.
10:37
And we need it now, before there's a devastatingκαταστροφικά attackεπίθεση
193
625116
2928
Και το χρειαζόμαστε τώρα, προτού να υπάρξει
μια καταστροφική επίθεση
10:40
or a terroristτρομοκράτης incidentπεριστατικό that causesαιτίες nationsέθνη of the worldκόσμος
194
628044
3152
ή ένα τρομοκρατικό περιστατικό
που θα προκαλέσει στα έθνη του κόσμου
10:43
to rushβιασύνη to adoptενστερνίζομαι these weaponsόπλα
195
631196
1924
να βιαστούν να υιοθετήσουν αυτά τα όπλα
10:45
before thinkingσκέψη throughδιά μέσου the consequencesσυνέπειες.
196
633120
3771
πριν σκεφτούν τις συνέπειες.
10:48
AutonomousΑυτόνομη roboticρομποτικό weaponsόπλα concentrateσυγκεντρώνομαι too much powerεξουσία
197
636891
2981
Τα αυτόνομα ρομποτικά όπλα επικεντρώνουν
πάρα πολύ δύναμη
10:51
in too fewλίγοι handsτα χέρια, and they would imperilθέτουν σε κίνδυνο democracyΔημοκρατία itselfεαυτό.
198
639872
6283
σε λιγοστά χέρια κι αυτά θα έθεταν σε κίνδυνο
την ίδια τη δημοκρατία.
10:58
Now, don't get me wrongλανθασμένος, I think there are tonsτόνους
199
646155
2686
Μην με παρεξηγείτε, πιστεύω ότι υπάρχουν πάμπολες
11:00
of great usesχρήσεις for unarmedάοπλοι civilianπολίτης dronesΚηφήνες:
200
648841
2618
σπουδαίες χρήσεις των αμάχων
μη επανδρωμένων μέσων:
11:03
environmentalπεριβάλλοντος monitoringπαρακολούθησης, searchΨάξιμο and rescueδιάσωση, logisticsυλικοτεχνική υποστήριξη.
201
651459
3939
περιβαλλοντική παρακολούθηση,
έρευνα και διάσωση, μεταφορά προμηθειών.
11:07
If we have an internationalΔιεθνές treatyΣυνθήκη on roboticρομποτικό weaponsόπλα,
202
655398
2826
Αν έχουμε μια διεθνή συνθήκη
για τα ρομποτικά όπλα,
11:10
how do we gainκέρδος the benefitsπλεονεκτήματα of autonomousαυτονόμος dronesΚηφήνες
203
658224
3587
πώς κερδίζουμε τα οφέλη των αυτόνομων
μη επανδρωμένων μέσων
11:13
and vehiclesοχήματα while still protectingπροστασία ourselvesεμείς οι ίδιοι
204
661811
2648
και οχημάτων ενόσω προστατεύουμε παράλληλα
τους εαυτούς μας
11:16
againstκατά illegalπαράνομος roboticρομποτικό weaponsόπλα?
205
664459
3980
από τα παράνομα ρομποτικά όπλα;
11:20
I think the secretμυστικό will be transparencyδιαφάνεια.
206
668439
4741
Νομίζω ότι το μυστικό θα είναι η διαφάνεια.
11:25
No robotρομπότ should have an expectationπροσδοκία of privacyπροστασίας προσωπικών δεδομένων
207
673180
3013
Κανένα ρομπότ δεν θα πρέπει να έχει την προσδοκία
της ιδιωτικότητας
11:28
in a publicδημόσιο placeθέση.
208
676193
3451
σε δημόσιο χώρο.
11:31
(ApplauseΧειροκροτήματα)
209
679644
5048
(Χειροκρότημα)
11:36
EachΚάθε robotρομπότ and droneκηφήνας should have
210
684692
2045
Κάθε ρομπότ και μη επανδρωμένο μέσο
θα πρέπει να έχει
11:38
a cryptographicallyκρυπτογραφικά signedυπογράφηκε I.D. burnedκαίγεται in at the factoryεργοστάσιο
211
686737
2883
μια ψηφιακά κρυπτογραφημένη ταυτότητα
που να δημιουργείται στο εργοστάσιο και
11:41
that can be used to trackπίστα its movementκίνηση throughδιά μέσου publicδημόσιο spacesχώρων.
212
689620
2923
να μπορεί να χρησιμοποιηθεί για να παρακολουθείται η κίνησή του σε δημόσιους χώρους.
11:44
We have licenseάδεια platesπλάκες on carsαυτοκίνητα, tailουρά numbersαριθμούς on aircraftαεροσκάφος.
213
692543
3381
Έχουμε πινακίδες στα αυτοκίνητα,
αριθμούς σειράς στα αεροσκάφη.
11:47
This is no differentδιαφορετικός.
214
695924
1841
Αυτό δεν είναι κάτι διαφορετικό.
11:49
And everyκάθε citizenπολίτης should be ableικανός to downloadΚατεβάστε an appapp
215
697765
2012
Κάθε πολίτης θα πρέπει να είναι σε θέση
να κατεβάσει μια εφαρμογή
11:51
that showsδείχνει the populationπληθυσμός of dronesΚηφήνες and autonomousαυτονόμος vehiclesοχήματα
216
699777
3125
που θα δείχνει τον πληθυσμό των μη επανδρωμένων μέσων και αυτόνομων οχημάτων
11:54
movingκίνηση throughδιά μέσου publicδημόσιο spacesχώρων around them,
217
702902
2429
που κινούνται μέσα σε δημόσιους χώρους γύρω του,
11:57
bothκαι τα δυο right now and historicallyιστορικά.
218
705331
2733
τόσο αυτή τη στιγμή όσο και ιστορικά.
12:00
And civicαστικός leadersηγέτες should deployαναπτύξετε sensorsΑισθητήρες and civicαστικός dronesΚηφήνες
219
708064
3548
Και οι πολιτικοί ηγέτες θα πρέπει να αναπτύξουν αισθητήρες και πολιτικά μη επανδρωμένα μέσα
12:03
to detectανιχνεύουν rogueπαραπλανητικού διακομιστή dronesΚηφήνες,
220
711612
2344
για τον εντοπισμό έκνομων
μη επανδρωμένων μέσων,
12:05
and insteadαντι αυτου of sendingαποστολή killerφονιάς dronesΚηφήνες of theirδικα τους ownτα δικά up to shootβλαστός them down,
221
713956
3176
κι αντί της αποστολής δικών τους φονικών μη επανδρωμένων μέσων για να τα καταστρέψουν,
12:09
they should notifyκοινοποιούν humansτου ανθρώπου to theirδικα τους presenceπαρουσία.
222
717132
2992
θα πρέπει να ενημερώνουν τους ανθρώπους
για την παρουσία τους.
12:12
And in certainβέβαιος very high-securityυψηλής ασφαλείας areasπεριοχές,
223
720124
2606
Και σε ορισμένες περιοχές πολύ υψηλής ασφάλειας,
12:14
perhapsίσως civicαστικός dronesΚηφήνες would snareπαγίδα them
224
722730
1909
ίσως τα πολιτικά μη επανδρωμένα μέσα να τα παγιδεύουν
12:16
and dragσέρνω them off to a bombβόμβα disposalδιάθεση facilityευκολία.
225
724639
2841
και να τα παρασέρνουν σε μια εγκατάσταση εξουδετέρωσης βομβών.
12:19
But noticeειδοποίηση, this is more an immuneαπρόσβλητος systemΣύστημα
226
727480
3027
Αλλά προσέξτε, αυτό είναι περισσότερο
ένα ανοσοποιητικό σύστημα
12:22
than a weaponsόπλα systemΣύστημα.
227
730507
1321
από ένα σύστημα όπλων.
12:23
It would allowεπιτρέπω us to availόφελος ourselvesεμείς οι ίδιοι of the use
228
731828
2592
Θα μας επέτρεπε να επωφεληθούμε οι ίδιοι τη χρήση
12:26
of autonomousαυτονόμος vehiclesοχήματα and dronesΚηφήνες
229
734420
2032
αυτόνομων οχημάτων και μη επανδρωμένων μέσων,
12:28
while still preservingδιατήρηση our openΆνοιξε, civilεμφύλιος societyκοινωνία.
230
736452
4295
διατηρώντας ακόμα την ανοικτή μας
κοινωνία των πολιτών.
12:32
We mustπρέπει banαπαγόρευση the deploymentανάπτυξης and developmentανάπτυξη
231
740747
2999
Πρέπει να απαγορεύσουμε την ανάπτυξη
και δημιουργία
12:35
of killerφονιάς robotsρομπότ.
232
743746
1862
ρομπότ δολοφόνων
12:37
Let's not succumbυποκύψει to the temptationο πειρασμός to automateαυτοματοποίηση warπόλεμος.
233
745608
4850
Ας μην υποκύψουμε στον πειρασμό
να αυτοματοποιήσουμε τον πόλεμο.
12:42
AutocraticΑυταρχικό governmentsκυβερνήσεις and criminalεγκληματίας organizationsοργανώσεις
234
750458
2718
Αυταρχικές κυβερνήσεις
κι εγκληματικές οργανώσεις
12:45
undoubtedlyαναμφίβολα will, but let's not joinΣυμμετοχή them.
235
753176
2956
αναμφίβολα θα το κάνουν, αλλά
ας μην τους συμμεριστούμε.
12:48
AutonomousΑυτόνομη roboticρομποτικό weaponsόπλα
236
756132
1891
Τα αυτόνομα ρομποτικά όπλα
12:50
would concentrateσυγκεντρώνομαι too much powerεξουσία
237
758023
2051
θα συγκέντρωναν υπερβολική εξουσία
12:52
in too fewλίγοι unseenαόρατο handsτα χέρια,
238
760074
2482
σε ελάχιστα αθέατα χέρια
12:54
and that would be corrosiveδιαβρωτικό to representativeεκπρόσωπος governmentκυβέρνηση.
239
762556
3255
κι αυτό θα ήταν διαβρωτικό
για την αντιπροσωπευτική κυβέρνηση.
12:57
Let's make sure, for democraciesδημοκρατίες at leastελάχιστα,
240
765811
2961
Ας σιγουρευτούμε ότι,
τουλάχιστον στις δημοκρατίες,
13:00
killerφονιάς robotsρομπότ remainπαραμένει fictionμυθιστόρημα.
241
768772
2604
τα ρομπότ δολοφόνοι
θα παραμείνουν επιστημονική φαντασία.
13:03
Thank you.
242
771376
1110
Ευχαριστώ.
13:04
(ApplauseΧειροκροτήματα)
243
772486
4565
(Χειροκρότημα)
13:09
Thank you. (ApplauseΧειροκροτήματα)
244
777051
4616
Σας ευχαριστώ.
(Χειροκρότημα)
Translated by Nikolaos Benias
Reviewed by Helena Galani

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com