ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

دنیل سوآرز: تصمیم برای کشتن نباید بر عهده‌ی یک ربات قرار بگیرد

Filmed:
1,946,706 views

به عنوان یک نویسنده‌ی رمان، «دنیل سوآرز» داستان‌هایی جهنمی از آینده تعریف می‌کند. ولی روی صحنه‌ی TEDGlobal، او درباره‌ی سناریویی واقعی به ما می‌گوید که همگی باید بیشتر درباره‌اش بدانیم: ظهور سلاح‌های رباتیک خودکنترل‌شونده‌ی جنگ. او می‌گوید پهپادهای پیشرفته، سلاح‌های خودکنترل‌شونده و ابزارهای قدرت گرفته از هوش مصنوعی که اطلاعات را جمع‌آوری می‌کنند، می‌توانند خارج از اختیار انسان‌ها تصمیم برپایی جنگ بگیرند.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeنوشتن fictionداستان sci-fiعلمی تخیلی thrillersهیجان انگیز,
0
691
3158
من داستان‌های مهیجِ علمی‌ـ‌تخیلی می‌نویسم،
00:15
so if I say "killerقاتل robotsروبات ها,"
1
3849
2193
در نتیجه اگه من بگم «ربات‌های قاتل»،
00:18
you'dمی خواهی probablyشاید think something like this.
2
6042
2361
احتمالاً فکرتون بره سمتِ چیزی مثلِ این.
00:20
But I'm actuallyدر واقع not here to talk about fictionداستان.
3
8403
2555
اما واقعیتش من این‌جا نیومدم تا درباره‌ی تخیل حرف بزنم.
00:22
I'm here to talk about very realواقعی killerقاتل robotsروبات ها,
4
10958
2948
من این‌جام تا درباره‌ی ربات‌های قاتلِ خیلی واقعی صحبت کنم؛
00:25
autonomousخود مختار combatمبارزه کن dronesهواپیماهای بدون سرنشین.
5
13906
3122
پهپادهای رزمیِ خودکار.
00:29
Now, I'm not referringاشاره to Predatorشکارچی and Reaperدروگر dronesهواپیماهای بدون سرنشین,
6
17028
3627
الآن موضوعِ صحبتِ من پهپادهای «شکارچی» یا «درنده» نیستن
00:32
whichکه have a humanانسان makingساخت targetingهدف گذاری decisionsتصمیمات.
7
20655
3260
که در اون‌ها یک انسان تصمیماتِ هدف‌گیری رو انجام میده.
00:35
I'm talkingصحبت کردن about fullyبه طور کامل autonomousخود مختار roboticروباتیک weaponsاسلحه
8
23915
3129
من در موردِ سلاح‌های رباتیکِ تمام‌خودکاری صحبت می‌کنم
00:39
that make lethalمرگبار decisionsتصمیمات about humanانسان beingsموجودات
9
27044
2654
که در موردِ مرگِ انسان‌ها تصمیم می‌گیرن،
00:41
all on theirخودشان ownخودت.
10
29698
2417
اون هم کاملاً تنها و مستقل.
00:44
There's actuallyدر واقع a technicalفنی termدوره for this: lethalمرگبار autonomyخودمختاری.
11
32115
4000
در واقع یه اصطلاح فنی هم براش وجود داره: «استقلالِ‌ عمل مرگبار».
00:48
Now, lethallyمرگبار autonomousخود مختار killerقاتل robotsروبات ها
12
36115
2856
ربات‌های قاتلِ دارای استقلالِ عملِ مرگبار،
00:50
would take manyبسیاری formsتشکیل می دهد -- flyingپرواز, drivingرانندگی,
13
38971
3069
می‌تونن شکل‌های مختلفی داشته باشن ــ پرواز کنن، رو زمین حرکت کنن،
00:54
or just lyingدروغ گویی in wait.
14
42040
2746
یا این که صرفاً کمین بکنن.
00:56
And actuallyدر واقع, they're very quicklyبه سرعت becomingتبدیل شدن به a realityواقعیت.
15
44786
3109
و راستش اونا به‌سرعت دارن به واقعیت نزدیک میشن.
00:59
These are two automaticاتوماتیک sniperتک تیرانداز stationsایستگاه ها
16
47895
2484
اینا دو تا پایگاهِ تیراندازیِ خودکارن
01:02
currentlyدر حال حاضر deployedمستقر شده in the DMZDMZ betweenبین Northشمال and Southجنوب Koreaکشور کره.
17
50379
4137
که در حالِ حاضر توی منطقه‌ی بی‌طرف بینِ کره‌ی شمالی و جنوبی به کار گرفته شدن.
01:06
Bothهر دو of these machinesماشین آلات are capableقادر به of automaticallyبطور خودکار
18
54516
2171
هر دوی این ماشین‌ها این قابلیتو دارن که به طورِ خودکار
01:08
identifyingشناسایی a humanانسان targetهدف and firingشلیک کردن on it,
19
56687
3524
یه هدفِ انسانی رو شناسایی كرده و بهش شلیک کنن،
01:12
the one on the left at a distanceفاصله of over a kilometerکیلومتر.
20
60211
4324
بردِ اون سمتِ چپی حتی بیشتر از یک کیلومترست.
01:16
Now, in bothهر دو casesموارد, there's still a humanانسان in the loopحلقه
21
64535
3589
الآن در هر دو نمونه، هنوز یه آدم وجود داره
01:20
to make that lethalمرگبار firingشلیک کردن decisionتصمیم گیری,
22
68124
2372
که در موردِ اون شلیکِ مرگبار تصمیم می‌گیره.
01:22
but it's not a technologicalتکنولوژیکی requirementمورد نیاز. It's a choiceانتخابی.
23
70496
5413
اما این یه الزامِ تکنولوژیک نیست، صرفاً یه انتخابه.
01:27
And it's that choiceانتخابی that I want to focusتمرکز on,
24
75909
3093
و من می‌خوام درست روی همین «انتخاب» تمرکز کنم،
01:31
because as we migrateمهاجرت lethalمرگبار decision-makingتصمیم سازی
25
79002
2641
چون همین طور که ما گرفتنِ این تصمیمِ مرگبار رو
01:33
from humansانسان to softwareنرم افزار,
26
81643
3109
از انسان‌ها به نرم‌افزار منتقل می‌کنیم،
01:36
we riskخطر not only takingگرفتن the humanityبشریت out of warجنگ,
27
84752
3476
نه‌ تنها خطرِ گرفتنِ انسانیت از جنگ‌هامون رو می‌پذیریم،
01:40
but alsoهمچنین changingتغییر دادن our socialاجتماعی landscapeچشم انداز entirelyبه طور کامل,
28
88228
3526
بلکه کلِ چشم‌اندازِ اجتماعی‌مون رو تغییر میدیم،
01:43
farدور from the battlefieldمیدان جنگ.
29
91754
2224
کاملاً سوای میدانِ جنگ.
01:45
That's because the way humansانسان resolveبرطرف کردن conflictدرگیری
30
93978
4509
به این دلیل که شیوه‌ای که انسان‌ها باهاش کشمکش‌هاشون رو حل‌وفصل می‌کنن،
01:50
shapesشکل ها our socialاجتماعی landscapeچشم انداز.
31
98487
1733
چشم‌اندازِ اجتماعی‌مون رو شکل میده.
01:52
And this has always been the caseمورد, throughoutدر سراسر historyتاریخ.
32
100220
2633
در طولِ تاریخ همیشه همین طور بوده.
01:54
For exampleمثال, these were state-of-the-artوضعیت هنر weaponsاسلحه systemsسیستم های
33
102853
2661
برای مثال، این‌ها پیشرفته‌ترین سیستمِ تسلیحاتی
01:57
in 1400 A.D.
34
105514
2079
در سده‌ی ۱۴۰۰ پس از میلاد بودند.
01:59
Now they were bothهر دو very expensiveگران to buildساختن and maintainحفظ,
35
107593
3144
هم ساختن و هم نگهداریِ اون‌ها بسیار پرهزینه بود،
02:02
but with these you could dominateتسلط داشتن the populaceمردم,
36
110737
3240
اما با داشتنِ اون‌ها شما می‌تونستین به توده‌ی مردم مسلط بشین،
02:05
and the distributionتوزیع of politicalسیاسی powerقدرت in feudalفئودالی societyجامعه reflectedمنعکس شده است that.
37
113977
3889
و توزیعِ قدرتِ سیاسی در جامعه‌ی فئودالی هم همین رو منعکس می‌کرد.
02:09
Powerقدرت was focusedمتمرکز شده است at the very topبالا.
38
117866
2687
قدرت در بالاترین نقطه متمرکز شده بود.
02:12
And what changedتغییر کرد? Technologicalتکنولوژیکی innovationنوآوری.
39
120553
3528
و بعد چه تغییری ایجاد شد؟ نوآوری در تکنولوژی.
02:16
Gunpowderباروت, cannonتوپ.
40
124081
1871
باروت، توپ.
02:17
And prettyبسیار soonبه زودی, armorزره پوش and castlesقلعه ها were obsoleteمنسوخ شده,
41
125952
3817
و خیلی زود زره‌ها و قلعه‌ها از دور خارج شدند،
02:21
and it matteredمهم است lessکمتر who you broughtآورده شده to the battlefieldمیدان جنگ
42
129769
2533
و این که شما «چه کسی» رو به میدانِ نبرد می‌فرستادید
02:24
versusدر مقابل how manyبسیاری people you broughtآورده شده to the battlefieldمیدان جنگ.
43
132302
3779
اهمیتش کمتر شد در برابر این که شما «چند نفر» رو به میدان نبرد می‌فرستادین.
02:28
And as armiesارتش grewرشد کرد in sizeاندازه, the nation-stateدولت ملت aroseبه وجود آمد
44
136081
3638
پس همین طور که اندازه‌ی ارتش‌ها بزرگتر می‌شد،
02:31
as a politicalسیاسی and logisticalلجستیکی requirementمورد نیاز of defenseدفاع.
45
139719
3680
دولت‌ـ‌ملت به مثابه یک الزامِ سیاسی و پشتیبانی برای دفاع پدید اومد.
02:35
And as leadersرهبران had to relyتکیه on more of theirخودشان populaceمردم,
46
143399
2376
و همون طور که رهبرها مجبور بودن به تعدادِ نفراتِ بیشتری از مردم‌شون تکیه بکنن،
02:37
they beganآغاز شد to shareاشتراک گذاری powerقدرت.
47
145775
1833
شروع به تقسیمِ قدرت با اون‌ها کردن.
02:39
Representativeنماینده governmentدولت beganآغاز شد to formفرم.
48
147608
2599
دولت‌های انتخابی شروع به شکل‌گیری کردند.
02:42
So again, the toolsابزار we use to resolveبرطرف کردن conflictدرگیری
49
150207
3288
پس مجدداً، ابزارهایی که ما از اونا برای حل و فصلِ منازعه‌ها استفاده می‌کنیم،
02:45
shapeشکل our socialاجتماعی landscapeچشم انداز.
50
153495
3304
چشم‌اندازِ اجتماعیِ ما رو شکل میدن.
02:48
Autonomousخود مختار roboticروباتیک weaponsاسلحه are suchچنین a toolابزار,
51
156799
4064
سلاح‌های رباتیکِ خودکار هم یک چنین ابزاری هستند،
02:52
exceptبجز that, by requiringنیاز به very fewتعداد کمی people to go to warجنگ,
52
160863
5168
اما چون با استفاده از اون‌ها، به عده‌ی بسیار اندکی برای رفتن به جنگ نیاز داریم،
02:58
they riskخطر re-centralizingدوباره تمرکز کنید powerقدرت into very fewتعداد کمی handsدست ها,
53
166031
4840
این خطر وجود داره که دوباره قدرت در دستِ افراد بسیار کمی متمرکز بشه.
03:02
possiblyاحتمالا reversingمعکوس کردن a five-centuryپنج قرن trendروند towardبه سمت democracyدموکراسی.
54
170871
6515
و ممکنه این ابزار روندِ پنج‌ـ‌سده‌ای به سمتِ دموکراسی رو معکوس بکنه.
03:09
Now, I think, knowingدانستن this,
55
177386
1757
من فکر می‌کنم با دونستنِ این موضوع،
03:11
we can take decisiveتعیین کننده stepsمراحل to preserveحفظ our democraticدموکراتیک institutionsمؤسسات,
56
179143
4352
می‌تونیم قدم‌های سرنوشت‌سازی رو برای حفظِ نهادهای دموکراتیک‌مون برداریم،
03:15
to do what humansانسان do bestبهترین, whichکه is adaptانطباق.
57
183495
3979
برای انجامِ کاری که انسان‌ها از همه بهتر انجامش میدن، «تطبیق پیدا کردن».
03:19
But time is a factorعامل.
58
187474
2005
اما عاملِ زمان رو نباید فراموش کنیم.
03:21
Seventyهفتاد nationsملت ها are developingدر حال توسعه remotely-pilotedاز راه دور
59
189479
2851
هفتاد کشور دارن به طورِ جداگانه
03:24
combatمبارزه کن dronesهواپیماهای بدون سرنشین of theirخودشان ownخودت,
60
192330
2157
پهپادهای رزمیِ هدایت‌ـ‌از‌ـ‌دور رو توسعه میدن،
03:26
and as you'llشما خواهید بود see, remotely-pilotedاز راه دور combatمبارزه کن dronesهواپیماهای بدون سرنشین
61
194487
2593
و همون طور که خواهید دید، این پهپادهای هدایت‌ـ‌ازـ‌دور
03:29
are the precursorsپیشگامان to autonomousخود مختار roboticروباتیک weaponsاسلحه.
62
197080
4472
پیش‌درآمدِ تسلیحاتِ رباتیکِ خودکنترل هستن.
03:33
That's because onceیک بار you've deployedمستقر شده remotely-pilotedاز راه دور dronesهواپیماهای بدون سرنشین,
63
201552
2767
دلیلش اینه که زمانی که شما از پهپادهای هدایت‌ـ‌ازـ‌دور استفاده می‌کنید،
03:36
there are threeسه powerfulقدرتمند factorsعوامل pushingهل دادن decision-makingتصمیم سازی
64
204319
3384
سه عاملِ قدرتمند وجود دارن که باعثِ انتقالِ تصمیم‌گیری
03:39
away from humansانسان and on to the weaponسلاح platformسکو itselfخودش.
65
207703
4600
از انسان‌ها به خودِ سامانه‌ی تسلیحاتی میشن.
03:44
The first of these is the delugeتخلیه of videoویدئو that dronesهواپیماهای بدون سرنشین produceتولید کردن.
66
212303
5259
عاملِ اول حجمِ انبوهِ ویدیوهاییه که پهپادها تولید می‌کنن.
03:49
For exampleمثال, in 2004, the U.S. droneهواپیمای بدون سرنشین fleetناوگان producedتولید شده
67
217562
3853
برای مثال، در سالِ ۲۰۰۴، ناوگانِ پهپادهای ایالاتِ متحده
03:53
a grandبزرگ totalجمع of 71 hoursساعت ها of videoویدئو surveillanceنظارت for analysisتحلیل و بررسی.
68
221415
5312
روی‌هم‌ رفته ۷۱ ساعت ویدیوی نظارتی تولید کرده بود.
03:58
By 2011, this had goneرفته up to 300,000 hoursساعت ها,
69
226727
4499
تا سالِ ۲۰۱۱ این رقم به ۳۰۰,۰۰۰ ساعت رسید،
04:03
outstrippingفراتر رفتن humanانسان abilityتوانایی to reviewمرور it all,
70
231226
3149
که بازبینیِ تمامِ اون‌ها فراتر از توانِ انسان بود،
04:06
but even that numberعدد is about to go up drasticallyبه شدت.
71
234375
3664
اما حتی همین مقدار هم داره شدیداً افزایش پیدا می‌کنه.
04:10
The Pentagon'sپنتاگون Gorgonگورگون Stareخیره شدن and Argusآرگوس programsبرنامه ها
72
238039
2575
برنامه‌های Gorgon Stare و Argus ِ پنتاگون
04:12
will put up to 65 independentlyبه طور مستقل operatedکار می کند cameraدوربین eyesچشم ها
73
240614
3164
۶۵ دوربینِ مستقل از هم رو
04:15
on eachهر یک droneهواپیمای بدون سرنشین platformسکو,
74
243778
2038
روی هر پهپاد سوار خواهند کرد،
04:17
and this would vastlyبه شدت outstripفراتر رفتن humanانسان abilityتوانایی to reviewمرور it.
75
245816
3303
که بازبینیِ این حجمِ عظیم کاملاً فراتر از توانِ انسان خواهد بود.
04:21
And that meansبه معنای visualبصری intelligenceهوش softwareنرم افزار will need
76
249119
2160
و این معنی‌ش اینه که نیازمندِ نرم‌افزارهای هوشِ بصری خواهیم بود
04:23
to scanاسکن کردن it for itemsموارد of interestعلاقه.
77
251279
4048
تا این داده‌ها رو به‌دنبالِ مواردِ موردِ نظر مرور بکنن.
04:27
And that meansبه معنای very soonبه زودی
78
255327
1348
و این به این معنى هست که به زودی
04:28
dronesهواپیماهای بدون سرنشین will tell humansانسان what to look at,
79
256675
2747
این پهپادها هستند که به انسان‌ها میگن به چی نگاه کنن،
04:31
not the other way around.
80
259422
2497
بی برو برگرد.
04:33
But there's a secondدومین powerfulقدرتمند incentiveانگیزه pushingهل دادن
81
261919
2473
اما یه انگیزه‌ی قویِ دیگه هم وجود داره
04:36
decision-makingتصمیم سازی away from humansانسان and ontoبه سوی machinesماشین آلات,
82
264392
3383
که بارِ تصمیم‌گیری رو از انسان‌ها برمی‌داره و به ماشین‌ها منتقل می‌کنه،
04:39
and that's electromagneticالکترومغناطیسی jammingمسدود کردن,
83
267775
2872
و اون پارازیتِ الکترومغناطیسیه،
04:42
severingقطع کردن the connectionارتباط betweenبین the droneهواپیمای بدون سرنشین
84
270647
2236
که ارتباطِ بینِ پهپاد و اُپراتورش رو
04:44
and its operatorاپراتور.
85
272883
2814
قطع می‌کنه.
04:47
Now we saw an exampleمثال of this in 2011
86
275697
2618
یه مثال از این موضوع رو در سال ۲۰۱۱ دیدیم،
04:50
when an Americanآمریکایی RQ-RQ-170 SentinelSentinel droneهواپیمای بدون سرنشین
87
278315
2956
جایی که پهپادِ آمریکاییِ دیده‌بانی «RQ-170»
04:53
got a bitبیت confusedسردرگم over Iranایران dueناشی از to a GPSجیپیاس spoofingجاسوسی attackحمله,
88
281271
4307
به واسطه‌ی یه حمله‌ی «جعلِ جی‌پی‌اس» بر فرازِ ایران کمی سردرگم شد،
04:57
but any remotely-pilotedاز راه دور droneهواپیمای بدون سرنشین is susceptibleحساس to this typeتایپ کنید of attackحمله,
89
285578
5114
اما هر پهپادِ هدایت‌ـ‌ازـ‌دوری در معرضِ این نوع حمله قرار داره،
05:02
and that meansبه معنای dronesهواپیماهای بدون سرنشین
90
290692
2052
و این یعنی پهپادها مجبور خواهند شد
05:04
will have to shoulderشانه more decision-makingتصمیم سازی.
91
292744
3620
که بارِ تصمیم‌گیریِ بیشتری رو بر عهده بگیرن.
05:08
They'llآنها خواهند know theirخودشان missionماموریت objectiveهدف، واقعگرایانه,
92
296364
3043
اون‌ها هدفِ ماموریت‌شون رو خواهند دونست،
05:11
and they'llآنها خواهند شد reactواکنش نشان می دهند to newجدید circumstancesشرایط withoutبدون humanانسان guidanceراهنمایی.
93
299407
4845
و بدونِ هدایتِ انسان نسبت به شرایطِ جدید واکنش نشون خواهند داد.
05:16
They'llآنها خواهند ignoreچشم پوشی externalخارجی radioرادیو signalsسیگنال ها
94
304252
2581
اون‌ها سیگنال‌های رادیوییِ خارجی رو نادیده می‌گیرن
05:18
and sendارسال very fewتعداد کمی of theirخودشان ownخودت.
95
306833
2330
و خودشون هم سیگنال‌های بسیار کمی رو ارسال می‌کنن.
05:21
Whichکدام bringsبه ارمغان می آورد us to, really, the thirdسوم
96
309163
2006
و در واقع، می‌رسیم به سومین
05:23
and mostاکثر powerfulقدرتمند incentiveانگیزه pushingهل دادن decision-makingتصمیم سازی
97
311169
3862
و قوی‌ترین عاملی که بارِ تصمیم‌گیری رو
05:27
away from humansانسان and ontoبه سوی weaponsاسلحه:
98
315031
3342
از انسان‌ها به سمتِ اسلحه‌ها سوق میده:
05:30
plausibleمحتمل deniabilityواکنش پذیری.
99
318373
3293
«انکارِ موجّه».
05:33
Now we liveزنده in a globalجهانی است economyاقتصاد.
100
321666
2887
ما امروز در یک اقتصادِ جهانی زندگی می‌کنیم.
05:36
High-techبا تکنولوژی بالا manufacturingتولید is occurringاتفاق می افتد on mostاکثر continentsقاره ها.
101
324553
4334
تولیداتِ های‌تک (فناوری پیشرفته) داره در بیشترِ قاره‌ها انجام میشه.
05:40
Cyberسایبر espionageجاسوسی is spiritingروحیه away advancedپیشرفته designsطرح ها
102
328887
2914
جاسوسیِ سایبری در حالِ ربودنِ طراحی‌های پیشرفته
05:43
to partsقطعات unknownناشناخته,
103
331801
1886
برای طرف‌های نامعلومه،
05:45
and in that environmentمحیط, it is very likelyاحتمال دارد
104
333687
2014
و در این محیط، احتمالِ خیلی زیادی داره که
05:47
that a successfulموفق شدن droneهواپیمای بدون سرنشین designطرح will be knockedزدم off in contractقرارداد factoriesکارخانه ها,
105
335701
4734
یه طراحیِ موفقیت‌آمیز پهپاد توی کارخونه‌های طرفِ قرارداد سرِ هم بشه،
05:52
proliferateتکثیر می شود in the grayخاکستری marketبازار.
106
340435
2170
و توی بازارِ خاکستری پخش بشه.
05:54
And in that situationوضعیت, siftingغربال کردن throughاز طریق the wreckageخرابکاری
107
342605
2460
و در چنین شرایطی، وقتی داریم بقایای حمله‌ی انتحاریِ یک پهپاد رو
05:57
of a suicideخودکشی کردن droneهواپیمای بدون سرنشین attackحمله, it will be very difficultدشوار to say
108
345065
2960
موشکافی می‌کنیم، خیلی سخت خواهد بود که بفهمیم
06:00
who sentارسال شد that weaponسلاح.
109
348025
4400
چه کسی اون سلاح رو فرستاده.
06:04
This raisesافزایش می یابد the very realواقعی possibilityامکان پذیری
110
352425
2800
بدین ترتیب احتمال کاملا واقعیِ رخ دادنِ
06:07
of anonymousناشناس warجنگ.
111
355225
2935
یک «جنگِ ناشناس» رو زیاد می‌کنه.
06:10
This could tiltشیب the geopoliticalژئوپولیتیک balanceتعادل on its headسر,
112
358160
2614
این می‌تونه موازنه‌ی ژئوپولیتیک رو واژگون کنه،
06:12
make it very difficultدشوار for a nationملت to turnدور زدن its firepowerقدرت شلیک
113
360774
3491
و دیگه برای یک ملت بسیار دشوار خواهد بود که قدرتِ آتش خودش رو
06:16
againstدر برابر an attackerحمله کننده, and that could shiftتغییر مکان the balanceتعادل
114
364265
2848
به سمتِ مهاجم نشونه بره و اون می‌تونه
06:19
in the 21stخیابان centuryقرن away from defenseدفاع and towardبه سمت offenseتوهین.
115
367113
3764
موازنه‌ی قرنِ ۲۱ رو از دفاع به تهاجم سوق بده.
06:22
It could make militaryنظامی actionعمل a viableقابل اعتماد optionگزینه
116
370877
3124
بدین ترتیب، اقدامِ نظامی به یک گزینه‌ی قابلِ اجرا تبدیل میشه،
06:26
not just for smallکوچک nationsملت ها,
117
374001
2288
نه‌ فقط برای کشورهای کوچیک
06:28
but criminalجنایی organizationsسازمان های, privateخصوصی enterpriseشرکت، پروژه,
118
376289
2545
بلکه همچنین برای سازمان‌های جنایت‌کار، شرکت‌های خصوصی
06:30
even powerfulقدرتمند individualsاشخاص حقیقی.
119
378834
2479
و حتی اشخاص قدرتمند.
06:33
It could createايجاد كردن a landscapeچشم انداز of rivalرقیب warlordsجنگ سالاران
120
381313
3328
این می‌تونه چشم‌اندازی از جنگ‌سالارانِ رقیبِ هم رو ایجاد کنه
06:36
underminingتضعیف ruleقانون of lawقانون and civilمدنی societyجامعه.
121
384641
3680
که حاکمیتِ قانون و جامعه‌ی مدنی رو تضعیف می‌کنه.
06:40
Now if responsibilityمسئوليت and transparencyشفافیت
122
388321
3616
حالا اگه پاسخ‌گویی و شفافیت
06:43
are two of the cornerstonesسنگهای قیمتی of representativeنماینده governmentدولت,
123
391937
2384
دو شالوده‌ی یک دولتِ انتخابی باشن،
06:46
autonomousخود مختار roboticروباتیک weaponsاسلحه could undermineتضعیف bothهر دو.
124
394321
4320
تسلیحاتِ رباتیکِ خودکار می‌تونن هر دو رو سست بکنن.
06:50
Now you mightممکن be thinkingفكر كردن that
125
398641
1546
شاید الآن دارین فکر می‌کنین که
06:52
citizensشهروندان of high-techبا تکنولوژی بالا nationsملت ها
126
400187
2246
شهروندانِ کشورهای فوقِ پیشرفته
06:54
would have the advantageمزیت in any roboticروباتیک warجنگ,
127
402433
2703
توی هر جنگِ رباتیک از این مزیت برخوردارن
06:57
that citizensشهروندان of those nationsملت ها would be lessکمتر vulnerableآسیب پذیر,
128
405136
3633
که آسیب‌پذیریِ کمتری دارن،
07:00
particularlyبه خصوص againstدر برابر developingدر حال توسعه nationsملت ها.
129
408769
4288
به‌خصوص نسبت به کشورهای در حالِ توسعه.
07:05
But I think the truthحقیقت is the exactدقیق oppositeمخالف.
130
413057
3524
اما من فکر می‌کنم که حقیقت درست عکسِ اینه.
07:08
I think citizensشهروندان of high-techبا تکنولوژی بالا societiesجوامع
131
416581
2251
من فکر می‌کنم که شهروندانِ جوامعِ فوقِ پیشرفته
07:10
are more vulnerableآسیب پذیر to roboticروباتیک weaponsاسلحه,
132
418832
3729
نسبت به تسلیحاتِ رباتیک آسیب‌پذیرتر هستن.
07:14
and the reasonدلیل can be summedخلاصه شده up in one wordکلمه: dataداده ها.
133
422561
4465
و دلیلش رو میشه در یک کلمه خلاصه کرد: دیتا (داده).
07:19
Dataداده ها powersقدرت high-techبا تکنولوژی بالا societiesجوامع.
134
427026
3481
دیتا به جوامعِ فوقِ پیشرفته نیرو میده.
07:22
Cellسلول phoneتلفن geolocationموقعیت جغرافیایی, telecomمخابرات metadataابرداده,
135
430507
3190
موقعیتِ جغرافیاییِ تلفنِ همراه، فراداده‌های مخابراتی،
07:25
socialاجتماعی mediaرسانه ها, emailپست الکترونیک, textمتن, financialمالی transactionمعامله dataداده ها,
136
433697
3472
رسانه‌های اجتماعی، ایمیل، پیامک، داده‌های تراکنش‌های مالی،
07:29
transportationحمل و نقل dataداده ها, it's a wealthثروت of real-timeبه موقع dataداده ها
137
437169
3532
داده‌های حمل‌ونقل، اینها گنجینه‌ای از داده‌های بلادرنگ
07:32
on the movementsحرکات and socialاجتماعی interactionsفعل و انفعالات of people.
138
440701
3373
درباره‌ی جابه‌جایی‌ها و تعاملاتِ اجتماعیِ مردم هستن.
07:36
In shortکوتاه, we are more visibleقابل رویت to machinesماشین آلات
139
444074
3775
خلاصه‌ی کلام، ما بیشتر از هر مردمِ دیگه‌ای در طولِ تاریخ،
07:39
than any people in historyتاریخ,
140
447849
2242
برای ماشین‌ها قابلِ رؤیت هستیم،
07:42
and this perfectlyکاملا suitsمناسب the targetingهدف گذاری needsنیاز دارد of autonomousخود مختار weaponsاسلحه.
141
450091
5616
و این درست همون چیزیه که سلاح‌های خودکنترل برای هدف‌گیری بهش نیاز دارن.
07:47
What you're looking at here
142
455707
1738
چیزی که اینجا دارین می‌بینین،
07:49
is a linkارتباط دادن analysisتحلیل و بررسی mapنقشه of a socialاجتماعی groupگروه.
143
457445
3246
نقشه‌ی تحلیل ارتباط یک گروه اجتماعیه.
07:52
Linesخطوط indicateنشان می دهد socialاجتماعی connectednessوابستگی betweenبین individualsاشخاص حقیقی.
144
460691
3634
خط‌ها متصل بودن اجتماعی بین اشخاص رو نشون می‌ده.
07:56
And these typesانواع of mapsنقشه ها can be automaticallyبطور خودکار generatedتولید شده است
145
464325
2880
و این نوع نقشه‌ها می‌تونن به صورت اتوماتیک بر اساس ردپای داده‌هایی
07:59
basedمستقر on the dataداده ها trailدنباله modernمدرن people leaveترک کردن behindپشت.
146
467205
4715
که مردم امروزی به جا می‌ذارن ایجاد بشن.
08:03
Now it's typicallyمعمولا used to marketبازار goodsکالاها and servicesخدمات
147
471920
2477
این معمولا برای بازاریابی کالاها و خدمات برای جوامع هدف
08:06
to targetedهدفمند demographicsجمعیت شناسی, but it's a dual-useاستفاده دوگانه technologyتکنولوژی,
148
474397
4416
استفاده می‌شه، ولی این یه فناوری دو-لبه است،
08:10
because targetingهدف گذاری is used in anotherیکی دیگر contextزمینه.
149
478813
3360
چون هدف گرفتن در مفهوم دیگه‌ای هم استفاده می‌شه.
08:14
Noticeاطلاع that certainمسلم - قطعی individualsاشخاص حقیقی are highlightedبرجسته شده.
150
482173
2560
دقت کنین که افراد خاصی پررنگ شده‌اند.
08:16
These are the hubsهاب ها of socialاجتماعی networksشبکه های.
151
484733
3280
این‌ها مراکز شبکه‌های اجتماعی هستن.
08:20
These are organizersسازمان دهندگان, opinion-makersصاحب نظران, leadersرهبران,
152
488013
3590
این‌ها سازمان‌دهنده، تاثیرگذار و رهبر هستند،
08:23
and these people alsoهمچنین can be automaticallyبطور خودکار identifiedشناخته شده است
153
491603
2682
و این افراد هم می‌تونن به صورت اتوماتیک ازطریقِ
08:26
from theirخودشان communicationارتباطات patternsالگوها.
154
494285
2382
الگوی ارتباطاتشون شناسایی بشن.
08:28
Now, if you're a marketerبازاریاب, you mightممکن then targetهدف them
155
496667
2146
حالا اگه شما یه بازاریاب هستین، پس شما هم ممکنه اون‌ها رو با
08:30
with productتولید - محصول samplesنمونه ها, try to spreadانتشار دادن your brandنام تجاری
156
498813
2543
نمونه‌ی محصولات هدف بگیرین و سعی کنین که نشان تجاریتون رو
08:33
throughاز طریق theirخودشان socialاجتماعی groupگروه.
157
501356
2829
از طریق گروه اجتماعی اون‌ها گسترش بدین.
08:36
But if you're a repressiveسرکوبگر governmentدولت
158
504185
1953
ولی اگه شما یه دولت سرکوبگر باشین
08:38
searchingجستجوکردن for politicalسیاسی enemiesدشمنان, you mightممکن insteadبجای removeبرداشتن them,
159
506138
4810
که به دنبال دشمنان سیاسی می‌گرده، به جاش ممکنه اونارو حذف کنید،
08:42
eliminateاز بین بردن them, disruptاختلال theirخودشان socialاجتماعی groupگروه,
160
510948
2760
نابودشون کنین، توی گروه اجتماعیشون ازهم‌ گسیختگی ایجاد کنین،
08:45
and those who remainماندن behindپشت loseاز دست دادن socialاجتماعی cohesionانسجام
161
513708
3169
و اونایی هم که باقی می‌مونن پیوستگی و سازمان‌دهی اجتماعی
08:48
and organizationسازمان.
162
516877
2621
رو از دست می‌دن.
08:51
Now in a worldجهان of cheapارزان, proliferatingتکثیر می شود roboticروباتیک weaponsاسلحه,
163
519498
3324
حالا توی دنیایی از سلاح‌های رباتیک ارزون و در حالا گسترش،
08:54
bordersمرز ها would offerپیشنهاد very little protectionحفاظت
164
522822
2635
مرزها حفاظت خیلی کمی رو در برابر
08:57
to criticsمنتقدان of distantدور governmentsدولت ها
165
525457
1946
تهدیدات کشورهای دور یا
08:59
or trans-nationalبین المللی criminalجنایی organizationsسازمان های.
166
527403
3646
سازمان‌های جنایتکار فَرا-ملّی فراهم می‌کنن.
09:03
Popularمحبوب movementsحرکات agitatingآشفتگی for changeتغییر دادن
167
531049
3493
جنبش‌های مردمیِ به دنبال تغییر
09:06
could be detectedشناسایی شده earlyزود and theirخودشان leadersرهبران eliminatedحذف شد
168
534542
3609
می‌تونن زود شناسایی بشن و رهبرانشون قبل از این که
09:10
before theirخودشان ideasایده ها achieveرسیدن criticalبحرانی massجرم.
169
538151
2911
تفکراتشون ارزش و بار حساس و حیاتی پیدا کنه نابود بشن.
09:13
And ideasایده ها achievingدستیابی به criticalبحرانی massجرم
170
541062
2591
و تفکراتی که دارن ارزش مهمی پیدا می‌کنن،
09:15
is what politicalسیاسی activismفعالیت in popularمحبوب governmentدولت is all about.
171
543653
3936
در واقع همون چیزیه که توی دولت مردمی، فعالیت سیاسی بهش می‌پردازه.
09:19
Anonymousناشناس lethalمرگبار weaponsاسلحه could make lethalمرگبار actionعمل
172
547589
3997
سلاح‌های مرگبار ناشناس می‌تونن حرکت مهلک انجام بدن
09:23
an easyآسان choiceانتخابی for all sortsانواع of competingرقابت interestsمنافع.
173
551586
3782
انتخابی آسان برای همه‌ی انواع علائق مورد رقابت.
09:27
And this would put a chillسرد شدن on freeرایگان speechسخنرانی - گفتار
174
555368
3734
و این می‌تونه آزادی بیان و حرکت‌های سیاسی مردمی
09:31
and popularمحبوب politicalسیاسی actionعمل, the very heartقلب of democracyدموکراسی.
175
559102
5308
رو دل‌سرد کنه، چیزایی که اساس دموکراسی هستن.
09:36
And this is why we need an internationalبین المللی treatyمعاهده
176
564410
2914
و به همین دلیله که به یك عهدنامه‌ی بین‌المللی در رابطه با
09:39
on roboticروباتیک weaponsاسلحه, and in particularخاص a globalجهانی است banممنوعیت
177
567324
3540
سلاح‌های رباتیک نیاز داریم، و به طور مشخصص‌تر یه منع بین‌المللی
09:42
on the developmentتوسعه and deploymentگسترش of killerقاتل robotsروبات ها.
178
570864
3908
برای گسترش و به‌کارگیری ربات‌های کشنده.
09:46
Now we alreadyقبلا have internationalبین المللی treatiesمعاهدات
179
574772
3254
ما الآن تعهدهای بین‌المللی در رابطه با
09:50
on nuclearاتمی and biologicalبیولوژیکی weaponsاسلحه, and, while imperfectناقص,
180
578026
3386
سلاح‌های هسته‌ای و بیولوژیک داریم، که با وجود نقص‌هایی،
09:53
these have largelyتا حد زیادی workedکار کرد.
181
581412
2288
باز هم به طور گسترده‌ای کار کرده و تاثیرگذار بوده‌اند.
09:55
But roboticروباتیک weaponsاسلحه mightممکن be everyهرکدام bitبیت as dangerousخطرناک است,
182
583700
3768
ولی سلاح‌های رباتیک می‌تونن به همون اندازه خطرناک باشن،
09:59
because they will almostتقریبا certainlyقطعا be used,
183
587468
3288
چون اون‌ها تقریبا با قطعیت می‌شه گفت که استفاده خواهند شد،
10:02
and they would alsoهمچنین be corrosiveخوردگی to our democraticدموکراتیک institutionsمؤسسات.
184
590756
5027
و همچنین می‌تونن برای نهادهای دموکراتیک ما نابود کننده باشن،
10:07
Now in Novemberنوامبر 2012 the U.S. Departmentگروه of Defenseدفاع
185
595783
3468
در نوامبر ۲۰۱۲ وزارت دفاع ایالات متحده
10:11
issuedصادر شده a directiveدستورالعمل requiringنیاز به
186
599251
2458
بخشنامه‌ای صادر کرد که می‌گه در
10:13
a humanانسان beingبودن be presentحاضر in all lethalمرگبار decisionsتصمیمات.
187
601709
4519
تمامی تصمیمات منجر به مرگ یک انسان باید حاضر باشه.
10:18
This temporarilyبه طور موقت effectivelyبه طور موثر bannedممنوع autonomousخود مختار weaponsاسلحه in the U.S. militaryنظامی,
188
606228
4776
این دستور موقتا و به طور تاثیرگذاری سلاح‌های خودکنترل رو در ارتش ایالات متحده ممنوع کرد،
10:23
but that directiveدستورالعمل needsنیاز دارد to be madeساخته شده permanentدائمی.
189
611004
3753
ولی اون بخشنامه باید دائمی بشه.
10:26
And it could setتنظیم the stageمرحله for globalجهانی است actionعمل.
190
614757
4376
و می‌تونه زمینه رو برای اقدام جهانی فراهم کنه.
10:31
Because we need an internationalبین المللی legalقانونی frameworkچارچوب
191
619133
3845
چون نیاز به چهارچوبی بین‌المللی و قانونی
10:34
for roboticروباتیک weaponsاسلحه.
192
622978
2138
برای سلاح‌های رباتیک دارم.
10:37
And we need it now, before there's a devastatingویرانگر attackحمله
193
625116
2928
و همین حالا هم بهش نیاز داریم، قبل از این که حمله‌ای ویران‌کننده به وقوع بپیونده
10:40
or a terroristتروریست incidentحادثه that causesعلل nationsملت ها of the worldجهان
194
628044
3152
یا یک حادثه‌ی تروریستی‌ای رخ بده که باعث بشه ملل جهان
10:43
to rushهجوم بردن to adoptاتخاذ کردن these weaponsاسلحه
195
631196
1924
بدون فکر کردن درباره‌ی پیامدهاش
10:45
before thinkingفكر كردن throughاز طریق the consequencesعواقب.
196
633120
3771
بخوان که از این سلاح‌ها استفاده بشه.
10:48
Autonomousخود مختار roboticروباتیک weaponsاسلحه concentrateتمرکز too much powerقدرت
197
636891
2981
سلاح‌های رباتیک خودکنترل قدرت بسیار زیادی رو در دستان افراد بسیار اندکی
10:51
in too fewتعداد کمی handsدست ها, and they would imperilخطرناک democracyدموکراسی itselfخودش.
198
639872
6283
متمرکز می‌کنن که این خودش باعث به خطر افتادن دموکراسی می‌شه.
10:58
Now, don't get me wrongاشتباه, I think there are tonsتن
199
646155
2686
حالا، منظورم رو اشتباه برداشت نکنید، فکر می‌کنم هزاران کاربرد عالی
11:00
of great usesاستفاده می کند for unarmedغیر مسلح civilianغیر نظامی dronesهواپیماهای بدون سرنشین:
200
648841
2618
برای پهپادهای غیرمسلح غیرنظامی وجود داره:
11:03
environmentalمحیطی monitoringنظارت بر, searchجستجو کردن and rescueنجات, logisticsتدارکات.
201
651459
3939
مونیتور کردن شرایط محیط زیستی، جستجو و نجات، تدارکات.
11:07
If we have an internationalبین المللی treatyمعاهده on roboticروباتیک weaponsاسلحه,
202
655398
2826
اگه یه عهدنامه‌ی بین‌المللی در رابطه با سلاح‌های رباتیک داشته باشیم،
11:10
how do we gainکسب کردن the benefitsمنافع of autonomousخود مختار dronesهواپیماهای بدون سرنشین
203
658224
3587
چطور از مزایای پهپادها و وسایط نقلیه‌ی خودکنترل بهره ببریم
11:13
and vehiclesوسايل نقليه while still protectingمحافظت ourselvesخودمان
204
661811
2648
در همون حال که از خودمون هم در برابر سلاح‌های رباتیک غیرقانونی
11:16
againstدر برابر illegalغیر مجاز roboticروباتیک weaponsاسلحه?
205
664459
3980
محافظت می‌کنیم؟
11:20
I think the secretراز will be transparencyشفافیت.
206
668439
4741
فکر می‌کنم رازش «شفافیت» خواهد بود.
11:25
No robotربات should have an expectationانتظار of privacyحریم خصوصی
207
673180
3013
هیچ رباتی نباید توقع حریم خاص خودش رو
11:28
in a publicعمومی placeمحل.
208
676193
3451
در یه مکان عمومی داشته باشه.
11:31
(Applauseتشویق و تمجید)
209
679644
5048
(تشویق حضار)
11:36
Eachهر یک robotربات and droneهواپیمای بدون سرنشین should have
210
684692
2045
هر ربات و پهپاد باید یک ID
11:38
a cryptographicallyرمزنگاری signedامضاء شده I.D. burnedسوخته in at the factoryکارخانه
211
686737
2883
با امضای رمزنگاری شده که در کارخونه روی اون ثبت شده داشته باشه که
11:41
that can be used to trackمسیر its movementجنبش throughاز طریق publicعمومی spacesفضاها.
212
689620
2923
بتونه برای ردیابی حرکاتش در فضاهای عمومی استفاده بشه.
11:44
We have licenseمجوز platesصفحات on carsماشین ها, tailدم numbersشماره on aircraftهواپیما.
213
692543
3381
ما پلاک‌های شماره رو روی ماشین‌ها و هواپیماها داریم.
11:47
This is no differentناهمسان.
214
695924
1841
این هم تفاوتی نداره.
11:49
And everyهرکدام citizenشهروند should be ableتوانایی to downloadدانلود an appبرنامه
215
697765
2012
و هر شهروندی باید بتونه یک برنامه رو دانلود کنه
11:51
that showsنشان می دهد the populationجمعیت of dronesهواپیماهای بدون سرنشین and autonomousخود مختار vehiclesوسايل نقليه
216
699777
3125
که تراکم پهپادها و وسایط نقلیه‌ی خودکنترل رو که در فضای عمومی اطراف اون‌ها
11:54
movingدر حال حرکت throughاز طریق publicعمومی spacesفضاها around them,
217
702902
2429
هم الآن و هم در گذشته
11:57
bothهر دو right now and historicallyتاریخی.
218
705331
2733
دارن حرکت می‌کنن نشون بده.
12:00
And civicمدنی leadersرهبران should deployاعزام sensorsسنسورها and civicمدنی dronesهواپیماهای بدون سرنشین
219
708064
3548
و مدیران شهری باید حسگرها و پهپادهای شهری رو برای
12:03
to detectتشخیص rogueسرکش dronesهواپیماهای بدون سرنشین,
220
711612
2344
کشف پهپادهای ولگرد به کار بگیرن،
12:05
and insteadبجای of sendingدر حال ارسال killerقاتل dronesهواپیماهای بدون سرنشین of theirخودشان ownخودت up to shootشلیک them down,
221
713956
3176
و به جای فرستادن پهپادهایی کشنده از نوع خودشون که برن و اونارو سرنگون کنن،
12:09
they should notifyاعلام کردن humansانسان to theirخودشان presenceحضور.
222
717132
2992
باید مردم رو از وجود اون‌ها آگاه کنن.
12:12
And in certainمسلم - قطعی very high-securityامنیت بالا areasمناطق,
223
720124
2606
و در مناطق خیلی فوق‌امنیتی خاص،
12:14
perhapsشاید civicمدنی dronesهواپیماهای بدون سرنشین would snareدامن them
224
722730
1909
شاید ربات‌های شهری اونارو به تله بندازن
12:16
and dragکشیدن them off to a bombبمب disposalدسترس facilityامکانات.
225
724639
2841
و اونا رو تا یک محل انهدام بمب ببرن.
12:19
But noticeاطلاع, this is more an immuneایمنی systemسیستم
226
727480
3027
ولی دقت کنین، این بیشتر یک سیستم ایمنی‌‌ست
12:22
than a weaponsاسلحه systemسیستم.
227
730507
1321
تا یه سیستم تسلیحاتی.
12:23
It would allowاجازه دادن us to availفایده ourselvesخودمان of the use
228
731828
2592
این به ما اجازه خواهد داد تا به خودمون با استفاده از
12:26
of autonomousخود مختار vehiclesوسايل نقليه and dronesهواپیماهای بدون سرنشین
229
734420
2032
وسایط نقلیه‌ی خودکنترل و پهپادها سود برسونیم
12:28
while still preservingحفظ کردن our openباز کن, civilمدنی societyجامعه.
230
736452
4295
در همون حال که همچنان از جامعه‌ی مدنی و آزاد خودمون حفاظت می‌کنیم.
12:32
We mustباید banممنوعیت the deploymentگسترش and developmentتوسعه
231
740747
2999
ما باید استفاده و گسترش ربات‌های کشنده رو
12:35
of killerقاتل robotsروبات ها.
232
743746
1862
ممنوع کنیم.
12:37
Let's not succumbتسلیم شدن to the temptationوسوسه to automateاتوماتیک warجنگ.
233
745608
4850
بیاین تسلیم وسوسه‌ی جنگ خودکار نشیم.
12:42
Autocraticخودکامه governmentsدولت ها and criminalجنایی organizationsسازمان های
234
750458
2718
دولت‌های استبدادی و سازمان‌های جنایتکار بدون شک این کارو خواهند کرد،
12:45
undoubtedlyبی شک will, but let's not joinپیوستن them.
235
753176
2956
ولی بیاین ما دیگه به اون‌ها ملحق نشیم.
12:48
Autonomousخود مختار roboticروباتیک weaponsاسلحه
236
756132
1891
سلاح‌های رباتیک خودکنترل
12:50
would concentrateتمرکز too much powerقدرت
237
758023
2051
قدرت بسیار زیادی رو در دستان افراد ناشناسِ
12:52
in too fewتعداد کمی unseenغیر قابل مشاهده است handsدست ها,
238
760074
2482
بسیار اندکی متمرکز می‌کنن،
12:54
and that would be corrosiveخوردگی to representativeنماینده governmentدولت.
239
762556
3255
و این برای حکومت منتخب مردم نابودگر خواهد بود.
12:57
Let's make sure, for democraciesدموکراسی ها at leastکمترین,
240
765811
2961
بیاین مطمئن بشیم که، حداقل برای دموکراسی‌ها،
13:00
killerقاتل robotsروبات ها remainماندن fictionداستان.
241
768772
2604
ربات‌های کشنده تخیلی باقی بمونن.
13:03
Thank you.
242
771376
1110
ممنونم.
13:04
(Applauseتشویق و تمجید)
243
772486
4565
(تشویق حضار)
13:09
Thank you. (Applauseتشویق و تمجید)
244
777051
4616
ممنونم. (تشویق حضار)
Translated by Sina Pourasgari
Reviewed by Leila Ataei

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com