ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

مکس تگمارک: چگونه با هوش‌مصنوعی قدرتمند شویم و نگذاریم بر ما چیره گردد

Filmed:
1,409,007 views

اکثر محققان هوش‌‌مصنوعی انتظار دارند در چند دهه آینده هوش‌مصنوعی در همه وظایف و کارها از انسان‌ها هوشمندتر عمل کند و آینده‌ای برای ما بسازد که دیگر توسط هوش خودمان محدود نباشیم و تنها منحصر به قوانین فیزیک باشیم. فیزیک‌دان و محقق هوش‌مصنوعی در موسسه فناوری ماساچوست، مکس تگمارک، فرصت‌های واقعی ما با هوش مصنوعی در مقایسه با افسانه‌ها را روشن می‌کند و مراحل محکمی که بشریت امروز برای رسیدن به آینده فوق‌العاده در مقابل آینده‌ای که به گفته او بدترین اتفاق برای بشریت است، باید قدم بردارد را در این سخنرانی توضیح می‌دهد.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionبیلیون yearsسالها
of cosmicکیهانی historyتاریخ,
0
760
4416
پس از ۱۳٫۸ میلیارد سال از تاریخ کیهانی،
00:17
our universeجهان has wokenبیدار شدم up
1
5200
2096
جهان ما از خواب بیدار شده
00:19
and becomeتبدیل شدن به awareمطلع of itselfخودش.
2
7320
1520
و درباره خود آگاه شده است.
00:21
From a smallکوچک blueآبی planetسیاره,
3
9480
1936
از یک سیاره آبی کوچک،
00:23
tinyکوچک, consciousآگاهانه partsقطعات of our universeجهان
have begunشروع شد gazingزل زدن out into the cosmosکیهان
4
11440
4136
بخش‌های هوشیار کوچکی از جهان ما
نگاه کردن به کیهان
00:27
with telescopesتلسکوپ,
5
15600
1376
و کشف برخی حقایق حیرت‌انگیز را
00:29
discoveringکشف something humblingمحکوم کردن.
6
17000
1480
با تلسکوپ‌ها آغاز کرده‌اند.
00:31
We'veما هستیم discoveredکشف شده that our universeجهان
is vastlyبه شدت granderبزرگتر
7
19320
2896
ما فهمیده‌ایم که جهان ما
از آن چیزی که گذشتگانمان
00:34
than our ancestorsاجداد imaginedتصور
8
22240
1336
تصور می‌کردند وسیع‌تر است
00:35
and that life seemsبه نظر می رسد to be an almostتقریبا
imperceptiblyimperceptibly smallکوچک perturbationآشفتگی
9
23600
4256
و حیات تقریباً شاخه بسیار مبهم و کوچکی
00:39
on an otherwiseدر غیر این صورت deadمرده universeجهان.
10
27880
1720
از جهان‌های مرده دیگر بنظر می‌آید.
00:42
But we'veما هستیم alsoهمچنین discoveredکشف شده
something inspiringالهام بخش,
11
30320
3016
ما همچنین حقایق الهام‌بخشی کشف کرده‌ایم:
00:45
whichکه is that the technologyتکنولوژی
we're developingدر حال توسعه has the potentialپتانسیل
12
33360
2976
تکنولوژی که ما در حال توسعه آن هستیم
00:48
to help life flourishشکوفا شدن like never before,
13
36360
2856
چنان قابلیتی در شکوفا کردن حیات دارد
00:51
not just for centuriesقرن ها
but for billionsمیلیاردها دلار of yearsسالها,
14
39240
3096
که نه‌تنها در قرن‌ها که در میلیاردها سال
00:54
and not just on earthزمین but throughoutدر سراسر
much of this amazingحیرت آور cosmosکیهان.
15
42360
4120
و نه‌تنها در زمین
که در کل جهان هستی بی‌نظیر است.
00:59
I think of the earliestاولین life as "Life 1.0"
16
47680
3336
معتقدم حیات اولیه نسخه "حیات ۱.۰" می‌گرفت
چرا که ساده‌ترین نوع حیات بود،
01:03
because it was really dumbگنگ,
17
51040
1376
01:04
like bacteriaباکتری ها, unableناتوان to learnیاد گرفتن
anything duringدر حین its lifetimeطول عمر.
18
52440
4296
همچون باکتری که ناتوانی در یاد گرفتن
هر چیزی در طول زندگی‌اش داشت.
01:08
I think of us humansانسان as "Life 2.0"
because we can learnیاد گرفتن,
19
56760
3376
معتقدم ما نسخه "حیات ۲.۰" را می‌گیریم
چرا که می‌توانیم یاد بگیریم
01:12
whichکه we in nerdynerdy, geekجک speakصحبت,
20
60160
1496
که در زبان عامیانه عشقِ کامپیوترها
01:13
mightممکن think of as installingنصب کردن
newجدید softwareنرم افزار into our brainsمغز,
21
61680
3216
همچون توانایی نصب کردن
نرم‌افزار به مغزمان است،
01:16
like languagesزبان ها and jobکار skillsمهارت ها.
22
64920
2120
مثل زبان‌های جدید و توانایی‌های کاری.
01:19
"Life 3.0," whichکه can designطرح not only
its softwareنرم افزار but alsoهمچنین its hardwareسخت افزار
23
67680
4296
نسخه "۳.۰" حیات، که علاوه بر نرم‌افزار،
می‌تواند سخت‌افزار خودش را هم طراحی کند
البته هنوز به وجود نیامده است.
01:24
of courseدوره doesn't existوجود دارد yetهنوز.
24
72000
1656
01:25
But perhapsشاید our technologyتکنولوژی
has alreadyقبلا madeساخته شده us "Life 2.1,"
25
73680
3776
اما شاید بتوان گفت تکنولوژی فعلی ما
نسخه "حیات ۲.۱" است
01:29
with our artificialمصنوعی kneesزانو,
pacemakersضربان سازها and cochlearکچلار implantsایمپلنت.
26
77480
4336
با توانایی ما در ساخت مفصل مصنوعی،
دستگاه تنظیم ضربان قلب و کاشت حلزونی.
01:33
So let's take a closerنزدیک تر look
at our relationshipارتباط with technologyتکنولوژی, OK?
27
81840
3880
خب، پس بگذارید نگاهی از نزدیک
به رابطه‌مان با تکنولوژی بیندازیم:
01:38
As an exampleمثال,
28
86800
1216
این مثالی از
01:40
the Apolloآپولو 11 moonماه missionماموریت
was bothهر دو successfulموفق شدن and inspiringالهام بخش,
29
88040
5296
ماموریت آپولو ۱۱ برای فرود در ماه است
که موفقیت‌آمیز و الهام‌بخش بود،
01:45
showingنشان دادن that when we humansانسان
use technologyتکنولوژی wiselyعاقلانه,
30
93360
3016
نشان می‌دهد زمانی که انسان‌ها
از تکنولوژی عاقلانه استفاده می‌کنند
01:48
we can accomplishانجام دادن things
that our ancestorsاجداد could only dreamرویا of.
31
96400
3936
می‌توانیم به موفقیت‌هایی برسیم
که گذشتگان‌مان در خواب هم نمی‌دیدند.
01:52
But there's an even more inspiringالهام بخش journeyسفر
32
100360
2976
اما هنوز اکتشافات هرچه بیشتر
الهام‌بخشی وجود دارند
01:55
propelledحرکت کرد by something
more powerfulقدرتمند than rocketموشک enginesموتورها,
33
103360
2680
که توسط چیزی قوی‌تر
از موتور موشک به جلو رانده می‌شوند،
01:59
where the passengersمسافران
aren'tنه just threeسه astronautsفضانوردان
34
107200
2336
که مسافران آن‌ها محدود به
سه فضانورد نمی‌شود
02:01
but all of humanityبشریت.
35
109560
1776
بلکه کل بشریت را شامل می‌شود.
02:03
Let's talk about our collectiveجمعی
journeyسفر into the futureآینده
36
111360
2936
بگذارید در مورد سفر همگانی‌مان به آینده
02:06
with artificialمصنوعی intelligenceهوش.
37
114320
2000
توسط هوش‌مصنوعی صحبت کنیم.
02:08
My friendدوست Jaanويدئوگفتگوي Tallinnتالین likesدوست دارد to pointنقطه out
that just as with rocketryموشک,
38
116960
4536
یکی از دوستانم یان تالین اشاره می‌کند
که درست مانند فناوری موشکی،
02:13
it's not enoughکافی to make
our technologyتکنولوژی powerfulقدرتمند.
39
121520
3160
کافی نیست که فقط فناوری‌مان را قوی کنیم.
بلکه اگر بخواهیم واقعا جاه‌طلب باشیم،
باید مشخص کنیم
02:17
We alsoهمچنین have to figureشکل out,
if we're going to be really ambitiousبلند پروازانه,
40
125560
3175
02:20
how to steerهدایت کن it
41
128759
1416
که چطور می‌خواهیم آن را هدایت کنیم
02:22
and where we want to go with it.
42
130199
1681
و کجا می‌خواهیم با آن برویم.
02:24
So let's talk about all threeسه
for artificialمصنوعی intelligenceهوش:
43
132880
2840
پس بیاید در مورد سه مبحث
مربوط به هوش‌مصنوعی صحبت کنیم:
02:28
the powerقدرت, the steeringفرمان
and the destinationمقصد.
44
136440
3056
قدرت، هدایت، و مقصد.
02:31
Let's startشروع کن with the powerقدرت.
45
139520
1286
با بحث قدرت شروع می‌کنیم.
02:33
I defineتعريف كردن intelligenceهوش very inclusivelyبه طور کامل --
46
141600
3096
من هوشمندی را
با تمام جزئیات تعریف می‌کنم --
02:36
simplyبه سادگی as our abilityتوانایی
to accomplishانجام دادن complexپیچیده goalsاهداف,
47
144720
4336
یعنی بطور ساده توانایی ما
در رسیدن به اهداف پیچیده،
02:41
because I want to includeعبارتند از bothهر دو
biologicalبیولوژیکی and artificialمصنوعی intelligenceهوش.
48
149080
3816
چون با این تعریف می‌خواهم هر دو شاخه هوش
یعنی مصنوعی و زیستی را شامل کنم.
02:44
And I want to avoidاجتناب کردن
the sillyاحمقانه carbon-chauvinismکربن شووينيسم ideaاندیشه
49
152920
4016
با این‌ کار از ایده احمقانه
و از روی تعصبِ کربن‌محور اجتناب می‌کنم
02:48
that you can only be smartهوشمندانه
if you're madeساخته شده of meatگوشت.
50
156960
2360
که فقط در صورتی می‌توانید باهوش باشید
که از گوشت ساخته شده باشید.
02:52
It's really amazingحیرت آور how the powerقدرت
of AIAI has grownرشد کرد recentlyبه تازگی.
51
160880
4176
رشد اخیر قدرت هوش‌مصنوعی
واقعاً شگفت‌انگیز است.
02:57
Just think about it.
52
165080
1256
در موردش فکر کنید.
02:58
Not long agoپیش, robotsروبات ها couldn'tنمی توانستم walkراه رفتن.
53
166360
3200
تا همین چند وقت پیش
ربات‌ها نمی‌توانستند راه بروند.
03:03
Now, they can do backflipsbackflips.
54
171040
1720
اما حالا پشتک می‌زنند.
03:06
Not long agoپیش,
55
174080
1816
همین چند وقت پیش،
03:07
we didn't have self-drivingخود رانندگی carsماشین ها.
56
175920
1760
ما خودروهای خودران نداشتیم.
03:10
Now, we have self-flyingپرواز خود rocketsموشک.
57
178920
2480
اکنون موشک‌های، خود پرواز داریم.
03:15
Not long agoپیش,
58
183960
1416
همین چند وقت پیش،
03:17
AIAI couldn'tنمی توانستم do faceصورت recognitionبه رسمیت شناختن.
59
185400
2616
هوش‌مصنوعی توانایی تشخیص چهره را نداشت.
03:20
Now, AIAI can generateتولید کنید fakeجعلی facesچهره ها
60
188040
2976
اکنون، هوش‌مصنوعی می‌تواند
چهره‌های تقلبی بسازد
03:23
and simulateشبیه سازی کنید your faceصورت
sayingگفت: stuffچیز that you never said.
61
191040
4160
و حرکات چهره شما را در حالی که چیزی
می‌گویید که هرگز نگفته‌اید شبیه‌سازی کند.
03:28
Not long agoپیش,
62
196400
1576
همین چند وقت پیش،
هوش‌مصنوعی نمی‌توانست
در بازی Go ما را شکست دهد.
03:30
AIAI couldn'tنمی توانستم beatضرب و شتم us at the gameبازی of Go.
63
198000
1880
03:32
Then, Googleگوگل DeepMind'sDeepMind's AlphaZeroAlphaZero AIAI
tookگرفت 3,000 yearsسالها of humanانسان Go gamesبازی ها
64
200400
5096
اما بعداً، هوش‌مصنوعی
ذهن عمیق آلفا زیرو گوگل
۳,۰۰۰ سال تاریخچه بازی Go
و خرد آن را کنار زد
03:37
and Go wisdomحکمت,
65
205520
1256
03:38
ignoredنادیده گرفته شد it all and becameتبدیل شد the world'sجهان bestبهترین
playerبازیکن by just playingبازی کردن againstدر برابر itselfخودش.
66
206800
4976
و به بهترین بازیکن Go
فقط با تمرین با خودش تبدیل شد.
03:43
And the mostاکثر impressiveچشمگیر featشاهکار here
wasn'tنبود that it crushedخرد شده humanانسان gamersگیمر ها,
67
211800
3696
و چشم‌گیرترین دستاورد در این اتفاق
شکست دادن بازیکنان انسانی نبود،
03:47
but that it crushedخرد شده humanانسان AIAI researchersمحققان
68
215520
2576
بلکه شکست دادن خود محققان هوش‌مصنوعی
توسط هوش‌مصنوعی بود
03:50
who had spentصرف شده decadesچند دهه
handcraftingدستکاری game-playingبازی softwareنرم افزار.
69
218120
3680
که سال‌ها مشغول سخت‌ترکردن
بازی‌های نرم افزاری بودند.
03:54
And AlphaZeroAlphaZero crushedخرد شده humanانسان AIAI researchersمحققان
not just in Go but even at chessشطرنج,
70
222200
4656
آلفا زیرو نه‌تنها در Go که در شطرنج هم
محققان هوش‌مصنوعی را شکست داد،
03:58
whichکه we have been workingکار کردن on sinceاز آنجا که 1950.
71
226880
2480
دستاوردی که از سال ۱۹۵۰،
بر رویش در حال کار ‌بودیم.
04:02
So all this amazingحیرت آور recentاخیر progressپیش رفتن in AIAI
really begsالتماس می کند the questionسوال:
72
230000
4240
پس تمامی این پیشرفت‌های اخیر هوش‌مصنوعی
شدیدا سوالی را بر می‌انگیزد:
04:07
How farدور will it go?
73
235280
1560
تا کجا ادامه خواهد داشت؟
04:09
I like to think about this questionسوال
74
237800
1696
من دوست دارم به این سوال
04:11
in termsاصطلاحات of this abstractچکیده
landscapeچشم انداز of tasksوظایف,
75
239520
2976
به صورت منظره‌ای انتزاعی از وظایف فکر کنم
04:14
where the elevationارتفاع representsنشان دهنده
how hardسخت it is for AIAI to do eachهر یک taskوظیفه
76
242520
3456
که ارتفاع هر کار نشان دهنده
سختی آن کار برای هوش‌مصنوعی
04:18
at humanانسان levelسطح,
77
246000
1216
در سطح انسانی است،
04:19
and the seaدریا levelسطح representsنشان دهنده
what AIAI can do todayامروز.
78
247240
2760
و سطح آب دریا نشان دهنده
توانایی امروز هوش‌مصنوعی است.
هرچه هوش‌مصنوعی پیشرفت کند،
ارتفاع دریا افزایش پیدا می‌کند
04:23
The seaدریا levelسطح is risingرو به افزایش
as AIAI improvesبهبود می یابد,
79
251120
2056
04:25
so there's a kindنوع of globalجهانی است warmingگرمایش
going on here in the taskوظیفه landscapeچشم انداز.
80
253200
3440
پس به نوعی با پدیده گرمایش جهانی
در این منظره از وظایف مواجهیم.
04:30
And the obviousآشکار takeawayبردن
is to avoidاجتناب کردن careersشغل at the waterfrontآبشار --
81
258040
3335
و آشکارترین پند این است که از انجام کارهای
در نزدیکی آب خودداری کنید --
04:33
(Laughterخنده)
82
261399
1257
(خنده حضار)
04:34
whichکه will soonبه زودی be
automatedخودکار and disruptedمختل شد.
83
262680
2856
که بزودی خودکار یا دچار مشکل خواهند بود.
04:37
But there's a much
biggerبزرگتر questionسوال as well.
84
265560
2976
اما سوالی بسیار بزرگ‌تری هم هست.
04:40
How highبالا will the waterاب endپایان up risingرو به افزایش?
85
268560
1810
تا چه میزانی آب بالا خواهد آمد؟
04:43
Will it eventuallyدر نهایت riseبالا آمدن
to floodسیل everything,
86
271440
3200
آیا تا محدوده‌ای که همه چیز را
غرق کند پیش خواهد رفت
04:47
matchingتطابق humanانسان intelligenceهوش at all tasksوظایف.
87
275840
2496
تا تمام وظایف انسان‌ها را در بر بگیرد؟
04:50
This is the definitionتعریف
of artificialمصنوعی generalعمومی intelligenceهوش --
88
278360
3736
و این تعریفی برای
هوش‌مصنوعی‌ همه‌جانبه،
04:54
AGIAGI,
89
282120
1296
AGI است.
04:55
whichکه has been the holyمقدس grailقهوه ای
of AIAI researchپژوهش sinceاز آنجا که its inceptionآغازگر.
90
283440
3080
که هدف نهایی محققان هوش‌مصنوعی
از زمان تعریف شدنش است.
04:59
By this definitionتعریف, people who say,
91
287000
1776
با این تعریف، مردم می‌گویند:
05:00
"Ahآه, there will always be jobsشغل ها
that humansانسان can do better than machinesماشین آلات,"
92
288800
3416
"همیشه برای انسان‌ها شغل‌هایی باقیست
که از ماشین‌ها بهتر انجام دهند."
05:04
are simplyبه سادگی sayingگفت:
that we'llخوب never get AGIAGI.
93
292240
2920
و معتقدند هرگز به هوش‌مصنوعی
همه‌جانبه نخواهیم رسید.
05:07
Sure, we mightممکن still chooseانتخاب کنید
to have some humanانسان jobsشغل ها
94
295680
3576
یقیناً، ما شاید بتوانیم شغل‌هایی خاص
برای انسان‌ها انتخاب کنیم
05:11
or to give humansانسان incomeدرآمد
and purposeهدف with our jobsشغل ها,
95
299280
3096
یا برای انسان‌ها درآمد و هدفی
با شغل‌هایمان متصور شویم،
05:14
but AGIAGI will in any caseمورد
transformتبدیل life as we know it
96
302400
3736
اما هوش‌مصنوعی‌همه‌جانبه، زندگی که با آن
آشناییم را به کل تغییر خواهد داد
05:18
with humansانسان no longerطولانی تر beingبودن
the mostاکثر intelligentباهوش - هوشمند.
97
306160
2736
بطوریکه انسان‌ها دیگر
هوشمندترین نخواهند بود.
05:20
Now, if the waterاب levelسطح does reachنائل شدن AGIAGI,
98
308920
3696
خب، اگر سطح آب به
سطح هوش‌مصنوعی‌همه‌جانبه برسد،
05:24
then furtherبیشتر AIAI progressپیش رفتن will be drivenرانده
mainlyبه طور عمده not by humansانسان but by AIAI,
99
312640
5296
دیگر پیشرفت‌های بعدی
هوش‌مصنوعی توسط انسان نیستند
بلکه خود هوش‌مصنوعی
خودش را ارتقا خواهد داد،
05:29
whichکه meansبه معنای that there's a possibilityامکان پذیری
100
317960
1856
که به معنی احتمال
سرعت یافتن پیشرفت‌های بعدی
05:31
that furtherبیشتر AIAI progressپیش رفتن
could be way fasterسریعتر
101
319840
2336
هوش‌مصنوعی در مقابل
05:34
than the typicalمعمول humanانسان researchپژوهش
and developmentتوسعه timescaleزمانبندی of yearsسالها,
102
322200
3376
زمانی که تحقیقات و توسعه انسانی
طول می‌کشد خواهد بود،
05:37
raisingبالا بردن the controversialبحث برانگیز possibilityامکان پذیری
of an intelligenceهوش explosionانفجار
103
325600
4016
این باعث افزایش احتمال وقوع
پدیده جنجالی تکینگی هوشمندی می‌شود
05:41
where recursivelyبازگشتی self-improvingخودسازي AIAI
104
329640
2296
زمانی که هوش‌مصنوعی خود ارتقاء مرتباً
05:43
rapidlyبه سرعت در حال leavesبرگها humanانسان
intelligenceهوش farدور behindپشت,
105
331960
3416
انسان‌ها را در هوشمندی پشت سر می‌گذارد.
05:47
creatingپدید آوردن what's knownشناخته شده
as superintelligenceسوپر هوش.
106
335400
2440
و ابر هوش‌مصنوعی
در این زمان متولد می‌گردد.
05:51
Alrightبسيار خوب, realityواقعیت checkبررسی:
107
339800
2280
بگذارید به حال برگردیم:
05:55
Are we going to get AGIAGI any time soonبه زودی?
108
343120
2440
آیا به این زودی
به هوش‌مصنوعی‌همه‌جانبه خواهیم رسید؟
05:58
Some famousمشهور AIAI researchersمحققان,
like Rodneyرادنی Brooksبروکس,
109
346360
2696
برخی از محققان مشهور هوش‌مصنوعی
همچون رودنی بروکس
06:01
think it won'tنخواهد بود happenبه وقوع پیوستن
for hundredsصدها of yearsسالها.
110
349080
2496
معتقدند این اتفاق تا صدها سال
طول خواهد کشید.
06:03
But othersدیگران, like Googleگوگل DeepMindDeepMind
founderموسس Demisدمیس HassabisHassabis,
111
351600
3896
اما بقیه همچون موسس هوش‌مصنوعی
دیپ مایند گوگل، دمیس هاسابیس،
06:07
are more optimisticخوش بینانه
112
355520
1256
خوش‌بین‌تر هستند
06:08
and are workingکار کردن to try to make
it happenبه وقوع پیوستن much soonerزودتر.
113
356800
2576
و سخت تلاش می‌کنند
هرچه زودتر اتفاق بیفتد.
06:11
And recentاخیر surveysنظرسنجی ها have shownنشان داده شده
that mostاکثر AIAI researchersمحققان
114
359400
3296
نظرسنجی‌های اخیر نشان داده
اکثر محققان هوش‌مصنوعی
06:14
actuallyدر واقع shareاشتراک گذاری Demis'sDemis را optimismخوش بینی,
115
362720
2856
به خوش‌بینی دمیس معتقدند
06:17
expectingمنتظر that we will
get AGIAGI withinدر داخل decadesچند دهه,
116
365600
3080
و انتظار ظهور هوش‌مصنوعی‌همه‌جانبه
را در چند دهه آینده دارند،
06:21
so withinدر داخل the lifetimeطول عمر of manyبسیاری of us,
117
369640
2256
یعنی در طول عمر اکثر ما.
که این سوال بعدی را به وجود می‌آورد --
بعد از آن چه می‌شود؟
06:23
whichکه begsالتماس می کند the questionسوال -- and then what?
118
371920
1960
06:27
What do we want the roleنقش of humansانسان to be
119
375040
2216
نقش انسان‌ها بعد از اینکه
ماشین‌ها تمام کارها را
06:29
if machinesماشین آلات can do everything better
and cheaperارزانتر است than us?
120
377280
2680
بهتر و ارزان‌تر انجام دادند، چه خواهد بود؟
06:35
The way I see it, we faceصورت a choiceانتخابی.
121
383000
2000
از دید من، ما بر سر دوراهی خواهیم بود.
06:38
One optionگزینه is to be complacentاز خود راضی.
122
386000
1576
انتخاب اول این است
که از خود راضی باشیم:
06:39
We can say, "Oh, let's just buildساختن machinesماشین آلات
that can do everything we can do
123
387600
3776
"بگذارید ماشین‌هایی بسازیم
که همه‌کاره باشند
06:43
and not worryنگرانی about the consequencesعواقب.
124
391400
1816
و نگران پیش‌آمدهایش نباشیم.
06:45
Come on, if we buildساختن technologyتکنولوژی
that makesباعث می شود all humansانسان obsoleteمنسوخ شده,
125
393240
3256
اگر ما تکنولوژی بسازیم
که همه انسان‌ها را از رده خارج کند
مثلا چه چیز بدی ممکن است
اتفاق بیافتد که نگرانید؟"
06:48
what could possiblyاحتمالا go wrongاشتباه?"
126
396520
2096
06:50
(Laughterخنده)
127
398640
1656
(خنده حضار)
06:52
But I think that would be
embarrassinglyشرم آور lameلنگ.
128
400320
2760
اما بنظر من این انتخاب
بشدت نسنجیده خواهد بود.
06:56
I think we should be more ambitiousبلند پروازانه --
in the spiritروح of TEDTED.
129
404080
3496
بنظرم ما باید بخاطر حضور در TED هم که شده
بیشتر جاه طلبانه فکر کنیم.
06:59
Let's envisionتجسم a trulyبراستی inspiringالهام بخش
high-techبا تکنولوژی بالا futureآینده
130
407600
3496
بگذارید آینده‌ای واقعاً
الهام‌بخش را متصور شویم
و برای رسیدن به آن با تأمل حرکت کنیم.
07:03
and try to steerهدایت کن towardsبه سمت it.
131
411120
1400
07:05
This bringsبه ارمغان می آورد us to the secondدومین partبخشی
of our rocketموشک metaphorاستعاره: the steeringفرمان.
132
413720
3536
این مارا به بحث دوم
در تشبیه موشک می‌کشاند: هدایت.
07:09
We're makingساخت AIAI more powerfulقدرتمند,
133
417280
1896
ما در حال قوی‌تر کردن هوش‌مصنوعی هستیم
07:11
but how can we steerهدایت کن towardsبه سمت a futureآینده
134
419200
3816
اما چگونه آن را به سوی آینده هدایت کنیم
07:15
where AIAI helpsکمک می کند humanityبشریت flourishشکوفا شدن
ratherنسبتا than flounderخرچنگ?
135
423040
3080
که هوش‌مصنوعی بشریت را
به جای تسلیم کردن کامل‌تر کند؟
07:18
To help with this,
136
426760
1256
برای کمک به این بحث،
من موسسه تحقیقات
حیات آینده را تاسیس نمودم.
07:20
I cofoundedcofounded the Futureآینده of Life Instituteمؤسسه.
137
428040
1976
موسسه‌ای کوچک و غیر انتفاعی که
فواید استفاده از تکنولوژی را تبلیغ می‌کند
07:22
It's a smallکوچک nonprofitغیر انتفاعی promotingترویج
beneficialسودمند technologyتکنولوژی use,
138
430040
2776
07:24
and our goalهدف is simplyبه سادگی
for the futureآینده of life to existوجود دارد
139
432840
2736
و هدف ما ساده است:
در آینده حیات وجود داشته باشد
و به بهترین شکل ممکن درآید.
07:27
and to be as inspiringالهام بخش as possibleامکان پذیر است.
140
435600
2056
07:29
You know, I love technologyتکنولوژی.
141
437680
3176
می‌دانید، من عاشق تکنولوژی هستم.
07:32
Technologyفن آوری is why todayامروز
is better than the Stoneسنگ Ageسن.
142
440880
2920
تکنولوژی دلیل بهتر بودن امروز
نسبت به عصر سنگی است.
07:36
And I'm optimisticخوش بینانه that we can createايجاد كردن
a really inspiringالهام بخش high-techبا تکنولوژی بالا futureآینده ...
143
444600
4080
و من خوش‌بینم که ما می‌توانیم آینده‌ای
با فناوری بالا و الهام‌بخش بسازیم،
اگر -- و این اگر دشواریست --
07:41
if -- and this is a bigبزرگ if --
144
449680
1456
07:43
if we winپیروزی the wisdomحکمت raceنژاد --
145
451160
2456
اگر ما در نبرد دانش پیروز شویم --
07:45
the raceنژاد betweenبین the growingدر حال رشد
powerقدرت of our technologyتکنولوژی
146
453640
2856
نبردی میان رشد قدرت تکنولوژی‌مان
07:48
and the growingدر حال رشد wisdomحکمت
with whichکه we manageمدیریت کردن it.
147
456520
2200
و رشد دانشی که خودمان داریم.
07:51
But this is going to requireنیاز
a changeتغییر دادن of strategyاستراتژی
148
459240
2296
اما این پیروزی نیازمند تغییر استراتژی است
07:53
because our oldقدیمی strategyاستراتژی
has been learningیادگیری from mistakesاشتباهات.
149
461560
3040
چون استراتژی قبلی ما بر پایه
یادگیری از اشتباهات بوده است.
07:57
We inventedاختراع شده است fireآتش,
150
465280
1536
ما آتش را اختراع کردیم،
07:58
screwedپیچ up a bunchدسته ای of timesبار --
151
466840
1536
چندین بار باعث حادثه شد،
و مواد آتش خاموش کن ساختیم.
08:00
inventedاختراع شده است the fireآتش extinguisherخاموش کننده.
152
468400
1816
08:02
(Laughterخنده)
153
470240
1336
(خنده حضار)
08:03
We inventedاختراع شده است the carماشین,
screwedپیچ up a bunchدسته ای of timesبار --
154
471600
2416
ماشین را اختراع کردیم،
چند بار باعث تصادف شد
08:06
inventedاختراع شده است the trafficترافیک lightسبک,
the seatصندلی beltکمربند and the airbagکیسه هوا,
155
474040
2667
سپس چراغ راهنما، کمربند ایمنی
و کیسه هوا را اختراع کردیم،
08:08
but with more powerfulقدرتمند technologyتکنولوژی
like nuclearاتمی weaponsاسلحه and AGIAGI,
156
476731
3845
اما در برخورد با تکنولوژی‌های قدرتمندی چون
سلاح هسته‌ای و هوش‌مصنوعی‌همه‌جانبه،
08:12
learningیادگیری from mistakesاشتباهات
is a lousyترسناک strategyاستراتژی,
157
480600
3376
یادگیری از اشتباهات،
استراتژی شکست خورده محسوب می‌شود،
08:16
don't you think?
158
484000
1216
بنظر شما اینطور نیست؟
(خنده حضار)
08:17
(Laughterخنده)
159
485240
1016
فعالانه عمل کردن بهتر از واکنش است؛
08:18
It's much better to be proactiveفعالانه
ratherنسبتا than reactiveواکنش پذیر;
160
486280
2576
از پیش برنامه‌ریزی کنید
و از همان اول همه چیز را درست کنید
08:20
planطرح aheadدر پیش and get things
right the first time
161
488880
2296
08:23
because that mightممکن be
the only time we'llخوب get.
162
491200
2496
چون ممکن است تنها فرصت‌مان باشد.
08:25
But it is funnyخنده دار because
sometimesگاه گاهی people tell me,
163
493720
2336
اما این جالب است
چون گاهی مردم به من می‌گویند:
"مکس، هیشش، اینطوری صحبت نکن،
08:28
"Maxحداکثر, shhhشیخ, don't talk like that.
164
496080
2736
08:30
That's Ludditeلودیت scaremongeringscaremongering."
165
498840
1720
چرا که سخنانت مانند
تکنولوژی‌هراسان ترسناک است."
08:34
But it's not scaremongeringscaremongering.
166
502040
1536
اما این‌ها ترسناک نیستند
08:35
It's what we at MITMIT
call safetyایمنی engineeringمهندسی.
167
503600
2880
بلکه ما در MIT آن‌ها را
بخشی از دروس مهندسی ایمنی می‌دانیم.
08:39
Think about it:
168
507200
1216
به آن فکر کنید:
08:40
before NASAناسا launchedراه اندازی شد
the Apolloآپولو 11 missionماموریت,
169
508440
2216
قبل از اینکه ناسا
ماموریت آپولو ۱۱ را آغاز کند،
08:42
they systematicallyبه طور سیستماتیک thought throughاز طریق
everything that could go wrongاشتباه
170
510680
3136
آن‌ها به طور منظم احتمال هر ایرادی
در حالتی که شما انسان‌هایی
روی تانکرهای سوختی می‌گذارید
08:45
when you put people
on topبالا of explosiveانفجاری fuelسوخت tanksمخازن
171
513840
2376
08:48
and launchراه اندازی them somewhereجایی
where no one could help them.
172
516240
2616
و به‌جایی می‌فرستید که هیچ کمکی
بعداً نمی‌شود فرستاد، بررسی کردند.
08:50
And there was a lot that could go wrongاشتباه.
173
518880
1936
احتمال فراوانی از ایرادها ممکن بود.
08:52
Was that scaremongeringscaremongering?
174
520840
1480
آیا آن بررسی‌ها باعث ترس می‌شدند؟
08:55
No.
175
523159
1217
نه.
08:56
That's was preciselyدقیقا
the safetyایمنی engineeringمهندسی
176
524400
2016
این دقیقاً همان مهندسی ایمنی بود
08:58
that ensuredتضمین شده the successموفقیت of the missionماموریت,
177
526440
1936
که موفقیت ماموریت را تضمین کرد.
09:00
and that is preciselyدقیقا the strategyاستراتژی
I think we should take with AGIAGI.
178
528400
4176
معتقدم همان استراتژی دقیقاً باید در مورد
هوش‌مصنوعی‌همه‌جانبه نیز به کار رود.
09:04
Think throughاز طریق what can go wrongاشتباه
to make sure it goesمی رود right.
179
532600
4056
در مورد پیش‌آمد‌های بد فکر کن
تا مطمئن شوی بدون نقص خواهد شد.
09:08
So in this spiritروح,
we'veما هستیم organizedسازمان یافته است conferencesهمایش ها,
180
536680
2536
خب در این زمینه، کنفرانس‌هایی تشکیل دادیم
09:11
bringingبه ارمغان آوردن togetherبا یکدیگر leadingمنتهی شدن
AIAI researchersمحققان and other thinkersمتفکران
181
539240
2816
تا محققان پیشتاز هوش‌مصنوعی را
کنار یکدیگر جمع کنیم
09:14
to discussبحث و گفتگو how to growرشد this wisdomحکمت
we need to keep AIAI beneficialسودمند.
182
542080
3736
تا در مورد چگونگی رشد دانش‌مان به منظور
داشتن هوش‌مصنوعی سودمند گفتگو کنیم.
09:17
Our last conferenceکنفرانس
was in AsilomarAsilomar, Californiaکالیفرنیا last yearسال
183
545840
3296
آخرین کنفرانس ما،
سال قبل در آسیلومر کالیفرنیا بود
09:21
and producedتولید شده this listفهرست of 23 principlesاصول
184
549160
3056
و این لیست ۲۳ بندی از اصولی
09:24
whichکه have sinceاز آنجا که been signedامضاء شده
by over 1,000 AIAI researchersمحققان
185
552240
2896
که توسط ۱۰۰۰ نفر از محققان هوش‌مصنوعی
و رهبران صنعتی امضا شده را تشکیل داد.
09:27
and keyکلیدی industryصنعت leadersرهبران,
186
555160
1296
09:28
and I want to tell you
about threeسه of these principlesاصول.
187
556480
3176
می‌خواهم در مورد سه تا
از این اصول برایتان بگویم:
09:31
One is that we should avoidاجتناب کردن an armsبازوها raceنژاد
and lethalمرگبار autonomousخود مختار weaponsاسلحه.
188
559680
4960
اول، باید از هرگونه مسابقه نظامی
و سلاح‌های خودکار مرگبار خودداری شود.
نکته این است که هر علمی می‌تواند
09:37
The ideaاندیشه here is that any scienceعلوم پایه
can be used for newجدید waysراه ها of helpingکمک people
189
565480
3616
باعث ایجاد راه‌های جدید
برای کمک یا صدمه‌زدن به مردم شود.
09:41
or newجدید waysراه ها of harmingآسیب رساندن people.
190
569120
1536
09:42
For exampleمثال, biologyزیست شناسی and chemistryعلم شیمی
are much more likelyاحتمال دارد to be used
191
570680
3936
به طور نمونه، زیست‌شناسی و شیمی
بیشتر در مقاصد ساخت دارو و درمان‌های جدید
09:46
for newجدید medicinesداروها or newجدید curesدرمان می کند
than for newجدید waysراه ها of killingکشتن people,
192
574640
4856
در مقابل روش جدید
برای کشتن مردم بکار می‌رود،
09:51
because biologistsزیست شناسان
and chemistsشیمیدانان pushedتحت فشار قرار داد hardسخت --
193
579520
2176
چراکه زیست‌شناسان و شیمی‌دانان مستمرانه --
09:53
and successfullyبا موفقیت --
194
581720
1256
و موفقیت آمیز --
برای ممنوع کردن سلاح‌های زیستی
و شیمیایی تلاش کردند.
09:55
for bansممنوعیت on biologicalبیولوژیکی
and chemicalشیمیایی weaponsاسلحه.
195
583000
2176
09:57
And in the sameیکسان spiritروح,
196
585200
1256
و در همین زمینه،
09:58
mostاکثر AIAI researchersمحققان want to stigmatizeخجالت کشیدن
and banممنوعیت lethalمرگبار autonomousخود مختار weaponsاسلحه.
197
586480
4440
اکثر محققان هوش‌مصنوعی
می‌خواهند استفاده از
سلاح‌های مرگبار خودکار را
ممنوع و بد جلوه دهند.
اصل بعدی تصویب شده در کنفرانس آسیلومار،
10:03
Anotherیکی دیگر AsilomarAsilomar AIAI principleاصل
198
591600
1816
10:05
is that we should mitigateکاهش
AI-fueledتقویت هوش مصنوعی incomeدرآمد inequalityنابرابری.
199
593440
3696
ما باید شکاف درآمدی حاصل از
هوش‌مصنوعی را کاهش دهیم.
10:09
I think that if we can growرشد
the economicاقتصادی pieپای dramaticallyبه طور چشمگیری with AIAI
200
597160
4456
معتقدم، اگر بتوانیم کیک [سرانه درآمد جهان]
را با هوش‌مصنوعی به شدت بزرگ کنیم
10:13
and we still can't figureشکل out
how to divideتقسیم کنید this pieپای
201
601640
2456
اما نتوانیم راهی برای تقسیم آن پیدا کنیم
طوری که همه راضی باشند،
10:16
so that everyoneهر کس is better off,
202
604120
1576
10:17
then shameشرم آور on us.
203
605720
1256
پس شرم بر ما.
10:19
(Applauseتشویق و تمجید)
204
607000
4096
(تشویق حضار)
10:23
Alrightبسيار خوب, now raiseبالا بردن your handدست
if your computerکامپیوتر has ever crashedسقوط کرد.
205
611120
3600
اگر کسی تا حالا کامپیوترش
خراب شده، دستش را بالا بیاورد.
10:27
(Laughterخنده)
206
615480
1256
(خنده حضار)
10:28
Wowوای, that's a lot of handsدست ها.
207
616760
1656
واو، دست‌ها زیاد هستند.
10:30
Well, then you'llشما خواهید بود appreciateقدردانی
this principleاصل
208
618440
2176
خب، پس باید به این اصل
شما هم معتقد باشید
10:32
that we should investسرمایه گذاری much more
in AIAI safetyایمنی researchپژوهش,
209
620640
3136
که باید بودجه زیادی برای تحقیق روی
تحقیقات ایمنی‌هوش‌مصنوعی بگذاریم.
10:35
because as we put AIAI in chargeشارژ
of even more decisionsتصمیمات and infrastructureزیر ساخت,
210
623800
3656
چون زمانی‌که ما هوش‌مصنوعی را
تصمیم‌گیر و مسئول زیرساخت‌ها قرار می‌دهیم،
10:39
we need to figureشکل out how to transformتبدیل
today'sامروزه buggyحشره دار and hackablehackable computersکامپیوترها
211
627480
3616
باید راهی برای تبدیل کامپیوترهای
ایراددار و قابل هک امروزی
به هوش‌مصنوعی قدرت‌مندی که واقعاً
بتوان به آن اعتماد کرد پیدا کنیم،
10:43
into robustقدرتمند AIAI systemsسیستم های
that we can really trustاعتماد,
212
631120
2416
10:45
because otherwiseدر غیر این صورت,
213
633560
1216
در غیر اینصورت،
10:46
all this awesomeعالی newجدید technologyتکنولوژی
can malfunctionاشکال در عملکرد and harmصدمه us,
214
634800
2816
تمامی این تکنولوژی وحشتناک می‌تواند
دچار اختلال شده و به ما آسیب رساند،
10:49
or get hackedهک شده and be turnedتبدیل شد againstدر برابر us.
215
637640
1976
یا هک شده و علیه ما تنظیم شود.
10:51
And this AIAI safetyایمنی work
has to includeعبارتند از work on AIAI valueارزش alignmentهم ترازی,
216
639640
5696
کار ما بر روی ایمنی کارکرد هوش‌مصنوعی
باید شامل کار بر روی تنظیم ارزش‌هایش باشد،
چرا که تهدید واقعی از جانب
هوش‌مصنوعی‌همه‌جانبه از نوع شیطانی نیست
10:57
because the realواقعی threatتهدید
from AGIAGI isn't maliceبدبختی,
217
645360
2816
11:00
like in sillyاحمقانه Hollywoodهالیوود moviesفیلم ها,
218
648200
1656
همانند آنچه در
فیلم‌های احمقانه هالیوودی هست،
11:01
but competenceصلاحیت --
219
649880
1736
بلکه از نوع برتری است --
11:03
AGIAGI accomplishingانجام دادن goalsاهداف
that just aren'tنه alignedهم راستا with oursما.
220
651640
3416
یعنی هوش‌مصنوعی‌همه‌جانبه به اهدافی
می‌رسد که با اهداف ما در تضاد است.
11:07
For exampleمثال, when we humansانسان droveرانندگی کرد
the Westغرب Africanآفریقایی blackسیاه rhinoرینو extinctمنقرض شده,
221
655080
4736
برای نمونه، وقتی ما انسان‌ها کرگدن‌های
سیاه غرب‌آفریقایی را به انقراض کشاندیم،
به‌خاطر دسته‌ای از افکار شیطانی ضد کرگدنی
این‌کار را نکردیم که، قبول دارید؟
11:11
we didn't do it because we were a bunchدسته ای
of evilبد rhinocerosبادام زمینی hatersنفرت انگیز, did we?
222
659840
3896
ما این‌کار را بخاطر اینکه
از آن‌ها باهوش‌تر بودیم
11:15
We did it because
we were smarterهوشمندانه than them
223
663760
2056
11:17
and our goalsاهداف weren'tنبودند alignedهم راستا with theirsخودشان.
224
665840
2576
و اهداف ما با آن‌ها
در تضاد بود انجام دادیم.
11:20
But AGIAGI is by definitionتعریف smarterهوشمندانه than us,
225
668440
2656
اما هوش‌مصنوعی‌همه‌جانبه
روی کاغذ از ما هوشمندتر است
پس برای اینکه اطمینان داشته باشیم خودمان را
در مقامی چون کرگدن‌ها در مقابل
11:23
so to make sure that we don't put
ourselvesخودمان in the positionموقعیت of those rhinosrhinos
226
671120
3576
هوش‌مصنوعی‌همه‌جانبه --
اگر ساختیم -- قرار ندهیم،
11:26
if we createايجاد كردن AGIAGI,
227
674720
1976
11:28
we need to figureشکل out how
to make machinesماشین آلات understandفهمیدن our goalsاهداف,
228
676720
4176
ما باید بفهمیم که ماشین‌ها
چگونه اهداف ما را می‌فهمند
11:32
adoptاتخاذ کردن our goalsاهداف and retainحفظ our goalsاهداف.
229
680920
3160
با آن‌ها سازگار شده
و تغییرشان نمی‌دهند.
11:37
And whoseکه goalsاهداف should these be, anywayبه هر حال?
230
685320
2856
اما پس اهداف چه‌کسی
باید روی‌آن‌ها تنظیم گردد؟
11:40
Whichکدام goalsاهداف should they be?
231
688200
1896
چه اهدافی باید باشند؟
11:42
This bringsبه ارمغان می آورد us to the thirdسوم partبخشی
of our rocketموشک metaphorاستعاره: the destinationمقصد.
232
690120
3560
این ما را به بحث سوم‌
در تشبیه موشک می‌رساند: مقصد.
ما در حال قوی‌تر کردن هوش‌مصنوعی هستیم،
11:47
We're makingساخت AIAI more powerfulقدرتمند,
233
695160
1856
11:49
tryingتلاش کن to figureشکل out how to steerهدایت کن it,
234
697040
1816
می‌خواهیم طریقه هدایتش را بدانیم،
11:50
but where do we want to go with it?
235
698880
1680
اما با آن به کجا می‌خواهیم برویم؟
11:53
This is the elephantفیل in the roomاتاق
that almostتقریبا nobodyهيچ كس talksگفتگو about --
236
701760
3656
این چالشی است که هیچ‌کس نمی‌خواهد
در موردش صحبت کند --
11:57
not even here at TEDTED --
237
705440
1856
حتی در همین صحنه TED نیز --
11:59
because we're so fixatedثابت شده
on short-termکوتاه مدت AIAI challengesچالش ها.
238
707320
4080
زیرا همه ما شدیداً به اهداف کوتاه‌مدت
هوش‌مصنوعی چسبیده‌ایم.
12:04
Look, our speciesگونه ها is tryingتلاش کن to buildساختن AGIAGI,
239
712080
4656
نژاد ما در حال ساختن
هوش‌مصنوعی‌همه‌جانبه است،
12:08
motivatedانگیزه by curiosityکنجکاوی and economicsاقتصاد,
240
716760
3496
که با انگیزه‌ توجیه اقتصادی
و کنجکاوی همراه است،
12:12
but what sortمرتب سازی of futureآینده societyجامعه
are we hopingامید for if we succeedموفق باش?
241
720280
3680
اما پس اگر موفق شویم، چه تصوری
از جامعه آینده باید داشته باشیم؟
ما اخیراً نظرسنجی
بر روی این موضوع داشتیم.
12:16
We did an opinionنظر pollنظرسنجی on this recentlyبه تازگی,
242
724680
1936
من به‌طور ناخوش‌آیندی متوجه شدم
12:18
and I was struckرخ داد to see
243
726640
1216
12:19
that mostاکثر people actuallyدر واقع
want us to buildساختن superintelligenceسوپر هوش:
244
727880
2896
اکثر مردم واقعاً از ما می‌خواهد
ابرهوش‌مصنوعی را بسازیم:
12:22
AIAI that's vastlyبه شدت smarterهوشمندانه
than us in all waysراه ها.
245
730800
3160
هوش‌مصنوعی که بشدت در همه جهات
از ما هوشمندتر است.
12:27
What there was the greatestبزرگترین agreementتوافق on
was that we should be ambitiousبلند پروازانه
246
735120
3416
و چیزی که عامه توافق بالایی روی‌آن دارند
بلندپروازی ما برای کمک در
انتشار حیات در عالم است،
12:30
and help life spreadانتشار دادن into the cosmosکیهان,
247
738560
2016
اما توافق کمی درباره اینکه چه کسی
یا چه چیزی مسئول آن باشد وجود دارد.
12:32
but there was much lessکمتر agreementتوافق
about who or what should be in chargeشارژ.
248
740600
4496
12:37
And I was actuallyدر واقع quiteکاملا amusedسرگرم کننده
249
745120
1736
و من واقعا دلم می‌خواهد کسی را
12:38
to see that there's some some people
who want it to be just machinesماشین آلات.
250
746880
3456
که می‌خواهد فقط ماشین‌ها در عالم
به عنوان حیات پخش شوند ببینم.
12:42
(Laughterخنده)
251
750360
1696
(خنده حضار)
12:44
And there was totalجمع disagreementاختلاف نظر
about what the roleنقش of humansانسان should be,
252
752080
3856
و عدم‌توافق کاملی
در مورد نقش انسان‌ها داریم
12:47
even at the mostاکثر basicپایه ای levelسطح,
253
755960
1976
حتی در ابتدایی ترین نقش‌ها،
12:49
so let's take a closerنزدیک تر look
at possibleامکان پذیر است futuresآینده
254
757960
2816
پس بیایید به آینده‌های محتمل نگاهی بیندازیم
12:52
that we mightممکن chooseانتخاب کنید
to steerهدایت کن towardبه سمت, alrightبسيار خوب?
255
760800
2736
که ممکن است انتخابمان
به سوی‌شان باشد، موافقید؟
در این‌قسمت اشتباه در موردم فکر نکنید.
12:55
So don't get be wrongاشتباه here.
256
763560
1336
12:56
I'm not talkingصحبت کردن about spaceفضا travelمسافرت رفتن,
257
764920
2056
در مورد سفرهای فضایی صحبت نمی‌کنم،
12:59
merelyصرفا - فقط about humanity'sبشریت
metaphoricalاستعاره journeyسفر into the futureآینده.
258
767000
3200
بلکه صرفاً در مورد سفر استعاره‌ای بشریت
به سمت آینده صحبت خواهم کرد.
13:02
So one optionگزینه that some
of my AIAI colleaguesهمکاران like
259
770920
3496
یکی از انتخاب‌هایی که بعضی از
همکارانم دوستش دارند
13:06
is to buildساختن superintelligenceسوپر هوش
and keep it underزیر humanانسان controlکنترل,
260
774440
3616
ساختن ابر هوش‌مصنوعی
و در زیر کنترل بشریت نگه‌داشتن آن است،
13:10
like an enslavedبردگی god,
261
778080
1736
همچون خدایی در بند شده،
13:11
disconnectedقطع شده from the internetاینترنت
262
779840
1576
جدا شده از اینترنت،
که برای تولید تکنولوژی
و ثروت غیر قابل تصور
13:13
and used to createايجاد كردن unimaginableغیر قابل تصور است
technologyتکنولوژی and wealthثروت
263
781440
3256
برای هرکسی‌که صاحبش باشد،
مورد استفاده قرار می‌گیرد.
13:16
for whoeverهر کس controlsکنترل ها it.
264
784720
1240
13:18
But Lordخداوند Actonاکتون warnedهشدار داد us
265
786800
1456
اما لرد اکتون ما را آگاه ساخته که:
13:20
that powerقدرت corruptsفساد می کند,
and absoluteمطلق powerقدرت corruptsفساد می کند absolutelyکاملا,
266
788280
3616
"قدرت فساد می‌آورد
و قدرت مطلق، فساد مطلق می‌آورد."
13:23
so you mightممکن worryنگرانی that maybe
we humansانسان just aren'tنه smartهوشمندانه enoughکافی,
267
791920
4056
خب شاید بنظر بیاید که ما انسان‌ها
به‌اندازه کافی باهوش
یا دانا نخواهیم بود
13:28
or wiseعاقل enoughکافی ratherنسبتا,
268
796000
1536
تا این حجم از قدرت را در کنترل داشته باشیم
13:29
to handleرسیدگی this much powerقدرت.
269
797560
1240
همچنین، در کنار همه تردیدهای اخلاقی
که شما ممکن است
13:31
Alsoهمچنین, asideگذشته از from any
moralاخلاقی qualmsqualms you mightممکن have
270
799640
2536
13:34
about enslavingتسخیر superiorبرتر mindsذهنها,
271
802200
2296
درباره به کنترل درآوردن
هوش[مصنوعی] برتر داشته باشید،
13:36
you mightممکن worryنگرانی that maybe
the superintelligenceسوپر هوش could outsmartبی نظیر us,
272
804520
3976
ممکن است نگران باشید که ابر هوش‌مصنوعی
می‌تواند از ما در هوشمندی جلوتر زده،
13:40
breakزنگ تفريح out and take over.
273
808520
2240
از دستمان در رود و بر ما چیره شود.
13:43
But I alsoهمچنین have colleaguesهمکاران
who are fine with AIAI takingگرفتن over
274
811560
3416
اما من همچنین همکارانی دارم
که راضی‌اند هوش‌مصنوعی بر ما چیره شود
13:47
and even causingباعث می شود humanانسان extinctionانقراض,
275
815000
2296
و حتی باعث انقراض نسل بشر گردد،
13:49
as long as we feel the the AIsAIs
are our worthyشایسته descendantsفرزندان,
276
817320
3576
مثل اینکه به هوش‌مصنوعی
به دید میراث‌داران شایسته‌مان بنگریم،
13:52
like our childrenفرزندان.
277
820920
1736
مثل فرزندان‌مان.
13:54
But how would we know that the AIsAIs
have adoptedتصویب شد our bestبهترین valuesارزش های
278
822680
5616
اما از کجا بدانیم که هوش‌مصنوعی
با بهترین ارزش‌های ما سازگار شده است
14:00
and aren'tنه just unconsciousناخودآگاه zombiesزامبی ها
trickingفریب دادن us into anthropomorphizingانسان شناسی them?
279
828320
4376
و همانند زامبی‌های ناخودآگاه ما را
در انسان‌گونه دانستن‌شان فریب نخواهد زد؟
14:04
Alsoهمچنین, shouldn'tنباید those people
who don't want humanانسان extinctionانقراض
280
832720
2856
آیا نباید به انسان‌هایی
که انقراض نسل بشر را نمی‌خواهد
در این زمینه، فرصت نظر دادن داد؟
14:07
have a say in the matterموضوع, too?
281
835600
1440
حالا اگر شما هیچ‌کدام از این دو انتخاب
برای آینده همراه با فناوری را نخواهید
14:10
Now, if you didn't like eitherیا
of those two high-techبا تکنولوژی بالا optionsگزینه ها,
282
838200
3376
14:13
it's importantمهم to rememberیاد آوردن
that low-techکم فن آوری is suicideخودکشی کردن
283
841600
3176
باید به یاد داشته باشید
که آینده با فناوری کم
از منظر کیهانی همانند خودکشی است،
14:16
from a cosmicکیهانی perspectiveچشم انداز,
284
844800
1256
14:18
because if we don't go farدور
beyondفراتر today'sامروزه technologyتکنولوژی,
285
846080
2496
چرا که اگر ما از مرزهای
تکنولوژی امروزی فراتر نرویم
سوال این نخواهد بود
که بشریت منقرض می‌شود یا نه،
14:20
the questionسوال isn't whetherچه humanityبشریت
is going to go extinctمنقرض شده,
286
848600
2816
14:23
merelyصرفا - فقط whetherچه
we're going to get takenگرفته شده out
287
851440
2016
بلکه اساسا درباره این خواهد بود که عامل آن
14:25
by the nextبعد killerقاتل asteroidسیارک, supervolcanoابرآتشفشان
288
853480
2136
سیارک قاتل بعدی است یا ابر آتشفشان
14:27
or some other problemمسئله
that better technologyتکنولوژی could have solvedحل شد.
289
855640
3096
یا مشکلات دیگری که می‌توانستیم
با تکنولوژی بهتر مانع‌شان شویم.
14:30
So, how about havingداشتن
our cakeکیک and eatingغذا خوردن it ...
290
858760
3576
خب، چطور است کیک‌مان را
داشته باشیم و آن را بخوریم ...
با هوش‌مصنوعی‌همه‌جانبه‌ای در بند ما نیست
14:34
with AGIAGI that's not enslavedبردگی
291
862360
1840
بلکه با ما خوب رفتار می‌کند
چون ارزش‌های آن با ارزش‌های ما هم‌راستاست؟
14:37
but treatsرفتار می کند us well because its valuesارزش های
are alignedهم راستا with oursما?
292
865120
3176
14:40
This is the gistجسارت of what Eliezerالیعزر YudkowskyYudkowsky
has calledبه نام "friendlyدوستانه AIAI,"
293
868320
4176
این نیم‌نگاهی است به آنچه که الیزر یودکاوسکی
آن‌را "هوش‌مصنوعی‌دوستانه" می‌نامد.
و اگر ما چنین هوش‌مصنوعی بسازیم
می‌تواند بسیار الهام‌بخش باشد.
14:44
and if we can do this,
it could be awesomeعالی.
294
872520
2680
14:47
It could not only eliminateاز بین بردن negativeمنفی
experiencesتجربیات like diseaseمرض, povertyفقر,
295
875840
4816
این می‌تواند نه‌تنها ما را
از تجربه‌های منفی همچون بیماری، فقر،
14:52
crimeجرم and other sufferingرنج کشیدن,
296
880680
1456
جرایم و سایر رنج‌ها برهاند،
14:54
but it could alsoهمچنین give us
the freedomآزادی to chooseانتخاب کنید
297
882160
2816
همچنین می‌تواند به ما آزادی انتخاب
14:57
from a fantasticخارق العاده newجدید diversityتنوع
of positiveمثبت experiencesتجربیات --
298
885000
4056
از میان گوناگونی تجربه‌های
فوق‌العاده مثبت و جدید را بدهد --
15:01
basicallyاساسا makingساخت us
the mastersکارشناسی ارشد of our ownخودت destinyسرنوشت.
299
889080
3160
اساساً ما را صاحبان سرنوشت‌مان کند.
15:06
So in summaryخلاصه,
300
894280
1376
خب پس در خلاصه،
15:07
our situationوضعیت with technologyتکنولوژی
is complicatedبغرنج,
301
895680
3096
وضعیت ما با تکنولوژی پیچیده است
15:10
but the bigبزرگ pictureعکس is ratherنسبتا simpleساده.
302
898800
2416
اما شرایط کلی‌مان ساده است.
اکثر محققان هوش‌مصنوعی انتظار ظهور
هوش‌مصنوعی‌همه‌جانبه را در چند دهه بعدی دارند
15:13
Mostاکثر AIAI researchersمحققان
expectانتظار AGIAGI withinدر داخل decadesچند دهه,
303
901240
3456
15:16
and if we just bumbleشبیه سازی
into this unpreparedآماده نیست,
304
904720
3136
اگر ما بدون برنامه به آن مرحله برسیم،
15:19
it will probablyشاید be
the biggestبزرگترین mistakeاشتباه in humanانسان historyتاریخ --
305
907880
3336
شاید این بزرگترین اشتباه
در تاریخ بشریت باشد.
15:23
let's faceصورت it.
306
911240
1416
امتحانش مجانی است.
15:24
It could enableفعال کردن brutalوحشیانه,
globalجهانی است dictatorshipدیکتاتوری
307
912680
2576
این رویداد می‌تواند
باعث دیکتاتوری وحشیانه جهانی
15:27
with unprecedentedبی سابقه inequalityنابرابری,
surveillanceنظارت and sufferingرنج کشیدن,
308
915280
3536
همراه با نابرابری بی‌سابقه،
تحت نظر قرار گرفتن و رنج بردن
15:30
and maybe even humanانسان extinctionانقراض.
309
918840
1976
و حتی موجب انقراض بشریت شود.
15:32
But if we steerهدایت کن carefullyبا دقت,
310
920840
2320
اما اگر ما با دقت هدایتش کنیم،
15:36
we could endپایان up in a fantasticخارق العاده futureآینده
where everybody'sهمه است better off:
311
924040
3896
می‌توانیم به آینده‌ای خارق‌العاده که
همه در وضع بهتری از الان خواهند بود برسیم:
15:39
the poorفقیر are richerغنی تر, the richثروتمند are richerغنی تر,
312
927960
2376
فقیر، ثروتمند و ثروتمند، ثروتمندتر شده،
15:42
everybodyهمه is healthyسالم
and freeرایگان to liveزنده out theirخودشان dreamsرویاها.
313
930360
3960
همه سالم و آزاد برای زندگی
به سمت اهدافشان هستند.
15:47
Now, hangآویزان شدن on.
314
935000
1536
حالا، صبر کنید.
15:48
Do you folksمردمی want the futureآینده
that's politicallyاز نظر سیاسی right or left?
315
936560
4576
آیا شما گروهی هستید
که آینده سیاسی راست یا چپی می‌خواهید؟
15:53
Do you want the piousمعشوق societyجامعه
with strictسخت گیرانه moralاخلاقی rulesقوانین,
316
941160
2856
آیا جامعه مذهبی بر پایه
قوانین سرسخت اخلاقی می‌خواهید؟
یا جامعه‌ای همراه با خوشی و لذت همگانی،
15:56
or do you an hedonisticشجاعانه free-for-allرایگان برای همه,
317
944040
1816
چیزی مثل مراسم سالانه "مرد سوزان"
در نوادا که بصورت همیشگی دایر باشد؟
15:57
more like Burningسوزش Man 24/7?
318
945880
2216
16:00
Do you want beautifulخوشگل beachesسواحل,
forestsجنگل ها and lakesدریاچه ها,
319
948120
2416
سواحل، جنگل و دریاچه زیبا می‌خواهید
16:02
or would you preferترجیح می دهند to rearrangeتنظیم مجدد
some of those atomsاتم ها with the computersکامپیوترها,
320
950560
3416
یا ترجیح می‌دهید یکی از آن اتم‌ها را توسط
واقعیت مجازی کامپیوتری دستکاری کنید؟
16:06
enablingرا قادر می سازد virtualمجازی experiencesتجربیات?
321
954000
1715
16:07
With friendlyدوستانه AIAI, we could simplyبه سادگی
buildساختن all of these societiesجوامع
322
955739
3157
با هوش‌مصنوعی‌مهربان،
تمامی این جوامع امکان‌پذیر است
16:10
and give people the freedomآزادی
to chooseانتخاب کنید whichکه one they want to liveزنده in
323
958920
3216
و می‌توان به مردم آزادی داد
تا در هر کدام که خواستند زندگی کنند
16:14
because we would no longerطولانی تر
be limitedمحدود by our intelligenceهوش,
324
962160
3096
چرا که دیگر ما توسط
هوش‌خودمان محدود نیستیم
و تنها محدود به قوانین فیزیک‌ هستیم.
16:17
merelyصرفا - فقط by the lawsقوانین of physicsفیزیک.
325
965280
1456
16:18
So the resourcesمنابع and spaceفضا
for this would be astronomicalنجومی --
326
966760
4616
پس میزان منابع و فضا برای آن
نجومی خواهد بود --
16:23
literallyعینا.
327
971400
1320
به معنای واقعی کلمه.
16:25
So here'sاینجاست our choiceانتخابی.
328
973320
1200
پس این انتخاب ماست:
16:27
We can eitherیا be complacentاز خود راضی
about our futureآینده,
329
975880
2320
می‌توانیم در مورد آینده‌مان
از خود راضی باشیم،
16:31
takingگرفتن as an articleمقاله of blindنابینا faithایمان
330
979440
2656
و همانند نوشته‌ای از ایمان کور
16:34
that any newجدید technologyتکنولوژی
is guaranteedتضمین to be beneficialسودمند,
331
982120
4016
به همه تکنولوژی‌های جدید
به شکل تضمینی و سودمند نگاه کنیم،
16:38
and just repeatتکرار that to ourselvesخودمان
as a mantraمارتا over and over and over again
332
986160
4136
و به خودمان این تضمین را
مدام همچون وردی تکرار کنیم
16:42
as we driftرانش like a rudderlessrudderless shipکشتی
towardsبه سمت our ownخودت obsolescenceماندگاری.
333
990320
3680
در حالی که همچون کشتی سرگردان
به‌سمت تباهی‌مان پیش می‌رویم.
16:46
Or we can be ambitiousبلند پروازانه --
334
994920
1880
یا می‌توانیم بلندپرواز باشیم --
16:49
thinkingفكر كردن hardسخت about how
to steerهدایت کن our technologyتکنولوژی
335
997840
2456
در مورد نحوه هدایت تکنولوژی‌مان
16:52
and where we want to go with it
336
1000320
1936
و جایی که با آن می‌خواهیم برویم
تا عصر شگفتی‌ها را
با آن بسازیم خوب فکر کنیم.
16:54
to createايجاد كردن the ageسن of amazementشگفتی.
337
1002280
1760
ما همه اینجا هستیم،
تا عصر شگفتی را جشن بگیریم،
16:57
We're all here to celebrateجشن گرفتن
the ageسن of amazementشگفتی,
338
1005000
2856
16:59
and I feel that its essenceذات should lieدروغ
in becomingتبدیل شدن به not overpoweredبیش از حد
339
1007880
4440
و من احساس می‌کنم ماهیت آن نباید این باشد
که قدرت فناوری از ما بیشتر شود،
17:05
but empoweredتوانمند by our technologyتکنولوژی.
340
1013240
2616
بلکه ما باید با آن قدرتمند شویم.
17:07
Thank you.
341
1015880
1376
متشکرم.
17:09
(Applauseتشویق و تمجید)
342
1017280
3080
(تشویق)
Translated by Nima Pourreza
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com