ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

ماكس تيغمارك: كيف نتطور باستخدام الذكاء الاصطناعي، ولا نهزم من قبله

Filmed:
1,409,007 views

يتوقع العديد من الباحثين في مجال الذكاء الاصطناعي أن يتفوق الذكاء الاصطناعي على البشر في جميع المهام والوظائف في غضون عقود، مما يهيئ لمستقبل لا تقيدنا فيه سوى قوانين الفيزياء، في حين لا يوجد فيه حدود لذكائنا. يفصل عالم الفيزياء في معهد ماساتشوستس للتكنولوجيا (MIT) والباحث العلمي ماكس تيغ مارك (Max Tegmark) بين الفرص والتهديدات الحقيقية والأساطير، ويصف الخطوات الملموسة التي يجب أن نتخذها اليوم ليكون الذكاء الاصطناعي أفضل شيء حدث للبشرية عوضًا عن كونه أسوأ حدث سيحلّ بها.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionمليار yearsسنوات
of cosmicكوني historyالتاريخ,
0
760
4416
بعد 13,8 مليار سنة من تاريخ الكون،
00:17
our universeكون has wokenاستيقظ up
1
5200
2096
استيقظ كوننا
00:19
and becomeيصبح awareوصف of itselfبحد ذاتها.
2
7320
1520
وأصبح مدركًا لذاته.
00:21
From a smallصغير blueأزرق planetكوكب,
3
9480
1936
من كوكب صغير أزرق،
00:23
tinyصغيرة جدا, consciousواع partsأجزاء of our universeكون
have begunبدأت gazingيحدق out into the cosmosكون
4
11440
4136
بدأت أجزاء صغيرة واعية من عالمنا
تحدق بالكون
00:27
with telescopesالتلسكوبات,
5
15600
1376
باستخدام التلسكوبات،
00:29
discoveringاكتشاف something humblingتحقير.
6
17000
1480
تكتشف شيئاً بتواضع.
00:31
We'veقمنا discoveredمكتشف that our universeكون
is vastlyإلى حد كبير granderأعظم
7
19320
2896
لقد اكتشفنا أن كوننا أعظم بكثير
00:34
than our ancestorsأسلاف imaginedيتصور
8
22240
1336
مما تصوره أسلافنا
00:35
and that life seemsيبدو to be an almostتقريبيا
imperceptiblyصوره تدريجيه smallصغير perturbationاضطراب
9
23600
4256
وأن الحياة تبدو وكأنها اضطراب صغير
غير محسوس
00:39
on an otherwiseغير ذلك deadميت universeكون.
10
27880
1720
على كون ميت.
00:42
But we'veقمنا alsoأيضا discoveredمكتشف
something inspiringالملهمة,
11
30320
3016
لكننا اكتشفنا أيضًا شيئا ملهمًا،
00:45
whichالتي is that the technologyتقنية
we're developingتطوير has the potentialمحتمل
12
33360
2976
وهو أن التكنولوجيا التي نطورها لها القدرة
00:48
to help life flourishتزدهر like never before,
13
36360
2856
على مساعدة ازدهار الحياة بشكل غير مسبوق،
00:51
not just for centuriesقرون
but for billionsالمليارات of yearsسنوات,
14
39240
3096
ليس لعدة قرون فقط ولكن لمليارات السنين
00:54
and not just on earthأرض but throughoutعلى مدار
much of this amazingرائعة حقا cosmosكون.
15
42360
4120
وليس على هذه الأرض فقط
ولكن في أنحاء أخرى من هذا الكون المذهل.
00:59
I think of the earliestالأول منوعة life as "Life 1.0"
16
47680
3336
شخصيًّا، أسمي بداية الحياة ب"الحياة 1.0"
01:03
because it was really dumbأبكم,
17
51040
1376
لأنها كانت غبية حقاً،
01:04
like bacteriaبكتيريا, unableغير قادر to learnتعلم
anything duringأثناء its lifetimeأوقات الحياة.
18
52440
4296
مثل البكتيريا، غير قادرة على تعلم أي شيء
خلال حياتها.
01:08
I think of us humansالبشر as "Life 2.0"
because we can learnتعلم,
19
56760
3376
وأعتقد بأننا نحن البشر نمثل "الحياة 2.0"
لأننا نستطيع التعلم،
01:12
whichالتي we in nerdyالذي يذاكر كثيرا, geekالمهووس speakتحدث,
20
60160
1496
وإذا ما تحدثنا عنه بهوس علمي
01:13
mightربما think of as installingتركيب
newالجديد softwareالبرمجيات into our brainsعقل,
21
61680
3216
فقد ننظر له وكأنه تثبيت برمجية جديدة
داخل عقولنا
01:16
like languagesاللغات and jobوظيفة skillsمهارات.
22
64920
2120
مثل اللغات ومهارات العمل.
01:19
"Life 3.0," whichالتي can designالتصميم not only
its softwareالبرمجيات but alsoأيضا its hardwareالمعدات
23
67680
4296
"الحياة 3.0" والتي لا تصمم برمجياتها فحسب
بل وأجزائها الرئيسية أيضًا
01:24
of courseدورة doesn't existيوجد yetبعد.
24
72000
1656
وهي بالطبع لا وجود لها حتى الآن.
01:25
But perhapsربما our technologyتقنية
has alreadyسابقا madeمصنوع us "Life 2.1,"
25
73680
3776
لكن قد تكون التكنولوجيا الحالية
قد صنعت لنا بالفعل "الحياة 2.1"
01:29
with our artificialمصطنع kneesالركبتين,
pacemakersأجهزة ضبط نبضات القلب and cochlearالقوقعة implantsيزرع.
26
77480
4336
مع ركبنا الصناعية، وأجهزة تنظيم نبضات
القلب والقواقع السمعية المزروعة.
01:33
So let's take a closerأقرب look
at our relationshipصلة with technologyتقنية, OK?
27
81840
3880
لذا لنمعن النظر في علاقتنا مع التكنولوجيا،
حسنًا؟
01:38
As an exampleمثال,
28
86800
1216
على سبيل المثال،
01:40
the Apolloأبولو 11 moonالقمر missionمهمة
was bothكلا successfulناجح and inspiringالملهمة,
29
88040
5296
بعثة أبولو 11 إلى القمر كانت ناجحة
وملهمة في ذات الوقت
01:45
showingتظهر that when we humansالبشر
use technologyتقنية wiselyبحكمة,
30
93360
3016
مبينةً أنه عندما نستخدم نحن البشر
التكنولوجيا بحكمة،
01:48
we can accomplishإنجاز things
that our ancestorsأسلاف could only dreamحلم of.
31
96400
3936
فإننا نستطيع إنجاز أشياء لم يستطع أسلافنا
إلا الحلم بها.
01:52
But there's an even more inspiringالملهمة journeyرحلة
32
100360
2976
لكن توجد هناك رحلة أكثر إلهامًا
01:55
propelledالدفع by something
more powerfulقوي than rocketصاروخ enginesمحركات,
33
103360
2680
مدفوعة بشيء أقوى من محركات الصواريخ
01:59
where the passengersركاب
aren'tلا just threeثلاثة astronautsرواد الفضاء
34
107200
2336
حيث الركاب ليسوا مجرد ثلاثة من رواد الفضاء
02:01
but all of humanityإنسانية.
35
109560
1776
بل البشرية جمعاء.
02:03
Let's talk about our collectiveجماعي
journeyرحلة into the futureمستقبل
36
111360
2936
دعونا نتحدث عن رحلتنا الجماعية
نحو المستقبل
02:06
with artificialمصطنع intelligenceالمخابرات.
37
114320
2000
مع الذكاء الاصطناعي.
02:08
My friendصديق Jaanجان Tallinnتالين likesالإعجابات to pointنقطة out
that just as with rocketryعلم الصواريخ,
38
116960
4536
يشير صديقي جان تالين إلى أنه
كما هي الحال مع الصواريخ،
02:13
it's not enoughكافية to make
our technologyتقنية powerfulقوي.
39
121520
3160
ليس كافيًا أن نجعل التكنولوجيا لدينا أقوى.
02:17
We alsoأيضا have to figureالشكل out,
if we're going to be really ambitiousطموح,
40
125560
3175
بل يجب علينا أن نعرف، هل سنكون حقًا طموحين
02:20
how to steerقيادة it
41
128759
1416
فيما يتعلق بتوجيهها
02:22
and where we want to go with it.
42
130199
1681
وإلى أين نريد الذهاب بها.
02:24
So let's talk about all threeثلاثة
for artificialمصطنع intelligenceالمخابرات:
43
132880
2840
إذن لنتحدث عن هذه المحاور الثلاثة
في مجال الذكاء الاصطناعي:
02:28
the powerقوة, the steeringتوجيه
and the destinationالمكان المقصود.
44
136440
3056
القوة والقيادة والوجهة.
02:31
Let's startبداية with the powerقوة.
45
139520
1286
لنبدأ بالحديث عن القوة.
02:33
I defineحدد intelligenceالمخابرات very inclusivelyضمنا --
46
141600
3096
أنا أعرّف الذكاء ضمنيًا
02:36
simplyببساطة as our abilityالقدرة
to accomplishإنجاز complexمركب goalsأهداف,
47
144720
4336
ببساطة على أنه قدرتنا
على إنجاز أهداف معقدة،
02:41
because I want to includeتتضمن bothكلا
biologicalبيولوجي and artificialمصطنع intelligenceالمخابرات.
48
149080
3816
لأنني أريد أن أشمل
كلا من الذكاء الحيوي والاصطناعي.
02:44
And I want to avoidتجنب
the sillyسخيف carbon-chauvinismالكربون الشوفينية ideaفكرة
49
152920
4016
وأرغب بتجنب
فكرة "الشوفينية الكربونية" السخيفة
02:48
that you can only be smartذكي
if you're madeمصنوع of meatلحم.
50
156960
2360
بأنك لا تكون ذكيًا
إلا إذا كنت مصنوعًا من لحم.
02:52
It's really amazingرائعة حقا how the powerقوة
of AIAI has grownنابعة recentlyمؤخرا.
51
160880
4176
إنه لمذهل حقًا كيف تطورت
فكرة الذكاء الاصطناعي مؤخرًا.
02:57
Just think about it.
52
165080
1256
فكروا بالأمر فحسب.
02:58
Not long agoمنذ, robotsالروبوتات couldn'tلم أستطع walkسير.
53
166360
3200
حتى وقتٍ قريب، لم تكن الروبوتات
قادرة على السير.
03:03
Now, they can do backflipsbackflips.
54
171040
1720
الآن، تستطيع القفز متأرجحةً للخلف.
03:06
Not long agoمنذ,
55
174080
1816
حتى وقت قريب،
03:07
we didn't have self-drivingالقيادة الذاتية carsالسيارات.
56
175920
1760
لم نمتلك سيارات ذاتية القيادة.
03:10
Now, we have self-flyingالطيران الذاتي rocketsصواريخ.
57
178920
2480
الآن، لدينا صواريخ ذاتية التحليق.
03:15
Not long agoمنذ,
58
183960
1416
حتى وقت قريب،
03:17
AIAI couldn'tلم أستطع do faceوجه recognitionالتعرف على.
59
185400
2616
لم يكن الذكاء الاصطناعي قادرًا
على التعرف على الوجوه.
03:20
Now, AIAI can generateتوفير fakeمزورة facesوجوه
60
188040
2976
الآن، الذكاء الاصطناعي لديه القدرة
على توليد وجوه مزيفة.
03:23
and simulateمحاكاة your faceوجه
sayingقول stuffأمور that you never said.
61
191040
4160
ومحاكاة وجهك لقول أشياء لم تقلها أبدًا
03:28
Not long agoمنذ,
62
196400
1576
حتى وقت قريب،
كان الذكاء الاصطناعي عاجزًا
عن هزيمتنا في لعبة "غو".
03:30
AIAI couldn'tلم أستطع beatتغلب us at the gameلعبه of Go.
63
198000
1880
03:32
Then, Googleجوجل DeepMind'sوDeepMind AlphaZeroالفازيرو AIAI
tookأخذ 3,000 yearsسنوات of humanبشري Go gamesألعاب
64
200400
5096
ثم أَخَذَ ألفا زيرو من "جوجل ديب مايند"
3000 سنة من ألعاب "غو" التي لعبها البشر
03:37
and Go wisdomحكمة,
65
205520
1256
واستراتيجة اللعبة،
03:38
ignoredتجاهل it all and becameأصبح the world'sالعالم bestالأفضل
playerلاعب by just playingتلعب againstضد itselfبحد ذاتها.
66
206800
4976
وتجاهل ذلك كله، ليصبح أفضل لاعب في العالم
فقط باللعب ضد نفسه.
03:43
And the mostعظم impressiveمحرج featعمل here
wasn'tلم يكن that it crushedمهروس humanبشري gamersالألعاب,
67
211800
3696
والأكثر إثارة للإعجاب
لم يكن سحقه للاعبين بشر،
03:47
but that it crushedمهروس humanبشري AIAI researchersالباحثين
68
215520
2576
لكن حقيقة أنه هزم
باحثين في الذكاء الاصطناعي
03:50
who had spentأنفق decadesعقود
handcraftingالمهارة اليدوية game-playingلعبة اللعب softwareالبرمجيات.
69
218120
3680
أمضوا عشرات السنين
في تصميم برمجيات قادرة على اللعب.
03:54
And AlphaZeroالفازيرو crushedمهروس humanبشري AIAI researchersالباحثين
not just in Go but even at chessشطرنج,
70
222200
4656
ولم يسحق ألفا زيرو الباحثين في لعبة "غو" فحسب
بل في الشطرنج أيضًا،
03:58
whichالتي we have been workingعامل on sinceمنذ 1950.
71
226880
2480
والتي كانوا يعملون عليها منذ عام 1950.
04:02
So all this amazingرائعة حقا recentالأخيرة progressتقدم in AIAI
really begsيتسول the questionسؤال:
72
230000
4240
لهذا كل هذا التطور الحديث
في الذكاء الاصطناعي يطرح التساؤل:
04:07
How farبعيدا will it go?
73
235280
1560
إلى أي مدى سيصل هذا الذكاء؟
04:09
I like to think about this questionسؤال
74
237800
1696
أنا أحب التفكير بهذا السؤال
04:11
in termsشروط of this abstractنبذة مختصرة
landscapeالمناظر الطبيعيه of tasksمهام,
75
239520
2976
من منطلق هذا الملخص لتضاريس المهام،
04:14
where the elevationارتفاع representsيمثل
how hardالصعب it is for AIAI to do eachكل taskمهمة
76
242520
3456
حيث الارتفاع يمثل مدى صعوبة
قيام الذكاء الاصطناعي بالمهمة
04:18
at humanبشري levelمستوى,
77
246000
1216
بنفس المستوى البشري
04:19
and the seaبحر levelمستوى representsيمثل
what AIAI can do todayاليوم.
78
247240
2760
ويمثل مستوى البحر
ما يستطيع الذكاء الاصطناعي فعله اليوم.
04:23
The seaبحر levelمستوى is risingارتفاع
as AIAI improvesيحسن,
79
251120
2056
مستوى البحر يرتفع والذكاء الاصطناعي يتطور،
04:25
so there's a kindطيب القلب of globalعالمي warmingتسخين
going on here in the taskمهمة landscapeالمناظر الطبيعيه.
80
253200
3440
لهذا يوجد نوع من الاحتباس الحراري يحدث
هنا على مخطط تضاريس المهام.
04:30
And the obviousواضح takeawayيبعد
is to avoidتجنب careersوظائف at the waterfrontالواجهة البحرية --
81
258040
3335
والرسالة الواضحة هنا، هي تجنب
الوظائف على الواجهة البحرية...
04:33
(Laughterضحك)
82
261399
1257
(ضحك)
04:34
whichالتي will soonهكذا be
automatedالآلي and disruptedتعطلت.
83
262680
2856
والتي ستصبح قريبا، وظائف آلية وغير متاحة.
04:37
But there's a much
biggerأكبر questionسؤال as well.
84
265560
2976
ولكن هناك أيضًا سؤال أكبر بكثير
04:40
How highمتوسط will the waterماء endالنهاية up risingارتفاع?
85
268560
1810
إلى أي مدى سترتفع المياه؟
04:43
Will it eventuallyفي النهاية riseترتفع
to floodفيضان everything,
86
271440
3200
هل ستنتهي بإغراق كل شيء؟
04:47
matchingمطابقة humanبشري intelligenceالمخابرات at all tasksمهام.
87
275840
2496
وتوازي الذكاء البشري في كل المهام
04:50
This is the definitionفريف
of artificialمصطنع generalجنرال لواء intelligenceالمخابرات --
88
278360
3736
هذا هو تعريف الذكاء الاصطناعي العام...
04:54
AGIكونا,
89
282120
1296
أو ال(إيه جي آي)،
04:55
whichالتي has been the holyمقدس grailالكأس
of AIAI researchابحاث sinceمنذ its inceptionبداية.
90
283440
3080
والذي يمثل الكأس المقدسة لأبحاث
الذكاء الاصطناعي منذ نشأتها.
بحسب هذا التعريف الأشخاص الذين يقولون:
04:59
By this definitionفريف, people who say,
91
287000
1776
05:00
"Ahآه, there will always be jobsوظائف
that humansالبشر can do better than machinesآلات,"
92
288800
3416
"آه، ستبقى هنالك دومًا تلك الأعمال
التي يؤديها البشر أفضل من الآلات".
05:04
are simplyببساطة sayingقول
that we'llحسنا never get AGIكونا.
93
292240
2920
ببساطة يقولون إننا لن نحصل
على الذكاء الاصطناعي العام.
05:07
Sure, we mightربما still chooseأختر
to have some humanبشري jobsوظائف
94
295680
3576
بالتأكيد، قد نختار الإبقاء
على بعض الوظائف البشرية
05:11
or to give humansالبشر incomeالإيرادات
and purposeغرض with our jobsوظائف,
95
299280
3096
أو أن نمنح البشر الدخل والهدف
من خلال الأعمال،
05:14
but AGIكونا will in any caseقضية
transformتحول life as we know it
96
302400
3736
لكن الذكاء الاصطناعي العام على كل حال
سوف يحول الحياة كما نعرفها
05:18
with humansالبشر no longerطويل beingيجرى
the mostعظم intelligentذكي.
97
306160
2736
إلى حياة حيث البشر ليسوا الأذكى.
05:20
Now, if the waterماء levelمستوى does reachتصل AGIكونا,
98
308920
3696
الآن، في حال وصل مستوى الماء
إلى (إيه جي آي)
05:24
then furtherبالإضافة إلى ذلك AIAI progressتقدم will be drivenتحركها
mainlyفي الأساس not by humansالبشر but by AIAI,
99
312640
5296
فإن أي تقدم أكبر في الذكاء الاصطناعي
لن يقوده البشر بل الذكاء الاصطناعي نفسه
05:29
whichالتي meansيعني that there's a possibilityإمكانية
100
317960
1856
مما يعني أن هنالك احتمال
05:31
that furtherبالإضافة إلى ذلك AIAI progressتقدم
could be way fasterبسرعة
101
319840
2336
بأن يصبح التقدم في الذكاء الاصطناعي
أسرع بكثير
05:34
than the typicalنموذجي humanبشري researchابحاث
and developmentتطوير timescaleالجدول الزمني of yearsسنوات,
102
322200
3376
من الأبحاث البشرية النموذجية
والمقياس الزمني للتطور لسنوات،
05:37
raisingمقوي the controversialمثيرة للجدل possibilityإمكانية
of an intelligenceالمخابرات explosionانفجار
103
325600
4016
مثيرًا الاحتمالية المثيرة للجدل
حول انفجار في مستوى الذكاء
05:41
where recursivelyمتكرر self-improving، تحسين الذات AIAI
104
329640
2296
حيث الذكاء الاصطناعي
المطور ذاتيًا بشكل متكرر
05:43
rapidlyبسرعة leavesاوراق اشجار humanبشري
intelligenceالمخابرات farبعيدا behindخلف,
105
331960
3416
يترك بسرعة الذكاء البشري وراءه بكثير،
05:47
creatingخلق what's knownمعروف
as superintelligenceالخارق.
106
335400
2440
مبتكرًا ما يعرف بالذكاء الخارق.
05:51
Alrightحسنا, realityواقع checkالتحقق من:
107
339800
2280
حسنا، لنتحقق من الواقع:
05:55
Are we going to get AGIكونا any time soonهكذا?
108
343120
2440
هل سنحصل على (إيه جي آي)
في أي وقت قريب؟
05:58
Some famousمشهور AIAI researchersالباحثين,
like Rodneyرودني Brooksبروكس,
109
346360
2696
بعض باحثي الذكاء الاصطناعي المشاهير
مثل رودني بروكس
06:01
think it won'tمتعود happenيحدث
for hundredsالمئات of yearsسنوات.
110
349080
2496
يعتقدون بأن هذا لن يحدث لمئات السنين.
06:03
But othersالآخرين, like Googleجوجل DeepMindديبميند
founderمؤسس Demisديميس Hassabisهسابيس,
111
351600
3896
لكن آخرين مثل مؤسس "جوجل ديب مايند"
ديميس هاسابس
06:07
are more optimisticمتفائل
112
355520
1256
أكثر تفاؤلا
06:08
and are workingعامل to try to make
it happenيحدث much soonerعاجلا.
113
356800
2576
ويعملون لجعلها تحدث في وقت أقرب بكثير.
06:11
And recentالأخيرة surveysالدراسات الاستقصائية have shownأظهرت
that mostعظم AIAI researchersالباحثين
114
359400
3296
وإضافة إلى ذلك أظهرت دراسات أن أغلب
باحثي الذكاء الاصطناعي
06:14
actuallyفعلا shareشارك Demis'sديليس optimismالتفاؤل,
115
362720
2856
في الحقيقة يشاركون "ديميس" تفاؤله.
06:17
expectingتتوقع that we will
get AGIكونا withinفي غضون decadesعقود,
116
365600
3080
متوقعين أننا سنحصل على الـ(إيه جي آي)
في غضون عقود.
06:21
so withinفي غضون the lifetimeأوقات الحياة of manyكثير of us,
117
369640
2256
أي خلال حياة العديد منا.
06:23
whichالتي begsيتسول the questionسؤال -- and then what?
118
371920
1960
وهنا يطرح السؤال: ثم ماذا؟
06:27
What do we want the roleوظيفة of humansالبشر to be
119
375040
2216
ماذا نريد من البشر أن يفعلوا
06:29
if machinesآلات can do everything better
and cheaperأرخص than us?
120
377280
2680
إذا استطاعت الآلات فعل كل شيء
بشكل أفضل وأوفر منا؟
06:35
The way I see it, we faceوجه a choiceخيار.
121
383000
2000
أنا أرى بأننا أمام خيارين.
06:38
One optionاختيار is to be complacentالرضا.
122
386000
1576
أحد الخيارات هو أن نكون راضين.
06:39
We can say, "Oh, let's just buildبناء machinesآلات
that can do everything we can do
123
387600
3776
نستطيع أن نقول: "أوه، هيا لنبني آلات
تستطيع عمل كل شيء نعمله
06:43
and not worryقلق about the consequencesالآثار.
124
391400
1816
ولا نقلق حول العواقب.
06:45
Come on, if we buildبناء technologyتقنية
that makesيصنع all humansالبشر obsoleteعفا عليها الزمن,
125
393240
3256
إذا بنينا تكنولوجيا من شأنها
جعل كل البشر عديمي الجدوى
06:48
what could possiblyربما go wrongخطأ?"
126
396520
2096
ما العواقب التي يمكن أن تحدث؟"
06:50
(Laughterضحك)
127
398640
1656
(ضحك)
06:52
But I think that would be
embarrassinglyإلى حد مربك lameأعرج.
128
400320
2760
ولكني أعتقد بأنه سيكون ضعفًا محرجًا.
06:56
I think we should be more ambitiousطموح --
in the spiritروح of TEDTED.
129
404080
3496
أعتقد بأننا يجب أن نمتلك طموحًا أكبر،
اقتداءً بTED.
06:59
Let's envisionتصور a trulyحقا inspiringالملهمة
high-techتقنية عالية futureمستقبل
130
407600
3496
دعونا نتصور مستقبلاً ملهمًا
بتكنولوجيا عالية
07:03
and try to steerقيادة towardsتجاه it.
131
411120
1400
ونحاول التوجه نحوه.
07:05
This bringsتجمع us to the secondثانيا partجزء
of our rocketصاروخ metaphorتشابه مستعار: the steeringتوجيه.
132
413720
3536
هذا يأخذنا إلى الجزء الثاني
من خطتنا الصاروخية: التوجيه.
07:09
We're makingصناعة AIAI more powerfulقوي,
133
417280
1896
نحن نجعل الذكاء الاصطناعي أكثر قوة
07:11
but how can we steerقيادة towardsتجاه a futureمستقبل
134
419200
3816
ولكن كيف يمكننا التوجه نحو المستقبل
07:15
where AIAI helpsيساعد humanityإنسانية flourishتزدهر
ratherبدلا than flounderتخبط?
135
423040
3080
وجعل الذكاء الاصطناعي عونًا
لازدهار البشرية عوضًا عن تعثرها؟
07:18
To help with this,
136
426760
1256
لتحقيق ذلك،
07:20
I cofoundedكفووندد the Futureمستقبل of Life Instituteمعهد.
137
428040
1976
ساعدت ببناء مؤسسة "مستقبل الحياة"
07:22
It's a smallصغير nonprofitغير ربحية promotingتعزيز
beneficialمفيد technologyتقنية use,
138
430040
2776
وهي جمعية خيرية لتعزيز
استخدام التكنولوجيا المفيدة
07:24
and our goalهدف is simplyببساطة
for the futureمستقبل of life to existيوجد
139
432840
2736
وهدفنا ببساطة يتمثل في خلق مستقبل للحياة.
07:27
and to be as inspiringالملهمة as possibleممكن.
140
435600
2056
وأن نكون ملهمين قدر الإمكان
07:29
You know, I love technologyتقنية.
141
437680
3176
أتعلمون، أنا أحب التكنولوجيا.
07:32
Technologyتقنية is why todayاليوم
is better than the Stoneحجر Ageعمر.
142
440880
2920
التكنولوجيا هي السبب في كون الحاضر
أفضل من العصور الحجرية.
07:36
And I'm optimisticمتفائل that we can createخلق
a really inspiringالملهمة high-techتقنية عالية futureمستقبل ...
143
444600
4080
وأنا متفائل بأننا نستطيع
ابتكار مستقبل تكنولوجي حديث مثير
07:41
if -- and this is a bigكبير if --
144
449680
1456
إذا...وهذا افتراض كبير...
07:43
if we winيفوز the wisdomحكمة raceسباق --
145
451160
2456
إذا كسبنا مسابقة الحكمة...
07:45
the raceسباق betweenما بين the growingمتزايد
powerقوة of our technologyتقنية
146
453640
2856
هذه المسابقة بين القوة النامية للتكنولوجيا
07:48
and the growingمتزايد wisdomحكمة
with whichالتي we manageتدبير it.
147
456520
2200
والحكمة النامية التي نديرها بها.
07:51
But this is going to requireتطلب
a changeيتغيرون of strategyإستراتيجية
148
459240
2296
ولكن هذا الفوز يتطلب تغييرًا
في الاستراتيجية.
07:53
because our oldقديم strategyإستراتيجية
has been learningتعلم from mistakesالأخطاء.
149
461560
3040
لأن استراتيجيتنا القديمة
مبنية على التعلم من الأخطاء.
07:57
We inventedاخترع fireنار,
150
465280
1536
نحن اخترعنا النار،
07:58
screwedثمل up a bunchباقة of timesمرات --
151
466840
1536
أخفقنا عدة مرات...
08:00
inventedاخترع the fireنار extinguisherمطفاه.
152
468400
1816
ثم اخترعنا طفاية الحريق.
08:02
(Laughterضحك)
153
470240
1336
(ضحك)
08:03
We inventedاخترع the carسيارة,
screwedثمل up a bunchباقة of timesمرات --
154
471600
2416
نحن اخترعنا السيارة،
أخفقنا عدة مرات...
08:06
inventedاخترع the trafficحركة المرور lightضوء,
the seatمقعد beltحزام and the airbagوسادة هوائية,
155
474040
2667
فاخترعنا إشارة المرور وحزام الأمان
والوسادة الهوائية
08:08
but with more powerfulقوي technologyتقنية
like nuclearنووي weaponsأسلحة and AGIكونا,
156
476731
3845
ولكن مع تكنولوجيا أكثر قوة كالسلاح النووي
والذكاء الاصطناعي،
08:12
learningتعلم from mistakesالأخطاء
is a lousyقذر strategyإستراتيجية,
157
480600
3376
فالتعلم من الأخطاء استراتيجية سيئة،
08:16
don't you think?
158
484000
1216
أليس كذلك؟
08:17
(Laughterضحك)
159
485240
1016
(ضحك)
08:18
It's much better to be proactiveاستباقي
ratherبدلا than reactiveتفاعلي;
160
486280
2576
الأفضل هو أن تكون فاعلًا
عوضًا عن كونك متفاعلًا،
08:20
planخطة aheadالمكانية and get things
right the first time
161
488880
2296
خطط مسبقًا وليكن كل شيء صحيحًا
منذ المرة الأولى
08:23
because that mightربما be
the only time we'llحسنا get.
162
491200
2496
لأنها قد تكون الفرصة الوحيدة المتاحة لك.
08:25
But it is funnyمضحك because
sometimesبعض الأحيان people tell me,
163
493720
2336
ولكن الأمر مضحك لأن الناس
يقولون لي في بعض الأحيان:
08:28
"Maxماكس, shhhSHHH, don't talk like that.
164
496080
2736
"ماكس، صه لا تتكلم هكذا.
08:30
That's Ludditeاضيه scaremongeringيكف."
165
498840
1720
هذا ترهيب وتخويف أعداء التكنولوجيا".
08:34
But it's not scaremongeringيكف.
166
502040
1536
ولكنه ليس تخويفًا أو ترهيبًا.
08:35
It's what we at MITMIT
call safetyسلامة engineeringهندسة.
167
503600
2880
إنه ما نطلق عليه في جامعة ماساتشوستس
ب"الهندسة الآمنة".
08:39
Think about it:
168
507200
1216
فكروا بالأمر:
08:40
before NASANASA launchedأطلقت
the Apolloأبولو 11 missionمهمة,
169
508440
2216
قبل أن تطلق ناسا مركبة أبولو 13،
08:42
they systematicallyمنهجي thought throughعبر
everything that could go wrongخطأ
170
510680
3136
فكروا بطريقة منظمة بكل خطأ محتمل حدوثه
08:45
when you put people
on topأعلى of explosiveمادة متفجرة fuelوقود tanksالدبابات
171
513840
2376
عندما تضع أشخاصًا
على رأس خزانات وقود متفجرة
08:48
and launchإطلاق them somewhereمكان ما
where no one could help them.
172
516240
2616
وترسلهم لمكان حيث لا يستطيع أحد مساعدتهم.
08:50
And there was a lot that could go wrongخطأ.
173
518880
1936
وكانت هناك الكثير من الأخطاء المحتملة.
08:52
Was that scaremongeringيكف?
174
520840
1480
هل كان ذلك تخويفًا وترهيبًا؟
08:55
No.
175
523159
1217
لا.
08:56
That's was preciselyعلى وجه التحديد
the safetyسلامة engineeringهندسة
176
524400
2016
لقد كان بالضبط "الهندسة الآمنة"
08:58
that ensuredمكفول the successنجاح of the missionمهمة,
177
526440
1936
التي ضمنت نجاح المهمة.
09:00
and that is preciselyعلى وجه التحديد the strategyإستراتيجية
I think we should take with AGIكونا.
178
528400
4176
وهذه بالتحديد الاستراتيجية التي أعتقد
بوجوب اتخاذها مع الذكاء الاصطناعي
09:04
Think throughعبر what can go wrongخطأ
to make sure it goesيذهب right.
179
532600
4056
فكر بكل خطأ يحتمل أن يحدث
لتتأكد من فعل الأمر بالشكل الصحيح.
09:08
So in this spiritروح,
we'veقمنا organizedمنظم conferencesالمؤتمرات,
180
536680
2536
وبهذا الفكر، نظمنا مؤتمرات
09:11
bringingجلب togetherسويا leadingقيادة
AIAI researchersالباحثين and other thinkersالمفكرين
181
539240
2816
لجمع قادة باحثي الذكاء الاصطناعي
والمفكرين الآخرين
09:14
to discussمناقشة how to growتنمو this wisdomحكمة
we need to keep AIAI beneficialمفيد.
182
542080
3736
لمناقشة كيفية تنمية هذه الفلسفة
التي نحتاجها لجعل الذكاء الاصناعي مفيدًا.
09:17
Our last conferenceمؤتمر
was in Asilomarاسيلمار, Californiaكاليفورنيا last yearعام
183
545840
3296
عُقد آخر مؤتمر السنة الماضية
في أسيلمار، كالفورنيا
09:21
and producedأنتجت this listقائمة of 23 principlesمبادئ
184
549160
3056
وقُدِّمت خلاله قائمة بثلاثة وعشرين مبدأ
09:24
whichالتي have sinceمنذ been signedوقعت
by over 1,000 AIAI researchersالباحثين
185
552240
2896
وقَّع عليها أكثر من ألف باحث
في الذكاء الاصطناعي
09:27
and keyمفتاح industryصناعة leadersقادة,
186
555160
1296
والقادة في هذه الصناعة.
09:28
and I want to tell you
about threeثلاثة of these principlesمبادئ.
187
556480
3176
وأريد أن أخبركم عن ثلاثة من هذه المبادئ.
09:31
One is that we should avoidتجنب an armsأسلحة raceسباق
and lethalقاتل autonomousواثق من نفسه weaponsأسلحة.
188
559680
4960
أحدها هو أنه يجدر بنا تجنب سباق التسلح
والأسلحة الذاتية القاتلة.
09:37
The ideaفكرة here is that any scienceعلم
can be used for newالجديد waysطرق of helpingمساعدة people
189
565480
3616
الفكرة هنا هو أن أي علم يمكن استخدامه
كطرق جديدة في خدمة البشر،
09:41
or newالجديد waysطرق of harmingإيذاء people.
190
569120
1536
أو كطرق جديدة في إيذاء البشر.
09:42
For exampleمثال, biologyمادة الاحياء and chemistryكيمياء
are much more likelyالمحتمل أن to be used
191
570680
3936
على سبيل المثال: الأحياء والكيمياء
تُستخدم عادةً
09:46
for newالجديد medicinesأدوية or newالجديد curesعلاج
than for newالجديد waysطرق of killingقتل people,
192
574640
4856
في العلاج والأدوية الجديدة أكثر
من استخدامها في الطرق الجديدة لقتل البشر.
09:51
because biologistsعلماء الأحياء
and chemistsالكيميائيين pushedدفع hardالصعب --
193
579520
2176
لأن علماء الأحياء والكيمياء حاربوا بقوة
09:53
and successfullyبنجاح --
194
581720
1256
وبنجاح
09:55
for bansحظر on biologicalبيولوجي
and chemicalالمواد الكيميائية weaponsأسلحة.
195
583000
2176
لحظر وإدانة الأسلحة الكيميائية والبيولوجية
09:57
And in the sameنفسه spiritروح,
196
585200
1256
وبنفس الفكر،
09:58
mostعظم AIAI researchersالباحثين want to stigmatizeوصم
and banالمنع lethalقاتل autonomousواثق من نفسه weaponsأسلحة.
197
586480
4440
يريد باحثو الذكاء الاصطناعي إدانة
وحظر الأسلحة القاتلة الذاتية.
10:03
Anotherآخر Asilomarاسيلمار AIAI principleالمبدأ
198
591600
1816
ومن مبادئ أسيلمار للذكاء الاصطناعي
10:05
is that we should mitigateتخفيف
AI-fueledالذكاء الاصطناعي التغذية incomeالإيرادات inequalityعدم المساواة.
199
593440
3696
هو وجوب تخفيف عدم المساواة
في الدخل المرتبط بالذكاء الاصطناعي
10:09
I think that if we can growتنمو
the economicاقتصادي pieفطيرة dramaticallyبشكل كبير with AIAI
200
597160
4456
أعتقد بأنه إذا استطعنا تنمية الكعكة
الاقتصادية بشكل كبير مع الذكاء الاصطناعي
10:13
and we still can't figureالشكل out
how to divideيقسم this pieفطيرة
201
601640
2456
وما زلنا لا نستطيع معرفة كيفية
توزيع هذه الكعكة
10:16
so that everyoneكل واحد is better off,
202
604120
1576
بحيث يكون الجميع بحال أفضل،
10:17
then shameعار on us.
203
605720
1256
فعارٌ علينا!
10:19
(Applauseتصفيق)
204
607000
4096
(تصفيق)
10:23
Alrightحسنا, now raiseربى your handيد
if your computerالحاسوب has ever crashedتحطم.
205
611120
3600
حسنًا، الآن ارفعوا أيديكم في حال
تعطل حاسوبكم أحد المرات.
10:27
(Laughterضحك)
206
615480
1256
(ضحك)
10:28
Wowرائع, that's a lot of handsأيادي.
207
616760
1656
واو، هذه أيدٍ كثيرة.
10:30
Well, then you'llعليك appreciateنقدر
this principleالمبدأ
208
618440
2176
حسنًا، إذن ستقدرون هذا المبدأ
10:32
that we should investاستثمار much more
in AIAI safetyسلامة researchابحاث,
209
620640
3136
والذي يقتضي زيادة الاستثمار
في أبحاث أمان الذكاء الاصطناعي،
10:35
because as we put AIAI in chargeالشحنة
of even more decisionsقرارات and infrastructureبنية تحتية,
210
623800
3656
لأننا إذا جعلنا الذكاء الاصطناعي مسؤولًا
عن البنية التحتية وعن قرارات أكثر،
10:39
we need to figureالشكل out how to transformتحول
today'sاليوم buggyبوجي and hackablehackable computersأجهزة الكمبيوتر
211
627480
3616
سنحتاج لمعرفة كيفية نقل مركبات
الحواسيب القابلة للاختراق اليوم
10:43
into robustقوي AIAI systemsأنظمة
that we can really trustثقة,
212
631120
2416
إلى روبورتات ذكية
بشكل نستطيع معه الثقة بها،
10:45
because otherwiseغير ذلك,
213
633560
1216
لأنه بخلاف ذلك،
10:46
all this awesomeرائع newالجديد technologyتقنية
can malfunctionعطل and harmضرر us,
214
634800
2816
فكل التكنولوجيا الجديدة المدهشة
قد تتعطل وتؤذينا،
10:49
or get hackedاخترق and be turnedتحول againstضد us.
215
637640
1976
أو تُخترَق وتُقلب ضدنا.
10:51
And this AIAI safetyسلامة work
has to includeتتضمن work on AIAI valueالقيمة alignmentانتقام,
216
639640
5696
ونظام الأمان هذا يجب
أن يشمل العمل على القيم المحايدة،
10:57
because the realحقيقة threatالتهديد
from AGIكونا isn't maliceحقد,
217
645360
2816
لأن التهديد الأكبر من الذكاء الاصطناعي
العام ليس الإيذاء،
11:00
like in sillyسخيف Hollywoodهوليوود moviesأفلام,
218
648200
1656
كما في أفلام هوليوود التافهة،
11:01
but competenceمهارة --
219
649880
1736
بل المنافسة...
11:03
AGIكونا accomplishingإنجاز goalsأهداف
that just aren'tلا alignedالانحياز with oursلنا.
220
651640
3416
(إيه جي آي) يحقق أهدافًا لا تتماشى معنا.
11:07
For exampleمثال, when we humansالبشر droveقاد
the Westغرب Africanالأفريقي blackأسود rhinoوحيد القرن extinctينقرض,
221
655080
4736
على سبيل المثال: عندما تسببنا نحن البشر
بانقراض وحيد القرن بغرب أفريقيا،
11:11
we didn't do it because we were a bunchباقة
of evilشر rhinocerosوحيد القرن hatersكارهي, did we?
222
659840
3896
لم نفعلها لأننا كنا أشرار
كارهين لوحيد القرن، أليس كذلك؟
11:15
We did it because
we were smarterأكثر ذكاء than them
223
663760
2056
لقد فعلنا ذلك لأننا أذكى منهم
11:17
and our goalsأهداف weren'tلم تكن alignedالانحياز with theirsلهم.
224
665840
2576
وأهدافنا لم تتماشى مع أهدافهم.
11:20
But AGIكونا is by definitionفريف smarterأكثر ذكاء than us,
225
668440
2656
ولكن الذكاء الاصطناعي العام أذكى منا،
11:23
so to make sure that we don't put
ourselvesأنفسنا in the positionموضع of those rhinosوحيد القرن
226
671120
3576
ولذلك لنتأكد بأننا لم نضع أنفسنا
في موقف وحيدي القرن
11:26
if we createخلق AGIكونا,
227
674720
1976
عند صنعنا للذكاء الاصطناعي العام،
11:28
we need to figureالشكل out how
to make machinesآلات understandتفهم our goalsأهداف,
228
676720
4176
سنحتاج لمعرفة كيف نصنع آلات تفهم أهدافنا،
11:32
adoptتبنى our goalsأهداف and retainاحتفظ our goalsأهداف.
229
680920
3160
تتبنى أهدافنا وتحتفظ بها.
11:37
And whoseملك من goalsأهداف should these be, anywayعلى أي حال?
230
685320
2856
وأهداف من يجب أن تكون هذه الأهداف؟
11:40
Whichالتي goalsأهداف should they be?
231
688200
1896
أي أهداف ستكون هي الأهداف المرغوبة؟
11:42
This bringsتجمع us to the thirdالثالث partجزء
of our rocketصاروخ metaphorتشابه مستعار: the destinationالمكان المقصود.
232
690120
3560
هذا يأخذنا إلى الجزء الثالث وهو: الوجهة.
11:47
We're makingصناعة AIAI more powerfulقوي,
233
695160
1856
نحن نجعل الذكاء الاصطناعي أكثر قوة،
11:49
tryingمحاولة to figureالشكل out how to steerقيادة it,
234
697040
1816
ونحاول أن نعرف كيف نوجهه،
11:50
but where do we want to go with it?
235
698880
1680
ولكن أين نريد التوجه به؟
11:53
This is the elephantفيل in the roomمجال
that almostتقريبيا nobodyلا أحد talksمحادثات about --
236
701760
3656
هذا هو "الفيل الذي بالغرفة"
الذي لا يريد أحد التحدث عنه...
11:57
not even here at TEDTED --
237
705440
1856
حتى هنا في TED...
11:59
because we're so fixatedتركز اهتمامها
on short-termالمدى القصير AIAI challengesالتحديات.
238
707320
4080
لأننا نركز اهتمامنا
على تحديات الذكاء الاصطناعي قصيرة المدى.
12:04
Look, our speciesمحيط is tryingمحاولة to buildبناء AGIكونا,
239
712080
4656
انظروا، أمثالنا يحاولون بناء الذكاء
الاصطناعي العام
12:08
motivatedمتحفز، مندفع by curiosityحب الاستطلاع and economicsاقتصاديات,
240
716760
3496
يدفعهم لذلك حب الاستطلاع والربح
12:12
but what sortفرز of futureمستقبل societyالمجتمع
are we hopingيأمل for if we succeedينجح?
241
720280
3680
ولكن ما هو المجتمع المستقبلي
الذي نريد بناءه إذا نجحنا؟
12:16
We did an opinionرأي pollتصويت on this recentlyمؤخرا,
242
724680
1936
عملنا استطلاع رأي مؤخرًا بهذا الشأن،
12:18
and I was struckأصابت to see
243
726640
1216
وقد كنت مندهشًا لرؤية
12:19
that mostعظم people actuallyفعلا
want us to buildبناء superintelligenceالخارق:
244
727880
2896
أن غالبية الأشخاص
أرادوا أن نبني الذكاء الخارق:
12:22
AIAI that's vastlyإلى حد كبير smarterأكثر ذكاء
than us in all waysطرق.
245
730800
3160
الذكاء الاصطناعي الذي يفوقنا ذكاءً
بمراحل كثيرة.
12:27
What there was the greatestأعظم agreementاتفاقية on
was that we should be ambitiousطموح
246
735120
3416
وكان هناك اتفاق عظيم في الرأي يقتضي
أنه يجب علينا أن نكون طموحين
12:30
and help life spreadانتشار into the cosmosكون,
247
738560
2016
ونساعد في نشر الحياة بالكون،
12:32
but there was much lessأقل agreementاتفاقية
about who or what should be in chargeالشحنة.
248
740600
4496
ولكن كان هناك اتفاق أقل بكثير حول
من سيكون مسؤولاً عنه.
12:37
And I was actuallyفعلا quiteالى حد كبير amusedمسليا
249
745120
1736
وحقيقةً لقد كنت مستمتعًا
12:38
to see that there's some some people
who want it to be just machinesآلات.
250
746880
3456
برؤية أن هناك عدد من الأشخاص أرادوا
أن تكون الآلات فقط هي المسؤولة.
12:42
(Laughterضحك)
251
750360
1696
(ضحك)
12:44
And there was totalمجموع disagreementخلاف
about what the roleوظيفة of humansالبشر should be,
252
752080
3856
وكان هناك اختلاف كبير في الآراء
حول دور البشر المستقبلي،
12:47
even at the mostعظم basicالأساسية levelمستوى,
253
755960
1976
حتى في المستويات الأساسية،
12:49
so let's take a closerأقرب look
at possibleممكن futuresالعقود الآجلة
254
757960
2816
لذلك دعونا نلقي نظرة على المستقبل المحتمل
12:52
that we mightربما chooseأختر
to steerقيادة towardباتجاه, alrightحسنا?
255
760800
2736
الذي قد نتجه نحوه، حسنًا؟
12:55
So don't get be wrongخطأ here.
256
763560
1336
لا تفهموني بشكل خاطئ.
12:56
I'm not talkingالحديث about spaceالفراغ travelالسفر,
257
764920
2056
لست أتحدث عن السفر عبر الفضاء،
12:59
merelyمجرد about humanity'sالبشرية
metaphoricalمجازي journeyرحلة into the futureمستقبل.
258
767000
3200
بل حول رحلة البشر المجازية تجاه المستقبل.
13:02
So one optionاختيار that some
of my AIAI colleaguesالزملاء like
259
770920
3496
أحد الخيارات والذي أعجب أحد زملائي
13:06
is to buildبناء superintelligenceالخارق
and keep it underتحت humanبشري controlمراقبة,
260
774440
3616
يقتضي أن نبني الذكاء الخارق
ونجعله تحت سيطرة البشر،
13:10
like an enslavedمستعبد god,
261
778080
1736
كإله مستعبَد،
13:11
disconnectedانقطع الاتصال from the internetالإنترنت
262
779840
1576
بحيث يكون مفصولًا عن الإنترنت
13:13
and used to createخلق unimaginableغير معقول
technologyتقنية and wealthثروة
263
781440
3256
ويستخدم لخلق تكنولوجيا وثروة هائلة
13:16
for whoeverمن controlsضوابط it.
264
784720
1240
لصالح من يديرها.
13:18
But Lordرب Actonأكتون warnedحذر us
265
786800
1456
ولكن لورد أكتون حذرنا
13:20
that powerقوة corruptsتفسد,
and absoluteمطلق powerقوة corruptsتفسد absolutelyإطلاقا,
266
788280
3616
من أن السلطة قد تخلق الفساد
والسلطة المطلقة ستخلق الفساد بلا شك،
13:23
so you mightربما worryقلق that maybe
we humansالبشر just aren'tلا smartذكي enoughكافية,
267
791920
4056
لذلك قد يثير ذلك القلق
حول عدم امتلاك البشر للذكاء الكافي،
13:28
or wiseحكيم enoughكافية ratherبدلا,
268
796000
1536
أو الحكمة الكافية،
13:29
to handleمقبض this much powerقوة.
269
797560
1240
للتحكم في هذه السلطة والقوة.
13:31
Alsoأيضا, asideجانبا from any
moralأخلاقي qualmsتتورع you mightربما have
270
799640
2536
أيضًا بجانب تأنيب الضمير الذي قد تشعر به
13:34
about enslavingاستعباد superiorمتفوق mindsالعقول,
271
802200
2296
حول استعباد عقول خارقة،
13:36
you mightربما worryقلق that maybe
the superintelligenceالخارق could outsmartفاقه دهاء وحيلة us,
272
804520
3976
يجب عليك أن تقلق حول إمكانية
تفوّق الذكاء الصناعي الخارق علينا،
13:40
breakاستراحة out and take over.
273
808520
2240
ثم يستقل ويتولى الأمور.
13:43
But I alsoأيضا have colleaguesالزملاء
who are fine with AIAI takingمع الأخذ over
274
811560
3416
ولكن بعض زملائي متصالحون
مع فكرة تولي الذكاء الصناعي القيادة
13:47
and even causingمما تسبب في humanبشري extinctionانقراض,
275
815000
2296
بل وحتى إمكانية تسببه بانقراض البشر،
13:49
as long as we feel the the AIsالأوامر الإدارية
are our worthyذو قيمة descendantsأحفاد,
276
817320
3576
ما دمنا نشعر أن أنظمة الذكاء الاصطناعي
هي ورثتنا الكفؤ،
13:52
like our childrenالأطفال.
277
820920
1736
كأبنائنا.
13:54
But how would we know that the AIsالأوامر الإدارية
have adoptedاعتمد our bestالأفضل valuesالقيم
278
822680
5616
ولكن كيف نعرف أن هذه الأنظمة
تمتلك أفضل قيمنا
14:00
and aren'tلا just unconsciousفاقد الوعي zombiesالاموات الاحياء
trickingخداع us into anthropomorphizinganthropomorphizing them?
279
828320
4376
وليست مجرد زومبي غير واع يلاحقنا لتجسيده؟
14:04
Alsoأيضا, shouldn'tلا ينبغي those people
who don't want humanبشري extinctionانقراض
280
832720
2856
أيضًا، ألا يمتلك هؤلاء
الذين لا يريدون فناء البشر
14:07
have a say in the matterشيء, too?
281
835600
1440
رأيًا حول المسألة؟
14:10
Now, if you didn't like eitherإما
of those two high-techتقنية عالية optionsخيارات,
282
838200
3376
الآن إذا لم تعجبك
خيارات التكنولوجيا المتقدمة،
14:13
it's importantمهم to rememberتذكر
that low-techانخفاض التكنولوجيا is suicideانتحار
283
841600
3176
فمن المهم أن تتذكر
بأن التكنولوجيا البسيطة انتحار
14:16
from a cosmicكوني perspectiveإنطباع,
284
844800
1256
من منطلق كوني،
14:18
because if we don't go farبعيدا
beyondوراء today'sاليوم technologyتقنية,
285
846080
2496
لأنه إذا لم نتجاوز تكنولوجيا اليوم،
14:20
the questionسؤال isn't whetherسواء humanityإنسانية
is going to go extinctينقرض,
286
848600
2816
فإن السؤال لن يكون
حول إمكانية انقراض البشر،
14:23
merelyمجرد whetherسواء
we're going to get takenتؤخذ out
287
851440
2016
بل حول إمكانية إخراجنا من النظام الكوني
14:25
by the nextالتالى killerالقاتل asteroidالكويكب, supervolcanoسوبيرفولكانو
288
853480
2136
بواسطة الكويكبات القاتلة والبراكين الضخمة
14:27
or some other problemمشكلة
that better technologyتقنية could have solvedتم حلها.
289
855640
3096
أو مشاكل أخرى
تستطيع التكنولوجيا الحديثة معالجتها.
14:30
So, how about havingوجود
our cakeكيكة and eatingيتناول الطعام it ...
290
858760
3576
لذلك ماذا عن الحصول على كعكتنا ثم تناولها
14:34
with AGIكونا that's not enslavedمستعبد
291
862360
1840
مع ذكاء اصطناعي خارق وغير مستعبد
14:37
but treatsيعامل us well because its valuesالقيم
are alignedالانحياز with oursلنا?
292
865120
3176
ولكن يعاملنا جيدًا لأن لديه قيمًا
تتماشى مع قيمنا؟
14:40
This is the gistجوهر of what Eliezerاليعازر Yudkowskyyudkowsky
has calledمسمي "friendlyودود AIAI,"
293
868320
4176
هذا خلاصة ما كان يدعوه إيليزر يودكاوسكي
بـ"الذكاء الاصطناعي اللطيف"
14:44
and if we can do this,
it could be awesomeرائع.
294
872520
2680
وإذا استطعنا القيام بهذا الأمر
فسيكون أمرًا رائعًا.
14:47
It could not only eliminateالقضاء negativeنفي
experiencesخبرة like diseaseمرض, povertyفقر,
295
875840
4816
فلن يقضي على الأمور السلبية فقط
كالأمراض والفقر
14:52
crimeجريمة and other sufferingمعاناة,
296
880680
1456
والجرائم والمعاناة،
14:54
but it could alsoأيضا give us
the freedomحرية to chooseأختر
297
882160
2816
بل قد تعطينا حرية الاختيار
14:57
from a fantasticرائع newالجديد diversityتنوع
of positiveإيجابي experiencesخبرة --
298
885000
4056
من تنوع جديد وعظيم لتجارب إيجابية...
15:01
basicallyفي الأساس makingصناعة us
the mastersسادة of our ownخاصة destinyمصير.
299
889080
3160
فتجعلنا ببساطة أسياد على مصائرنا.
15:06
So in summaryملخص,
300
894280
1376
خلاصة الأمر،
15:07
our situationموقف with technologyتقنية
is complicatedمعقد,
301
895680
3096
علاقتنا بالتكنولوجيا معقدة،
15:10
but the bigكبير pictureصورة is ratherبدلا simpleبسيط.
302
898800
2416
ولكن الصورة العامة بسيطة.
15:13
Mostعظم AIAI researchersالباحثين
expectتوقع AGIكونا withinفي غضون decadesعقود,
303
901240
3456
يتنبأ غالبية الباحثين
بحدوث الذكاء الاصطناعي الخارق خلال عقود،
15:16
and if we just bumbleتلعثم
into this unpreparedغير مستعد,
304
904720
3136
وإذا مشينا تجاه هذا الحدث بتخبط
وعدم استعداد،
15:19
it will probablyالمحتمل be
the biggestأكبر mistakeخطأ in humanبشري historyالتاريخ --
305
907880
3336
سيكون أكبر خطأ نرتكبه في تاريخ البشرية...
15:23
let's faceوجه it.
306
911240
1416
دعونا نواجه الأمر.
15:24
It could enableمكن brutalوحشي,
globalعالمي dictatorshipالدكتاتورية
307
912680
2576
قد تسمح بظهور دكتاتورية وحشية عالميًا
15:27
with unprecedentedغير مسبوق inequalityعدم المساواة,
surveillanceمراقبة and sufferingمعاناة,
308
915280
3536
مع عدم مساواة غير مسبوقة ورقابة ومعاناة،
15:30
and maybe even humanبشري extinctionانقراض.
309
918840
1976
بل وربما يمتد الأمر لانقراض البشر.
15:32
But if we steerقيادة carefullyبحرص,
310
920840
2320
ولكن إذا تحركنا بحذر،
15:36
we could endالنهاية up in a fantasticرائع futureمستقبل
where everybody'sالجميع better off:
311
924040
3896
قد ينتهي بنا الأمر في مستقبل رائع
حيث يتحسن حال الجميع:
15:39
the poorفقير are richerثراء, the richغني are richerثراء,
312
927960
2376
يغتني الفقراء ويزداد الأغنياء ثراءً،
15:42
everybodyالجميع is healthyصحي
and freeحر to liveحي out theirهم dreamsأحلام.
313
930360
3960
الجميع صحيون ويعيشون أحلامهم.
15:47
Now, hangعلق on.
314
935000
1536
ولكن تمهلوا.
15:48
Do you folksالناس want the futureمستقبل
that's politicallyسياسي right or left?
315
936560
4576
هل تريدون أيها القوم مستقبلاً
يساريًّا سياسيًا أم يمينيًّا؟
15:53
Do you want the piousتقي societyالمجتمع
with strictصارم moralأخلاقي rulesقواعد,
316
941160
2856
هل تريدون مجتمعًا متدينًا
بقواعد أخلاقية صارمة
15:56
or do you an hedonisticالمتعة free-for-allمجانا للجميع,
317
944040
1816
أم تريدون حرية المتع والشهوات للجميع،
15:57
more like Burningاحتراق Man 24/7?
318
945880
2216
كمهرجان الرجل المحترق؟
16:00
Do you want beautifulجميلة beachesالشواطئ,
forestsالغابات and lakesالبحيرات,
319
948120
2416
هل تريدون شواطئ جميلة وغابات وبحيرات،
16:02
or would you preferتفضل to rearrangeإعادة ترتيب
some of those atomsذرات with the computersأجهزة الكمبيوتر,
320
950560
3416
أم تفضلون إعادة ترتيب بعض تلك الذرات
مع أجهزة الكمبيوتر،
16:06
enablingتمكين virtualافتراضية experiencesخبرة?
321
954000
1715
وتمكين الخبرات الافتراضية؟
16:07
With friendlyودود AIAI, we could simplyببساطة
buildبناء all of these societiesمجتمعات
322
955739
3157
مع الذكاء الاصطناعي الصديق نستطيع ببساطة
بناء كل هذه المجتمعات
16:10
and give people the freedomحرية
to chooseأختر whichالتي one they want to liveحي in
323
958920
3216
وإعطاء الأشخاص حرية اختيار أي منها
للعيش فيه
16:14
because we would no longerطويل
be limitedمحدود by our intelligenceالمخابرات,
324
962160
3096
لأننا لن نعود محدودين بمقدار الذكاء
الذي نمتلكه،
16:17
merelyمجرد by the lawsقوانين of physicsعلوم فيزيائية.
325
965280
1456
بل بقوانين الفيزياء فقط.
16:18
So the resourcesموارد and spaceالفراغ
for this would be astronomicalفلكي --
326
966760
4616
ولذلك فإن الموارد والمساحة
لهذا المشروع ستكون ضخمة...
16:23
literallyحرفيا.
327
971400
1320
فعليًا.
16:25
So here'sمن هنا our choiceخيار.
328
973320
1200
وسيكون هذا خيارنا.
16:27
We can eitherإما be complacentالرضا
about our futureمستقبل,
329
975880
2320
إما أن نرضى بمستقبلنا،
16:31
takingمع الأخذ as an articleمقالة - سلعة of blindبليند faithإيمان
330
979440
2656
ونؤمن بشكل أعمى
16:34
that any newالجديد technologyتقنية
is guaranteedمضمون to be beneficialمفيد,
331
982120
4016
بأن أي تكنولوجيا جديدة لابد وأن تكون مفيدة
16:38
and just repeatكرر that to ourselvesأنفسنا
as a mantraتعويذة، شعار over and over and over again
332
986160
4136
ونكرر ذلك على أنفسنا، مرارًا وتكرارًا
كتعويذة ما
16:42
as we driftالمغزى like a rudderlessبلا دفه shipسفينة
towardsتجاه our ownخاصة obsolescenceتقادم.
333
990320
3680
ونحن ننجرف كسفينة بلا دفة تجاه هلاكنا.
16:46
Or we can be ambitiousطموح --
334
994920
1880
أو نستطيع أن نكون طموحين...
16:49
thinkingتفكير hardالصعب about how
to steerقيادة our technologyتقنية
335
997840
2456
ونفكر بعمق حول كيفية توجيه التكنولوجيا
16:52
and where we want to go with it
336
1000320
1936
وأين نريد الذهاب بها
16:54
to createخلق the ageعمر of amazementذهول.
337
1002280
1760
لخلق عصر مدهش.
16:57
We're all here to celebrateاحتفل
the ageعمر of amazementذهول,
338
1005000
2856
نحن هنا جميعًا لنحتفل بعصر الدهشة،
16:59
and I feel that its essenceجوهر should lieراحه
in becomingتصبح not overpoweredتغلبوا
339
1007880
4440
وأشعر بأن جوهره يجب أن يكمن
في عدم المبالغة بامتلاك القوة
17:05
but empoweredسلطة by our technologyتقنية.
340
1013240
2616
وأن تكون القوة بواسطة التكنولوجيا.
17:07
Thank you.
341
1015880
1376
شكرًا لكم.
17:09
(Applauseتصفيق)
342
1017280
3080
(تصفيق)
Translated by Dimah Eid
Reviewed by Fatima Zahra El Hafa

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com