ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

دانيل سسكيند: ثلاث خرافات عن مستقبل العمل ولماذا ليست صحيحة

Filmed:
1,519,249 views

هل ستستبدل الآلات الناس؟ هذا السؤال في ذهن أي شخص يواجه احتمالية خسارة عمله. يواجه دانيل سسكيند هذا التساؤل وثلاثة معتقدات خاطئة أخرى لدينا عن مستقبل الأتمتة في المستقبل، ويقترح أن علينا أن نسأل سؤالا آخر: كيف ستتقسم الثروة في العالم عندما ستكون فرص الوظائق قليلة أو حتى معدومة؟
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automationأتمتة anxietyالقلق
has been spreadingالانتشار latelyمؤخرا,
0
760
3376
انتشر الخوف من الأتمتة مؤخرًا،
00:16
a fearخوف that in the futureمستقبل,
1
4160
2656
خوفا من أنه في المستقبل
00:18
manyكثير jobsوظائف will be performedتنفيذ by machinesآلات
2
6840
2456
ستقوم الآلات بالعديد من الوظائف
00:21
ratherبدلا than humanبشري beingsالكائنات,
3
9320
1336
بدلًا من الناس،
00:22
givenمعطى the remarkableلافت للنظر advancesالتقدم
that are unfoldingتتكشف
4
10680
2936
بالنظر إلى التقدم الملحوظ الذي يستمر
00:25
in artificialمصطنع intelligenceالمخابرات and roboticsالروبوتات.
5
13640
2776
في مجال الذكاء الاصطناعي
والروبوتات.
00:28
What's clearواضح is that
there will be significantكبير changeيتغيرون.
6
16440
2816
ما هو واضح على نحو جلي
سيكون هناك تغيير كبير.
00:31
What's lessأقل clearواضح
is what that changeيتغيرون will look like.
7
19280
3616
ما هو غير واضح
كيف سيبدو هذا التغيير.
00:34
My researchابحاث suggestsوتقترح that the futureمستقبل
is bothكلا troublingمقلق and excitingمثير.
8
22920
4936
ترجح أبحاثي أن المستقبل
سيكون مليئا بالتشويق والمشكلات.
00:39
The threatالتهديد of technologicalالتكنولوجية
unemploymentبطالة is realحقيقة,
9
27880
3736
تهديد البطالة بسبب التكنولوجيا
00:43
and yetبعد it's a good problemمشكلة to have.
10
31640
2056
ومع ذلك فإنها مشكلة جيدة في نفس الوقت.
00:45
And to explainشرح
how I cameأتى to that conclusionاستنتاج,
11
33720
3216
وللتوضيح كيف وصلت لهذه النتيجة،
00:48
I want to confrontمواجهة threeثلاثة mythsالأساطير
12
36960
2536
أريد أن أدحض ثلاث خرافات
00:51
that I think are currentlyحاليا obscuringالتعتيم
our visionرؤية of this automatedالآلي futureمستقبل.
13
39520
4280
أظن أنها أصبحت تشوش علينا
رؤيتنا لهذه المستقبل الأتوماتيكي.
00:56
A pictureصورة that we see
on our televisionالتلفاز screensشاشات,
14
44880
2336
صورة رأيناها على شاشات التلفزة لدينا،
00:59
in booksالكتب, in filmsالأفلام, in everydayكل يوم commentaryتعليق
15
47240
2216
وفي الكتب والأفلام وفي أحاديثنا اليومية
01:01
is one where an armyجيش of robotsالروبوتات
descendsينحدر on the workplaceمكان العمل
16
49480
3696
حيث فيها جيش من الرجال الآليين ينزلون
من مقرات العمل
01:05
with one goalهدف in mindعقل:
17
53200
1376
بهدف واحد في أذهانهم:
01:06
to displaceأزاح humanبشري beingsالكائنات from theirهم work.
18
54600
2496
لأخذ الوظائف والأعمال من البشر.
01:09
And I call this the Terminatorالمنهي mythأسطورة.
19
57120
2696
وأسمي هذه بخرافات الإبادة.
01:11
Yes, machinesآلات displaceأزاح
humanبشري beingsالكائنات from particularبصفة خاصة tasksمهام,
20
59840
3976
نعم، الآلات تأخذ من البشر مهام معينة،
01:15
but they don't just
substituteاستبدل for humanبشري beingsالكائنات.
21
63840
2256
ولكنها لا يمكن إحلالها مكان البشر.
01:18
They alsoأيضا complementتكملة them in other tasksمهام,
22
66120
1976
إنهم يكملونهم أيضًا في مهام أخرى،
01:20
makingصناعة that work more valuableذو قيمة
and more importantمهم.
23
68120
3616
جاعلين من ذلك العمل أكثر قيمة
وأكثر أهمية.
01:23
Sometimesبعض الأحيان they complementتكملة
humanبشري beingsالكائنات directlyمباشرة,
24
71760
3336
أحيانًا يكملون البشر بشكل مباشر،
01:27
makingصناعة them more productiveإنتاجي
or more efficientفعالة at a particularبصفة خاصة taskمهمة.
25
75120
4016
جاعلين منهم أكثر إنتاجية أو أكثر كفاءة
في مهام معينة.
01:31
So a taxiسيارة اجره driverسائق can use a satnavستنف systemالنظام
to navigateالتنقل on unfamiliarغير مألوف roadsالطرق.
26
79160
4616
يستطيع سائق التاكسي استخدام "ساتناف"
للذهاب إلى طرق غير معروفة.
01:35
An architectمهندس معماري can use
computer-assistedبمساعدة الحاسوب، designالتصميم softwareالبرمجيات
27
83800
3336
يستطيع المهندس استخدام
برنامج كمبيوتر مساعد للتصميم
01:39
to designالتصميم biggerأكبر,
more complicatedمعقد buildingsالبنايات.
28
87160
3096
لتصميم أبنية أكبر وأكثر تعقيدًا.
01:42
But technologicalالتكنولوجية progressتقدم doesn't
just complementتكملة humanبشري beingsالكائنات directlyمباشرة.
29
90280
3696
ولكن عملية التطور التكنولوجي لا تكمل
الإنسان بشكل مباشر فحسب،
01:46
It alsoأيضا complementsويكمل them indirectlyبشكل غير مباشر,
and it does this in two waysطرق.
30
94000
3336
بل أنها تكملهم بشكل غير مباشر أيضًا
وتقوم بهذا بطريقتين.
01:49
The first is if we think
of the economyاقتصاد as a pieفطيرة,
31
97360
3336
الأولى: إذا تخيلنا الاقتصاد كفطيرة،
01:52
technologicalالتكنولوجية progressتقدم
makesيصنع the pieفطيرة biggerأكبر.
32
100720
2896
يجعل التطور التكنولوجي الفطيرة أكبر حجمًا.
01:55
As productivityإنتاجية increasesيزيد,
incomesالدخل riseترتفع and demandالطلب growsينمو.
33
103640
3856
وكلما تزداد الإنتاجية،
وترتفع الدخول وترتفع القوة الشرائية.
01:59
The Britishبريطاني pieفطيرة, for instanceحتة,
34
107520
1776
الفطيرة البريطانية على سبيل المثال،
02:01
is more than a hundredمائة timesمرات
the sizeبحجم it was 300 yearsسنوات agoمنذ.
35
109320
3960
أكبر بمئات المرات
مما كانت عليه قبل 300 سنة
02:05
And so people displacedالنازحين
from tasksمهام in the oldقديم pieفطيرة
36
113920
3216
وهكذا الناس الذين طردوا
من المهام في الفطيرة القديمة
02:09
could find tasksمهام to do
in the newالجديد pieفطيرة insteadفي حين أن.
37
117160
2720
تمكنوا من إيجاد مهام جديدة
ليقوموا بها في الفطيرة الجديدة.
02:12
But technologicalالتكنولوجية progressتقدم
doesn't just make the pieفطيرة biggerأكبر.
38
120800
3936
ولكن التطور التكنولوجي لا يقوم فقط
بجعل الفطيرة أكبر حجمًا.
02:16
It alsoأيضا changesالتغييرات
the ingredientsمكونات in the pieفطيرة.
39
124760
2856
إنه يغير أيضًا المكونات داخل الفطيرة.
02:19
As time passesيمر، يمرر، اجتاز بنجاح, people spendأنفق
theirهم incomeالإيرادات in differentمختلف waysطرق,
40
127640
3456
بمضي الوقت، ينفق الناس دخولهم
في أشياء مختلفة،
02:23
changingمتغير how they spreadانتشار it
acrossعبر existingموجود goodsبضائع,
41
131120
2816
التغير في كيفية إنفاقهم
على مختلف المنتجات الموجودة،
02:25
and developingتطوير tastesالأذواق
for entirelyتماما newالجديد goodsبضائع, too.
42
133960
3216
وكذلك ظهور الرغبة
لشراء منتجات جديدة تمامًا.
02:29
Newالجديد industriesالصناعات are createdخلقت,
43
137200
1776
ظهرت صناعات جديدة،
02:31
newالجديد tasksمهام have to be doneفعله
44
139000
1816
ووظائف جديدة للقيام بها
02:32
and that meansيعني oftenغالبا
newالجديد rolesالأدوار have to be filledمعبأ.
45
140840
2536
وغالبًا ما يعني ذلك أدوارا جديدة لشغلها.
02:35
So again, the Britishبريطاني pieفطيرة:
46
143400
1496
مرةً أخرى، الفطيرة البريطانية:
02:36
300 yearsسنوات agoمنذ,
mostعظم people workedعمل on farmsمزارع,
47
144920
2976
قبل 300 سنة،
عمل معظم الناس في المزارع،
02:39
150 yearsسنوات agoمنذ, in factoriesالمصانع,
48
147920
2336
قبل 150 سنة، في المصانع،
02:42
and todayاليوم, mostعظم people work in officesمكاتب.
49
150280
2856
واليوم، يعمل معظم الناس في مكاتب.
02:45
And onceذات مرة again, people displacedالنازحين
from tasksمهام in the oldقديم bitقليلا of pieفطيرة
50
153160
4056
ومرةً أخرى، الناس الذين انتقلوا من المهام
في الفطيرة القديمة
02:49
could tumbleتعثر into tasksمهام
in the newالجديد bitقليلا of pieفطيرة insteadفي حين أن.
51
157240
2800
استطاعوا أن يجدوا مهاما أخرى
في الفطيرة الجديدة.
02:52
Economistsاقتصاديون call these effectsتأثيرات
complementaritiesأوجه التكامل,
52
160720
3336
يسمي الاقتصاديون هذه التأثيرات
بـ "المكملات"
02:56
but really that's just a fancyغير حقيقي wordكلمة
to captureأسر the differentمختلف way
53
164080
3256
ولكن تلك الكلمة حقًا عبارة عن وهم
لتصوير الطريقة الختلفة
02:59
that technologicalالتكنولوجية progressتقدم
helpsيساعد humanبشري beingsالكائنات.
54
167360
3136
التي يساعد بها التطور التكنولوجي البشر.
03:02
Resolvingحل this Terminatorالمنهي mythأسطورة
55
170520
2096
للقضاء على خرافة الإبادة
03:04
showsعروض us that there are
two forcesالقوات at playلعب:
56
172640
2336
أظهر لنا عاملين مؤثرين:
03:07
one, machineآلة substitutionالاستبدال
that harmsالأضرار workersعمال,
57
175000
3536
الأول: استبدال الآلات يضر بالعمال،
03:10
but alsoأيضا these complementaritiesأوجه التكامل
that do the oppositeمقابل.
58
178560
2880
ولكن أيضًا هذه المكملات التي تقوم بالعكس.
03:13
Now the secondثانيا mythأسطورة,
59
181960
1376
الآن الخرافة الثانية،
03:15
what I call the intelligenceالمخابرات mythأسطورة.
60
183360
2280
وهي ما أسميها "خرافة الذكاء الاصطناعي".
03:18
What do the tasksمهام of drivingالقيادة a carسيارة,
makingصناعة a medicalطبي diagnosisالتشخيص
61
186440
4896
ما المشترك بين مهام مثل قيادة السيارة،
والتشخيص الطبي
03:23
and identifyingتحديد a birdطائر
at a fleetingعابر glimpseلمحة have in commonمشترك?
62
191360
2920
والتعرف على طير يحلق سريعًا بلمح البصر؟
03:27
Well, these are all tasksمهام
that untilحتى very recentlyمؤخرا,
63
195280
2976
حسنًا، هذه المهام جميعًا
والتي كانت حتى وقت متأخر
03:30
leadingقيادة economistsالاقتصاد thought
couldn'tلم أستطع readilyبسهولة be automatedالآلي.
64
198280
3336
تدفع الاقتصاديين للتفكير
بأنها لا تزال صعبة الأتمتة.
03:33
And yetبعد todayاليوم, all of these tasksمهام
can be automatedالآلي.
65
201640
3176
ومع ذلك اليوم، كل هذه المهام
يمكن أن تصبح أتوماتيكية.
03:36
You know, all majorرائد carسيارة manufacturersالمصنعين
have driverlessسائق carسيارة programsبرامج.
66
204840
3496
تعرفون، تملك كل مصانع السيارات الكبرى
برامج قيادة ذاتية للسيارات.
03:40
There's countlessلا يحصى systemsأنظمة out there
that can diagnoseشخص medicalطبي problemsمشاكل.
67
208360
3976
هناك عدد لايحصى من الأنظمة
التي تستطيع تشخيص المشاكل الطبية.
03:44
And there's even an appالتطبيق
that can identifyتحديد a birdطائر
68
212360
2416
وهناك حتى تطبيق يستطيع التعرف على الطائر
03:46
at a fleetingعابر glimpseلمحة.
69
214800
1200
يحلق سريعًا بلمح البصر.
03:48
Now, this wasn'tلم يكن simplyببساطة a caseقضية of badسيئة luckحظ
on the partجزء of economistsالاقتصاد.
70
216920
4376
الآن، لم يكن ذلك مجرد مثال من الحظ العاثر
من قبل الاقتصاديين،
03:53
They were wrongخطأ,
71
221320
1296
لقد كانوا مخطئين.
03:54
and the reasonالسبب why
they were wrongخطأ is very importantمهم.
72
222640
2496
والسبب وراء كونهم
مخطئين مهمٌ جدًا.
03:57
They'veلقد fallenساقط for the intelligenceالمخابرات mythأسطورة,
73
225160
2256
لقد أحبوا خرافة الذكاء الاصطناعي،
03:59
the beliefإيمان that machinesآلات
have to copyنسخ the way
74
227440
2896
فكرة أن الآلات تستطيع أن تقلد
04:02
that humanبشري beingsالكائنات think and reasonالسبب
75
230360
2056
الطريقة التي يفكر ويحلل بها البشر
04:04
in orderطلب to outperformيتفوق على them.
76
232440
1776
حتى تتفوق عليهم.
04:06
When these economistsالاقتصاد
were tryingمحاولة to figureالشكل out
77
234240
2216
عندما كان هؤلاء الاقتصاديون
يحاولون التوصل إلى
04:08
what tasksمهام machinesآلات could not do,
78
236480
1856
ما لا تستطيع أن تقوم الآلات بعمله،
04:10
they imaginedيتصور the only way
to automateأتمتة a taskمهمة
79
238360
2136
تخيلوا أن السبيل الوحيد لمهمة أتوماتيكية
04:12
was to sitتجلس down with a humanبشري beingيجرى,
80
240520
1816
هو الجلوس مع الكائن البشري،
04:14
get them to explainشرح to you
how it was they performedتنفيذ a taskمهمة,
81
242360
3536
وجعلهم يشرحون لك
كيف يقومون بمهمة ما،
04:17
and then try and captureأسر that explanationتفسير
82
245920
2656
ومن ثم محاولة نسخ ذلك الشرح
04:20
in a setجلس of instructionsتعليمات
for a machineآلة to followإتبع.
83
248600
2776
في مجموعة من الأوامر لتتبعها الآلة.
04:23
This viewرأي was popularجمع in artificialمصطنع
intelligenceالمخابرات at one pointنقطة, too.
84
251400
4176
هذه الرؤية كانت رائجة في مجال
الذكاء الاصطناعي في فترة من الزمن أيضًا.
04:27
I know this because Richardريتشارد Susskindسسكيند,
85
255600
2176
أعرف هذا لأن "ريشارد سسكيند"
04:29
who is my dadأب and my coauthorالمؤلف المشارك,
86
257800
2856
وهو والدي ومساعدي في البحوث،
04:32
wroteكتب his doctorateدكتوراه in the 1980s
on artificialمصطنع intelligenceالمخابرات and the lawالقانون
87
260680
4056
كتب بحثه في الدكتوراه في الثمانينات
حول الذكاء الاصطناعي والتشريعات
04:36
at Oxfordأكسفورد Universityجامعة,
88
264760
1416
في جامعة أوكسفورد،
04:38
and he was partجزء of the vanguardمقدمة.
89
266200
1576
وكان جزء من شركة "فين جارد".
04:39
And with a professorدكتور جامعى calledمسمي Phillipفيليب Capperكابر
90
267800
2256
ومع البروفسور "فيليب كابر"
04:42
and a legalقانوني publisherالناشر calledمسمي Butterworthsباترورث,
91
270080
2096
والناشر الرسمي "بوترورثز"،
04:44
they producedأنتجت the world'sالعالم first
commerciallyتجاريا availableمتاح
92
272200
5896
قاموا بإنتاج أول نظام عالمي تجاري
04:50
artificialمصطنع intelligenceالمخابرات systemالنظام in the lawالقانون.
93
278120
2776
للذكاء الاصطناعي في القانون.
04:52
This was the home screenشاشة designالتصميم.
94
280920
2616
هذا هو شكل الشاشة الرئيسية.
04:55
He assuresيؤكد me this was
a coolبارد screenشاشة designالتصميم at the time.
95
283560
2696
يؤكد لي أن هذا كان تصميما حديثا
في ذلك الوقت.
04:58
(Laughterضحك)
96
286280
1016
(ضحك)
04:59
I've never been entirelyتماما convincedمقتنع.
97
287320
1696
لم أقتنع كليًا بما قاله أبدًا.
05:01
He publishedنشرت it
in the formشكل of two floppyالمرن disksأقراص,
98
289040
2616
قام بنشره في شكل قرصين مرنين،
05:03
at a time where floppyالمرن disksأقراص
genuinelyبصدق were floppyالمرن,
99
291680
3536
في وقت كانت فيه الأقراص المرنة
مرنةً فعلًا،
05:07
and his approachمقاربة was the sameنفسه
as the economists'الاقتصاديين:
100
295240
2336
وكان منهجه مشابها للاقتصاديين:
05:09
sitتجلس down with a lawyerالمحامية,
101
297600
1256
استشارة محامية،
05:10
get her to explainشرح to you
how it was she solvedتم حلها a legalقانوني problemمشكلة,
102
298880
3176
طلب منها شرح أبعاد الأمر
كيفية حل مشكلة قانونية،
05:14
and then try and captureأسر that explanationتفسير
in a setجلس of rulesقواعد for a machineآلة to followإتبع.
103
302080
5376
ومن ثم محاولة تصوره وشرحه من خلال
مجموعة من القوانين التي تتبعها الآلات.
05:19
In economicsاقتصاديات, if humanبشري beingsالكائنات
could explainشرح themselvesأنفسهم in this way,
104
307480
3616
في الاقتصاد، إذا استطاع البشر
التعبير عن أنفسهم بنفس هذه الطريقة،
05:23
the tasksمهام are calledمسمي routineنمط,
and they could be automatedالآلي.
105
311120
3296
فإن المهام التي تسمى روتينية
يمكن أن تصبح أتوماتيكية.
05:26
But if humanبشري beingsالكائنات
can't explainشرح themselvesأنفسهم,
106
314440
2336
ولكن إذا لم يستطع البشر
التعبير عن أنفسهم،
05:28
the tasksمهام are calledمسمي non-routineغير الروتينية,
and they're thought to be out reachتصل.
107
316800
4256
فتسمى هذه بالمهام غير الروتينية
ويعتقد بأنها صعبة الأتمتة.
05:33
Todayاليوم, that routine-nonroutineروتين-نونروتيني
distinctionتميز is widespreadواسع الانتشار.
108
321080
3296
اليوم، يتلاشى ذلك الفاصل
بين الروتيني وغير الروتيني.
05:36
Think how oftenغالبا you hearسمع people say to you
109
324400
2056
تذكر كم من المرات قد سمعت الناس يقولوا لك:
05:38
machinesآلات can only performنفذ tasksمهام
that are predictableقابل للتنبؤ or repetitiveتكرارية,
110
326480
3256
يمكن أن تقوم الآلات بالمهام
المتوقعة والمكررة،
05:41
rules-basedالقائم على قواعد or well-definedواضحة المعالم.
111
329760
1896
والتي تعتمد على قواعد معينة أو محددة.
05:43
Those are all just
differentمختلف wordsكلمات for routineنمط.
112
331680
2936
كل هذا هو مجرد أوصاف مختلفة
لمصطلح روتيني.
05:46
And go back to those threeثلاثة casesالحالات
that I mentionedالمذكورة at the startبداية.
113
334640
3976
وبالنظر مرة أخرى إلى هذه الثلاث الأمثلة
التي ذكرتها في البداية،
05:50
Those are all classicكلاسيكي casesالحالات
of nonroutineنونروتيني tasksمهام.
114
338640
2896
كلها تعتبر أمثلة نموذجية
للمهام غير-الروتينية.
05:53
Askيطلب a doctorطبيب, for instanceحتة,
how she makesيصنع a medicalطبي diagnosisالتشخيص,
115
341560
2976
أسأل الطبيب مثلًا،
كيف تقوم بعمل تشخيص طبي،
05:56
and she mightربما be ableقادر
to give you a fewقليل rulesقواعد of thumbإبهام اليد,
116
344560
2656
وربما تستطيع أن تعطيك
بعض الإرشادات المفيدة،
05:59
but ultimatelyفي النهاية she'dتسلط struggleصراع.
117
347240
1656
ولكنها بالنهاية ستجد صعوبة في ذلك.
06:00
She'dتسلط say it requiresيتطلب things like
creativityالإبداع and judgmentحكم and intuitionحدس.
118
348920
4816
ستقول أنه يتطلب أشياء مثل
الإبداع وحسن الحكم والبديهة.
06:05
And these things are
very difficultصعب to articulateيتكلم بوضوح,
119
353760
2376
وكل هذه الأشياء
يصعب التعبير عنها بالكلمات،
06:08
and so it was thought these tasksمهام
would be very hardالصعب to automateأتمتة.
120
356160
3096
ولهذا كان يعتقد أن هذه المهام
يصعب جعلها أتوماتيكية.
06:11
If a humanبشري beingيجرى can't explainشرح themselvesأنفسهم,
121
359280
2536
إذا لم يستطع البشر التعبير عن أنفسهم،
06:13
where on earthأرض do we beginابدأ
in writingجاري الكتابة a setجلس of instructionsتعليمات
122
361840
2896
فكيف بحق السماء سنستطيع البدء
بكتابة مجموعة من الأوامر
06:16
for a machineآلة to followإتبع?
123
364760
1200
لتتبعها الآلة؟
06:18
Thirtyثلاثون yearsسنوات agoمنذ, this viewرأي was right,
124
366640
2576
قبل ثلاثين سنة، كان هذا المعتقد صحيحًا،
06:21
but todayاليوم it's looking shakyمتزعزع,
125
369240
2136
ولكن اليوم يبدو غير صحيح،
06:23
and in the futureمستقبل
it's simplyببساطة going to be wrongخطأ.
126
371400
2256
وفي المستقبل
سيكون بكل بساطة خاطئًا.
06:25
Advancesالسلف in processingمعالجة powerقوة,
in dataالبيانات storageتخزين capabilityالإمكانية
127
373680
3256
التطور في استغلال الطاقة،
في إمكانية حفظ البيانات
06:28
and in algorithmخوارزمية designالتصميم
128
376960
1656
وتصميم اللوغارتيمات
06:30
mean that this
routine-nonroutineروتين-نونروتيني distinctionتميز
129
378640
2496
يعني ذلك بأن هذا الفاصل
بين الروتيني وغير الروتيني
06:33
is diminishinglyديمينيشينجلي usefulمفيد.
130
381160
1736
بدأ بالتلاشي.
06:34
To see this, go back to the caseقضية
of makingصناعة a medicalطبي diagnosisالتشخيص.
131
382920
3256
ولرؤية هذا، لنعد إلى مثال
عمل التشخيص الطبي.
06:38
Earlierسابقا in the yearعام,
132
386200
1376
في بداية هذا العام،
06:39
a teamالفريق of researchersالباحثين at Stanfordستانفورد
announcedأعلن they'dانها تريد developedالمتقدمة a systemالنظام
133
387600
3296
أعلن فريق من الباحثين في "ستانفورد"
عن تطويرهم لنظام
06:42
whichالتي can tell you
whetherسواء or not a freckleنمش is cancerousسرطاني
134
390920
3056
يساعد في معرفة ما إذا كانت بقعة النمش
سرطانية أم لا
06:46
as accuratelyبدقة as leadingقيادة dermatologistsالأمراض الجلدية والتناسلية.
135
394000
2680
وبنفس دقة خبير الأمراض الجلدية.
06:49
How does it work?
136
397280
1256
كيف يعمل؟
06:50
It's not tryingمحاولة to copyنسخ the judgmentحكم
or the intuitionحدس of a doctorطبيب.
137
398560
5296
إنها لا يحاول تقليد حكمة أو حدس الطبيب.
06:55
It knowsيعرف or understandsيفهم
nothing about medicineدواء at all.
138
403880
3136
إنه لا يعرف أو يعي شيئًا
في الطب على الإطلاق.
06:59
Insteadفي حين أن, it's runningجري
a patternنمط recognitionالتعرف على algorithmخوارزمية
139
407040
2576
ولكنه يقوم بتشغيل
خوارزمية التعرف على الأنماط
07:01
throughعبر 129,450 pastالماضي casesالحالات,
140
409640
4656
من خلال 129450 من الحالات السابقة،
07:06
huntingالصيد for similaritiesالتشابه
betweenما بين those casesالحالات
141
414320
3096
يبحث عن التشابهات بين تلك الحالات
07:09
and the particularبصفة خاصة lesionآفة in questionسؤال.
142
417440
2080
والمرض المحدد موضوع البحث.
07:12
It's performingأداء these tasksمهام
in an unhumanأونهومان way,
143
420080
3216
إنه يؤدي هذه المهام بطريقة
مختلفة عن البشر،
07:15
basedعلى أساس on the analysisتحليل
of more possibleممكن casesالحالات
144
423320
2336
معتمدًا على التحليل
للعديد من الحالات المحتملة
07:17
than any doctorطبيب could hopeأمل
to reviewإعادة النظر in theirهم lifetimeأوقات الحياة.
145
425680
2616
لا يستطيع أي طبيب أن يراجع نفس العدد
طوال فترة حياته.
07:20
It didn't matterشيء that that humanبشري beingيجرى,
146
428320
1896
لم يكن مهمًا أن ذلك الإنسان،
07:22
that doctorطبيب, couldn'tلم أستطع explainشرح
how she'dتسلط performedتنفيذ the taskمهمة.
147
430240
2800
ذلك الطبيب، إذا لم يستطع شرح
كيف بإمكانه القيام بالمهمة.
07:25
Now, there are those
who dwellكمن uponبناء على that the factحقيقة
148
433640
2336
الآن، هناك من يسهبون في تلك الحقيقة
07:28
that these machinesآلات
aren'tلا builtمبني in our imageصورة.
149
436000
2296
أن هذه الآلات ليست
ليست مصممة لتكون مثلنا.
07:30
As an exampleمثال, take IBM'sفي IBM Watsonواتسون,
150
438320
2056
كمثال، خذوا كمبيوتر "أي-بي-إم واتسون"،
07:32
the supercomputerالعملاق that wentذهب
on the US quizلغز showتبين "Jeopardyخطر!" in 2011,
151
440400
4856
الكمبيوتر العملاق الذي أصبح في برنامج
المسابقة الأمريكي "جيوباردي" في عام 2011،
07:37
and it beatتغلب the two
humanبشري championsابطال at "Jeopardyخطر!"
152
445280
3016
وتغلب على كلا البطلين في "جيوباردي"
07:40
The day after it wonوون,
153
448320
1696
اليوم الذي تلا فوز الكمبيوتر،
07:42
The Wallحائط Streetشارع Journalمجلة ranجرى a pieceقطعة
by the philosopherفيلسوف Johnيوحنا Searleسيرل
154
450040
3296
صحيفة "وال ستريت" نشرت خبرًا
بقلم الفيلسوف "جون سيرل"
07:45
with the titleعنوان "Watsonواتسون
Doesn't Know It Wonوون on 'Jeopardy'خطر!'"
155
453360
3376
تحت عنوان "واتسون لا يعرف
أنه فاز في"جيوباردي!"
07:48
Right, and it's brilliantمتألق, and it's trueصحيح.
156
456760
1976
مقولة صحيحة وذكية وفي محلها.
07:50
You know, Watsonواتسون didn't
let out a cryيبكي of excitementإثارة.
157
458760
2456
تعرفون، واتسون لم يذرف
دموع الفرح.
07:53
It didn't call up its parentsالآباء
to say what a good jobوظيفة it had doneفعله.
158
461240
3096
لم يتصل بوالديه حتى يسمع منهم كلمة
ياله من عمل رائع قد قمت به.
07:56
It didn't go down to the pubحانة for a drinkيشرب.
159
464360
2336
ولم يذهب إلى الحانة ليحتفل بالنصر.
07:58
This systemالنظام wasn'tلم يكن tryingمحاولة to copyنسخ the way
that those humanبشري contestantsالمتسابقون playedلعب,
160
466720
4456
هذا النظام لم يكن يحاول نسخ
الطريقة التي يلعب بها المتسابقون البشريون،
08:03
but it didn't matterشيء.
161
471200
1256
ولكن لا يهم.
08:04
It still outperformedتفوقت them.
162
472480
1976
فلقد تغلب عليهم بكل الأحول.
08:06
Resolvingحل the intelligenceالمخابرات mythأسطورة
163
474480
1576
إن حل معضلة الذكاء الاصطناعي
08:08
showsعروض us that our limitedمحدود understandingفهم
about humanبشري intelligenceالمخابرات,
164
476080
3376
أظهر لنا أن فهمنا محدود للذكاء البشري،
08:11
about how we think and reasonالسبب,
165
479480
1896
وأن طريقة تفكيرنا وتحليلنا،
08:13
is farبعيدا lessأقل of a constraintقيود
on automationأتمتة than it was in the pastالماضي.
166
481400
3456
لم يعد حجر عثرة أمام الأتمتة
كما كان في الماضي.
08:16
What's more, as we'veقمنا seenرأيت,
167
484880
1496
ما التالي، كما رأينا،
08:18
when these machinesآلات
performنفذ tasksمهام differentlyبشكل مختلف to humanبشري beingsالكائنات,
168
486400
3416
عندما تقوم هذه الآلات بالمهام
بطريقة مختلفة عن البشر،
08:21
there's no reasonالسبب to think
169
489840
1256
ليس هناك سبب للإعتقاد
08:23
that what humanبشري beingsالكائنات
are currentlyحاليا capableقادر على of doing
170
491120
2536
أن كفاءة العمل البشري
08:25
representsيمثل any sortفرز of summitقمة
171
493680
1456
تمثل أي نوع من المثالية
08:27
in what these machinesآلات
mightربما be capableقادر على of doing in the futureمستقبل.
172
495160
3000
مقارنة بما قد تقوم به
هذه الآلات من عمل في المستقبل.
08:31
Now the thirdالثالث mythأسطورة,
173
499040
1256
الآن الخرافة الثالثة،
08:32
what I call the superiorityالتفوق mythأسطورة.
174
500320
2456
وهي ما أسميها بـ "خرافة التفوق "
08:34
It's oftenغالبا said that those who forgetننسى
175
502800
2216
عادةً ما يقال بأن هؤلاء من ينسون
08:37
about the helpfulمعاون، مساعد، مفيد، فاعل خير sideجانب
of technologicalالتكنولوجية progressتقدم,
176
505040
2456
الجانب الجيد من التقدم التكنولوجي،
08:39
those complementaritiesأوجه التكامل from before,
177
507520
2496
تلك الكماليات من الماضي،
08:42
are committingيرتكب جريمة something
knownمعروف as the lumpكتلة of laborالعمل fallacyمغالطة.
178
510040
3040
يقعون في خطأ يسمى
بـ"مغالطة اجمالي الوظائف"
08:45
Now, the problemمشكلة is
the lumpكتلة of laborالعمل fallacyمغالطة
179
513840
2295
الآن تكمن المشكلة
في "مغالطة اجمالي الوظائف"
08:48
is itselfبحد ذاتها a fallacyمغالطة,
180
516159
1496
إنها مغالطة بحد ذاتها،
08:49
and I call this the lumpكتلة
of laborالعمل fallacyمغالطة fallacyمغالطة,
181
517679
2937
وأسميها بـ"مغالطة اجمالى الوظائف"،
08:52
or LOLFFلولف, for shortقصيرة.
182
520640
2320
أو اختصارًا "LOLFF".
08:56
Let me explainشرح.
183
524000
1416
دعوني أوضح.
08:57
The lumpكتلة of laborالعمل fallacyمغالطة
is a very oldقديم ideaفكرة.
184
525440
2136
مغالطة إجمالي الوظائف مصطلح قديم.
08:59
It was a Britishبريطاني economistعالم الاقتصاد, Davidديفيد Schlossشلوس,
who gaveأعطى it this nameاسم in 1892.
185
527600
4216
الاقتصادي البريطاني "دافيد شلوس"
كان أول من استخدمه في عام 1892.
09:03
He was puzzledمتحير
to come acrossعبر a dockالرصيف workerعامل
186
531840
2816
لقد احتار عندما مر بجانب
عامل الرصيف
09:06
who had begunبدأت to use
a machineآلة to make washersغسالات,
187
534680
2336
الذي كان قد بدأ باستخدام
الآلة في التنظيف،
09:09
the smallصغير metalفلز discsأقراص
that fastenربط on the endالنهاية of screwsمسامير.
188
537040
3320
الأقراص المعدنية الصغيرة
التي تربط على نهاية المسامير.
09:13
And this dockالرصيف workerعامل
feltشعور guiltyمذنب for beingيجرى more productiveإنتاجي.
189
541000
3760
وكان هذا العامل يشعر بالذنب
لأنه أصبح أكثر إنتاجية.
09:17
Now, mostعظم of the time,
we expectتوقع the oppositeمقابل,
190
545560
2176
الآن، عادةً ما نتوقع ردة فعل معاكسة
09:19
that people feel guiltyمذنب
for beingيجرى unproductiveغير منتج,
191
547760
2216
أن يشعر الناس بالذنب
لأنهم أقل إنتاجية،
09:22
you know, a little too much time
on Facebookفيس بوك or Twitterتغريد at work.
192
550000
3016
تعرفون وقت أكثر بقليل على الفيسبوك
أو التويتر أثناء العمل.
09:25
But this workerعامل feltشعور guiltyمذنب
for beingيجرى more productiveإنتاجي,
193
553040
2536
ولكن كان هذا العامل يشعر بالذنب
لأنه أصبح أكثر انتاجية
09:27
and askedطلبت why, he said,
"I know I'm doing wrongخطأ.
194
555600
2296
وسأله لماذا، فأجابه:
"أنا أعرف أن ما أقوم به خاطئ
09:29
I'm takingمع الأخذ away the work of anotherآخر man."
195
557920
2040
أنا أخذ العمل من رجل آخر."
09:32
In his mindعقل, there was
some fixedثابت lumpكتلة of work
196
560760
2976
من وجهة نظره، كان هناك
معدل ثابت من إجمالي الوظائف
09:35
to be dividedمنقسم up betweenما بين him and his palsالزملاء,
197
563760
2136
يتم تقسيمها بينه وبين زملائه،
09:37
so that if he used
this machineآلة to do more,
198
565920
2056
ولهذا إذا استخدم هذه الآلة
لفعل المزيد،
09:40
there'dالاحمر be lessأقل left for his palsالزملاء to do.
199
568000
2016
سيكون هناك القليل ليفعله بقية زملائه.
09:42
Schlossشلوس saw the mistakeخطأ.
200
570040
1856
رأى "شلوس" هذا الخطأ.
09:43
The lumpكتلة of work wasn'tلم يكن fixedثابت.
201
571920
1856
لأن إجمالي حجم الوظائف لم يكن ثابتًا.
09:45
As this workerعامل used the machineآلة
and becameأصبح more productiveإنتاجي,
202
573800
2816
فكلما استخدم هذا العامل الآلة
وأصبح أكثر انتاجية،
09:48
the priceالسعر of washersغسالات would fallخريف,
demandالطلب for washersغسالات would riseترتفع,
203
576640
2976
أجور المنظفين ستنخفض،
والطلب على الأيدي العاملة منهم سيرتفع،
09:51
more washersغسالات would have to be madeمصنوع,
204
579640
1696
يجب إيجاد منظفين أكثر،
09:53
and there'dالاحمر be more work
for his palsالزملاء to do.
205
581360
2096
وسيكون هناك عمل أكثر ليقوم
به بقية زملائه.
09:55
The lumpكتلة of work would get biggerأكبر.
206
583480
1696
إجمالي الوظائف سيرتفع.
09:57
Schlossشلوس calledمسمي this
"the lumpكتلة of laborالعمل fallacyمغالطة."
207
585200
2680
سمى "شلوس " هذا
بـ "مغالطة إجمالي الوظائف".
10:00
And todayاليوم you hearسمع people talk
about the lumpكتلة of laborالعمل fallacyمغالطة
208
588560
2936
واليوم تسمعون الناس يتحدثون
عن مغالطة إجمالي الوظائف
10:03
to think about the futureمستقبل
of all typesأنواع of work.
209
591520
2216
لتفكرون بالمستقبل
وبكل أنواع العمل فيه.
10:05
There's no fixedثابت lumpكتلة of work
out there to be dividedمنقسم up
210
593760
2656
ليس هناك معدل ثابت للوظائف
في السوق ليتم تقسيمها
10:08
betweenما بين people and machinesآلات.
211
596440
1376
بين الناس والآلات.
10:09
Yes, machinesآلات substituteاستبدل for humanبشري beingsالكائنات,
makingصناعة the originalأصلي lumpكتلة of work smallerالأصغر,
212
597840
4656
نعم، الآلات تأخذ مكان الناس،
وتجعل إجمالي حجم الوظائف أصغر مما كان،
10:14
but they alsoأيضا complementتكملة humanبشري beingsالكائنات,
213
602520
1856
وكنها أيضًا تكمل عمل البشر،
10:16
and the lumpكتلة of work
getsيحصل على biggerأكبر and changesالتغييرات.
214
604400
2096
وبهذا يزداد حجم إجمالي الوظائف ويتغير.
10:19
But LOLFFلولف.
215
607760
1616
لكن "مغالطة إجمالي الوظائف"
10:21
Here'sمن هنا the mistakeخطأ:
216
609400
1376
هنا يكمن الخطأ:
10:22
it's right to think
that technologicalالتكنولوجية progressتقدم
217
610800
2216
من الصحيح التفكير
أن التقدم التكنولوجي
10:25
makesيصنع the lumpكتلة of work to be doneفعله biggerأكبر.
218
613040
1976
يجعل معدل إجمالي الوظائف أكبر.
10:27
Some tasksمهام becomeيصبح more valuableذو قيمة.
Newالجديد tasksمهام have to be doneفعله.
219
615040
3016
بعض المهمام تصبح أكثر قيمة.
ومهام جديدة للقيام بها.
10:30
But it's wrongخطأ to think that necessarilyبالضرورة,
220
618080
2536
ولكن من الخاطئ أن نفكر
أن ذلك يعني بالضرورة
10:32
humanبشري beingsالكائنات will be bestالأفضل placedوضعت
to performنفذ those tasksمهام.
221
620640
3256
أن البشر هم أفضل من يقوم بهذه المهام.
10:35
And this is the superiorityالتفوق mythأسطورة.
222
623920
1616
وهذه هي خرافة التفوق البشري.
10:37
Yes, the lumpكتلة of work
mightربما get biggerأكبر and changeيتغيرون,
223
625560
3416
نعم، إجمالي الوظائف يصبح أكبر ويتغير،
10:41
but as machinesآلات becomeيصبح more capableقادر على,
224
629000
1976
ولكن الآلات تصبح أكثر كفاءة،
10:43
it's likelyالمحتمل أن that they'llأنها سوف take on
the extraإضافي lumpكتلة of work themselvesأنفسهم.
225
631000
3896
فمن المرجح أنها نفسها ستستحوذ على الزيادة
في إجمالي حجم الوظائف.
10:46
Technologicalالتكنولوجية progressتقدم,
ratherبدلا than complementتكملة humanبشري beingsالكائنات,
226
634920
3256
بدلًا من أن يكمل
التقدم التكنولوجي الإنسان،
10:50
complementsويكمل machinesآلات insteadفي حين أن.
227
638200
1880
فإنه يكمل الآلآت.
10:52
To see this, go back
to the taskمهمة of drivingالقيادة a carسيارة.
228
640920
3016
لرؤية هذا، لنعد إلى مثال قيادة السيارة.
10:55
Todayاليوم, satnavستنف systemsأنظمة
directlyمباشرة complementتكملة humanبشري beingsالكائنات.
229
643960
4096
اليوم، أصبحت أنظمة "ساتناف"
تكمل الإنسان بشكل مباشر.
11:00
They make some
humanبشري beingsالكائنات better driversالسائقين.
230
648080
2280
ويدربوا بعض الناس ليصبحوا
سائقين أفضل.
11:02
But in the futureمستقبل,
231
650920
1256
ولكن في المستقبل،
11:04
softwareالبرمجيات is going to displaceأزاح
humanبشري beingsالكائنات from the drivingالقيادة seatمقعد,
232
652200
3096
فإن البرامج ستقوم بإبعاد
البشر من مقعد القيادة،
11:07
and these satnavستنف systemsأنظمة,
ratherبدلا than complementتكملة humanبشري beingsالكائنات,
233
655320
2936
وأنظمة "سات ناف" هذه
بدلًا من أن تكمل الإنسان،
11:10
will simplyببساطة make these
driverlessسائق carsالسيارات more efficientفعالة,
234
658280
2536
ستجعل هذه السيارات بدون سائق
اكثر كفاءة،
11:12
helpingمساعدة the machinesآلات insteadفي حين أن.
235
660840
1536
وبهذا تساعد الآلآت بدلًا عن ذلك.
11:14
Or go to those indirectغير مباشر complementaritiesأوجه التكامل
that I mentionedالمذكورة as well.
236
662400
4056
أو بالذهاب إلى تلك المكملات الغير مباشرة
التي ذكرتها سابقًا.
11:18
The economicاقتصادي pieفطيرة mayقد get largerأكبر,
237
666480
1776
قد تصبح فطيرة الاقتصاد أكبر حجمًا،
11:20
but as machinesآلات becomeيصبح more capableقادر على,
238
668280
1736
ولكن الآلات ستصبح أكثر كفاءة،
11:22
it's possibleممكن that any newالجديد demandالطلب
will fallخريف on goodsبضائع that machinesآلات,
239
670040
3143
من الممكن أن الطلب الجديد
على البضائع التي تقوم الآلات
11:25
ratherبدلا than humanبشري beingsالكائنات,
are bestالأفضل placedوضعت to produceإنتاج.
240
673207
2649
بصنعها وليس الإنسان
ستكون هي خير من يقوم بالمهمة.
11:27
The economicاقتصادي pieفطيرة mayقد changeيتغيرون,
241
675880
1896
قد يتغير حجم الفطيرة الاقتصادية،
11:29
but as machinesآلات becomeيصبح more capableقادر على,
242
677800
1896
ولكن مع تحسن قدرة الآلات،
11:31
it's possibleممكن that they'llأنها سوف be bestالأفضل placedوضعت
to do the newالجديد tasksمهام that have to be doneفعله.
243
679720
4856
من المحتمل أن تكون هي خير من يقوم
بالمهام الجديدة التي يجب عملها
11:36
In shortقصيرة, demandالطلب for tasksمهام
isn't demandالطلب for humanبشري laborالعمل.
244
684600
3696
باختصار، الحاجة لمهام جديدة لا يعني
زيادة الطلب على الأيدي العاملة البشرية.
11:40
Humanبشري beingsالكائنات only standيفهم to benefitفائدة
245
688320
1936
سيستفيد البشر فقط
11:42
if they retainاحتفظ the upperأعلى handيد
in all these complementedتستكمل tasksمهام,
246
690280
3816
إذا كانوا هم اليد العليا
في كل هذه المهام التكميلية،
11:46
but as machinesآلات becomeيصبح more capableقادر على,
that becomesيصبح lessأقل likelyالمحتمل أن.
247
694120
3720
ولكن مع تحسن كفاءة الآلآت
اصبحت فرصتنا ضعيفة.
11:50
So what do these threeثلاثة mythsالأساطير tell us then?
248
698760
2016
إذًا ما الذي تخبرنا هذه الثلاث الخرافات؟
11:52
Well, resolvingحل the Terminatorالمنهي mythأسطورة
249
700800
1696
حسنًا، بحل خرافة الإبادة
11:54
showsعروض us that the futureمستقبل of work dependsيعتمد على
uponبناء على this balanceتوازن betweenما بين two forcesالقوات:
250
702520
3696
عرفنا أن مستقبل الوظائف يعتمد
على التوازن بين عاملين:
11:58
one, machineآلة substitutionالاستبدال
that harmsالأضرار workersعمال
251
706240
3136
الأول أن استبدال الآلآت الذي يضر بالعمال
12:01
but alsoأيضا those complementaritiesأوجه التكامل
that do the oppositeمقابل.
252
709400
2576
ولكن ايضًا تلك المكملات التي تقوم بالعكس.
12:04
And untilحتى now, this balanceتوازن
has fallenساقط in favorمحاباة of humanبشري beingsالكائنات.
253
712000
4040
وحتى الآن ، هذا التوازن تلاشى
لصالح الكائن البشري.
12:09
But resolvingحل the intelligenceالمخابرات mythأسطورة
254
717120
1736
ولكن كسر خرافة الذكاء الاصطناعي
12:10
showsعروض us that that first forceفرض,
machineآلة substitutionالاستبدال,
255
718880
2496
أثبت لنا أنا العامل الأول،
وهو استبدال الآلات،
12:13
is gatheringجمع strengthقوة.
256
721400
1296
يحشد كامل قوته.
12:14
Machinesآلات, of courseدورة, can't do everything,
257
722720
1976
بالطبع لا تستطيع الآلات عمل كل شيء،
12:16
but they can do farبعيدا more,
258
724720
1256
ولكن يمكنها العمل أكثر،
12:18
encroachingزحف ever deeperأعمق into the realmمملكة
of tasksمهام performedتنفيذ by humanبشري beingsالكائنات.
259
726000
4576
والتعمق أكثر في مجال
المهام التي يقوم بها البشر.
12:22
What's more, there's no reasonالسبب to think
260
730600
1896
أيضًا، ليس هناك سبب للاعتقاد
12:24
that what humanبشري beingsالكائنات
are currentlyحاليا capableقادر على of
261
732520
2216
أن بمقدور البشر حاليًا
12:26
representsيمثل any sortفرز of finishingاللمسات الأخيرة lineخط,
262
734760
1856
على الاستمرار إلى الأمام،
12:28
that machinesآلات are going
to drawرسم to a politeمهذب stop
263
736640
2256
أو أن الآلات ستترك لنا المكان
12:30
onceذات مرة they're as capableقادر على as us.
264
738920
1816
عند تمكنها من تنفيذ المهام مثلنا.
12:32
Now, noneلا شيء of this mattersالقضايا
265
740760
1536
الآن، لا يهم أيٌ من هذا
12:34
so long as those helpfulمعاون، مساعد، مفيد، فاعل خير
windsالرياح of complementarityالتكامل
266
742320
2816
طالما أن رياح المساعدة المكملة تلك
12:37
blowعاصفة firmlyقطعا enoughكافية,
267
745160
1736
تهب بقوة كافية،
12:38
but resolvingحل the superiorityالتفوق mythأسطورة
268
746920
1936
لكن بدحض خرافة التفوق
12:40
showsعروض us that that processمعالج
of taskمهمة encroachmentانتهاك
269
748880
3096
يثبت لنا هذا أن عملية تجاوز المهام
12:44
not only strengthensيقوي
the forceفرض of machineآلة substitutionالاستبدال,
270
752000
3936
لا يعزز فقط عامل
استبدال الآلات محل البشر،
12:47
but it wearsيلبس down
those helpfulمعاون، مساعد، مفيد، فاعل خير complementaritiesأوجه التكامل too.
271
755960
3336
ولكنه يضعف هذه المكملات المساعدة أيضًا.
12:51
Bringاحضر these threeثلاثة mythsالأساطير togetherسويا
272
759320
1936
إذا جمعنا هذه الثلاث الخرافات معًا
12:53
and I think we can captureأسر a glimpseلمحة
of that troublingمقلق futureمستقبل.
273
761280
2936
أظن أنه بمقدورنا أخذ لمحة
عن المستقبل المتزعزع.
12:56
Machinesآلات continueاستمر to becomeيصبح more capableقادر على,
274
764240
2016
الآلات تتحسن لتصبح أكثر كفاءة،
12:58
encroachingزحف ever deeperأعمق
on tasksمهام performedتنفيذ by humanبشري beingsالكائنات,
275
766280
3656
وتستولي على مهام أكثر
كان يقوم بها الإنسان،
13:01
strengtheningتقوية the forceفرض
of machineآلة substitutionالاستبدال,
276
769960
2576
مما يعزز تيار التوجه نحو الآلات،
13:04
weakeningضعف the forceفرض
of machineآلة complementarityالتكامل.
277
772560
3616
ويضعف من التوجه نحو اتخاذ الآلات
كشيء تكميلي لدور الإنسان.
13:08
And at some pointنقطة, that balanceتوازن
fallsالسقوط in favorمحاباة of machinesآلات
278
776200
4296
وفي وقت من الزمن، ذلك التوازن
سيختل لمصلحة الآلات
13:12
ratherبدلا than humanبشري beingsالكائنات.
279
780520
2056
وليس لمصلحة الإنسان.
13:14
This is the pathمسار we're currentlyحاليا on.
280
782600
1736
هذه هو الطريق الذي نسلكه الآن.
13:16
I say "pathمسار" deliberatelyعن عمد,
because I don't think we're there yetبعد,
281
784360
3176
أقول "طريق" عن قصد،
لأنني لا أعتقد أننا وصلنا لتلك المرحلة بعد
13:19
but it is hardالصعب to avoidتجنب the conclusionاستنتاج
that this is our directionاتجاه of travelالسفر.
282
787560
3640
ولكن من الصعب تجنب الخاتمة
التي تقع في نهاية الرحلة.
13:24
That's the troublingمقلق partجزء.
283
792640
1456
تلك هي المشكلة.
13:26
Let me say now why I think actuallyفعلا
this is a good problemمشكلة to have.
284
794120
3520
دعوني أقول لما أظن
أن وجود هذه المشكلة أمر جيد
13:30
For mostعظم of humanبشري historyالتاريخ,
one economicاقتصادي problemمشكلة has dominatedهيمنت:
285
798520
3536
على مدى التاريخ البشري،
لطالما تواجدت مشلكة اقتصادية وهي:
13:34
how to make the economicاقتصادي pieفطيرة
largeكبير enoughكافية for everyoneكل واحد to liveحي on.
286
802080
4056
كيفية جعل الفطيرة الاقتصادية
كبيرة بما يكفي لنجاة الجميع.
13:38
Go back to the turnمنعطف أو دور
of the first centuryمئة عام ADميلادي,
287
806160
2176
وبالعودة إلى القرن الأول الميلادي،
13:40
and if you tookأخذ the globalعالمي economicاقتصادي pieفطيرة
288
808360
2096
وإذا أخذنا الفطيرة الاقتصادية العالمية
13:42
and dividedمنقسم it up into equalمساو slicesشرائح
for everyoneكل واحد in the worldالعالمية,
289
810480
3296
وقسمناها إلى شرائح متساوية
للجميع في العالم،
13:45
everyoneكل واحد would get a fewقليل hundredمائة dollarsدولار.
290
813800
2136
سيحصل الجميع على بضع مئات الدولارات.
13:47
Almostتقريبيا everyoneكل واحد livedيسكن
on or around the povertyفقر lineخط.
291
815960
2760
سيعيش الجميع تقريبًا أعلى من
أو قريبًا من خط الفقر.
13:51
And if you rollتدحرج forwardإلى الأمام a thousandألف yearsسنوات,
292
819320
2176
وإذا مشيت بعجلة الوقت ألف سنة،
13:53
roughlyبقسوة the sameنفسه is trueصحيح.
293
821520
1240
سنكون الحال نفسه أيضًا.
13:55
But in the last fewقليل hundredمائة yearsسنوات,
economicاقتصادي growthنمو has takenتؤخذ off.
294
823680
3576
ولكن خلال المائة سنة الماضية،
ارتفع النمو الاقتصادي.
13:59
Those economicاقتصادي piesفطائر have explodedانفجرت in sizeبحجم.
295
827280
2376
وتضخمت تلك الفطائر الاقتصادية بالحجم.
14:01
Globalعالمي GDPالناتج المحلي الإجمالي perلكل headرئيس,
296
829680
2056
نصيب الفرد من إجمالي الناتج المحلي،
14:03
the valueالقيمة of those individualفرد
slicesشرائح of the pieفطيرة todayاليوم,
297
831760
3376
قيمة هذه الأقسام الفردية من الفطيرة اليوم،
14:07
they're about 10,150 dollarsدولار.
298
835160
2816
حوالي 10,150 دولار.
14:10
If economicاقتصادي growthنمو continuesتواصل
at two percentنسبه مئويه,
299
838000
2696
إذا استمر النمو الاقتصادي
بمعدل 2 بالمائة،
14:12
our childrenالأطفال will be twiceمرتين as richغني as us.
300
840720
2056
سيصبح أولادنا أكثر ثراءً منا بمرتين.
14:14
If it continuesتواصل
at a more measlyتافه one percentنسبه مئويه,
301
842800
2296
إذا استمر أقل بقليل من الاثنين بالمائة،
14:17
our grandchildrenأحفاد
will be twiceمرتين as richغني as us.
302
845120
2656
سيصبح أحفادنا أكثر ثراءً منا بمرتين.
14:19
By and largeكبير, we'veقمنا solvedتم حلها
that traditionalتقليدي economicاقتصادي problemمشكلة.
303
847800
3680
بالنسبة والحجم، حللنا تلك المشكلة
الاقتصادية القديمة.
14:24
Now, technologicalالتكنولوجية unemploymentبطالة,
if it does happenيحدث,
304
852200
3016
الآن، البطالة بسبب التكنولوجيا،
إن حدثت،
14:27
in a strangeغريب way will be
a symptomعلامة مرض of that successنجاح,
305
855240
3216
على نحو غريب ستكون
مؤشر على ذلك النجاح،
14:30
will have solvedتم حلها one problemمشكلة --
how to make the pieفطيرة biggerأكبر --
306
858480
3856
وستقدم حلًا لمشكلة...
كيفية تكبير حجم الفطيرة...
14:34
but replacedاستبدال it with anotherآخر --
307
862360
1816
ولكن استبدالها بواحدة أخرى...
14:36
how to make sure
that everyoneكل واحد getsيحصل على a sliceشريحة.
308
864200
2760
كيفية التأكد من أن الجميع
حصل على نصيبه من الفطيرة.
14:39
As other economistsالاقتصاد have notedوأشار,
solvingحل this problemمشكلة won'tمتعود be easyسهل.
309
867840
3496
وكما لاحظ الإقتصاديين،
فإن حل هذه المشكلة لن يكون سهلًا.
14:43
Todayاليوم, for mostعظم people,
310
871360
1656
اليوم، بالنسبة لمعظم الناس،
14:45
theirهم jobوظيفة is theirهم seatمقعد
at the economicاقتصادي dinnerوجبة عشاء tableالطاولة,
311
873040
2496
عمل مكتبي بحت
على طاولة الفطور الاقتصادية،
14:47
and in a worldالعالمية with lessأقل work
or even withoutبدون work,
312
875560
2416
وفي عالم قليل أو معدوم الوظائف،ن
14:50
it won'tمتعود be clearواضح
how they get theirهم sliceشريحة.
313
878000
2056
غير واضح كيفية حصولهم
على نصيبهم من الفطيرة.
14:52
There's a great dealصفقة
of discussionنقاش, for instanceحتة,
314
880080
2336
هناك نقاش محموم
للكثير من الأشياء مثلًا،
14:54
about variousمختلف formsإستمارات
of universalعالمي basicالأساسية incomeالإيرادات
315
882440
2696
عن النماذج المختلفة
للدخل الأساسي العالمي،
14:57
as one possibleممكن approachمقاربة,
316
885160
1216
كأحد النماذج المحتملة،
14:58
and there's trialsمحاكمات underwayقيد التنفيذ
317
886400
1616
وهناك جلسات قانونية تعقد
15:00
in the Unitedمتحد Statesتنص على
and in Finlandفنلندا and in Kenyaكينيا.
318
888040
2400
في الولايات المتحدة وفنلندا و كينيا.
15:03
And this is the collectiveجماعي challengeالتحدي
that's right in frontأمامي of us,
319
891000
3176
وهذا التحدي الكلي
الذي يقف أمامنا مباشرةً،
15:06
to figureالشكل out how this materialمواد prosperityازدهار
generatedولدت by our economicاقتصادي systemالنظام
320
894200
5056
لمعرفة كيف سيتشكل هذا الرخاء المادي
من قبل النظام الاقتصادي
15:11
can be enjoyedاستمتعت by everyoneكل واحد
321
899280
1976
ويستفيد منه الجميع
15:13
in a worldالعالمية in whichالتي
our traditionalتقليدي mechanismآلية
322
901280
2416
في حالم حيث فيه الآلية التقليدية
15:15
for slicingتشريح up the pieفطيرة,
323
903720
1856
لتقسيم الفطيرة الاقتصادية،
15:17
the work that people do,
324
905600
1936
والعمل الذي يقوم به الناس،
15:19
withersالحارك أعلى كاهل الفرس away and perhapsربما disappearsيختفي.
325
907560
2160
يتناقص وربما يختفي تمامًا.
15:22
Solvingحل this problemمشكلة is going to requireتطلب
us to think in very differentمختلف waysطرق.
326
910280
4360
سيتطلب منا حل هذه المشكلة
التفكير بطرق مختلفة تمامًا.
15:27
There's going to be a lot of disagreementخلاف
about what oughtيجب to be doneفعله,
327
915400
4176
سيكون هناك العديد من الخلافات
حول مالذي يجب فعله،
15:31
but it's importantمهم to rememberتذكر
that this is a farبعيدا better problemمشكلة to have
328
919600
3416
لكن من المهم أن نتذكر
أن هذه المشكلة أفضل بكثير
15:35
than the one that hauntedازم
our ancestorsأسلاف for centuriesقرون:
329
923040
2816
من تلك التي استحوذت على
تفكير أجدادنا لعدة قرون ألا وهي:
15:37
how to make that pieفطيرة
bigكبير enoughكافية in the first placeمكان.
330
925880
3376
كيف نجعل الفطيرة
أكبر حجمًا في المقام الأول.
15:41
Thank you very much.
331
929280
1256
شكرًا جزيلًا لكم.
15:42
(Applauseتصفيق)
332
930560
3840
(تصفيق)
Translated by Hanan Zakaria
Reviewed by Hussain Laghabi

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com