ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

دانیل سوزکند: ۳ افسانه درباره آینده کار (و دلیل درست نبودن آنها)

Filmed:
1,519,249 views

"آیا ماشین‌ها جایگزین انسان‌ها می‌شوند؟" این سوالی است که در ذهن هر فرد با ترس از دست دادن شغل خود وجود دارد. دانیل سوزکند با این سوال و سه تصور اشتباه ما درباره آینده ماشینی پیشرو مواجه می‌شود و به ما پیشنهاد می‌دهد که سوال دیگری را مطرح کنیم: چگونه می‌توان در جهانی که کار کمتری وجود دارد و یا اصلا کاری وجود ندارد، ثروت را تقسیم کرد؟
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automationاتوماسیون anxietyاضطراب
has been spreadingگسترش دادن latelyاخیرا,
0
760
3376
اخیرا اضطراب ماشینی شدن
رو به افزایش بوده است،
00:16
a fearترس that in the futureآینده,
1
4160
2656
ترس از اینکه در آینده،
00:18
manyبسیاری jobsشغل ها will be performedانجام by machinesماشین آلات
2
6840
2456
شغل‌های زیادی به جای انسان‌ها با ماشین‌ها
00:21
ratherنسبتا than humanانسان beingsموجودات,
3
9320
1336
انجام خواهد شد،
00:22
givenداده شده the remarkableقابل توجه advancesپیشرفت
that are unfoldingآشکار شدن
4
10680
2936
با توجه به پیشرفت‌های قابل توجهی که
00:25
in artificialمصنوعی intelligenceهوش and roboticsروباتیک.
5
13640
2776
در هوش مصنوعی و رباتیک شاهد هستیم.
00:28
What's clearروشن است is that
there will be significantقابل توجه changeتغییر دادن.
6
16440
2816
چیزی که واضح است تغییرات چشم گیری است
که وجود خواهد داشت.
00:31
What's lessکمتر clearروشن است
is what that changeتغییر دادن will look like.
7
19280
3616
چیزی که کمتر مشخص است
شکلی است که آن تغییرات خواهند داشت.
00:34
My researchپژوهش suggestsحاکی از that the futureآینده
is bothهر دو troublingمشکل and excitingهیجان انگیز.
8
22920
4936
تحقیقات من نشان می‌دهد که آینده هم
دردسرساز و هم هیجان‌انگیز است.
00:39
The threatتهدید of technologicalتکنولوژیکی
unemploymentبیکاری is realواقعی,
9
27880
3736
تهدید بیکاری حاصل از فناوری‌ها واقعی است،
00:43
and yetهنوز it's a good problemمسئله to have.
10
31640
2056
با این حال این مشکل خوبی است که داریم.
00:45
And to explainتوضیح
how I cameآمد to that conclusionنتیجه,
11
33720
3216
و برای اینکه نشان بدهم چطور
به این نتیجه رسیدم،
00:48
I want to confrontروبرو شدن با threeسه mythsاسطوره ها
12
36960
2536
می‌خواهم با سه افسانه روبرو شویم
00:51
that I think are currentlyدر حال حاضر obscuringمبهم
our visionچشم انداز of this automatedخودکار futureآینده.
13
39520
4280
که به نظر من درحال حاضر
تصویر ما از آینده را مخدوش می‌کنند.
00:56
A pictureعکس that we see
on our televisionتلویزیون screensصفحه نمایش,
14
44880
2336
تصویری که روی صفحه نمایش
مشاهده می‌کنیم،
00:59
in booksکتاب ها, in filmsفیلم های, in everydayهر روز commentaryتفسیر
15
47240
2216
در کتاب‌ها، فیلم‌ها، تفسیرهای روزانه
01:01
is one where an armyارتش of robotsروبات ها
descendsفرود می آید on the workplaceمحل کار
16
49480
3696
این است که یک ارتش از ربات‌ها
به محل‌های کار سرازیر می‌شوند:
01:05
with one goalهدف in mindذهن:
17
53200
1376
با داشتن تنها یک هدف:
01:06
to displaceجایگزین humanانسان beingsموجودات from theirخودشان work.
18
54600
2496
تا انسان‌ها را از کارشان برکنار کنند.
01:09
And I call this the Terminatorنابود کننده mythاسطوره.
19
57120
2696
و من به این می‌گویم افسانه نابودگر.
01:11
Yes, machinesماشین آلات displaceجایگزین
humanانسان beingsموجودات from particularخاص tasksوظایف,
20
59840
3976
بله، ماشین‌ها انسان‌ها را
از کارهای خاصی برکنار می‌کنند،
01:15
but they don't just
substituteجایگزین for humanانسان beingsموجودات.
21
63840
2256
اما آن‌ها فقط جایگزین انسان‌ها نمی‌شوند.
بلکه آن‌ها در کارهای دیگر انسان را
کامل می‌کنند،
01:18
They alsoهمچنین complementمتمم them in other tasksوظایف,
22
66120
1976
که آن کار را با ارزش‌‌تر و مهم‌‌تر می‌کند.
01:20
makingساخت that work more valuableبا ارزش
and more importantمهم.
23
68120
3616
01:23
Sometimesگاهی they complementمتمم
humanانسان beingsموجودات directlyبه طور مستقیم,
24
71760
3336
گاهی اوقات به طور مستقیم
انسان‌ها را کامل می‌کنند،
01:27
makingساخت them more productiveسازنده
or more efficientکارآمد at a particularخاص taskوظیفه.
25
75120
4016
آن‌ها را در کار خاصی سازنده‌تر یا
پر بازده‌تر می‌کنند.
پس یک راننده تاکسی می‌تواند از
راهیابی ماهواره‌ای
01:31
So a taxiتاکسی driverراننده can use a satnavsatnav systemسیستم
to navigateحرکت کن on unfamiliarنا آشنا roadsجاده ها.
26
79160
4616
برای پیدا کردن مسیر در جاده
ناآشنا استفاده کند.
01:35
An architectمعمار can use
computer-assistedکامپیوتر کمک designطرح softwareنرم افزار
27
83800
3336
یک معمار می‌تواند از نرم افزار طراحی
رایانه‌ای استفاده کند
01:39
to designطرح biggerبزرگتر,
more complicatedبغرنج buildingsساختمان ها.
28
87160
3096
تا طرح بزرگتر و پیچیده تری
برای ساختمان‌ها ارائه کند.
01:42
But technologicalتکنولوژیکی progressپیش رفتن doesn't
just complementمتمم humanانسان beingsموجودات directlyبه طور مستقیم.
29
90280
3696
اما پیشرفت فناوری فقط به طور مستقیم
انسان‌ها را کامل تر نمی‌کند.
01:46
It alsoهمچنین complementsمکمل them indirectlyبه طور غیر مستقیم,
and it does this in two waysراه ها.
30
94000
3336
بلکه به طور غیر مستقیم نیز این
کار را به دو صورت انجام می‌دهد.
01:49
The first is if we think
of the economyاقتصاد as a pieپای,
31
97360
3336
روش اول به این صورت است که اگر ما
اقتصاد را مثل کیکی در نظر بگیریم،
01:52
technologicalتکنولوژیکی progressپیش رفتن
makesباعث می شود the pieپای biggerبزرگتر.
32
100720
2896
پیشرفت فناوری این کیک را بزرگتر می‌کند.
وقتی که سازندگی افزایش می‌یابد، درآمد
بیشتر شده و تقاضا افزایش می‌یابد.
01:55
As productivityبهره وری increasesافزایش,
incomesدرآمد riseبالا آمدن and demandتقاضا growsرشد می کند.
33
103640
3856
01:59
The Britishانگلیس pieپای, for instanceنمونه,
34
107520
1776
برای مثال، کیک بریتانیا،
02:01
is more than a hundredصد timesبار
the sizeاندازه it was 300 yearsسالها agoپیش.
35
109320
3960
بیشتر از صد برابر بزرگتر از ۳۰۰
سال پیش شده است.
02:05
And so people displacedآواره
from tasksوظایف in the oldقدیمی pieپای
36
113920
3216
و مردم زیادی که از کارهای خود
در کیک قدیمی برکنار شده‌اند
02:09
could find tasksوظایف to do
in the newجدید pieپای insteadبجای.
37
117160
2720
می‌توانند کارهایی را
در کیک جدید پیدا کنند.
02:12
But technologicalتکنولوژیکی progressپیش رفتن
doesn't just make the pieپای biggerبزرگتر.
38
120800
3936
اما پیشرفت فناوری فقط این کیک
را بزرگتر نمی‌کند.
02:16
It alsoهمچنین changesتغییرات
the ingredientsعناصر in the pieپای.
39
124760
2856
بلکه اجزای این کیک را نیز تغییر می‌دهد.
02:19
As time passesعبور می کند, people spendخرج کردن
theirخودشان incomeدرآمد in differentناهمسان waysراه ها,
40
127640
3456
با گذشت زمان، مردم درآمد خود را
به گونه‌های مختلفی خرج می‌کنند،
02:23
changingتغییر دادن how they spreadانتشار دادن it
acrossدر سراسر existingموجود است goodsکالاها,
41
131120
2816
با تغییردادن چگونگی خرج کردن آن‌
روی کالاهای موجود،
02:25
and developingدر حال توسعه tastesسلیقه ها
for entirelyبه طور کامل newجدید goodsکالاها, too.
42
133960
3216
و همینطور با بوجود آمدن اشتیاق
برای کالاهای کاملا جدید،
02:29
Newجدید industriesصنایع are createdایجاد شده,
43
137200
1776
صنایع جدیدی ساخته شده‌ است،
02:31
newجدید tasksوظایف have to be doneانجام شده
44
139000
1816
وظایف جدیدی باید انجام داده شوند
02:32
and that meansبه معنای oftenغالبا
newجدید rolesنقش ها have to be filledپر شده.
45
140840
2536
و این به این معنی است که
نقشهای جدیدی باید اجرا شود.
02:35
So again, the Britishانگلیس pieپای:
46
143400
1496
پس دوباره،
همان کیک بریتانیا:
02:36
300 yearsسالها agoپیش,
mostاکثر people workedکار کرد on farmsمزارع,
47
144920
2976
۳۰۰ سال قبل، بیشتر مردم
درمزارع کار می‌کردند،
02:39
150 yearsسالها agoپیش, in factoriesکارخانه ها,
48
147920
2336
۱۵۰ سال پیش، در کاخانه‌ها کار می‌کردند،
02:42
and todayامروز, mostاکثر people work in officesدفاتر.
49
150280
2856
و امروزه بیشتر مردم در
اداره‌ها کار می‌کنند.
02:45
And onceیک بار again, people displacedآواره
from tasksوظایف in the oldقدیمی bitبیت of pieپای
50
153160
4056
و بار دیگر، مردم بیکار شده در کیک قدیمی
02:49
could tumbleکشیدن into tasksوظایف
in the newجدید bitبیت of pieپای insteadبجای.
51
157240
2800
می‌توانند در وظایف جدید
در قسمت‌های جدید کیک مشغول شوند.
02:52
Economistsاقتصاددانان call these effectsاثرات
complementaritiescomplementarities,
52
160720
3336
اقتصاددان‌ها این اثرها را
کامل کننده‌‌ها می‌نامند،
02:56
but really that's just a fancyتفننی wordکلمه
to captureگرفتن the differentناهمسان way
53
164080
3256
اما در حقیقت کلمه شیکی است که
نشان‌دهنده راه‌های مختلفی است که
02:59
that technologicalتکنولوژیکی progressپیش رفتن
helpsکمک می کند humanانسان beingsموجودات.
54
167360
3136
پیشرفت فناوری به انسان‌ها می‌کند.
03:02
Resolvingحل و فصل this Terminatorنابود کننده mythاسطوره
55
170520
2096
حل این افسانه ترمیناتور (نابود کننده)
03:04
showsنشان می دهد us that there are
two forcesنیروها at playبازی:
56
172640
2336
نشان می‌دهد که دو نیرو در این
ماجرا نقش دارند:
03:07
one, machineدستگاه substitutionجایگزینی
that harmsخسارت workersکارگران,
57
175000
3536
یک، جایگزینی ماشین‌ها که به
کارگران آسیب می‌زند،
03:10
but alsoهمچنین these complementaritiescomplementarities
that do the oppositeمخالف.
58
178560
2880
اما این تکمیل کننده‌ها برعکس عمل می‌کنند.
03:13
Now the secondدومین mythاسطوره,
59
181960
1376
حالا افسانه دوم،
03:15
what I call the intelligenceهوش mythاسطوره.
60
183360
2280
که من به آن افسانه هوش میگویم.
03:18
What do the tasksوظایف of drivingرانندگی a carماشین,
makingساخت a medicalپزشکی diagnosisتشخیص
61
186440
4896
چه اشتراک‌هایی بین راندن یک ماشین،
تشخیص‌ پزشکی
03:23
and identifyingشناسایی a birdپرنده
at a fleetingزودگذر glimpseنظر اجمالی have in commonمشترک?
62
191360
2920
و شناسایی یک پرنده در یک لحظه وجود دارد؟
03:27
Well, these are all tasksوظایف
that untilتا زمان very recentlyبه تازگی,
63
195280
2976
خب، انجام تمام این وظایف
تا همین اواخر،
03:30
leadingمنتهی شدن economistsاقتصاددانان thought
couldn'tنمی توانستم readilyبه راحتی be automatedخودکار.
64
198280
3336
در نظر اقتصاددانان قابل
خودکار شدن نبودند.
03:33
And yetهنوز todayامروز, all of these tasksوظایف
can be automatedخودکار.
65
201640
3176
و امروز، تمامی این کارها را می‌توان
به صورت خودکار انجام داد.
می‌دانید که، تمام تولید کنندگان بزرگ خودرو
برنامه خوردروهای بدون راننده دارند.
03:36
You know, all majorعمده carماشین manufacturersتولید کنندگان
have driverlessبدون راننده carماشین programsبرنامه ها.
66
204840
3496
03:40
There's countlessبی شماری systemsسیستم های out there
that can diagnoseتشخیص دادن medicalپزشکی problemsمشکلات.
67
208360
3976
تعداد زیادی سیستم وجود دارد که می‌توانند
بیماری های پزشکی را تشخیص بدهند
03:44
And there's even an appبرنامه
that can identifyشناسایی a birdپرنده
68
212360
2416
و حتی یک برنامه وجود دارد که می‌تواند
یک پرنده را در لحظه شناسایی کند.
03:46
at a fleetingزودگذر glimpseنظر اجمالی.
69
214800
1200
03:48
Now, this wasn'tنبود simplyبه سادگی a caseمورد of badبد luckشانس
on the partبخشی of economistsاقتصاددانان.
70
216920
4376
این فقط یک بد شانسی ساده برای
اقتصاددان‌ها نبود.
03:53
They were wrongاشتباه,
71
221320
1296
آن‌ها اشتباه می‌کردند،
03:54
and the reasonدلیل why
they were wrongاشتباه is very importantمهم.
72
222640
2496
و دلیل این اشتباه آن‌ها بسیار مهم است.
03:57
They'veآنها دارند fallenافتاده for the intelligenceهوش mythاسطوره,
73
225160
2256
آن‌ها در افسانه هوش گیر افتاده بودند،
03:59
the beliefاعتقاد that machinesماشین آلات
have to copyکپی کنید the way
74
227440
2896
باوری که می‌گوید ماشین‌ها باید طرز فکر
04:02
that humanانسان beingsموجودات think and reasonدلیل
75
230360
2056
و دلیل آوردن انسانها را
تقلید کنند.
تا بتوانند از آنها پیشی بگیرند.
04:04
in orderسفارش to outperformبهتر از them.
76
232440
1776
04:06
When these economistsاقتصاددانان
were tryingتلاش کن to figureشکل out
77
234240
2216
زمانی که این اقتصاددانان تلاش می‌کردند
کشف کنند
04:08
what tasksوظایف machinesماشین آلات could not do,
78
236480
1856
که ماشین‌ها چه کارهایی را
نمی‌توانند انجام بدهند،
04:10
they imaginedتصور the only way
to automateاتوماتیک a taskوظیفه
79
238360
2136
تصور می‌کردند تنها راه برای خودکار
انجام دادن یک کار،
04:12
was to sitنشستن down with a humanانسان beingبودن,
80
240520
1816
این بود که با یک انسان بنشینند،
04:14
get them to explainتوضیح to you
how it was they performedانجام a taskوظیفه,
81
242360
3536
و آن‌ها رو مجبور کنند تا به آن‌ها
توضیح بدهند که چگونه کاری را انجام می‌دهد،
04:17
and then try and captureگرفتن that explanationتوضیح
82
245920
2656
و سپس سعی کنند آن توضیح را در قالب
04:20
in a setتنظیم of instructionsدستورالعمل ها
for a machineدستگاه to followدنبال کردن.
83
248600
2776
یک سری دستورات به ماشین بدهند
که تقلید کند.
04:23
This viewچشم انداز was popularمحبوب in artificialمصنوعی
intelligenceهوش at one pointنقطه, too.
84
251400
4176
این دیدگاه در حوزه هوش مصنوعی
نیز رایج بود،
04:27
I know this because Richardریچارد Susskindسوزشند,
85
255600
2176
من این را می‌دانم چون
ریچارد سوزکیند،
04:29
who is my dadپدر and my coauthorهماهنگ کننده,
86
257800
2856
که پدر و مولف همکار من است،
04:32
wroteنوشت his doctorateدکترا in the 1980s
on artificialمصنوعی intelligenceهوش and the lawقانون
87
260680
4056
پروژه دکترا خود را در سالهای ۱۹۸۰
روی هوش مصنوعی و قانون
در دانشگاه آکسفورد انجام داد،
04:36
at Oxfordآکسفورد Universityدانشگاه,
88
264760
1416
و او یکی از پیشگامان این حوزه بود.
04:38
and he was partبخشی of the vanguardپیشگام.
89
266200
1576
04:39
And with a professorاستاد calledبه نام Phillipفیلیپ Capperکلاهدوز
90
267800
2256
و به همراه پرفسوری به نام فیلیپ کوپر
04:42
and a legalقانونی publisherناشر calledبه نام ButterworthsButterworths,
91
270080
2096
و یک ناشر قانونی به نام باترورث،
04:44
they producedتولید شده the world'sجهان first
commerciallyبه صورت تجاری availableدر دسترس است
92
272200
5896
آن‌ها اولین سیستم هوش مصنوعی دنیا
را طبق قانون ساختند
04:50
artificialمصنوعی intelligenceهوش systemسیستم in the lawقانون.
93
278120
2776
که برای خرید در دسترس بود.
04:52
This was the home screenصفحه نمایش designطرح.
94
280920
2616
این طرح صفحه اصلی بود،
04:55
He assuresاطمینان می دهد me this was
a coolسرد screenصفحه نمایش designطرح at the time.
95
283560
2696
و او به من اطمینان داد که در آن
زمان این طرح جالبی بود.
04:58
(Laughterخنده)
96
286280
1016
04:59
I've never been entirelyبه طور کامل convincedمتقاعد.
97
287320
1696
(خنده) و من هیچوقت کاملا
قانع نشدم.
05:01
He publishedمنتشر شده it
in the formفرم of two floppyفلاپی disksدیسک ها,
98
289040
2616
او به وسیله دو فلاپی دیسک این موضوع
را منتشر کرد،
05:03
at a time where floppyفلاپی disksدیسک ها
genuinelyواقعا were floppyفلاپی,
99
291680
3536
در زمانی که فلاپی دیسک‌ها واقعا
فلاپی (مسخره) بودند!
05:07
and his approachرویکرد was the sameیکسان
as the economists'اقتصاددانان:
100
295240
2336
و رویکرد او همان رویکرد اقتصاددانان بود:
05:09
sitنشستن down with a lawyerوکیل,
101
297600
1256
با یک وکیل صحبت کرد،
05:10
get her to explainتوضیح to you
how it was she solvedحل شد a legalقانونی problemمسئله,
102
298880
3176
تا به شما توضیح بدهد چگونه یک مشکل
قانونی را حل کرد،
05:14
and then try and captureگرفتن that explanationتوضیح
in a setتنظیم of rulesقوانین for a machineدستگاه to followدنبال کردن.
103
302080
5376
و بعد آن توضیح را به صورت قوانینی برای
ماشین‌ها درآورد تا از آن پیروی کنند.
05:19
In economicsاقتصاد, if humanانسان beingsموجودات
could explainتوضیح themselvesخودشان in this way,
104
307480
3616
در اقتصاد، انسان‌ها به این روش می‌توانند
خود را توضیح بدهند،
که به آن وظایف روال گفته می‌شود
و می‌توانند خودکار انجام بشوند.
05:23
the tasksوظایف are calledبه نام routineمعمولی,
and they could be automatedخودکار.
105
311120
3296
05:26
But if humanانسان beingsموجودات
can't explainتوضیح themselvesخودشان,
106
314440
2336
اما اگر انسان‌ها نتوانند خود را
توضیح دهند،
05:28
the tasksوظایف are calledبه نام non-routineغیر معمول,
and they're thought to be out reachنائل شدن.
107
316800
4256
به آن کارها غیر عادی گفته می‌شود، و آنها
فکر می‌کنند که خارج از دسترس می‌باشد.
05:33
Todayامروز, that routine-nonroutineروال nonroutine
distinctionفرق - تمیز - تشخیص is widespreadبطور گسترده.
108
321080
3296
امروز، تمایز بین معمول و غیر معمول
گسترده شده است.
05:36
Think how oftenغالبا you hearشنیدن people say to you
109
324400
2056
فکر کنید که چقدر مردم به شما می‌گویند
05:38
machinesماشین آلات can only performانجام دادن tasksوظایف
that are predictableقابل پیش بینی or repetitiveتکراری,
110
326480
3256
ماشین‌ها فقط کارهای تکراری و قابل پیش‌بینی
را می‌توانند انجام دهند،
05:41
rules-basedقوانین مبتنی بر or well-definedبه خوبی تعریف شده است.
111
329760
1896
کارهایی که بر اساس قانون یا
مشخص هستند.
05:43
Those are all just
differentناهمسان wordsکلمات for routineمعمولی.
112
331680
2936
این‌ها فقط کلمات متفاوتی برای معمولی
هستند.
05:46
And go back to those threeسه casesموارد
that I mentionedذکر شده at the startشروع کن.
113
334640
3976
و به آن سه موردی که درابتدا اشاره کردم
برگردید و نگاهی بندازید.
05:50
Those are all classicکلاسیک casesموارد
of nonroutinenonroutine tasksوظایف.
114
338640
2896
آن‌ها همه مواردی کلاسیک از کارهای
غیر معمول هستند.
05:53
Askپرسیدن a doctorدکتر, for instanceنمونه,
how she makesباعث می شود a medicalپزشکی diagnosisتشخیص,
115
341560
2976
برای مثال از یک دکتر بپرسید
چگونه یک تشخیص پزشکی را می‌دهد،
05:56
and she mightممکن be ableتوانایی
to give you a fewتعداد کمی rulesقوانین of thumbشست,
116
344560
2656
و او ممکن است بتواند به شما
تعدادی قاعده بگوید،
05:59
but ultimatelyدر نهایت she'dاو می خواهد struggleتقلا.
117
347240
1656
اما در نهایت نخواهد توانست.
06:00
She'dدهنه say it requiresنیاز دارد things like
creativityخلاقیت and judgmentداوری and intuitionبینش.
118
348920
4816
او خواهد گفت این چیزها نیازمند
خلاقیت، قضاوت و مشاهده است.
06:05
And these things are
very difficultدشوار to articulateبیان,
119
353760
2376
و بیان این چیزها بسیار سخت هستند،
06:08
and so it was thought these tasksوظایف
would be very hardسخت to automateاتوماتیک.
120
356160
3096
و فکر می‌کنند که این کارها بسیار سخت هستند
تا خودکار انجام بشوند.
06:11
If a humanانسان beingبودن can't explainتوضیح themselvesخودشان,
121
359280
2536
اگر یک انسان نتواند خودش را توضیح بدهد،
06:13
where on earthزمین do we beginشروع
in writingنوشتن a setتنظیم of instructionsدستورالعمل ها
122
361840
2896
چطور می‌خواهد شروع به نوشتن
دستوراتی کند تا
06:16
for a machineدستگاه to followدنبال کردن?
123
364760
1200
یک ماشین از آن پیروی کند؟
06:18
Thirtyسی سی yearsسالها agoپیش, this viewچشم انداز was right,
124
366640
2576
۳۰ سال پیش، این دیدگاه درست بود،
06:21
but todayامروز it's looking shakyتکان دهنده,
125
369240
2136
اما امروزه تکان دهنده به نظر
می‌رسد،
06:23
and in the futureآینده
it's simplyبه سادگی going to be wrongاشتباه.
126
371400
2256
و در آینده این دیدگاه‌ها براحتی اشتباه
خواهند بود.
06:25
Advancesپیشرفت های in processingدر حال پردازش powerقدرت,
in dataداده ها storageذخیره سازی capabilityتوانایی
127
373680
3256
پیشرفت در قدرت پردازش،
قابلیت ذخیره سازی داده‌ها
06:28
and in algorithmالگوریتم designطرح
128
376960
1656
و طراحی الگوریتم‌ها
06:30
mean that this
routine-nonroutineروال nonroutine distinctionفرق - تمیز - تشخیص
129
378640
2496
به این معنی است که فرق بین
معمول و غیر معمول
06:33
is diminishinglydiminishingly usefulمفید است.
130
381160
1736
کاربرد کمتری پیدا کرده است.
06:34
To see this, go back to the caseمورد
of makingساخت a medicalپزشکی diagnosisتشخیص.
131
382920
3256
برای دیدن این موضوع، به مورد تشخیص
پزشکی برگردیم.
06:38
Earlierپیشتر in the yearسال,
132
386200
1376
در اوایل این سال،
06:39
a teamتیم of researchersمحققان at Stanfordاستنفورد
announcedاعلام کرد they'dآنها می خواهند developedتوسعه یافته a systemسیستم
133
387600
3296
یک تیم تحقیقاتی در استنفورد اعلام کرد که
سیستمی را توسعه می‌دهند
06:42
whichکه can tell you
whetherچه or not a freckleدارای کک مک کردن is cancerousسرطانی
134
390920
3056
که می‌تواند به شما بگوید
آیا یک لکه، سرطان هست یا نه،
06:46
as accuratelyبه درستی as leadingمنتهی شدن dermatologistsمتخصصین پوست.
135
394000
2680
با دقتی به اندازه دقت یک متخصص پوست.
06:49
How does it work?
136
397280
1256
این چگونه کار می‌کند؟
06:50
It's not tryingتلاش کن to copyکپی کنید the judgmentداوری
or the intuitionبینش of a doctorدکتر.
137
398560
5296
این سیستم قضاوت و مشاهدات یک دکتر
را کپی نمی‌کند.
06:55
It knowsمی داند or understandsدرک می کند
nothing about medicineدارو at all.
138
403880
3136
این سیستم اصلا چیزی درباره دارو درک
نمی‌کند و نمی‌داند.
06:59
Insteadبجای, it's runningدر حال اجرا
a patternالگو recognitionبه رسمیت شناختن algorithmالگوریتم
139
407040
2576
درعوض، یک الگوریتم تشخیص الگو را
اجرا می‌کند
07:01
throughاز طریق 129,450 pastگذشته casesموارد,
140
409640
4656
در ۱۲۹,۴۵۰ مورد گذشته،
07:06
huntingشکار for similaritiesشباهت ها
betweenبین those casesموارد
141
414320
3096
به دنبال شکار شباهت‌هایی بین آن
موارد
07:09
and the particularخاص lesionضایعه in questionسوال.
142
417440
2080
و زخم‌های مشخصی بوده‌اند.
07:12
It's performingاجرای these tasksوظایف
in an unhumanunhuman way,
143
420080
3216
اجرای این کارهای از طریق یک راه
غیر انسانی،
07:15
basedمستقر on the analysisتحلیل و بررسی
of more possibleامکان پذیر است casesموارد
144
423320
2336
بر اساس بررسی حداکثر موردهای ‌ممکن است
07:17
than any doctorدکتر could hopeامید
to reviewمرور in theirخودشان lifetimeطول عمر.
145
425680
2616
که هر پزشکی در طول زندگی
آرزوی انجامش را دارد.
07:20
It didn't matterموضوع that that humanانسان beingبودن,
146
428320
1896
اصلا مهم نیست که آن انسان، آن پزشک،
07:22
that doctorدکتر, couldn'tنمی توانستم explainتوضیح
how she'dاو می خواهد performedانجام the taskوظیفه.
147
430240
2800
نتواند توضیح بدهد که چگونه آن کار را
انجام می‌دهد.
07:25
Now, there are those
who dwellساکن uponبر that the factواقعیت
148
433640
2336
در حال حاضر کسانی روی این واقعیت
متمرکز هستند که
07:28
that these machinesماشین آلات
aren'tنه builtساخته شده in our imageتصویر.
149
436000
2296
این ماشین‌ها در تصور ما ساخته
نشده‌اند.
07:30
As an exampleمثال, take IBM'sآی بی ام Watsonواتسون,
150
438320
2056
برای مثال واتسون، آی‌بی‌ام را
در نظر بگیرید،
07:32
the supercomputerابر رایانه that wentرفتی
on the US quizمسابقه showنشان بده "Jeopardyریشخند!" in 2011,
151
440400
4856
یک اَبَر کامپیوتر که در سال ۲۰۱۱ در برنامه
پرسش و پاسخ آمریکایی جئوپاردی شرکت کرد!
07:37
and it beatضرب و شتم the two
humanانسان championsقهرمانان at "Jeopardyریشخند!"
152
445280
3016
و دو تا از افراد قهرمان در جئوپاردی
را شکست داد !
07:40
The day after it wonبرنده شد,
153
448320
1696
روز بعد از این پیروزی،
07:42
The Wallدیوار Streetخیابان Journalمجله ranفرار کرد a pieceقطعه
by the philosopherفیلسوف Johnجان Searleسیرل
154
450040
3296
روزنامه وال‌ استریت متنی از
جان سارل فیلسوف را منتشر کرد
07:45
with the titleعنوان "Watsonواتسون
Doesn't Know It Wonبرنده شد on 'Jeopardyریشخند!'"
155
453360
3376
با این عنوان که "واتسون نمی‌داند که
جئوپاردی را برده است!"
07:48
Right, and it's brilliantدرخشان, and it's trueدرست است.
156
456760
1976
بله، و بسیار هوشمندانه و درست هم هست.
07:50
You know, Watsonواتسون didn't
let out a cryگریه کردن of excitementهیجان.
157
458760
2456
شما می‌دانید که واتسون اشک شوق نریخت.
07:53
It didn't call up its parentsپدر و مادر
to say what a good jobکار it had doneانجام شده.
158
461240
3096
خانواده‌اش به او برای کاری
که انجام داده بود آفرین نگفت.
07:56
It didn't go down to the pubمیخانه for a drinkنوشیدن.
159
464360
2336
به بار نرفت تا شادی کند و بنوشد.
07:58
This systemسیستم wasn'tنبود tryingتلاش کن to copyکپی کنید the way
that those humanانسان contestantsمسابقه playedبازی کرد,
160
466720
4456
این سیستم تلاشی برای تقلید از روشی که
افراد شرکت کننده داشتند نکرد،
08:03
but it didn't matterموضوع.
161
471200
1256
اما مهم هم نبود.
08:04
It still outperformedفراتر رفته است them.
162
472480
1976
این سیستم همچنان بر آنها برتری دارد.
08:06
Resolvingحل و فصل the intelligenceهوش mythاسطوره
163
474480
1576
حل این افسانه هوش
08:08
showsنشان می دهد us that our limitedمحدود understandingدرك كردن
about humanانسان intelligenceهوش,
164
476080
3376
نشان داد درک محدود ما درباره هوش انسانی،
08:11
about how we think and reasonدلیل,
165
479480
1896
درباره فکر کردن و دلیل پیدا کردن‌ها،
08:13
is farدور lessکمتر of a constraintمحدودیت
on automationاتوماسیون than it was in the pastگذشته.
166
481400
3456
به مراتب کمتر از محدودیت در اتوماسیونی
است که در گذشته بوده است.
08:16
What's more, as we'veما هستیم seenمشاهده گردید,
167
484880
1496
علاوه بر این مشاهده کردیم،
08:18
when these machinesماشین آلات
performانجام دادن tasksوظایف differentlyمتفاوت است to humanانسان beingsموجودات,
168
486400
3416
وقتی این ماشین‌ها وظایف مختلفی را برای
انسان‌ها انجام می‌دهند،
08:21
there's no reasonدلیل to think
169
489840
1256
دلیلی ندارد که فکر کنیم
08:23
that what humanانسان beingsموجودات
are currentlyدر حال حاضر capableقادر به of doing
170
491120
2536
کارهایی که انسان‌ها در حال حاضر توانایی
انجام آن را دارند،
08:25
representsنشان دهنده any sortمرتب سازی of summitاجلاس سران
171
493680
1456
نشان دهنده بالاترین کارهایی است که
08:27
in what these machinesماشین آلات
mightممکن be capableقادر به of doing in the futureآینده.
172
495160
3000
ممکن است یک ماشین در آینده بتواند انجام
بدهد.
08:31
Now the thirdسوم mythاسطوره,
173
499040
1256
و حالا افسانه سوم،
08:32
what I call the superiorityبرتری mythاسطوره.
174
500320
2456
که آن را افسانه برتری می‌نامم.
08:34
It's oftenغالبا said that those who forgetفراموش کردن
175
502800
2216
معمولا گفته می‌شود کسانی که
درباره قسمت مفید
08:37
about the helpfulمفید است sideسمت
of technologicalتکنولوژیکی progressپیش رفتن,
176
505040
2456
پیشرویی فناوری، آن تکمیل‌کننده اسبق،
08:39
those complementaritiescomplementarities from before,
177
507520
2496
را فراموش می‌کنند،
08:42
are committingمرتکب شدن something
knownشناخته شده as the lumpتوده of laborنیروی کار fallacyاشتباه.
178
510040
3040
مرتکب چیزی می‌شوند که "به اشتباه
توده حزب کارگری" شناخته می‌شود.
08:45
Now, the problemمسئله is
the lumpتوده of laborنیروی کار fallacyاشتباه
179
513840
2295
حالا مشکل اشتباه توده حزب کارگری
این است
08:48
is itselfخودش a fallacyاشتباه,
180
516159
1496
که خودش یک اشتباه است،
08:49
and I call this the lumpتوده
of laborنیروی کار fallacyاشتباه fallacyاشتباه,
181
517679
2937
و من به آن اشتباه اشتباه توده
حزب کارگری می‌گویم،
08:52
or LOLFFLOLFF, for shortکوتاه.
182
520640
2320
یا به اختصار LOLFF.
08:56
Let me explainتوضیح.
183
524000
1416
اجازه بدید توضیح بدم.
اشتباه توده کارگری یک ایده بسیار
قدیمی می‌باشد.
08:57
The lumpتوده of laborنیروی کار fallacyاشتباه
is a very oldقدیمی ideaاندیشه.
184
525440
2136
یک اقتصاددان بریتانیایی در سال ۱۸۹۲ به اسم
دیوید اِشلاس این اسم را به آن داده است.
08:59
It was a Britishانگلیس economistاقتصاددان, Davidدیوید Schlossاشلوس,
who gaveداد it this nameنام in 1892.
185
527600
4216
09:03
He was puzzledگیج شدم
to come acrossدر سراسر a dockاسکله workerکارگر
186
531840
2816
او به یک کارگر بار انداز خیره شده بود
09:06
who had begunشروع شد to use
a machineدستگاه to make washersواشر,
187
534680
2336
که شروع به ساخت واشر با استفاده از
ماشین کرده بود،
09:09
the smallکوچک metalفلز discsدیسک ها
that fastenچسباندن on the endپایان of screwsپیچ ها.
188
537040
3320
دیسک‌های فلزی کوچکی که در انتهای پیچ‌ها
قرار می‌گیرند.
09:13
And this dockاسکله workerکارگر
feltنمد guiltyگناهکار for beingبودن more productiveسازنده.
189
541000
3760
و این کارگر بار انداز برای شروع تولید
بیشتری که داشت، احساس گناه می‌کرد.
حالا در بیشتر اوقات ما انتظاری برعکس
داریم،
09:17
Now, mostاکثر of the time,
we expectانتظار the oppositeمخالف,
190
545560
2176
که مردم از بازده نداشتن
احساس گناه می‌کنند،
09:19
that people feel guiltyگناهکار
for beingبودن unproductiveغیر تولیدی,
191
547760
2216
مثلا صرف وقت بیشتری توی فیسبوک
یا توییتر در محل کار.
09:22
you know, a little too much time
on Facebookفیس بوک or Twitterتوییتر at work.
192
550000
3016
اما این کارگر از بیشتر تولید کردن
ناراحت بود،
09:25
But this workerکارگر feltنمد guiltyگناهکار
for beingبودن more productiveسازنده,
193
553040
2536
و در جواب چرا گفت
"میدونم که دارم اشتباه می‌کنم،
09:27
and askedپرسید: why, he said,
"I know I'm doing wrongاشتباه.
194
555600
2296
"من دارم کار یک نفر دیگه رو ازش می‌گیرم".
09:29
I'm takingگرفتن away the work of anotherیکی دیگر man."
195
557920
2040
09:32
In his mindذهن, there was
some fixedدرست شد lumpتوده of work
196
560760
2976
در ذهن آن شخص یک توده کارگری
ثابت برای تقسیم بین
09:35
to be dividedتقسیم شده up betweenبین him and his palspals,
197
563760
2136
آن و دوستانش وجود داشت،
پس اگر او دارد از این ماشین برای
تولید بیشتر استفاده می‌کند
09:37
so that if he used
this machineدستگاه to do more,
198
565920
2056
کار کمتری برای دوستانش وجود دارد
تا انجام بدهند.
09:40
there'dقرمز be lessکمتر left for his palspals to do.
199
568000
2016
09:42
Schlossاشلوس saw the mistakeاشتباه.
200
570040
1856
اِشلاس این مشکل رو دید.
09:43
The lumpتوده of work wasn'tنبود fixedدرست شد.
201
571920
1856
حجم کاری که وجود دارد ثابت نیست.
همانطور که این کارگر از ماشین برای تولید
بیشتر استفاده می‌کند
09:45
As this workerکارگر used the machineدستگاه
and becameتبدیل شد more productiveسازنده,
202
573800
2816
09:48
the priceقیمت of washersواشر would fallسقوط,
demandتقاضا for washersواشر would riseبالا آمدن,
203
576640
2976
قیمت واشر افت می‌کند، درخواست برای واشر
افزایش می‌یابد،
09:51
more washersواشر would have to be madeساخته شده,
204
579640
1696
واشر‌های بیشتری باید ساخته شوند،
و کار بیشتری وجود دارد تا دوستانش
انجام دهند.
09:53
and there'dقرمز be more work
for his palspals to do.
205
581360
2096
09:55
The lumpتوده of work would get biggerبزرگتر.
206
583480
1696
حجم کار بزرگ‌تر خواهد شد.
09:57
Schlossاشلوس calledبه نام this
"the lumpتوده of laborنیروی کار fallacyاشتباه."
207
585200
2680
اِشلاس به این "اشتباه توده کارگری"
گفت.
10:00
And todayامروز you hearشنیدن people talk
about the lumpتوده of laborنیروی کار fallacyاشتباه
208
588560
2936
و امروزه شما می‌شنوید که مردم درباره این
اشتباه حرف می‌زنند
تا درباره آینده انواع کارها فکر کنند.
10:03
to think about the futureآینده
of all typesانواع of work.
209
591520
2216
میزان ثابتی کار وجود ندارد که بخواهد بین
10:05
There's no fixedدرست شد lumpتوده of work
out there to be dividedتقسیم شده up
210
593760
2656
مردم و ماشین‌ها تقسیم بشود.
10:08
betweenبین people and machinesماشین آلات.
211
596440
1376
بله، ماشین‌ها جایگزین انسان‌ها می‌شوند،
حجم کار اصلی را کاهش می‌دهند،
10:09
Yes, machinesماشین آلات substituteجایگزین for humanانسان beingsموجودات,
makingساخت the originalاصلی lumpتوده of work smallerکوچکتر,
212
597840
4656
اما در کنار آن انسان ها را کامل می‌کنند،
10:14
but they alsoهمچنین complementمتمم humanانسان beingsموجودات,
213
602520
1856
10:16
and the lumpتوده of work
getsمی شود biggerبزرگتر and changesتغییرات.
214
604400
2096
و میزان کار موجود تغییر کرده و
بزرگتر می‌شود.
10:19
But LOLFFLOLFF.
215
607760
1616
اما LOLFF.
10:21
Here'sاینجاست the mistakeاشتباه:
216
609400
1376
مشکل و اشتباه اینجاست:
10:22
it's right to think
that technologicalتکنولوژیکی progressپیش رفتن
217
610800
2216
کاملا درست است که فکر کنیم
پیشرفت فناوری
10:25
makesباعث می شود the lumpتوده of work to be doneانجام شده biggerبزرگتر.
218
613040
1976
حجم کار انجام شده را بزرگتر
می‌کند.
10:27
Some tasksوظایف becomeتبدیل شدن به more valuableبا ارزش.
Newجدید tasksوظایف have to be doneانجام شده.
219
615040
3016
برخی کارها با ارزش‌تر می‌شوند.
وظایف جدیدی باید انجام ‌شوند.
10:30
But it's wrongاشتباه to think that necessarilyلزوما,
220
618080
2536
اما این درست نیست که فکر کنیم
لزوما انسان‌ها
10:32
humanانسان beingsموجودات will be bestبهترین placedقرار داده شده
to performانجام دادن those tasksوظایف.
221
620640
3256
بهترین وظایف را خواهند داشت.
10:35
And this is the superiorityبرتری mythاسطوره.
222
623920
1616
و این افسانه برتری هست.
10:37
Yes, the lumpتوده of work
mightممکن get biggerبزرگتر and changeتغییر دادن,
223
625560
3416
درست است، حجم کار موجود ممکن است بزرگ‌تر
شود یا تغییر کند،
10:41
but as machinesماشین آلات becomeتبدیل شدن به more capableقادر به,
224
629000
1976
اما ماشین‌ها که توانا‌تر می‌شوند،
10:43
it's likelyاحتمال دارد that they'llآنها خواهند شد take on
the extraاضافی lumpتوده of work themselvesخودشان.
225
631000
3896
ممکن است که تمام میزان کار اضافی را
خودشان پر کنند.
10:46
Technologicalتکنولوژیکی progressپیش رفتن,
ratherنسبتا than complementمتمم humanانسان beingsموجودات,
226
634920
3256
پیشرفت فناوری، به جای مکمل بودن
برای انسان‌ها،
10:50
complementsمکمل machinesماشین آلات insteadبجای.
227
638200
1880
کار ماشین‌ها را تکمیل می‌کند.
10:52
To see this, go back
to the taskوظیفه of drivingرانندگی a carماشین.
228
640920
3016
برای دیدن این به مثال روندن ماشین برگردیم.
10:55
Todayامروز, satnavsatnav systemsسیستم های
directlyبه طور مستقیم complementمتمم humanانسان beingsموجودات.
229
643960
4096
امروزه سیستم راهیابی ماهواره‌ای
مستقیما انسان‌های را تکمیل می‌کند
11:00
They make some
humanانسان beingsموجودات better driversرانندگان.
230
648080
2280
آنها انسان‌ها را راننده‌های بهتری می‌کنند.
11:02
But in the futureآینده,
231
650920
1256
اما در آینده،
11:04
softwareنرم افزار is going to displaceجایگزین
humanانسان beingsموجودات from the drivingرانندگی seatصندلی,
232
652200
3096
نرم‌افزار می‌خواهد راننده‌ را جایگزین کند،
11:07
and these satnavsatnav systemsسیستم های,
ratherنسبتا than complementمتمم humanانسان beingsموجودات,
233
655320
2936
و سیستم راه‌یابی ماهواره‌ای،
به جای تکمیل انسان‌ها،
11:10
will simplyبه سادگی make these
driverlessبدون راننده carsماشین ها more efficientکارآمد,
234
658280
2536
به راحتی ماشین‌های بدون راننده را
کارآمدتر می‌کند،
11:12
helpingکمک the machinesماشین آلات insteadبجای.
235
660840
1536
با کمک کردن به ماشین‌ها.
11:14
Or go to those indirectغیر مستقیم complementaritiescomplementarities
that I mentionedذکر شده as well.
236
662400
4056
یا به آن تکمیل کننده‌های غیر مستقیمی که
اشاره کردم دقت کنید.
11:18
The economicاقتصادی pieپای mayممکن است get largerبزرگتر,
237
666480
1776
کیک اقتصادی بزرگتر می‌شود،
11:20
but as machinesماشین آلات becomeتبدیل شدن به more capableقادر به,
238
668280
1736
اما با توانمندتر شدن ماشین‌ها،
11:22
it's possibleامکان پذیر است that any newجدید demandتقاضا
will fallسقوط on goodsکالاها that machinesماشین آلات,
239
670040
3143
ممکن است که نیازهای جدید برای کالاهایی
بهتر باشد،
11:25
ratherنسبتا than humanانسان beingsموجودات,
are bestبهترین placedقرار داده شده to produceتولید کردن.
240
673207
2649
که ماشین در قیاس با انسان‌ها،
در تولید آن بهترین است.
11:27
The economicاقتصادی pieپای mayممکن است changeتغییر دادن,
241
675880
1896
کیک اقتصاد ممکن است تغییر کند،
11:29
but as machinesماشین آلات becomeتبدیل شدن به more capableقادر به,
242
677800
1896
اما با توانمندتر شدن ماشین‌ها،
11:31
it's possibleامکان پذیر است that they'llآنها خواهند شد be bestبهترین placedقرار داده شده
to do the newجدید tasksوظایف that have to be doneانجام شده.
243
679720
4856
امکان دارد که آن‌ها گزینه مناسب‌تری برای
قرار گرفتن در کارهای جدید باشند.
11:36
In shortکوتاه, demandتقاضا for tasksوظایف
isn't demandتقاضا for humanانسان laborنیروی کار.
244
684600
3696
خلاصه، نیاز به کار، نیاز به نیروی
انسانی نیست.
11:40
Humanانسان beingsموجودات only standایستادن to benefitسود
245
688320
1936
انسان‌ها تنها در صورتی نفع می‌برند
11:42
if they retainحفظ the upperبالا handدست
in all these complementedتکمیل شده tasksوظایف,
246
690280
3816
که در تمام این وظایف تکمیلی برتری خود را
حفظ کنند،
11:46
but as machinesماشین آلات becomeتبدیل شدن به more capableقادر به,
that becomesتبدیل می شود lessکمتر likelyاحتمال دارد.
247
694120
3720
اما با کارآمدتر شدن ماشین‌ها، احتمال این
موضوع کاهش پیدا می‌کند.
11:50
So what do these threeسه mythsاسطوره ها tell us then?
248
698760
2016
حالا این سه افسانه به ما چه می‌گویند؟
11:52
Well, resolvingحل کردن the Terminatorنابود کننده mythاسطوره
249
700800
1696
خب، حل افسانه نابودگر
11:54
showsنشان می دهد us that the futureآینده of work dependsبستگی دارد
uponبر this balanceتعادل betweenبین two forcesنیروها:
250
702520
3696
به ما نشان می‌دهد که آینده کارها به تعادل
بین این دو نیرو بستگی دارد:
11:58
one, machineدستگاه substitutionجایگزینی
that harmsخسارت workersکارگران
251
706240
3136
یک، جایگزینی ماشین‌ها که به کارگرها
آسیب می‌زند
12:01
but alsoهمچنین those complementaritiescomplementarities
that do the oppositeمخالف.
252
709400
2576
و آن کارهای تکمیلی که برعکس این را
انجام می‌دهد.
12:04
And untilتا زمان now, this balanceتعادل
has fallenافتاده in favorلطف of humanانسان beingsموجودات.
253
712000
4040
و تا الان این تعادل به نفع انسان‌ها بوده.
12:09
But resolvingحل کردن the intelligenceهوش mythاسطوره
254
717120
1736
اما بررسی افسانه هوش
12:10
showsنشان می دهد us that that first forceزور,
machineدستگاه substitutionجایگزینی,
255
718880
2496
به ما نشان می‌دهد که نیروی اول،
جایگزینی ماشین‌ها،
12:13
is gatheringجمع آوری strengthاستحکام.
256
721400
1296
نیرومندتر می‌شود.
با اینکه ماشین‌ها همه کارها را نمی‌توانند
انجام دهند
12:14
Machinesماشین آلات, of courseدوره, can't do everything,
257
722720
1976
12:16
but they can do farدور more,
258
724720
1256
اما قادر به انجام کارهای زیادی هستند،
12:18
encroachingدرگیر شدن ever deeperعمیق تر into the realmقلمرو
of tasksوظایف performedانجام by humanانسان beingsموجودات.
259
726000
4576
ورود به حوزه کارهایی که انسان‌ها انجام
می‌دهند را عمیق‌تر می‌کند.
12:22
What's more, there's no reasonدلیل to think
260
730600
1896
علاوه بر این، نیازی نیست فکر کنیم که
12:24
that what humanانسان beingsموجودات
are currentlyدر حال حاضر capableقادر به of
261
732520
2216
کارهایی که از دست انسان‌ها بر می‌آید
12:26
representsنشان دهنده any sortمرتب سازی of finishingبه پایان رساندن lineخط,
262
734760
1856
دلالت بر هر گونه خط پایان دارد،
12:28
that machinesماشین آلات are going
to drawقرعه کشی to a politeبا ادب stop
263
736640
2256
که ماشین‌ها با توانمند شدن در سطح انسان
12:30
onceیک بار they're as capableقادر به as us.
264
738920
1816
نقطه پایان آن را ترسیم کنند.
الان، هیچکدام این‌ها اهمیت ندارد
12:32
Now, noneهیچ کدام of this mattersمسائل
265
740760
1536
12:34
so long as those helpfulمفید است
windsباد of complementarityمکمل بودن
266
742320
2816
تا زمانی که کارهای
تکمیلی امیدوار کننده
12:37
blowفوت کردن، دمیدن firmlyمحکم enoughکافی,
267
745160
1736
به اندازه کافی هستند،
12:38
but resolvingحل کردن the superiorityبرتری mythاسطوره
268
746920
1936
اما بررسی افسانه برتری
12:40
showsنشان می دهد us that that processروند
of taskوظیفه encroachmentتجاوز
269
748880
3096
به ما نشان می‌دهد که آن پیشرفت تجاوز
وظایف ماشین‌ها
12:44
not only strengthensتقویت می کند
the forceزور of machineدستگاه substitutionجایگزینی,
270
752000
3936
نه تنها نیروی جایگزینی ماشین‌ها را
قوی‌تر می‌کند،
12:47
but it wearsمی پوشد down
those helpfulمفید است complementaritiescomplementarities too.
271
755960
3336
بلکه امید به وظایف تکمیلی را نیز
کاهش می‌دهد.
12:51
Bringآوردن these threeسه mythsاسطوره ها togetherبا یکدیگر
272
759320
1936
با کنار هم قرار دادن این سه افسانه
12:53
and I think we can captureگرفتن a glimpseنظر اجمالی
of that troublingمشکل futureآینده.
273
761280
2936
می‌توانیم چشم‌اندازی از مشکلات آینده
داشته باشیم.
12:56
Machinesماشین آلات continueادامه دهید to becomeتبدیل شدن به more capableقادر به,
274
764240
2016
ماشین‌ها به توانمند تر شدن ادامه می‌دهند،
12:58
encroachingدرگیر شدن ever deeperعمیق تر
on tasksوظایف performedانجام by humanانسان beingsموجودات,
275
766280
3656
تجاوز عمیق‌تر به کارهایی که انسان‌ها انجام
می‌دهند بیشتر می‌شود،
13:01
strengtheningتقویت the forceزور
of machineدستگاه substitutionجایگزینی,
276
769960
2576
قدرت ماشین‌ها برای جایگزینی بیشتر می‌شود،
13:04
weakeningضعیف شدن the forceزور
of machineدستگاه complementarityمکمل بودن.
277
772560
3616
ضعیف تر شدن قدرت تکمیل کنندگی ماشین‌ها
برای انسان‌ها بیشتر می‌شود.
13:08
And at some pointنقطه, that balanceتعادل
fallsسقوط in favorلطف of machinesماشین آلات
278
776200
4296
و در بعضی جاها، تعادل مورد نظر بیشتر به
نفع ماشین‌ها خواهد بود
13:12
ratherنسبتا than humanانسان beingsموجودات.
279
780520
2056
تا به نفع انسان‌ها.
این مسیری است که الان در آن قرار داریم.
13:14
This is the pathمسیر we're currentlyدر حال حاضر on.
280
782600
1736
13:16
I say "pathمسیر" deliberatelyعمدا,
because I don't think we're there yetهنوز,
281
784360
3176
من عمدا می‌گویم "مسیر"،
زیرا هنوز به نظر من به آنجا نرسیدیم،
13:19
but it is hardسخت to avoidاجتناب کردن the conclusionنتیجه
that this is our directionجهت of travelمسافرت رفتن.
282
787560
3640
اما جلوگیری کردن از این نتیجه که این جهت
گیری آینده است، سخت است،
13:24
That's the troublingمشکل partبخشی.
283
792640
1456
قسمت مشکل قضیه همین جاست.
13:26
Let me say now why I think actuallyدر واقع
this is a good problemمسئله to have.
284
794120
3520
اجازه دهید بگویم چرا به نظرم مشکل
خوبی است که داریم.
13:30
For mostاکثر of humanانسان historyتاریخ,
one economicاقتصادی problemمسئله has dominatedتحت سلطه:
285
798520
3536
در بیشتر تاریخ بشریت،
یک مشکل اقتصادی حکم فرما بوده:
13:34
how to make the economicاقتصادی pieپای
largeبزرگ enoughکافی for everyoneهر کس to liveزنده on.
286
802080
4056
چگونه یک کیک اقتصادی را به اندازه کافی
بزرگ کنیم تا همه بتوانند در آن زندگی کنند.
13:38
Go back to the turnدور زدن
of the first centuryقرن ADآگهی,
287
806160
2176
برگردیم به اولین قرن میلادی
13:40
and if you tookگرفت the globalجهانی است economicاقتصادی pieپای
288
808360
2096
و اگر شما کیک اقتصاد جهانی را در نظر
بگیرید
13:42
and dividedتقسیم شده it up into equalبرابر slicesبرش ها
for everyoneهر کس in the worldجهان,
289
810480
3296
و آن را به اندازه‌های مساوی برای هر نفر
در دنیا تقسیم کنید،
13:45
everyoneهر کس would get a fewتعداد کمی hundredصد dollarsدلار.
290
813800
2136
به هر نفر چند صد دلار می‌رسد.
13:47
Almostتقریبا everyoneهر کس livedزندگی می کرد
on or around the povertyفقر lineخط.
291
815960
2760
تقریبا هر فرد روی خط فقر یا اطراف آن
قرار می‌گیرد.
13:51
And if you rollرول forwardرو به جلو a thousandهزار yearsسالها,
292
819320
2176
و اگر هزار سال به جلو بیایید،
13:53
roughlyتقریبا the sameیکسان is trueدرست است.
293
821520
1240
تقریبا همین شرایط درست بوده است.
13:55
But in the last fewتعداد کمی hundredصد yearsسالها,
economicاقتصادی growthرشد has takenگرفته شده off.
294
823680
3576
اما در این چند صد سال اخیر،
رشد اقتصادی شروع شد.
13:59
Those economicاقتصادی piesکیک ها have explodedمنفجر شد in sizeاندازه.
295
827280
2376
آن کیک‌های اقتصادی بسیار بزرگ‌تر شدند.
14:01
Globalجهانی GDPتولید ناخالص ملی perدر هر headسر,
296
829680
2056
تولید ناخالص داخلی جهانی برای هر نفر،
14:03
the valueارزش of those individualفردی
slicesبرش ها of the pieپای todayامروز,
297
831760
3376
ارزش همان برش‌های انفرادی کیک امروز،
14:07
they're about 10,150 dollarsدلار.
298
835160
2816
حدود ۱۰,۱۵۰ دلار است.
14:10
If economicاقتصادی growthرشد continuesهمچنان ادامه دارد
at two percentدرصد,
299
838000
2696
اگر رشد اقتصادی دو درصدی ادامه پیدا کند،
14:12
our childrenفرزندان will be twiceدو برابر as richثروتمند as us.
300
840720
2056
کودکان ما دوبرابر ما ثروتمند خواهند بود.
14:14
If it continuesهمچنان ادامه دارد
at a more measlyسرزنده one percentدرصد,
301
842800
2296
اگر با نرخ ۱ درصدی ادامه پیدا کند،
14:17
our grandchildrenنوه ها
will be twiceدو برابر as richثروتمند as us.
302
845120
2656
نوه‌های ما دوبرابر ما ثروت خواهند داشت.
14:19
By and largeبزرگ, we'veما هستیم solvedحل شد
that traditionalسنتی economicاقتصادی problemمسئله.
303
847800
3680
به طور کلی، ما آن مشکل اقتصاد سنتی را
حل کردیم.
14:24
Now, technologicalتکنولوژیکی unemploymentبیکاری,
if it does happenبه وقوع پیوستن,
304
852200
3016
حال، اگر بیکاری فناوری اتفاق بیفتد،
14:27
in a strangeعجیب way will be
a symptomعلامت of that successموفقیت,
305
855240
3216
به طور عجیبی، نشانه‌ای از
موفقیت خواهد بود،
14:30
will have solvedحل شد one problemمسئله --
how to make the pieپای biggerبزرگتر --
306
858480
3856
یک مشکل حل شده-- چگونه کیک را بزرگتر کنیم-
14:34
but replacedجایگزین شد it with anotherیکی دیگر --
307
862360
1816
اما دچار مسئله دیگری می‌شویم--
14:36
how to make sure
that everyoneهر کس getsمی شود a sliceتکه.
308
864200
2760
چگونه مطمئن شویم هر فرد یک برش
دریافت می‌کند.
14:39
As other economistsاقتصاددانان have notedاشاره شد,
solvingحل کردن this problemمسئله won'tنخواهد بود be easyآسان.
309
867840
3496
همانطور که دیگر اقتصاددانان اشاره
می‌کنند، حل این مشکل آسان نخواهد بود.
14:43
Todayامروز, for mostاکثر people,
310
871360
1656
امروزه برای بیشتر مردم،
14:45
theirخودشان jobکار is theirخودشان seatصندلی
at the economicاقتصادی dinnerشام tableجدول,
311
873040
2496
شغل آنها، صندلی آنها سر میز شام اقتصاد است
14:47
and in a worldجهان with lessکمتر work
or even withoutبدون work,
312
875560
2416
و در دنیایی با کار کمتر یا حتی بدون کار،
14:50
it won'tنخواهد بود be clearروشن است
how they get theirخودشان sliceتکه.
313
878000
2056
معلوم نیست چطور تکه خود را
بدست آورند.
14:52
There's a great dealمعامله
of discussionبحث, for instanceنمونه,
314
880080
2336
بحث‌های زیادی در این زمینه وجود دارد،
برای مثال،
14:54
about variousمختلف formsتشکیل می دهد
of universalجهانی است basicپایه ای incomeدرآمد
315
882440
2696
درباره انواع درآمدهای پایه جهانی
14:57
as one possibleامکان پذیر است approachرویکرد,
316
885160
1216
بعنوان یک رویکرد محتمل،
14:58
and there's trialsآزمایش های underwayدر حال انجام
317
886400
1616
و آزمایش‌هایی در آمریکا و
15:00
in the Unitedیونایتد Statesایالت ها
and in Finlandفنلاند and in Kenyaکنیا.
318
888040
2400
فنلاند و کنیا در حال انجام است.
15:03
And this is the collectiveجمعی challengeچالش
that's right in frontجلوی of us,
319
891000
3176
و این چالش جمعی در
پیشروی ما است،
15:06
to figureشکل out how this materialمواد prosperityرفاه
generatedتولید شده است by our economicاقتصادی systemسیستم
320
894200
5056
چطور این رونق اقتصادی ایجاد شده
توسط سیستم اقتصادی‌
15:11
can be enjoyedلذت بردم by everyoneهر کس
321
899280
1976
می‌تواند موجب رضایت همه مردم
15:13
in a worldجهان in whichکه
our traditionalسنتی mechanismمکانیسم
322
901280
2416
در دنیایی شود که مکانیزم‌های سنتی ما
15:15
for slicingبرش up the pieپای,
323
903720
1856
برای تقسیم کردن کیک بین مردم،
15:17
the work that people do,
324
905600
1936
کاری که مردم انجام می‌دهند،
15:19
withersبی حوصله away and perhapsشاید disappearsناپدید می شود.
325
907560
2160
ممکن است کم رنگ بشود و یا
از بین برود را بفهمیم.
15:22
Solvingحل کردن this problemمسئله is going to requireنیاز
us to think in very differentناهمسان waysراه ها.
326
910280
4360
حل این مشکل نیازمند این است که ما راهی
کاملا متفاوت را برای تفکر پیش بگیریم.
15:27
There's going to be a lot of disagreementاختلاف نظر
about what oughtباید to be doneانجام شده,
327
915400
4176
مخالفتهای زیادی برای کارهایی که باید
انجام دهیم وجود خواهد داشت،
15:31
but it's importantمهم to rememberیاد آوردن
that this is a farدور better problemمسئله to have
328
919600
3416
اما باید به خاطر داشته باشید که این مشکل
بسیار بهتر از داشتن
15:35
than the one that hauntedخالی از سکنه
our ancestorsاجداد for centuriesقرن ها:
329
923040
2816
مشکلی است که اجداد ما برای قرن‌ها
آن را داشتند:
15:37
how to make that pieپای
bigبزرگ enoughکافی in the first placeمحل.
330
925880
3376
چگونگی بزرگتر کردن کیک به اندازه کافی.
خیلی ممنون.
15:41
Thank you very much.
331
929280
1256
(تشویق )
15:42
(Applauseتشویق و تمجید)
332
930560
3840
Translated by Hooman Hosseini Zahraee
Reviewed by Leila Ataei

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com