ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

Дэниел Сюскинд: Три мифа о характере будущей работы человека (и почему они не верны)

Filmed:
1,519,249 views

«Заменит ли машина человека?» — этот вопрос волнует сегодня каждого, кто дорожит своей работой. Отвечая на этот вопрос, Дэниел Сюскинд развеивает три мифа о нашем автоматизированном будущем, которые сформировались в обществе. Подводя итог своему выступлению, Дэниел Сюскинд предлагает сформулировать вопрос иначе: как будет распределяться благосостояние в мире, где останется мало или и вовсе не будет работы для человека.
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automationавтоматизация anxietyтревожность
has been spreadingраспространение latelyв последнее время,
0
760
3376
В последнее время в обществе
растёт беспокойство
00:16
a fearстрах that in the futureбудущее,
1
4160
2656
по поводу автоматизации
жизнедеятельности человека,
00:18
manyмногие jobsработы will be performedвыполнено by machinesмашины
2
6840
2456
страх, что в будущем многие задачи,
выполняемые сегодня человеком,
00:21
ratherскорее than humanчеловек beingsсущества,
3
9320
1336
возьмут на себя машины, —
00:22
givenданный the remarkableзамечательный advancesдостижения
that are unfoldingразворачивание
4
10680
2936
это неудивительно,
учитывая колоссальный прогресс
00:25
in artificialискусственный intelligenceинтеллект and roboticsробототехника.
5
13640
2776
в области искусственного интеллекта
и робототехники.
00:28
What's clearЧисто is that
there will be significantзначительное changeизменение.
6
16440
2816
Уже ясно, что в будущем
нас ждут значительные перемены.
00:31
What's lessМеньше clearЧисто
is what that changeизменение will look like.
7
19280
3616
Но менее ясным остаётся характер перемен.
00:34
My researchисследование suggestsпредполагает that the futureбудущее
is bothи то и другое troublingбеспокойство and excitingзахватывающе.
8
22920
4936
Мои исследования показывают, что нас ждёт
тревожное и увлекательное будущее.
00:39
The threatугроза of technologicalтехнологический
unemploymentбезработица is realреальный,
9
27880
3736
Угроза технологической безработицы
существует на самом деле,
00:43
and yetвсе же it's a good problemпроблема to have.
10
31640
2056
но этой проблеме нам стоило бы радоваться.
00:45
And to explainобъяснять
how I cameпришел to that conclusionвывод,
11
33720
3216
А чтобы объяснить вам,
как я пришёл к этому выводу,
00:48
I want to confrontпротивостоять threeтри mythsмифы
12
36960
2536
я хотел бы развеять три мифа,
00:51
that I think are currentlyВ данный момент obscuringзатемнение
our visionвидение of this automatedавтоматизированный futureбудущее.
13
39520
4280
которые, я считаю, мешают нам
трезво оценить это самое будущее.
00:56
A pictureкартина that we see
on our televisionтелевидение screensэкраны,
14
44880
2336
В книгах, кинофильмах и новостях
00:59
in booksкниги, in filmsфильмы, in everydayкаждый день commentaryкомментарий
15
47240
2216
нам показывают,
01:01
is one where an armyармия of robotsроботы
descendsнисходит on the workplaceрабочее место
16
49480
3696
как армия роботов вторгается
в наше рабочее пространство
01:05
with one goalЦель in mindразум:
17
53200
1376
с единственной целью:
01:06
to displaceвытеснять humanчеловек beingsсущества from theirих work.
18
54600
2496
вытеснить человека с его рабочего места.
01:09
And I call this the Terminatorтерминатор mythмиф.
19
57120
2696
Я называю это мифом Терминатора.
01:11
Yes, machinesмашины displaceвытеснять
humanчеловек beingsсущества from particularконкретный tasksзадания,
20
59840
3976
Да, машины освободили человека
от выполнения определённых задач.
01:15
but they don't just
substituteзамена for humanчеловек beingsсущества.
21
63840
2256
Но они не столько сместили людей,
01:18
They alsoтакже complementдополнение them in other tasksзадания,
22
66120
1976
сколько дополнили наш труд,
01:20
makingизготовление that work more valuableценный
and more importantважный.
23
68120
3616
делая его более ценным и важным.
01:23
SometimesИногда they complementдополнение
humanчеловек beingsсущества directlyнепосредственно,
24
71760
3336
Зачастую машины напрямую дополняют
деятельность человека,
01:27
makingизготовление them more productiveпродуктивный
or more efficientэффективное at a particularконкретный taskзадача.
25
75120
4016
помогают нам достичь большей
продуктивности и эффективности в работе.
01:31
So a taxiтакси driverВодитель can use a satnavSatNav systemсистема
to navigateпроводить on unfamiliarнезнакомый roadsдороги.
26
79160
4616
Так, в незнакомой местности таксист может
воспользоваться спутниковой навигацией.
01:35
An architectархитектор can use
computer-assistedкомпьютерный designдизайн softwareпрограммного обеспечения
27
83800
3336
Благодаря системам автоматизированного
проектирования архитектор может
01:39
to designдизайн biggerбольше,
more complicatedсложно buildingsздания.
28
87160
3096
разработать более сложный
и замысловатый дизайн сооружения.
01:42
But technologicalтехнологический progressпрогресс doesn't
just complementдополнение humanчеловек beingsсущества directlyнепосредственно.
29
90280
3696
Но технологический прогресс дополняет
человека не только напрямую.
01:46
It alsoтакже complementsдополняет them indirectlyкосвенно,
and it does this in two waysпути.
30
94000
3336
Это может происходить
косвенно двумя способами.
01:49
The first is if we think
of the economyэкономика as a pieпирог,
31
97360
3336
Для начала давайте представим
экономику в качестве пирога.
01:52
technologicalтехнологический progressпрогресс
makesмарки the pieпирог biggerбольше.
32
100720
2896
Благодаря технологическому прогрессу
этот пирог становится больше.
01:55
As productivityпроизводительность increasesувеличивается,
incomesдоходов riseподъем and demandспрос growsрастет.
33
103640
3856
По мере того как растёт продуктивность,
повышаются доходы и спрос.
01:59
The BritishБританская pieпирог, for instanceпример,
34
107520
1776
К примеру, пирог Великобритании
02:01
is more than a hundredсто timesраз
the sizeразмер it was 300 yearsлет agoтому назад.
35
109320
3960
сегодня в более чем 100 раз крупнее
своего аналога 300-летней давности.
02:05
And so people displacedперемещенных
from tasksзадания in the oldстарый pieпирог
36
113920
3216
А люди, потерявшие работу
в экономике старого пирога,
02:09
could find tasksзадания to do
in the newновый pieпирог insteadвместо.
37
117160
2720
могут трудоустроиться
в рамках нового пирога.
02:12
But technologicalтехнологический progressпрогресс
doesn't just make the pieпирог biggerбольше.
38
120800
3936
Но благодаря технологическому прогрессу
пирог становится не только крупнее.
02:16
It alsoтакже changesизменения
the ingredientsингредиенты in the pieпирог.
39
124760
2856
Меняются и его ингредиенты.
02:19
As time passesпроходит, people spendпроводить
theirих incomeдоход in differentдругой waysпути,
40
127640
3456
Со временем люди начинают тратить
свои доходы по-другому.
02:23
changingизменения how they spreadраспространение it
acrossчерез existingсуществующий goodsтовар,
41
131120
2816
Меняется структура затрат
на существующие товары,
02:25
and developingразвивающийся tastesвкусы
for entirelyполностью newновый goodsтовар, too.
42
133960
3216
и появляется потребность
в совершенно новых товарах.
02:29
Newновый industriesпромышленности are createdсозданный,
43
137200
1776
Появляются новые отрасли хозяйства,
02:31
newновый tasksзадания have to be doneсделанный
44
139000
1816
возникает потребность в новых профессиях,
02:32
and that meansозначает oftenдовольно часто
newновый rolesроли have to be filledзаполненный.
45
140840
2536
а значит, открываются позиции,
которые необходимо заполнить.
02:35
So again, the BritishБританская pieпирог:
46
143400
1496
И снова о пироге Великобритании:
02:36
300 yearsлет agoтому назад,
mostбольшинство people workedработал on farmsфермы,
47
144920
2976
300 лет назад большинство британцев
зарабатывали на жизнь на фермах,
02:39
150 yearsлет agoтому назад, in factoriesзаводы,
48
147920
2336
150 лет назад — на заводах,
02:42
and todayCегодня, mostбольшинство people work in officesофисы.
49
150280
2856
а сегодня большинство
жителей трудятся в офисах.
02:45
And onceодин раз again, people displacedперемещенных
from tasksзадания in the oldстарый bitнемного of pieпирог
50
153160
4056
Опять же — те, кто потерял
работу в старом пироге,
02:49
could tumbleкувыркаться into tasksзадания
in the newновый bitнемного of pieпирог insteadвместо.
51
157240
2800
могут трудоустроиться
в рамках нового пирога.
02:52
EconomistsЭкономисты call these effectsпоследствия
complementaritiesвзаимодополняемость,
52
160720
3336
Экономисты называют
это явление комплементарностью.
02:56
but really that's just a fancyмаскарадный wordслово
to captureзахватить the differentдругой way
53
164080
3256
Но на самом деле это просто
красивое слово для обозначения
02:59
that technologicalтехнологический progressпрогресс
helpsпомогает humanчеловек beingsсущества.
54
167360
3136
технологического прогресса,
находящегося на службе у человека.
03:02
ResolvingРазрешение this Terminatorтерминатор mythмиф
55
170520
2096
Развенчивая миф Терминатора,
03:04
showsшоу us that there are
two forcesсил at playиграть:
56
172640
2336
мы понимаем,
что тут противоборствуют две силы:
03:07
one, machineмашина substitutionзамена
that harmsХармс workersрабочие,
57
175000
3536
первая сила — замещение машинами,
которое вредит человеку,
03:10
but alsoтакже these complementaritiesвзаимодополняемость
that do the oppositeнапротив.
58
178560
2880
вторая сила — комплементарность —
оказывает положительный эффект.
03:13
Now the secondвторой mythмиф,
59
181960
1376
Поговорим о втором мифе,
03:15
what I call the intelligenceинтеллект mythмиф.
60
183360
2280
который я обозначил
как интеллектуальный миф.
03:18
What do the tasksзадания of drivingвождение a carавтомобиль,
makingизготовление a medicalмедицинская diagnosisдиагностика
61
186440
4896
Вождение автомобиля, постановка диагноза
03:23
and identifyingидентифицирующий a birdптица
at a fleetingскоротечный glimpseпроблеск have in commonобщий?
62
191360
2920
и распознавание птиц —
что общего между всеми этими задачами?
03:27
Well, these are all tasksзадания
that untilдо very recentlyв последнее время,
63
195280
2976
Объединяет их то, что до недавнего времени
03:30
leadingведущий economistsэкономисты thought
couldn'tне может readilyлегко be automatedавтоматизированный.
64
198280
3336
их нельзя было автоматизировать,
как полагали ведущие экономисты.
03:33
And yetвсе же todayCегодня, all of these tasksзадания
can be automatedавтоматизированный.
65
201640
3176
И тем не менее сегодня все эти задачи
могут быть автоматизированы.
03:36
You know, all majorглавный carавтомобиль manufacturersпроизводители
have driverlessнеуправляемый carавтомобиль programsпрограммы.
66
204840
3496
Все ведущие производители автомобилей
сегодня разрабатывают беспилотные авто.
03:40
There's countlessбесчисленный systemsсистемы out there
that can diagnoseдиагностики medicalмедицинская problemsпроблемы.
67
208360
3976
Медики уже располагают множеством
диагностических аппаратов.
03:44
And there's even an appприложение
that can identifyидентифицировать a birdптица
68
212360
2416
Что же касается птиц,
существует приложение,
03:46
at a fleetingскоротечный glimpseпроблеск.
69
214800
1200
позволяющее определять их на расстоянии.
03:48
Now, this wasn'tне было simplyпросто a caseдело of badПлохо luckвезение
on the partчасть of economistsэкономисты.
70
216920
4376
Не будем утверждать,
что экономистам просто не повезло.
03:53
They were wrongнеправильно,
71
221320
1296
Они оказались неправы,
03:54
and the reasonпричина why
they were wrongнеправильно is very importantважный.
72
222640
2496
но причина, по которой они ошибались,
имеет большое значение.
03:57
They'veУ них есть fallenпадший for the intelligenceинтеллект mythмиф,
73
225160
2256
Они стали жертвами интеллектуального мифа,
03:59
the beliefвера that machinesмашины
have to copyкопия the way
74
227440
2896
считая, что машины должны имитировать
04:02
that humanчеловек beingsсущества think and reasonпричина
75
230360
2056
людей в том, как мы мыслим и рассуждаем,
04:04
in orderзаказ to outperformопережать them.
76
232440
1776
если хотим, чтобы машины стали умнее нас.
04:06
When these economistsэкономисты
were tryingпытаясь to figureфигура out
77
234240
2216
Когда экономисты попытались разобраться,
04:08
what tasksзадания machinesмашины could not do,
78
236480
1856
какие задачи машинам будут не под силу,
04:10
they imaginedвообразил the only way
to automateавтоматизировать a taskзадача
79
238360
2136
они думали, что единственный способ
автоматизировать задачу —
04:12
was to sitсидеть down with a humanчеловек beingявляющийся,
80
240520
1816
организовать встречу
специалистов с программистами,
04:14
get them to explainобъяснять to you
how it was they performedвыполнено a taskзадача,
81
242360
3536
попросить специалистов описать
алгоритм выполнения задачи,
04:17
and then try and captureзахватить that explanationобъяснение
82
245920
2656
а затем попытаться
формализовать этот алгоритм
04:20
in a setзадавать of instructionsинструкции
for a machineмашина to followследовать.
83
248600
2776
в виде инструкций,
которым машина будет следовать.
04:23
This viewПосмотреть was popularпопулярный in artificialискусственный
intelligenceинтеллект at one pointточка, too.
84
251400
4176
Одно время такой подход был популярен
и в области искусственного интеллекта.
04:27
I know this because RichardРичард SusskindСасскинд,
85
255600
2176
Знаю я об этом потому,
что Ричард Сюскинд —
04:29
who is my dadпапа and my coauthorсоавтор,
86
257800
2856
мой отец и соавтор книги, —
будучи студентом Оксфорда,
04:32
wroteписал his doctorateдокторская степень in the 1980s
on artificialискусственный intelligenceинтеллект and the lawзакон
87
260680
4056
в 1980-х написал докторскую диссертацию
на тему искусственного интеллекта и права,
04:36
at OxfordОксфорд UniversityУниверситет,
88
264760
1416
04:38
and he was partчасть of the vanguardавангардный.
89
266200
1576
а был он тогда в авангарде науки.
04:39
And with a professorпрофессор calledназывается PhillipPhillip CapperМашина Укупорочная машина
90
267800
2256
Вместе с профессором Филлипом Кэппером
04:42
and a legalправовой publisherиздатель calledназывается ButterworthsButterworths,
91
270080
2096
и издательством
правовой литературы Butterworths
04:44
they producedпроизведенный the world'sв мире first
commerciallyв промышленных масштабах availableдоступный
92
272200
5896
они выпустили в продажу первую в мире
04:50
artificialискусственный intelligenceинтеллект systemсистема in the lawзакон.
93
278120
2776
систему искусственного интеллекта
в области права.
04:52
This was the home screenэкран designдизайн.
94
280920
2616
Так выглядела заставка
программы на компьютере.
04:55
He assuresуверяет me this was
a coolкруто screenэкран designдизайн at the time.
95
283560
2696
Отец говорит, что она считалась
очень крутой по тем временам.
04:58
(LaughterСмех)
96
286280
1016
(Смех)
04:59
I've never been entirelyполностью convincedубежденный.
97
287320
1696
Не очень-то верится.
05:01
He publishedопубликованный it
in the formформа of two floppyдискета disksдиски,
98
289040
2616
Опубликовали они эту программу
на двух гибких дисках.
05:03
at a time where floppyдискета disksдиски
genuinelyнеподдельно were floppyдискета,
99
291680
3536
В то время гибкие диски
на самом деле были очень гибкими.
05:07
and his approachподход was the sameодна и та же
as the economists'экономисты:
100
295240
2336
Тогда они подошли к вопросу,
как те самые экономисты:
05:09
sitсидеть down with a lawyerадвокат,
101
297600
1256
встретились с юристом,
05:10
get her to explainобъяснять to you
how it was she solvedрешена a legalправовой problemпроблема,
102
298880
3176
попросили его описать алгоритм
решения правовой проблемы
05:14
and then try and captureзахватить that explanationобъяснение
in a setзадавать of rulesправила for a machineмашина to followследовать.
103
302080
5376
и затем попытались написать программу
для решения поставленной задачи.
05:19
In economicsэкономика, if humanчеловек beingsсущества
could explainобъяснять themselvesсамих себя in this way,
104
307480
3616
В экономике, если человек может
описать задачу таким вот образом,
05:23
the tasksзадания are calledназывается routineрутинный,
and they could be automatedавтоматизированный.
105
311120
3296
задача считается рутинной
и её можно автоматизировать.
05:26
But if humanчеловек beingsсущества
can't explainобъяснять themselvesсамих себя,
106
314440
2336
Но если человек не может описать процесс,
05:28
the tasksзадания are calledназывается non-routineнестандартные,
and they're thought to be out reachдостичь.
107
316800
4256
задача считается творческой,
то есть нерутинной, и часто неразрешимой.
Сегодня классификация задач на рутинные
и творческие встречается повсеместно.
05:33
TodayCегодня, that routine-nonroutineобычные клиентоориентованистю
distinctionразличие is widespreadшироко распространен.
108
321080
3296
05:36
Think how oftenдовольно часто you hearзаслушивать people say to you
109
324400
2056
Вспомните, как часто вы слышите о том,
05:38
machinesмашины can only performвыполнять tasksзадания
that are predictableпредсказуемый or repetitiveповторяющийся,
110
326480
3256
что машины могут выполнять только
предсказуемые и повторяющиеся задачи,
05:41
rules-basedоснованные на правилах or well-definedвполне определенный.
111
329760
1896
те, что следуют правилам,
и которые легко определить.
05:43
Those are all just
differentдругой wordsслова for routineрутинный.
112
331680
2936
Всё это лишь синонимы рутинных задач.
05:46
And go back to those threeтри casesслучаи
that I mentionedупомянутый at the startНачало.
113
334640
3976
Давайте вернёмся к трём примерам,
которые я привёл ранее.
05:50
Those are all classicклассический casesслучаи
of nonroutineклиентоориентованистю tasksзадания.
114
338640
2896
Все три являются классическими
примерами творческих задач.
05:53
AskПросить a doctorврач, for instanceпример,
how she makesмарки a medicalмедицинская diagnosisдиагностика,
115
341560
2976
Задайте вопрос врачам,
как, например, они ставят диагнозы.
05:56
and she mightмог бы be ableв состоянии
to give you a fewмало rulesправила of thumbбольшой палец,
116
344560
2656
Скорее всего, они приведут
несколько общих правил,
05:59
but ultimatelyв конечном счете she'dсарай struggleборьба.
117
347240
1656
но в целом точного ответа не дадут.
06:00
She'dПролить say it requiresтребует things like
creativityкреативность and judgmentсуждение and intuitionинтуиция.
118
348920
4816
Скажут, например,
что постановка диагноза требует
творческого подхода,
правильного суждения и интуиции.
06:05
And these things are
very difficultсложно to articulateартикулировать,
119
353760
2376
Но такие вещи бывает очень
трудно описать, поэтому считалось,
06:08
and so it was thought these tasksзадания
would be very hardжесткий to automateавтоматизировать.
120
356160
3096
06:11
If a humanчеловек beingявляющийся can't explainобъяснять themselvesсамих себя,
121
359280
2536
что автоматизировать
их также будет нелегко.
06:13
where on earthЗемля do we beginначать
in writingписьмо a setзадавать of instructionsинструкции
122
361840
2896
Если человек не может объяснить
какой-то процесс, как он составит
06:16
for a machineмашина to followследовать?
123
364760
1200
инструкции для машины?
06:18
Thirty30 yearsлет agoтому назад, this viewПосмотреть was right,
124
366640
2576
Тридцать лет назад такое мнение
считалось правильным,
06:21
but todayCегодня it's looking shakyнепрочный,
125
369240
2136
сегодня это утверждение
можно подвергнуть сомнению,
06:23
and in the futureбудущее
it's simplyпросто going to be wrongнеправильно.
126
371400
2256
а завтра оно окажется
совершенно неправильным.
06:25
AdvancesАвансы in processingобработка powerмощность,
in dataданные storageместо хранения capabilityвозможность
127
373680
3256
Колоссальная вычислительная мощность,
огромные хранилища данных
06:28
and in algorithmалгоритм designдизайн
128
376960
1656
и усовершенствованные алгоритмы
06:30
mean that this
routine-nonroutineобычные клиентоориентованистю distinctionразличие
129
378640
2496
являются показателем того,
что граница между рутинными
06:33
is diminishinglydiminishingly usefulполезным.
130
381160
1736
и творческими задачами начинает стираться.
06:34
To see this, go back to the caseдело
of makingизготовление a medicalмедицинская diagnosisдиагностика.
131
382920
3256
Давайте вернёмся к примеру
c постановкой диагноза.
06:38
EarlierРанее in the yearгод,
132
386200
1376
Несколько месяцев назад
06:39
a teamкоманда of researchersисследователи at StanfordStanford
announcedобъявленный they'dони developedразвитая a systemсистема
133
387600
3296
исследователи Стэнфордского университета
объявили, что они разработали
06:42
whichкоторый can tell you
whetherбудь то or not a freckleвеснушки is cancerousзлокачественный
134
390920
3056
систему распознавания раковых клеток
на веснушках человека
06:46
as accuratelyточно as leadingведущий dermatologistsдерматологи.
135
394000
2680
и что эта система ставит диагноз
так же точно, как ведущие дерматологи.
06:49
How does it work?
136
397280
1256
Как им это удалось?
06:50
It's not tryingпытаясь to copyкопия the judgmentсуждение
or the intuitionинтуиция of a doctorврач.
137
398560
5296
Машина не запрограммирована копировать
ход суждения или интуицию врачей.
06:55
It knowsзнает or understandsпонимает
nothing about medicineлекарственное средство at all.
138
403880
3136
Более того, машина вообще
ничего не смыслит в медицине.
06:59
InsteadВместо, it's runningБег
a patternшаблон recognitionпризнание algorithmалгоритм
139
407040
2576
На самом деле она следует
алгоритму распознавания,
07:01
throughчерез 129,450 pastмимо casesслучаи,
140
409640
4656
выискивая среди 129 450 наборов данных
случаи, схожие с исследуемой
патологией кожи.
07:06
huntingохота for similaritiesсходство
betweenмежду those casesслучаи
141
414320
3096
07:09
and the particularконкретный lesionпоражение in questionвопрос.
142
417440
2080
Делается это методом,
на который не способен ни один человек.
07:12
It's performingвыполнение these tasksзадания
in an unhumanжестокий way,
143
420080
3216
Машина анализирует
такое количество наборов данных,
07:15
basedисходя из on the analysisанализ
of more possibleвозможное casesслучаи
144
423320
2336
которое ни один врач не сможет
просмотреть за всю свою жизнь.
07:17
than any doctorврач could hopeнадежда
to reviewобзор in theirих lifetimeпродолжительность жизни.
145
425680
2616
07:20
It didn't matterдело that that humanчеловек beingявляющийся,
146
428320
1896
В данном случае машина ставит диагноз
07:22
that doctorврач, couldn'tне может explainобъяснять
how she'dсарай performedвыполнено the taskзадача.
147
430240
2800
без учёта того, как к этому вопросу
подошёл бы врач-специалист.
07:25
Now, there are those
who dwellобитать uponна that the factфакт
148
433640
2336
Многие, безусловно, согласятся с тем,
07:28
that these machinesмашины
aren'tне builtпостроен in our imageобраз.
149
436000
2296
что эти машины строились
не по образу и подобию человека.
07:30
As an exampleпример, take IBM'sIBM, WatsonУотсон,
150
438320
2056
Например, Watson —
суперкомпьютер компании IBM,
07:32
the supercomputerсуперкомпьютер that wentотправился
on the US quizвикторина showпоказать "Jeopardyподсудность!" in 2011,
151
440400
4856
принявший в 2011 году участие
в американской игре-викторине «Jeopardy!»
07:37
and it beatбить the two
humanчеловек championsчемпионы at "Jeopardyподсудность!"
152
445280
3016
и одержавший победу над человеком —
двумя сильнейшими соперниками.
07:40
The day after it wonвыиграл,
153
448320
1696
На следующий день после игры
07:42
The Wallстена Streetулица Journalжурнал ranпобежал a pieceкусок
by the philosopherфилософ JohnДжон SearleSearle
154
450040
3296
в газете Wall Street Journal появилась
заметка философа Джона Сёрла,
07:45
with the titleзаглавие "WatsonУотсон
Doesn't Know It WonВыиграл on 'Jeopardy«Jeopardy!'"
155
453360
3376
озаглавленная «Watson понятия не имеет,
что он победил в викторине "Jeopardy!"».
07:48
Right, and it's brilliantблестящий, and it's trueправда.
156
456760
1976
Блестящее и очень верное замечание.
07:50
You know, WatsonУотсон didn't
let out a cryплакать of excitementволнение.
157
458760
2456
Watson ведь не закричал от радости.
07:53
It didn't call up its parentsродители
to say what a good jobработа it had doneсделанный.
158
461240
3096
Он не позвонил родителям,
чтобы рассказать им о своей победе.
07:56
It didn't go down to the pubпаб for a drinkнапиток.
159
464360
2336
И он не отправился в паб,
чтобы выпить стаканчик.
07:58
This systemсистема wasn'tне было tryingпытаясь to copyкопия the way
that those humanчеловек contestantsконкурсанты playedиграл,
160
466720
4456
Эта машина не пыталась
копировать соперников-людей,
08:03
but it didn't matterдело.
161
471200
1256
но это не имело значения.
08:04
It still outperformedопередили them.
162
472480
1976
Машина всё равно их обыграла.
08:06
ResolvingРазрешение the intelligenceинтеллект mythмиф
163
474480
1576
Развенчивая интеллектуальный миф,
08:08
showsшоу us that our limitedограниченное understandingпонимание
about humanчеловек intelligenceинтеллект,
164
476080
3376
мы видим, что несмотря на то,
что наши знания о человеческом разуме,
08:11
about how we think and reasonпричина,
165
479480
1896
мышлении и суждении весьма ограничены,
08:13
is farдалеко lessМеньше of a constraintограничение
on automationавтоматизация than it was in the pastмимо.
166
481400
3456
в наше время большого влияния
на автоматизацию машин это не имеет.
08:16
What's more, as we'veмы в seenвидели,
167
484880
1496
Более того, как мы отметили,
08:18
when these machinesмашины
performвыполнять tasksзадания differentlyиначе to humanчеловек beingsсущества,
168
486400
3416
когда эти машины выполняют задачи
методом, отличным от методов человека,
08:21
there's no reasonпричина to think
169
489840
1256
не стóит полагать,
08:23
that what humanчеловек beingsсущества
are currentlyВ данный момент capableспособный of doing
170
491120
2536
что возможности человека сегодня
08:25
representsпредставляет any sortСортировать of summitвстреча на высшем уровне
171
493680
1456
являются пределом того,
08:27
in what these machinesмашины
mightмог бы be capableспособный of doing in the futureбудущее.
172
495160
3000
на что будут способны
автоматизированные машины в будущем.
08:31
Now the thirdв третьих mythмиф,
173
499040
1256
И теперь третий миф,
08:32
what I call the superiorityпревосходство mythмиф.
174
500320
2456
который я называю мифом
о превосходстве человека.
08:34
It's oftenдовольно часто said that those who forgetзабывать
175
502800
2216
Принято считать, что те, кто забывают
08:37
about the helpfulполезный sideбоковая сторона
of technologicalтехнологический progressпрогресс,
176
505040
2456
о пользе технологического прогресса,
08:39
those complementaritiesвзаимодополняемость from before,
177
507520
2496
о комплементарности человека и машины,
08:42
are committingсовершение something
knownизвестен as the lumpкусковой of laborтруд, работа fallacyошибочность.
178
510040
3040
впадают в заблуждение
о неизменном объёме работ.
08:45
Now, the problemпроблема is
the lumpкусковой of laborтруд, работа fallacyошибочность
179
513840
2295
Но проблема в том, что само заблуждение
08:48
is itselfсам a fallacyошибочность,
180
516159
1496
о неизменном объёме работ
08:49
and I call this the lumpкусковой
of laborтруд, работа fallacyошибочность fallacyошибочность,
181
517679
2937
является ошибочным,
08:52
or LOLFFLOLFF, for shortкороткая.
182
520640
2320
и я называю это ошибкой заблуждения.
08:56
Let me explainобъяснять.
183
524000
1416
Давайте я поясню.
08:57
The lumpкусковой of laborтруд, работа fallacyошибочность
is a very oldстарый ideaидея.
184
525440
2136
Данное заблуждение — не новая концепция.
08:59
It was a BritishБританская economistэкономист, DavidДэвид SchlossЗамок,
who gaveдал it this nameимя in 1892.
185
527600
4216
Такое название в 1892 году ей дал
британский экономист Дэвид Шлосс.
Однажды он пришёл в недоумение,
когда повстречал портового рабочего,
09:03
He was puzzledнедоуменный
to come acrossчерез a dockдок workerработник
186
531840
2816
09:06
who had begunначатый to use
a machineмашина to make washersшайбы,
187
534680
2336
который начал изготавливать
на станке шайбы —
09:09
the smallмаленький metalметалл discsдиски
that fastenскрепить on the endконец of screwsвинты.
188
537040
3320
небольшие металлические пластины,
которые крепятся под головку болта.
09:13
And this dockдок workerработник
feltпочувствовал guiltyвиновный for beingявляющийся more productiveпродуктивный.
189
541000
3760
Этот рабочий испытывал угрызения совести,
потому что стал более продуктивен.
09:17
Now, mostбольшинство of the time,
we expectожидать the oppositeнапротив,
190
545560
2176
Как правило, происходит обратное —
09:19
that people feel guiltyвиновный
for beingявляющийся unproductiveнепродуктивный,
191
547760
2216
люди чувствуют свою вину,
если работают не очень продуктивно.
09:22
you know, a little too much time
on Facebookfacebook or Twitterщебет at work.
192
550000
3016
Например, если на работе мы много
времени проводим в Facebook или Twitter.
09:25
But this workerработник feltпочувствовал guiltyвиновный
for beingявляющийся more productiveпродуктивный,
193
553040
2536
Но рабочий чувствовал вину потому,
что был слишком продуктивен.
09:27
and askedспросил why, he said,
"I know I'm doing wrongнеправильно.
194
555600
2296
На вопрос Шлосса почему, он ответил:
«Я знаю, что поступаю неправильно.
09:29
I'm takingпринятие away the work of anotherдругой man."
195
557920
2040
09:32
In his mindразум, there was
some fixedисправлено lumpкусковой of work
196
560760
2976
Я лишаю другого человека работы».
Рабочий полагал, что существует
фиксированный объём работы,
09:35
to be dividedразделенный up betweenмежду him and his palsдружки,
197
563760
2136
который они делят между собой,
и если он начнёт делать
09:37
so that if he used
this machineмашина to do more,
198
565920
2056
шайбы на станке, то произведёт их больше,
09:40
there'dкрасный be lessМеньше left for his palsдружки to do.
199
568000
2016
а остальным не останется работы.
09:42
SchlossЗамок saw the mistakeошибка.
200
570040
1856
Шлосс понял, в чём ошибка.
09:43
The lumpкусковой of work wasn'tне было fixedисправлено.
201
571920
1856
Объём работы не был фиксированным.
09:45
As this workerработник used the machineмашина
and becameстал more productiveпродуктивный,
202
573800
2816
Если благодаря станку
производительность увеличится,
09:48
the priceцена of washersшайбы would fallпадать,
demandспрос for washersшайбы would riseподъем,
203
576640
2976
стоимость шайб снизится,
а значит, увеличится спрос.
09:51
more washersшайбы would have to be madeсделал,
204
579640
1696
Рабочим надо будет вырезать больше шайб,
09:53
and there'dкрасный be more work
for his palsдружки to do.
205
581360
2096
и работы прибавится для всех.
09:55
The lumpкусковой of work would get biggerбольше.
206
583480
1696
То есть объём работы в целом увеличится.
09:57
SchlossЗамок calledназывается this
"the lumpкусковой of laborтруд, работа fallacyошибочность."
207
585200
2680
Шлосс назвал эту концепцию
заблуждением о неизменном объёме работ.
10:00
And todayCегодня you hearзаслушивать people talk
about the lumpкусковой of laborтруд, работа fallacyошибочность
208
588560
2936
Сегодня часто вспоминают об этой теории,
10:03
to think about the futureбудущее
of all typesтипы of work.
209
591520
2216
когда речь заходит о работе будущего.
10:05
There's no fixedисправлено lumpкусковой of work
out there to be dividedразделенный up
210
593760
2656
Не существует какого-то
определённого объёма работ,
10:08
betweenмежду people and machinesмашины.
211
596440
1376
который человек делит с машиной.
10:09
Yes, machinesмашины substituteзамена for humanчеловек beingsсущества,
makingизготовление the originalоригинал lumpкусковой of work smallerменьше,
212
597840
4656
Да, машины замещают человека,
уменьшая исходный объём работы,
10:14
but they alsoтакже complementдополнение humanчеловек beingsсущества,
213
602520
1856
но они также и дополняют нас, так что
в целом объём работы увеличивается,
10:16
and the lumpкусковой of work
getsполучает biggerбольше and changesизменения.
214
604400
2096
10:19
But LOLFFLOLFF.
215
607760
1616
меняется специфика работы.
10:21
Here'sВот the mistakeошибка:
216
609400
1376
Так в чём же ошибка заблуждения?
А вот в чём.
10:22
it's right to think
that technologicalтехнологический progressпрогресс
217
610800
2216
Верно, что благодаря
технологическому прогрессу
10:25
makesмарки the lumpкусковой of work to be doneсделанный biggerбольше.
218
613040
1976
объём работы увеличивается.
10:27
Some tasksзадания becomeстали more valuableценный.
Newновый tasksзадания have to be doneсделанный.
219
615040
3016
Некоторые специальности становятся
более востребованными,
10:30
But it's wrongнеправильно to think that necessarilyобязательно,
220
618080
2536
появляется спрос и на новые специальности.
10:32
humanчеловек beingsсущества will be bestЛучший placedпомещенный
to performвыполнять those tasksзадания.
221
620640
3256
Но неверно думать, что человек может
выполнить какие-то задачи лучше машин.
10:35
And this is the superiorityпревосходство mythмиф.
222
623920
1616
В этом суть мифа о превосходстве.
10:37
Yes, the lumpкусковой of work
mightмог бы get biggerбольше and changeизменение,
223
625560
3416
Да, объём работ может
увеличиться и измениться,
но по мере того,
как машины становятся умнее,
10:41
but as machinesмашины becomeстали more capableспособный,
224
629000
1976
10:43
it's likelyвероятно that they'llони будут take on
the extraдополнительный lumpкусковой of work themselvesсамих себя.
225
631000
3896
вероятнее всего, они возьмут на себя
этот новый объём работы.
10:46
Technologicalтехнологический progressпрогресс,
ratherскорее than complementдополнение humanчеловек beingsсущества,
226
634920
3256
При технологическом прогрессе
машины не столько дополняют человека,
10:50
complementsдополняет machinesмашины insteadвместо.
227
638200
1880
сколько дополняют сами себя.
10:52
To see this, go back
to the taskзадача of drivingвождение a carавтомобиль.
228
640920
3016
Чтобы убедиться в этом, возьмём
для примера вождение автомобиля.
10:55
TodayCегодня, satnavSatNav systemsсистемы
directlyнепосредственно complementдополнение humanчеловек beingsсущества.
229
643960
4096
Сегодня системы спутниковой навигации
напрямую дополняют человека.
11:00
They make some
humanчеловек beingsсущества better driversводители.
230
648080
2280
Благодаря им мы стали более эффективными
и безопасными водителями.
11:02
But in the futureбудущее,
231
650920
1256
В будущем, однако,
11:04
softwareпрограммного обеспечения is going to displaceвытеснять
humanчеловек beingsсущества from the drivingвождение seatсиденье,
232
652200
3096
усовершенствованные компьютерные программы
вытеснят человека с водительского кресла,
11:07
and these satnavSatNav systemsсистемы,
ratherскорее than complementдополнение humanчеловек beingsсущества,
233
655320
2936
а системы навигации, вместо того,
чтобы дополнять человека,
11:10
will simplyпросто make these
driverlessнеуправляемый carsлегковые автомобили more efficientэффективное,
234
658280
2536
сделают более эффективными
беспилотные автомобили,
11:12
helpingпомощь the machinesмашины insteadвместо.
235
660840
1536
тем самым помогая самим машинам.
11:14
Or go to those indirectкосвенный complementaritiesвзаимодополняемость
that I mentionedупомянутый as well.
236
662400
4056
Вспомним о примерах косвенной
комплементарности, о которых я говорил.
11:18
The economicэкономической pieпирог mayмай get largerбольше,
237
666480
1776
Экономический пирог может увеличиться,
11:20
but as machinesмашины becomeстали more capableспособный,
238
668280
1736
но по мере того,
как машины становятся умнее,
11:22
it's possibleвозможное that any newновый demandспрос
will fallпадать on goodsтовар that machinesмашины,
239
670040
3143
появившийся спрос, скорее всего,
11:25
ratherскорее than humanчеловек beingsсущества,
are bestЛучший placedпомещенный to produceпроизводить.
240
673207
2649
эффективнее удовлетворят машины,
а не человек.
11:27
The economicэкономической pieпирог mayмай changeизменение,
241
675880
1896
Ингредиенты пирога тоже могут измениться,
11:29
but as machinesмашины becomeстали more capableспособный,
242
677800
1896
но по мере того, как машины
будут приобретать новые навыки,
11:31
it's possibleвозможное that they'llони будут be bestЛучший placedпомещенный
to do the newновый tasksзадания that have to be doneсделанный.
243
679720
4856
возможно, именно они и займут
новые рабочие места.
11:36
In shortкороткая, demandспрос for tasksзадания
isn't demandспрос for humanчеловек laborтруд, работа.
244
684600
3696
Итак, спрос на рабочую силу —
не обязательно спрос на человеческий труд.
11:40
HumanЧеловек beingsсущества only standстоять to benefitвыгода
245
688320
1936
Человек может выиграть от этих перемен,
11:42
if they retainсохранить the upperверхний handрука
in all these complementedдополняется tasksзадания,
246
690280
3816
но только если он будет контролировать
комплементарные задачи.
11:46
but as machinesмашины becomeстали more capableспособный,
that becomesстановится lessМеньше likelyвероятно.
247
694120
3720
Но поскольку машины станут умнее,
то и это можно поставить под сомнение.
11:50
So what do these threeтри mythsмифы tell us then?
248
698760
2016
Какие же выводы
мы можем сделать из этого?
11:52
Well, resolvingрешения the Terminatorтерминатор mythмиф
249
700800
1696
Развенчивая миф Терминатора,
11:54
showsшоу us that the futureбудущее of work dependsзависит
uponна this balanceбаланс betweenмежду two forcesсил:
250
702520
3696
мы понимаем, что наше будущее
зависит от взаимодействия двух сил:
11:58
one, machineмашина substitutionзамена
that harmsХармс workersрабочие
251
706240
3136
замещения машинами,
которое вредит человеку,
12:01
but alsoтакже those complementaritiesвзаимодополняемость
that do the oppositeнапротив.
252
709400
2576
а также комплементарности,
от которой человек только выигрывает.
12:04
And untilдо now, this balanceбаланс
has fallenпадший in favorблагоприятствовать of humanчеловек beingsсущества.
253
712000
4040
Пока чаша весов всегда
склонялась в пользу человека.
Развенчивая второй —
интеллектуальный — миф,
12:09
But resolvingрешения the intelligenceинтеллект mythмиф
254
717120
1736
12:10
showsшоу us that that first forceсила,
machineмашина substitutionзамена,
255
718880
2496
мы увидели, что первая сила —
замещение машинами —
12:13
is gatheringсбор strengthпрочность.
256
721400
1296
тем не менее набирает силу.
12:14
MachinesМашины, of courseкурс, can't do everything,
257
722720
1976
Машины, безусловно, не всемогущи,
12:16
but they can do farдалеко more,
258
724720
1256
но они способны на многое
12:18
encroachingвторгающийся ever deeperГлубже into the realmобласть
of tasksзадания performedвыполнено by humanчеловек beingsсущества.
259
726000
4576
и уже активно перенимают те специальности,
которые когда-то принадлежали людям.
12:22
What's more, there's no reasonпричина to think
260
730600
1896
У нас нет оснований полагать,
12:24
that what humanчеловек beingsсущества
are currentlyВ данный момент capableспособный of
261
732520
2216
что то, на что способен человек,
12:26
representsпредставляет any sortСортировать of finishingотделка lineлиния,
262
734760
1856
представляет предел
возможностей для машин
12:28
that machinesмашины are going
to drawпривлечь to a politeвежливый stop
263
736640
2256
и что машины учтиво
остановятся на достигнутом,
12:30
onceодин раз they're as capableспособный as us.
264
738920
1816
как только сравняются с человеком.
12:32
Now, noneникто of this mattersвопросы
265
740760
1536
На самом деле всё это не так важно,
12:34
so long as those helpfulполезный
windsветры of complementarityвзаимодополняемость
266
742320
2816
если выгодные для нас
ветра комплементарности
12:37
blowдуть firmlyтвердо enoughдостаточно,
267
745160
1736
продолжат дуть в нужном направлении.
12:38
but resolvingрешения the superiorityпревосходство mythмиф
268
746920
1936
Но развенчивая миф о превосходстве,
12:40
showsшоу us that that processобработать
of taskзадача encroachmentпосягательство
269
748880
3096
мы понимаем, что постепенное
вторжение машин
в профессиональную деятельность человека
12:44
not only strengthensукрепляет
the forceсила of machineмашина substitutionзамена,
270
752000
3936
не только упрочивает позиции
машин при замещении человека,
12:47
but it wearsносит down
those helpfulполезный complementaritiesвзаимодополняемость too.
271
755960
3336
но и сводит на нет выгодные для нас
силы комплементарности.
12:51
Bringприносить these threeтри mythsмифы togetherвместе
272
759320
1936
Мы рассмотрели три мифа
о будущем нашей работы,
12:53
and I think we can captureзахватить a glimpseпроблеск
of that troublingбеспокойство futureбудущее.
273
761280
2936
и картина вырисовывается довольно мрачная.
12:56
MachinesМашины continueПродолжать to becomeстали more capableспособный,
274
764240
2016
Машины становятся более способными,
12:58
encroachingвторгающийся ever deeperГлубже
on tasksзадания performedвыполнено by humanчеловек beingsсущества,
275
766280
3656
всё глубже вторгаются в профессиональную
деятельность человека,
13:01
strengtheningукрепление the forceсила
of machineмашина substitutionзамена,
276
769960
2576
обретают бóльшую силу
при замещении человека
13:04
weakeningослабление the forceсила
of machineмашина complementarityвзаимодополняемость.
277
772560
3616
и ослабляют комплементарность.
13:08
And at some pointточка, that balanceбаланс
fallsпадения in favorблагоприятствовать of machinesмашины
278
776200
4296
И в какой-то момент перевес
окажется на стороне машин,
13:12
ratherскорее than humanчеловек beingsсущества.
279
780520
2056
а не людей.
13:14
This is the pathдорожка we're currentlyВ данный момент on.
280
782600
1736
Сейчас мы находимся на этом пути.
13:16
I say "pathдорожка" deliberatelyсознательно,
because I don't think we're there yetвсе же,
281
784360
3176
Я сказал «пути», потому что считаю,
что мы ещё не дошли до финишной прямой.
13:19
but it is hardжесткий to avoidизбежать the conclusionвывод
that this is our directionнаправление of travelпутешествовать.
282
787560
3640
Но трудно не сделать вывод, что мы
продолжаем двигаться в этом направлении.
13:24
That's the troublingбеспокойство partчасть.
283
792640
1456
Это не может не беспокоить.
13:26
Let me say now why I think actuallyна самом деле
this is a good problemпроблема to have.
284
794120
3520
Теперь я расскажу, почему я считаю,
что этой проблеме мы должны радоваться.
13:30
For mostбольшинство of humanчеловек historyистория,
one economicэкономической problemпроблема has dominatedдоминировал:
285
798520
3536
На протяжении почти
всей истории человечества
13:34
how to make the economicэкономической pieпирог
largeбольшой enoughдостаточно for everyoneвсе to liveжить on.
286
802080
4056
доминировала экономическая проблема:
13:38
Go back to the turnочередь
of the first centuryвека ADОБЪЯВЛЕНИЕ,
287
806160
2176
как увеличить экономический
пирог, чтобы его хватило всем.
13:40
and if you tookвзял the globalГлобальный economicэкономической pieпирог
288
808360
2096
На рубеже первого столетия нашей эры
13:42
and dividedразделенный it up into equalравный slicesломтики
for everyoneвсе in the worldМир,
289
810480
3296
этого пирога хватило бы,
чтобы каждому жителю планеты
13:45
everyoneвсе would get a fewмало hundredсто dollarsдолларов.
290
813800
2136
досталось ровно
по несколько сотен долларов.
13:47
AlmostПочти everyoneвсе livedжил
on or around the povertyбедность lineлиния.
291
815960
2760
Почти все жили за чертой
или около черты бедности.
13:51
And if you rollрулон forwardвперед a thousandтысяча yearsлет,
292
819320
2176
Если перенестись на тысячу лет вперёд,
13:53
roughlyгрубо the sameодна и та же is trueправда.
293
821520
1240
вы увидите почти ту же картину.
Но именно в последние пару сотен лет стал
наблюдаться устойчивый экономический рост.
13:55
But in the last fewмало hundredсто yearsлет,
economicэкономической growthрост has takenвзятый off.
294
823680
3576
13:59
Those economicэкономической piesпирогов have explodedвзорванный in sizeразмер.
295
827280
2376
Экономический пирог достиг
небывалых размеров.
14:01
GlobalГлобальный GDPВВП perв headглава,
296
829680
2056
В мировых масштабах ВВП на душу населения,
14:03
the valueстоимость of those individualиндивидуальный
slicesломтики of the pieпирог todayCегодня,
297
831760
3376
то есть размер каждого
отдельного кусочка пирога,
14:07
they're about 10,150 dollarsдолларов.
298
835160
2816
сегодня составляет почти 10 150 долларов.
14:10
If economicэкономической growthрост continuesпродолжается
at two percentпроцент,
299
838000
2696
Если рост мировой экономики
продолжится на уровне 2%,
14:12
our childrenдети will be twiceдважды as richбогатые as us.
300
840720
2056
наши дети станут в два раза богаче нас.
14:14
If it continuesпродолжается
at a more measlyкоревой one percentпроцент,
301
842800
2296
Если этот показатель составит всего 1%,
14:17
our grandchildrenвнучата
will be twiceдважды as richбогатые as us.
302
845120
2656
наши внуки окажутся богаче нас вдвое.
14:19
By and largeбольшой, we'veмы в solvedрешена
that traditionalтрадиционный economicэкономической problemпроблема.
303
847800
3680
То есть, по большому счёту, мы решили
историческую проблему мировой экономики.
14:24
Now, technologicalтехнологический unemploymentбезработица,
if it does happenслучаться,
304
852200
3016
Если технологическая безработица
всё-таки станет реальностью,
14:27
in a strangeстранный way will be
a symptomсимптом of that successуспех,
305
855240
3216
как ни странно, она окажется симптомом
этого экономического успеха.
14:30
will have solvedрешена one problemпроблема --
how to make the pieпирог biggerбольше --
306
858480
3856
Решив одну проблему:
как сделать пирог больше,
14:34
but replacedзаменены it with anotherдругой --
307
862360
1816
мы обзавелись новой проблемой:
14:36
how to make sure
that everyoneвсе getsполучает a sliceкусочек.
308
864200
2760
как сделать так, чтобы все жители
планеты получили по куску пирога.
14:39
As other economistsэкономисты have notedотметил,
solvingрешение this problemпроблема won'tне будет be easyлегко.
309
867840
3496
Другие экономисты также заявили,
что решить эту проблему будет непросто.
14:43
TodayCегодня, for mostбольшинство people,
310
871360
1656
Сегодня, чтобы получить кусочек,
14:45
theirих jobработа is theirих seatсиденье
at the economicэкономической dinnerужин tableТаблица,
311
873040
2496
большинству населения надо лишь занять
место за экономическим столом.
14:47
and in a worldМир with lessМеньше work
or even withoutбез work,
312
875560
2416
Если работы для населения станет меньше
или же её не будет совсем,
14:50
it won'tне будет be clearЧисто
how they get theirих sliceкусочек.
313
878000
2056
непонятно, как распределятся эти куски.
14:52
There's a great dealпо рукам
of discussionобсуждение, for instanceпример,
314
880080
2336
Уже обсуждаются
14:54
about variousразличный formsформы
of universalуниверсальный basicосновной incomeдоход
315
882440
2696
различные формы безусловного
основного дохода (БОД) —
14:57
as one possibleвозможное approachподход,
316
885160
1216
это один возможный подход.
14:58
and there's trialsиспытания underwayна ходу
317
886400
1616
В США, Финляндии и Кении
15:00
in the Unitedобъединенный Statesсостояния
and in FinlandФинляндия and in KenyaКения.
318
888040
2400
даже проводятся эксперименты с БОД.
Нам всем предстоит решить вопрос о том,
15:03
And this is the collectiveколлектив challengeвызов
that's right in frontфронт of us,
319
891000
3176
как распределить
то материальное благосостояние,
15:06
to figureфигура out how this materialматериал prosperityпроцветание
generatedгенерироваться by our economicэкономической systemсистема
320
894200
5056
которое появится у нас
в новой экономической системе,
чтобы его плодами могли
насладиться все жители планеты.
15:11
can be enjoyedнаслаждались by everyoneвсе
321
899280
1976
15:13
in a worldМир in whichкоторый
our traditionalтрадиционный mechanismмеханизм
322
901280
2416
В том новом мире
наши традиционные механизмы
15:15
for slicingнарезка up the pieпирог,
323
903720
1856
распределения пирога
15:17
the work that people do,
324
905600
1936
и распределения объёма работы
для каждого человека
15:19
withersхолка away and perhapsвозможно disappearsисчезает.
325
907560
2160
станут неэффективны
и, возможно, исчезнут совсем.
15:22
SolvingРешение this problemпроблема is going to requireтребовать
us to think in very differentдругой waysпути.
326
910280
4360
Чтобы решить эту проблему,
нам придётся серьёзно подумать.
15:27
There's going to be a lot of disagreementразногласие
about what oughtдолжен to be doneсделанный,
327
915400
4176
Будет много споров о том,
как к этому подойти.
15:31
but it's importantважный to rememberзапомнить
that this is a farдалеко better problemпроблема to have
328
919600
3416
Но важно, чтобы мы помнили,
что эта проблема — вовсе не проблема
15:35
than the one that hauntedчасто посещаемый
our ancestorsпредки for centuriesвека:
329
923040
2816
по сравнению с той, которая преследовала
наших предков тысячелетиями,
15:37
how to make that pieпирог
bigбольшой enoughдостаточно in the first placeместо.
330
925880
3376
а именно, как сделать
экономический пирог больше.
15:41
Thank you very much.
331
929280
1256
Благодарю за внимание.
15:42
(ApplauseАплодисменты)
332
930560
3840
(Аплодисменты)
Translated by Anna Pecot
Reviewed by Alena Chernykh

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com