ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

Daniel Susskind: Três mitos sobre o futuro do trabalho (e por que eles não são verdadeiros)

Filmed:
1,519,249 views

"As máquinas substituirão os humanos?" Essa pergunta está na mente de qualquer pessoa que que tenha um emprego. Daniel Susskind confronta essa questão e três concepções erradas que temos sobre nosso futuro automatizado, sugerindo que façamos outra pergunta: como vamos distribuir a riqueza no mundo quando houver menos - ou mesmo não houver - trabalho.
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

A ansiedade com a automação
tem se espalhado ultimamente,
00:12
Automation anxiety
has been spreading lately,
0
760
3376
00:16
a fear that in the future,
1
4160
2656
um medo de que, no futuro,
00:18
many jobs will be performed by machines
2
6840
2456
muitos trabalhos
serão executados por máquinas
00:21
rather than human beings,
3
9320
1336
em vez de seres humanos,
00:22
given the remarkable advances
that are unfolding
4
10680
2936
dado aos notáveis avanços
00:25
in artificial intelligence and robotics.
5
13640
2776
da inteligência artificial e da robótica.
00:28
What's clear is that
there will be significant change.
6
16440
2816
O que está claro é que haverá
mudanças significativas.
00:31
What's less clear
is what that change will look like.
7
19280
3616
O que não está tão claro
é como será essa mudança.
00:34
My research suggests that the future
is both troubling and exciting.
8
22920
4936
Minha pesquisa indica que o futuro
será preocupante e excitante.
00:39
The threat of technological
unemployment is real,
9
27880
3736
A ameaça do desemprego tecnológico é real,
e, ainda assim,
é um bom problema para se ter.
00:43
and yet it's a good problem to have.
10
31640
2056
00:45
And to explain
how I came to that conclusion,
11
33720
3216
E para explicar
como cheguei a essa conclusão,
00:48
I want to confront three myths
12
36960
2536
quero confrontar três mitos
00:51
that I think are currently obscuring
our vision of this automated future.
13
39520
4280
que acho que estão obscurecendo
nossa visão desse futuro automatizado.
00:56
A picture that we see
on our television screens,
14
44880
2336
Uma imagem que vemos na televisão,
00:59
in books, in films, in everyday commentary
15
47240
2216
em livros, filmes
e em comentários cotidianos
01:01
is one where an army of robots
descends on the workplace
16
49480
3696
é aquela em que um exército de robôs
invade um local de trabalho
01:05
with one goal in mind:
17
53200
1376
com um objetivo:
01:06
to displace human beings from their work.
18
54600
2496
substituir os humanos em seu trabalho.
01:09
And I call this the Terminator myth.
19
57120
2696
Eu chamo isso de "o mito do exterminador".
01:11
Yes, machines displace
human beings from particular tasks,
20
59840
3976
Sim, as máquinas substituem os humanos
em tarefas específicas,
01:15
but they don't just
substitute for human beings.
21
63840
2256
mas não apenas substituem
os seres humanos.
Elas também os complementam
em outras tarefas,
01:18
They also complement them in other tasks,
22
66120
1976
01:20
making that work more valuable
and more important.
23
68120
3616
tornando aquele trabalho
mais valioso e importante.
01:23
Sometimes they complement
human beings directly,
24
71760
3336
Às vezes elas complementam
o ser humano diretamente,
01:27
making them more productive
or more efficient at a particular task.
25
75120
4016
tornando-o mais produtivo ou eficiente
em determinada tarefa.
01:31
So a taxi driver can use a satnav system
to navigate on unfamiliar roads.
26
79160
4616
Então um taxista pode usar
um sistema de navegação por GPS
para andar por estradas desconhecidas.
01:35
An architect can use
computer-assisted design software
27
83800
3336
Um arquiteto pode usar software
de projeto assistido por computador
01:39
to design bigger,
more complicated buildings.
28
87160
3096
para projetar prédios
maiores e mais complicados.
01:42
But technological progress doesn't
just complement human beings directly.
29
90280
3696
Mas o progresso tecnológico complementa
os seres humanos não só diretamente.
01:46
It also complements them indirectly,
and it does this in two ways.
30
94000
3336
Ele também os complementa
indiretamente, de duas formas.
01:49
The first is if we think
of the economy as a pie,
31
97360
3336
A primeira é que, se pensarmos
na economia como uma torta,
01:52
technological progress
makes the pie bigger.
32
100720
2896
o progresso tecnológico aumenta a torta.
01:55
As productivity increases,
incomes rise and demand grows.
33
103640
3856
Com o aumento da produtividade,
a renda e a demanda aumentam.
01:59
The British pie, for instance,
34
107520
1776
A torta britânica, por exemplo,
02:01
is more than a hundred times
the size it was 300 years ago.
35
109320
3960
é 100 vezes maior do que era há 300 anos.
02:05
And so people displaced
from tasks in the old pie
36
113920
3216
E as pessoas que perderam as tarefas
que executavam na torta antiga,
02:09
could find tasks to do
in the new pie instead.
37
117160
2720
podem encontrar
novas tarefas na nova torta.
02:12
But technological progress
doesn't just make the pie bigger.
38
120800
3936
Mas o progresso tecnológico
não só aumenta a torta.
02:16
It also changes
the ingredients in the pie.
39
124760
2856
Ele também muda seus ingredientes.
02:19
As time passes, people spend
their income in different ways,
40
127640
3456
Com o passar do tempo, as pessoas
gastam sua renda de formas diferentes,
02:23
changing how they spread it
across existing goods,
41
131120
2816
mudando a forma como a distribuem
em bens existentes,
02:25
and developing tastes
for entirely new goods, too.
42
133960
3216
e desenvolvendo gosto
por bens totalmente novos.
02:29
New industries are created,
43
137200
1776
Novas indústrias são criadas,
02:31
new tasks have to be done
44
139000
1816
novas tarefas precisam ser executadas
e isso significa que novos papéis
devem ser preenchidos.
02:32
and that means often
new roles have to be filled.
45
140840
2536
02:35
So again, the British pie:
46
143400
1496
De novo, a torta britânica:
02:36
300 years ago,
most people worked on farms,
47
144920
2976
há 300 anos, a maioria das pessoas
trabalhava em fazendas,
02:39
150 years ago, in factories,
48
147920
2336
150 anos atrás, em fábricas,
02:42
and today, most people work in offices.
49
150280
2856
e hoje, a maioria trabalha em escritórios.
02:45
And once again, people displaced
from tasks in the old bit of pie
50
153160
4056
E de novo, as pessoas que perderam
suas tarefas na torta antiga
02:49
could tumble into tasks
in the new bit of pie instead.
51
157240
2800
podem acabar executando
tarefas na torta nova.
02:52
Economists call these effects
complementarities,
52
160720
3336
Os economistas chamam esses efeitos
de complementaridades,
02:56
but really that's just a fancy word
to capture the different way
53
164080
3256
mas essa é só uma palavra chique
para capturar a forma diferente
02:59
that technological progress
helps human beings.
54
167360
3136
com que o progresso tecnológico
ajuda os seres humanos.
03:02
Resolving this Terminator myth
55
170520
2096
Solucionar esse mito do exterminador
03:04
shows us that there are
two forces at play:
56
172640
2336
nos mostra que há duas forças em jogo:
03:07
one, machine substitution
that harms workers,
57
175000
3536
uma, a substituição pelas máquinas,
que prejudica os trabalhadores,
03:10
but also these complementarities
that do the opposite.
58
178560
2880
mas também essas complementaridades,
que fazem o oposto.
03:13
Now the second myth,
59
181960
1376
Agora o segundo mito,
03:15
what I call the intelligence myth.
60
183360
2280
que eu chamo de mito da inteligência.
03:18
What do the tasks of driving a car,
making a medical diagnosis
61
186440
4896
O que as tarefas de dirigir um carro,
fazer um diagnóstico médico
03:23
and identifying a bird
at a fleeting glimpse have in common?
62
191360
2920
e identificar um pássaro
numa rápida olhada têm em comum?
03:27
Well, these are all tasks
that until very recently,
63
195280
2976
Bem, são tarefas que, até recentemente,
03:30
leading economists thought
couldn't readily be automated.
64
198280
3336
de acordo com os economistas,
não poderiam ser facilmente automatizadas.
03:33
And yet today, all of these tasks
can be automated.
65
201640
3176
Mas, ainda assim, hoje, todas elas
podem ser automatizadas.
03:36
You know, all major car manufacturers
have driverless car programs.
66
204840
3496
Os principais fabricantes de automóvel
têm programas de carros autônomos.
03:40
There's countless systems out there
that can diagnose medical problems.
67
208360
3976
Há inúmeros sistemas por aí
que diagnosticam problemas médicos.
03:44
And there's even an app
that can identify a bird
68
212360
2416
E existe até um aplicativo que identifica
um pássaro numa rápida olhada.
03:46
at a fleeting glimpse.
69
214800
1200
03:48
Now, this wasn't simply a case of bad luck
on the part of economists.
70
216920
4376
Isso não é só falta de sorte
dos economistas.
03:53
They were wrong,
71
221320
1296
Eles estavam errados,
03:54
and the reason why
they were wrong is very important.
72
222640
2496
e a razão de eles estarem errados
é muito importante.
03:57
They've fallen for the intelligence myth,
73
225160
2256
Eles caíram no mito da inteligência,
03:59
the belief that machines
have to copy the way
74
227440
2896
a crença de que máquinas
precisam copiar a forma
04:02
that human beings think and reason
75
230360
2056
como os humanos pensam e raciocinam
04:04
in order to outperform them.
76
232440
1776
para poder substituí-los.
04:06
When these economists
were trying to figure out
77
234240
2216
Quando os economistas imaginaram quais
tarefas as máquinas não poderiam fazer,
04:08
what tasks machines could not do,
78
236480
1856
04:10
they imagined the only way
to automate a task
79
238360
2136
imaginaram que,
para automatizar uma tarefa,
a única forma seria sentar com uma pessoa,
04:12
was to sit down with a human being,
80
240520
1816
04:14
get them to explain to you
how it was they performed a task,
81
242360
3536
pedir que ela explicasse
como executava uma tarefa,
04:17
and then try and capture that explanation
82
245920
2656
e então tentar capturar essa explicação
04:20
in a set of instructions
for a machine to follow.
83
248600
2776
em um conjunto de instruções
para uma máquina seguir.
04:23
This view was popular in artificial
intelligence at one point, too.
84
251400
4176
Até certo momento essa visão também
foi popular na inteligência artificial.
04:27
I know this because Richard Susskind,
85
255600
2176
Sei disso porque Richard Susskind,
04:29
who is my dad and my coauthor,
86
257800
2856
que é meu pai e meu coautor,
04:32
wrote his doctorate in the 1980s
on artificial intelligence and the law
87
260680
4056
escreveu seu doutorado na década de 1980
sobre inteligência artificial e direito
04:36
at Oxford University,
88
264760
1416
na Oxford University.
04:38
and he was part of the vanguard.
89
266200
1576
Ele era da vanguarda
04:39
And with a professor called Phillip Capper
90
267800
2256
e, com um professor chamado Phillip Capper
04:42
and a legal publisher called Butterworths,
91
270080
2096
e um editor jurídico chamado Butterworths,
04:44
they produced the world's first
commercially available
92
272200
5896
eles produziram o primeiro sistema,
disponível comercialmente,
04:50
artificial intelligence system in the law.
93
278120
2776
de inteligência artificial em direito.
04:52
This was the home screen design.
94
280920
2616
Esta era a tela inicial.
04:55
He assures me this was
a cool screen design at the time.
95
283560
2696
Ele me garante que essa tela
era bonita na época.
04:58
(Laughter)
96
286280
1016
(Risos)
04:59
I've never been entirely convinced.
97
287320
1696
Eu nunca me convenci totalmente.
05:01
He published it
in the form of two floppy disks,
98
289040
2616
Ele foi publicado no formato
de dois discos flexíveis,
05:03
at a time where floppy disks
genuinely were floppy,
99
291680
3536
numa época em que discos flexíveis
eram realmente flexíveis,
05:07
and his approach was the same
as the economists':
100
295240
2336
e a abordagem dele era a mesma
dos economistas: sente-se com um advogado,
05:09
sit down with a lawyer,
101
297600
1256
faça com que ele explique
como resolveu um problema jurídico,
05:10
get her to explain to you
how it was she solved a legal problem,
102
298880
3176
05:14
and then try and capture that explanation
in a set of rules for a machine to follow.
103
302080
5376
e então tente capturar essa explicação
em um conjunto de instruções
que uma máquina possa seguir.
05:19
In economics, if human beings
could explain themselves in this way,
104
307480
3616
Na economia, se seres humanos
conseguem se explicar dessa forma,
05:23
the tasks are called routine,
and they could be automated.
105
311120
3296
as tarefas são chamadas de rotineiras
e podem ser automatizadas.
05:26
But if human beings
can't explain themselves,
106
314440
2336
Mas, se os seres humanos
não conseguem se explicar,
05:28
the tasks are called non-routine,
and they're thought to be out reach.
107
316800
4256
as tarefas são chamadas de não rotineiras,
e são vistas como fora do alcance.
Hoje essa distinção entre rotineira
e não rotineira está muito difundida.
05:33
Today, that routine-nonroutine
distinction is widespread.
108
321080
3296
05:36
Think how often you hear people say to you
109
324400
2056
Pensem com que frequência ouvimos dizer
05:38
machines can only perform tasks
that are predictable or repetitive,
110
326480
3256
que as máquinas só podem executar
tarefas previsíveis, repetitivas,
05:41
rules-based or well-defined.
111
329760
1896
baseadas em regras ou bem definidas.
05:43
Those are all just
different words for routine.
112
331680
2936
Essas são apenas outras formas
de dizer "rotineira".
05:46
And go back to those three cases
that I mentioned at the start.
113
334640
3976
Voltando aos três casos
que mencionei no início
05:50
Those are all classic cases
of nonroutine tasks.
114
338640
2896
são todos casos clássicos
de tarefas não rotineiras.
05:53
Ask a doctor, for instance,
how she makes a medical diagnosis,
115
341560
2976
Pergunte a uma médica, por exemplo,
como ela faz um diagnóstico,
05:56
and she might be able
to give you a few rules of thumb,
116
344560
2656
e ela vai lhe dar algumas regras práticas,
mas, por fim, ela teria dificuldades.
05:59
but ultimately she'd struggle.
117
347240
1656
06:00
She'd say it requires things like
creativity and judgment and intuition.
118
348920
4816
Ela diria que requer coisas como
criatividade, julgamento e intuição.
06:05
And these things are
very difficult to articulate,
119
353760
2376
E essas coisas são difíceis de articular,
06:08
and so it was thought these tasks
would be very hard to automate.
120
356160
3096
então se acha que são tarefas
muito difíceis de automatizar.
06:11
If a human being can't explain themselves,
121
359280
2536
Se um ser humano não consegue se explicar,
06:13
where on earth do we begin
in writing a set of instructions
122
361840
2896
como diabos vamos começar
a escrever um conjunto de instruções
06:16
for a machine to follow?
123
364760
1200
para uma máquina seguir?
06:18
Thirty years ago, this view was right,
124
366640
2576
Há 30 anos, essa ideia estava correta,
06:21
but today it's looking shaky,
125
369240
2136
mas hoje parece incerta
06:23
and in the future
it's simply going to be wrong.
126
371400
2256
e no futuro simplesmente estará errada.
06:25
Advances in processing power,
in data storage capability
127
373680
3256
Avanços no poder de processamento,
na capacidade de armazenamento de dados
06:28
and in algorithm design
128
376960
1656
e no projeto de algoritmos
06:30
mean that this
routine-nonroutine distinction
129
378640
2496
significam que a distinção entre rotineira
e não rotineira está perdendo a utilidade.
06:33
is diminishingly useful.
130
381160
1736
06:34
To see this, go back to the case
of making a medical diagnosis.
131
382920
3256
Vamos voltar ao caso
do diagnóstico médico.
06:38
Earlier in the year,
132
386200
1376
Mais cedo neste ano,
06:39
a team of researchers at Stanford
announced they'd developed a system
133
387600
3296
pesquisadores de Stanford anunciaram
ter desenvolvido um sistema
06:42
which can tell you
whether or not a freckle is cancerous
134
390920
3056
que pode dizer se uma mancha na pele
é cancerosa ou não
06:46
as accurately as leading dermatologists.
135
394000
2680
com tanta precisão
quanto um dermatologista experiente.
06:49
How does it work?
136
397280
1256
Como ele funciona?
06:50
It's not trying to copy the judgment
or the intuition of a doctor.
137
398560
5296
Ele não está tentando copiar o julgamento
ou a intuição de um médico.
06:55
It knows or understands
nothing about medicine at all.
138
403880
3136
Ele não sabe nem entende
nada sobre medicina.
06:59
Instead, it's running
a pattern recognition algorithm
139
407040
2576
Em vez disso, ele executa um algoritmo
de reconhecimento de padrões
07:01
through 129,450 past cases,
140
409640
4656
em 129.450 casos anteriores,
07:06
hunting for similarities
between those cases
141
414320
3096
buscando por similaridades
entre esses casos
07:09
and the particular lesion in question.
142
417440
2080
e a lesão em questão.
07:12
It's performing these tasks
in an unhuman way,
143
420080
3216
Ele executa essa tarefa
de forma não humana,
07:15
based on the analysis
of more possible cases
144
423320
2336
baseado na análise de mais casos
07:17
than any doctor could hope
to review in their lifetime.
145
425680
2616
do que qualquer médico poderia
examinar em toda a vida.
07:20
It didn't matter that that human being,
146
428320
1896
Não importa que essa pessoa,
07:22
that doctor, couldn't explain
how she'd performed the task.
147
430240
2800
esse médico, não consiga explicar
como executaria essa tarefa.
07:25
Now, there are those
who dwell upon that the fact
148
433640
2336
Há pessoas que se incomodam
com o fato de essas máquinas
07:28
that these machines
aren't built in our image.
149
436000
2296
não serem construídas à nossa imagem.
07:30
As an example, take IBM's Watson,
150
438320
2056
Como um exemplo, peguem o Watson da IBM,
07:32
the supercomputer that went
on the US quiz show "Jeopardy!" in 2011,
151
440400
4856
o supercomputador que em 2011 foi
no show de perguntas dos EUA, "Jeopardy!"
07:37
and it beat the two
human champions at "Jeopardy!"
152
445280
3016
e derrotou os dois campeões
humanos do programa.
07:40
The day after it won,
153
448320
1696
Um dia depois de ele ganhar,
07:42
The Wall Street Journal ran a piece
by the philosopher John Searle
154
450040
3296
The Wall Street Journal publicou
um artigo do filósofo John Searle
07:45
with the title "Watson
Doesn't Know It Won on 'Jeopardy!'"
155
453360
3376
com o título: "Watson não sabe
que ganhou o 'Jeopardy!'"
07:48
Right, and it's brilliant, and it's true.
156
456760
1976
Certo, brilhante e verdadeiro.
Watson não deixou escapar
um gritinho de contentamento.
07:50
You know, Watson didn't
let out a cry of excitement.
157
458760
2456
Não ligou para os pais
para receber parabéns.
07:53
It didn't call up its parents
to say what a good job it had done.
158
461240
3096
Não foi para um bar comemorar.
07:56
It didn't go down to the pub for a drink.
159
464360
2336
07:58
This system wasn't trying to copy the way
that those human contestants played,
160
466720
4456
Esse sistema não estava tentando copiar
o jeito dos competidores humanos jogarem,
08:03
but it didn't matter.
161
471200
1256
mas isso não importa.
08:04
It still outperformed them.
162
472480
1976
Ainda assim ele os superou.
08:06
Resolving the intelligence myth
163
474480
1576
Resolver o mito da inteligência
08:08
shows us that our limited understanding
about human intelligence,
164
476080
3376
nos mostra que nosso entendimento
limitado sobre a inteligência humana,
08:11
about how we think and reason,
165
479480
1896
sobre como pensamos e raciocinamos,
08:13
is far less of a constraint
on automation than it was in the past.
166
481400
3456
é um limitador para a automação
bem menor do que já foi no passado.
08:16
What's more, as we've seen,
167
484880
1496
E mais, como vimos,
08:18
when these machines
perform tasks differently to human beings,
168
486400
3416
quando as máquinas executam tarefas
de forma diferente dos seres humanos,
08:21
there's no reason to think
169
489840
1256
não há razão para pensar que aquilo
que os humanos conseguem fazer atualmente
08:23
that what human beings
are currently capable of doing
170
491120
2536
representa algum tipo de limitador
08:25
represents any sort of summit
171
493680
1456
08:27
in what these machines
might be capable of doing in the future.
172
495160
3000
para o que essas máquinas
poderão fazer no futuro.
08:31
Now the third myth,
173
499040
1256
O terceiro mito
08:32
what I call the superiority myth.
174
500320
2456
é o que chamo de mito da superioridade.
08:34
It's often said that those who forget
175
502800
2216
Dizem que as pessoas que esquecem
do lado útil do progresso tecnológico,
08:37
about the helpful side
of technological progress,
176
505040
2456
08:39
those complementarities from before,
177
507520
2496
as complementaridades
sobre as quais falei antes,
08:42
are committing something
known as the lump of labor fallacy.
178
510040
3040
cometem algo conhecido
por falácia do bolo de trabalho.
08:45
Now, the problem is
the lump of labor fallacy
179
513840
2295
O problema é que a falácia
do bolo de trabalho
08:48
is itself a fallacy,
180
516159
1496
é uma falácia em si,
08:49
and I call this the lump
of labor fallacy fallacy,
181
517679
2937
e chamo a isso de a falácia
da falácia do bolo de trabalho,
08:52
or LOLFF, for short.
182
520640
2320
or FFBT, pra encurtar.
08:56
Let me explain.
183
524000
1416
Explico. A falácia do bolo de trabalho
é uma ideia muito antiga.
08:57
The lump of labor fallacy
is a very old idea.
184
525440
2136
Um economista britânico, David Schloss,
deu-lhe este nome em 1892.
08:59
It was a British economist, David Schloss,
who gave it this name in 1892.
185
527600
4216
09:03
He was puzzled
to come across a dock worker
186
531840
2816
Ele ficou intrigado
ao deparar-se com um estivador
09:06
who had begun to use
a machine to make washers,
187
534680
2336
que começou a usar uma máquina
para fazer arruelas,
09:09
the small metal discs
that fasten on the end of screws.
188
537040
3320
esses pequenos discos de metal
que se usa nos parafusos.
09:13
And this dock worker
felt guilty for being more productive.
189
541000
3760
E esse estivador se sentia culpado
por ser mais produtivo.
09:17
Now, most of the time,
we expect the opposite,
190
545560
2176
Em geral espera-se o contrário,
que as pessoas se sintam culpadas
por não produzirem,
09:19
that people feel guilty
for being unproductive,
191
547760
2216
por passarem muito tempo
no Facebook ou Twitter no trabalho.
09:22
you know, a little too much time
on Facebook or Twitter at work.
192
550000
3016
Mas esse trabalhador se sentia culpado
por ser mais produtivo.
09:25
But this worker felt guilty
for being more productive,
193
553040
2536
Ao ser perguntado por que, disse:
"Sei que não está certo.
09:27
and asked why, he said,
"I know I'm doing wrong.
194
555600
2296
09:29
I'm taking away the work of another man."
195
557920
2040
Estou tirando o trabalho de outra pessoa".
09:32
In his mind, there was
some fixed lump of work
196
560760
2976
Na sua cabeça, havia
um bolo fixo de trabalho
09:35
to be divided up between him and his pals,
197
563760
2136
a ser dividido entre ele e seus colegas,
09:37
so that if he used
this machine to do more,
198
565920
2056
então, se ele usasse a máquina
para fazer mais,
09:40
there'd be less left for his pals to do.
199
568000
2016
sobraria menos para seus colegas fazerem.
09:42
Schloss saw the mistake.
200
570040
1856
Schloss viu o erro.
09:43
The lump of work wasn't fixed.
201
571920
1856
O bolo de trabalho não era fixo.
09:45
As this worker used the machine
and became more productive,
202
573800
2816
À medida que o trabalhador usasse
a máquina e produzisse mais,
09:48
the price of washers would fall,
demand for washers would rise,
203
576640
2976
o preço das arruelas cairia,
a demanda aumentaria,
09:51
more washers would have to be made,
204
579640
1696
mais arruelas teriam que ser produzidas,
e haveria mais trabalho para seus colegas.
09:53
and there'd be more work
for his pals to do.
205
581360
2096
09:55
The lump of work would get bigger.
206
583480
1696
O bolo de trabalho cresceria.
09:57
Schloss called this
"the lump of labor fallacy."
207
585200
2680
Schloss chamou isso
de "a falácia do bolo de trabalho".
10:00
And today you hear people talk
about the lump of labor fallacy
208
588560
2936
E hoje se ouve falar
na falácia do bolo de trabalho
para pensar o futuro
de todo tipo de trabalho.
10:03
to think about the future
of all types of work.
209
591520
2216
Não há um bolo fixo de trabalho
10:05
There's no fixed lump of work
out there to be divided up
210
593760
2656
para ser dividido
entre pessoas e máquinas.
10:08
between people and machines.
211
596440
1376
Sim, as máquinas substituem
os seres humanos,
10:09
Yes, machines substitute for human beings,
making the original lump of work smaller,
212
597840
4656
reduzindo o bolo de trabalho original,
10:14
but they also complement human beings,
213
602520
1856
mas elas também
complementam os seres humanos,
10:16
and the lump of work
gets bigger and changes.
214
604400
2096
e o bolo de trabalho cresce e se modifica.
10:19
But LOLFF.
215
607760
1616
Mas a FFBT.
10:21
Here's the mistake:
216
609400
1376
Aqui está o erro:
10:22
it's right to think
that technological progress
217
610800
2216
está correto pensar
que o progresso tecnológico
10:25
makes the lump of work to be done bigger.
218
613040
1976
aumenta o bolo de trabalho a ser feito.
Algumas tarefas passam a ter mais valor.
Novas tarefas precisam ser feitas.
10:27
Some tasks become more valuable.
New tasks have to be done.
219
615040
3016
10:30
But it's wrong to think that necessarily,
220
618080
2536
Mas é errado pensar que necessariamente
10:32
human beings will be best placed
to perform those tasks.
221
620640
3256
os seres humanos serão
os mais indicados para essas tarefas.
10:35
And this is the superiority myth.
222
623920
1616
E esse é o mito da superioridade.
10:37
Yes, the lump of work
might get bigger and change,
223
625560
3416
Sim, o bolo de trabalho
pode crescer e mudar,
10:41
but as machines become more capable,
224
629000
1976
mas à medida que as máquinas
ficam mais capazes,
10:43
it's likely that they'll take on
the extra lump of work themselves.
225
631000
3896
elas mesmas assumem
o bolo de trabalho extra.
10:46
Technological progress,
rather than complement human beings,
226
634920
3256
O progresso tecnológico,
em vez de complementar o ser humano,
10:50
complements machines instead.
227
638200
1880
complementa as máquinas.
10:52
To see this, go back
to the task of driving a car.
228
640920
3016
Para ver isso, vamos voltar
à tarefa de dirigir um carro.
10:55
Today, satnav systems
directly complement human beings.
229
643960
4096
Hoje sistemas de navegação por satélite
complementam diretamente os seres humanos.
11:00
They make some
human beings better drivers.
230
648080
2280
Eles tornam algumas pessoas
melhores motoristas.
11:02
But in the future,
231
650920
1256
Mas, no futuro, o software vai retirar
o ser humano do assento do motorista,
11:04
software is going to displace
human beings from the driving seat,
232
652200
3096
e esses sistemas de navegação,
em vez de complementarem as pessoas,
11:07
and these satnav systems,
rather than complement human beings,
233
655320
2936
vão tornar os carros autônomos
mais eficientes,
11:10
will simply make these
driverless cars more efficient,
234
658280
2536
ajudando as máquinas e não as pessoas.
11:12
helping the machines instead.
235
660840
1536
11:14
Or go to those indirect complementarities
that I mentioned as well.
236
662400
4056
Ou pensem nas complementaridades
indiretas que mencionei.
11:18
The economic pie may get larger,
237
666480
1776
A torta econômica pode crescer,
mas, à medida que as máquinas
ficarem mais capazes,
11:20
but as machines become more capable,
238
668280
1736
11:22
it's possible that any new demand
will fall on goods that machines,
239
670040
3143
é possível que toda nova demanda recaia
para as máquinas e não para as pessoas.
11:25
rather than human beings,
are best placed to produce.
240
673207
2649
11:27
The economic pie may change,
241
675880
1896
A torta econômica pode mudar,
mas, quando as máquinas
ficarem mais capazes,
11:29
but as machines become more capable,
242
677800
1896
11:31
it's possible that they'll be best placed
to do the new tasks that have to be done.
243
679720
4856
elas podem estar melhor posicionadas
para realizar as tarefas necessárias.
11:36
In short, demand for tasks
isn't demand for human labor.
244
684600
3696
Resumindo, a demanda por tarefas
não é demanda por trabalho humano.
11:40
Human beings only stand to benefit
245
688320
1936
Os seres humanos só se beneficiarão
11:42
if they retain the upper hand
in all these complemented tasks,
246
690280
3816
se estiverem à frente
em todas as tarefas complementadas,
11:46
but as machines become more capable,
that becomes less likely.
247
694120
3720
mas à medida que as máquinas se tornam
mais capazes, isso fica mais improvável.
11:50
So what do these three myths tell us then?
248
698760
2016
Então o que esses três mitos nos dizem?
Bem, resolver o mito do exterminador
11:52
Well, resolving the Terminator myth
249
700800
1696
nos mostra que o futuro do trabalho
depende do equilíbrio entre duas forças:
11:54
shows us that the future of work depends
upon this balance between two forces:
250
702520
3696
11:58
one, machine substitution
that harms workers
251
706240
3136
uma, a substituição pelas máquinas
que prejudica os trabalhadores,
12:01
but also those complementarities
that do the opposite.
252
709400
2576
mas também essas complementaridades,
que fazem o oposto.
12:04
And until now, this balance
has fallen in favor of human beings.
253
712000
4040
E até agora, esse equilíbrio
tem sido a favor dos seres humanos.
12:09
But resolving the intelligence myth
254
717120
1736
Mas resolver o mito da inteligência
nos mostra que a primeira força,
12:10
shows us that that first force,
machine substitution,
255
718880
2496
a substituição pelas máquinas,
está se fortalecendo.
12:13
is gathering strength.
256
721400
1296
12:14
Machines, of course, can't do everything,
257
722720
1976
As máquinas, claro, não podem fazer tudo,
12:16
but they can do far more,
258
724720
1256
mas pode fazer muito mais,
12:18
encroaching ever deeper into the realm
of tasks performed by human beings.
259
726000
4576
invadindo cada vez mais o reino
das tarefas executadas por seres humanos.
12:22
What's more, there's no reason to think
260
730600
1896
E não há razão para pensar que aquilo
que os humanos são capazes atualmente
12:24
that what human beings
are currently capable of
261
732520
2216
representa uma espécie
de linha de chegada,
12:26
represents any sort of finishing line,
262
734760
1856
que as máquinas vão parar educadamente
quando ficarem tão capazes quanto nós.
12:28
that machines are going
to draw to a polite stop
263
736640
2256
12:30
once they're as capable as us.
264
738920
1816
Mas nada disso importa
12:32
Now, none of this matters
265
740760
1536
12:34
so long as those helpful
winds of complementarity
266
742320
2816
a não ser que esses ventos
da complementaridade
12:37
blow firmly enough,
267
745160
1736
soprem com força suficiente,
12:38
but resolving the superiority myth
268
746920
1936
mas resolver o mito da superioridade
12:40
shows us that that process
of task encroachment
269
748880
3096
nos mostra que esse processo
de invasão de tarefas
12:44
not only strengthens
the force of machine substitution,
270
752000
3936
não só aumenta a força
da substituição pelas máquinas,
12:47
but it wears down
those helpful complementarities too.
271
755960
3336
mas também enfraquece
essas complementaridades úteis.
12:51
Bring these three myths together
272
759320
1936
Juntem esses três mitos
12:53
and I think we can capture a glimpse
of that troubling future.
273
761280
2936
e acho que podemos vislumbrar
um futuro preocupante.
As máquinas continuarão
a se tornar mais capazes,
12:56
Machines continue to become more capable,
274
764240
2016
invadindo cada vez mais as tarefas
executadas por seres humanos,
12:58
encroaching ever deeper
on tasks performed by human beings,
275
766280
3656
13:01
strengthening the force
of machine substitution,
276
769960
2576
reforçando a substituição por máquinas
13:04
weakening the force
of machine complementarity.
277
772560
3616
e enfraquecendo
a complementaridade das máquinas.
13:08
And at some point, that balance
falls in favor of machines
278
776200
4296
E em algum momento esse equilíbrio
penderá mais para o lado das máquinas
13:12
rather than human beings.
279
780520
2056
do que dos seres humanos.
Esse é o caminho que estamos trilhando.
13:14
This is the path we're currently on.
280
782600
1736
13:16
I say "path" deliberately,
because I don't think we're there yet,
281
784360
3176
Digo "caminho" deliberadamente,
porque acho que ainda não chegamos lá,
13:19
but it is hard to avoid the conclusion
that this is our direction of travel.
282
787560
3640
mas é difícil evitar a conclusão
de que estamos indo nessa direção.
13:24
That's the troubling part.
283
792640
1456
Essa é a parte perturbadora.
13:26
Let me say now why I think actually
this is a good problem to have.
284
794120
3520
Deixem-me dizer por que eu realmente acho
que esse é um problema bom para se ter.
13:30
For most of human history,
one economic problem has dominated:
285
798520
3536
Na maior parte da história do homem,
um problema econômico dominou:
13:34
how to make the economic pie
large enough for everyone to live on.
286
802080
4056
como fazer com que a torta econômica
seja grande o suficiente para todos.
13:38
Go back to the turn
of the first century AD,
287
806160
2176
No primeiro século depois de Cristo,
13:40
and if you took the global economic pie
288
808360
2096
se pegássemos a torta econômica global
13:42
and divided it up into equal slices
for everyone in the world,
289
810480
3296
e a dividíssemos em fatias iguais
para todas as pessoas do mundo,
13:45
everyone would get a few hundred dollars.
290
813800
2136
cada uma ganharia
algumas centenas de dólares.
13:47
Almost everyone lived
on or around the poverty line.
291
815960
2760
Quase todas viveriam
próximos à linha da pobreza.
13:51
And if you roll forward a thousand years,
292
819320
2176
E se avançarmos mil anos,
13:53
roughly the same is true.
293
821520
1240
de modo geral ocorreria a mesma coisa.
13:55
But in the last few hundred years,
economic growth has taken off.
294
823680
3576
Mas nos últimos séculos,
o crescimento econômico decolou.
13:59
Those economic pies have exploded in size.
295
827280
2376
Essas tortas econômicas
explodiram de tamanho.
14:01
Global GDP per head,
296
829680
2056
O PIB global por pessoa,
14:03
the value of those individual
slices of the pie today,
297
831760
3376
o valor dessas fatias individuais hoje,
14:07
they're about 10,150 dollars.
298
835160
2816
seria em torno de US$ 10.150.
14:10
If economic growth continues
at two percent,
299
838000
2696
Se a economia seguir
crescendo à taxa de 2%,
nossos filhos serão duas vezes
mais ricos que nós.
14:12
our children will be twice as rich as us.
300
840720
2056
14:14
If it continues
at a more measly one percent,
301
842800
2296
Se continuar a uma taxa
mais modesta, de 1%,
14:17
our grandchildren
will be twice as rich as us.
302
845120
2656
nossos netos serão duas vezes
mais ricos do que nós.
14:19
By and large, we've solved
that traditional economic problem.
303
847800
3680
Considerando tudo isso, solucionamos
esse problema econômico tradicional.
14:24
Now, technological unemployment,
if it does happen,
304
852200
3016
Agora, se ocorrer
o desemprego tecnológico,
14:27
in a strange way will be
a symptom of that success,
305
855240
3216
de uma forma estranha ele será
um sintoma desse sucesso,
14:30
will have solved one problem --
how to make the pie bigger --
306
858480
3856
terá resolvido um problema:
como aumentar a torta;
14:34
but replaced it with another --
307
862360
1816
mas substituído por outro:
14:36
how to make sure
that everyone gets a slice.
308
864200
2760
como garantir que todos recebam uma fatia.
14:39
As other economists have noted,
solving this problem won't be easy.
309
867840
3496
Como outro economista registrou,
resolver esse problema não será fácil.
14:43
Today, for most people,
310
871360
1656
Hoje, para a maioria das pessoas,
14:45
their job is their seat
at the economic dinner table,
311
873040
2496
o emprego é seu assento
na mesa da economia,
e em um mundo com menos
ou mesmo sem trabalho,
14:47
and in a world with less work
or even without work,
312
875560
2416
não estará claro como fazer
para ganhar sua fatia.
14:50
it won't be clear
how they get their slice.
313
878000
2056
14:52
There's a great deal
of discussion, for instance,
314
880080
2336
Muito se tem falado, por exemplo,
14:54
about various forms
of universal basic income
315
882440
2696
em várias formas de renda básica universal
como uma abordagem possível,
14:57
as one possible approach,
316
885160
1216
14:58
and there's trials underway
317
886400
1616
e várias experiências estão sendo feitas
nos EUA, na Finlândia e no Quênia.
15:00
in the United States
and in Finland and in Kenya.
318
888040
2400
15:03
And this is the collective challenge
that's right in front of us,
319
891000
3176
E este é o desafio coletivo
que está à nossa frente:
15:06
to figure out how this material prosperity
generated by our economic system
320
894200
5056
descobrir como essa prosperidade material
gerada por nosso sistema econômico
15:11
can be enjoyed by everyone
321
899280
1976
pode ser desfrutada por todos
em um mundo em que nosso mecanismo
tradicional de dividir a torta,
15:13
in a world in which
our traditional mechanism
322
901280
2416
15:15
for slicing up the pie,
323
903720
1856
15:17
the work that people do,
324
905600
1936
o trabalho das pessoas,
15:19
withers away and perhaps disappears.
325
907560
2160
diminua e talvez desapareça.
15:22
Solving this problem is going to require
us to think in very different ways.
326
910280
4360
Resolver esse problema requer
que pensemos de maneiras diferentes.
15:27
There's going to be a lot of disagreement
about what ought to be done,
327
915400
4176
Haverá muita discordância
sobre o que deve ser feito,
15:31
but it's important to remember
that this is a far better problem to have
328
919600
3416
mas é importante lembrar que esse é
um problema bem melhor de se ter
15:35
than the one that haunted
our ancestors for centuries:
329
923040
2816
do que aquele que assombrou
nossos antepassados por séculos:
15:37
how to make that pie
big enough in the first place.
330
925880
3376
como aumentar a torta o suficiente.
15:41
Thank you very much.
331
929280
1256
Muito obrigado.
15:42
(Applause)
332
930560
3840
(Aplausos)
Translated by Cláudia Sander
Reviewed by Custodio Marcelino

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com