ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

Daniel Susskind: Tres mitos sobre el futuro del trabajo (y por qué son falsos)

Filmed:
1,519,249 views

"¿Reemplazarán las máquinas a los seres humanos?" Esta pregunta ronda en la cabeza de cualquiera que tenga un empleo y pueda perderlo. Daniel Susskind aborda este interrogante y explica tres conceptos equivocados sobre nuestro futuro automatizado. Sugiere que nos hagamos otra pregunta: ¿cómo haremos para distribuir la riqueza en un mundo donde habrá menos trabajo, o incluso nada de trabajo?
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
AutomationAutomatización anxietyansiedad
has been spreadingextensión latelyúltimamente,
0
760
3376
Un fenómeno que últimamente
se está difundiendo
es la ansiedad por la automatización,
00:16
a fearmiedo that in the futurefuturo,
1
4160
2656
el miedo de que en un futuro
00:18
manymuchos jobstrabajos will be performedrealizado by machinesmáquinas
2
6840
2456
muchas tareas sean realizadas por máquinas
00:21
rathermás bien than humanhumano beingsseres,
3
9320
1336
y no por seres humanos,
00:22
givendado the remarkablenotable advancesavances
that are unfoldingdespliegue
4
10680
2936
a juzgar por los grandes avances
que se están logrando
00:25
in artificialartificial intelligenceinteligencia and roboticsrobótica.
5
13640
2776
en el campo de la inteligencia artificial
y de la robótica.
00:28
What's clearclaro is that
there will be significantsignificativo changecambio.
6
16440
2816
Lo cierto es que habrá
cambios importantes.
00:31
What's lessMenos clearclaro
is what that changecambio will look like.
7
19280
3616
Lo que no está tan claro
es cómo serán esos cambios.
00:34
My researchinvestigación suggestssugiere that the futurefuturo
is bothambos troublingperturbador and excitingemocionante.
8
22920
4936
La investigación que hice
sugiere que el futuro
es inquietante e interesante.
00:39
The threatamenaza of technologicaltecnológico
unemploymentdesempleo is realreal,
9
27880
3736
La amenaza del desempleo
tecnológico es real,
00:43
and yettodavía it's a good problemproblema to have.
10
31640
2056
pero aun así es un problema con ventajas.
00:45
And to explainexplique
how I camevino to that conclusionconclusión,
11
33720
3216
Y para explicar cómo llegué
a esta conclusión,
00:48
I want to confrontconfrontar threeTres mythsmitos
12
36960
2536
quiero hablar de tres mitos
00:51
that I think are currentlyactualmente obscuringoscureciendo
our visionvisión of this automatedautomatizado futurefuturo.
13
39520
4280
que en mi opinión hoy impiden
tener un claro panorama
de este futuro automatizado.
Una imagen que solemos ver
en las pantallas de TV,
00:56
A pictureimagen that we see
on our televisiontelevisión screenspantallas,
14
44880
2336
00:59
in bookslibros, in filmspelículas, in everydaycada día commentarycomentario
15
47240
2216
en libros, en películas,
en las crónicas diarias,
01:01
is one where an armyEjército of robotsrobots
descendsdesciende on the workplacelugar de trabajo
16
49480
3696
es la de un ejército de robots
que llega a nuestro lugar de trabajo
01:05
with one goalGol in mindmente:
17
53200
1376
con un solo objetivo:
01:06
to displacedesplazar humanhumano beingsseres from theirsu work.
18
54600
2496
desplazar a los seres humanos
de sus trabajos.
01:09
And I call this the TerminatorTerminator mythmito.
19
57120
2696
A esto le llamo
el "mito del Exterminador".
01:11
Yes, machinesmáquinas displacedesplazar
humanhumano beingsseres from particularespecial tasksTareas,
20
59840
3976
Es verdad, las máquinas desplazan
a los humanos en tareas específicas.
01:15
but they don't just
substitutesustituir for humanhumano beingsseres.
21
63840
2256
Pero no solo los reemplazan,
01:18
They alsoademás complementcomplemento them in other tasksTareas,
22
66120
1976
también los complementan en otras tareas,
01:20
makingfabricación that work more valuablevalioso
and more importantimportante.
23
68120
3616
haciendo que ese trabajo
sea más valioso e importante.
01:23
SometimesA veces they complementcomplemento
humanhumano beingsseres directlydirectamente,
24
71760
3336
A veces las máquinas complementan
a los humanos de manera directa,
01:27
makingfabricación them more productiveproductivo
or more efficienteficiente at a particularespecial tasktarea.
25
75120
4016
aumentando la productividad
y la eficiencia en una tarea particular.
01:31
So a taxitaxi driverconductor can use a satnavSatNav systemsistema
to navigatenavegar on unfamiliardesconocido roadscarreteras.
26
79160
4616
Un taxista, por ejemplo, puede usar un GPS
para orientarse en sitios desconocidos.
01:35
An architectarquitecto can use
computer-assistedasistido por computadora designdiseño softwaresoftware
27
83800
3336
Un arquitecto puede usar
un software específico
01:39
to designdiseño biggermás grande,
more complicatedComplicado buildingsedificios.
28
87160
3096
para diseñar edificios
más grandes y complejos.
01:42
But technologicaltecnológico progressProgreso doesn't
just complementcomplemento humanhumano beingsseres directlydirectamente.
29
90280
3696
Pero el progreso tecnológico
no solo complementa
al ser humano de manera directa.
01:46
It alsoademás complementsComplementos them indirectlyindirectamente,
and it does this in two waysformas.
30
94000
3336
También lo hace indirectamente,
de dos maneras.
01:49
The first is if we think
of the economyeconomía as a pietarta,
31
97360
3336
La primera es la siguiente: si concebimos
la economía como una tarta,
01:52
technologicaltecnológico progressProgreso
makeshace the pietarta biggermás grande.
32
100720
2896
el progreso tecnológico
aumenta el tamaño de esa tarta.
01:55
As productivityproductividad increasesaumenta,
incomesingresos risesubir and demanddemanda growscrece.
33
103640
3856
A medida que la productividad aumenta,
el ingreso sube y la demanda crece.
01:59
The Britishbritánico pietarta, for instanceejemplo,
34
107520
1776
La tarta de Gran Bretaña, por ejemplo,
02:01
is more than a hundredcien timesveces
the sizetamaño it was 300 yearsaños agohace.
35
109320
3960
es más de 100 veces mayor
que hace 300 años.
02:05
And so people displaceddesplazado
from tasksTareas in the oldantiguo pietarta
36
113920
3216
Así, quienes fueron desplazados
de sus tareas en la viejo tarta
02:09
could find tasksTareas to do
in the newnuevo pietarta insteaden lugar.
37
117160
2720
encontraron en la nueva tarta
otras tareas para hacer.
02:12
But technologicaltecnológico progressProgreso
doesn't just make the pietarta biggermás grande.
38
120800
3936
Pero el progreso tecnológico
no solo agranda la tarta,
02:16
It alsoademás changescambios
the ingredientsingredientes in the pietarta.
39
124760
2856
sino que también cambia sus ingredientes.
02:19
As time passespasa, people spendgastar
theirsu incomeingresos in differentdiferente waysformas,
40
127640
3456
Con el tiempo, la gente va cambiando
la forma en que gasta su ingreso,
02:23
changingcambiando how they spreaduntado it
acrossa través de existingexistente goodsbienes,
41
131120
2816
distribuyéndolo de otra manera
entre los productos disponibles,
02:25
and developingdesarrollando tastesgustos
for entirelyenteramente newnuevo goodsbienes, too.
42
133960
3216
y desarrollando gustos
por nuevos productos también.
02:29
NewNuevo industriesindustrias are createdcreado,
43
137200
1776
Se crean nuevas industrias,
02:31
newnuevo tasksTareas have to be donehecho
44
139000
1816
surgen nuevas tareas que realizar
02:32
and that meansmedio oftena menudo
newnuevo rolesroles have to be filledlleno.
45
140840
2536
y por lo tanto habrá
nuevas funciones que cumplir.
02:35
So again, the Britishbritánico pietarta:
46
143400
1496
Volvamos a la tarta de Gran Bretaña:
02:36
300 yearsaños agohace,
mostmás people workedtrabajó on farmsgranjas,
47
144920
2976
hace 300 años, la mayoría de la gente
trabajaba en granjas;
02:39
150 yearsaños agohace, in factoriessuerte,
48
147920
2336
hace 150 años, en fábricas;
02:42
and todayhoy, mostmás people work in officesoficinas.
49
150280
2856
y hoy, en oficinas.
02:45
And onceuna vez again, people displaceddesplazado
from tasksTareas in the oldantiguo bitpoco of pietarta
50
153160
4056
De nuevo, quienes fueron desplazados
de sus tareas en la vieja tarta
02:49
could tumblecaída into tasksTareas
in the newnuevo bitpoco of pietarta insteaden lugar.
51
157240
2800
pudieron asumir tareas
en la porción de la nueva tarta.
02:52
EconomistsEconomistas call these effectsefectos
complementaritiesaspectos complementarios,
52
160720
3336
Los economistas llaman a estos efectos
"complementariedades",
02:56
but really that's just a fancylujoso wordpalabra
to capturecapturar the differentdiferente way
53
164080
3256
que es en realidad un término elegante
para expresar la forma diferente
02:59
that technologicaltecnológico progressProgreso
helpsayuda humanhumano beingsseres.
54
167360
3136
en que el progreso tecnológico
puede ayudar a los humanos.
03:02
ResolvingResolución de this TerminatorTerminator mythmito
55
170520
2096
Resolver este mito del Exterminador
03:04
showsmuestra us that there are
two forcesefectivo at playjugar:
56
172640
2336
nos demostrará
que hay dos fuerzas en juego:
por un lado, el reemplazo
de mano de obra por máquinas,
03:07
one, machinemáquina substitutionsustitución
that harmsdaños workerstrabajadores,
57
175000
3536
que perjudica al trabajador,
03:10
but alsoademás these complementaritiesaspectos complementarios
that do the oppositeopuesto.
58
178560
2880
y por el otro estas complementariedades,
que hacen lo contrario.
03:13
Now the secondsegundo mythmito,
59
181960
1376
Veamos el segundo mito,
03:15
what I call the intelligenceinteligencia mythmito.
60
183360
2280
que yo llamo "el mito de la inteligencia".
03:18
What do the tasksTareas of drivingconducción a carcoche,
makingfabricación a medicalmédico diagnosisdiagnóstico
61
186440
4896
¿Qué tienen en común
las siguientes tareas:
conducir un automóvil,
hacer un diagnóstico médico
e identificar un pájaro
con un rápido vistazo?
03:23
and identifyingidentificando a birdpájaro
at a fleetingfugaz glimpsevislumbrar have in commoncomún?
62
191360
2920
03:27
Well, these are all tasksTareas
that untilhasta very recentlyrecientemente,
63
195280
2976
Pues bien, hasta hace muy poco
los economistas expertos
03:30
leadinglíder economistseconomistas thought
couldn'tno pudo readilyfácilmente be automatedautomatizado.
64
198280
3336
consideraban que estas tareas
no podían ser fácilmente automatizadas.
03:33
And yettodavía todayhoy, all of these tasksTareas
can be automatedautomatizado.
65
201640
3176
Sin embargo, hoy en día
todas pueden automatizarse.
03:36
You know, all majormayor carcoche manufacturersfabricantes
have driverlesssin conductor carcoche programsprogramas.
66
204840
3496
De hecho, las principales
empresas automotrices
cuentan con programas
de conducción autónoma.
03:40
There's countlessincontable systemssistemas out there
that can diagnosediagnosticar medicalmédico problemsproblemas.
67
208360
3976
Hay una infinidad de sistemas
que pueden diagnosticar problemas médicos.
03:44
And there's even an appaplicación
that can identifyidentificar a birdpájaro
68
212360
2416
Y hasta hay una aplicación
que puede identificar un pájaro
03:46
at a fleetingfugaz glimpsevislumbrar.
69
214800
1200
de un rápido vistazo.
03:48
Now, this wasn'tno fue simplysimplemente a casecaso of badmalo lucksuerte
on the partparte of economistseconomistas.
70
216920
4376
Ahora bien, no es que los economistas
hayan tenido mala suerte y nada más.
03:53
They were wrongincorrecto,
71
221320
1296
Se equivocaron,
03:54
and the reasonrazón why
they were wrongincorrecto is very importantimportante.
72
222640
2496
y lo importante es por qué se equivocaron.
03:57
They'veHan fallencaído for the intelligenceinteligencia mythmito,
73
225160
2256
Se dejaron engañar por el mito
de la inteligencia,
03:59
the beliefcreencia that machinesmáquinas
have to copydupdo the way
74
227440
2896
por creer que las máquinas
debían copiar la manera
04:02
that humanhumano beingsseres think and reasonrazón
75
230360
2056
en que pensamos y razonamos
para superarnos en rendimiento.
04:04
in orderorden to outperformsuperar them.
76
232440
1776
04:06
When these economistseconomistas
were tryingmolesto to figurefigura out
77
234240
2216
Cuando estos economistas
decidieron averiguar
04:08
what tasksTareas machinesmáquinas could not do,
78
236480
1856
cuáles eran las tareas
que las máquinas no podían hacer,
04:10
they imaginedimaginado the only way
to automateautomatizar a tasktarea
79
238360
2136
imaginaron que la única forma
de automatizar un trabajo
04:12
was to sitsentar down with a humanhumano beingsiendo,
80
240520
1816
era sentarse con un ser humano,
04:14
get them to explainexplique to you
how it was they performedrealizado a tasktarea,
81
242360
3536
pedir que les expliquen
cómo hacían el trabajo,
04:17
and then try and capturecapturar that explanationexplicación
82
245920
2656
y luego tratar de plasmar esa explicación
04:20
in a setconjunto of instructionsinstrucciones
for a machinemáquina to followseguir.
83
248600
2776
en una serie de instrucciones
que la máquina debía seguir.
04:23
This viewver was popularpopular in artificialartificial
intelligenceinteligencia at one pointpunto, too.
84
251400
4176
En un punto, también se creía esto
en el campo de la inteligencia artificial.
04:27
I know this because RichardRicardo SusskindSusskind,
85
255600
2176
Lo sé porque Richard Susskind,
04:29
who is my dadpapá and my coauthorcoautor,
86
257800
2856
que es mi padre y mi coautor,
04:32
wroteescribió his doctoratedoctorado in the 1980s
on artificialartificial intelligenceinteligencia and the lawley
87
260680
4056
hizo su doctorado en la década de 1980
en la Universidad de Oxford,
04:36
at OxfordOxford UniversityUniversidad,
88
264760
1416
sobre la inteligencia artificial
en el derecho
04:38
and he was partparte of the vanguardvanguardia.
89
266200
1576
y formó parte de la vanguardia.
04:39
And with a professorprofesor calledllamado PhillipPhillip CapperTapadora de
90
267800
2256
Junto con el profesor Phillip Capper
04:42
and a legallegal publishereditor calledllamado ButterworthsButterworths,
91
270080
2096
y el editor de textos jurídicos
Butterworths
04:44
they producedproducido the world'smundo first
commerciallycomercialmente availabledisponible
92
272200
5896
desarrollaron un sistema
de inteligencia artificial para juristas,
el primero disponible
en el circuito comercial
04:50
artificialartificial intelligenceinteligencia systemsistema in the lawley.
93
278120
2776
a nivel mundial.
04:52
This was the home screenpantalla designdiseño.
94
280920
2616
Este era el diseño
de la pantalla de inicio.
04:55
He assuresasegura me this was
a coolguay screenpantalla designdiseño at the time.
95
283560
2696
Según él, un diseño muy atractivo
para la época.
04:58
(LaughterRisa)
96
286280
1016
(Risas)
04:59
I've never been entirelyenteramente convincedconvencido.
97
287320
1696
Nunca me convenció del todo.
05:01
He publishedpublicado it
in the formformar of two floppyflexible disksdiscos,
98
289040
2616
Lo publicó en forma
de dos discos flexibles,
05:03
at a time where floppyflexible disksdiscos
genuinelyverdaderamente were floppyflexible,
99
291680
3536
en la época en que los discos flexibles
eran flexibles en serio.
05:07
and his approachenfoque was the samemismo
as the economists'economistas:
100
295240
2336
Y usó la misma técnica
que los economistas:
05:09
sitsentar down with a lawyerabogado,
101
297600
1256
sentarse con la abogada,
05:10
get her to explainexplique to you
how it was she solvedresuelto a legallegal problemproblema,
102
298880
3176
pedirle que explique cómo
resolvía un problema legal,
05:14
and then try and capturecapturar that explanationexplicación
in a setconjunto of rulesreglas for a machinemáquina to followseguir.
103
302080
5376
y luego tratar de plasmar la explicación
en una serie de reglas
que la máquina debía seguir.
05:19
In economicsciencias económicas, if humanhumano beingsseres
could explainexplique themselvessí mismos in this way,
104
307480
3616
En economía, si los seres humanos
se pueden explicar de esta manera,
05:23
the tasksTareas are calledllamado routinerutina,
and they could be automatedautomatizado.
105
311120
3296
los trabajos se llaman rutinarios,
y pueden ser automatizados.
05:26
But if humanhumano beingsseres
can't explainexplique themselvessí mismos,
106
314440
2336
Pero si las personas no se saben explicar,
05:28
the tasksTareas are calledllamado non-routineno rutinarias,
and they're thought to be out reachalcanzar.
107
316800
4256
los trabajos se llaman no rutinarios,
y se los considera inviables.
Actualmente, esa distinción
05:33
TodayHoy, that routine-nonroutinerutina nonroutine
distinctiondistinción is widespreadextendido.
108
321080
3296
entre trabajo rutinario y no rutinario
está muy difundida.
05:36
Think how oftena menudo you hearoír people say to you
109
324400
2056
Pensemos cuántas veces escuchamos
05:38
machinesmáquinas can only performrealizar tasksTareas
that are predictableprevisible or repetitiverepetitivo,
110
326480
3256
que las máquinas solo pueden hacer
tareas predecibles o repetitivas,
05:41
rules-basedbasado en reglas or well-definedbien definido.
111
329760
1896
basadas en reglas
o con pautas bien definidas.
05:43
Those are all just
differentdiferente wordspalabras for routinerutina.
112
331680
2936
Son todos términos distintos
para referirse a tareas rutinarias.
05:46
And go back to those threeTres casescasos
that I mentionedmencionado at the startcomienzo.
113
334640
3976
Recordemos los tres casos
que mencioné al principio.
05:50
Those are all classicclásico casescasos
of nonroutinenonroutine tasksTareas.
114
338640
2896
Son todos típicos casos
de tareas no rutinarias.
Si preguntamos a una médica, por ejemplo,
cómo hace un diagnóstico
05:53
AskPedir a doctordoctor, for instanceejemplo,
how she makeshace a medicalmédico diagnosisdiagnóstico,
115
341560
2976
05:56
and she mightpodría be ablepoder
to give you a fewpocos rulesreglas of thumbpulgar,
116
344560
2656
nos dirá que se basa
en algunas reglas intuitivas,
05:59
but ultimatelypor último she'dcobertizo strugglelucha.
117
347240
1656
pero en definitiva le costaría.
06:00
She'dCobertizo say it requiresrequiere things like
creativitycreatividad and judgmentjuicio and intuitionintuición.
118
348920
4816
Dirá que ese proceso requiere
de creatividad, criterio e intuición.
06:05
And these things are
very difficultdifícil to articulatearticular,
119
353760
2376
Pero no es fácil articular todo esto
06:08
and so it was thought these tasksTareas
would be very harddifícil to automateautomatizar.
120
356160
3096
y por eso se creía que era muy difícil
automatizar estas tareas.
06:11
If a humanhumano beingsiendo can't explainexplique themselvessí mismos,
121
359280
2536
Si un ser humano no sabe explicarse,
06:13
where on earthtierra do we beginempezar
in writingescritura a setconjunto of instructionsinstrucciones
122
361840
2896
¿cómo diablos empezamos
a escribir las instrucciones
06:16
for a machinemáquina to followseguir?
123
364760
1200
para que una máquina las siga?
06:18
ThirtyTreinta yearsaños agohace, this viewver was right,
124
366640
2576
Hace 30 años, esta visión era correcta
06:21
but todayhoy it's looking shakytembloroso,
125
369240
2136
pero hoy en día es cuestionable
06:23
and in the futurefuturo
it's simplysimplemente going to be wrongincorrecto.
126
371400
2256
y en el futuro perderá todo sustento.
06:25
AdvancesAvances in processingtratamiento powerpoder,
in datadatos storagealmacenamiento capabilitycapacidad
127
373680
3256
Los avances en la capacidad
de procesamiento y almacenamiento de datos
06:28
and in algorithmalgoritmo designdiseño
128
376960
1656
y en el diseño de algoritmos
06:30
mean that this
routine-nonroutinerutina nonroutine distinctiondistinción
129
378640
2496
indican que esta distinción entre
lo rutinario y lo no rutinario
06:33
is diminishinglycada usefulútil.
130
381160
1736
será cada vez menos útil.
06:34
To see this, go back to the casecaso
of makingfabricación a medicalmédico diagnosisdiagnóstico.
131
382920
3256
Para ilustrarlo, volvamos al caso
del médico que hace un diagnóstico.
06:38
EarlierMás temprano in the yearaño,
132
386200
1376
A principio de año,
06:39
a teamequipo of researchersinvestigadores at StanfordStanford
announcedAnunciado they'dellos habrían developeddesarrollado a systemsistema
133
387600
3296
un equipo de investigadores de Stanford
anunció el desarrollo de un sistema
06:42
whichcual can tell you
whethersi or not a frecklepeca is cancerouscanceroso
134
390920
3056
que puede identificar si una mancha
en la piel es cancerígena o no
06:46
as accuratelyprecisamente as leadinglíder dermatologistsdermatólogos.
135
394000
2680
con la misma precisión del diagnóstico
de dermatólogos de prestigio.
06:49
How does it work?
136
397280
1256
¿Cómo funciona?
06:50
It's not tryingmolesto to copydupdo the judgmentjuicio
or the intuitionintuición of a doctordoctor.
137
398560
5296
No intenta imitar el criterio
ni la intuición de un médico.
06:55
It knowssabe or understandsentiende
nothing about medicinemedicina at all.
138
403880
3136
No sabe ni entiende de medicina.
06:59
InsteadEn lugar, it's runningcorriendo
a patternpatrón recognitionreconocimiento algorithmalgoritmo
139
407040
2576
En cambio, ejecuta un algoritmo
de reconocimiento de patrones
07:01
throughmediante 129,450 pastpasado casescasos,
140
409640
4656
que recorre 129 450 casos previos,
07:06
huntingcaza for similaritiessimilitudes
betweenEntre those casescasos
141
414320
3096
y busca similitudes entre esos casos
y la lesión específica en cuestión.
07:09
and the particularespecial lesionlesión in questionpregunta.
142
417440
2080
07:12
It's performingamaestrado these tasksTareas
in an unhumanunhuman way,
143
420080
3216
Realiza estas tareas
de una manera no humana,
07:15
basedbasado on the analysisanálisis
of more possibleposible casescasos
144
423320
2336
analizando los casos más probables,
que serían imposibles de revisar
para cualquier médico en toda su vida.
07:17
than any doctordoctor could hopeesperanza
to reviewrevisión in theirsu lifetimetoda la vida.
145
425680
2616
07:20
It didn't matterimportar that that humanhumano beingsiendo,
146
428320
1896
No importó si ese ser humano,
07:22
that doctordoctor, couldn'tno pudo explainexplique
how she'dcobertizo performedrealizado the tasktarea.
147
430240
2800
si esa médica, no pudo explicar
cómo había hecho la tarea.
07:25
Now, there are those
who dwellhabitar uponsobre that the facthecho
148
433640
2336
Ahora bien, hay quienes tienen sus reparos
07:28
that these machinesmáquinas
aren'tno son builtconstruido in our imageimagen.
149
436000
2296
porque estas máquinas no están hechas
a semejanza de un humano.
07:30
As an exampleejemplo, take IBM'sIBM WatsonWatson,
150
438320
2056
Como ejemplo, tomemos a Watson,
la supercomputadora de IBM
07:32
the supercomputersupercomputadora that wentfuimos
on the US quizexamen showespectáculo "JeopardyPeligro!" in 2011,
151
440400
4856
que participó de un concurso
en "Jeopardy!" en EE.UU. en 2011
07:37
and it beatgolpear the two
humanhumano championscampeones at "JeopardyPeligro!"
152
445280
3016
y le ganó a dos campeones humanos
en el programa.
07:40
The day after it wonwon,
153
448320
1696
Al día siguiente,
07:42
The Wallpared StreetCalle Journaldiario rancorrió a piecepieza
by the philosopherfilósofo JohnJohn SearleSearle
154
450040
3296
el periódico Wall Street Journal publicó
un artículo del filósofo John Searle
07:45
with the titletítulo "WatsonWatson
Doesn't Know It WonWon on 'Jeopardy'Peligro!'"
155
453360
3376
titulado "Watson no sabe que ganó
en 'Jeopardy!'"
07:48
Right, and it's brilliantbrillante, and it's truecierto.
156
456760
1976
Brillante y cierto.
Watson no gritó de felicidad.
07:50
You know, WatsonWatson didn't
let out a cryllorar of excitementemoción.
157
458760
2456
No llamó a sus padres
para contarles de su logro.
07:53
It didn't call up its parentspadres
to say what a good jobtrabajo it had donehecho.
158
461240
3096
No fue al bar a tomar un trago.
07:56
It didn't go down to the pubpub for a drinkbeber.
159
464360
2336
07:58
This systemsistema wasn'tno fue tryingmolesto to copydupdo the way
that those humanhumano contestantsconcursantes playedjugó,
160
466720
4456
El sistema no pretendía copiar la forma
en que jugaban los participantes humanos,
08:03
but it didn't matterimportar.
161
471200
1256
pero no tenía importancia.
08:04
It still outperformedsuperado them.
162
472480
1976
Aun así, les ganó.
08:06
ResolvingResolución de the intelligenceinteligencia mythmito
163
474480
1576
Al resolver el mito de la inteligencia,
08:08
showsmuestra us that our limitedlimitado understandingcomprensión
about humanhumano intelligenceinteligencia,
164
476080
3376
podemos ver que nuestro limitado
conocimiento de la inteligencia humana,
08:11
about how we think and reasonrazón,
165
479480
1896
de la manera en que pensamos y razonamos,
08:13
is farlejos lessMenos of a constraintrestricción
on automationautomatización than it was in the pastpasado.
166
481400
3456
ya no es una limitación
para la automatización
como lo era en el pasado.
08:16
What's more, as we'venosotros tenemos seenvisto,
167
484880
1496
Más aun, hemos visto
que cuando estas máquinas
08:18
when these machinesmáquinas
performrealizar tasksTareas differentlydiferentemente to humanhumano beingsseres,
168
486400
3416
hacen tareas de un modo distinto
al de los seres humanos,
08:21
there's no reasonrazón to think
169
489840
1256
no hay motivo para pensar
08:23
that what humanhumano beingsseres
are currentlyactualmente capablecapaz of doing
170
491120
2536
que lo que nosotros podemos hacer
08:25
representsrepresenta any sortordenar of summitcumbre
171
493680
1456
sería una especie de punto máximo
08:27
in what these machinesmáquinas
mightpodría be capablecapaz of doing in the futurefuturo.
172
495160
3000
de lo que estas máquinas
llegarían a hacer en el futuro.
08:31
Now the thirdtercero mythmito,
173
499040
1256
Veamos el tercer mito,
08:32
what I call the superioritysuperioridad mythmito.
174
500320
2456
que yo llamo "el mito de la superioridad".
08:34
It's oftena menudo said that those who forgetolvidar
175
502800
2216
Suele decirse que quienes olvidan
el lado útil del progreso tecnológico,
08:37
about the helpfulservicial sidelado
of technologicaltecnológico progressProgreso,
176
505040
2456
08:39
those complementaritiesaspectos complementarios from before,
177
507520
2496
las complementariedades que mencioné,
08:42
are committingcometer something
knownconocido as the lumpterrón of laborlabor fallacyfalacia.
178
510040
3040
están cayendo en lo que se denomina
la falacia de la cantidad fija de trabajo.
08:45
Now, the problemproblema is
the lumpterrón of laborlabor fallacyfalacia
179
513840
2295
Pues bien, el problema es que esta falacia
es una falacia en sí misma;
08:48
is itselfsí mismo a fallacyfalacia,
180
516159
1496
08:49
and I call this the lumpterrón
of laborlabor fallacyfalacia fallacyfalacia,
181
517679
2937
por eso la llamo
la falacia de la falacia
de la cantidad fija de trabajo.
08:52
or LOLFFLOLFF, for shortcorto.
182
520640
2320
08:56
Let me explainexplique.
183
524000
1416
Paso a explicarla.
08:57
The lumpterrón of laborlabor fallacyfalacia
is a very oldantiguo ideaidea.
184
525440
2136
La falacia de la cantidad fija
de trabajo es un viejo concepto.
08:59
It was a Britishbritánico economisteconomista, DavidDavid SchlossSchloss,
who gavedio it this namenombre in 1892.
185
527600
4216
Un economista británico, David Schloss,
le dio este nombre en 1892.
09:03
He was puzzledperplejo
to come acrossa través de a dockmuelle workerobrero
186
531840
2816
Quedó asombrado cuando una vez
vio a un estibador
09:06
who had beguncomenzado to use
a machinemáquina to make washerslavadoras,
187
534680
2336
que había empezado a usar
una máquina para hacer arandelas,
09:09
the smallpequeña metalmetal discsDiscos
that fastensujetar on the endfin of screwsempulgueras.
188
537040
3320
esos pequeños discos metálicos
que mantienen apretados los tornillos.
09:13
And this dockmuelle workerobrero
feltsintió guiltyculpable for beingsiendo more productiveproductivo.
189
541000
3760
Este estibador sentía culpa
por aumentar su productividad.
Claro que casi siempre
ocurre lo contrario:
09:17
Now, mostmás of the time,
we expectesperar the oppositeopuesto,
190
545560
2176
sentimos culpa por no ser productivos,
09:19
that people feel guiltyculpable
for beingsiendo unproductiveimproductivo,
191
547760
2216
por pasar demasiado tiempo
en Facebook o Twitter en el trabajo.
09:22
you know, a little too much time
on FacebookFacebook or TwitterGorjeo at work.
192
550000
3016
Pero esta persona sentía culpa
por ser más productiva,
09:25
But this workerobrero feltsintió guiltyculpable
for beingsiendo more productiveproductivo,
193
553040
2536
y lo explicó diciendo:
"Sé que estoy haciendo lo incorrecto;
09:27
and askedpreguntó why, he said,
"I know I'm doing wrongincorrecto.
194
555600
2296
le estoy quitando trabajo a otra persona".
09:29
I'm takingtomando away the work of anotherotro man."
195
557920
2040
09:32
In his mindmente, there was
some fixedfijo lumpterrón of work
196
560760
2976
En su visión, había
una cantidad fija de trabajo
09:35
to be divideddividido up betweenEntre him and his palsamigos,
197
563760
2136
que debía dividirse
entre él y sus compañeros,
09:37
so that if he used
this machinemáquina to do more,
198
565920
2056
y al usar una máquina
para aumentar la producción
09:40
there'del rojo be lessMenos left for his palsamigos to do.
199
568000
2016
habría menos trabajo para sus compañeros.
09:42
SchlossSchloss saw the mistakeError.
200
570040
1856
Schloss vio el error.
09:43
The lumpterrón of work wasn'tno fue fixedfijo.
201
571920
1856
La cantidad de trabajo no era fija.
09:45
As this workerobrero used the machinemáquina
and becameconvirtió more productiveproductivo,
202
573800
2816
Cuando este trabajador usara
la máquina y aumentara su producción,
09:48
the priceprecio of washerslavadoras would fallotoño,
demanddemanda for washerslavadoras would risesubir,
203
576640
2976
el precio de las arandelas caería,
la demanda crecería,
09:51
more washerslavadoras would have to be madehecho,
204
579640
1696
surgiría la necesidad
de hacer más arandelas,
09:53
and there'del rojo be more work
for his palsamigos to do.
205
581360
2096
y habría más trabajo para sus compañeros.
09:55
The lumpterrón of work would get biggermás grande.
206
583480
1696
La cantidad de trabajo aumentaría.
09:57
SchlossSchloss calledllamado this
"the lumpterrón of laborlabor fallacyfalacia."
207
585200
2680
Schloss le llamó a esto "la falacia
de la cantidad fija de trabajo".
10:00
And todayhoy you hearoír people talk
about the lumpterrón of laborlabor fallacyfalacia
208
588560
2936
Actualmente se habla de esta falacia
para referirse al futuro
de todos los trabajos.
10:03
to think about the futurefuturo
of all typestipos of work.
209
591520
2216
No hay una cantidad fija de trabajo
que deba dividirse
10:05
There's no fixedfijo lumpterrón of work
out there to be divideddividido up
210
593760
2656
entre las personas y las máquinas.
10:08
betweenEntre people and machinesmáquinas.
211
596440
1376
Sí, es cierto que las máquinas
sustituyen a los humanos
10:09
Yes, machinesmáquinas substitutesustituir for humanhumano beingsseres,
makingfabricación the originaloriginal lumpterrón of work smallermenor,
212
597840
4656
y así disminuye la cantidad de trabajo,
10:14
but they alsoademás complementcomplemento humanhumano beingsseres,
213
602520
1856
pero también los complementan
10:16
and the lumpterrón of work
getsse pone biggermás grande and changescambios.
214
604400
2096
y la cantidad de trabajo aumenta y cambia.
10:19
But LOLFFLOLFF.
215
607760
1616
Pero la falacia de esta falacia
entraña un error:
10:21
Here'sAquí está the mistakeError:
216
609400
1376
10:22
it's right to think
that technologicaltecnológico progressProgreso
217
610800
2216
es correcto pensar que
el progreso tecnológico
10:25
makeshace the lumpterrón of work to be donehecho biggermás grande.
218
613040
1976
aumenta la cantidad de trabajo.
10:27
Some tasksTareas becomevolverse more valuablevalioso.
NewNuevo tasksTareas have to be donehecho.
219
615040
3016
Algunas tareas se valorizan,
nuevas tareas aparecen.
10:30
But it's wrongincorrecto to think that necessarilynecesariamente,
220
618080
2536
Pero es incorrecto pensar
que necesariamente los humanos
10:32
humanhumano beingsseres will be bestmejor placedmetido
to performrealizar those tasksTareas.
221
620640
3256
estaremos en mejores condiciones
de hacer esas tareas.
10:35
And this is the superioritysuperioridad mythmito.
222
623920
1616
Y este es "el mito de la superioridad".
10:37
Yes, the lumpterrón of work
mightpodría get biggermás grande and changecambio,
223
625560
3416
Efectivamente, la cantidad de trabajo
puede ser mayor y cambiar,
pero a medida que las máquinas
se hacen más capaces,
10:41
but as machinesmáquinas becomevolverse more capablecapaz,
224
629000
1976
10:43
it's likelyprobable that they'llellos van a take on
the extraextra lumpterrón of work themselvessí mismos.
225
631000
3896
es posible que asuman
esa cantidad extra de trabajo.
10:46
TechnologicalTecnológico progressProgreso,
rathermás bien than complementcomplemento humanhumano beingsseres,
226
634920
3256
El progreso tecnológico,
más que complementar a los humanos,
10:50
complementsComplementos machinesmáquinas insteaden lugar.
227
638200
1880
complementa a las máquinas.
10:52
To see this, go back
to the tasktarea of drivingconducción a carcoche.
228
640920
3016
Para entenderlo, volvamos
a la tarea de conducir un automóvil.
10:55
TodayHoy, satnavSatNav systemssistemas
directlydirectamente complementcomplemento humanhumano beingsseres.
229
643960
4096
Hoy en día, los sistemas de GPS
nos complementan a los humanos
de forma directa.
11:00
They make some
humanhumano beingsseres better driversconductores.
230
648080
2280
Nos hacen mejores conductores.
11:02
But in the futurefuturo,
231
650920
1256
Pero en el futuro
11:04
softwaresoftware is going to displacedesplazar
humanhumano beingsseres from the drivingconducción seatasiento,
232
652200
3096
el software desplazará a los humanos
del asiento del conductor,
11:07
and these satnavSatNav systemssistemas,
rathermás bien than complementcomplemento humanhumano beingsseres,
233
655320
2936
y estos sistemas de GPS,
en lugar de complementar a los humanos,
11:10
will simplysimplemente make these
driverlesssin conductor carscarros more efficienteficiente,
234
658280
2536
simplemente harán que los vehículos
sin piloto sean más eficientes,
11:12
helpingración the machinesmáquinas insteaden lugar.
235
660840
1536
y ayudarán a las máquinas.
11:14
Or go to those indirectindirecto complementaritiesaspectos complementarios
that I mentionedmencionado as well.
236
662400
4056
O vayamos a las complementariedades
indirectas que mencioné antes.
La tarta de la economía puede agrandarse,
11:18
The economiceconómico pietarta maymayo get largermás grande,
237
666480
1776
11:20
but as machinesmáquinas becomevolverse more capablecapaz,
238
668280
1736
pero a medida que las máquinas
se hagan más eficientes,
11:22
it's possibleposible that any newnuevo demanddemanda
will fallotoño on goodsbienes that machinesmáquinas,
239
670040
3143
es posible que haya mayor demanda
de productos fabricados por máquinas
11:25
rathermás bien than humanhumano beingsseres,
are bestmejor placedmetido to produceProduce.
240
673207
2649
y no por humanos.
11:27
The economiceconómico pietarta maymayo changecambio,
241
675880
1896
La tarta de la economía puede cambiar,
11:29
but as machinesmáquinas becomevolverse more capablecapaz,
242
677800
1896
pero a medida que las máquinas
se hagan más capaces,
11:31
it's possibleposible that they'llellos van a be bestmejor placedmetido
to do the newnuevo tasksTareas that have to be donehecho.
243
679720
4856
es posible que estén mejor posicionadas
para realizar las nuevas tareas.
11:36
In shortcorto, demanddemanda for tasksTareas
isn't demanddemanda for humanhumano laborlabor.
244
684600
3696
En definitiva, la demanda de tareas
no implica demanda de trabajo humano.
11:40
HumanHumano beingsseres only standestar to benefitbeneficio
245
688320
1936
Los seres humanos se benefician únicamente
11:42
if they retainconservar the upperSuperior handmano
in all these complementedcomplementado tasksTareas,
246
690280
3816
si se mantienen a la delantera
en todas estas tareas complementadas,
11:46
but as machinesmáquinas becomevolverse more capablecapaz,
that becomesse convierte lessMenos likelyprobable.
247
694120
3720
pero a medida que las máquinas
se hacen más capaces,
esas posibilidades se reducen.
Ahora bien, ¿qué nos enseñan
estos tres mitos?
11:50
So what do these threeTres mythsmitos tell us then?
248
698760
2016
11:52
Well, resolvingresolviendo the TerminatorTerminator mythmito
249
700800
1696
Resolver el mito del Exterminador
11:54
showsmuestra us that the futurefuturo of work dependsdepende
uponsobre this balanceequilibrar betweenEntre two forcesefectivo:
250
702520
3696
muestra que el futuro del trabajo
depende del equilibrio entre dos fuerzas:
una, la sustitución
de mano de obra por máquinas
11:58
one, machinemáquina substitutionsustitución
that harmsdaños workerstrabajadores
251
706240
3136
--que perjudica al trabajador--
12:01
but alsoademás those complementaritiesaspectos complementarios
that do the oppositeopuesto.
252
709400
2576
y la otra, las complementariedades
12:04
And untilhasta now, this balanceequilibrar
has fallencaído in favorfavor of humanhumano beingsseres.
253
712000
4040
que hacen lo opuesto.
Y, hasta ahora, esta balanza
se ha inclinado a favor de los humanos.
Resolver el mito de la inteligencia
12:09
But resolvingresolviendo the intelligenceinteligencia mythmito
254
717120
1736
muestra que esa primera fuerza,
el reemplazo del trabajo por máquinas,
12:10
showsmuestra us that that first forcefuerza,
machinemáquina substitutionsustitución,
255
718880
2496
12:13
is gatheringreunión strengthfuerza.
256
721400
1296
se está imponiendo.
12:14
MachinesMáquinas, of coursecurso, can't do everything,
257
722720
1976
Está claro que las máquinas
no pueden hacer todo,
12:16
but they can do farlejos more,
258
724720
1256
pero sí mucho más,
12:18
encroachinginvadiendo ever deeperMás adentro into the realmreino
of tasksTareas performedrealizado by humanhumano beingsseres.
259
726000
4576
penetrando más aún en el terreno
de las tareas hechas por nosotros.
12:22
What's more, there's no reasonrazón to think
260
730600
1896
Además, no hay motivo para pensar
12:24
that what humanhumano beingsseres
are currentlyactualmente capablecapaz of
261
732520
2216
que lo que los humanos podemos hacer hoy
sería una especie de línea de llegada
12:26
representsrepresenta any sortordenar of finishingrefinamiento linelínea,
262
734760
1856
y que las máquinas se detendrán
tranquilamente en su avance
12:28
that machinesmáquinas are going
to drawdibujar to a politeCortés stop
263
736640
2256
12:30
onceuna vez they're as capablecapaz as us.
264
738920
1816
una vez que igualen la capacidad humana.
12:32
Now, noneninguna of this mattersasuntos
265
740760
1536
Ahora bien, nada de esto tiene importancia
12:34
so long as those helpfulservicial
windsvientos of complementaritycomplementariedad
266
742320
2816
mientras esos vientos favorables
de la complementariedad
12:37
blowsoplar firmlyfirmemente enoughsuficiente,
267
745160
1736
soplen con suficiente fuerza.
12:38
but resolvingresolviendo the superioritysuperioridad mythmito
268
746920
1936
Pero resolver el mito de la superioridad
12:40
showsmuestra us that that processproceso
of tasktarea encroachmentinvasión
269
748880
3096
nos muestra que ese proceso
de invasión de tareas
12:44
not only strengthensfortalece
the forcefuerza of machinemáquina substitutionsustitución,
270
752000
3936
no solo robustece la fuerza de la
sustitución del trabajo por máquinas
sino que también debilita
esas útiles complementariedades.
12:47
but it wearsviste down
those helpfulservicial complementaritiesaspectos complementarios too.
271
755960
3336
12:51
BringTraer these threeTres mythsmitos togetherjuntos
272
759320
1936
Si reunimos estos tres mitos
12:53
and I think we can capturecapturar a glimpsevislumbrar
of that troublingperturbador futurefuturo.
273
761280
2936
podremos tener una idea
de ese inquietante futuro.
Las máquinas siguen siendo
cada vez más capaces,
12:56
MachinesMáquinas continuecontinuar to becomevolverse more capablecapaz,
274
764240
2016
12:58
encroachinginvadiendo ever deeperMás adentro
on tasksTareas performedrealizado by humanhumano beingsseres,
275
766280
3656
invadiendo cada vez más las tareas
realizadas por seres humanos,
13:01
strengtheningfortalecimiento the forcefuerza
of machinemáquina substitutionsustitución,
276
769960
2576
robusteciendo la fuerza de la sustitución
del trabajo por máquinas
13:04
weakeningdebilitación the forcefuerza
of machinemáquina complementaritycomplementariedad.
277
772560
3616
y debilitando la fuerza
de las complementariedades.
13:08
And at some pointpunto, that balanceequilibrar
fallscaídas in favorfavor of machinesmáquinas
278
776200
4296
Y en un punto, la balanza
se inclina a favor de las máquinas
13:12
rathermás bien than humanhumano beingsseres.
279
780520
2056
más que de los seres humanos.
13:14
This is the pathcamino we're currentlyactualmente on.
280
782600
1736
Este es el camino que hoy
estamos transitando.
13:16
I say "pathcamino" deliberatelydeliberadamente,
because I don't think we're there yettodavía,
281
784360
3176
Y digo "camino" a propósito
porque no creo que hayamos llegado,
13:19
but it is harddifícil to avoidevitar the conclusionconclusión
that this is our directiondirección of travelviajar.
282
787560
3640
pero no podemos negar
que vamos en esa dirección.
13:24
That's the troublingperturbador partparte.
283
792640
1456
Esto es lo inquietante.
13:26
Let me say now why I think actuallyactualmente
this is a good problemproblema to have.
284
794120
3520
Les diré ahora por qué considero
que este es un problema con ventajas.
En casi toda la historia de la humanidad,
el problema económico dominante ha sido
13:30
For mostmás of humanhumano historyhistoria,
one economiceconómico problemproblema has dominateddominado:
285
798520
3536
13:34
how to make the economiceconómico pietarta
largegrande enoughsuficiente for everyonetodo el mundo to livevivir on.
286
802080
4056
cómo hacer para que la tarta
de la economía alcance para todos.
Vayamos a comienzos
del primer siglo de nuestra era,
13:38
Go back to the turngiro
of the first centurysiglo ADANUNCIO,
287
806160
2176
13:40
and if you tooktomó the globalglobal economiceconómico pietarta
288
808360
2096
y veremos que si la tarta
de la economía global
13:42
and divideddividido it up into equaligual slicesrodajas
for everyonetodo el mundo in the worldmundo,
289
810480
3296
se dividiera en porciones iguales
para todas las personas del mundo,
13:45
everyonetodo el mundo would get a fewpocos hundredcien dollarsdólares.
290
813800
2136
cada uno recibiría
unos cientos de dólares.
13:47
AlmostCasi everyonetodo el mundo livedvivió
on or around the povertypobreza linelínea.
291
815960
2760
Casi todas las personas vivían al borde
de la línea de pobreza, o cerca.
13:51
And if you rollrodar forwardadelante a thousandmil yearsaños,
292
819320
2176
Y si nos adelantamos mil años,
13:53
roughlyaproximadamente the samemismo is truecierto.
293
821520
1240
sigue siendo igual, en líneas generales.
13:55
But in the last fewpocos hundredcien yearsaños,
economiceconómico growthcrecimiento has takentomado off.
294
823680
3576
Pero en los últimos cien años,
la economía ha tomado vuelo.
13:59
Those economiceconómico piespies have explodedexplotó in sizetamaño.
295
827280
2376
Esas tartas de la economía
se han disparado en tamaño.
14:01
GlobalGlobal GDPPIB perpor headcabeza,
296
829680
2056
El PIB mundial per cápita,
14:03
the valuevalor of those individualindividual
slicesrodajas of the pietarta todayhoy,
297
831760
3376
el valor actual de esas porciones
individuales de la tarta,
14:07
they're about 10,150 dollarsdólares.
298
835160
2816
es de unos USD 10 150.
14:10
If economiceconómico growthcrecimiento continuescontinúa
at two percentpor ciento,
299
838000
2696
Si la economía sigue creciendo
al ritmo del 2 %,
14:12
our childrenniños will be twicedos veces as richRico as us.
300
840720
2056
nuestros hijos serán el doble
de ricos que nosotros.
14:14
If it continuescontinúa
at a more measlymiserable one percentpor ciento,
301
842800
2296
Y si continúa su crecimiento
en un modesto 1 %,
14:17
our grandchildrennietos
will be twicedos veces as richRico as us.
302
845120
2656
nuestro nietos serán el doble
de ricos que nosotros.
14:19
By and largegrande, we'venosotros tenemos solvedresuelto
that traditionaltradicional economiceconómico problemproblema.
303
847800
3680
En líneas generales, hemos resuelto
ese tradicional problema económico.
14:24
Now, technologicaltecnológico unemploymentdesempleo,
if it does happenocurrir,
304
852200
3016
Ahora bien, si se produce
el desempleo tecnológico,
14:27
in a strangeextraño way will be
a symptomsíntoma of that successéxito,
305
855240
3216
será, curiosamente,
un síntoma de ese éxito.
14:30
will have solvedresuelto one problemproblema --
how to make the pietarta biggermás grande --
306
858480
3856
Habrá resuelto el problema
de cómo agrandar la tarta,
14:34
but replacedreemplazado it with anotherotro --
307
862360
1816
pero creará otro:
14:36
how to make sure
that everyonetodo el mundo getsse pone a slicerebanada.
308
864200
2760
cómo asegurarse de que todos
reciban una porción.
Tal y como piensan otros economistas,
resolver este problema no será fácil.
14:39
As other economistseconomistas have notedcélebre,
solvingresolviendo this problemproblema won'tcostumbre be easyfácil.
309
867840
3496
14:43
TodayHoy, for mostmás people,
310
871360
1656
Actualmente, para la mayoría,
14:45
theirsu jobtrabajo is theirsu seatasiento
at the economiceconómico dinnercena tablemesa,
311
873040
2496
el trabajo es nuestro asiento
a la mesa de la economía,
14:47
and in a worldmundo with lessMenos work
or even withoutsin work,
312
875560
2416
y en un mundo con menos trabajo
o incluso sin trabajo,
14:50
it won'tcostumbre be clearclaro
how they get theirsu slicerebanada.
313
878000
2056
no está claro cómo
obtendrán su porción.
14:52
There's a great dealacuerdo
of discussiondiscusión, for instanceejemplo,
314
880080
2336
Mucho se ha debatido, por ejemplo,
14:54
about variousvarios formsformularios
of universaluniversal basicBASIC incomeingresos
315
882440
2696
sobre las distintas formas
de ingreso básico universal
14:57
as one possibleposible approachenfoque,
316
885160
1216
como una medida posible,
14:58
and there's trialsensayos underwayen marcha
317
886400
1616
y se están realizando ensayos
15:00
in the UnitedUnido StatesEstados
and in FinlandFinlandia and in KenyaKenia.
318
888040
2400
en Estados Unidos, Finlandia y Kenia.
15:03
And this is the collectivecolectivo challengereto
that's right in frontfrente of us,
319
891000
3176
Este es el desafío colectivo
que debemos enfrentar,
15:06
to figurefigura out how this materialmaterial prosperityprosperidad
generatedgenerado by our economiceconómico systemsistema
320
894200
5056
cómo hacer que esta prosperidad material
generada por nuestro sistema económico
15:11
can be enjoyeddisfrutado by everyonetodo el mundo
321
899280
1976
sea disfrutado por todos,
15:13
in a worldmundo in whichcual
our traditionaltradicional mechanismmecanismo
322
901280
2416
en un mundo donde el mecanismo
tradicional de distribuir
15:15
for slicingcortar up the pietarta,
323
903720
1856
las porciones de la tarta,
15:17
the work that people do,
324
905600
1936
el trabajo que hace la gente,
15:19
witherscruz de caballo away and perhapsquizás disappearsdesaparece.
325
907560
2160
se debilita y quizá desaparezca.
15:22
SolvingResolviendo this problemproblema is going to requireexigir
us to think in very differentdiferente waysformas.
326
910280
4360
Resolver este problema nos obligará
a pensar de otras maneras.
15:27
There's going to be a lot of disagreementdesacuerdo
about what oughtdebería to be donehecho,
327
915400
4176
Habrá grandes desacuerdos
sobre el camino a seguir,
15:31
but it's importantimportante to rememberrecuerda
that this is a farlejos better problemproblema to have
328
919600
3416
pero es importante recordar
que es mejor tener este problema
15:35
than the one that hauntedobsesionado
our ancestorsantepasados for centuriessiglos:
329
923040
2816
que el que acechó a nuestros ancestros
durante siglos:
15:37
how to make that pietarta
biggrande enoughsuficiente in the first placelugar.
330
925880
3376
cómo hacer que esa tarta
sea lo suficientemente grande.
15:41
Thank you very much.
331
929280
1256
Muchas gracias.
15:42
(ApplauseAplausos)
332
930560
3840
(Aplausos)
Translated by Paula Motter
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com