ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

Daniel Susskind: Trois mythes sur l'avenir du travail (et pourquoi ils ne sont pas vrais)

Filmed:
1,519,249 views

« Les machines remplaceront-elles les êtres humains ? » Toute personne ayant un emploi à perdre a cette question à l'esprit. Daniel Susskind confronte cette question et trois idées reçues qui sont fausses sur l'avenir automatisé, suggérant que nous nous demandions : comment distribuerons-nous les richesses dans un monde où il y aura moins, voire pas, de travail ?
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
AutomationAutomation anxietyanxiété
has been spreadingdiffusion latelydernièrement,
0
760
3376
L’anxiété au sujet de l’automatisation
s’est récemment répandue,
00:16
a fearpeur that in the futureavenir,
1
4160
2656
une peur qu’à l’avenir
00:18
manybeaucoup jobsemplois will be performedexécuté by machinesmachines
2
6840
2456
de nombreuses tâches
soient faites par des machines
00:21
ratherplutôt than humanHumain beingsêtres,
3
9320
1336
plutôt que des êtres humains,
00:22
givendonné the remarkableremarquable advancesavances
that are unfoldingdéploiement
4
10680
2936
étant données les remarquables
avancées qui se produisent
00:25
in artificialartificiel intelligenceintelligence and roboticsrobotique.
5
13640
2776
en intelligence artificielle
et en robotique.
00:28
What's clearclair is that
there will be significantimportant changechangement.
6
16440
2816
Ce qui est clair, c’est qu’il y aura
d’importants changements.
00:31
What's lessMoins clearclair
is what that changechangement will look like.
7
19280
3616
Ce qui est moins clair, c’est
à quoi ces changements ressembleront.
00:34
My researchrecherche suggestssuggère that the futureavenir
is bothtous les deux troublingtroublant and excitingpassionnant.
8
22920
4936
Mes recherches suggèrent que l’avenir
est à la fois inquiétant et prometteur.
00:39
The threatmenace of technologicaltechnologique
unemploymentchômage is realréal,
9
27880
3736
La menace du chômage
technologique est réelle,
00:43
and yetencore it's a good problemproblème to have.
10
31640
2056
mais c’est un bon problème à avoir.
00:45
And to explainExplique
how I camevenu to that conclusionconclusion,
11
33720
3216
Pour expliquer comment
j’en suis venu à cette conclusion,
00:48
I want to confrontaffronter threeTrois mythsmythes
12
36960
2536
je veux confronter trois mythes
00:51
that I think are currentlyactuellement obscuringoccultant
our visionvision of this automatedautomatique futureavenir.
13
39520
4280
qui, à mon avis, obscurcissent
notre vision de cet avenir automatisé.
00:56
A picturephoto that we see
on our televisiontélévision screensécrans,
14
44880
2336
Une image que nous voyons
sur nos écrans de télé,
00:59
in bookslivres, in filmsfilms, in everydaytous les jours commentarycommentaire
15
47240
2216
dans les livres, les films,
les commentaires
est celle d’une armée de robots
envahissant le monde du travail
01:01
is one where an armyarmée of robotsdes robots
descendsdescend on the workplacelieu de travail
16
49480
3696
01:05
with one goalobjectif in mindesprit:
17
53200
1376
avec un objectif en tête :
01:06
to displacedéplacer humanHumain beingsêtres from theirleur work.
18
54600
2496
remplacer les êtres humains
dans leur travail.
01:09
And I call this the TerminatorTerminator mythmythe.
19
57120
2696
J’appelle cela le mythe de Terminator.
01:11
Yes, machinesmachines displacedéplacer
humanHumain beingsêtres from particularparticulier tasksles tâches,
20
59840
3976
Oui, les machines remplacent les humains
dans des tâches particulières,
01:15
but they don't just
substituteremplacer for humanHumain beingsêtres.
21
63840
2256
mais elles ne remplacent pas
les êtres humains.
01:18
They alsoaussi complementcomplément them in other tasksles tâches,
22
66120
1976
Elles les complètent dans d’autres tâches,
01:20
makingfabrication that work more valuablede valeur
and more importantimportant.
23
68120
3616
augmentant la valeur
et l’importance de ce travail.
01:23
SometimesParfois they complementcomplément
humanHumain beingsêtres directlydirectement,
24
71760
3336
Parfois, elles complètent
les êtres humains directement,
01:27
makingfabrication them more productiveproductif
or more efficientefficace at a particularparticulier tasktâche.
25
75120
4016
en les rendant plus productifs, plus
efficaces pour une tâche en particulier.
01:31
So a taxiTaxi driverchauffeur can use a satnavSatNav systemsystème
to navigatenaviguer on unfamiliarpeu familier roadsroutes.
26
79160
4616
Un chauffeur de taxi peut utiliser
le système de navigation satellite
sur des routes inconnues.
01:35
An architectarchitecte can use
computer-assistedassistée par ordinateur designconception softwareLogiciel
27
83800
3336
Un architecte peut utiliser un logiciel
de conception assistée
01:39
to designconception biggerplus gros,
more complicatedcompliqué buildingsbâtiments.
28
87160
3096
pour concevoir des bâtiments
plus grands et plus compliqués.
Le progrès technologique
ne complémente pas toujours
01:42
But technologicaltechnologique progressle progrès doesn't
just complementcomplément humanHumain beingsêtres directlydirectement.
29
90280
3696
les humains de façon directe.
01:46
It alsoaussi complementscompléments them indirectlyindirectement,
and it does this in two waysfaçons.
30
94000
3336
Il les complémente indirectement
et le fait de deux façons.
01:49
The first is if we think
of the economyéconomie as a pietarte,
31
97360
3336
Si nous voyons l’économie comme un gâteau,
01:52
technologicaltechnologique progressle progrès
makesfait du the pietarte biggerplus gros.
32
100720
2896
le progrès technologique
agrandit le gâteau.
01:55
As productivityproductivité increasesaugmente,
incomesrevenus riseaugmenter and demanddemande growsgrandit.
33
103640
3856
Quand la productivité augmente,
les revenus et la demande augmentent.
01:59
The BritishBritannique pietarte, for instanceexemple,
34
107520
1776
Le gâteau britannique, par exemple,
02:01
is more than a hundredcent timesfois
the sizeTaille it was 300 yearsannées agodepuis.
35
109320
3960
est plus de 100 fois plus gros
qu’il y a 300 ans.
02:05
And so people displaceddéplacé
from tasksles tâches in the oldvieux pietarte
36
113920
3216
Les gens évincés de tâches
dans l’ancien gâteau
02:09
could find tasksles tâches to do
in the newNouveau pietarte insteadau lieu.
37
117160
2720
peuvent trouver des tâches
dans le nouveau gâteau.
02:12
But technologicaltechnologique progressle progrès
doesn't just make the pietarte biggerplus gros.
38
120800
3936
Mais le progrès technologique
ne fait pas qu’agrandir le gâteau.
02:16
It alsoaussi changeschangements
the ingredientsIngrédients in the pietarte.
39
124760
2856
Il en change aussi les ingrédients.
02:19
As time passespasses, people spenddépenser
theirleur incomele revenu in differentdifférent waysfaçons,
40
127640
3456
Le temps passant, les gens dépensent
leurs revenus différemment,
02:23
changingen changeant how they spreadpropager it
acrossà travers existingexistant goodsdes biens,
41
131120
2816
changeant leur dispersion
parmi les produits existants
02:25
and developingdéveloppement tastesgoûts
for entirelyentièrement newNouveau goodsdes biens, too.
42
133960
3216
et développant des goûts
pour de nouveaux produits.
02:29
NewNouveau industriesles industries are createdcréé,
43
137200
1776
De nouvelles industries sont créées,
02:31
newNouveau tasksles tâches have to be doneterminé
44
139000
1816
de nouvelles tâches
doivent être réalisées
02:32
and that meansveux dire oftensouvent
newNouveau rolesles rôles have to be filledrempli.
45
140840
2536
et souvent, de nouveaux rôles
doivent être remplis.
02:35
So again, the BritishBritannique pietarte:
46
143400
1496
Le gâteau britannique :
02:36
300 yearsannées agodepuis,
mostles plus people workedtravaillé on farmsfermes,
47
144920
2976
il y a 300 ans, les gens
travaillaient surtout dans des fermes ;
02:39
150 yearsannées agodepuis, in factoriesdes usines,
48
147920
2336
il y a 150 ans, dans des usines ;
02:42
and todayaujourd'hui, mostles plus people work in officesdes bureaux.
49
150280
2856
aujourd’hui, la plupart des gens
travaillent dans des bureaux.
02:45
And onceune fois que again, people displaceddéplacé
from tasksles tâches in the oldvieux bitbit of pietarte
50
153160
4056
Les gens évincés de tâches
dans l’ancien gâteau
02:49
could tumblechute into tasksles tâches
in the newNouveau bitbit of pietarte insteadau lieu.
51
157240
2800
pouvaient tomber sur des tâches
dans le nouveau.
02:52
EconomistsÉconomistes call these effectseffets
complementaritiescomplémentarités,
52
160720
3336
Les économistes appellent ces effets
des complémentarités,
02:56
but really that's just a fancyfantaisie wordmot
to captureCapturer the differentdifférent way
53
164080
3256
mais ce n’est qu’un mot raffiné
pour capturer la façon différente
02:59
that technologicaltechnologique progressle progrès
helpsaide humanHumain beingsêtres.
54
167360
3136
dont le progrès technologique
aide les êtres humains.
03:02
ResolvingRésoudre les this TerminatorTerminator mythmythe
55
170520
2096
Résoudre ce mythe de Terminator
03:04
showsmontre us that there are
two forcesles forces at playjouer:
56
172640
2336
nous montre qu’il y a deux forces en jeu :
03:07
one, machinemachine substitutionsubstitution
that harmsHarms workersouvriers,
57
175000
3536
la substitution par les machines
qui nuit aux travailleurs,
03:10
but alsoaussi these complementaritiescomplémentarités
that do the oppositecontraire.
58
178560
2880
mais aussi ces complémentarités
qui font le contraire.
03:13
Now the secondseconde mythmythe,
59
181960
1376
Le second mythe
03:15
what I call the intelligenceintelligence mythmythe.
60
183360
2280
que j’appelle le mythe de l’intelligence.
03:18
What do the tasksles tâches of drivingau volant a carvoiture,
makingfabrication a medicalmédical diagnosisdiagnostic
61
186440
4896
Qu’ont en commun les tâches
de conduite d’une voiture,
d’établissement d’un diagnostic
et d’identification éclair d’un oiseau ?
03:23
and identifyingidentifier les a birdoiseau
at a fleetingfugace glimpseaperçu have in commoncommun?
62
191360
2920
03:27
Well, these are all tasksles tâches
that untiljusqu'à very recentlyrécemment,
63
195280
2976
Ce sont des tâches que,
jusqu’à très récemment,
03:30
leadingde premier plan economistséconomistes thought
couldn'tne pouvait pas readilyfacilement be automatedautomatique.
64
198280
3336
d’éminents économiques pensaient
ne pas être facilement automatisables.
03:33
And yetencore todayaujourd'hui, all of these tasksles tâches
can be automatedautomatique.
65
201640
3176
Pourtant, aujourd’hui, toutes ces tâches
peuvent être automatisées.
03:36
You know, all majorMajeur carvoiture manufacturersfabricants
have driverlesssans conducteur carvoiture programsprogrammes.
66
204840
3496
Les grands constructeurs automobiles
ont des programmes de voitures autonomes.
03:40
There's countlessinnombrable systemssystèmes out there
that can diagnosediagnostiquer medicalmédical problemsproblèmes.
67
208360
3976
Il y a d’innombrables systèmes pouvant
diagnostiquer des problèmes médicaux.
03:44
And there's even an appapplication
that can identifyidentifier a birdoiseau
68
212360
2416
Il y a même une application
qui peut identifier un oiseau
03:46
at a fleetingfugace glimpseaperçu.
69
214800
1200
en un éclair.
03:48
Now, this wasn'tn'était pas simplysimplement a caseCas of badmal luckla chance
on the partpartie of economistséconomistes.
70
216920
4376
Ce n’était pas de la malchance
de la part des économistes.
03:53
They were wrongfaux,
71
221320
1296
Ils avaient tort
03:54
and the reasonraison why
they were wrongfaux is very importantimportant.
72
222640
2496
et la raison à cela est très importante.
03:57
They'veIls ont fallendéchu for the intelligenceintelligence mythmythe,
73
225160
2256
Ils ont cru au mythe de l’intelligence,
03:59
the beliefcroyance that machinesmachines
have to copycopie the way
74
227440
2896
la croyance selon laquelle les machines
doivent copier la façon
04:02
that humanHumain beingsêtres think and reasonraison
75
230360
2056
de penser et de raisonner
des êtres humains
04:04
in ordercommande to outperformsurperformer them.
76
232440
1776
afin de les surpasser.
04:06
When these economistséconomistes
were tryingen essayant to figurefigure out
77
234240
2216
Quand ces économistes
essayaient de déterminer
quelle tâche les machines
ne savaient pas faire,
04:08
what tasksles tâches machinesmachines could not do,
78
236480
1856
04:10
they imaginedimaginé the only way
to automateautomatiser a tasktâche
79
238360
2136
ils pensaient que
pour automatiser une tâche,
04:12
was to sitasseoir down with a humanHumain beingétant,
80
240520
1816
il fallait prendre un être humain,
04:14
get them to explainExplique to you
how it was they performedexécuté a tasktâche,
81
242360
3536
qu’il vous explique
comment il effectuait une tâche
04:17
and then try and captureCapturer that explanationexplication
82
245920
2656
puis essayer de refléter cette explication
04:20
in a setensemble of instructionsinstructions
for a machinemachine to followsuivre.
83
248600
2776
dans un jeu d’instructions
qu’une machine suivrait.
04:23
This viewvue was popularpopulaire in artificialartificiel
intelligenceintelligence at one pointpoint, too.
84
251400
4176
Cette vision a aussi été populaire
en intelligence artificielle.
04:27
I know this because RichardRichard SusskindSusskind,
85
255600
2176
Je le sais car Richard Susskind,
04:29
who is my dadpapa and my coauthorCo-auteur,
86
257800
2856
qui est mon père et mon coauteur,
a eu son doctorat dans les années 80
04:32
wrotea écrit his doctoratedoctorat in the 1980s
on artificialartificiel intelligenceintelligence and the lawloi
87
260680
4056
sur le sujet de l’intelligence
artificielle et la loi
04:36
at OxfordOxford UniversityUniversité,
88
264760
1416
à l’université d’Oxford
04:38
and he was partpartie of the vanguardVanguard.
89
266200
1576
et était un avant-gardiste.
04:39
And with a professorprofesseur calledappelé PhillipPhillip CapperBoucheuse
90
267800
2256
Avec un professeur, Phillip Capper,
04:42
and a legallégal publisheréditeur calledappelé ButterworthsButterworths,
91
270080
2096
et un éditeur juridique, Butterworths,
04:44
they producedproduit the world'smonde first
commerciallycommercialement availabledisponible
92
272200
5896
ils ont créé la première
intelligence artificielle en droit
04:50
artificialartificiel intelligenceintelligence systemsystème in the lawloi.
93
278120
2776
disponible sur le marché.
04:52
This was the home screenécran designconception.
94
280920
2616
C’était le design de la page d’accueil.
04:55
He assuresassure me this was
a coolcool screenécran designconception at the time.
95
283560
2696
Il m’a assuré que c’était
un design cool à l’époque.
04:58
(LaughterRires)
96
286280
1016
(Rires)
04:59
I've never been entirelyentièrement convincedconvaincu.
97
287320
1696
Il ne m'a jamais convaincu.
05:01
He publishedpublié it
in the formforme of two floppydisquette disksdisques,
98
289040
2616
Il l’a publié sous la forme
de deux disquettes,
05:03
at a time where floppydisquette disksdisques
genuinelyvraiment were floppydisquette,
99
291680
3536
à l’époque où les disquettes
étaient molles,
05:07
and his approachapproche was the sameMême
as the economists'des économistes:
100
295240
2336
et il avait la même approche
que les économistes :
05:09
sitasseoir down with a lawyeravocat,
101
297600
1256
prenez un avocat,
05:10
get her to explainExplique to you
how it was she solvedrésolu a legallégal problemproblème,
102
298880
3176
demandez-lui de vous expliquer
comment résoudre un problème légal
05:14
and then try and captureCapturer that explanationexplication
in a setensemble of rulesrègles for a machinemachine to followsuivre.
103
302080
5376
et essayez de refléter cette explication
dans un jeu de règles que la machine suit.
05:19
In economicséconomie, if humanHumain beingsêtres
could explainExplique themselvesse in this way,
104
307480
3616
En économie, si les êtres humains
savent s’expliquer ainsi,
05:23
the tasksles tâches are calledappelé routineroutine,
and they could be automatedautomatique.
105
311120
3296
les tâches sont appelées des routines
et peuvent être automatisées.
05:26
But if humanHumain beingsêtres
can't explainExplique themselvesse,
106
314440
2336
Mais si les êtres humains
ne savent pas s’expliquer,
05:28
the tasksles tâches are calledappelé non-routinenon courante,
and they're thought to be out reachatteindre.
107
316800
4256
les tâches sont des non routines
et sont vues comme hors d’atteinte.
Aujourd’hui, cette distinction
entre routine et non routine est répandue.
05:33
TodayAujourd'hui, that routine-nonroutineroutine-nonroutine
distinctiondistinction is widespreadrépandu.
108
321080
3296
05:36
Think how oftensouvent you hearentendre people say to you
109
324400
2056
Pensez à combien
vous entendez des gens dire
05:38
machinesmachines can only performeffectuer tasksles tâches
that are predictableprévisible or repetitiverépétitif,
110
326480
3256
que les machines effectuent juste
des tâches prévisibles ou répétitives,
05:41
rules-basedfondé sur des règles or well-definedbien défini.
111
329760
1896
suivant des règles ou bien définies.
05:43
Those are all just
differentdifférent wordsmots for routineroutine.
112
331680
2936
Ce ne sont que des mots différents
pour désigner une routine.
05:46
And go back to those threeTrois casescas
that I mentionedmentionné at the startdébut.
113
334640
3976
Ce sont des cas classiques
de tâches de non routine.
05:50
Those are all classicclassique casescas
of nonroutinenonroutine tasksles tâches.
114
338640
2896
Revenons-en à ces trois cas
que j’ai évoqués au début.
05:53
AskDemander a doctordocteur, for instanceexemple,
how she makesfait du a medicalmédical diagnosisdiagnostic,
115
341560
2976
Demandez à un médecin comment
il établit un diagnostic médical
05:56
and she mightpourrait be ablecapable
to give you a fewpeu rulesrègles of thumbpouce,
116
344560
2656
et il pourra vous donner
quelques règles de bon sens,
05:59
but ultimatelyen fin de compte she'dcabanon strugglelutte.
117
347240
1656
mais il aura du mal.
06:00
She'dElle serait say it requiresa besoin things like
creativityla créativité and judgmentjugement and intuitionintuition.
118
348920
4816
Il dira que cela requiert
créativité, jugement et intuition.
06:05
And these things are
very difficultdifficile to articulatearticuler,
119
353760
2376
Ce sont des choses difficiles à formuler
06:08
and so it was thought these tasksles tâches
would be very harddifficile to automateautomatiser.
120
356160
3096
alors nous pensions que ces tâches
seraient difficiles à automatiser.
06:11
If a humanHumain beingétant can't explainExplique themselvesse,
121
359280
2536
Si un être humain ne sait pas l’expliquer,
06:13
where on earthTerre do we begincommencer
in writingl'écriture a setensemble of instructionsinstructions
122
361840
2896
où commencer pour écrire
un jeu d’instructions
06:16
for a machinemachine to followsuivre?
123
364760
1200
que la machine puisse suivre ?
06:18
ThirtyTrente yearsannées agodepuis, this viewvue was right,
124
366640
2576
Il y a 30 ans, cette perspective
était correcte,
06:21
but todayaujourd'hui it's looking shakyShaky,
125
369240
2136
mais aujourd’hui, elle semble douteuse
06:23
and in the futureavenir
it's simplysimplement going to be wrongfaux.
126
371400
2256
et à l’avenir, elle sera fausse.
06:25
AdvancesAvances in processingEn traitement powerPuissance,
in dataLes données storageespace de rangement capabilityaptitude
127
373680
3256
Les progrès en puissance de traitement,
en capacité de stockage de données
06:28
and in algorithmalgorithme de designconception
128
376960
1656
et en conception algorithmique
06:30
mean that this
routine-nonroutineroutine-nonroutine distinctiondistinction
129
378640
2496
rendent cette distinction
entre routine et non routine
06:33
is diminishinglydiminishingly usefulutile.
130
381160
1736
de moins en moins utile.
06:34
To see this, go back to the caseCas
of makingfabrication a medicalmédical diagnosisdiagnostic.
131
382920
3256
Pour voir cela, revenez-en
à l’établissement d’un diagnostic médial.
06:38
EarlierPlus tôt in the yearan,
132
386200
1376
Cette année,
06:39
a teaméquipe of researchersdes chercheurs at StanfordStanford
announcedannoncé they'dils auraient developeddéveloppé a systemsystème
133
387600
3296
une équipe de chercheurs à Stanford
a annoncé avoir développé un système
06:42
whichlequel can tell you
whetherqu'il s'agisse or not a freckletache de rousseur is cancerouscancéreuses
134
390920
3056
qui peut vous dire si une tache
de rousseur est cancéreuse
06:46
as accuratelyavec précision as leadingde premier plan dermatologistsdermatologues.
135
394000
2680
avec la même exactitude
que les meilleurs dermatologues.
06:49
How does it work?
136
397280
1256
Comment cela marche-t-il ?
06:50
It's not tryingen essayant to copycopie the judgmentjugement
or the intuitionintuition of a doctordocteur.
137
398560
5296
Il n’essaye pas de copier le jugement
ou l’intuition d’un docteur.
06:55
It knowssait or understandscomprend
nothing about medicinemédicament at all.
138
403880
3136
Il ne connaît ni ne comprend
rien du tout à la médecine.
06:59
InsteadAu lieu de cela, it's runningfonctionnement
a patternmodèle recognitionreconnaissance algorithmalgorithme de
139
407040
2576
Il exécute un algorithme
de reconnaissance de formes,
07:01
throughpar 129,450 pastpassé casescas,
140
409640
4656
parcourant 129 450 cas déjà traités
07:06
huntingchasse for similaritiessimilitudes
betweenentre those casescas
141
414320
3096
à la recherche de similarités
entre ces cas-là
07:09
and the particularparticulier lesionlésion in questionquestion.
142
417440
2080
et la lésion en question.
07:12
It's performingeffectuer these tasksles tâches
in an unhumanUnhuman way,
143
420080
3216
Il effectue ces tâches
de façon non humaine,
07:15
basedbasé on the analysisune analyse
of more possiblepossible casescas
144
423320
2336
en se reposant sur l’analyse
de plus de cas possibles
07:17
than any doctordocteur could hopeespérer
to reviewla revue in theirleur lifetimedurée de vie.
145
425680
2616
qu’un docteur ne peut espérer
examiner durant sa vie.
07:20
It didn't mattermatière that that humanHumain beingétant,
146
428320
1896
Peu importe que cet être humain,
07:22
that doctordocteur, couldn'tne pouvait pas explainExplique
how she'dcabanon performedexécuté the tasktâche.
147
430240
2800
ce docteur, n’ait pas su expliquer
comment il a effectué la tâche.
07:25
Now, there are those
who dwellDwell uponsur that the factfait
148
433640
2336
Il y a ceux qui s’attardent sur le fait
07:28
that these machinesmachines
aren'tne sont pas builtconstruit in our imageimage.
149
436000
2296
que ces machines
ne sont pas conçues à notre image.
07:30
As an exampleExemple, take IBM'sIBM WatsonWatson,
150
438320
2056
Par exemple, prenez Watson d’IBM,
07:32
the supercomputersupercalculateur that wentest allé
on the US quizquiz showmontrer "JeopardyJeopardy!" in 2011,
151
440400
4856
le superordinateur qui a participé
à un jeu télévisé américain en 2011
07:37
and it beatbattre the two
humanHumain championsChampions at "JeopardyJeopardy!"
152
445280
3016
et a battu deux champions humains du jeu.
07:40
The day after it wona gagné,
153
448320
1696
Le jour après sa victoire,
07:42
The WallMur StreetRue JournalJournal rancouru a piecepièce
by the philosopherphilosophe JohnJohn SearleSearle
154
450040
3296
le Wall Street Journal a publié
un article du philosophe John Searle
07:45
with the titleTitre "WatsonWatson
Doesn't Know It WonA gagné on 'Jeopardy« Jeopardy!'"
155
453360
3376
ayant pour titre « Watson ignore
qu’il a gagné à Jeopardy »
07:48
Right, and it's brilliantbrillant, and it's truevrai.
156
456760
1976
C’est brillant et c’est vrai.
07:50
You know, WatsonWatson didn't
let out a crycri of excitementexcitation.
157
458760
2456
Watson n’a pas crié de joie.
07:53
It didn't call up its parentsParents
to say what a good jobemploi it had doneterminé.
158
461240
3096
Il n’a pas appelé ses parents
pour dire ce qu’il avait accompli.
07:56
It didn't go down to the pubpub for a drinkboisson.
159
464360
2336
Il n’est pas allé boire
un verre dans un bar.
07:58
This systemsystème wasn'tn'était pas tryingen essayant to copycopie the way
that those humanHumain contestantscandidats à la direction playedjoué,
160
466720
4456
Ce système n’essayait pas d’imiter
la manière de jouer des humains,
08:03
but it didn't mattermatière.
161
471200
1256
mais peu importe.
08:04
It still outperformeda surpassé them.
162
472480
1976
Il les a quand même battus.
08:06
ResolvingRésoudre les the intelligenceintelligence mythmythe
163
474480
1576
Résoudre le mythe de l’intelligence
08:08
showsmontre us that our limitedlimité understandingcompréhension
about humanHumain intelligenceintelligence,
164
476080
3376
montre que notre compréhension limitée
de l’intelligence humaine,
08:11
about how we think and reasonraison,
165
479480
1896
de notre façon de penser et raisonner,
08:13
is farloin lessMoins of a constraintcontrainte
on automationAutomation than it was in the pastpassé.
166
481400
3456
est moins une contrainte en automatisation
qu’elle ne l’était auparavant.
08:16
What's more, as we'venous avons seenvu,
167
484880
1496
De plus, nous l’avons vu,
08:18
when these machinesmachines
performeffectuer tasksles tâches differentlydifféremment to humanHumain beingsêtres,
168
486400
3416
quand ces machines réalisent
des tâches différemment des êtres humains,
il n’y a pas de raison de penser
08:21
there's no reasonraison to think
169
489840
1256
08:23
that what humanHumain beingsêtres
are currentlyactuellement capablecapable of doing
170
491120
2536
que ce que les êtres humains
sont capables de faire
08:25
representsreprésente any sortTrier of summitsommet
171
493680
1456
représente le sommet
08:27
in what these machinesmachines
mightpourrait be capablecapable of doing in the futureavenir.
172
495160
3000
de ce que ces machines pourraient
être capables de faire à l’avenir.
08:31
Now the thirdtroisième mythmythe,
173
499040
1256
Le troisième mythe
08:32
what I call the superioritysupériorité mythmythe.
174
500320
2456
est ce que j’appelle
le mythe de la supériorité.
08:34
It's oftensouvent said that those who forgetoublier
175
502800
2216
On dit souvent que ceux qui oublient
08:37
about the helpfulutile sidecôté
of technologicaltechnologique progressle progrès,
176
505040
2456
le côté utile du progrès technologique,
08:39
those complementaritiescomplémentarités from before,
177
507520
2496
ces complémentarités
mentionnées auparavant,
08:42
are committingcommettre something
knownconnu as the lumpbosse of laborla main d'oeuvre fallacySophisme.
178
510040
3040
se prêtent au sophisme
de la masse fixe de travail.
08:45
Now, the problemproblème is
the lumpbosse of laborla main d'oeuvre fallacySophisme
179
513840
2295
Le sophisme de la masse fixe de travail
08:48
is itselfse a fallacySophisme,
180
516159
1496
est lui-même un sophisme
08:49
and I call this the lumpbosse
of laborla main d'oeuvre fallacySophisme fallacySophisme,
181
517679
2937
que j’appelle le sophisme du sophisme
de la masse fixe de travail,
08:52
or LOLFFLOLFF, for shortcourt.
182
520640
2320
ou SSMFT, pour faire court.
08:56
Let me explainExplique.
183
524000
1416
Laissez-moi expliquer.
08:57
The lumpbosse of laborla main d'oeuvre fallacySophisme
is a very oldvieux ideaidée.
184
525440
2136
Ce sophisme est une idée très ancienne.
08:59
It was a BritishBritannique economistéconomiste, DavidDavid SchlossSchloss,
who gavea donné it this nameprénom in 1892.
185
527600
4216
C’est un économiste britannique,
David Schloss,
qui lui a donné son nom en 1892.
09:03
He was puzzledperplexe
to come acrossà travers a dockstation d’accueil workerouvrier
186
531840
2816
Il était perplexe d’avoir
rencontré un docker
09:06
who had beguncommencé to use
a machinemachine to make washersrondelles,
187
534680
2336
qui utilisait une machine
pour faire des rondelles,
09:09
the smallpetit metalmétal discsdisques
that fastenfixer on the endfin of screwsdes vis.
188
537040
3320
les petits disques en métal
se plaçant au bout des vis.
09:13
And this dockstation d’accueil workerouvrier
feltse sentait guiltycoupable for beingétant more productiveproductif.
189
541000
3760
Ce docker se sentait coupable
d’être plus productif.
09:17
Now, mostles plus of the time,
we expectattendre the oppositecontraire,
190
545560
2176
La plupart du temps,
on s’attend au contraire,
09:19
that people feel guiltycoupable
for beingétant unproductiveimproductifs,
191
547760
2216
se sentir coupable
de ne pas être productif,
09:22
you know, a little too much time
on FacebookFacebook or TwitterTwitter at work.
192
550000
3016
un peu trop de temps passé
sur Facebook ou Twitter au travail.
09:25
But this workerouvrier feltse sentait guiltycoupable
for beingétant more productiveproductif,
193
553040
2536
Mais ce docker se sentait coupable
d’être plus productif
09:27
and askeda demandé why, he said,
"I know I'm doing wrongfaux.
194
555600
2296
et quant au pourquoi,
il a dit : « J’agis mal.
09:29
I'm takingprise away the work of anotherun autre man."
195
557920
2040
Je prends le travail d’un autre homme. »
09:32
In his mindesprit, there was
some fixedfixé lumpbosse of work
196
560760
2976
Dans son esprit, il y avait
une masse de travail fixe
09:35
to be divideddivisé up betweenentre him and his palscopains,
197
563760
2136
à diviser entre lui et ses camarades
09:37
so that if he used
this machinemachine to do more,
198
565920
2056
et en utilisant la machine
pour faire plus,
09:40
there'dle rouge be lessMoins left for his palscopains to do.
199
568000
2016
ses camarades auraient moins à faire.
09:42
SchlossSchloss saw the mistakeerreur.
200
570040
1856
Schloss a vu l’erreur.
09:43
The lumpbosse of work wasn'tn'était pas fixedfixé.
201
571920
1856
La masse de travail n’était pas fixe.
09:45
As this workerouvrier used the machinemachine
and becamedevenu more productiveproductif,
202
573800
2816
Ce docker utilisant la machine
et devenant plus productif,
09:48
the priceprix of washersrondelles would falltomber,
demanddemande for washersrondelles would riseaugmenter,
203
576640
2976
le prix des rondelles chuterait,
la demande augmenterait,
09:51
more washersrondelles would have to be madefabriqué,
204
579640
1696
il faudrait faire plus de rondelles
09:53
and there'dle rouge be more work
for his palscopains to do.
205
581360
2096
et ses camarades auraient plus de travail.
09:55
The lumpbosse of work would get biggerplus gros.
206
583480
1696
La masse de travail augmenterait.
09:57
SchlossSchloss calledappelé this
"the lumpbosse of laborla main d'oeuvre fallacySophisme."
207
585200
2680
Schloss a appelé cela « le sophisme
de la masse fixe de travail ».
10:00
And todayaujourd'hui you hearentendre people talk
about the lumpbosse of laborla main d'oeuvre fallacySophisme
208
588560
2936
Les gens parlent du sophisme
de la masse fixe de travail
10:03
to think about the futureavenir
of all typesles types of work.
209
591520
2216
pour l’avenir de tous types de travaux.
10:05
There's no fixedfixé lumpbosse of work
out there to be divideddivisé up
210
593760
2656
Il n’y a pas de masse fixe
de travail à diviser
10:08
betweenentre people and machinesmachines.
211
596440
1376
entre les gens et les machines.
10:09
Yes, machinesmachines substituteremplacer for humanHumain beingsêtres,
makingfabrication the originaloriginal lumpbosse of work smallerplus petit,
212
597840
4656
Oui, les machines substituent les humains,
diminuant la masse de travail initiale,
10:14
but they alsoaussi complementcomplément humanHumain beingsêtres,
213
602520
1856
mais elles complémentent les humains
10:16
and the lumpbosse of work
getsobtient biggerplus gros and changeschangements.
214
604400
2096
et la masse de travail augmente et change.
10:19
But LOLFFLOLFF.
215
607760
1616
Mais SSMFT.
10:21
Here'sVoici the mistakeerreur:
216
609400
1376
Voici l’erreur :
10:22
it's right to think
that technologicaltechnologique progressle progrès
217
610800
2216
le progrès technologique
10:25
makesfait du the lumpbosse of work to be doneterminé biggerplus gros.
218
613040
1976
n’augmente pas la masse de travail.
10:27
Some tasksles tâches becomedevenir more valuablede valeur.
NewNouveau tasksles tâches have to be doneterminé.
219
615040
3016
Certaines tâches ont plus de valeur,
de nouvelles tâches émergent.
10:30
But it's wrongfaux to think that necessarilynécessairement,
220
618080
2536
Il est faux de penser
que les humains seront nécessairement
mieux placés pour réaliser ces tâches.
10:32
humanHumain beingsêtres will be bestmeilleur placedmis
to performeffectuer those tasksles tâches.
221
620640
3256
10:35
And this is the superioritysupériorité mythmythe.
222
623920
1616
C’est le mythe de la supériorité.
10:37
Yes, the lumpbosse of work
mightpourrait get biggerplus gros and changechangement,
223
625560
3416
Oui, la masse de travail
peut augmenter et changer,
10:41
but as machinesmachines becomedevenir more capablecapable,
224
629000
1976
mais les machines devenant
plus compétentes,
10:43
it's likelyprobable that they'llils vont take on
the extrasupplémentaire lumpbosse of work themselvesse.
225
631000
3896
il est probable qu’elles assument
cette masse de travail supplémentaire.
10:46
TechnologicalTechnologique progressle progrès,
ratherplutôt than complementcomplément humanHumain beingsêtres,
226
634920
3256
Le progrès technologique,
au lieu de complémenter les humains,
10:50
complementscompléments machinesmachines insteadau lieu.
227
638200
1880
complémente les machines.
10:52
To see this, go back
to the tasktâche of drivingau volant a carvoiture.
228
640920
3016
Pour l’observer, revenez-en
au fait de conduire une voiture.
10:55
TodayAujourd'hui, satnavSatNav systemssystèmes
directlydirectement complementcomplément humanHumain beingsêtres.
229
643960
4096
Les systèmes de navigation par satellite
complémentent les êtres humains.
11:00
They make some
humanHumain beingsêtres better driverspilotes.
230
648080
2280
Ils font de certains humains
de meilleurs conducteurs.
11:02
But in the futureavenir,
231
650920
1256
Mais à l’avenir,
11:04
softwareLogiciel is going to displacedéplacer
humanHumain beingsêtres from the drivingau volant seatsiège,
232
652200
3096
le logiciel va remplacer les êtres humains
sur le siège conducteur
11:07
and these satnavSatNav systemssystèmes,
ratherplutôt than complementcomplément humanHumain beingsêtres,
233
655320
2936
ces systèmes de navigation
ne complémenteront pas les humains,
11:10
will simplysimplement make these
driverlesssans conducteur carsdes voitures more efficientefficace,
234
658280
2536
mais amélioreront
les voitures sans conducteur,
11:12
helpingportion the machinesmachines insteadau lieu.
235
660840
1536
aidant plutôt les machines.
11:14
Or go to those indirectindirect complementaritiescomplémentarités
that I mentionedmentionné as well.
236
662400
4056
Revenez-en à ces complémentarités
indirectes également mentionnées.
11:18
The economicéconomique pietarte maymai get largerplus grand,
237
666480
1776
Le gâteau économique s’agrandira,
11:20
but as machinesmachines becomedevenir more capablecapable,
238
668280
1736
mais les machines s’améliorant,
11:22
it's possiblepossible that any newNouveau demanddemande
will falltomber on goodsdes biens that machinesmachines,
239
670040
3143
les nouvelles demandes pourront être
des biens que les machines,
11:25
ratherplutôt than humanHumain beingsêtres,
are bestmeilleur placedmis to produceproduire.
240
673207
2649
et non les humains,
seront les mieux placées pour produire.
11:27
The economicéconomique pietarte maymai changechangement,
241
675880
1896
Le gâteau pourrait changer,
11:29
but as machinesmachines becomedevenir more capablecapable,
242
677800
1896
mais, les machines s’améliorant,
11:31
it's possiblepossible that they'llils vont be bestmeilleur placedmis
to do the newNouveau tasksles tâches that have to be doneterminé.
243
679720
4856
elles pourraient être mieux placées
pour réaliser les tâches nécessaires.
11:36
In shortcourt, demanddemande for tasksles tâches
isn't demanddemande for humanHumain laborla main d'oeuvre.
244
684600
3696
En bref, la demande pour des tâches
n’est pas la demande
pour du travail humain.
11:40
HumanHumaine beingsêtres only standsupporter to benefitavantage
245
688320
1936
Les humains n’en bénéficieront
11:42
if they retainconserver the upperplus haut handmain
in all these complementedcomplétée tasksles tâches,
246
690280
3816
que s’ils gardent la main
sur ces tâches complémentées,
11:46
but as machinesmachines becomedevenir more capablecapable,
that becomesdevient lessMoins likelyprobable.
247
694120
3720
mais les machines s’améliorant,
cette probabilité diminue.
11:50
So what do these threeTrois mythsmythes tell us then?
248
698760
2016
Que nous disent ces trois mythes ?
11:52
Well, resolvingrésoudre les the TerminatorTerminator mythmythe
249
700800
1696
Résoudre le mythe de Terminator
11:54
showsmontre us that the futureavenir of work dependsdépend
uponsur this balanceéquilibre betweenentre two forcesles forces:
250
702520
3696
nous montre que l’avenir du travail dépend
de cet équilibre entre deux forces :
11:58
one, machinemachine substitutionsubstitution
that harmsHarms workersouvriers
251
706240
3136
la substitution par les machines
nuisant aux travailleurs,
12:01
but alsoaussi those complementaritiescomplémentarités
that do the oppositecontraire.
252
709400
2576
mais aussi ces complémentarités
qui font le contraire.
12:04
And untiljusqu'à now, this balanceéquilibre
has fallendéchu in favorfavoriser of humanHumain beingsêtres.
253
712000
4040
Jusqu’à maintenant, cet équilibre
est en faveur des êtres humains.
12:09
But resolvingrésoudre les the intelligenceintelligence mythmythe
254
717120
1736
Résoudre le mythe de l’intelligence
12:10
showsmontre us that that first forceObliger,
machinemachine substitutionsubstitution,
255
718880
2496
montre que la substitution
par les machines,
12:13
is gatheringrassemblement strengthforce.
256
721400
1296
monte en puissance.
12:14
MachinesMachines, of coursecours, can't do everything,
257
722720
1976
Les machines ne savent pas tout faire,
12:16
but they can do farloin more,
258
724720
1256
mais elles peuvent faire plus,
12:18
encroachingempiétant ever deeperPlus profond into the realmdomaine
of tasksles tâches performedexécuté by humanHumain beingsêtres.
259
726000
4576
empiétant plus sur le royaume des tâches
réalisées par des êtres humains.
12:22
What's more, there's no reasonraison to think
260
730600
1896
Il n’y a pas de raison de penser que
12:24
that what humanHumain beingsêtres
are currentlyactuellement capablecapable of
261
732520
2216
ce que les humains peuvent
faire actuellement
12:26
representsreprésente any sortTrier of finishingfinition lineligne,
262
734760
1856
représente une ligne d’arrivée,
12:28
that machinesmachines are going
to drawdessiner to a politepoli stop
263
736640
2256
que les machines s’arrêteront poliment
12:30
onceune fois que they're as capablecapable as us.
264
738920
1816
une fois aussi compétentes que nous.
12:32
Now, noneaucun of this mattersimporte
265
740760
1536
Rien de tout cela n’importe
12:34
so long as those helpfulutile
windsles vents of complementaritycomplémentarité
266
742320
2816
tant que ces vents bénéfiques
de la complémentarité
12:37
blowcoup firmlyfermement enoughassez,
267
745160
1736
soufflent assez fort,
12:38
but resolvingrésoudre les the superioritysupériorité mythmythe
268
746920
1936
mais résoudre le mythe de la supériorité
12:40
showsmontre us that that processprocessus
of tasktâche encroachmentempiètement
269
748880
3096
montre que ce processus
d’empiétement sur les tâches
12:44
not only strengthensrenforce
the forceObliger of machinemachine substitutionsubstitution,
270
752000
3936
ne fait pas que renforcer la force
de substitution par les machines,
12:47
but it wearsporte down
those helpfulutile complementaritiescomplémentarités too.
271
755960
3336
mais use également
ces complémentarités bénéfiques.
12:51
BringApporter these threeTrois mythsmythes togetherensemble
272
759320
1936
Réunissez ces trois mythes
12:53
and I think we can captureCapturer a glimpseaperçu
of that troublingtroublant futureavenir.
273
761280
2936
et nous aurons un aperçu
de cet avenir inquiétant.
12:56
MachinesMachines continuecontinuer to becomedevenir more capablecapable,
274
764240
2016
Les machines continuent de s’améliorer,
12:58
encroachingempiétant ever deeperPlus profond
on tasksles tâches performedexécuté by humanHumain beingsêtres,
275
766280
3656
empiétant de plus en plus sur les tâches
réalisées par les êtres humains,
13:01
strengtheningrenforcement the forceObliger
of machinemachine substitutionsubstitution,
276
769960
2576
augmentant la force
de substitution par les machines,
13:04
weakeningaffaiblissement the forceObliger
of machinemachine complementaritycomplémentarité.
277
772560
3616
amenuisant la force
de la complémentarité avec les machines.
13:08
And at some pointpoint, that balanceéquilibre
fallschutes in favorfavoriser of machinesmachines
278
776200
4296
À un moment donné, cet équilibre
sera en saveur des machines
13:12
ratherplutôt than humanHumain beingsêtres.
279
780520
2056
plutôt que des êtres humains.
13:14
This is the pathchemin we're currentlyactuellement on.
280
782600
1736
C’est le chemin que nous suivons.
13:16
I say "pathchemin" deliberatelydélibérément,
because I don't think we're there yetencore,
281
784360
3176
Je dis « chemin » délibérément
car nous n’y sommes pas encore,
13:19
but it is harddifficile to avoidéviter the conclusionconclusion
that this is our directiondirection of travelVoyage.
282
787560
3640
mais il est dur d’éviter de conclure
que c’est la direction que nous prenons.
13:24
That's the troublingtroublant partpartie.
283
792640
1456
C’est la partie inquiétante.
13:26
Let me say now why I think actuallyréellement
this is a good problemproblème to have.
284
794120
3520
Laissez-moi vous dire pourquoi je crois
que c’est un bon problème à avoir.
13:30
For mostles plus of humanHumain historyhistoire,
one economicéconomique problemproblème has dominateddominé:
285
798520
3536
Durant la plupart de l’histoire humaine,
un problème économique a dominé :
13:34
how to make the economicéconomique pietarte
largegrand enoughassez for everyonetoutes les personnes to livevivre on.
286
802080
4056
comment agrandir assez le gâteau
économique pour que tout le monde en vive.
13:38
Go back to the turntour
of the first centurysiècle ADAD,
287
806160
2176
Au début du premier siècle après J.C.,
13:40
and if you tooka pris the globalglobal economicéconomique pietarte
288
808360
2096
en prenant le gâteau économique mondial
13:42
and divideddivisé it up into equalégal slicestranches de
for everyonetoutes les personnes in the worldmonde,
289
810480
3296
et en le divisant en parts égales,
13:45
everyonetoutes les personnes would get a fewpeu hundredcent dollarsdollars.
290
813800
2136
chacun aurait
quelques centaines de dollars.
13:47
AlmostPresque everyonetoutes les personnes livedvivait
on or around the povertyla pauvreté lineligne.
291
815960
2760
Presque tout le monde vivait
sous ou autour du seuil de pauvreté.
13:51
And if you rollrouleau forwardvers l'avant a thousandmille yearsannées,
292
819320
2176
En avançant de 1 000 ans,
13:53
roughlygrossièrement the sameMême is truevrai.
293
821520
1240
c’est toujours à peu près vrai.
13:55
But in the last fewpeu hundredcent yearsannées,
economicéconomique growthcroissance has takenpris off.
294
823680
3576
Mais durant les derniers siècles,
la croissance économique a décollé.
13:59
Those economicéconomique piestartes have explodeda explosé in sizeTaille.
295
827280
2376
La taille de ces gâteaux
économiques a explosé.
14:01
GlobalGlobal GDPPIB perpar headtête,
296
829680
2056
Le PIB mondial par habitant,
14:03
the valuevaleur of those individualindividuel
slicestranches de of the pietarte todayaujourd'hui,
297
831760
3376
la valeur de ces parts individuelles
du gâteau d’aujourd’hui
14:07
they're about 10,150 dollarsdollars.
298
835160
2816
est d’environ 10 150 dollars.
14:10
If economicéconomique growthcroissance continuescontinue
at two percentpour cent,
299
838000
2696
Si la croissance économique
continue à 2 %,
14:12
our childrenles enfants will be twicedeux fois as richriches as us.
300
840720
2056
nos enfants auront
deux fois nos richesses.
14:14
If it continuescontinue
at a more measlymaigre one percentpour cent,
301
842800
2296
Si elle continue au rythme d’un pour cent,
14:17
our grandchildrenpetits enfants
will be twicedeux fois as richriches as us.
302
845120
2656
nos petits-enfants auront
deux fois nos richesses.
14:19
By and largegrand, we'venous avons solvedrésolu
that traditionaltraditionnel economicéconomique problemproblème.
303
847800
3680
Nous avons résolu le problème
économique traditionnel.
14:24
Now, technologicaltechnologique unemploymentchômage,
if it does happense produire,
304
852200
3016
Le chômage technologique, s’il se produit,
14:27
in a strangeétrange way will be
a symptomsymptôme of that successSuccès,
305
855240
3216
sera un symptôme de ce succès.
14:30
will have solvedrésolu one problemproblème --
how to make the pietarte biggerplus gros --
306
858480
3856
Nous aurons résolu un problème,
agrandir le gâteau,
14:34
but replacedremplacé it with anotherun autre --
307
862360
1816
mais l’aurons remplacé par un autre,
14:36
how to make sure
that everyonetoutes les personnes getsobtient a slicetranche.
308
864200
2760
comment s’assurer que chacun ait une part.
14:39
As other economistséconomistes have noteda noté,
solvingrésoudre this problemproblème won'thabitude be easyfacile.
309
867840
3496
D’autres économistes ont remarqué
que résoudre ce problème
ne sera pas simple.
14:43
TodayAujourd'hui, for mostles plus people,
310
871360
1656
Pour la plupart des gens,
14:45
theirleur jobemploi is theirleur seatsiège
at the economicéconomique dinnerdîner tabletable,
311
873040
2496
leur emploi est leur place
à la table économique
14:47
and in a worldmonde with lessMoins work
or even withoutsans pour autant work,
312
875560
2416
et, dans un monde avec
moins ou pas de travail,
14:50
it won'thabitude be clearclair
how they get theirleur slicetranche.
313
878000
2056
il ne sera pas clair
comment obtenir sa part.
14:52
There's a great dealtraiter
of discussiondiscussion, for instanceexemple,
314
880080
2336
Il y a par exemple beaucoup de discussions
14:54
about variousdivers formsformes
of universaluniversel basicde base incomele revenu
315
882440
2696
sur diverses formes
de revenu de base universel
14:57
as one possiblepossible approachapproche,
316
885160
1216
en tant qu’approche possible
14:58
and there's trialsessais underwayen cours
317
886400
1616
et il y a des essais en cours
15:00
in the UnitedUnie StatesÉtats
and in FinlandFinlande and in KenyaKenya.
318
888040
2400
aux États-Unis, en Finlande et au Kenya.
15:03
And this is the collectivecollectif challengedéfi
that's right in frontde face of us,
319
891000
3176
C’est le défi collectif
auquel nous faisons face :
15:06
to figurefigure out how this materialMatériel prosperityprospérité
generatedgénéré by our economicéconomique systemsystème
320
894200
5056
découvrir comment
cette prospérité matérielle
générée par notre système économique
15:11
can be enjoyedapprécié by everyonetoutes les personnes
321
899280
1976
peut bénéficier à tous
15:13
in a worldmonde in whichlequel
our traditionaltraditionnel mechanismmécanisme
322
901280
2416
dans un monde où
notre mécanisme traditionnel
15:15
for slicingtranchage up the pietarte,
323
903720
1856
pour partager le gâteau,
15:17
the work that people do,
324
905600
1936
le travail effectué par les gens,
15:19
withersGarrot away and perhapspeut être disappearsdisparaît.
325
907560
2160
s’étiole voire disparaît.
15:22
SolvingRésoudre les this problemproblème is going to requireexiger
us to think in very differentdifférent waysfaçons.
326
910280
4360
Résoudre ce problème va nécessiter
que nous pensions différemment.
15:27
There's going to be a lot of disagreementdésaccord
about what oughtdevrait to be doneterminé,
327
915400
4176
Il y aura beaucoup de désaccords
sur ce qu’il faut faire,
15:31
but it's importantimportant to rememberrappelles toi
that this is a farloin better problemproblème to have
328
919600
3416
mais nous devons nous souvenir
que c’est un meilleur problème à avoir
15:35
than the one that hauntedhanté
our ancestorsles ancêtres for centuriesdes siècles:
329
923040
2816
que celui qui a hanté
nos ancêtres durant des siècles :
15:37
how to make that pietarte
biggros enoughassez in the first placeendroit.
330
925880
3376
comment faire grossir ce gâteau ?
15:41
Thank you very much.
331
929280
1256
Merci beaucoup.
15:42
(ApplauseApplaudissements)
332
930560
3840
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Emmanuel Parfond

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com