ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Pouvons-nous concevoir une IA sans en perdre le contrôle ?

Filmed:
5,024,015 views

L'intelligence artificielle vous fait peur ? Vous avez raison, dit le neuroscientifique et philosophe Sam Harris -- et pas juste de manière théorique. Nous allons construire des machines surhumaines, explique-t-il, mais nous ne nous sommes pas encore attelés aux problèmes liés au fait de créer quelque chose qui pourrait nous traiter de la même façon que nous traitons les fourmis.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

Je vais vous parler
d'une erreur de jugement
00:13
I'm going to talk
about a failureéchec of intuitionintuition
0
1000
2216
00:15
that manybeaucoup of us suffersouffrir from.
1
3240
1600
que beaucoup d'entre nous font.
00:17
It's really a failureéchec
to detectdétecter a certaincertain kindgentil of dangerdanger.
2
5480
3040
Il s'agit de l'incapacité à détecter
un certain type de danger.
00:21
I'm going to describedécrire a scenarioscénario
3
9360
1736
Je vais décrire un scénario
00:23
that I think is bothtous les deux terrifyingterrifiant
4
11120
3256
que je pense à la fois terrifiant
00:26
and likelyprobable to occurse produire,
5
14400
1760
et pourtant susceptible d'arriver,
00:28
and that's not a good combinationcombinaison,
6
16840
1656
et ce genre de combinaison
00:30
as it turnsse tourne out.
7
18520
1536
n'est pas une bonne chose.
00:32
And yetencore ratherplutôt than be scaredeffrayé,
mostles plus of you will feel
8
20080
2456
Pourtant, au lieu d'avoir peur,
la plupart d'entre vous penseront
00:34
that what I'm talkingparlant about
is kindgentil of coolcool.
9
22560
2080
que c'est plutôt cool.
00:37
I'm going to describedécrire
how the gainsgains we make
10
25200
2976
Je vais décrire comment
les avancées que nous faisons
00:40
in artificialartificiel intelligenceintelligence
11
28200
1776
dans l'intelligence artificielle
00:42
could ultimatelyen fin de compte destroydétruire us.
12
30000
1776
pourraient finir par nous détruire.
00:43
And in factfait, I think it's very difficultdifficile
to see how they won'thabitude destroydétruire us
13
31800
3456
Il semble difficile de voir comment
cela pourrait ne pas nous détruire
00:47
or inspireinspirer us to destroydétruire ourselvesnous-mêmes.
14
35280
1680
ou nous aider à nous détruire.
00:49
And yetencore if you're anything like me,
15
37400
1856
Pourtant, si vous me ressemblez un peu,
00:51
you'lltu vas find that it's funamusement
to think about these things.
16
39280
2656
vous allez trouver amusant
de réfléchir à ces choses-là.
00:53
And that responseréponse is partpartie of the problemproblème.
17
41960
3376
Et cette façon de voir les choses
est une partie du problème.
00:57
OK? That responseréponse should worryinquiéter you.
18
45360
1720
Ce sentiment devrait vous inquiéter.
00:59
And if I were to convinceconvaincre you in this talk
19
47920
2656
Et si je devais vous convaincre,
avec cette présentation,
01:02
that we were likelyprobable
to suffersouffrir a globalglobal faminefamine,
20
50600
3416
que nous allons probablement
souffrir d'une famine généralisée,
01:06
eithernon plus because of climateclimat changechangement
or some other catastrophecatastrophe,
21
54040
3056
soit à cause du climat
ou de toute autre catastrophe,
01:09
and that your grandchildrenpetits enfants,
or theirleur grandchildrenpetits enfants,
22
57120
3416
et que vos petits-enfants,
ou leurs petits-enfants,
01:12
are very likelyprobable to livevivre like this,
23
60560
1800
ont de grandes chances de vivre ainsi,
01:15
you wouldn'tne serait pas think,
24
63200
1200
vous ne penseriez pas :
01:17
"InterestingIntéressant.
25
65440
1336
« Intéressant.
01:18
I like this TEDTED Talk."
26
66800
1200
Cool, ce TED. »
01:21
FamineFamine isn't funamusement.
27
69200
1520
La famine, ce n'est pas amusant.
01:23
DeathMort by sciencescience fictionfiction,
on the other handmain, is funamusement,
28
71800
3376
La mort en science-fiction,
en revanche, est un concept amusant
01:27
and one of the things that worriesdes soucis me mostles plus
about the developmentdéveloppement of AIAI at this pointpoint
29
75200
3976
et ce qui m'inquiète le plus à propos
du développement de l'IA en ce moment
01:31
is that we seemsembler unableincapable to marshalmaréchal
an appropriateapproprié emotionalémotif responseréponse
30
79200
4096
est le fait que nous semblons
incapables de nous faire une idée
01:35
to the dangersles dangers that liemensonge aheaddevant.
31
83320
1816
des dangers qui nous attendent.
01:37
I am unableincapable to marshalmaréchal this responseréponse,
and I'm givingdonnant this talk.
32
85160
3200
Je n'ai pas de réponse,
alors que je suis ici, à vous en parler.
01:42
It's as thoughbien que we standsupporter before two doorsdes portes.
33
90120
2696
C'est comme si nous étions
face à deux portes.
01:44
BehindDerrière doorporte numbernombre one,
34
92840
1256
Derrière la porte n°1,
01:46
we stop makingfabrication progressle progrès
in buildingbâtiment intelligentintelligent machinesmachines.
35
94120
3296
nous arrêtons nos progrès
dans le développement de nos machines.
01:49
Our computerordinateur hardwareMatériel and softwareLogiciel
just stopsarrêts gettingobtenir better for some reasonraison.
36
97440
4016
Hardware et software stagnent,
pour une raison ou pour une autre.
01:53
Now take a momentmoment
to considerconsidérer why this mightpourrait happense produire.
37
101480
3000
Essayez d'imaginer
ce qui pourrait arrêter ce développement.
Étant donnée l'importance
de l'intelligence
01:57
I mean, givendonné how valuablede valeur
intelligenceintelligence and automationAutomation are,
38
105080
3656
et de l'automatisation
nous allons continuer à améliorer
notre technologie si nous le pouvons.
02:00
we will continuecontinuer to improveaméliorer our technologyLa technologie
if we are at all ablecapable to.
39
108760
3520
02:05
What could stop us from doing this?
40
113200
1667
Qu'est-ce qui nous en empêcherait ?
02:07
A full-scalegrandeur nature nuclearnucléaire warguerre?
41
115800
1800
Une guerre nucléaire mondiale ?
02:11
A globalglobal pandemicpandémie?
42
119000
1560
Une pandémie globale ?
02:14
An asteroidastéroïde impactimpact?
43
122320
1320
Un impact d'astéroïde ?
02:17
JustinJustin BieberBieber becomingdevenir
presidentPrésident of the UnitedUnie StatesÉtats?
44
125640
2576
Justin Bieber président des États-Unis ?
02:20
(LaughterRires)
45
128240
2280
(Rires)
02:24
The pointpoint is, something would have to
destroydétruire civilizationcivilisation as we know it.
46
132760
3920
Il faudrait que la civilisation
telle que nous la connaissons
soit détruite.
02:29
You have to imagineimaginer
how badmal it would have to be
47
137360
4296
Il faudrait vraiment imaginer
quelque chose de terrible
02:33
to preventprévenir us from makingfabrication
improvementsdes améliorations in our technologyLa technologie
48
141680
3336
pour que nous arrêtions
de développer notre technologie
02:37
permanentlyen permanence,
49
145040
1216
totalement,
02:38
generationgénération after generationgénération.
50
146280
2016
génération après génération.
02:40
AlmostPresque by definitiondéfinition,
this is the worstpire thing
51
148320
2136
Par définition,
ce serait la pire chose
02:42
that's ever happenedarrivé in humanHumain historyhistoire.
52
150480
2016
qui serait jamais arrivée à l'humanité.
02:44
So the only alternativealternative,
53
152520
1296
Donc la seule alternative,
02:45
and this is what liesmentir
behindderrière doorporte numbernombre two,
54
153840
2336
et c'est ce qui se trouve
derrière la porte n°2,
02:48
is that we continuecontinuer
to improveaméliorer our intelligentintelligent machinesmachines
55
156200
3136
est que nous continuions
d'améliorer l'intelligence de nos machines
02:51
yearan after yearan after yearan.
56
159360
1600
année après année.
02:53
At a certaincertain pointpoint, we will buildconstruire
machinesmachines that are smarterplus intelligent than we are,
57
161720
3640
À un moment, nous allons construire
des machines plus intelligentes que nous,
02:58
and onceune fois que we have machinesmachines
that are smarterplus intelligent than we are,
58
166080
2616
et ces machines
plus intelligentes que nous
03:00
they will begincommencer to improveaméliorer themselvesse.
59
168720
1976
vont commencer
à s'améliorer elles-mêmes.
03:02
And then we riskrisque what
the mathematicianmathématicien IJIJ Good calledappelé
60
170720
2736
Il y a le risque, théorisé
par le mathématicien I.J. Good,
03:05
an "intelligenceintelligence explosionexplosion,"
61
173480
1776
d'une « explosion d'intelligence »,
03:07
that the processprocessus could get away from us.
62
175280
2000
un processus qui pourrait nous échapper.
03:10
Now, this is oftensouvent caricaturedcaricaturé,
as I have here,
63
178120
2816
Ce phénomène
est souvent caricaturé, comme ici,
03:12
as a fearpeur that armiesarmées of maliciousmalveillants robotsdes robots
64
180960
3216
avec des armées de robots malveillants
03:16
will attackattaque us.
65
184200
1256
qui nous attaqueraient.
03:17
But that isn't the mostles plus likelyprobable scenarioscénario.
66
185480
2696
Mais ce n'est pas
le scénario le plus probable.
03:20
It's not that our machinesmachines
will becomedevenir spontaneouslyspontanément malevolentmalveillante.
67
188200
4856
Nos machines ne vont probablement pas
devenir spontanément malveillantes.
03:25
The concernpréoccupation is really
that we will buildconstruire machinesmachines
68
193080
2616
Le risque est
que nous construisions des machines
03:27
that are so much
more competentcompétent than we are
69
195720
2056
tellement plus compétentes que nous
03:29
that the slightestmoindre divergencedivergence
betweenentre theirleur goalsbuts and our ownposséder
70
197800
3776
que la moindre divergence
d'intérêt entre elles et nous
03:33
could destroydétruire us.
71
201600
1200
pourrait nous détruire.
03:35
Just think about how we relaterapporter to antsfourmis.
72
203960
2080
Pensez aux fourmis.
03:38
We don't hatehaine them.
73
206600
1656
Nous ne les haïssons pas.
03:40
We don't go out of our way to harmnuire them.
74
208280
2056
Nous ne cherchons pas à les écraser.
03:42
In factfait, sometimesparfois
we take painsdes douleurs not to harmnuire them.
75
210360
2376
Nous faisons même parfois
l'effort de les éviter.
03:44
We stepétape over them on the sidewalktrottoir.
76
212760
2016
Nous les enjambons.
03:46
But whenevern'importe quand theirleur presenceprésence
77
214800
2136
Mais dès que leur présence
03:48
seriouslysérieusement conflictsconflits with one of our goalsbuts,
78
216960
2496
nous gêne vraiment,
03:51
let's say when constructingconstruire
a buildingbâtiment like this one,
79
219480
2477
par exemple si nous voulons
construire un bâtiment,
03:53
we annihilateannihiler them withoutsans pour autant a qualmqualm.
80
221981
1960
nous les exterminons sans scrupule.
03:56
The concernpréoccupation is that we will
one day buildconstruire machinesmachines
81
224480
2936
Le risque est que nous construisions
un jour des machines
03:59
that, whetherqu'il s'agisse they're consciousconscient or not,
82
227440
2736
qui, conscientes ou non,
04:02
could treattraiter us with similarsimilaire disregardne pas tenir compte.
83
230200
2000
nous traiteraient
avec la même indifférence.
04:05
Now, I suspectsuspect this seemssemble
far-fetchedfarfelu to manybeaucoup of you.
84
233760
2760
Cela peut vous sembler capillotracté.
04:09
I betpari there are those of you who doubtdoute
that superintelligentsuperintelligents AIAI is possiblepossible,
85
237360
6336
Je parie que certains d'entre vous
doutent qu'une super IA soit possible,
04:15
much lessMoins inevitableinévitable.
86
243720
1656
et encore moins inévitable.
04:17
But then you mustdoit find something wrongfaux
with one of the followingSuivant assumptionshypothèses.
87
245400
3620
Mais dans ce cas vous devez réfuter
une des hypothèses suivantes.
04:21
And there are only threeTrois of them.
88
249044
1572
Et il n'y en a que trois.
04:23
IntelligenceIntelligence is a mattermatière of informationinformation
processingEn traitement in physicalphysique systemssystèmes.
89
251800
4719
L'intelligence est le traitement
de l'information dans un système physique.
04:29
ActuallyEn fait, this is a little bitbit more
than an assumptionsupposition.
90
257320
2615
En fait, c'est un peu plus
qu'une simple hypothèse.
04:31
We have alreadydéjà builtconstruit
narrowétroit intelligenceintelligence into our machinesmachines,
91
259959
3457
Nous avons déjà construit
des machines vaguement intelligentes,
04:35
and manybeaucoup of these machinesmachines performeffectuer
92
263440
2016
et nombre d'entre elles font déjà preuve
04:37
at a levelniveau of superhumansurhumaine
intelligenceintelligence alreadydéjà.
93
265480
2640
d'une intelligence surhumaine.
04:40
And we know that meresimple mattermatière
94
268840
2576
Et nous savons que la matière
04:43
can give riseaugmenter to what is calledappelé
"generalgénéral intelligenceintelligence,"
95
271440
2616
peut produire « l'intelligence générale »,
04:46
an abilitycapacité to think flexiblyavec souplesse
acrossà travers multipleplusieurs domainsdomaines,
96
274080
3656
la capacité de réfléchir
de manière croisée,
04:49
because our brainscerveaux have managedgéré it. Right?
97
277760
3136
parce que nos cerveaux
y sont parvenus, n'est-ce pas ?
04:52
I mean, there's just atomsatomes in here,
98
280920
3936
Après tout, il n'y a que
des atomes là-dedans,
04:56
and as long as we continuecontinuer
to buildconstruire systemssystèmes of atomsatomes
99
284880
4496
et tant que nous continuerons
à construire des systèmes d'atomes
05:01
that displayafficher more and more
intelligentintelligent behaviorcomportement,
100
289400
2696
qui feront montre de plus
en plus d'intelligence,
05:04
we will eventuallyfinalement,
unlesssauf si we are interruptedinterrompu,
101
292120
2536
nous parviendrons,
à moins d'être interrompus,
05:06
we will eventuallyfinalement
buildconstruire generalgénéral intelligenceintelligence
102
294680
3376
nous parviendrons à implanter
une « intelligence générale »
05:10
into our machinesmachines.
103
298080
1296
au cœur de nos machines.
05:11
It's crucialcrucial to realizeprendre conscience de
that the ratetaux of progressle progrès doesn't mattermatière,
104
299400
3656
Il est crucial de comprendre
que la vitesse n'est pas le problème,
05:15
because any progressle progrès
is enoughassez to get us into the endfin zonezone.
105
303080
3176
car n'importe quelle vitesse
est suffisante pour aller au bout.
05:18
We don't need Moore'sDe Moore lawloi to continuecontinuer.
We don't need exponentialexponentiel progressle progrès.
106
306280
3776
Nous n'avons pas besoin
de la loi de Moore
ni d'un progrès exponentiel.
05:22
We just need to keep going.
107
310080
1600
Il suffit de continuer à avancer.
05:25
The secondseconde assumptionsupposition
is that we will keep going.
108
313480
2920
La deuxième hypothèse
est que nous allons continuer.
05:29
We will continuecontinuer to improveaméliorer
our intelligentintelligent machinesmachines.
109
317000
2760
Nous continuerons d'améliorer
nos machines intelligentes.
05:33
And givendonné the valuevaleur of intelligenceintelligence --
110
321000
4376
Et, vue la valeur de l'intelligence --
05:37
I mean, intelligenceintelligence is eithernon plus
the sourcela source of everything we valuevaleur
111
325400
3536
l'intelligence est la source
de tout ce qui compte
05:40
or we need it to safeguardsauvegarde
everything we valuevaleur.
112
328960
2776
ou alors elle doit protéger
tout ce qui compte.
05:43
It is our mostles plus valuablede valeur resourceRessource.
113
331760
2256
C'est notre plus importante ressource.
05:46
So we want to do this.
114
334040
1536
Donc nous allons continuer.
05:47
We have problemsproblèmes
that we desperatelydésespérément need to solverésoudre.
115
335600
3336
Nous avons des problèmes
que nous devons absolument résoudre.
05:50
We want to cureguérir diseasesmaladies
like Alzheimer'sAlzheimer and cancercancer.
116
338960
3200
Nous voulons vaincre les maladies
comme Alzheimer ou le cancer.
05:54
We want to understandcomprendre economicéconomique systemssystèmes.
We want to improveaméliorer our climateclimat sciencescience.
117
342960
3936
Nous voulons comprendre l'économie.
Nous voulons améliorer le climat.
05:58
So we will do this, if we can.
118
346920
2256
Donc nous allons continuer,
si nous le pouvons.
06:01
The traintrain is alreadydéjà out of the stationgare,
and there's no brakefrein to pulltirer.
119
349200
3286
Le train a déjà quitté la gare
et il n'y a pas de frein.
06:05
FinallyEnfin, we don't standsupporter
on a peakde pointe of intelligenceintelligence,
120
353880
5456
Et enfin, l'humain ne se trouve pas
au sommet de l'intelligence,
06:11
or anywherenulle part nearprès it, likelyprobable.
121
359360
1800
nous en sommes même très loin.
06:13
And this really is the crucialcrucial insightperspicacité.
122
361640
1896
Et c'est vraiment le point crucial.
06:15
This is what makesfait du
our situationsituation so precariousprécaire,
123
363560
2416
C'est ce qui rend
notre situation si précaire
06:18
and this is what makesfait du our intuitionsintuitions
about riskrisque so unreliablepeu fiable.
124
366000
4040
et ce qui fait que notre compréhension
des risques n'est pas fiable.
06:23
Now, just considerconsidérer the smartestle plus intelligent personla personne
who has ever livedvivait.
125
371120
2720
Prenons l'humain le plus intelligent
qui ait jamais vécu.
06:26
On almostpresque everyone'stout le monde shortlistliste succincte here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Beaucoup de gens penseraient
à John von Neumann.
06:30
I mean, the impressionimpression that vonvon NeumannNeumann
madefabriqué on the people around him,
127
378080
3336
L'impression que von Neumann
laissait aux gens,
06:33
and this includedinclus the greatestplus grand
mathematiciansmathématiciens and physicistsphysiciens of his time,
128
381440
4056
y compris les plus brillants
mathématiciens et physiciens de son temps,
06:37
is fairlyéquitablement well-documentedbien documenté.
129
385520
1936
est plutôt bien documentée.
06:39
If only halfmoitié the storieshistoires
about him are halfmoitié truevrai,
130
387480
3776
Si ne serait-ce que la moitié
de ce que l'on dit sur lui
est à moitié vraie,
il n'y a aucun doute qu'il soit
06:43
there's no questionquestion
131
391280
1216
06:44
he's one of the smartestle plus intelligent people
who has ever livedvivait.
132
392520
2456
l'un des plus brillants esprits
qui aient existé.
06:47
So considerconsidérer the spectrumspectre of intelligenceintelligence.
133
395000
2520
Considérons le spectre de l'intelligence.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Voici John von Neumann.
06:53
And then we have you and me.
135
401560
1334
Et nous, nous sommes ici.
06:56
And then we have a chickenpoulet.
136
404120
1296
Et là nous avons un poulet.
06:57
(LaughterRires)
137
405440
1936
(Rires)
06:59
Sorry, a chickenpoulet.
138
407400
1216
Pardon, un poulet.
07:00
(LaughterRires)
139
408640
1256
(Rires)
07:01
There's no reasonraison for me to make this talk
more depressingdéprimant than it needsBesoins to be.
140
409920
3736
Pas besoin de rendre cette présentation
plus déprimante qu'elle ne l'est déjà.
07:05
(LaughterRires)
141
413680
1600
(Rires)
07:08
It seemssemble overwhelminglymassivement likelyprobable, howevertoutefois,
that the spectrumspectre of intelligenceintelligence
142
416339
3477
Il semble néanmoins plus que probable
que le spectre de l'intelligence
07:11
extendss'étend much furtherplus loin
than we currentlyactuellement conceiveconcevoir,
143
419840
3120
s'étende beaucoup plus loin
que nous ne pouvons le concevoir,
07:15
and if we buildconstruire machinesmachines
that are more intelligentintelligent than we are,
144
423880
3216
Si nous construisons
des machines plus intelligentes que nous,
07:19
they will very likelyprobable
exploreexplorer this spectrumspectre
145
427120
2296
elles vont très probablement
explorer ce spectre,
07:21
in waysfaçons that we can't imagineimaginer,
146
429440
1856
plus que nous ne pouvons l'imaginer,
07:23
and exceeddépasser us in waysfaçons
that we can't imagineimaginer.
147
431320
2520
et elles nous surpasseront,
plus que nous ne pouvons l'imaginer.
07:27
And it's importantimportant to recognizereconnaître that
this is truevrai by virtuevertu of speedla vitesse aloneseul.
148
435000
4336
Il est important de noter que c'est vrai
par la seule vertu de la vitesse.
07:31
Right? So imagineimaginer if we just builtconstruit
a superintelligentsuperintelligents AIAI
149
439360
5056
Imaginez que nous construisions
une IA super intelligente
07:36
that was no smarterplus intelligent
than your averagemoyenne teaméquipe of researchersdes chercheurs
150
444440
3456
qui ne soit pas plus intelligente
qu'une équipe moyenne de chercheurs
07:39
at StanfordStanford or MITMIT.
151
447920
2296
de Stanford ou du MIT.
07:42
Well, electronicélectronique circuitsles circuits
functionfonction about a millionmillion timesfois fasterPlus vite
152
450240
2976
L'électronique va environ
un million de fois plus vite
07:45
than biochemicalbiochimique onesceux,
153
453240
1256
que la biochimie,
07:46
so this machinemachine should think
about a millionmillion timesfois fasterPlus vite
154
454520
3136
de sorte que cette machine
penserait un million de fois plus vite
07:49
than the mindsesprits that builtconstruit it.
155
457680
1816
que les humains qui l'auraient créée.
07:51
So you setensemble it runningfonctionnement for a weekla semaine,
156
459520
1656
En une semaine,
07:53
and it will performeffectuer 20,000 yearsannées
of human-levelau niveau de l’homme intellectualintellectuel work,
157
461200
4560
cette machine réaliserait le même travail
qu'une équipe d'humains en 20 000 ans,
07:58
weekla semaine after weekla semaine after weekla semaine.
158
466400
1960
semaine après semaine.
08:01
How could we even understandcomprendre,
much lessMoins constraincontraindre,
159
469640
3096
Comment pourrions-nous comprendre,
et encore moins limiter,
08:04
a mindesprit makingfabrication this sortTrier of progressle progrès?
160
472760
2280
un esprit qui irait à une telle vitesse ?
08:08
The other thing that's worryinginquiétant, franklyfranchement,
161
476840
2136
L'autre chose inquiétante, franchement,
08:11
is that, imagineimaginer the bestmeilleur caseCas scenarioscénario.
162
479000
4976
est la suivante :
imaginez le meilleur des cas.
08:16
So imagineimaginer we hitfrappé uponsur a designconception
of superintelligentsuperintelligents AIAI
163
484000
4176
Imaginez que nous concevions
une IA super intelligente
08:20
that has no safetysécurité concernspréoccupations.
164
488200
1376
qui ne soit pas dangereuse.
08:21
We have the perfectparfait designconception
the first time around.
165
489600
3256
Nous trouvons la parfaite solution
du premier coup.
08:24
It's as thoughbien que we'venous avons been handedremis an oracleoracle
166
492880
2216
Comme si nous avions
un oracle à disposition
08:27
that behavesse comporte exactlyexactement as intendedprévu.
167
495120
2016
se comportant
exactement comme prévu.
08:29
Well, this machinemachine would be
the perfectparfait labor-savingallégeant devicedispositif.
168
497160
3720
Cette machine nous éviterait
toute forme de travail.
08:33
It can designconception the machinemachine
that can buildconstruire the machinemachine
169
501680
2429
Elle concevrait la machine
qui ferait la machine
08:36
that can do any physicalphysique work,
170
504133
1763
qui pourrait faire n'importe quoi,
08:37
poweredalimenté by sunlightlumière du soleil,
171
505920
1456
alimentée par le soleil,
08:39
more or lessMoins for the costCoût
of rawbrut materialsmatériaux.
172
507400
2696
plus ou moins pour le seul coût
des matières premières.
08:42
So we're talkingparlant about
the endfin of humanHumain drudgerycorvée.
173
510120
3256
On parle là de la fin
de la pénibilité humaine.
08:45
We're alsoaussi talkingparlant about the endfin
of mostles plus intellectualintellectuel work.
174
513400
2800
Nous parlons aussi
de la fin du travail intellectuel.
08:49
So what would apessinges like ourselvesnous-mêmes
do in this circumstancecirconstance?
175
517200
3056
Que feraient des singes comme nous
dans une pareille situation ?
08:52
Well, we'dmer be freegratuit to playjouer FrisbeeFrisbee
and give eachchaque other massagesmassages.
176
520280
4080
Nous serions libres de jouer au frisbee
et de nous faire des massages.
08:57
AddAjouter some LSDLSD and some
questionablediscutable wardrobegarde-robe choicesles choix,
177
525840
2856
Avec un peu de LSD
et quelques fringues douteuses,
09:00
and the wholeentier worldmonde
could be like BurningGravure Man.
178
528720
2176
le monde entier serait
comme le Burning Man.
09:02
(LaughterRires)
179
530920
1640
(Rires)
09:06
Now, that mightpourrait sounddu son prettyjoli good,
180
534320
2000
Bon, tout ça peut sembler plutôt sympa,
09:09
but askdemander yourselftoi même what would happense produire
181
537280
2376
mais demandez-vous ce qui arriverait
09:11
underen dessous de our currentactuel economicéconomique
and politicalpolitique ordercommande?
182
539680
2736
avec notre système politique
et économique actuel ?
09:14
It seemssemble likelyprobable that we would witnesstémoin
183
542440
2416
Nous serions les témoins
09:16
a levelniveau of wealthrichesse inequalityinégalité
and unemploymentchômage
184
544880
4136
d'une inégalité des richesses
et d'un taux de chômage
09:21
that we have never seenvu before.
185
549040
1496
encore jamais vus.
09:22
AbsentAbsent a willingnessvolonté
to immediatelyimmédiatement put this newNouveau wealthrichesse
186
550560
2616
Sans la volonté de mettre
ces nouvelles richesses
09:25
to the serviceun service of all humanityhumanité,
187
553200
1480
au service de toute l'humanité,
09:27
a fewpeu trillionairestrillionaires could graceGrace
the coverscouvre of our businessEntreprise magazinesles magazines
188
555640
3616
quelques milliardaires feraient
les couvertures des revues commerciales
09:31
while the restdu repos of the worldmonde
would be freegratuit to starvemourir de faim.
189
559280
2440
alors que le reste du monde
mourrait de faim.
09:34
And what would the RussiansRusses
or the ChineseChinois do
190
562320
2296
Et que feraient les Russes ou les Chinois
09:36
if they heardentendu that some companycompagnie
in SiliconSilicium ValleyVallée de
191
564640
2616
s'ils apprenaient
qu'une société de la Silicon Valley
09:39
was about to deploydéployer a superintelligentsuperintelligents AIAI?
192
567280
2736
était sur le point de créer
une IA super intelligente ?
09:42
This machinemachine would be capablecapable
of wagingmener warguerre,
193
570040
2856
Cette machine serait capable
de faire la guerre,
09:44
whetherqu'il s'agisse terrestrialterrestres or cyberCyber,
194
572920
2216
qu'elle soit physique ou numérique,
09:47
with unprecedentedsans précédent powerPuissance.
195
575160
1680
avec une puissance jamais vue.
09:50
This is a winner-take-allwinner-take-all scenarioscénario.
196
578120
1856
Le vainqueur emporterait toute la mise.
09:52
To be sixsix monthsmois aheaddevant
of the competitioncompétition here
197
580000
3136
Avoir six mois d'avance
dans une telle compétition
09:55
is to be 500,000 yearsannées aheaddevant,
198
583160
2776
revient à avoir 500 000 ans d'avance,
09:57
at a minimumle minimum.
199
585960
1496
au minimum.
09:59
So it seemssemble that even meresimple rumorsrumeurs
of this kindgentil of breakthroughpercée
200
587480
4736
Il est donc possible
que la moindre rumeur de ce type de percée
10:04
could causecause our speciesespèce to go berserkBerserk.
201
592240
2376
pourrait tous nous rendre
totalement dingues.
10:06
Now, one of the mostles plus frighteningeffrayant things,
202
594640
2896
L'une des choses les plus effrayantes,
10:09
in my viewvue, at this momentmoment,
203
597560
2776
de mon point de vue,
10:12
are the kindssortes of things
that AIAI researchersdes chercheurs say
204
600360
4296
sont les choses
que les chercheurs en IA disent
10:16
when they want to be reassuringrassurant.
205
604680
1560
quand ils veulent nous rassurer.
10:19
And the mostles plus commoncommun reasonraison
we're told not to worryinquiéter is time.
206
607000
3456
On nous dit généralement
que nous avons encore le temps.
10:22
This is all a long way off,
don't you know.
207
610480
2056
C'est pour plus tard,
vous pensez bien.
10:24
This is probablyProbablement 50 or 100 yearsannées away.
208
612560
2440
C'est probablement
pour dans 50 ou 100 ans.
10:27
One researcherchercheur has said,
209
615720
1256
Un chercheur a dit :
10:29
"WorryingS’inquiéter about AIAI safetysécurité
210
617000
1576
« S'inquiéter de l'IA,
c'est comme s'inquiéter
10:30
is like worryinginquiétant
about overpopulationsurpopulation on MarsMars."
211
618600
2280
de la surpopulation sur Mars. »
10:34
This is the SiliconSilicium ValleyVallée de versionversion
212
622116
1620
La Silicon Valley sait parfois
10:35
of "don't worryinquiéter your
prettyjoli little headtête about it."
213
623760
2376
se montrer condescendante.
10:38
(LaughterRires)
214
626160
1336
(Rires)
10:39
No one seemssemble to noticeremarquer
215
627520
1896
Personne ne semble se rendre compte
10:41
that referencingréférencement the time horizonhorizon
216
629440
2616
que dire qu'on a le temps
10:44
is a totaltotal nonnon sequitursequitur.
217
632080
2576
est totalement fallacieux
dans ce contexte.
10:46
If intelligenceintelligence is just a mattermatière
of informationinformation processingEn traitement,
218
634680
3256
Si l'intelligence n'est
que le traitement de l'information
10:49
and we continuecontinuer to improveaméliorer our machinesmachines,
219
637960
2656
et si l'on continue
d'améliorer nos machines,
10:52
we will produceproduire
some formforme of superintelligencesuperintelligence.
220
640640
2880
alors nous produirons
une forme de super intelligence.
10:56
And we have no ideaidée
how long it will take us
221
644320
3656
Et nous n'avons pas la moindre idée
du temps qu'il nous faudra
11:00
to createcréer the conditionsconditions
to do that safelyen toute sécurité.
222
648000
2400
pour trouver comment
le faire sans risques.
11:04
Let me say that again.
223
652200
1296
Je vais me répéter.
11:05
We have no ideaidée how long it will take us
224
653520
3816
Nous n'avons pas la moindre idée
du temps qu'il nous faudra
11:09
to createcréer the conditionsconditions
to do that safelyen toute sécurité.
225
657360
2240
pour trouver comment
le faire sans risques.
11:12
And if you haven'tn'a pas noticedremarqué,
50 yearsannées is not what it used to be.
226
660920
3456
Au cas où vous n'auriez pas remarqué,
50 ans, ce n'est pas grand chose.
11:16
This is 50 yearsannées in monthsmois.
227
664400
2456
Voici 50 ans, en mois.
11:18
This is how long we'venous avons had the iPhoneiPhone.
228
666880
1840
Voici l'existence de l'iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontélévision.
229
669440
2600
Voici la durée couverte
par « Les Simpsons ».
11:24
FiftyCinquante yearsannées is not that much time
230
672680
2376
Cinquante ans,
cela ne laisse guère de temps
11:27
to meetrencontrer one of the greatestplus grand challengesdéfis
our speciesespèce will ever facevisage.
231
675080
3160
pour se préparer à l'un
des plus grands défis de tous les temps.
11:31
OnceFois again, we seemsembler to be failingéchouer
to have an appropriateapproprié emotionalémotif responseréponse
232
679640
4016
Une fois encore, nous semblons
incapables de nous préparer
11:35
to what we have everychaque reasonraison
to believe is comingvenir.
233
683680
2696
à ce qui, selon toute probabilité,
va arriver.
11:38
The computerordinateur scientistscientifique StuartStuart RussellRussell
has a niceagréable analogyanalogie here.
234
686400
3976
L'informaticien Stuart Russel
propose une belle analogie à ce sujet.
11:42
He said, imagineimaginer that we receivedreçu
a messagemessage from an alienextraterrestre civilizationcivilisation,
235
690400
4896
Il dit : « Imaginez que nous recevions
un message des aliens
11:47
whichlequel readlis:
236
695320
1696
qui dirait :
11:49
"People of EarthTerre,
237
697040
1536
' Habitants de la Terre,
11:50
we will arrivearrivée on your planetplanète in 50 yearsannées.
238
698600
2360
nous arriverons chez vous dans 50 ans.
11:53
Get readyprêt."
239
701800
1576
Soyez prêts. '
11:55
And now we're just countingcompte down
the monthsmois untiljusqu'à the mothershipvaisseau-mère landsles terres?
240
703400
4256
Et on ne ferait que regarder
le compte à rebours ?
11:59
We would feel a little
more urgencyurgence than we do.
241
707680
3000
Non, nous nous sentirions
un peu plus concernés que ça. »
12:04
AnotherUn autre reasonraison we're told not to worryinquiéter
242
712680
1856
Une autre raison de ne pas s'inquiéter
12:06
is that these machinesmachines
can't help but sharepartager our valuesvaleurs
243
714560
3016
serait que ces machines
partageraient notre sens des valeurs
12:09
because they will be literallyLittéralement
extensionsextensions of ourselvesnous-mêmes.
244
717600
2616
parce qu'elles seraient
des extensions de nous-mêmes.
12:12
They'llIls vont be graftedgreffés ontosur our brainscerveaux,
245
720240
1816
Elles seraient greffées sur nos cerveaux,
12:14
and we'llbien essentiallyessentiellement
becomedevenir theirleur limbiclimbique systemssystèmes.
246
722080
2360
nous serions leur système limbique.
12:17
Now take a momentmoment to considerconsidérer
247
725120
1416
Réfléchissez un peu
12:18
that the safestplus sûre
and only prudentprudent pathchemin forwardvers l'avant,
248
726560
3176
que le moyen le plus sûr,
12:21
recommendedrecommandé,
249
729760
1336
recommandé,
12:23
is to implantl’implant this technologyLa technologie
directlydirectement into our brainscerveaux.
250
731120
2800
serait de brancher cette technologie
directement sur nos cerveaux.
12:26
Now, this maymai in factfait be the safestplus sûre
and only prudentprudent pathchemin forwardvers l'avant,
251
734600
3376
Cela peut sembler
être la meilleure option,
12:30
but usuallyd'habitude one'sson safetysécurité concernspréoccupations
about a technologyLa technologie
252
738000
3056
mais généralement, on essaie
d'être sûr de son coup
12:33
have to be prettyjoli much workedtravaillé out
before you stickbâton it insideà l'intérieur your headtête.
253
741080
3656
avant de s'enfoncer
quelque chose dans le cerveau.
12:36
(LaughterRires)
254
744760
2016
(Rires)
12:38
The deeperPlus profond problemproblème is that
buildingbâtiment superintelligentsuperintelligents AIAI on its ownposséder
255
746800
5336
Le vrai problème est
que simplement concevoir
une IA super intelligente
12:44
seemssemble likelyprobable to be easierPlus facile
256
752160
1736
semble plus facile
que de concevoir
une IA super intelligente
12:45
than buildingbâtiment superintelligentsuperintelligents AIAI
257
753920
1856
12:47
and havingayant the completedterminé neuroscienceneuroscience
258
755800
1776
tout en maîtrisant les neurosciences
12:49
that allowspermet us to seamlesslyparfaitement
integrateintégrer our mindsesprits with it.
259
757600
2680
pour connecter cette IA à nos cerveaux.
12:52
And givendonné that the companiesentreprises
and governmentsGouvernements doing this work
260
760800
3176
Si l'on tient compte du fait
que les entreprises et gouvernements
12:56
are likelyprobable to perceivepercevoir themselvesse
as beingétant in a racecourse againstcontre all othersautres,
261
764000
3656
se sentent probablement en concurrence,
12:59
givendonné that to wingagner this racecourse
is to wingagner the worldmonde,
262
767680
3256
et, puisque remporter cette course
revient à conquérir le monde,
13:02
providedà condition de you don't destroydétruire it
in the nextprochain momentmoment,
263
770960
2456
pourvu que vous
ne le détruisiez pas juste après,
13:05
then it seemssemble likelyprobable
that whateverpeu importe is easierPlus facile to do
264
773440
2616
il semble probable que l'on commence
13:08
will get doneterminé first.
265
776080
1200
par le plus facile.
13:10
Now, unfortunatelymalheureusement,
I don't have a solutionSolution to this problemproblème,
266
778560
2856
Malheureusement,
je n'ai pas la solution de ce problème,
à part recommander que
nous soyons plus nombreux à y réfléchir.
13:13
apartune part from recommendingrecommander
that more of us think about it.
267
781440
2616
13:16
I think we need something
like a ManhattanManhattan ProjectProjet
268
784080
2376
Il nous faudrait une sorte
de Projet Manhattan
13:18
on the topicsujet of artificialartificiel intelligenceintelligence.
269
786480
2016
à propos de l'intelligence artificielle.
13:20
Not to buildconstruire it, because I think
we'llbien inevitablyinévitablement do that,
270
788520
2736
Pas pour la concevoir,
car nous y parviendrons,
13:23
but to understandcomprendre
how to avoidéviter an armsbras racecourse
271
791280
3336
mais pour réfléchir à comment
éviter une course aux armements
13:26
and to buildconstruire it in a way
that is alignedaligné with our interestsintérêts.
272
794640
3496
et pour la concevoir d'une façon
en accord avec nos intérêts.
13:30
When you're talkingparlant
about superintelligentsuperintelligents AIAI
273
798160
2136
Quand vous parlez
d'une IA super intelligente
13:32
that can make changeschangements to itselfse,
274
800320
2256
qui pourrait se modifier elle-même,
13:34
it seemssemble that we only have one chancechance
to get the initialinitiale conditionsconditions right,
275
802600
4616
il semblerait que nous n'ayons qu'une
seule chance de faire les choses bien
13:39
and even then we will need to absorbabsorber
276
807240
2056
et encore, il nous faudra gérer
13:41
the economicéconomique and politicalpolitique
consequencesconséquences of gettingobtenir them right.
277
809320
3040
les conséquences
politiques et économiques.
13:45
But the momentmoment we admitadmettre
278
813760
2056
Mais à partir du moment où nous admettons
13:47
that informationinformation processingEn traitement
is the sourcela source of intelligenceintelligence,
279
815840
4000
que le traitement de l'information
est la source de l'intelligence,
13:52
that some appropriateapproprié computationalcalcul systemsystème
is what the basisbase of intelligenceintelligence is,
280
820720
4800
qu'un système de calcul
est la base de l'intelligence,
13:58
and we admitadmettre that we will improveaméliorer
these systemssystèmes continuouslycontinuellement,
281
826360
3760
et que nous admettons que nous allons
continuer d'améliorer ce type de système
14:03
and we admitadmettre that the horizonhorizon
of cognitioncognition very likelyprobable farloin exceedsest supérieure à
282
831280
4456
et que nous admettons que l'horizon
de l'intelligence dépasse totalement
ce que nous savons aujourd'hui,
14:07
what we currentlyactuellement know,
283
835760
1200
14:10
then we have to admitadmettre
284
838120
1216
nous devons admettre
14:11
that we are in the processprocessus
of buildingbâtiment some sortTrier of god.
285
839360
2640
que nous sommes engagés
dans la conception d'un pseudo-dieu.
14:15
Now would be a good time
286
843400
1576
Il nous faut donc vérifier
14:17
to make sure it's a god we can livevivre with.
287
845000
1953
que c'est un dieu compatible
avec notre survie.
14:20
Thank you very much.
288
848120
1536
Merci beaucoup.
14:21
(ApplauseApplaudissements)
289
849680
5093
(Applaudissements)
Translated by MACQUERON CORENTIN
Reviewed by Morgane Quilfen

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com