ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Comment exploiter, non être subjugué par l'intelligence artificielle ?

Filmed:
1,409,007 views

De nombreux chercheurs spécialisés en intelligence artificielle anticipent qu'elle va, en quelques décennies, surpasser les hommes dans toutes leurs tâches et leurs emplois, et ouvrir les portes d'un futur limité par les seules lois de la physique. Max Tegmark, physicien du M.I.T. et spécialiste de l'intelligence artificielle, fait une distinction entre les vraies opportunités, les vraies menaces, et ce qui constitue les mythes, en nous décrivant les mesures concrètes que nous devrions prendre, dès aujourd'hui, pour faire en sorte que l’intelligence artificielle soit finalement la meilleure chose qui soit arrivée à l'Humanité et non la pire.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionmilliard yearsannées
of cosmiccosmique historyhistoire,
0
760
4416
Après 13,8 milliards d’années
d’histoire cosmique,
00:17
our universeunivers has wokenréveillés up
1
5200
2096
notre univers s’est éveillé
et a pris conscience de lui-même.
00:19
and becomedevenir awareconscient of itselfse.
2
7320
1520
Sur une petite planète bleue,
00:21
From a smallpetit bluebleu planetplanète,
3
9480
1936
des petites parts conscientes
de notre univers
00:23
tinyminuscule, consciousconscient partsles pièces of our universeunivers
have beguncommencé gazingGazing out into the cosmoscosmos
4
11440
4136
ont commencé à observer
le cosmos avec des télescopes,
00:27
with telescopestélescopes,
5
15600
1376
et ont découvert avec humilité
00:29
discoveringdécouvrir something humblinghumiliant.
6
17000
1480
que notre univers est beaucoup plus grand
que ne l'imaginaient nos ancêtres,
00:31
We'veNous avons discovereddécouvert that our universeunivers
is vastlyénormément granderGrander
7
19320
2896
00:34
than our ancestorsles ancêtres imaginedimaginé
8
22240
1336
et que la vie semble être une perturbation
mineure, presque imperceptible,
00:35
and that life seemssemble to be an almostpresque
imperceptiblyimperceptiblement smallpetit perturbationperturbation
9
23600
4256
dans un univers complètement mort.
00:39
on an otherwiseautrement deadmort universeunivers.
10
27880
1720
00:42
But we'venous avons alsoaussi discovereddécouvert
something inspiringinspirant,
11
30320
3016
Mais nous avons aussi
découvert, avec inspiration,
00:45
whichlequel is that the technologyLa technologie
we're developingdéveloppement has the potentialpotentiel
12
33360
2976
que les technologies
que nous développons
ont la capacité d'aider la vie
à s'épanouir comme jamais auparavant,
00:48
to help life flourishfleurir like never before,
13
36360
2856
00:51
not just for centuriesdes siècles
but for billionsdes milliards of yearsannées,
14
39240
3096
non seulement pendant des siècles,
mais des milliards d’années,
00:54
and not just on earthTerre but throughouttout au long de
much of this amazingincroyable cosmoscosmos.
15
42360
4120
et non seulement sur Terre, mais dans
une bonne partie de ce formidable cosmos.
00:59
I think of the earliestle plus tôt life as "Life 1.0"
16
47680
3336
Les premières formes de vie
sont pour moi « La vie 1.0 »,
01:03
because it was really dumbstupide,
17
51040
1376
parce qu'elles étaient
vraiment ignorantes,
01:04
like bacteriades bactéries, unableincapable to learnapprendre
anything duringpendant its lifetimedurée de vie.
18
52440
4296
comme les bactéries incapables d’apprendre
quoi que ce soit dans leur vie.
01:08
I think of us humanshumains as "Life 2.0"
because we can learnapprendre,
19
56760
3376
Nous, humains, représentons « La vie 2.0 »
car nous pouvons apprendre,
ce qui pour nous, en language de geek,
01:12
whichlequel we in nerdyringard, geekgeek speakparler,
20
60160
1496
01:13
mightpourrait think of as installinginstallation
newNouveau softwareLogiciel into our brainscerveaux,
21
61680
3216
est un peu comme télécharger
de nouveaux logiciels dans notre cerveau,
01:16
like languageslangues and jobemploi skillscompétences.
22
64920
2120
comme des langues
ou des compétences professionnelles.
01:19
"Life 3.0," whichlequel can designconception not only
its softwareLogiciel but alsoaussi its hardwareMatériel
23
67680
4296
« La vie 3.0. » qui peut concevoir
son programme mais aussi son équipement
n'existe pas encore, bien sûr.
01:24
of coursecours doesn't existexister yetencore.
24
72000
1656
Mais peut-être que notre technologie
a déjà fait de nous « La vie 2.1 »,
01:25
But perhapspeut être our technologyLa technologie
has alreadydéjà madefabriqué us "Life 2.1,"
25
73680
3776
01:29
with our artificialartificiel kneesles genoux,
pacemakersstimulateurs cardiaques and cochlearcochléaire implantsles implants.
26
77480
4336
considérant nos genoux artificiels,
pacemakers et implants cochléaires.
01:33
So let's take a closerplus proche look
at our relationshiprelation with technologyLa technologie, OK?
27
81840
3880
Donc, observons de plus près notre
relation à la technologie, d'accord ?
01:38
As an exampleExemple,
28
86800
1216
Par exemple, la mission lunaire Apollo 11
01:40
the ApolloApollon 11 moonlune missionmission
was bothtous les deux successfulréussi and inspiringinspirant,
29
88040
5296
a été à la fois un succès
et une source d'inspiration.
Elle a montré que quand nous
utilisons la technologie intelligemment,
01:45
showingmontrer that when we humanshumains
use technologyLa technologie wiselyjudicieusement,
30
93360
3016
01:48
we can accomplishaccomplir things
that our ancestorsles ancêtres could only dreamrêver of.
31
96400
3936
nous pouvons accomplir des choses
que nos ancêtres ne pouvaient que rêver.
Mais il existe un voyage
encore plus inspirant,
01:52
But there's an even more inspiringinspirant journeypériple
32
100360
2976
propulsé par une chose encore plus
puissante que les moteurs de fusée,
01:55
propelledpropulsé by something
more powerfulpuissant than rocketfusée enginesles moteurs,
33
103360
2680
et dont les voyageurs
ne sont pas juste trois astronautes,
01:59
where the passengerspassagers
aren'tne sont pas just threeTrois astronautsastronautes
34
107200
2336
02:01
but all of humanityhumanité.
35
109560
1776
mais l’humanité toute entière.
Parlons de notre voyage
collectif dans le futur
02:03
Let's talk about our collectivecollectif
journeypériple into the futureavenir
36
111360
2936
avec l’intelligence artificielle.
02:06
with artificialartificiel intelligenceintelligence.
37
114320
2000
02:08
My friendami JaanJaan TallinnTallinn likesaime to pointpoint out
that just as with rocketryfusées,
38
116960
4536
Mon ami Jaan Tallinn aime signaler
que, comme pour les fusées,
02:13
it's not enoughassez to make
our technologyLa technologie powerfulpuissant.
39
121520
3160
il ne suffit pas de rendre
notre technologie efficace.
Nous devons aussi, si nous voulons
être vraiment ambitieux,
02:17
We alsoaussi have to figurefigure out,
if we're going to be really ambitiousambitieux,
40
125560
3175
02:20
how to steerSteer it
41
128759
1416
trouver le moyen de la guider
et définir ce que nous voulons en faire.
02:22
and where we want to go with it.
42
130199
1681
Donc, parlons de l'intelligence
artificielle sous ces trois aspects :
02:24
So let's talk about all threeTrois
for artificialartificiel intelligenceintelligence:
43
132880
2840
02:28
the powerPuissance, the steeringpilotage
and the destinationdestination.
44
136440
3056
sa puissance, son guidage,
et sa destination.
Commençons par sa puissance.
02:31
Let's startdébut with the powerPuissance.
45
139520
1286
02:33
I definedéfinir intelligenceintelligence very inclusivelyinclusivement --
46
141600
3096
Je définis « l’intelligence »
de manière très inclusive
02:36
simplysimplement as our abilitycapacité
to accomplishaccomplir complexcomplexe goalsbuts,
47
144720
4336
comme étant notre capacité
à atteindre des objectifs complexes,
car je veux y inclure les deux
intelligences, biologique et artificielle.
02:41
because I want to includecomprendre bothtous les deux
biologicalbiologique and artificialartificiel intelligenceintelligence.
48
149080
3816
02:44
And I want to avoidéviter
the sillyidiot carbon-chauvinismcarbone-chauvinisme ideaidée
49
152920
4016
Et je souhaite éviter l'idée absurde
du chauvinisme carbonique
qui dit, vous ne pouvez être intelligent
que si vous êtes fait de viande.
02:48
that you can only be smartintelligent
if you're madefabriqué of meatmoi à.
50
156960
2360
02:52
It's really amazingincroyable how the powerPuissance
of AIAI has growncultivé recentlyrécemment.
51
160880
4176
Récemment, le pouvoir de l’I.A.
s’est développé de façon incroyable.
02:57
Just think about it.
52
165080
1256
Réfléchissez un instant.
02:58
Not long agodepuis, robotsdes robots couldn'tne pouvait pas walkmarche.
53
166360
3200
Il n'y a pas si longtemps, les robots
ne pouvaient pas marcher.
Aujourd’hui, ils font des saltos arrières.
03:03
Now, they can do backflipsbackflips.
54
171040
1720
03:06
Not long agodepuis,
55
174080
1816
Il n'y a pas si longtemps,
nous n’avions pas de voiture
totalement autonome.
03:07
we didn't have self-drivingSelf-driving carsdes voitures.
56
175920
1760
03:10
Now, we have self-flyingauto-battant rocketsfusées.
57
178920
2480
Aujourd’hui, nous avons
des fusées autonomes.
03:15
Not long agodepuis,
58
183960
1416
Il n'y a pas si longtemps,
03:17
AIAI couldn'tne pouvait pas do facevisage recognitionreconnaissance.
59
185400
2616
l’I.A. était incapable
de reconnaître nos visages.
03:20
Now, AIAI can generateGénérer fakefaux facesvisages
60
188040
2976
Aujourd’hui, elle peut
générer de faux visages
et simuler le vôtre en train de dire
des trucs que vous n’avez jamais dits.
03:23
and simulatesimuler your facevisage
sayingen disant stuffdes trucs that you never said.
61
191040
4160
03:28
Not long agodepuis,
62
196400
1576
Il n'y a pas si longtemps, l’I.A.
ne pouvait pas nous battre au jeu de go.
03:30
AIAI couldn'tne pouvait pas beatbattre us at the gameJeu of Go.
63
198000
1880
Puis l'I.A. de Google DeepMind, AlphaZero,
03:32
Then, GoogleGoogle DeepMind'sDe DeepMind AlphaZeroAlphaZero AIAI
tooka pris 3,000 yearsannées of humanHumain Go gamesJeux
64
200400
5096
a pris 3 000 ans de parties et la sagacité
du jeu Go, pour ensuite tout ignorer,
03:37
and Go wisdomsagesse,
65
205520
1256
03:38
ignoredignoré it all and becamedevenu the world'smonde bestmeilleur
playerjoueur by just playingen jouant againstcontre itselfse.
66
206800
4976
et elle est devenue
la meilleure joueuse mondiale
et en jouant seulement contre elle-même.
03:43
And the mostles plus impressiveimpressionnant featfeat here
wasn'tn'était pas that it crushedécrasé humanHumain gamersjoueurs,
67
211800
3696
Le plus impressionnant, ce n'est pas
sa victoire contre des joueurs humains
03:47
but that it crushedécrasé humanHumain AIAI researchersdes chercheurs
68
215520
2576
mais sa victoire
contre les chercheurs en I.A.
qui avaient passé des décennies
à concevoir leur logiciel de jeu.
03:50
who had spentdépensé decadesdécennies
handcraftingfabrication artisanale game-playingjeu vidéo softwareLogiciel.
69
218120
3680
03:54
And AlphaZeroAlphaZero crushedécrasé humanHumain AIAI researchersdes chercheurs
not just in Go but even at chesséchecs,
70
222200
4656
AlphaZero a battu les chercheurs en I.A.
au jeu de go, mais aussi au jeu d’échecs,
un jeu sur lequel nous avons
travaillé depuis 1950.
03:58
whichlequel we have been workingtravail on sincedepuis 1950.
71
226880
2480
04:02
So all this amazingincroyable recentrécent progressle progrès in AIAI
really begssupplie the questionquestion:
72
230000
4240
Donc, tous ces progrès récents incroyables
de l’l.A. soulèvent vraiment la question :
04:07
How farloin will it go?
73
235280
1560
« Jusqu’où cela va-t-il aller ? »
04:09
I like to think about this questionquestion
74
237800
1696
J’aime imaginer cette question
sous la forme d'un paysage abstrait
constitué de tâches,
04:11
in termstermes of this abstractabstrait
landscapepaysage of tasksles tâches,
75
239520
2976
où l’altitude représente
le degré de difficulté qu'a l'I.A.
04:14
where the elevationélévation representsreprésente
how harddifficile it is for AIAI to do eachchaque tasktâche
76
242520
3456
à exécuter chaque tâche
comme un être humain,
04:18
at humanHumain levelniveau,
77
246000
1216
04:19
and the seamer levelniveau representsreprésente
what AIAI can do todayaujourd'hui.
78
247240
2760
et le niveau de la mer,
les capacités de l'I.A. aujourd’hui.
04:23
The seamer levelniveau is risingen hausse
as AIAI improvesaméliore,
79
251120
2056
Son niveau monte
en fonction des progrès de l’I.A.,
04:25
so there's a kindgentil of globalglobal warmingéchauffement
going on here in the tasktâche landscapepaysage.
80
253200
3440
donc on peut voir une sorte
de réchauffement climatique ici.
(Rires)
Evidemment, la première conclusion,
c'est éviter les métiers en bord de mer,
04:30
And the obviousévident takeawayplats à emporter
is to avoidéviter careerscarrières at the waterfrontfront de mer --
81
258040
3335
04:33
(LaughterRires)
82
261399
1257
(Rires)
04:34
whichlequel will soonbientôt be
automatedautomatique and disruptedperturbée.
83
262680
2856
parce qu'ils vont bientôt
être automatisés.
Mais il y a une autre question
bien plus importante :
04:37
But there's a much
biggerplus gros questionquestion as well.
84
265560
2976
« Jusqu’où l’eau va-t-elle monter ? »
04:40
How highhaute will the watereau endfin up risingen hausse?
85
268560
1810
04:43
Will it eventuallyfinalement riseaugmenter
to floodinonder everything,
86
271440
3200
Est-ce qu'elle va tout inonder
et être comparable
à l'intelligence humaine partout ?
04:47
matchingcorrespondant humanHumain intelligenceintelligence at all tasksles tâches.
87
275840
2496
04:50
This is the definitiondéfinition
of artificialartificiel generalgénéral intelligenceintelligence --
88
278360
3736
Voici la définition de l'Intelligence
Artificielle Générale,
04:54
AGIAGI,
89
282120
1296
I.A.G.
le Saint Graal de la recherche
en I.A. depuis son lancement.
04:55
whichlequel has been the holySainte grailGraal
of AIAI researchrecherche sincedepuis its inceptiondébut.
90
283440
3080
Selon cette définition, ceux qui disent
04:59
By this definitiondéfinition, people who say,
91
287000
1776
05:00
"AhAh, there will always be jobsemplois
that humanshumains can do better than machinesmachines,"
92
288800
3416
« Il y aura toujours des métiers
où l’homme fait mieux que la machine »,
05:04
are simplysimplement sayingen disant
that we'llbien never get AGIAGI.
93
292240
2920
disent simplement
que nous n’aurons jamais d'I.A.G.
Bien sûr, on pourrait choisir
de garder certains emplois humains,
05:07
Sure, we mightpourrait still choosechoisir
to have some humanHumain jobsemplois
94
295680
3576
ou offrir, par nos emplois,
un revenu et une vocation,
05:11
or to give humanshumains incomele revenu
and purposeobjectif with our jobsemplois,
95
299280
3096
05:14
but AGIAGI will in any caseCas
transformtransformer life as we know it
96
302400
3736
mais l’I.A.G. va de toute façon modifier
la vie telle que nous la connaissons
05:18
with humanshumains no longerplus long beingétant
the mostles plus intelligentintelligent.
97
306160
2736
quand les humains ne seront plus
les plus intelligents.
Maintenant, si le niveau de la mer
atteint effectivement l’I.A.G.,
05:20
Now, if the watereau levelniveau does reachatteindre AGIAGI,
98
308920
3696
les progrès futurs de l’I.A.
seront alors gérés principalement
05:24
then furtherplus loin AIAI progressle progrès will be drivenentraîné
mainlyprincipalement not by humanshumains but by AIAI,
99
312640
5296
non plus par les hommes,
mais par l’I.A.,
05:29
whichlequel meansveux dire that there's a possibilitypossibilité
100
317960
1856
ce qui pourrait impliquer de nouveaux
progrès bien plus rapides
05:31
that furtherplus loin AIAI progressle progrès
could be way fasterPlus vite
101
319840
2336
que les années de recherches
nécessaires à l'homme pour aboutir.
05:34
than the typicaltypique humanHumain researchrecherche
and developmentdéveloppement timescaleéchelle de temps of yearsannées,
102
322200
3376
05:37
raisingélevage the controversialcontroversé possibilitypossibilité
of an intelligenceintelligence explosionexplosion
103
325600
4016
Cela évoque la possibilité contestée
d’un essor gigantesque de l’I.A.,
05:41
where recursivelyrécursivement self-improvingamélioration de self AIAI
104
329640
2296
où l'I.A. qui s'auto-améliore
récursivement
devance très vite l’intelligence humaine,
05:43
rapidlyrapidement leavesfeuilles humanHumain
intelligenceintelligence farloin behindderrière,
105
331960
3416
en créant ce qu’on appelle
une « superintelligence ».
05:47
creatingcréer what's knownconnu
as superintelligencesuperintelligence.
106
335400
2440
05:51
AlrightAlright, realityréalité checkvérifier:
107
339800
2280
Bon, revenons à la réalité.
05:55
Are we going to get AGIAGI any time soonbientôt?
108
343120
2440
Allons-nous obtenir l'I.A.G.
dans un futur proche ?
05:58
Some famouscélèbre AIAI researchersdes chercheurs,
like RodneyRodney BrooksBrooks,
109
346360
2696
Des chercheurs célèbres en I.A.,
comme Rodney Brooks,
pensent que cela ne va pas arriver
avant des centaines d’années.
06:01
think it won'thabitude happense produire
for hundredsdes centaines of yearsannées.
110
349080
2496
06:03
But othersautres, like GoogleGoogle DeepMindDeepMind
founderfondateur DemisDemis HassabisHassabis,
111
351600
3896
Mais d’autres, comme Demis Hassabis,
le fondateur de Google DeepMind,
06:07
are more optimisticoptimiste
112
355520
1256
sont plus optimistes et travaillent à ce
qu'elle se produise beaucoup plus tôt.
06:08
and are workingtravail to try to make
it happense produire much soonerplus tôt.
113
356800
2576
Des enquêtes récentes ont montré
que la plupart des chercheurs en I.A.
06:11
And recentrécent surveysenquêtes have shownmontré
that mostles plus AIAI researchersdes chercheurs
114
359400
3296
partagent l’optimisme de Demis, en fait,
06:14
actuallyréellement sharepartager Demis'sLe demis optimismoptimisme,
115
362720
2856
06:17
expectingattendant that we will
get AGIAGI withindans decadesdécennies,
116
365600
3080
et s’attendent à voir l'I.A.G. émerger
d’ici quelques dizaines d'années,
donc du vivant de beaucoup d'entre nous ;
06:21
so withindans the lifetimedurée de vie of manybeaucoup of us,
117
369640
2256
ce qui nous amène à nous
demander « Et ensuite ? »
06:23
whichlequel begssupplie the questionquestion -- and then what?
118
371920
1960
06:27
What do we want the rolerôle of humanshumains to be
119
375040
2216
Quel rôle voulons-nous donner aux hommes
quand les machines pourront tout faire
mieux que nous et moins cher ?
06:29
if machinesmachines can do everything better
and cheapermoins cher than us?
120
377280
2680
06:35
The way I see it, we facevisage a choicechoix.
121
383000
2000
D'après moi, nous faisons face à un choix.
Première option, nous pouvons
dire avec complaisance,
06:38
One optionoption is to be complacentcomplaisant.
122
386000
1576
06:39
We can say, "Oh, let's just buildconstruire machinesmachines
that can do everything we can do
123
387600
3776
« Oh ! Fabriquons des machines
qui font tout à notre place
06:43
and not worryinquiéter about the consequencesconséquences.
124
391400
1816
sans nous soucier des conséquences.
Quoi ! Si nous créons une technologie
qui rend l’humain obsolète,
06:45
Come on, if we buildconstruire technologyLa technologie
that makesfait du all humanshumains obsoleteobsolète,
125
393240
3256
que pourrait-il arriver ? »,
06:48
what could possiblypeut-être go wrongfaux?"
126
396520
2096
06:50
(LaughterRires)
127
398640
1656
(Rires)
mais, je pense que ce serait inadapté.
06:52
But I think that would be
embarrassinglyembarrassante lameboiteux.
128
400320
2760
06:56
I think we should be more ambitiousambitieux --
in the spiritesprit of TEDTED.
129
404080
3496
Je pense que nous devrions être
plus ambitieux, dans l’esprit de TED.
Imaginons un avenir de haute technologie,
qui nous inspire vraiment,
06:59
Let's envisionEnvision a trulyvraiment inspiringinspirant
high-techhaute technologie futureavenir
130
407600
3496
et essayons d'y parvenir.
07:03
and try to steerSteer towardsvers it.
131
411120
1400
Ceci nous conduit à la deuxième partie
de notre métaphore de fusée : le guidage.
07:05
This bringsapporte us to the secondseconde partpartie
of our rocketfusée metaphormétaphore: the steeringpilotage.
132
413720
3536
07:09
We're makingfabrication AIAI more powerfulpuissant,
133
417280
1896
Nous rendons l’I.A. plus performante
07:11
but how can we steerSteer towardsvers a futureavenir
134
419200
3816
mais comment la guider vers un avenir
07:15
where AIAI helpsaide humanityhumanité flourishfleurir
ratherplutôt than flounderplie grise?
135
423040
3080
où elle contribue à la prospérité,
non à la ruine des hommes ?
Pour aider dans ce sens, j’ai cofondé
l'Institut « Future of Life »,
07:18
To help with this,
136
426760
1256
07:20
I cofoundeda cofondé the FutureAvenir of Life InstituteInstitut.
137
428040
1976
une petite ONG encourageant
l'utilisation bénéfique de la technologie.
07:22
It's a smallpetit nonprofitnon lucratif promotingpromouvoir
beneficialbénéfique technologyLa technologie use,
138
430040
2776
07:24
and our goalobjectif is simplysimplement
for the futureavenir of life to existexister
139
432840
2736
Notre but, c'est l'existence
d'un avenir pour la vie
07:27
and to be as inspiringinspirant as possiblepossible.
140
435600
2056
qui soit aussi enrichissant que possible.
07:29
You know, I love technologyLa technologie.
141
437680
3176
Vous savez, j'aime la technologie.
C'est elle qui fait qu'aujourd'hui
est mieux que l’Âge de pierre.
07:32
TechnologyTechnologie is why todayaujourd'hui
is better than the StonePierre AgeAge.
142
440880
2920
07:36
And I'm optimisticoptimiste that we can createcréer
a really inspiringinspirant high-techhaute technologie futureavenir ...
143
444600
4080
Et je suis optimiste, nous pouvons créer
un futur de haute-technologie
vraiment exaltant,
07:41
if -- and this is a biggros if --
144
449680
1456
si, et seulement si, nous gagnons
la course à la sagesse,
07:43
if we wingagner the wisdomsagesse racecourse --
145
451160
2456
la course entre le pouvoir
grandissant de notre technologie
07:45
the racecourse betweenentre the growingcroissance
powerPuissance of our technologyLa technologie
146
453640
2856
et la sagesse grandissante
avec laquelle nous la gérons.
07:48
and the growingcroissance wisdomsagesse
with whichlequel we managegérer it.
147
456520
2200
Mais pour cela, il va falloir
un changement de stratégie,
07:51
But this is going to requireexiger
a changechangement of strategystratégie
148
459240
2296
07:53
because our oldvieux strategystratégie
has been learningapprentissage from mistakeserreurs.
149
461560
3040
car notre stratégie a toujours été
de tirer des leçons de nos erreurs.
07:57
We inventeda inventé fireFeu,
150
465280
1536
On a inventé le feu ;
on s'est planté pas mal de fois ;
07:58
screwedvissé up a bunchbouquet of timesfois --
151
466840
1536
alors on a inventé l’extincteur.
08:00
inventeda inventé the fireFeu extinguisherextincteur.
152
468400
1816
(Rires)
08:02
(LaughterRires)
153
470240
1336
08:03
We inventeda inventé the carvoiture,
screwedvissé up a bunchbouquet of timesfois --
154
471600
2416
On a inventé la voiture ;
on s'est planté ;
on a créé le feu rouge,
la ceinture de sécurité et l’airbag.
08:06
inventeda inventé the trafficcirculation lightlumière,
the seatsiège beltceinture and the airbagcoussin gonflable,
155
474040
2667
Mais avec des technologies plus puissantes
comme l’arme nucléaire ou l'I.A.G.,
08:08
but with more powerfulpuissant technologyLa technologie
like nuclearnucléaire weaponsarmes and AGIAGI,
156
476731
3845
tirer parti des erreurs est une stratégie
plutôt mauvaise, qu'en pensez-vous ?
08:12
learningapprentissage from mistakeserreurs
is a lousypouilleux strategystratégie,
157
480600
3376
08:16
don't you think?
158
484000
1216
(Rires)
08:17
(LaughterRires)
159
485240
1016
Mieux vaut être proactif
plutôt que réactif,
08:18
It's much better to be proactiveproactif
ratherplutôt than reactiveréactif;
160
486280
2576
et planifier et réussir la première fois
08:20
planplan aheaddevant and get things
right the first time
161
488880
2296
08:23
because that mightpourrait be
the only time we'llbien get.
162
491200
2496
car il se peut qu'il n'y ait
pas de seconde fois.
C’est drôle, parfois les gens me disent
08:25
But it is funnydrôle because
sometimesparfois people tell me,
163
493720
2336
« Max, chuut !
Ne parle pas comme ça !
08:28
"MaxMax, shhhchut, don't talk like that.
164
496080
2736
08:30
That's LudditeLuddite scaremongeringalarmisme."
165
498840
1720
C'est de l'alarmisme luddiste. »
Mais ce n’est pas de l’alarmisme.
08:34
But it's not scaremongeringalarmisme.
166
502040
1536
08:35
It's what we at MITMIT
call safetysécurité engineeringingénierie.
167
503600
2880
Au M.I.T., on appelle ça
« l’ingénierie de la sécurité ».
08:39
Think about it:
168
507200
1216
Réfléchissez.
Avant de lancer sa mission Apollo 11,
08:40
before NASANASA launchedlancé
the ApolloApollon 11 missionmission,
169
508440
2216
la NASA a réfléchi à tout
ce qui pourrait mal tourner
08:42
they systematicallysystématiquement thought throughpar
everything that could go wrongfaux
170
510680
3136
si on plaçait des gens
sur des réservoirs d'essence explosifs
08:45
when you put people
on topHaut of explosiveexplosif fuelcarburant tanksréservoirs
171
513840
2376
08:48
and launchlancement them somewherequelque part
where no one could help them.
172
516240
2616
et on les envoyait là
où personne ne peut les aider.
08:50
And there was a lot that could go wrongfaux.
173
518880
1936
Beaucoup de choses pouvaient mal tourner !
Était-ce de l’alarmisme ?
08:52
Was that scaremongeringalarmisme?
174
520840
1480
Non, et c'est précisément
cette ingénierie de la sécurité
08:55
No.
175
523159
1217
08:56
That's was preciselyprécisément
the safetysécurité engineeringingénierie
176
524400
2016
qui a assuré le succès de la mission.
08:58
that ensuredassuré the successSuccès of the missionmission,
177
526440
1936
Et c’est précisément, à mon avis,
la stratégie à adopter avec l'I.A.G. :
09:00
and that is preciselyprécisément the strategystratégie
I think we should take with AGIAGI.
178
528400
4176
réfléchir à tout ce qui peut mal tourner
pour s’assurer que tout se passe bien.
09:04
Think throughpar what can go wrongfaux
to make sure it goesva right.
179
532600
4056
Donc dans cet esprit, nous avons
organisé des conférences,
09:08
So in this spiritesprit,
we'venous avons organizedorganisé conferencesconférences,
180
536680
2536
09:11
bringingapportant togetherensemble leadingde premier plan
AIAI researchersdes chercheurs and other thinkerspenseurs
181
539240
2816
réuni d'éminents chercheurs et penseurs
pour réfléchir à des façons de développer
09:14
to discussdiscuter how to growcroître this wisdomsagesse
we need to keep AIAI beneficialbénéfique.
182
542080
3736
cette sagesse nécessaire
au maintien d'une I.A. bénéfique.
09:17
Our last conferenceconférence
was in AsilomarAsilomar, CaliforniaCalifornie last yearan
183
545840
3296
Notre dernière conférence, c'était
l’an dernier, à Asilomar-Californie.
09:21
and producedproduit this listliste of 23 principlesdes principes
184
549160
3056
Elle a débouché
sur une liste de 23 principes
qui ont reçu plus de mille signatures
de chercheurs et industriels de l’I.A.
09:24
whichlequel have sincedepuis been signedsigné
by over 1,000 AIAI researchersdes chercheurs
185
552240
2896
09:27
and keyclé industryindustrie leadersdirigeants,
186
555160
1296
Laissez-moi vous expliquer
trois de ces principes.
09:28
and I want to tell you
about threeTrois of these principlesdes principes.
187
556480
3176
Le premier,
09:31
One is that we should avoidéviter an armsbras racecourse
and lethalmortel autonomousautonome weaponsarmes.
188
559680
4960
c'est éviter la course à l’armement
et aux armes létales autonomes.
L'idée c'est que toute science
peut être utilisée
09:37
The ideaidée here is that any sciencescience
can be used for newNouveau waysfaçons of helpingportion people
189
565480
3616
soit pour aider les gens,
soit pour leur nuire.
09:41
or newNouveau waysfaçons of harmingnuire people.
190
569120
1536
Par exemple, la biologie et la chimie
ont plus de chances de servir
09:42
For exampleExemple, biologyla biologie and chemistrychimie
are much more likelyprobable to be used
191
570680
3936
à inventer de nouveaux
médicaments et traitements
09:46
for newNouveau medicinesmédicament or newNouveau curescures
than for newNouveau waysfaçons of killingmeurtre people,
192
574640
4856
que de nouvelles façons de tuer,
car les biologistes et les chimistes
exercent une pression efficace
09:51
because biologistsbiologistes
and chemistschimistes pushedpoussé harddifficile --
193
579520
2176
09:53
and successfullyavec succès --
194
581720
1256
pour l'interdiction des armes
biologiques et chimiques.
09:55
for bansles interdictions on biologicalbiologique
and chemicalchimique weaponsarmes.
195
583000
2176
09:57
And in the sameMême spiritesprit,
196
585200
1256
De même, la plupart
des chercheurs en I.A.
09:58
mostles plus AIAI researchersdes chercheurs want to stigmatizestigmatiser
and baninterdire lethalmortel autonomousautonome weaponsarmes.
197
586480
4440
veulent stigmatiser et proscrire
les armes létales autonomes.
Le second principe issu d'Asilomar,
10:03
AnotherUn autre AsilomarAsilomar AIAI principleprincipe
198
591600
1816
10:05
is that we should mitigateatténuer les
AI-fueledAI-alimenté incomele revenu inequalityinégalité.
199
593440
3696
c'est atténuer les inégalités
de revenus que l’I.A. entraîne.
10:09
I think that if we can growcroître
the economicéconomique pietarte dramaticallydramatiquement with AIAI
200
597160
4456
Je pense que si nous pouvons générer
des revenus fabuleux avec l’I.A.,
10:13
and we still can't figurefigure out
how to dividediviser this pietarte
201
601640
2456
sans trouver de solution
pour les répartir
afin d'améliorer la vie de chacun,
10:16
so that everyonetoutes les personnes is better off,
202
604120
1576
alors vraiment,
c'est une honte pour nous !
10:17
then shamela honte on us.
203
605720
1256
10:19
(ApplauseApplaudissements)
204
607000
4096
(Applaudissements)
10:23
AlrightAlright, now raiseélever your handmain
if your computerordinateur has ever crashedécrasé.
205
611120
3600
Bon, maintenant, levez la main ceux
dont l’ordinateur est déjà tombé en panne.
(Rires)
10:27
(LaughterRires)
206
615480
1256
Houah ! C'est beaucoup de mains levées !
10:28
WowWow, that's a lot of handsmains.
207
616760
1656
10:30
Well, then you'lltu vas appreciateapprécier
this principleprincipe
208
618440
2176
Alors, le troisième principe
va vous plaire.
10:32
that we should investinvestir much more
in AIAI safetysécurité researchrecherche,
209
620640
3136
C'est d'investir davantage
dans la recherche sur la sécurité,
10:35
because as we put AIAI in chargecharge
of even more decisionsles décisions and infrastructureInfrastructure,
210
623800
3656
car si nous mettons l’I.A. à la tête
de plus de décisions et d'infrastructures,
10:39
we need to figurefigure out how to transformtransformer
today'saujourd'hui buggybuggy and hackableHackable computersdes ordinateurs
211
627480
3616
nous devons transformer les ordinateurs
d'aujourd'hui, buggés et piratables,
10:43
into robustrobuste AIAI systemssystèmes
that we can really trustconfiance,
212
631120
2416
en systèmes d’I.A. robustes
et vraiment fiables.
10:45
because otherwiseautrement,
213
633560
1216
Sinon, toute cette superbe technologie
pourrait faillir et nous nuire,
10:46
all this awesomeimpressionnant newNouveau technologyLa technologie
can malfunctionmauvais fonctionnement and harmnuire us,
214
634800
2816
ou être piratée et retournée contre nous.
10:49
or get hackedpiraté and be turnedtourné againstcontre us.
215
637640
1976
Ce travail de sécurisation de l’I.A.
10:51
And this AIAI safetysécurité work
has to includecomprendre work on AIAI valuevaleur alignmentalignement,
216
639640
5696
passe nécessairement
par l’alignement de ses valeurs,
car la véritable menace de l'I.A.G.
n’est pas la malveillance,
10:57
because the realréal threatmenace
from AGIAGI isn't malicemalice,
217
645360
2816
11:00
like in sillyidiot HollywoodHollywood moviesfilms,
218
648200
1656
décrite dans les films bébêtes
hollywoodien, mais la compétence.
11:01
but competencecompétence --
219
649880
1736
C'est une I.A.G. qui réalise des objectifs
ne concordant pas avec les nôtres.
11:03
AGIAGI accomplishingaccomplir goalsbuts
that just aren'tne sont pas alignedaligné with oursles notres.
220
651640
3416
11:07
For exampleExemple, when we humanshumains drovea conduit
the WestOuest AfricanAfricain blacknoir rhinoRhino extinctdisparu,
221
655080
4736
Ainsi, quand nous avons provoqué
l’extinction du rhino noir ouest-africain,
11:11
we didn't do it because we were a bunchbouquet
of evilmal rhinocerosrhinocéros hatershaters, did we?
222
659840
3896
ce n'est pas parce que nous sommes
un groupe malfaisant anti-rhino, non ?
Mais parce nous sommes plus intelligents
et avons des buts différents des leurs.
11:15
We did it because
we were smarterplus intelligent than them
223
663760
2056
11:17
and our goalsbuts weren'tn'étaient pas alignedaligné with theirsleur.
224
665840
2576
11:20
But AGIAGI is by definitiondéfinition smarterplus intelligent than us,
225
668440
2656
Or l'I.A.G. est par définition
plus intelligente que nous.
11:23
so to make sure that we don't put
ourselvesnous-mêmes in the positionposition of those rhinosrhinocéros
226
671120
3576
Donc, si nous ne voulons pas connaître
le même sort que ces rhinos,
en créant l'I.A.G.,
11:26
if we createcréer AGIAGI,
227
674720
1976
nous devons découvrir le moyen
d'obliger les machines à comprendre,
11:28
we need to figurefigure out how
to make machinesmachines understandcomprendre our goalsbuts,
228
676720
4176
adopter et préserver nos objectifs.
11:32
adoptadopter our goalsbuts and retainconserver our goalsbuts.
229
680920
3160
11:37
And whosedont goalsbuts should these be, anywayen tous cas?
230
685320
2856
Et au fait, les objectifs de qui ?
11:40
WhichQui goalsbuts should they be?
231
688200
1896
Et quels objectifs ?
11:42
This bringsapporte us to the thirdtroisième partpartie
of our rocketfusée metaphormétaphore: the destinationdestination.
232
690120
3560
Cela nous conduit à la troisième
partie de notre métaphore :
la destination.
11:47
We're makingfabrication AIAI more powerfulpuissant,
233
695160
1856
Nous rendons l’I.A. plus puissante,
en essayant de trouver
un moyen de la guider,
11:49
tryingen essayant to figurefigure out how to steerSteer it,
234
697040
1816
11:50
but where do we want to go with it?
235
698880
1680
mais où voulons-nous qu'elle nous emmène ?
11:53
This is the elephantl'éléphant in the roomchambre
that almostpresque nobodypersonne talkspourparlers about --
236
701760
3656
C’est l'épine dans le pied
dont presque personne ne parle,
11:57
not even here at TEDTED --
237
705440
1856
pas même ici à TED,
parce que nous sommes obnubilés
par les défis à court terme de l’I.A.
11:59
because we're so fixatedobsédé
on short-termcourt terme AIAI challengesdéfis.
238
707320
4080
Ecoutez, notre espèce
essaie de construire l’I.A.G.,
12:04
Look, our speciesespèce is tryingen essayant to buildconstruire AGIAGI,
239
712080
4656
motivée par la curiosité
et l'intérêt financier,
12:08
motivatedmotivés by curiositycuriosité and economicséconomie,
240
716760
3496
mais quelle sorte de société espérons-nous
avoir si nous y parvenons ?
12:12
but what sortTrier of futureavenir societysociété
are we hopingen espérant for if we succeedréussir?
241
720280
3680
Nous avons fait un sondage récemment,
et j'ai été surpris de voir
12:16
We did an opinionopinion pollsondage on this recentlyrécemment,
242
724680
1936
12:18
and I was struckfrappé to see
243
726640
1216
que la plupart des gens veulent
la création d'une super intelligence,
12:19
that mostles plus people actuallyréellement
want us to buildconstruire superintelligencesuperintelligence:
244
727880
2896
12:22
AIAI that's vastlyénormément smarterplus intelligent
than us in all waysfaçons.
245
730800
3160
d'une I.A. largement supérieure
à nous sur tous les plans.
12:27
What there was the greatestplus grand agreementaccord on
was that we should be ambitiousambitieux
246
735120
3416
Et presque tous étaient d'accord
que nous devrions être ambitieux
et essayer de répandre
la vie dans l'univers.
12:30
and help life spreadpropager into the cosmoscosmos,
247
738560
2016
12:32
but there was much lessMoins agreementaccord
about who or what should be in chargecharge.
248
740600
4496
Mais il y avait moins de consensus quant à
qui ou quoi devrait être en charge,
et j'ai été plutôt amusé de constater
12:37
And I was actuallyréellement quiteassez amusedamusé
249
745120
1736
12:38
to see that there's some some people
who want it to be just machinesmachines.
250
746880
3456
que quelques-uns voulaient
que ce soit seulement les machines.
12:42
(LaughterRires)
251
750360
1696
(Rires)
12:44
And there was totaltotal disagreementdésaccord
about what the rolerôle of humanshumains should be,
252
752080
3856
Il y avait aussi un désaccord total
quant au rôle des hommes,
même au niveau le plus élémentaire.
12:47
even at the mostles plus basicde base levelniveau,
253
755960
1976
12:49
so let's take a closerplus proche look
at possiblepossible futurescontrats à terme
254
757960
2816
Donc voyons un peu les futurs possibles
que nous pourrions choisir
pour nous guider, d'accord ?
12:52
that we mightpourrait choosechoisir
to steerSteer towardvers, alrightbien?
255
760800
2736
12:55
So don't get be wrongfaux here.
256
763560
1336
Comprenez bien que je ne parle pas
de voyage dans l’espace,
12:56
I'm not talkingparlant about spaceespace travelVoyage,
257
764920
2056
12:59
merelyseulement about humanity'sl'humanité
metaphoricalmétaphorique journeypériple into the futureavenir.
258
767000
3200
mais simplement du voyage métaphorique
de l’humanité vers le futur.
Donc l'option appréciée
de certains de mes collègues en I.A.,
13:02
So one optionoption that some
of my AIAI colleaguescollègues like
259
770920
3496
c'est de créer une super intelligence
mais sous le contrôle des hommes,
13:06
is to buildconstruire superintelligencesuperintelligence
and keep it underen dessous de humanHumain controlcontrôle,
260
774440
3616
13:10
like an enslavedréduits en esclavage god,
261
778080
1736
comme un dieu réduit en esclavage,
déconnectée de l’Internet,
13:11
disconnecteddébranché from the internetl'Internet
262
779840
1576
et utilisée pour créer une technologie
et une richesse inimaginables
13:13
and used to createcréer unimaginableinimaginable
technologyLa technologie and wealthrichesse
263
781440
3256
au profit de quiconque la contrôle.
13:16
for whoeverquiconque controlscontrôles it.
264
784720
1240
13:18
But LordSeigneur ActonActon warneda mis en garde us
265
786800
1456
Mais Lord Acton nous a prévenus
que le pouvoir corrompt,
13:20
that powerPuissance corruptscorrompt,
and absoluteabsolu powerPuissance corruptscorrompt absolutelyabsolument,
266
788280
3616
et qu'un pouvoir absolu
corrompt absolument.
Il est donc à craindre que les humains
ne soient pas assez intelligents,
13:23
so you mightpourrait worryinquiéter that maybe
we humanshumains just aren'tne sont pas smartintelligent enoughassez,
267
791920
4056
ou plutôt doués de sagesse suffisante
pour gérer un tel pouvoir.
13:28
or wisesage enoughassez ratherplutôt,
268
796000
1536
13:29
to handlemanipuler this much powerPuissance.
269
797560
1240
13:31
AlsoAussi, asidede côté from any
moralmoral qualmsScrupule you mightpourrait have
270
799640
2536
A côté des scrupules moraux
que nous pourrions avoir
concernant l'asservissement
d'esprits supérieurs,
13:34
about enslavingasservir superiorsupérieur mindsesprits,
271
802200
2296
il serait à craindre que cette
superintelligence soit plus maline,
13:36
you mightpourrait worryinquiéter that maybe
the superintelligencesuperintelligence could outsmartdéjouer us,
272
804520
3976
se libère et prenne le pouvoir.
13:40
breakPause out and take over.
273
808520
2240
J’ai aussi des collègues qui approuvent
une prise de pouvoir de l'I.A.
13:43
But I alsoaussi have colleaguescollègues
who are fine with AIAI takingprise over
274
811560
3416
même si cela mènerait
à l’extinction des humains,
13:47
and even causingprovoquant humanHumain extinctionextinction,
275
815000
2296
13:49
as long as we feel the the AIsSIA
are our worthydigne descendantsdescendance,
276
817320
3576
tant que nous estimons que les I.A.
sont nos dignes descendants,
13:52
like our childrenles enfants.
277
820920
1736
à l'instar de nos enfants.
Mais comment allons-nous savoir
13:54
But how would we know that the AIsSIA
have adoptedadopté our bestmeilleur valuesvaleurs
278
822680
5616
que les I.A. ont adopté
nos meilleures valeurs,
qu'elles ne sont pas
des zombies sans conscience
14:00
and aren'tne sont pas just unconsciousinconscient zombiesdes morts-vivants
trickingdupant us into anthropomorphizinganthropomorphisme them?
279
828320
4376
nous attirant dans le piège
de l'anthropomorphisme ?
14:04
AlsoAussi, shouldn'tne devrait pas those people
who don't want humanHumain extinctionextinction
280
832720
2856
Et ceux qui ne veulent pas
l'extinction de l'homme,
14:07
have a say in the mattermatière, too?
281
835600
1440
n’ont-ils pas aussi leur mot à dire ?
14:10
Now, if you didn't like eithernon plus
of those two high-techhaute technologie optionsoptions,
282
838200
3376
Si vous n’avez aimé aucune de ces
deux options haute-technologie,
rappelez-vous qu'opter pour
une technologie bas de gamme
14:13
it's importantimportant to rememberrappelles toi
that low-techlow-tech is suicidesuicide
283
841600
3176
est un suicide du point de vue cosmique,
14:16
from a cosmiccosmique perspectivela perspective,
284
844800
1256
car si nous ne dépassons pas
la technologie d'aujourd'hui,
14:18
because if we don't go farloin
beyondau-delà today'saujourd'hui technologyLa technologie,
285
846080
2496
14:20
the questionquestion isn't whetherqu'il s'agisse humanityhumanité
is going to go extinctdisparu,
286
848600
2816
la question n'est plus
si l’humanité va être exterminée
mais comment elle va l'être
par le prochain astéroïde meurtrier,
14:23
merelyseulement whetherqu'il s'agisse
we're going to get takenpris out
287
851440
2016
14:25
by the nextprochain killertueur asteroidastéroïde, supervolcanosupervolcan
288
853480
2136
un super volcan,
14:27
or some other problemproblème
that better technologyLa technologie could have solvedrésolu.
289
855640
3096
ou tout autre problème qu’une technologie
meilleure aurait pu résoudre.
14:30
So, how about havingayant
our cakegâteau and eatingen mangeant it ...
290
858760
3576
Donc, pourquoi ne pas avoir
le beurre et l’argent du beurre,
14:34
with AGIAGI that's not enslavedréduits en esclavage
291
862360
1840
avec une I.A.G. non asservie
qui nous traite bien
14:37
but treatsgâteries us well because its valuesvaleurs
are alignedaligné with oursles notres?
292
865120
3176
car ses valeurs épousent les nôtres ?
C'est en substance ce qu’Eliezer Yudkowsky
a appelé « l’I.A. Amicale »,
14:40
This is the gistGIST of what EliezerEliezer YudkowskyYudkowsky
has calledappelé "friendlyamical AIAI,"
293
868320
4176
14:44
and if we can do this,
it could be awesomeimpressionnant.
294
872520
2680
et si nous pouvons fabriquer ça,
ça pourrait être formidable.
14:47
It could not only eliminateéliminer negativenégatif
experiencesexpériences like diseasemaladie, povertyla pauvreté,
295
875840
4816
Elle pourrait non seulement
éliminer les mauvaises expériences
comme la maladie, la pauvreté,
le crime et autres souffrances,
14:52
crimela criminalité and other sufferingSouffrance,
296
880680
1456
14:54
but it could alsoaussi give us
the freedomliberté to choosechoisir
297
882160
2816
mais elle pourrait
nous donner la liberté de choisir
parmi une variété nouvelle et fantastique
d’expériences positives,
14:57
from a fantasticfantastique newNouveau diversityla diversité
of positivepositif experiencesexpériences --
298
885000
4056
15:01
basicallyen gros makingfabrication us
the mastersmaîtres of our ownposséder destinydestin.
299
889080
3160
nous rendant, au fond,
maîtres de notre propre destin.
15:06
So in summaryRésumé,
300
894280
1376
Donc en résumé,
notre situation en matière
de technologie est compliquée,
15:07
our situationsituation with technologyLa technologie
is complicatedcompliqué,
301
895680
3096
mais la vue d’ensemble est assez simple.
15:10
but the biggros picturephoto is ratherplutôt simplesimple.
302
898800
2416
La majorité des chercheurs
prévoit l'arrivée de l'I.A.G.
15:13
MostPlupart AIAI researchersdes chercheurs
expectattendre AGIAGI withindans decadesdécennies,
303
901240
3456
d'ici quelques décennies, et si nous
plongeons la-dedans sans préparation,
15:16
and if we just bumblebumble
into this unpreparedmal préparés,
304
904720
3136
ça pourrait être la pire des erreurs
de toute l'Histoire de l’humanité.
15:19
it will probablyProbablement be
the biggestplus grand mistakeerreur in humanHumain historyhistoire --
305
907880
3336
15:23
let's facevisage it.
306
911240
1416
Regardons les choses en face.
15:24
It could enableactiver brutalbrutal,
globalglobal dictatorshipdictature
307
912680
2576
Elle rend possible une dictature
brutale à l'échelle mondiale,
15:27
with unprecedentedsans précédent inequalityinégalité,
surveillancesurveillance and sufferingSouffrance,
308
915280
3536
des inégalités, une surveillance
et une souffrance sans précédents,
voire même l’extinction
de l'espèce humaine.
15:30
and maybe even humanHumain extinctionextinction.
309
918840
1976
15:32
But if we steerSteer carefullysoigneusement,
310
920840
2320
Par contre, si nous
manoeuvrons prudemment,
15:36
we could endfin up in a fantasticfantastique futureavenir
where everybody'stout le monde better off:
311
924040
3896
nous pourrions avoir un futur fantastique
où tout le monde est mieux loti -
les pauvres plus riches
et les riches plus riches -
15:39
the poorpauvre are richerplus riche, the richriches are richerplus riche,
312
927960
2376
et où tout le monde est bonne santé
et libre de poursuivre ses rêves.
15:42
everybodyTout le monde is healthyen bonne santé
and freegratuit to livevivre out theirleur dreamsrêves.
313
930360
3960
Mais, attendez !
15:47
Now, hangpendre on.
314
935000
1536
15:48
Do you folksgens want the futureavenir
that's politicallypolitiquement right or left?
315
936560
4576
Voulez-vous l'avenir politiquement
de droite ou de gauche ?
Voulez-vous la société pieuse
avec des règles morales strictes,
15:53
Do you want the piouspieux societysociété
with strictstrict moralmoral rulesrègles,
316
941160
2856
15:56
or do you an hedonistichédonistique free-for-allFoire d’empoigne,
317
944040
1816
ou la société libertaire hédoniste
comme un festival continu de Burning Man ?
15:57
more like BurningGravure Man 24/7?
318
945880
2216
Voulez-vous des belles plages,
des forêts et des lacs ?
16:00
Do you want beautifulbeau beachesdes plages,
forestsles forêts and lakesLacs,
319
948120
2416
16:02
or would you preferpréférer to rearrangeréorganiser les
some of those atomsatomes with the computersdes ordinateurs,
320
950560
3416
Ou préférez-vous réagencer
leurs atomes dans des ordinateurs
et générer des expériences virtuelles ?
16:06
enablingpermettant virtualvirtuel experiencesexpériences?
321
954000
1715
Avec l'I.A. Amicale, nous pourrions
créer toutes ces sociétés
16:07
With friendlyamical AIAI, we could simplysimplement
buildconstruire all of these societiessociétés
322
955739
3157
et offrir aux gens la liberté
de choisir la leur,
16:10
and give people the freedomliberté
to choosechoisir whichlequel one they want to livevivre in
323
958920
3216
car nous ne serions plus
limités par notre intelligence
16:14
because we would no longerplus long
be limitedlimité by our intelligenceintelligence,
324
962160
3096
mais par les seules lois de la physique,
16:17
merelyseulement by the lawslois of physicsla physique.
325
965280
1456
16:18
So the resourcesRessources and spaceespace
for this would be astronomicalastronomique --
326
966760
4616
et donc, la quantité de ressources
et d’espace serait astronomique.
16:23
literallyLittéralement.
327
971400
1320
Littéralement !
16:25
So here'svoici our choicechoix.
328
973320
1200
Donc, nous avons le choix :
16:27
We can eithernon plus be complacentcomplaisant
about our futureavenir,
329
975880
2320
nous pouvons être complaisant
concernant notre futur
16:31
takingprise as an articlearticle of blindaveugle faithFoi
330
979440
2656
en prenant aveuglément
pour article de foi
16:34
that any newNouveau technologyLa technologie
is guaranteedgaranti to be beneficialbénéfique,
331
982120
4016
que toute nouvelle technologie
est forcément bénéfique
16:38
and just repeatrépéter that to ourselvesnous-mêmes
as a mantramantra over and over and over again
332
986160
4136
et en nous répétant ça, encore
et encore, comme un mantra,
tandis que nous glissons,
comme un bateau à la dérive,
16:42
as we driftdérive like a rudderlessdérive shipnavire
towardsvers our ownposséder obsolescenceobsolescence.
333
990320
3680
vers notre propre obsolescence ;
16:46
Or we can be ambitiousambitieux --
334
994920
1880
ou bien nous choisissons
d'être ambitieux,
16:49
thinkingen pensant harddifficile about how
to steerSteer our technologyLa technologie
335
997840
2456
en réfléchissant à la façon
de guider notre technologie
16:52
and where we want to go with it
336
1000320
1936
vers la destination désirée,
pour créer l'âge de l'émerveillement.
16:54
to createcréer the ageâge of amazementétonnement.
337
1002280
1760
Nous sommes tous ici pour célébrer
l’âge de l’émerveillement,
16:57
We're all here to celebratecélébrer
the ageâge of amazementétonnement,
338
1005000
2856
et j’ai l'impression qu'au fond,
16:59
and I feel that its essenceessence should liemensonge
in becomingdevenir not overpoweredOverpowered
339
1007880
4440
il consisterait à ne pas permettre
à notre technologie de prendre le dessus
17:05
but empoweredhabilité by our technologyLa technologie.
340
1013240
2616
mais plutôt, à nous enrichir.
17:07
Thank you.
341
1015880
1376
Merci.
17:09
(ApplauseApplaudissements)
342
1017280
3080
(Applaudissements)
Translated by Karine Gantin
Reviewed by Hélène VERNET

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com