ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom à propos des plus grands problèmes de l'humanité

Filmed:
967,767 views

Le philosophe et transhumaniste Nick Bostrom examine l'avenir du genre humain et se demande si nous pourrions changer la nature fondamentale de l'humanité pour résoudre nos problèmes les plus intrinsèques.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayaujourd'hui about --
0
0
3000
Je veux vous parler aujourd'hui de --
00:27
I've been askeda demandé to take the long viewvue, and I'm going to tell you what
1
3000
6000
On m'a demandé de prendre une perspective à long terme, et je vais vous dire ce que
00:33
I think are the threeTrois biggestplus grand problemsproblèmes for humanityhumanité
2
9000
4000
je considère comme les trois plus grands problèmes pour l'humanité
00:37
from this long pointpoint of viewvue.
3
13000
3000
dans cette perspective à long terme.
00:40
Some of these have alreadydéjà been touchedtouché uponsur by other speakershaut-parleurs,
4
16000
3000
Certains d'entre eux ont déjà été abordés par d'autres conférenciers,
00:43
whichlequel is encouragingencourageant.
5
19000
2000
ce qui est encourageant.
00:45
It seemssemble that there's not just one personla personne
6
21000
2000
Il semble qu'il n'y ait pas qu'une seule personne
00:47
who thinkspense that these problemsproblèmes are importantimportant.
7
23000
2000
qui pense que ces problèmes sont importants.
00:49
The first is -- deathdécès is a biggros problemproblème.
8
25000
4000
Le premier, c'est -- la mort, un sacré problème.
00:53
If you look at the statisticsstatistiques,
9
29000
3000
Si vous regardez les statistiques,
00:56
the oddschances are not very favorablefavorable to us.
10
32000
2000
elles ne nous sont pas très favorables.
00:58
So farloin, mostles plus people who have livedvivait have alsoaussi dieddécédés.
11
34000
4000
Jusqu'à présent, la plupart des personnes qui ont vécu sont décédées.
01:02
RoughlyÀ peu près 90 percentpour cent of everybodyTout le monde who has been alivevivant has dieddécédés by now.
12
38000
4000
À peu près 90 pour cent de tous ceux qui ont été en vie sont aussi morts à l'heure actuelle.
01:06
So the annualannuel deathdécès ratetaux addsajoute up to 150,000 --
13
42000
6000
Ainsi, le taux de mortalité annuel s'élève à 150 000 --
01:12
sorry, the dailydu quotidien deathdécès ratetaux -- 150,000 people perpar day,
14
48000
3000
pardon, le taux de mortalité quotidien -- 150 000 personnes par jour,
01:15
whichlequel is a hugeénorme numbernombre by any standardla norme.
15
51000
3000
ce qui est indiscutablement un chiffre énorme.
01:18
The annualannuel deathdécès ratetaux, then, becomesdevient 56 millionmillion.
16
54000
5000
Le taux de mortalité annuel est alors de 56 millions.
01:23
If we just look at the singleunique, biggestplus grand causecause of deathdécès -- agingvieillissement --
17
59000
5000
Si nous considérons la plus importante cause de mortalité -- le vieillissement --
01:29
it accountscomptes for roughlygrossièrement two-thirdsles deux tiers of all humanHumain people who diemourir.
18
65000
5000
elle concerne environ deux tiers de tous les humains qui meurent.
01:34
That addsajoute up to an annualannuel deathdécès tollpéage
19
70000
3000
Ce qui nous donne par an un nombre de morts
01:37
of greaterplus grand than the populationpopulation of CanadaCanada.
20
73000
2000
plus important que la population du Canada.
01:39
SometimesParfois, we don't see a problemproblème
21
75000
2000
Parfois, nous ne voyons pas un problème
01:41
because eithernon plus it's too familiarfamilier or it's too biggros.
22
77000
4000
parce qu'il est soit trop familier, soit trop important.
01:45
Can't see it because it's too biggros.
23
81000
2000
On ne peut pas le voir parce qu'il est trop gros.
01:47
I think deathdécès mightpourrait be bothtous les deux too familiarfamilier and too biggros
24
83000
3000
Je pense que la mort doit être à la fois trop familière et trop importante
01:50
for mostles plus people to see it as a problemproblème.
25
86000
3000
pour que la plupart des gens la perçoive comme un problème.
01:53
OnceFois you think about it, you see this is not statisticalstatistique pointspoints;
26
89000
2000
Quand on y pense, on peut voir que ce n'est pas d'un intérêt statistique.
01:55
these are -- let's see, how farloin have I talkeda parlé?
27
91000
2000
Ce qui est -- voyons voir, combien de temps ai-je parlé?
01:57
I've talkeda parlé for threeTrois minutesminutes.
28
93000
3000
J'ai parlé pendant trois minutes.
02:00
So that would be, roughlygrossièrement, 324 people have dieddécédés sincedepuis I've beguncommencé speakingParlant.
29
96000
7000
Ce qui signifie qu'environ 324 personnes sont mortes depuis que j'ai commencé à parler.
02:07
People like -- it's roughlygrossièrement the populationpopulation in this roomchambre has just dieddécédés.
30
103000
4000
Un groupe comme -- c'est à peu près le nombre de personnes dans cette salle qui vient juste de mourir.
02:12
Now, the humanHumain costCoût of that is obviousévident,
31
108000
2000
Le coût humain de cet événement est évident.
02:14
onceune fois que you startdébut to think about it -- the sufferingSouffrance, the lossperte --
32
110000
3000
Une fois qu'on commence à y penser -- la souffrance, la perte --
02:17
it's alsoaussi, economicallyéconomiquement, enormouslyénormément wastefulgaspilleur.
33
113000
3000
c'est aussi, économiquement, un énorme gaspillage.
02:20
I just look at the informationinformation, and knowledgeconnaissance, and experienceexpérience
34
116000
3000
Je considère juste les informations, la connaissance et l'expérience
02:23
that is lostperdu due to naturalNaturel causescauses of deathdécès in generalgénéral,
35
119000
3000
qui sont perdues en raison morts naturelles en général,
02:26
and agingvieillissement, in particularparticulier.
36
122000
2000
et du vieillissement, en particulier.
02:28
SupposeSupposons que we approximatedapproché one personla personne with one booklivre?
37
124000
3000
Supposez que nous assimilions une personne à un livre --
02:31
Now, of coursecours, this is an underestimationsous-estimation.
38
127000
2000
Bien entendu, c'est une sous-estimation.
02:33
A person'spersonne lifetimedurée de vie of learningapprentissage and experienceexpérience
39
129000
6000
L'apprentissage et l'expérience acquis au cours de la vie d'une personne
02:39
is a lot more than you could put into a singleunique booklivre.
40
135000
2000
représentent bien plus que ce qu'on pourrait mettre dans un seul livre.
02:41
But let's supposesupposer we did this.
41
137000
2000
Mais supposons qu'on le fasse.
02:44
52 millionmillion people diemourir of naturalNaturel causescauses eachchaque yearan
42
140000
5000
52 millions de personnes mourant de causes naturelles chaque année
02:49
correspondscorrespond, then, to 52 millionmillion volumesles volumes destroyeddétruit.
43
145000
4000
cela correspond alors à 52 millions de volumes détruits.
02:53
LibraryBibliothèque of CongressCongress holdstient 18 millionmillion volumesles volumes.
44
149000
3000
La Bibliothèque du Congrès détient 18 millions de volumes.
02:57
We are upsetdérangé about the burningbrûlant of the LibraryBibliothèque of AlexandriaAlexandrie.
45
153000
3000
Nous sommes contrariés par l'incendie de la bibliothèque d'Alexandrie.
03:00
It's one of the great culturalculturel tragediestragédies
46
156000
2000
C'est l'une des grandes tragédies
03:02
that we rememberrappelles toi, even todayaujourd'hui.
47
158000
3000
dont nous nous souvenons, encore aujourd'hui.
03:06
But this is the equivalentéquivalent of threeTrois LibrariesBibliothèques of CongressCongress --
48
162000
2000
Mais c'est l'équivalent de trois Bibliothèques du Congrès --
03:08
burntbrûlé down, foreverpour toujours lostperdu -- eachchaque yearan.
49
164000
3000
complètement brûlées, perdues pour toujours -- chaque année.
03:11
So that's the first biggros problemproblème.
50
167000
2000
Voici donc le premier grand problème.
03:13
And I wishsouhait GodspeedBonne chance to AubreyAubrey dede GreyGris,
51
169000
3000
Et je souhaite bonne chance à Aubrey de Grey,
03:16
and other people like him,
52
172000
2000
et à d'autres peronnes comme lui,
03:18
to try to do something about this as soonbientôt as possiblepossible.
53
174000
3000
pour tenter de faire quelque chose à ce propos dès que possible.
03:22
ExistentialExistentielle riskrisque -- the secondseconde biggros problemproblème.
54
178000
3000
Le risque existentiel -- deuxième grand problème.
03:25
ExistentialExistentielle riskrisque is a threatmenace to humanHumain survivalsurvie, or to the long-termlong terme potentialpotentiel of our speciesespèce.
55
181000
7000
Le risque existentiel est une menace pour la survie humaine, ou pour le potentiel à long terme de notre espèce.
03:32
Now, why do I say that this is a biggros problemproblème?
56
188000
2000
Alors, pourquoi suis-je en train de dire que c'est un grand problème?
03:34
Well, let's first look at the probabilityprobabilité --
57
190000
4000
Eh bien, regardons d'abord les probabilités --
03:38
and this is very, very difficultdifficile to estimateestimation --
58
194000
3000
c'est très très difficile à estimer --
03:41
but there have been only fourquatre studiesétudes on this in recentrécent yearsannées,
59
197000
3000
mais il n'y a eu que quatre études là-dessus ces dernières années,
03:44
whichlequel is surprisingsurprenant.
60
200000
2000
ce qui est surprenant.
03:46
You would think that it would be of some interestintérêt
61
202000
3000
On pourrait penser qu'il y a un certain intérêt
03:49
to try to find out more about this givendonné that the stakesenjeux are so biggros,
62
205000
4000
à essayer d'en apprendre plus à ce propos, étant donné l'importance des enjeux,
03:53
but it's a very neglectednégligé arearégion.
63
209000
2000
mais c'est un domaine qui est véritablement laissé de côté.
03:55
But there have been fourquatre studiesétudes --
64
211000
2000
Il y a toutefois eu quatre études --
03:57
one by JohnJohn LesleyLesley, wrotea écrit a booklivre on this.
65
213000
2000
une par John Lesley, qui a écrit un livre à ce sujet.
03:59
He estimatedestimé a probabilityprobabilité that we will failéchouer
66
215000
2000
Il a estimé la probabilité selon laquelle nous ne parviendrons pas
04:01
to survivesurvivre the currentactuel centurysiècle: 50 percentpour cent.
67
217000
3000
à survivre au vingt-et-unième siècle -- 50 pour cent.
04:04
SimilarlyDe la même façon, the AstronomerAstronome RoyalRoyal, whomqui we heardentendu speakparler yesterdayhier,
68
220000
5000
De la même manière, l'Astronome royal, que nous avons entendu parler hier,
04:09
alsoaussi has a 50 percentpour cent probabilityprobabilité estimateestimation.
69
225000
3000
estime aussi la probabilité à hauteur de 50 pour cent.
04:12
AnotherUn autre authorauteur doesn't give any numericalnumérique estimateestimation,
70
228000
3000
Un autre auteur ne donne pas d'estimation chiffrée,
04:15
but saysdit the probabilityprobabilité is significantimportant that it will failéchouer.
71
231000
3000
mais déclare que la probabilité d'échec est significative.
04:18
I wrotea écrit a long paperpapier on this.
72
234000
3000
J'ai écrit un long article à ce sujet.
04:21
I said assigningattribuer a lessMoins than 20 percentpour cent probabilityprobabilité would be a mistakeerreur
73
237000
4000
J'ai soutenu le fait qu'attribuer une probabilité inférieure à 20 pour cent serait une erreur
04:25
in lightlumière of the currentactuel evidencepreuve we have.
74
241000
3000
à la lumière des faits actuels dont nous disposons.
04:28
Now, the exactexact figureschiffres here,
75
244000
2000
Certes, les chiffres donnés ici
04:30
we should take with a biggros graingrain of saltsel,
76
246000
2000
doivent être interprétés avec prudence,
04:32
but there seemssemble to be a consensusconsensus that the riskrisque is substantialsubstantiel.
77
248000
3000
mais il semble se dégager un consensus selon lequel le risque est considérable.
04:35
EverybodyTout le monde who has lookedregardé at this and studiedétudié it agreesaccepte.
78
251000
3000
Tous ceux qui se sont penchés sur la question sont d'accord là-dessus.
04:38
Now, if we think about what just reducingréduire
79
254000
2000
À présent, si nous nous intéressons à la réduction
04:40
the probabilityprobabilité of humanHumain extinctionextinction by just one percentagepourcentage pointpoint --
80
256000
5000
de la probabilité de l'extinction humaine d'un seul pour cent --
04:45
not very much -- so that's equivalentéquivalent to 60 millionmillion livesvies savedenregistré,
81
261000
5000
ce n'est pas beaucoup -- cela représente 60 millions de vies sauvées,
04:50
if we just countcompter the currentlyactuellement livingvivant people, the currentactuel generationgénération.
82
266000
4000
si l'on prend en compte le nombre de personnes vivantes aujourd'hui, la génération actuelle.
04:54
Now one percentpour cent of sixsix billionmilliard people is equivalentéquivalent to 60 millionmillion.
83
270000
4000
Eh bien un pour cent de six milliards de personnes, ce sont donc 60 millions.
04:58
So that's a largegrand numbernombre.
84
274000
2000
C'est un grand nombre.
05:00
If we were to take into accountCompte futureavenir generationsgénérations
85
276000
3000
Si nous devions prendre en compte les générations futures
05:03
that will never come into existenceexistence if we blowcoup ourselvesnous-mêmes up,
86
279000
5000
qui ne verront jamais le jour dans l'hypothèse où nous nous faisons sauter,
05:08
then the figurefigure becomesdevient astronomicalastronomique.
87
284000
3000
cela donnerait un nombre gigantesque.
05:11
If we could eventuallyfinalement colonizecoloniser a chunktronçon of the universeunivers --
88
287000
3000
Si nous pouvions finalement coloniser une partie de l'univers --
05:14
the VirgoVirgo superclustersupercluster --
89
290000
2000
le Superamas de la Vierge --
05:16
maybe it will take us 100 millionmillion yearsannées to get there,
90
292000
2000
peut-être cela nous prendra-t-il 100 millions d'années pour nous y rendre,
05:18
but if we go extinctdisparu we never will.
91
294000
3000
mais si la race humaine s'éteint nous n'irons jamais là-haut.
05:21
Then, even a one percentagepourcentage pointpoint reductionréduction
92
297000
3000
Ainsi même une réduction d'un pour cent
05:24
in the extinctionextinction riskrisque could be equivalentéquivalent
93
300000
4000
du risque d'extinction pourrait mener
05:28
to this astronomicalastronomique numbernombre -- 10 to the powerPuissance of 32.
94
304000
3000
à ce nombre astronomique -- 10 puissance 32.
05:31
So if you take into accountCompte futureavenir generationsgénérations as much as our ownposséder,
95
307000
4000
Alors en prenant en compte les générations futures aussi bien que la nôtre,
05:35
everychaque other moralmoral imperativeimpératif of philanthropicphilanthropique costCoût just becomesdevient irrelevantsans importance.
96
311000
5000
tout autre impératif moral de coût philanthropique perd simplement sa pertinence.
05:40
The only thing you should focusconcentrer on
97
316000
2000
La seule chose sur laquelle il faudrait se concentrer
05:42
would be to reduceréduire existentialexistentiel riskrisque
98
318000
2000
serait la réduction du risque existentiel
05:44
because even the tiniestle plus petit decreasediminution in existentialexistentiel riskrisque
99
320000
4000
parce que même la plus petite diminution de ce risque
05:48
would just overwhelmsubmerger any other benefitavantage you could hopeespérer to achieveatteindre.
100
324000
4000
pourrait réduire à néant tout autre bénéfice que nous serions susceptibles de réaliser.
05:52
And even if you just look at the currentactuel people,
101
328000
2000
Et même en regardant uniquement la génération actuelle,
05:54
and ignoreignorer the potentialpotentiel that would be lostperdu if we wentest allé extinctdisparu,
102
330000
5000
et en ignorant le potentiel qui serait perdu si nous devions disparaître,
05:59
it should still have a highhaute prioritypriorité.
103
335000
2000
cela serait toujours largement prioritaire.
06:01
Now, let me spenddépenser the restdu repos of my time on the thirdtroisième biggros problemproblème,
104
337000
5000
À présent, laissez-moi utiliser le temps qu'il me reste à vous parler du troisième grand problème,
06:06
because it's more subtlesubtil and perhapspeut être difficultdifficile to graspsaisir.
105
342000
5000
parce qu'il est plus subtil et peut-être plus difficile à saisir.
06:12
Think about some time in your life --
106
348000
4000
Vous souvenez-vous de ces moments dans votre vie --
06:16
some people mightpourrait never have experiencedexpérimenté it -- but some people,
107
352000
3000
peut-être certains ne les ont jamais connus - mais les autres,
06:19
there are just those momentsdes moments that you have experiencedexpérimenté
108
355000
3000
je vous parle de ces moments que vous avez vécus
06:22
where life was fantasticfantastique.
109
358000
2000
où la vie était fantastique.
06:24
It mightpourrait have been at the momentmoment of some great, creativeCréatif inspirationinspiration
110
360000
7000
Cela a pu se produire lors d'un instant de grande inspiration créative
06:31
you mightpourrait have had when you just enteredentré this flowcouler stageétape.
111
367000
2000
que vous avez pu connaître en entrant dans cette salle.
06:33
Or when you understoodcompris something you had never doneterminé before.
112
369000
2000
Ou bien lorsque vous avez compris quelque chose pour la toute première fois
06:35
Or perhapspeut être in the ecstasyextase of romanticromantique love.
113
371000
4000
Ou peut-être dans l'extase d'un amour romantique.
06:39
Or an aestheticesthétique experienceexpérience -- a sunsetle coucher du soleil or a great piecepièce of artart.
114
375000
5000
Ou encore une expérience esthétique -- un coucher du soleil, une grande œuvre d'art.
06:44
EveryChaque onceune fois que in a while we have these momentsdes moments,
115
380000
2000
De temps en temps nous vivons ces instants
06:46
and we realizeprendre conscience de just how good life can be when it's at its bestmeilleur.
116
382000
4000
et nous réalisons alors à quel point la vie peut être agréable.
06:50
And you wondermerveille, why can't it be like that all the time?
117
386000
5000
Et vous vous demandez pourquoi cela ne peut pas être ainsi tout le temps ?
06:55
You just want to clingse cramponner ontosur this.
118
391000
2000
Vous désirez ardemment vous accrocher à ce bonheur.
06:57
And then, of coursecours, it driftsles dérives back into ordinaryordinaire life and the memoryMémoire fadesfondus.
119
393000
4000
Et alors, bien entendu, il vous échappe, vous retournez dans la vie ordinaire et le souvenir s'évanouit.
07:01
And it's really difficultdifficile to recallrappel, in a normalnormal frameCadre of mindesprit,
120
397000
4000
Et il est très difficile de se rappeler, dans un état d'esprit normal,
07:05
just how good life can be at its bestmeilleur.
121
401000
3000
combien la vie peut être bonne dans ces meilleurs moments.
07:08
Or how badmal it can be at its worstpire.
122
404000
3000
Ou à quel point elle peut être désagréable dans les pires.
07:11
The thirdtroisième biggros problemproblème is that life isn't usuallyd'habitude
123
407000
3000
Le troisième grand problème, c'est que la vie n'est pas systématiquement
07:14
as wonderfulformidable as it could be.
124
410000
2000
aussi formidable qu'elle pourrait l'être.
07:16
I think that's a biggros, biggros problemproblème.
125
412000
4000
Je crois que c'est vraiment un grand problème.
07:20
It's easyfacile to say what we don't want.
126
416000
2000
Il est facile de savoir ce que nous ne voulons pas.
07:23
Here are a numbernombre of things that we don't want --
127
419000
3000
Voici une liste de choses que nous ne voulons pas --
07:26
illnessmaladie, involuntaryinvolontaire deathdécès, unnecessaryinutile sufferingSouffrance, crueltycruauté,
128
422000
3000
la maladie, la mort involontaire, la souffrance inutile, la cruauté,
07:29
stuntedrabougri growthcroissance, memoryMémoire lossperte, ignoranceignorance, absenceabsence of creativityla créativité.
129
425000
5000
une croissance stoppée, la perte de mémoire, l'ignorance, l'absence de créativité.
07:35
SupposeSupposons que we fixedfixé these things -- we did something about all of these.
130
431000
3000
Supposez que nous remédions à ces choses-là -- que nous fassions quelque chose pour les combattre.
07:38
We were very successfulréussi.
131
434000
2000
Que nous sortions vainqueurs.
07:40
We got riddébarrasser of all of these things.
132
436000
2000
Que nous nous débarrassions de tout cela.
07:42
We mightpourrait endfin up with something like this,
133
438000
3000
Nous pourrions aboutir à quelque chose qui ressemble à ça.
07:45
whichlequel is -- I mean, it's a heckZut of a lot better than that.
134
441000
4000
Ce qui est -- je veux dire, c'est en réalité beaucoup mieux que ça.
07:49
But is this really the bestmeilleur we can dreamrêver of?
135
445000
5000
Mais est-ce que c'est vraiment le mieux dont nous puissions rêver ?
07:54
Is this the bestmeilleur we can do?
136
450000
2000
Est-ce le maximum que nous pouvons faire ?
07:56
Or is it possiblepossible to find something a little bitbit more inspiringinspirant to work towardsvers?
137
452000
6000
Ou bien est-il possible de trouver quelque chose d'un peu plus exaltant vers quoi se tourner ?
08:02
And if we think about this,
138
458000
2000
Et quand on y pense,
08:04
I think it's very clearclair that there are waysfaçons
139
460000
4000
Je crois qu'il est évident qu'il existe des manières
08:08
in whichlequel we could changechangement things, not just by eliminatingéliminer negativesnégatifs,
140
464000
3000
de changer les choses, pas simplement en éliminant le négatif,
08:11
but addingajouter positivespositifs.
141
467000
2000
mais en ajoutant du positif.
08:13
On my wishsouhait listliste, at leastmoins, would be:
142
469000
2000
Sur ma liste de souhaits figureraient au moins --
08:15
much longerplus long, healthierplus sain livesvies, greaterplus grand subjectivesubjectif well-beingbien-être,
143
471000
5000
des vies plus longues, en meilleur santé, un bien-être subjectif plus important,
08:20
enhancedrenforcée cognitivecognitif capacitiescapacités, more knowledgeconnaissance and understandingcompréhension,
144
476000
5000
des capacités cognitives plus développés, davantage de connaissances et de compréhension,
08:25
unlimitedillimité opportunityopportunité for personalpersonnel growthcroissance
145
481000
2000
un potentiel illimité d'épanouissement personnel
08:27
beyondau-delà our currentactuel biologicalbiologique limitslimites, better relationshipsdes relations,
146
483000
4000
au-delà de nos limites biologiques actuelles, de meilleures relations,
08:31
an unboundedsans bornes potentialpotentiel for spiritualspirituel, moralmoral
147
487000
2000
un potentiel sans limites pour un développement
08:33
and intellectualintellectuel developmentdéveloppement.
148
489000
2000
spirituel, moral et intellectuel.
08:35
If we want to achieveatteindre this, what, in the worldmonde, would have to changechangement?
149
491000
8000
Si nous souhaitons réaliser cela, qu'est-ce qui doit changer dans le monde ?
08:43
And this is the answerrépondre -- we would have to changechangement.
150
499000
5000
Eh bien voici la réponse -- nous devons changer.
08:48
Not just the worldmonde around us, but we, ourselvesnous-mêmes.
151
504000
3000
Pas simplement le monde qui nous entoure, mais aussi nous-mêmes.
08:51
Not just the way we think about the worldmonde, but the way we are -- our very biologyla biologie.
152
507000
4000
Pas juste la façon dont nous voyons le monde, mais notre manière d'être -- précisément notre biologie.
08:55
HumanHumaine naturela nature would have to changechangement.
153
511000
2000
La nature humaine doit changer.
08:57
Now, when we think about changingen changeant humanHumain naturela nature,
154
513000
2000
Quand on en vient à évoquer le changement de la nature humaine,
08:59
the first thing that comesvient to mindesprit
155
515000
2000
la première chose qui vient à l'esprit
09:01
are these humanHumain modificationmodification technologiesles technologies --
156
517000
4000
ce sont ces technologies de modification de l'humain --
09:05
growthcroissance hormonehormone therapythérapie, cosmeticcosmétique surgerychirurgie,
157
521000
2000
les hormones de croissance, la chirurgie esthétique,
09:07
stimulantsstimulants like RitalinRitalin, AdderallAdderall, anti-depressantsanti-dépresseurs,
158
523000
3000
les stimulants tels que la Ritalin, l'Adderall, les anti-dépresseurs,
09:10
anabolicanabolique steroidsstéroïdes, artificialartificiel heartscœurs.
159
526000
2000
les stéroïdes anabolisants, les cœurs artificiels.
09:12
It's a prettyjoli patheticpathétique listliste.
160
528000
3000
C'est une liste plutôt pathétique.
09:15
They do great things for a fewpeu people
161
531000
2000
Il s'agit de choses qui font beaucoup de bien à des personnes ciblées
09:17
who suffersouffrir from some specificspécifique conditioncondition,
162
533000
2000
qui souffrent de conditions spécifiques.
09:19
but for mostles plus people, they don't really transformtransformer
163
535000
5000
Mais pour la plupart des gens, elles n'ont aucun effet
09:24
what it is to be humanHumain.
164
540000
2000
quant à une transformation éventuelle de ce que c'est que d'être humain
09:26
And they alsoaussi all seemsembler a little bitbit --
165
542000
2000
Et elles paraissent aussi un petit peu --
09:28
mostles plus people have this instinctinstinct that, well, sure,
166
544000
3000
la plupart des gens sentent que, oui, bien sûr,
09:31
there needsBesoins to be anti-depressantsanti-dépresseurs for the really depresseddéprimé people.
167
547000
2000
il faut qu'il y ait des antidépresseurs pour les gens réellement déprimés.
09:33
But there's a kindgentil of queasinessmalaise
168
549000
2000
Mais une sorte de nausée
09:35
that these are unnaturalnon naturel in some way.
169
551000
3000
résulte du fait qu'ils sont, d'une certaine manière, non naturels.
09:38
It's worthvaut recallingrappel that there are a lot of other
170
554000
2000
Il convient de se rappeler qu'il y a beaucoup d'autres
09:40
modificationmodification technologiesles technologies and enhancementrenforcement technologiesles technologies that we use.
171
556000
3000
modifications et améliorations technologiques que nous utilisons.
09:43
We have skinpeau enhancementsaméliorations, clothingVêtements.
172
559000
4000
Nous disposons de produits pour la peau, d'habits.
09:47
As farloin as I can see, all of you are usersutilisateurs of this
173
563000
4000
Autant que je sache, vous utilisez tous ces
09:51
enhancementrenforcement technologyLa technologie in this roomchambre, so that's a great thing.
174
567000
5000
technologies d'amélioration dans cette salle, donc c'est vraiment une bonne chose.
09:56
MoodHumeur modifiersmodificateurs have been used from time immemorialimmémorial --
175
572000
3000
Les produits permettant d'agir sur l'humeur sont utilisés depuis des temps très anciens --
09:59
caffeinecaféine, alcoholde l'alcool, nicotinenicotine, immuneimmunitaire systemsystème enhancementrenforcement,
176
575000
5000
la caféine, l'alcool, la nicotine, l'amélioration du système immunitaire,
10:04
visionvision enhancementrenforcement, anestheticsanesthésiques --
177
580000
2000
l'amélioration de la vision, l'anesthésie.
10:06
we take that very much for grantedaccordé,
178
582000
2000
Cela nous paraît tout à fait usuel,
10:08
but just think about how great progressle progrès that is --
179
584000
4000
mais réfléchissez un instant à l'immense progrès que cela représente --
10:12
like, havingayant an operationopération before anestheticsanesthésiques was not funamusement.
180
588000
4000
Par exemple, subir une opération avant l'invention de l'anesthésie, ce n'était pas une partie de plaisir.
10:16
ContraceptivesContraceptifs, cosmeticsproduits de beauté and braincerveau reprogrammingreprogrammation techniquestechniques --
181
592000
6000
Les contraceptifs, les produits cosmétiques et les techniques de reprogrammation du cerveau --
10:22
that soundsdes sons ominousde mauvais augure,
182
598000
2000
tout cela semble inquiétant.
10:24
but the distinctiondistinction betweenentre what is a technologyLa technologie --
183
600000
4000
Mais la distinction entre une technologie --
10:28
a gadgetgadget would be the archetypearchétype --
184
604000
2000
dont l'archétype serait le gadget --
10:30
and other waysfaçons of changingen changeant and rewritingréécriture humanHumain naturela nature is quiteassez subtlesubtil.
185
606000
4000
et les autres moyens de changer et de redéfinir la nature humaine est assez subtile.
10:34
So if you think about what it meansveux dire to learnapprendre arithmeticarithmétique or to learnapprendre to readlis,
186
610000
4000
Ainsi, si vous réfléchissez à ce que signifie apprendre à compter ou à lire,
10:38
you're actuallyréellement, literallyLittéralement rewritingréécriture your ownposséder braincerveau.
187
614000
3000
il s'agit en fait littéralement d'une réécriture de son propre cerveau.
10:41
You're changingen changeant the microstructuremicrostructure of your braincerveau as you go alongle long de.
188
617000
3000
Changer les micro-structures de son cerveau à mesure que l'on progresse.
10:45
So in a broadvaste sensesens, we don't need to think about technologyLa technologie
189
621000
3000
Donc dans un sens large, nous n'avons pas besoin de considérer la technologie
10:48
as only little gadgetsgadgets, like these things here,
190
624000
2000
seulement comme de petits gadgets, comme ces choses-là.
10:50
but even institutionsinstitutions and techniquestechniques,
191
626000
4000
Mais même les institutions, les techniques,
10:54
psychologicalpsychologique methodsméthodes and so forthavant.
192
630000
2000
les méthodes psychologiques, etcétéra.
10:56
FormsFormes of organizationorganisation can have a profoundprofond impactimpact on humanHumain naturela nature.
193
632000
5000
Des formes d'organisation peuvent avoir un impact significatif sur la nature humaine.
11:01
Looking aheaddevant, there is a rangegamme of technologiesles technologies
194
637000
2000
En ce qui concerne l'avenir, il y a tout un panel de technologies
11:03
that are almostpresque certaincertain to be developeddéveloppé soonerplus tôt or laterplus tard.
195
639000
3000
que nous sommes pratiquement sûrs de pouvoir développer tôt ou tard.
11:06
We are very ignorantignorant about what the time scaleéchelle for these things are,
196
642000
4000
Nous ne savons absolument rien des échelles de temps mises en jeu par ces développements.
11:10
but they all are consistentcohérent with everything we know
197
646000
2000
Mais nous savons qu'ils sont cohérents avec tout ce que nous connaissons
11:12
about physicalphysique lawslois, lawslois of chemistrychimie, etcetc.
198
648000
4000
qu'il s'agisse de lois physiques, chimiques, etcétéra.
11:16
It's possiblepossible to assumeassumer,
199
652000
2000
Il est possible de supposer,
11:18
settingréglage asidede côté a possibilitypossibilité of catastrophecatastrophe,
200
654000
3000
en laissant de côté l'éventualité d'une catastrophe,
11:21
that soonerplus tôt or laterplus tard we will developdévelopper all of these.
201
657000
3000
que tôt ou tard nous développerons toutes ces techniques.
11:24
And even just a couplecouple of these would be enoughassez
202
660000
3000
Et rien qu'une partie de celles-ci suffirait
11:27
to transformtransformer the humanHumain conditioncondition.
203
663000
2000
à transformer la condition humaine.
11:29
So let's look at some of the dimensionsdimensions of humanHumain naturela nature
204
665000
5000
Regardons donc quelques-unes des dimensions de la nature humaine
11:34
that seemsembler to leavelaisser roomchambre for improvementamélioration.
205
670000
3000
qui semblent laisser mériter des améliorations.
11:37
HealthSanté spanenvergure is a biggros and urgenturgent thing,
206
673000
2000
La durée de vie est une chose importante et urgente,
11:39
because if you're not alivevivant,
207
675000
2000
parce que si vous ne vivez pas,
11:41
then all the other things will be to little availprofiter.
208
677000
3000
eh bien tout le reste perd vite de son intérêt.
11:44
IntellectualIntellectuelle capacitycapacité -- let's take that boxboîte,
209
680000
2000
Les capacités intellectuelles -- regardons cette partie,
11:46
whichlequel fallschutes into a lot of differentdifférent sub-categoriessous-catégories:
210
682000
5000
qui se divise en de nombreuses sous-catégories --
11:51
memoryMémoire, concentrationconcentration, mentalmental energyénergie, intelligenceintelligence, empathyempathie.
211
687000
3000
la mémoire, la concentration, l'énergie mentale, l'intelligence, l'empathie.
11:54
These are really great things.
212
690000
2000
Ce sont vraiment d'importantes choses.
11:56
PartPartie of the reasonraison why we valuevaleur these traitstraits
213
692000
2000
L'une des raisons pour laquelle nous leur accordons de l'importance
11:58
is that they make us better at competingen compétition with other people --
214
694000
4000
est qu'elles nous permettent d'être meilleurs au moment de se confronter aux autres --
12:02
they're positionalpositionnel goodsdes biens.
215
698000
2000
ce sont des biens placés.
12:04
But partpartie of the reasonraison --
216
700000
2000
Mais une autre explication --
12:06
and that's the reasonraison why we have ethicaléthique groundsol for pursuingpoursuivre these --
217
702000
4000
précisément celle pour laquelle nous avons des raisons éthiques de rechercher ces choses --
12:10
is that they're alsoaussi intrinsicallyintrinsèquement valuablede valeur.
218
706000
3000
c'est qu'elles ont également une valeur intrinsèque.
12:13
It's just better to be ablecapable to understandcomprendre more of the worldmonde around you
219
709000
4000
C'est tout simplement mieux d'être capable de comprendre davantage le monde qui nous entoure
12:17
and the people that you are communicatingcommunicant with,
220
713000
2000
ainsi que les gens avec lesquels nous communiquons,
12:19
and to rememberrappelles toi what you have learnedappris.
221
715000
4000
et de nous rappeler ce que nous avons appris.
12:23
ModalitiesModalités and specialspécial facultiesfacultés.
222
719000
2000
Les modalités et les facultés particulières.
12:25
Now, the humanHumain mindesprit is not a singleunique unitaryunitaire informationinformation processorprocesseur,
223
721000
5000
Toutefois, l'esprit humain n'est pas un simple processeur d'informations unitaires.
12:30
but it has a lot of differentdifférent, specialspécial, evolvedévolué modulesmodules
224
726000
4000
Il possède au contraire de nombreuses capacités différentes, particulières et évoluées
12:34
that do specificspécifique things for us.
225
730000
2000
qui remplissent des tâches spécifiques pour nous.
12:36
If you think about what we normallynormalement take as givingdonnant life a lot of its meaningsens --
226
732000
4000
Parlons des choses que nous considérons normalement susceptibles de donner du sens à la vie --
12:40
musicla musique, humorhumour, eroticismérotisme, spiritualityspiritualité, aestheticsesthétique,
227
736000
4000
la musique, l'humour, l'érotisme, la spiritualité, l'esthétique,
12:44
nurturingnourrir and caringsoins, gossippotins, chattingbavardage with people --
228
740000
5000
l'éducation et l'affection, les ragots, les discussions avec les gens.
12:49
all of these, very likelyprobable, are enabledactivée by a specialspécial circuitrycircuits
229
745000
4000
Elles sont toutes vraisemblablement rendues possibles par un ensemble de circuits
12:53
that we humanshumains have,
230
749000
2000
dont nous, les humains, disposons,
12:55
but that you could have anotherun autre intelligentintelligent life formforme that lacksmanque these.
231
751000
3000
mais dont une autre forme de vie intelligente pourrait ne pas bénéficier.
12:58
We're just luckychanceux that we have the requisiterequis neuralneural machinerymachinerie
232
754000
3000
Nous avons simplement la chance de disposer d'une machinerie neurale appropriée
13:01
to processprocessus musicla musique and to appreciateapprécier it and enjoyprendre plaisir it.
233
757000
4000
pour pouvoir comprendre et apprécier la musique.
13:05
All of these would enableactiver, in principleprincipe -- be amenableaccommodable to enhancementrenforcement.
234
761000
3000
Tout ceci rendrait possible, en principe, le fait d'être sensible à l'amélioration.
13:08
Some people have a better musicalmusical abilitycapacité
235
764000
2000
Certaines personnes possèdent de meilleures aptitudes musicales
13:10
and abilitycapacité to appreciateapprécier musicla musique than othersautres have.
236
766000
2000
et de meilleures dispositions à apprécier la musique que d'autres.
13:12
It's alsoaussi interestingintéressant to think about what other things are --
237
768000
3000
De même il est intéressant de réfléchir à ce que les autres choses sont --
13:15
so if these all enabledactivée great valuesvaleurs,
238
771000
3000
alors si toutes ces choses permettent d'obtenir de grandes valeurs,
13:19
why should we think that evolutionévolution has happenedarrivé to providefournir us
239
775000
3000
pourquoi devrions-nous penser que l'évolution nous a dotés
13:22
with all the modalitiesmodalités we would need to engageengager
240
778000
3000
de toutes les modalités qui nous sont nécessaires
13:25
with other valuesvaleurs that there mightpourrait be?
241
781000
2000
avec d'autres valeurs qui peut-être existent ?
13:27
ImagineImaginez a speciesespèce
242
783000
2000
Imaginez une espèce
13:29
that just didn't have this neuralneural machinerymachinerie for processingEn traitement musicla musique.
243
785000
4000
qui n'eût pas à disposition une telle machinerie neurale pour traiter la musique.
13:33
And they would just stareregard at us with bafflementbafflement
244
789000
3000
Elle nous contemplerait avec perplexité
13:36
when we spenddépenser time listeningécoute to a beautifulbeau performanceperformance,
245
792000
4000
alors que nous serions en train d'écouter une magnifique interprétation,
13:40
like the one we just heardentendu -- because of people makingfabrication stupidstupide movementsmouvements,
246
796000
2000
comme celle que nous venons d'écouter -- parce que les gens font des mouvements stupides.
13:42
and they would be really irritatedirrité and wouldn'tne serait pas see what we were up to.
247
798000
3000
Ils s'ennuieraient beaucoup et ne pourraient pas comprendre ce qui nous enchantait.
13:45
But maybe they have anotherun autre facultyla faculté, something elseautre
248
801000
3000
Mais peut-être ont-ils une autre faculté, quelque chose de différent
13:48
that would seemsembler equallyégalement irrationalirrationnel to us,
249
804000
3000
qui nous semblerait de même irrationel,
13:51
but they actuallyréellement taprobinet into some great possiblepossible valuevaleur there.
250
807000
3000
mais en fait ils exploitent probablement une autre grande valeur possible ici.
13:54
But we are just literallyLittéralement deafsourd to that kindgentil of valuevaleur.
251
810000
4000
Valeur à laquelle nous serions littéralement sourds.
13:58
So we could think of addingajouter on differentdifférent,
252
814000
2000
On pourrait alors très bien penser à ajouter différentes
14:00
newNouveau sensorysensoriel capacitiescapacités and mentalmental facultiesfacultés.
253
816000
4000
nouvelles capacités sensorielles et facultés mentales.
14:04
BodilyCorporelles functionalityfonctionnalité and morphologymorphologie and affectiveaffectif self-controlmaîtrise de soi.
254
820000
5000
Une fonctionnalité corporelle, une morphologie et un sang-froid affectif.
14:09
GreaterUne plus grande subjectivesubjectif well-beingbien-être.
255
825000
2000
Un bien-être subjectif plus important.
14:11
Be ablecapable to switchcommutateur betweenentre relaxationrelaxation and activityactivité --
256
827000
3000
Être capable de passer du repos à l'activité --
14:14
beingétant ablecapable to go slowlent when you need to do that, and to speedla vitesse up.
257
830000
4000
être capable de ralentir lorsque c'est nécessaire, puis d'accélerer.
14:18
AbleEn mesure to switchcommutateur back and forthavant more easilyfacilement
258
834000
2000
Capable d'exécuter ce type de va-et-vient plus facilement
14:20
would be a neatsoigné thing to be ablecapable to do --
259
836000
2000
Ce serait très habile de savoir faire ça --
14:22
easierPlus facile to achieveatteindre the flowcouler stateEtat,
260
838000
2000
Et plus facile d'atteindre l'état
14:24
when you're totallytotalement immersedimmergé in something you are doing.
261
840000
4000
d'immersion totale dans ce que vous êtes en train de faire.
14:28
ConscientiousnessSens de la and sympathyla sympathie.
262
844000
2000
L'application et la compassion.
14:30
The abilitycapacité to -- it's anotherun autre interestingintéressant applicationapplication
263
846000
3000
La capacité de -- c'est une autre application intéressante
14:33
that would have largegrand socialsocial ramificationramification, perhapspeut être.
264
849000
3000
qui aurait d'importants problèmes de ramifications sociales.
14:36
If you could actuallyréellement choosechoisir to preservepréserver your romanticromantique attachmentspièces jointes to one personla personne,
265
852000
6000
Si vous pouviez réellement choisir de préserver votre relation romantique avec une personne,
14:42
undiminishednon diminué throughpar time,
266
858000
2000
sans qu'elle diminue avec le temps,
14:44
so that wouldn'tne serait pas have to -- love would never have to fadefondu if you didn't want it to.
267
860000
3000
de telle manière qu'il n'y ait pas -- que l'amour ne s'évapore jamais contre votre volonté.
14:49
That's probablyProbablement not all that difficultdifficile.
268
865000
3000
Ce n'est sans doute pas aussi difficile qu'il y paraît.
14:52
It mightpourrait just be a simplesimple hormonehormone or something that could do this.
269
868000
3000
Il se pourrait bien qu'une simple hormone ou quelque chose d'autre puisse remplir cette fonction.
14:57
It's been doneterminé in volescampagnols.
270
873000
2000
Ça a été fait avec des campagnols.
15:01
You can engineeringénieur a prairieprairie volecampagnol to becomedevenir monogamousmonogame
271
877000
3000
Vous pouvez techniquement rendre un campagnol des prairies monogame
15:04
when it's naturallynaturellement polygamouspolygame.
272
880000
2000
bien qu'il soit naturellement polygame.
15:06
It's just a singleunique genegène.
273
882000
2000
C'est juste un simple gène.
15:08
MightPourrait be more complicatedcompliqué in humanshumains, but perhapspeut être not that much.
274
884000
2000
Il se pourrait que ce soit plus compliqué avec des humains, mais peut-être pas tant que ça.
15:10
This is the last picturephoto that I want to --
275
886000
2000
Voici la dernière image que je voudrais --
15:13
now we'venous avons got to use the laserlaser pointeraiguille.
276
889000
2000
Il nous faut maintenant utiliser le pointeur laser.
15:16
A possiblepossible modemode of beingétant here would be a way of life --
277
892000
3000
Une motivation possible pour nous, ici, consisterait en un mode de vie --
15:19
a way of beingétant, experiencingéprouver, thinkingen pensant, seeingvoyant,
278
895000
4000
une manière d'être, d'expérimenter, de penser, de voir,
15:23
interactinginteragir with the worldmonde.
279
899000
2000
d'interagir avec le monde.
15:25
Down here in this little cornercoin, here, we have the little sub-spacesous-espace
280
901000
5000
Dans le petit coin en bas, ici, nous disposons d'un petit sous-espace
15:30
of this largerplus grand spaceespace that is accessibleaccessible to humanHumain beingsêtres --
281
906000
4000
provenant d'un espace plus grand accessible aux êtres humains --
15:34
beingsêtres with our biologicalbiologique capacitiescapacités.
282
910000
3000
aux êtres ayant les mêmes capacités biologiques que nous.
15:37
It's a partpartie of the spaceespace that's accessibleaccessible to animalsanimaux;
283
913000
3000
C'est une partie de l'espace accessible aux animaux --
15:40
sincedepuis we are animalsanimaux, we are a subsetsous-ensemble of that.
284
916000
3000
car nous sommes des animaux, nous formons donc un sous-ensemble de ceci.
15:43
And then you can imagineimaginer some enhancementsaméliorations of humanHumain capacitiescapacités.
285
919000
4000
Et puis vous pouvez imaginer que l'on améliore les capacités humaines.
15:47
There would be differentdifférent modesmodes of beingétant you could experienceexpérience
286
923000
3000
Vous pourriez alors expérimenter différents modes de vie
15:50
if you were ablecapable to stayrester alivevivant for, say, 200 yearsannées.
287
926000
3000
si vous étiez capables de rester en vie pendant, disons, 200 ans.
15:53
Then you could livevivre sortssortes of livesvies and accumulateaccumuler wisdomsdes sagesses
288
929000
4000
Vous pourriez alors vivre différentes sortes de vie et engranger des sagesses
15:57
that are just not possiblepossible for humanshumains as we currentlyactuellement are.
289
933000
3000
qui sont tout simplement inaccessibles aux humains que nous sommes.
16:00
So then, you movebouge toi off to this largerplus grand spheresphère of "humanHumain +,"
290
936000
4000
Donc, vous vous déplacez vers cette sphère plus grande
16:04
and you could continuecontinuer that processprocessus and eventuallyfinalement
291
940000
3000
et vous pourriez continuer ce procédé et finalement
16:07
exploreexplorer a lot of this largerplus grand spaceespace of possiblepossible modesmodes of beingétant.
292
943000
4000
explorer de nombreux recoins de ce grand espace contenant différents modes de vie possibles.
16:11
Now, why is that a good thing to do?
293
947000
2000
Alors, pourquoi est-ce une bonne chose à faire ?
16:13
Well, we know alreadydéjà that in this little humanHumain circlecercle there,
294
949000
4000
Eh bien, nous savons déjà que dans ce petit cercle humain ici,
16:17
there are these enormouslyénormément wonderfulformidable and worthwhiledigne d'intérêt modesmodes of beingétant --
295
953000
4000
il existe des modes de vie incroyablement magnifiques qui valent vraiment la peine --
16:21
humanHumain life at its bestmeilleur is wonderfulformidable.
296
957000
3000
la vie humaine est formidable dans ses meilleurs moments.
16:24
We have no reasonraison to believe that withindans this much, much largerplus grand spaceespace
297
960000
5000
Il n'y a aucune raison de croire que dans cet espace bien plus grand
16:29
there would not alsoaussi be extremelyextrêmement worthwhiledigne d'intérêt modesmodes of beingétant,
298
965000
4000
il n'y ait pas également des modes de vie extrêmement intéressants.
16:33
perhapspeut être onesceux that would be way beyondau-delà our wildestle plus sauvage abilitycapacité
299
969000
6000
Peut-être certains seraient bien au-delà de nos capacités les plus folles,
16:39
even to imagineimaginer or dreamrêver about.
300
975000
2000
même difficiles à imaginer ou à rêver.
16:41
And so, to fixréparer this thirdtroisième problemproblème,
301
977000
2000
Alors, pour remédier à ce troisième problème,
16:43
I think we need -- slowlylentement, carefullysoigneusement, with ethicaléthique wisdomsagesse and constraintcontrainte --
302
979000
6000
Je pense qu'il nous faut -- lentement, avec précaution, mesure et sagesse éthique --
16:49
developdévelopper the meansveux dire that enableactiver us to go out in this largerplus grand spaceespace and exploreexplorer it
303
985000
5000
développer les moyens qui nous permettront d'atteindre et d'explorer cet espace plus large.
16:54
and find the great valuesvaleurs that mightpourrait hidecacher there.
304
990000
2000
Et trouver les grandes valeurs qui pourraient s'y cacher.
16:56
ThanksMerci.
305
992000
2000
Merci.
Translated by Vincent Burgmeier
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com