ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom sui nostri più grandi problemi

Filmed:
967,767 views

Il filososo di Oxford e transumanista Nick Bostrom esamina il futuro del genere umano e specula sulla possibilità di alterare la natura fondamentale dell' umanità per risolvere i nostri problemi più intrinseci.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayoggi about --
0
0
3000
Oggi vorrei parlarvi di--
00:27
I've been askedchiesto to take the long viewvista, and I'm going to tell you what
1
3000
6000
Mi è stato chiesto di offrire una prospettiva a lungo termine, e vi dirò
00:33
I think are the threetre biggestmaggiore problemsi problemi for humanityumanità
2
9000
4000
quelli che ritengo essere i tre maggiori problemi per l' umanità
00:37
from this long pointpunto of viewvista.
3
13000
3000
da questa prospettiva.
00:40
Some of these have alreadygià been touchedtoccato uponsu by other speakersAltoparlanti,
4
16000
3000
Alcuni di questi sono già stati trattati da altri che hanno parlato prima di me
00:43
whichquale is encouragingincoraggiante.
5
19000
2000
e ciò è incoraggiante.
00:45
It seemssembra that there's not just one personpersona
6
21000
2000
Sembra che non ci sia soltanto una persona
00:47
who thinkspensa that these problemsi problemi are importantimportante.
7
23000
2000
a credere che questi problemi siano importanti.
00:49
The first is -- deathmorte is a biggrande problemproblema.
8
25000
4000
Il primo è -- la morte è un grande problema.
00:53
If you look at the statisticsstatistica,
9
29000
3000
Se guardate le statistiche,
00:56
the oddsprobabilità are not very favorablefavorevole to us.
10
32000
2000
le nostre probabilità sono piuttosto scarse.
00:58
So farlontano, mostmaggior parte people who have livedha vissuto have alsoanche diedmorto.
11
34000
4000
Fino ad ora, la maggior parte delle persone che sono vissute, sono anche morte.
01:02
RoughlyPiù o meno 90 percentper cento of everybodytutti who has been alivevivo has diedmorto by now.
12
38000
4000
Circa 90% di tutti coloro che sono vissuti ad oggi sono morti.
01:06
So the annualannuale deathmorte rateVota addsaggiunge up to 150,000 --
13
42000
6000
Quindi il tasso di mortalità annuale ammonta a 150000 --
01:12
sorry, the dailyquotidiano deathmorte rateVota -- 150,000 people perper day,
14
48000
3000
scusate, il tasso di mortalità quotidiano -- 150000 persone al giorno,
01:15
whichquale is a hugeenorme numbernumero by any standardstandard.
15
51000
3000
che è un numero enorme secondo qualunque scala.
01:18
The annualannuale deathmorte rateVota, then, becomesdiventa 56 millionmilione.
16
54000
5000
Il tasso di mortalità annuale, perciò, diventa 56 milioni.
01:23
If we just look at the singlesingolo, biggestmaggiore causecausa of deathmorte -- aginginvecchiamento --
17
59000
5000
Se prendiamo in considerazione soltanto la singola, maggiore causa di morte -- l'invecchiamento --
01:29
it accountsconti for roughlyapprossimativamente two-thirdsdue terzi of all humanumano people who diemorire.
18
65000
5000
è responsabile per due terzi circa di tutte le morti umane.
01:34
That addsaggiunge up to an annualannuale deathmorte tollPedaggio
19
70000
3000
Questo ammonta ad un bilancio annuale di morti
01:37
of greatermaggiore than the populationpopolazione of CanadaCanada.
20
73000
2000
che eccede l' intera popolazione del Canada.
01:39
SometimesA volte, we don't see a problemproblema
21
75000
2000
A volte non ci accorgiamo di un problema
01:41
because eithero it's too familiarfamiliare or it's too biggrande.
22
77000
4000
perchè o è troppo familiare, o è troppo grande.
01:45
Can't see it because it's too biggrande.
23
81000
2000
Non ce ne accorgiamo perchè è troppo grande.
01:47
I think deathmorte mightpotrebbe be bothentrambi too familiarfamiliare and too biggrande
24
83000
3000
Penso che la morte potrebbe essere sia troppo familiare sia troppo grande
01:50
for mostmaggior parte people to see it as a problemproblema.
25
86000
3000
perché la maggior parte della gente si accorga che è un problema.
01:53
OnceVolta you think about it, you see this is not statisticalstatistico pointspunti;
26
89000
2000
Se ci pensate, vi rendete conto che queste non sono solo considerazioni statistiche.
01:55
these are -- let's see, how farlontano have I talkedparlato?
27
91000
2000
Ci sono -- vediamo, quanto a lungo ho parlato?
01:57
I've talkedparlato for threetre minutesminuti.
28
93000
3000
Ho parlato per tre minuti.
02:00
So that would be, roughlyapprossimativamente, 324 people have diedmorto sinceda I've beguniniziato speakingA proposito di.
29
96000
7000
Quindi fa, all' incirca, 324 persone sono morte da quando ho iniziato a parlare.
02:07
People like -- it's roughlyapprossimativamente the populationpopolazione in this roomcamera has just diedmorto.
30
103000
4000
Persone come -- più o meno la popolazione in questa stanza è appena morta.
02:12
Now, the humanumano costcosto of that is obviousevidente,
31
108000
2000
Ora, il costo umano che questo comporta è ovvio.
02:14
onceuna volta you startinizio to think about it -- the sufferingsofferenza, the lossperdita --
32
110000
3000
Una volta che iniziate a pensarci -- alla sofferenza, alla perdita --
02:17
it's alsoanche, economicallyeconomicamente, enormouslyenormemente wastefuldispendioso.
33
113000
3000
è anche un enorme spreco, da un punto di vista economico.
02:20
I just look at the informationinformazione, and knowledgeconoscenza, and experienceEsperienza
34
116000
3000
Mi riferisco all' informazione, alla conoscenza, e all' esperienza
02:23
that is lostperduto duedovuto to naturalnaturale causescause of deathmorte in generalgenerale,
35
119000
3000
che si perdono in seguito a morti per cause naturali in generale,
02:26
and aginginvecchiamento, in particularparticolare.
36
122000
2000
e per invecchiamento, in particolare.
02:28
SupposeSi supponga che we approximatedapprossimato one personpersona with one booklibro?
37
124000
3000
Supponiamo che una persona venga approssimata a un libro?
02:31
Now, of coursecorso, this is an underestimationsottostima.
38
127000
2000
Ora, ovviamente questa è una sottostima.
02:33
A person'spersona di lifetimetutta la vita of learningapprendimento and experienceEsperienza
39
129000
6000
Una vita di apprendimento e di esperienza di una persona
02:39
is a lot more than you could put into a singlesingolo booklibro.
40
135000
2000
è molto più di quanto potreste mettere in un singolo libro.
02:41
But let's supposesupporre we did this.
41
137000
2000
Ma supponiamo di farlo.
02:44
52 millionmilione people diemorire of naturalnaturale causescause eachogni yearanno
42
140000
5000
52 milioni di persone muoiono per cause naturali ogni anno.
02:49
correspondscorrisponde, then, to 52 millionmilione volumesvolumi destroyeddistrutto.
43
145000
4000
corrisponde dunque a 52 milioni di volumi distrutti.
02:53
LibraryBiblioteca of CongressCongresso holdsdetiene 18 millionmilione volumesvolumi.
44
149000
3000
La Biblioteca del Congresso contiene 18 milioni di volumi.
02:57
We are upsetirritato about the burningardente of the LibraryBiblioteca of AlexandriaAlessandria.
45
153000
3000
Ce la prendiamo per il rogo della Biblioteca di Alessandria.
03:00
It's one of the great culturalculturale tragediestragedie
46
156000
2000
E' una delle grandi tragedie culturali
03:02
that we rememberricorda, even todayoggi.
47
158000
3000
che ricordiamo perfino oggigiorno.
03:06
But this is the equivalentequivalente of threetre LibrariesBiblioteche of CongressCongresso --
48
162000
2000
Ma questo è l'equivalente di tre Biblioteche del Congresso --
03:08
burntbruciato down, foreverper sempre lostperduto -- eachogni yearanno.
49
164000
3000
bruciate, perse per sempre -- ogni anno.
03:11
So that's the first biggrande problemproblema.
50
167000
2000
Perciò, questo è il primo grande problema.
03:13
And I wishdesiderio GodspeedGodspeed to AubreyAubrey dede GreyGrigio,
51
169000
3000
Ed auguro buona fortuna ad Aubrey de Grey,
03:16
and other people like him,
52
172000
2000
ed altri come lui,
03:18
to try to do something about this as soonpresto as possiblepossibile.
53
174000
3000
per provare a fare qualcosa a questo riguardo il più presto possibile.
03:22
ExistentialEsistenziale riskrischio -- the secondsecondo biggrande problemproblema.
54
178000
3000
Rischio esistenziale -- il secondo grande problema.
03:25
ExistentialEsistenziale riskrischio is a threatminaccia to humanumano survivalsopravvivenza, or to the long-termlungo termine potentialpotenziale of our speciesspecie.
55
181000
7000
Un rischio esistenziale è una minaccia alla sopravvivenza umana, o al potenziale futuro della nostra specie.
03:32
Now, why do I say that this is a biggrande problemproblema?
56
188000
2000
Ora, perché dico che questo è un grande problema?
03:34
Well, let's first look at the probabilityprobabilità --
57
190000
4000
Per prima cosa vediamo qual è la probabilità --
03:38
and this is very, very difficultdifficile to estimatestima --
58
194000
3000
ed è molto difficile da estimare --
03:41
but there have been only fourquattro studiesstudi on this in recentrecente yearsanni,
59
197000
3000
ma ci sono stati solo quattro studi su questo tema in anni recenti,
03:44
whichquale is surprisingsorprendente.
60
200000
2000
e ciò è sorprendente.
03:46
You would think that it would be of some interestinteresse
61
202000
3000
Verrebbe da pensare che sia di un certo interesse
03:49
to try to find out more about this givendato that the stakesposta in gioco are so biggrande,
62
205000
4000
provare a scoprire di più a questo proposito dato che la posta in gioco è così alta.
03:53
but it's a very neglectedtrascurato areala zona.
63
209000
2000
ma è un'area molto trascurata.
03:55
But there have been fourquattro studiesstudi --
64
211000
2000
Ci sono stati quattro studi --
03:57
one by JohnJohn LesleyLesley, wroteha scritto a booklibro on this.
65
213000
2000
uno fatto da John Lesley, che ha scritto un libro su questo tema.
03:59
He estimatedstimato a probabilityprobabilità that we will failfallire
66
215000
2000
Ha stimato la probabilità che non riusciremo
04:01
to survivesopravvivere the currentattuale centurysecolo: 50 percentper cento.
67
217000
3000
a sopravvivere oltre il secolo attuale -- 50 %.
04:04
SimilarlyAllo stesso modo, the AstronomerAstronomo RoyalRoyal, whomchi we heardsentito speakparlare yesterdayieri,
68
220000
5000
Similmente, l' Astronomo Reale, del quale abbiamo sentito parlare ieri,
04:09
alsoanche has a 50 percentper cento probabilityprobabilità estimatestima.
69
225000
3000
stima anche lui una probabilità del 50 %.
04:12
AnotherUn altro authorautore doesn't give any numericalnumerico estimatestima,
70
228000
3000
Un altro autore non dà nessuna stima numerica,
04:15
but saysdice the probabilityprobabilità is significantsignificativo that it will failfallire.
71
231000
3000
ma dice che la probabilità che non ci riusciremo è significativa.
04:18
I wroteha scritto a long papercarta on this.
72
234000
3000
Ho scritto un lungo saggio su questo tema.
04:21
I said assigningassegnazione a lessDi meno than 20 percentper cento probabilityprobabilità would be a mistakesbaglio
73
237000
4000
Ho detto che assegnare una probabilità inferiore al 20 % sarebbe un errore
04:25
in lightleggero of the currentattuale evidenceprova we have.
74
241000
3000
alla luce dei dati che abbiamo oggi.
04:28
Now, the exactesatto figuresfigure here,
75
244000
2000
Ora, le cifre esatte
04:30
we should take with a biggrande graingrano of saltsale,
76
246000
2000
dovremmo prenderle con un po' di sale in zucca,
04:32
but there seemssembra to be a consensusconsenso that the riskrischio is substantialsostanziale.
77
248000
3000
ma sembra esserci consenso che il rischio è sostanziale.
04:35
EverybodyTutti who has lookedguardato at this and studiedstudiato it agreesconcorda.
78
251000
3000
Tutti quelli che si sono interessati a quest' area e che l' hanno studiata sono d'accordo.
04:38
Now, if we think about what just reducingriducendo
79
254000
2000
Adesso, se pensiamo a ridurre
04:40
the probabilityprobabilità of humanumano extinctionestinzione by just one percentagepercentuale pointpunto --
80
256000
5000
la probabilità dell' estinzione umana di anche solo un punto percentuale --
04:45
not very much -- so that's equivalentequivalente to 60 millionmilione livesvite savedsalvato,
81
261000
5000
non di molto -- questo equivale a 60 milioni di vite salvate,
04:50
if we just countcontare the currentlyattualmente livingvita people, the currentattuale generationgenerazione.
82
266000
4000
se contiamo unicamente le persone attualmente in vita, la generazione attuale.
04:54
Now one percentper cento of sixsei billionmiliardo people is equivalentequivalente to 60 millionmilione.
83
270000
4000
L' 1 % di sei milioni di persone è 60 milioni.
04:58
So that's a largegrande numbernumero.
84
274000
2000
Quindi un numero davvero grande.
05:00
If we were to take into accountaccount futurefuturo generationsgenerazioni
85
276000
3000
Se prendessimo in considerazione le generazioni future
05:03
that will never come into existenceesistenza if we blowsoffio ourselvesnoi stessi up,
86
279000
5000
che non verranno mai alla luce se ci facciamo saltare in aria,
05:08
then the figurefigura becomesdiventa astronomicalastronomico.
87
284000
3000
allora la cifra diventerebbe astronomica.
05:11
If we could eventuallyinfine colonizecolonizzare a chunkpezzo of the universeuniverso --
88
287000
3000
Se potessimo, ad un certo punto, colonizzare una parte dell' universo --
05:14
the VirgoVirgo superclustersuperammasso --
89
290000
2000
il Superammasso della Vergine --
05:16
maybe it will take us 100 millionmilione yearsanni to get there,
90
292000
2000
potremmo metterci 100 milioni di anni ad arrivarci,
05:18
but if we go extinctestinto we never will.
91
294000
3000
ma se ci estinguiamo non lo faremo mai.
05:21
Then, even a one percentagepercentuale pointpunto reductionriduzione
92
297000
3000
Allora, perfino una riduzione di un punto percentuale
05:24
in the extinctionestinzione riskrischio could be equivalentequivalente
93
300000
4000
nel rischio di estinzione potrebbe equivalere
05:28
to this astronomicalastronomico numbernumero -- 10 to the powerenergia of 32.
94
304000
3000
a questo numero astronomico -- 10 alla potenza di 32.
05:31
So if you take into accountaccount futurefuturo generationsgenerazioni as much as our ownproprio,
95
307000
4000
Quindi, dando alle generazioni future un peso pari a quello della nostra,
05:35
everyogni other moralmorale imperativeimperativo of philanthropicfilantropico costcosto just becomesdiventa irrelevantnon pertinente.
96
311000
5000
ogni altro imperativo morale di costo filantropico diventa del tutto irrilevante.
05:40
The only thing you should focusmessa a fuoco on
97
316000
2000
L' unica cosa su cui ci si dovrebbe concentrare
05:42
would be to reduceridurre existentialesistenziale riskrischio
98
318000
2000
sarebbe ridurre il rischio esistenziale
05:44
because even the tiniestpiù piccolo decreasediminuire in existentialesistenziale riskrischio
99
320000
4000
perché perfino la più piccola diminuzione nel rischio esistenziale
05:48
would just overwhelmsopraffare any other benefitvantaggio you could hopesperanza to achieveraggiungere.
100
324000
4000
supererebbe qualunque altro vantaggio si possa sperare di ottenere.
05:52
And even if you just look at the currentattuale people,
101
328000
2000
E perfino se ci limitiamo alle persone attualmente in vita
05:54
and ignoreignorare the potentialpotenziale that would be lostperduto if we wentandato extinctestinto,
102
330000
5000
e ignioriamo il potenziale che si perderebbe se ci estinguessimo,
05:59
it should still have a highalto prioritypriorità.
103
335000
2000
avrebbe comunque un' alta priorità.
06:01
Now, let me spendtrascorrere the restriposo of my time on the thirdterzo biggrande problemproblema,
104
337000
5000
Ora, lasciatemi parlare nel resto del mio tempo del terzo grande problema,
06:06
because it's more subtlesottile and perhapsForse difficultdifficile to graspcomprensione.
105
342000
5000
perché è più sottile e forse più difficile da afferrare.
06:12
Think about some time in your life --
106
348000
4000
Pensate ad una volta nella vostra vita --
06:16
some people mightpotrebbe never have experiencedesperto it -- but some people,
107
352000
3000
alcune persone possono non averne mai avuto esperienza -- ma altre,
06:19
there are just those momentsmomenti that you have experiencedesperto
108
355000
3000
ci sono semplicemente quei momenti che avete vissuto
06:22
where life was fantasticfantastico.
109
358000
2000
in cui la vita era fantastica.
06:24
It mightpotrebbe have been at the momentmomento of some great, creativecreativo inspirationispirazione
110
360000
7000
Può essere stato un momento di grande ispirazione creativa
06:31
you mightpotrebbe have had when you just enteredentrato this flowflusso stagepalcoscenico.
111
367000
2000
che avete potuto avere quando avete raggiunto uno stato ottimale.
06:33
Or when you understoodinteso something you had never donefatto before.
112
369000
2000
O quando avete capito qualcosa che non avevate mai fatto prima.
06:35
Or perhapsForse in the ecstasyestasi of romanticromantico love.
113
371000
4000
O forse nell' estasi dell' amore romantico.
06:39
Or an aestheticestetico experienceEsperienza -- a sunsettramonto or a great piecepezzo of artarte.
114
375000
5000
O un' esperienza estetica -- un tramonto o una grande opera d' arte.
06:44
EveryOgni onceuna volta in a while we have these momentsmomenti,
115
380000
2000
Una volta ogni tanto viviamo questi momenti,
06:46
and we realizerendersi conto just how good life can be when it's at its bestmigliore.
116
382000
4000
e ci rendiamo conto di quanto bella la vita può essere quando è al suo meglio.
06:50
And you wondermeravigliarsi, why can't it be like that all the time?
117
386000
5000
E ci si chiede perchè non può essere così tutto il tempo?
06:55
You just want to clingaggrapparsi ontosu this.
118
391000
2000
Si vorrebbe fermare il tempo.
06:57
And then, of coursecorso, it driftsderive back into ordinaryordinario life and the memorymemoria fadessvanisce.
119
393000
4000
E poi, naturalmente, si ritorna alla vita di tutti i giorni e la memoria si affievolisce.
07:01
And it's really difficultdifficile to recallrichiamare, in a normalnormale frametelaio of mindmente,
120
397000
4000
Ed è veramente difficile ricordarsi, in uno stato d' animo normale,
07:05
just how good life can be at its bestmigliore.
121
401000
3000
quanto bella la vita può essere al suo meglio.
07:08
Or how badcattivo it can be at its worstpeggio.
122
404000
3000
O quanto dura può essere al suo peggio.
07:11
The thirdterzo biggrande problemproblema is that life isn't usuallygeneralmente
123
407000
3000
Il terzo grande problema è che la vita, normalmente, non è
07:14
as wonderfulmeraviglioso as it could be.
124
410000
2000
tanto bella quanto potrebbe essere.
07:16
I think that's a biggrande, biggrande problemproblema.
125
412000
4000
Penso che sia davvero un grande problema.
07:20
It's easyfacile to say what we don't want.
126
416000
2000
E' facile dire cos'è che non vogliamo.
07:23
Here are a numbernumero of things that we don't want --
127
419000
3000
Ecco un numero di cose che non vogliamo --
07:26
illnessmalattia, involuntaryinvolontario deathmorte, unnecessarynon necessario sufferingsofferenza, crueltycrudeltà,
128
422000
3000
malattia, morte involontaria, sofferenza inutile, crudeltà,
07:29
stuntedrachitico growthcrescita, memorymemoria lossperdita, ignoranceignoranza, absenceassenza of creativitycreatività.
129
425000
5000
crescita stentata, perdita di memoria, ignoranza, assenza di creatività.
07:35
SupposeSi supponga che we fixedfisso these things -- we did something about all of these.
130
431000
3000
Supponiamo di aver risolto tutti questi problemi -- di aver trovato una soluzione a tutti loro.
07:38
We were very successfulriuscito.
131
434000
2000
Abbiamo avuto grande successo.
07:40
We got ridliberare of all of these things.
132
436000
2000
Ci siamo liberati di tutte queste cose.
07:42
We mightpotrebbe endfine up with something like this,
133
438000
3000
Potremmo finire con qualcosa di simile a questo.
07:45
whichquale is -- I mean, it's a heckdiamine of a lot better than that.
134
441000
4000
che è -- voglio dire, è di gran lunga meglio di quello. Voglio dire,
07:49
But is this really the bestmigliore we can dreamsognare of?
135
445000
5000
ma è davvero il meglio -- che possiamo sognare?
07:54
Is this the bestmigliore we can do?
136
450000
2000
E' davvero questo il meglio che possiamo fare?
07:56
Or is it possiblepossibile to find something a little bitpo more inspiringispiratore to work towardsin direzione?
137
452000
6000
O è possibile trovare qualcosa di un pochino più entusiasmante a cui aspirare?
08:02
And if we think about this,
138
458000
2000
E a pensarci bene,
08:04
I think it's very clearchiaro that there are waysmodi
139
460000
4000
penso che sia molto chiaro che ci sono modi
08:08
in whichquale we could changemodificare things, not just by eliminatingeliminando negativesnegativi,
140
464000
3000
in cui potremmo cambiare le cose, non solo eliminando quelle negative,
08:11
but addingaggiungendo positivespositivi.
141
467000
2000
ma aggiungendone di positive.
08:13
On my wishdesiderio listelenco, at leastmeno, would be:
142
469000
2000
Sulla mia lista dei desideri, come minimo, ci sarebbero --
08:15
much longerpiù a lungo, healthierpiù sano livesvite, greatermaggiore subjectivesoggettivo well-beingbenessere,
143
471000
5000
vite più lunghe e più sane, maggiore benessere personale,
08:20
enhancedmigliorata cognitiveconoscitivo capacitiescapacità, more knowledgeconoscenza and understandingcomprensione,
144
476000
5000
capacità cognitive potenziate, più conoscenza e comprensione,
08:25
unlimitedillimitato opportunityopportunità for personalpersonale growthcrescita
145
481000
2000
un' opportunità illimitata di crescita personale
08:27
beyondal di là our currentattuale biologicalbiologico limitslimiti, better relationshipsrelazioni,
146
483000
4000
superamento dei limiti biologici attuali, relazioni migliori,
08:31
an unboundedillimitato potentialpotenziale for spiritualspirituale, moralmorale
147
487000
2000
uno sconfinato potenziale per lo sviluppo spirituale, morale
08:33
and intellectualintellettuale developmentsviluppo.
148
489000
2000
ed intellettuale.
08:35
If we want to achieveraggiungere this, what, in the worldmondo, would have to changemodificare?
149
491000
8000
Se vogliamo ottenere questo che cosa dovrebbe cambiare nel mondo?
08:43
And this is the answerrisposta -- we would have to changemodificare.
150
499000
5000
E questa è la risposta -- dovremmo cambiare noi.
08:48
Not just the worldmondo around us, but we, ourselvesnoi stessi.
151
504000
3000
Non solo il mondo intorno a noi, ma noi stessi.
08:51
Not just the way we think about the worldmondo, but the way we are -- our very biologybiologia.
152
507000
4000
Non solo il modo in cui pensiamo al mondo, ma il modo in cui noi siamo fatti -- la nostra stessa biologia.
08:55
HumanUmano naturenatura would have to changemodificare.
153
511000
2000
La natura umana dovrebbe cambiare.
08:57
Now, when we think about changingmutevole humanumano naturenatura,
154
513000
2000
Ora, quando pensiamo di cambiare la natura umana,
08:59
the first thing that comesviene to mindmente
155
515000
2000
la prima cosa a venire in mente
09:01
are these humanumano modificationmodifica technologiestecnologie --
156
517000
4000
sono queste tecnologie che modificano ciò che è umano --
09:05
growthcrescita hormoneormone therapyterapia, cosmeticcosmetico surgerychirurgia,
157
521000
2000
terapia dell' ormone della crescita, chirurgia estetica,
09:07
stimulantsstimolanti like RitalinRitalin, AdderallAdderall, anti-depressantsantidepressivi,
158
523000
3000
stimolanti come il Ritalin, l' Adderall, antidepressivi,
09:10
anabolicanabolico steroidssteroidi, artificialartificiale heartscuori.
159
526000
2000
steroidi anabolizzanti, cuori artificiali.
09:12
It's a prettybella patheticpatetico listelenco.
160
528000
3000
E' una lista piuttosto patetica.
09:15
They do great things for a fewpochi people
161
531000
2000
Fanno cose magnifiche per un numero limitato di persone
09:17
who suffersoffrire from some specificspecifica conditioncondizione,
162
533000
2000
con problemi specifici.
09:19
but for mostmaggior parte people, they don't really transformtrasformare
163
535000
5000
Ma per la maggior parte della gente non trasformano davvero
09:24
what it is to be humanumano.
164
540000
2000
ciò che è l' essere umano.
09:26
And they alsoanche all seemsembrare a little bitpo --
165
542000
2000
E sembrano anche un po' --
09:28
mostmaggior parte people have this instinctistinto that, well, sure,
166
544000
3000
la maggior parte della gente ha questa sensazione istintiva che, certo,
09:31
there needsesigenze to be anti-depressantsantidepressivi for the really depresseddepresso people.
167
547000
2000
c'è bisogno di antidepressivi per le persone che sono davvero depresse.
09:33
But there's a kindgenere of queasinessnausea
168
549000
2000
Ma c'è una certa sensazione di disgusto
09:35
that these are unnaturalinnaturale in some way.
169
551000
3000
perché sono in qualche modo innaturali.
09:38
It's worthdi valore recallingrievocazione that there are a lot of other
170
554000
2000
Va ricordato che ci sono molte altre
09:40
modificationmodifica technologiestecnologie and enhancementaumento technologiestecnologie that we use.
171
556000
3000
tecnologie per la modificazione ed il potenziamento umano che noi usiamo.
09:43
We have skinpelle enhancementsmiglioramenti, clothingcapi di abbigliamento.
172
559000
4000
Abbiamo tecnologie per il potenziamento della pelle, l' abbigliamento.
09:47
As farlontano as I can see, all of you are usersutenti of this
173
563000
4000
A quanto vedo, tutti voi in questa stanza usate questa
09:51
enhancementaumento technologytecnologia in this roomcamera, so that's a great thing.
174
567000
5000
tecnologia, e questa è una cosa fantastica.
09:56
MoodStato d'animo modifiersmodificatori have been used from time immemorialimmemorabile --
175
572000
3000
Modificatori di umore sono stati usati da tempo immemore --
09:59
caffeinecaffeina, alcoholalcool, nicotinenicotina, immuneimmune systemsistema enhancementaumento,
176
575000
5000
caffeina, alcol, nicotina, potenziatori del sistema immunitario,
10:04
visionvisione enhancementaumento, anestheticsanestetici --
177
580000
2000
potenziatori della visione, anestetici.
10:06
we take that very much for grantedconcesso,
178
582000
2000
Diamo tutto questo per scontato,
10:08
but just think about how great progressprogresso that is --
179
584000
4000
ma pensate a che immenso progresso è questo --
10:12
like, havingavendo an operationoperazione before anestheticsanestetici was not fundivertimento.
180
588000
4000
per dire, avere un' operazione prima degli anestetici non era uno spasso.
10:16
ContraceptivesContraccettivi, cosmeticscosmetici and braincervello reprogrammingriprogrammare techniquestecniche --
181
592000
6000
Contraccettivi, cosmetici e tecniche di riprogrammazione del cervello --
10:22
that soundssuoni ominousinfausto,
182
598000
2000
quest' ultima suona sinistra
10:24
but the distinctiondistinzione betweenfra what is a technologytecnologia --
183
600000
4000
Ma la distinzione tra ciò che è una tecnologia --
10:28
a gadgetaggeggio would be the archetypearchetipo --
184
604000
2000
un qualche tipo di dispositivo sarebbe l' archetipo
10:30
and other waysmodi of changingmutevole and rewritingriscrittura humanumano naturenatura is quiteabbastanza subtlesottile.
185
606000
4000
ed altri modi di cambiare e riscrivere la natura umana è piuttosto sottile.
10:34
So if you think about what it meanssi intende to learnimparare arithmeticaritmetica or to learnimparare to readleggere,
186
610000
4000
Per esempio, se pensate a cosa significhi imparare l' aritmetica o imparare a leggere,
10:38
you're actuallyin realtà, literallyletteralmente rewritingriscrittura your ownproprio braincervello.
187
614000
3000
state in realtà letteralmente riscrivendo il vostro cervello.
10:41
You're changingmutevole the microstructuremicrostruttura of your braincervello as you go alonglungo.
188
617000
3000
State cambiando la micro-struttura del vostro cervello mentre lo fate.
10:45
So in a broadampio sensesenso, we don't need to think about technologytecnologia
189
621000
3000
Quindi, in senso lato, non bisogna pensare alla tecnologia
10:48
as only little gadgetsgadget, like these things here,
190
624000
2000
come semplicemente a dei piccoli dispositivi, come queste cose qua.
10:50
but even institutionsistituzioni and techniquestecniche,
191
626000
4000
Ma pari a istituzioni e tecniche,
10:54
psychologicalpsicologico methodsmetodi and so forthvia.
192
630000
2000
metodi psicologici e così via.
10:56
FormsForme of organizationorganizzazione can have a profoundprofondo impacturto on humanumano naturenatura.
193
632000
5000
Le forme di organizzazione possono avere un impatto profondo sulla natura umana.
11:01
Looking aheadavanti, there is a rangegamma of technologiestecnologie
194
637000
2000
Guardando al futuro, c'è una serie di tecnologie
11:03
that are almostquasi certaincerto to be developedsviluppato soonerprima or laterdopo.
195
639000
3000
che verranno quasi certamente create, prima o poi.
11:06
We are very ignorantignorante about what the time scalescala for these things are,
196
642000
4000
Siamo molto ignoranti su quale sia la scala temporale per queste cose,
11:10
but they all are consistentcoerente with everything we know
197
646000
2000
ma sono tutte coerenti con tutto ciò che sappiamo
11:12
about physicalfisico lawslegislazione, lawslegislazione of chemistrychimica, etceccetera.
198
648000
4000
delle leggi fisiche, chimiche, eccetera.
11:16
It's possiblepossibile to assumeassumere,
199
652000
2000
E' possibile presumere che,
11:18
settingambientazione asidea parte a possibilitypossibilità of catastrophecatastrofe,
200
654000
3000
mettendo da parte la possibilità di una catastrofe,
11:21
that soonerprima or laterdopo we will developsviluppare all of these.
201
657000
3000
prima o poi svilupperemo tutte queste tecnologie.
11:24
And even just a couplecoppia of these would be enoughabbastanza
202
660000
3000
E perfino un paio di queste sarebbero sufficienti
11:27
to transformtrasformare the humanumano conditioncondizione.
203
663000
2000
a trasformare la condizione umana.
11:29
So let's look at some of the dimensionsdimensioni of humanumano naturenatura
204
665000
5000
Perciò diamo un' occhiata ad alcune dimensioni della natura umana
11:34
that seemsembrare to leavepartire roomcamera for improvementmiglioramento.
205
670000
3000
che sembrano lasciare spazio per dei miglioramenti.
11:37
HealthSalute spancampata is a biggrande and urgenturgente thing,
206
673000
2000
La durata della salute è una problema grande e urgente,
11:39
because if you're not alivevivo,
207
675000
2000
perché se uno non è in vita,
11:41
then all the other things will be to little availutilità.
208
677000
3000
allora tutto il resto gli è di poco beneficio.
11:44
IntellectualIntellettuale capacitycapacità -- let's take that boxscatola,
209
680000
2000
Capacità intellettive -- occupiamoci di quest' area,
11:46
whichquale fallscadute into a lot of differentdiverso sub-categoriessotto-categorie:
210
682000
5000
che comprende molte altre sottocategorie --
11:51
memorymemoria, concentrationconcentrazione, mentalmentale energyenergia, intelligenceintelligenza, empathyempatia.
211
687000
3000
memoria, concentrazione, energia mentale, intelligenza, empatia.
11:54
These are really great things.
212
690000
2000
Queste sono tutte cose fantastiche.
11:56
PartParte of the reasonragionare why we valuevalore these traitstratti
213
692000
2000
Parte della ragione per la quale diamo valore a questi aspetti
11:58
is that they make us better at competingcompetere with other people --
214
694000
4000
è che ci rendono migliori nel competere con altre persone --
12:02
they're positionalposizionale goodsmerce.
215
698000
2000
sono beni posizionali.
12:04
But partparte of the reasonragionare --
216
700000
2000
Ma parte della ragione --
12:06
and that's the reasonragionare why we have ethicaletico groundterra for pursuingperseguendo these --
217
702000
4000
e questo è il motivo per cui abbiamo una base etica per perseguirli --
12:10
is that they're alsoanche intrinsicallyintrinsecamente valuableprezioso.
218
706000
3000
è che hanno valore intrinseco.
12:13
It's just better to be ablecapace to understandcapire more of the worldmondo around you
219
709000
4000
E' semplicemente meglio essere in grado di capire di più del mondo che ci circonda
12:17
and the people that you are communicatingcomunicare with,
220
713000
2000
e delle persone con cui comunichiamo,
12:19
and to rememberricorda what you have learnedimparato.
221
715000
4000
e ricordarci ciò che abbiamo imparato.
12:23
ModalitiesModalità and specialspeciale facultiesfacoltà.
222
719000
2000
Modalità e facoltà speciali.
12:25
Now, the humanumano mindmente is not a singlesingolo unitaryunitario informationinformazione processorprocessore,
223
721000
5000
Dunque, la mente umana non è un singolo processore unitario di informazioni,
12:30
but it has a lot of differentdiverso, specialspeciale, evolvedevoluto modulesmoduli
224
726000
4000
ha molti moduli differenti, specializzati ed evoluti,
12:34
that do specificspecifica things for us.
225
730000
2000
che svolgono per noi compiti specifici.
12:36
If you think about what we normallynormalmente take as givingdando life a lot of its meaningsenso --
226
732000
4000
Se pensate a cosa normalmente riteniamo dare alla vita molto del suo significato --
12:40
musicmusica, humorumorismo, eroticismerotismo, spiritualityspiritualità, aestheticsestetica,
227
736000
4000
musica, umorismo, erotismo, spiritualità, estetica,
12:44
nurturingnutrimento and caringcura, gossippettegolezzo, chattingchat with people --
228
740000
5000
coltivare e prendersi cura degli altri, gossip, chiacchierare con la gente.
12:49
all of these, very likelyprobabile, are enabledabilitato by a specialspeciale circuitrycircuiteria
229
745000
4000
Tutte queste cose, molto probabilmente, sono rese possibili da un circuito speciale
12:53
that we humansgli esseri umani have,
230
749000
2000
che noi umani abbiamo,
12:55
but that you could have anotherun altro intelligentintelligente life formmodulo that lacksmanca these.
231
751000
3000
ma che un' altra forma di vita intelligente potrebbe non avere.
12:58
We're just luckyfortunato that we have the requisiterequisito neuralneurale machinerymacchinario
232
754000
3000
Siamo semplicemente fortunati ad avere il macchinario neurologico necessario
13:01
to processprocesso musicmusica and to appreciateapprezzare it and enjoygodere it.
233
757000
4000
a elaborare la musica, ad apprezzarla e a goderla.
13:05
All of these would enableabilitare, in principleprincipio -- be amenabledocile to enhancementaumento.
234
761000
3000
Tutti questi potrebbero, in teoria, essere potenziati.
13:08
Some people have a better musicalmusicale abilitycapacità
235
764000
2000
Alcune persone hanno un' abilità musicale
13:10
and abilitycapacità to appreciateapprezzare musicmusica than othersaltri have.
236
766000
2000
e una capacità di apprezzare la musica migliore di altre.
13:12
It's alsoanche interestinginteressante to think about what other things are --
237
768000
3000
E' anche interessante pensare a cos' altro ci sia --
13:15
so if these all enabledabilitato great valuesvalori,
238
771000
3000
se queste capacità ci hanno permesso di apprezzare grandi valori
13:19
why should we think that evolutionEvoluzione has happenedè accaduto to providefornire us
239
775000
3000
perché dovremmo pensare che l' evoluzione ci abbia fornito
13:22
with all the modalitiesmodalità we would need to engageimpegnare
240
778000
3000
tutte le modalità necessarie ad entrare in contatto
13:25
with other valuesvalori that there mightpotrebbe be?
241
781000
2000
con altri valori che potrebbero esistere?
13:27
ImagineImmaginate a speciesspecie
242
783000
2000
Immaginate una specie
13:29
that just didn't have this neuralneurale machinerymacchinario for processinglavorazione musicmusica.
243
785000
4000
che semplicemente non ha questo macchinario neurologico per elaborare la musica.
13:33
And they would just starefissare at us with bafflementbafflement
244
789000
3000
Ci guarderebbero sbalorditi
13:36
when we spendtrascorrere time listeningascoltando to a beautifulbellissimo performanceprestazione,
245
792000
4000
quando passiamo del tempo ascoltando una fantastica esibizione
13:40
like the one we just heardsentito -- because of people makingfabbricazione stupidstupido movementsmovimenti,
246
796000
2000
come quella che abbiamo appena ascoltato -- perché la gente fa movimenti stupidi.
13:42
and they would be really irritatedirritata and wouldn'tno see what we were up to.
247
798000
3000
E si irriterebbero molto e non capirebbero cosa stiamo facendo.
13:45
But maybe they have anotherun altro facultyfacoltà, something elsealtro
248
801000
3000
Ma magari loro hanno un' altra facoltà, qualcosa di diverso
13:48
that would seemsembrare equallyugualmente irrationalirrazionale to us,
249
804000
3000
che sembrerebbe a noi ugualmente irrazionale
13:51
but they actuallyin realtà taprubinetto into some great possiblepossibile valuevalore there.
250
807000
3000
mentre loro entrano davvero in contatto con qualche grande valore in quel modo.
13:54
But we are just literallyletteralmente deafsordo to that kindgenere of valuevalore.
251
810000
4000
Noi siamo semplicemente sordi a quel tipo di valore.
13:58
So we could think of addingaggiungendo on differentdiverso,
252
814000
2000
Allora potremmo pensare di aggiungere diverse,
14:00
newnuovo sensorysensoriale capacitiescapacità and mentalmentale facultiesfacoltà.
253
816000
4000
nuove capacità sensoriali e facoltà mentali.
14:04
BodilyCorporei functionalityfunzionalità and morphologymorfologia and affectiveaffettivo self-controlautocontrollo.
254
820000
5000
Funzionalità corporea, morfologia ed autocontrollo emotivo.
14:09
GreaterUna maggiore subjectivesoggettivo well-beingbenessere.
255
825000
2000
Maggiore benessere personale.
14:11
Be ablecapace to switchinterruttore betweenfra relaxationrilassamento and activityattività --
256
827000
3000
L' abilità di passare volontariamente dal rilassamento all' attività --
14:14
beingessere ablecapace to go slowlento when you need to do that, and to speedvelocità up.
257
830000
4000
essere capaci di rallentare ed accelerare quando c'è ne bisogno.
14:18
AbleIn grado to switchinterruttore back and forthvia more easilyfacilmente
258
834000
2000
Essere capaci di andare avanti e indietro più facilmente
14:20
would be a neatpulito thing to be ablecapace to do --
259
836000
2000
sarebbe una bella cosa da poter fare --
14:22
easierPiù facile to achieveraggiungere the flowflusso statestato,
260
838000
2000
è più facile raggiungere uno stato ottimale
14:24
when you're totallytotalmente immersedimmersa in something you are doing.
261
840000
4000
quando si è completamente immersi in ciò che si sta facendo.
14:28
ConscientiousnessCoscienziosità and sympathysimpatia.
262
844000
2000
Coscienza e simpatia.
14:30
The abilitycapacità to -- it's anotherun altro interestinginteressante applicationapplicazione
263
846000
3000
L' abilità di -- c'è un' altra applicazione interessante
14:33
that would have largegrande socialsociale ramificationramificazione, perhapsForse.
264
849000
3000
che avrebbe vaste ramificazioni per quanto riguarda i problemi sociali.
14:36
If you could actuallyin realtà choosescegliere to preserveconserva your romanticromantico attachmentsallegati to one personpersona,
265
852000
6000
Se poteste scegliere di preservare il vostro attaccamento romantico nei confronti di una persona
14:42
undiminishedimmutata throughattraverso time,
266
858000
2000
senza che diminuisca nel tempo,
14:44
so that wouldn'tno have to -- love would never have to fadedissolvenza if you didn't want it to.
267
860000
3000
cosicché non debba -- l' amore non si affievolirebbe mai se non voleste che accada.
14:49
That's probablyprobabilmente not all that difficultdifficile.
268
865000
3000
Probabilmente non è molto difficile.
14:52
It mightpotrebbe just be a simplesemplice hormoneormone or something that could do this.
269
868000
3000
Potrebbe essere un semplice ormone o qualcosa in grado di farlo.
14:57
It's been donefatto in volesarvicole.
270
873000
2000
E' stato fatto con le arvicole.
15:01
You can engineeringegnere a prairieprateria volevole to becomediventare monogamousmonogamo
271
877000
3000
E' possibile rendere monogama un' arvicola delle praterie con la modificazione genetica.
15:04
when it's naturallynaturalmente polygamouspoligamo.
272
880000
2000
nonostante sia normalmente poligama.
15:06
It's just a singlesingolo genegene.
273
882000
2000
E' un singolo gene.
15:08
MightPotrebbe be more complicatedcomplicato in humansgli esseri umani, but perhapsForse not that much.
274
884000
2000
Potrebbe essere più complicato negli esseri umani, ma forse non poi così tanto.
15:10
This is the last pictureimmagine that I want to --
275
886000
2000
Questa è l' ultima immagine che vi voglio --
15:13
now we'venoi abbiamo got to use the laserlaser pointerpointer.
276
889000
2000
ora devo usare l' indicatore laser.
15:16
A possiblepossibile modemodalità of beingessere here would be a way of life --
277
892000
3000
Un possibile modo, in quest' area, sarebbe un modo di vita --
15:19
a way of beingessere, experiencingsperimentare, thinkingpensiero, seeingvedendo,
278
895000
4000
un modo di essere, percepire, pensare, vedere,
15:23
interactinginteragendo with the worldmondo.
279
899000
2000
interagire con il mondo.
15:25
Down here in this little cornerangolo, here, we have the little sub-spacesub-space
280
901000
5000
Qui sotto in questo angolino, qua, abbiamo il piccolo sottoinsieme
15:30
of this largerpiù grandi spacespazio that is accessibleaccessibile to humanumano beingsesseri --
281
906000
4000
di questo ampio spazio che è accessibile agli esseri umani --
15:34
beingsesseri with our biologicalbiologico capacitiescapacità.
282
910000
3000
esseri con le nostre capacità biologiche.
15:37
It's a partparte of the spacespazio that's accessibleaccessibile to animalsanimali;
283
913000
3000
E' una parte dello spazio accessibile agli animali --
15:40
sinceda we are animalsanimali, we are a subsetsottoinsieme of that.
284
916000
3000
dal momento che siamo animali, siamo un sottoinsieme di questo.
15:43
And then you can imagineimmaginare some enhancementsmiglioramenti of humanumano capacitiescapacità.
285
919000
4000
E poi potete immaginare certi potenziamenti delle capacità umane.
15:47
There would be differentdiverso modesmodalità of beingessere you could experienceEsperienza
286
923000
3000
Ci sarebbero modi di essere diversi di cui potreste fare esperienza
15:50
if you were ablecapace to stayrestare alivevivo for, say, 200 yearsanni.
287
926000
3000
se foste in grado di rimanere in vita per, diciamo, 200 anni.
15:53
Then you could livevivere sortstipi of livesvite and accumulateaccumulare wisdomssaggezze
288
929000
4000
Allora potreste vivere tipi di vite e accumulare conscenze
15:57
that are just not possiblepossibile for humansgli esseri umani as we currentlyattualmente are.
289
933000
3000
che sono semplicemente impossibili per gli esseri umani allo stato attuale.
16:00
So then, you movemossa off to this largerpiù grandi spheresfera of "humanumano +,"
290
936000
4000
Allora ci spostiamo su questa sfera più larga degli umani plus,
16:04
and you could continueContinua that processprocesso and eventuallyinfine
291
940000
3000
e potreste continuare il processo ed eventualmente
16:07
exploreEsplorare a lot of this largerpiù grandi spacespazio of possiblepossibile modesmodalità of beingessere.
292
943000
4000
esplorare una grande parte di questo spazio più ampio di possibili stati d' essere.
16:11
Now, why is that a good thing to do?
293
947000
2000
Ora, perché questa è una buona cosa da fare?
16:13
Well, we know alreadygià that in this little humanumano circlecerchio there,
294
949000
4000
Bene, sappiamo già che in questo piccolo cerchio umano qui,
16:17
there are these enormouslyenormemente wonderfulmeraviglioso and worthwhileutile modesmodalità of beingessere --
295
953000
4000
si trovano modi d' essere meravigliosi e degni di essere provati --
16:21
humanumano life at its bestmigliore is wonderfulmeraviglioso.
296
957000
3000
la vita umana al suo meglio è meravigliosa.
16:24
We have no reasonragionare to believe that withinentro this much, much largerpiù grandi spacespazio
297
960000
5000
Non c'è motivo di credere che anche all' interno di questo spazio molto più ampio
16:29
there would not alsoanche be extremelyestremamente worthwhileutile modesmodalità of beingessere,
298
965000
4000
non ci siano modi d' essere di estremo valore.
16:33
perhapsForse onesquelli that would be way beyondal di là our wildestpiù selvaggia abilitycapacità
299
969000
6000
Forse alcuni sarebbero al di là perfino della nostra più sfrenata capacità
16:39
even to imagineimmaginare or dreamsognare about.
300
975000
2000
di immaginazione, al di là dei nostri sogni.
16:41
And so, to fixfissare this thirdterzo problemproblema,
301
977000
2000
Perciò, per risolvere questo terzo problema,
16:43
I think we need -- slowlylentamente, carefullyaccuratamente, with ethicaletico wisdomsaggezza and constraintcostrizione --
302
979000
6000
penso ci sia bisogno -- lentamente, con attenzione e con intelligenza e limiti etici --
16:49
developsviluppare the meanssi intende that enableabilitare us to go out in this largerpiù grandi spacespazio and exploreEsplorare it
303
985000
5000
di sviluppare i mezzi che ci mettano in grado di uscire in questo spazio più ampio ed esplorarlo.
16:54
and find the great valuesvalori that mightpotrebbe hidenascondere there.
304
990000
2000
E trovare i grandi valori che vi si potrebbero nascondere.
16:56
ThanksGrazie.
305
992000
2000
Grazie.
Translated by Francesco Bosso
Reviewed by Marina Macchia

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com