ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Co se stane, až budou počítače chytřejší než my?

Filmed:
4,632,705 views

Umělá inteligence je stále lepší a chytřejší – v průběhu tohoto století, jak naznačují výzkumy, by počítačová umělá inteligence mohla být stejně chytrá jako lidská bytost. A pak, říká Nick Bostrom, nás předstihne: „Strojová inteligence je posledním vynálezem lidstva, který kdy bude třeba vytvořit." Coby filozof a transhumanista nás Bostrom nabádá k vážnému zamyšlení nad světem, který vytváříme, a který bude řízen myslícími stroji. Pomohou nám chytré stroje zachovat lidstvo a s ním spojené hodnoty – anebo budou uznávat své vlastní hodnoty?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchchomáč of mathematiciansmatematiků,
philosophersfilozofové and computerpočítač scientistsvědců,
0
570
4207
Spolupracuji s matematiky,
filozofy a informatiky,
00:16
and we sitsedět around and think about
the futurebudoucnost of machinestroj intelligenceinteligence,
1
4777
5209
se kterými přemýšlíme nad
budoucností strojové inteligence
00:21
amongmezi other things.
2
9986
2044
a dalšími otázkami.
00:24
Some people think that some of these
things are sorttřídění of scienceVěda fiction-ybeletrie y,
3
12030
4725
Někteří lidé si myslí, že jde o věci
patřící do science-fiction,
00:28
fardaleko out there, crazyšílený.
4
16755
3101
tedy vzdálené a bláznivé.
00:31
But I like to say,
5
19856
1470
Na to jim ale rád odpovídám,
00:33
okay, let's look at the modernmoderní
humančlověk conditionstav.
6
21326
3604
fajn, tak se podívejte
na moderního člověka.
00:36
(LaughterSmích)
7
24930
1692
(Smích)
00:38
This is the normalnormální way for things to be.
8
26622
2402
Tohle je dnes běžný stav věcí.
00:41
But if we think about it,
9
29024
2285
Když se nad tím ale zamyslíme,
00:43
we are actuallyvlastně recentlynedávno arrivedpřišel
guestsHosté on this planetplaneta,
10
31309
3293
jako lidský druh
jsme ve skutečnosti teprve
00:46
the humančlověk speciesdruh.
11
34602
2082
nedávnými hosty na této planetě.
00:48
Think about if EarthZemě
was createdvytvořeno one yearrok agopřed,
12
36684
4746
Představíme-li si,
že Země vznikla před rokem,
00:53
the humančlověk speciesdruh, then,
would be 10 minutesminut oldstarý.
13
41430
3548
bude lidský druh starý pouhých 10 minut.
00:56
The industrialprůmyslový eraéra startedzačal
two secondssekundy agopřed.
14
44978
3168
Průmyslová éra začala
před dvěma sekundami.
01:01
AnotherDalší way to look at this is to think of
worldsvět GDPHDP over the last 10,000 yearsroky,
15
49276
5225
Anebo se podívejme na vývoj
světového HDP za posledních 10 tisíc let.
01:06
I've actuallyvlastně takenpřijat the troubleproblémy
to plotspiknutí this for you in a graphgraf.
16
54501
3029
Dal jsem si takovou práci,
že jsem vám jej zpracoval do grafu.
01:09
It looksvzhled like this.
17
57530
1774
Vypadá takhle.
01:11
(LaughterSmích)
18
59304
1363
(Smích)
01:12
It's a curiouszvědavý shapetvar
for a normalnormální conditionstav.
19
60667
2151
Jde o podivný tvar pro běžné podmínky.
01:14
I sure wouldn'tby ne want to sitsedět on it.
20
62818
1698
Nechtěl bych na něm sedět.
01:16
(LaughterSmích)
21
64516
2551
(Smích)
01:19
Let's askdotázat se ourselvessebe, what is the causezpůsobit
of this currentaktuální anomalyanomálie?
22
67067
4774
Zeptejme se sami sebe,
co je příčinou tohoto výkyvu?
01:23
Some people would say it's technologytechnika.
23
71841
2552
Někteří lidé by odpověděli, že technika.
01:26
Now it's trueskutečný, technologytechnika has accumulatednahromaděné
throughpřes humančlověk historydějiny,
24
74393
4668
To je pravda, technika se během
lidských dějin nahromadila
01:31
and right now, technologytechnika
advanceszálohy extremelyvelmi rapidlyrychle --
25
79061
4652
a v současnosti se vyvíjí extrémně rychle.
01:35
that is the proximatebezprostřední causezpůsobit,
26
83713
1565
Je v tom příčinná souvislost.
01:37
that's why we are currentlyv současné době
so very productivevýrobní.
27
85278
2565
Proto jsme nyní tak produktivní.
01:40
But I like to think back furtherdále
to the ultimatekonečný causezpůsobit.
28
88473
3661
Já bych se ale rád vrátil
k pravé příčině zpět do minulosti.
01:45
Look at these two highlyvysoce
distinguishedrozlišoval gentlemenPánové:
29
93114
3766
Podívejme se na tyto
mimořádně ctihodné gentlemany:
01:48
We have KanziKanzi --
30
96880
1600
tohle je Kanzi –
01:50
he's masteredzvládl 200 lexicallexikální
tokenstokeny, an incredibleneuvěřitelný featvýkon.
31
98480
4643
ovládl 200 různých znaků,
fantastický výkon.
01:55
And EdEd WittenWitten unleashedUnleashed the seconddruhý
superstringsuperstrun revolutionrevoluce.
32
103123
3694
A Ed Witten spustil druhou
superstrunovou revoluci.
01:58
If we look underpod the hooddigestoř,
this is what we find:
33
106817
2324
Podíváme-li se pod pokličku,
nalezneme tohle:
02:01
basicallyv podstatě the samestejný thing.
34
109141
1570
v podstatě jednu a tutéž věc.
02:02
One is a little largervětší,
35
110711
1813
Jedna je jen trochu větší
02:04
it maybe alsotaké has a fewpár trickstriky
in the exactpřesný way it's wiredkabelové.
36
112524
2758
a možná má pár vylepšení
ve svých zapojeních.
02:07
These invisibleneviditelný differencesrozdíly cannotnemůže
be too complicatedsložitý, howevernicméně,
37
115282
3812
Ale tyto neviditelné rozdíly
nemohou být příliš komplikované,
02:11
because there have only
been 250,000 generationsgenerací
38
119094
4285
protože od doby našeho
nejbližšího společného předka
02:15
sinceod té doby our last commonběžný ancestorpředchůdce.
39
123379
1732
uplynulo pouze 250 tisíc generací.
02:17
We know that complicatedsložitý mechanismsmechanismy
take a long time to evolverozvíjet se.
40
125111
3849
Víme, že složitější mechanismy potřebují
ke svému vývoji delší dobu.
02:22
So a bunchchomáč of relativelypoměrně minormenší changesZměny
41
130000
2499
Takže skupina relativně malých změn
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
nás od Kanziho přenesla k Wittenovi,
02:27
from broken-offzlomený treestrom branchespobočky
to intercontinentalmezikontinentální ballisticbalistický missilesrakety.
43
135566
4543
od prolézání větvovím stromů
k mezikontinentálním balistickým střelám.
02:32
So this then seemszdá se prettydosti obviouszřejmé
that everything we'vejsme achieveddosaženo,
44
140839
3935
Takže se zdá být zřejmé,
že vše, čeho jsme dosáhli,
02:36
and everything we carepéče about,
45
144774
1378
a vše, co nás zajímá,
02:38
dependszávisí cruciallyzásadně on some relativelypoměrně minormenší
changesZměny that madevyrobeno the humančlověk mindmysl.
46
146152
5228
zásadně závisí na relativně malých
změnách, které vytvořily lidskou mysl.
02:44
And the corollarydůsledkem, of coursechod,
is that any furtherdále changesZměny
47
152650
3662
Důsledkem toho je samozřejmě to,
že jakékoli další změny,
02:48
that could significantlyvýznamně changezměna
the substratePodklad of thinkingmyslící
48
156312
3477
které výrazně změní
substrát našeho myšlení,
02:51
could have potentiallypotenciálně
enormousobrovský consequencesdůsledky.
49
159789
3202
mohou mít potenciálně mimořádné důsledky.
02:56
Some of my colleagueskolegy
think we're on the vergehranice
50
164321
2905
Někteří z mých kolegů si myslí,
že jsme na okraji něčeho,
02:59
of something that could causezpůsobit
a profoundhluboký changezměna in that substratePodklad,
51
167226
3908
co může přivodit podstatnou
změnu tohoto substrátu.
03:03
and that is machinestroj superintelligencesuperinteligence.
52
171134
3213
Jde o strojovou superinteligenci.
03:06
ArtificialUmělé intelligenceinteligence used to be
about puttinguvedení commandspříkazy in a boxbox.
53
174347
4739
Umělá inteligence bývala
o zadávání příkazů do krabičky.
03:11
You would have humančlověk programmersprogramátory
54
179086
1665
Museli jste mít
lidské programátory,
03:12
that would painstakinglypečlivě
handcraftřemeslníci knowledgeznalost itemspoložek.
55
180751
3135
kteří ručně vytvářeli databáze znalostí.
03:15
You buildstavět up these expertexpert systemssystémy,
56
183886
2086
Získali jste tím expertní systémy,
03:17
and they were kinddruh of usefulužitečný
for some purposesúčely,
57
185972
2324
které byly užitečné pro určité úkoly,
03:20
but they were very brittlekřehký,
you couldn'tnemohl scaleměřítko them.
58
188296
2681
ale byly dost nevhodné
pro nějaké výraznější rozšíření.
03:22
BasicallyV podstatě, you got out only
what you put in.
59
190977
3433
V podstatě jste z nich dostali jen to,
co jste do nich vložili.
03:26
But sinceod té doby then,
60
194410
997
Ale od té doby
03:27
a paradigmparadigma shiftposun has takenpřijat placemísto
in the fieldpole of artificialumělý intelligenceinteligence.
61
195407
3467
došlo na poli umělé inteligence
ke změně paradigmatu.
03:30
TodayDnes, the actionakce is really
around machinestroj learningučení se.
62
198874
2770
Dnes se vše děje kolem strojového učení.
03:34
So ratherspíše than handcraftinghandcrafting knowledgeznalost
representationsreprezentace and featuresfunkce,
63
202394
5387
Takže namísto ručního vytváření
databází znalostí,
03:40
we createvytvořit algorithmsalgoritmy that learnUčit se,
oftenčasto from rawdrsný perceptualperceptuální datadata.
64
208511
5554
vytváříme algoritmy, které se samy učí,
často z velmi hrubých a neurčitých dat.
03:46
BasicallyV podstatě the samestejný thing
that the humančlověk infantdítě does.
65
214065
4998
V podstatě dělají stejnou věc
jako lidské miminko.
03:51
The resultvýsledek is A.I. that is not
limitedomezený to one domaindoména --
66
219063
4207
Výsledkem je umělá inteligence,
která není omezena jednou oblastí:
03:55
the samestejný systemSystém can learnUčit se to translatepřeložit
betweenmezi any pairspáry of languagesjazyků,
67
223270
4631
tentýž systém se může naučit
překládat z jednoho jazyka do druhého
03:59
or learnUčit se to playhrát si any computerpočítač gamehra
on the AtariAtari consolekonzole.
68
227901
5437
nebo se může naučit hrát
jakoukoli hru na konzoli Atari.
04:05
Now of coursechod,
69
233338
1779
Samozřejmě
04:07
A.I. is still nowherenikde nearu havingmít
the samestejný powerfulsilný, cross-domainmezi doménami
70
235117
3999
umělá inteligence nedosahuje stejných
výsledků co se týče schopností učit se
04:11
abilityschopnost to learnUčit se and planplán
as a humančlověk beingbytost has.
71
239116
3219
napříč různými oblastmi a plánovat,
jako dokáže člověk.
04:14
The cortexkůra still has some
algorithmicalgoritmické trickstriky
72
242335
2126
Mozková kůra má pořád v rukávu
pár algoritmických
04:16
that we don't yetdosud know
how to matchzápas in machinesstrojů.
73
244461
2355
triků, které zatím neumíme
u strojů vytvořit.
04:19
So the questionotázka is,
74
247886
1899
Otázkou je,
04:21
how fardaleko are we from beingbytost ableschopný
to matchzápas those trickstriky?
75
249785
3500
jak daleko jsme od toho,
kdy se nám je vytvořit podaří?
04:26
A couplepár of yearsroky agopřed,
76
254245
1083
Před pár lety
04:27
we did a surveyprůzkum of some of the world'sna světě
leadingvedoucí A.I. expertsOdborníci,
77
255328
2888
jsme udělali průzkum mezi
experty na umělou inteligenci,
04:30
to see what they think,
and one of the questionsotázky we askedzeptal se was,
78
258216
3224
abychom věděli, co si oni myslí,
a jedna z položených otázek zněla:
04:33
"By whichkterý yearrok do you think
there is a 50 percentprocent probabilitypravděpodobnost
79
261440
3353
„V jakém roce si myslíte,
že bude 50% pravděpodobnost,
04:36
that we will have achieveddosaženo
human-levelúroveň lidské machinestroj intelligenceinteligence?"
80
264793
3482
že u strojů dosáhneme inteligence
srovnatelné s lidskou?"
04:40
We defineddefinované human-levelúroveň lidské here
as the abilityschopnost to performprovést
81
268785
4183
Lidskou inteligenci jsme definovali
jako schopnost provádět téměř jakoukoli
04:44
almosttéměř any jobpráce at leastnejméně as well
as an adultdospělý humančlověk,
82
272968
2871
práci přinejmenším takovým způsobem
jako dospělý člověk,
04:47
so realnemovitý human-levelúroveň lidské, not just
withinv rámci some limitedomezený domaindoména.
83
275839
4005
takže jsme nevytvářeli nějaká omezení.
04:51
And the medianmedián answerOdpovědět was 2040 or 2050,
84
279844
3650
Nejčastější odpověď byla 2040 a 2050,
04:55
dependingzávisí on preciselypřesně whichkterý
groupskupina of expertsOdborníci we askedzeptal se.
85
283494
2806
v závislosti na tom,
jaké skupiny jsme se zeptali.
04:58
Now, it could happenpřihodit se much,
much laterpozději, or soonerdříve,
86
286300
4039
Může k tomu dojít mnohem později
nebo mnohem dříve,
05:02
the truthpravda is nobodynikdo really knows.
87
290339
1940
pravdou je, že to nikdo doopravdy neví.
05:05
What we do know is that the ultimatekonečný
limitomezit to informationinformace processingzpracovává se
88
293259
4412
Co ale víme, je, že nejzazší hranice
pro zpracování informací leží
05:09
in a machinestroj substratePodklad lieslži fardaleko outsidemimo
the limitslimity in biologicalbiologický tissuetkáň.
89
297671
4871
u strojových substrátů daleko
za hranicemi biologických tkání.
05:15
This comespřijde down to physicsfyzika.
90
303241
2378
Vysvětlení nám dává fyzika.
05:17
A biologicalbiologický neuronneuron firespožáry, maybe,
at 200 hertzHertz, 200 timesčasy a seconddruhý.
91
305619
4718
Biologický neuron má frekvenci okolo
200 Hz, je aktivní 200krát za sekundu.
05:22
But even a present-daydnešní den transistortranzistor
operatesfunguje at the GigahertzGigahertz.
92
310337
3594
Ale už dnešní tranzistory pracují
na gigahertzových frekvencích.
05:25
NeuronsNeurony propagatešířit slowlypomalu in axonsAxony,
100 metersmetrů perza seconddruhý, topsMikiny a trička.
93
313931
5297
Signál se v axonu neuronů šíří pomalu,
maximálně 100 metrů za sekundu.
05:31
But in computerspočítačů, signalssignály can travelcestovat
at the speedRychlost of lightsvětlo.
94
319228
3111
V počítačích může ale signál
cestovat rychlostí světla.
05:35
There are alsotaké sizevelikost limitationsomezení,
95
323079
1869
A existují i prostorová omezení,
05:36
like a humančlověk brainmozek has
to fitvejít se insideuvnitř a craniumLebka,
96
324948
3027
lidský mozek se musí vejít do lebky,
05:39
but a computerpočítač can be the sizevelikost
of a warehousesklad or largervětší.
97
327975
4761
ale počítač může být velký jako skladiště
nebo i větší.
05:44
So the potentialpotenciál for superintelligencesuperinteligence
lieslži dormantspící in matterhmota,
98
332736
5599
Takže potenciál pro superinteligenci
zatím tiše spočívá v hmotě,
05:50
much like the powerNapájení of the atomatom
laypoložit dormantspící throughoutpo celou dobu humančlověk historydějiny,
99
338335
5712
podobně jako tam spočívala síla atomu
05:56
patientlytrpělivě waitingčekání there untilaž do 1945.
100
344047
4405
až do roku 1945.
06:00
In this centurystoletí,
101
348452
1248
V tomto století
06:01
scientistsvědců maysmět learnUčit se to awakenprobudit
the powerNapájení of artificialumělý intelligenceinteligence.
102
349700
4118
se mohou vědci naučit,
jak probudit sílu umělé inteligence.
06:05
And I think we mightmohl then see
an intelligenceinteligence explosionexploze.
103
353818
4008
A myslím,
že pak uvidíme explozi inteligence.
06:10
Now mostvětšina people, when they think
about what is smartchytrý and what is dumbněmý,
104
358406
3957
Dnes většina lidí, když přemýšlí o tom,
co je chytré a co hloupé,
06:14
I think have in mindmysl a pictureobrázek
roughlyzhruba like this.
105
362363
3023
má na mysli situaci jako je tato.
06:17
So at one endkonec we have the villagevesnice idiotidiot,
106
365386
2598
Takže na jedné straně
máme vesnického idiota,
06:19
and then fardaleko over at the other sideboční
107
367984
2483
a na opačném konci
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverkdokoliv your favoriteoblíbený guruguru is.
108
370467
4756
máme Eda Wittena nebo Alberta Einsteina
nebo si doplňte svého oblíbence.
06:27
But I think that from the pointbod of viewPohled
of artificialumělý intelligenceinteligence,
109
375223
3834
Myslím ale,
že z pohledu umělé inteligence
06:31
the trueskutečný pictureobrázek is actuallyvlastně
probablypravděpodobně more like this:
110
379057
3681
vypadá skutečná situace spíše jako toto:
06:35
AIAI startszačíná out at this pointbod here,
at zeronula intelligenceinteligence,
111
383258
3378
umělá inteligence začíná
v tomto bodě na nule,
06:38
and then, after manymnoho, manymnoho
yearsroky of really hardtvrdý work,
112
386636
3011
a pak po mnoha a mnoha letech tvrdé dřiny
06:41
maybe eventuallynakonec we get to
mouse-levelmyši úroveň artificialumělý intelligenceinteligence,
113
389647
3844
se dostáváme téměř
na úroveň inteligence myši,
06:45
something that can navigatenavigovat
clutteredpřeplněný environmentsprostředí
114
393491
2430
něčeho, co se dokáže orientovat
ve složitém prostředí,
06:47
as well as a mousemyš can.
115
395921
1987
jako to dokáže myš.
06:49
And then, after manymnoho, manymnoho more yearsroky
of really hardtvrdý work, lots of investmentinvestice,
116
397908
4313
A pak po mnoha a mnoha letech
další tvrdé dřiny, mnoha investicí,
06:54
maybe eventuallynakonec we get to
chimpanzee-levelšimpanz úroveň artificialumělý intelligenceinteligence.
117
402221
4639
možná dospějeme
na úroveň inteligence šimpanze.
06:58
And then, after even more yearsroky
of really, really hardtvrdý work,
118
406860
3210
A pak po ještě dalších letech tvrdé práce
07:02
we get to villagevesnice idiotidiot
artificialumělý intelligenceinteligence.
119
410070
2913
se dostaneme na úroveň vesnického idiota.
07:04
And a fewpár momentsokamžiky laterpozději,
we are beyondmimo EdEd WittenWitten.
120
412983
3272
Ale pak po pár okamžicích
jsme za úrovní Eda Wittena.
07:08
The trainvlak doesn't stop
at HumanvilleHumanville StationNádraží.
121
416255
2970
Vlak nezastavuje na Zastávce lidstvo.
07:11
It's likelypravděpodobně, ratherspíše, to swooshSwoosh right by.
122
419225
3022
Je pravděpodobnější, že jí prosviští.
07:14
Now this has profoundhluboký implicationsDopady,
123
422247
1984
Tohle má závažné implikace,
07:16
particularlyzejména when it comespřijde
to questionsotázky of powerNapájení.
124
424231
3862
obzvláště dojde-li na otázky moci.
07:20
For examplepříklad, chimpanzeesšimpanzi are strongsilný --
125
428093
1899
Kupříkladu šimpanzi jsou silní –
07:21
poundlibra for poundlibra, a chimpanzeešimpanz is about
twicedvakrát as strongsilný as a fitvejít se humančlověk malemužský.
126
429992
5222
v poměru ke své hmotnosti jsou zhruba
dvojnásobně silnější než dospělý muž.
07:27
And yetdosud, the fateosud of KanziKanzi
and his palskamarádi dependszávisí a lot more
127
435214
4614
Přesto osud Kanziho a jeho druhů
závisí mnohem více na tom,
07:31
on what we humanslidem do than on
what the chimpanzeesšimpanzi do themselvesoni sami.
128
439828
4140
co po nich chceme my,
a ne co chtějí sami šimpanzi.
07:37
OnceJednou there is superintelligencesuperinteligence,
129
445228
2314
Jakmile tu bude superinteligence,
07:39
the fateosud of humanitylidstvo maysmět dependzáviset
on what the superintelligencesuperinteligence does.
130
447542
3839
osud lidstva může záviset na tom,
co bude chtít superinteligence.
07:44
Think about it:
131
452451
1057
Zamyslete se nad tím.
07:45
MachineStroj intelligenceinteligence is the last inventionvynález
that humanitylidstvo will ever need to make.
132
453508
5044
Strojová inteligence je posledním
vynálezem, který je kdy třeba učinit.
07:50
MachinesStroje will then be better
at inventingvynalézání than we are,
133
458552
2973
Stroje poté budou
ve vynalézání lepší než my
07:53
and they'lloni budou be doing so
on digitaldigitální timescalestermíny.
134
461525
2540
a také budou pracovat digitální rychlostí.
07:56
What this meansprostředek is basicallyv podstatě
a telescopingTeleskopické of the futurebudoucnost.
135
464065
4901
To znamená, že nás přímo
katapultují do budoucnosti.
08:00
Think of all the crazyšílený technologiestechnologií
that you could have imaginedpředstavoval
136
468966
3558
Uvažte ty nejšílenější technologie,
které si jen dokážete představit,
08:04
maybe humanslidem could have developedrozvinutý
in the fullnessplnost of time:
137
472524
2798
a které by snad lidstvo
s dostatkem času někdy mohlo vytvořit:
08:07
curesléčí for agingstárnutí, spaceprostor colonizationkolonizace,
138
475322
3258
kúra proti stárnutí, obydlení vesmíru,
08:10
self-replicatingsamo-replikující se nanobotsNanoboti or uploadingodesílání
of mindsmysli into computerspočítačů,
139
478580
3731
samoreplikující se nanoroboti,
nahrávání mysli do počítače,
08:14
all kindsdruhy of scienceVěda fiction-ybeletrie y stuffvěci
140
482311
2159
všechny tyto věci ze science-fiction,
08:16
that's neverthelessnicméně consistentkonzistentní
with the lawszákony of physicsfyzika.
141
484470
2737
které nejsou v rozporu se zákony fyziky.
08:19
All of this superintelligencesuperinteligence could
developrozvíjet, and possiblymožná quitedocela rapidlyrychle.
142
487207
4212
Všechno toto by mohla superinteligence
vytvořit, zřejmě dost rychle.
08:24
Now, a superintelligencesuperinteligence with suchtakový
technologicaltechnologický maturitysplatnost
143
492449
3558
Superinteligence s takovou
technologickou vyspělostí
08:28
would be extremelyvelmi powerfulsilný,
144
496007
2179
by byla extrémně mocná.
08:30
and at leastnejméně in some scenariosscénáře,
it would be ableschopný to get what it wants.
145
498186
4546
A v některých případech by dostala,
co by si zamanula.
08:34
We would then have a futurebudoucnost that would
be shapedtvarovaná by the preferencesPředvolby of this A.I.
146
502732
5661
Naše budoucnost by tak byla utvářena
preferencemi této umělé inteligence.
08:41
Now a good questionotázka is,
what are those preferencesPředvolby?
147
509855
3749
Dobrou otázkou proto je,
jaké jsou tyto preference?
08:46
Here it getsdostane trickiersložitější.
148
514244
1769
To je komplikovaná otázka.
08:48
To make any headwayAngličtina with this,
149
516013
1435
Abychom mohli odpovědět,
08:49
we mustmusí first of all
avoidvyhýbat se anthropomorphizingantropomorfizování.
150
517448
3276
musíme se vyvarovat antropomorfizaci.
08:53
And this is ironicironické because
everykaždý newspapernoviny articlečlánek
151
521934
3301
A to je legrační,
protože každý článek v novinách
08:57
about the futurebudoucnost of A.I.
has a pictureobrázek of this:
152
525235
3855
o budoucnosti umělé inteligence
má obrázek jako je tento.
09:02
So I think what we need to do is
to conceiveotěhotnět of the issueproblém more abstractlyabstraktně,
153
530280
4134
Takže myslím, že musíme
téma uchopit abstraktněji,
09:06
not in termspodmínky of vividostré HollywoodHollywood scenariosscénáře.
154
534414
2790
a ne v pojmech hollywoodských scénářů.
09:09
We need to think of intelligenceinteligence
as an optimizationoptimalizace processproces,
155
537204
3617
Musíme o inteligenci uvažovat
jako o optimalizačním procesu,
09:12
a processproces that steersvolů the futurebudoucnost
into a particularkonkrétní setsoubor of configurationskonfigurací.
156
540821
5649
procesu, který řídí budoucnost
do mezí určitého nastavení.
09:18
A superintelligencesuperinteligence is
a really strongsilný optimizationoptimalizace processproces.
157
546470
3511
Superinteligence je velice
výkonný optimalizační proces.
09:21
It's extremelyvelmi good at usingpoužitím
availabledostupný meansprostředek to achievedosáhnout a stateStát
158
549981
4117
Je velice dobrá ve využívání
dostupných prostředků
09:26
in whichkterý its goalfotbalová branka is realizeduvědomil.
159
554098
1909
k dosažení vytčeného cíle.
09:28
This meansprostředek that there is no necessarynezbytné
conenctionpřipojení betweenmezi
160
556447
2672
To znamená, že neexistuje nutné spojení
09:31
beingbytost highlyvysoce intelligentinteligentní in this sensesmysl,
161
559119
2734
mezi vysokou inteligencí
09:33
and havingmít an objectiveobjektivní that we humanslidem
would find worthwhileužitečné or meaningfulsmysluplné.
162
561853
4662
a cílem, který bychom my lidé považovali
za hodnotný nebo smysluplný.
09:39
SupposePředpokládejme, že we give an A.I. the goalfotbalová branka
to make humanslidem smileusměj se.
163
567321
3794
Představte si, že dáme umělé inteligenci
úkol rozesmát lidi.
09:43
When the A.I. is weakslabý, it performsprovádí usefulužitečný
or amusingzábavný actionsakce
164
571115
2982
Když bude slabá, provede užitečné
nebo úsměvné úkony,
09:46
that causezpůsobit its useruživatel to smileusměj se.
165
574097
2517
aby své uživatele rozesmála.
09:48
When the A.I. becomesstává se superintelligentsuperinteligentními,
166
576614
2417
Když se stane superinteligentní,
09:51
it realizesuvědomuje si that there is a more
effectiveefektivní way to achievedosáhnout this goalfotbalová branka:
167
579031
3523
uvědomí si, že existuje efektivnější
způsob, jak toho dosáhnout:
09:54
take controlřízení of the worldsvět
168
582554
1922
převezme vládu nad světem
09:56
and sticklepit electrodeselektrod into the facialsperma v obličeji
musclessvaly of humanslidem
169
584476
3162
a strčí lidem
do obličejových svalů elektrody,
09:59
to causezpůsobit constantkonstantní, beamingzářil grinsCenění zubů.
170
587638
2941
čímž vytvoří neustálý úsměv na tváři.
10:02
AnotherDalší examplepříklad,
171
590579
1035
Jiný příklad,
10:03
supposepředpokládat we give A.I. the goalfotbalová branka to solveřešit
a difficultobtížný mathematicalmatematický problemproblém.
172
591614
3383
předpokládejme, že umělá inteligence
bude řešit složitý matematický problém.
10:06
When the A.I. becomesstává se superintelligentsuperinteligentními,
173
594997
1937
Když se stane superinteligentní,
10:08
it realizesuvědomuje si that the mostvětšina effectiveefektivní way
to get the solutionřešení to this problemproblém
174
596934
4171
uvědomí si, že nejefektivnější způsob,
jak se dopracovat výsledku,
10:13
is by transformingtransformace the planetplaneta
into a giantobří computerpočítač,
175
601105
2930
je přebudovat tuto planetu
do obrovského počítače,
10:16
so as to increasezvýšit its thinkingmyslící capacitykapacita.
176
604035
2246
aby zvýšila výpočetní kapacitu.
10:18
And noticeoznámení that this givesdává the A.I.s
an instrumentalinstrumentální reasondůvod
177
606281
2764
Všimne si, že toto jí dává pomocný důvod,
10:21
to do things to us that we
mightmohl not approveSchválit of.
178
609045
2516
aby dělala věci,
které bychom jí běžně nedovolili.
10:23
HumanLidské beingsbytosti in this modelmodel are threatshrozby,
179
611561
1935
Lidské bytosti jsou v této situaci hrozbou,
10:25
we could preventzabránit the mathematicalmatematický
problemproblém from beingbytost solvedvyřešeno.
180
613496
2921
která by jí mohla zabránit
ve vyřešení matematického problému.
10:29
Of coursechod, perceivablycitelně things won'tzvyklý
go wrongšpatně in these particularkonkrétní wayszpůsoby;
181
617207
3494
Samozřejmě by se věci zřejmě
nevyvíjely tímto způsobem,
10:32
these are cartoonkreslená pohádka examplespříklady.
182
620701
1753
jde o karikované příklady.
10:34
But the generalVšeobecné pointbod here is importantdůležité:
183
622454
1939
Ale obecné poučení je důležité:
10:36
if you createvytvořit a really powerfulsilný
optimizationoptimalizace processproces
184
624393
2873
pokud vytvoříte skutečně
výkonný optimalizační proces,
10:39
to maximizemaximalizovat for objectiveobjektivní x,
185
627266
2234
abyste co nejlépe vyřešili úkol X,
10:41
you better make sure
that your definitiondefinice of x
186
629500
2276
ujistěte se, že definice tohoto X
10:43
incorporateszahrnuje everything you carepéče about.
187
631776
2469
zahrnuje všechno, o co máte zájem.
10:46
This is a lessonlekce that's alsotaké taughtvyučován
in manymnoho a mythMýtus.
188
634835
4384
Je to lekce, kterou dávají i mnohé mýty.
10:51
KingKrál MidasMidas wishespřání that everything
he touchesdotýká se be turnedobrátil se into goldzlato.
189
639219
5298
Král Midas si přál, aby se všechno,
čeho se dotkne, proměnilo ve zlato.
10:56
He touchesdotýká se his daughterdcera,
she turnsotočí into goldzlato.
190
644517
2861
Dotkl se své dcery,
a ta se proměnila ve zlato.
10:59
He touchesdotýká se his foodjídlo, it turnsotočí into goldzlato.
191
647378
2553
Dotkl se jídla, to se proměnilo ve zlato.
11:01
This could becomestát practicallyprakticky relevantrelevantní,
192
649931
2589
Tohle může být relevantní
11:04
not just as a metaphormetafora for greedchamtivost,
193
652520
2070
nikoli jen jako metafora chamtivosti,
11:06
but as an illustrationilustrace of what happensse děje
194
654590
1895
ale také jako ilustrace toho,
11:08
if you createvytvořit a powerfulsilný
optimizationoptimalizace processproces
195
656485
2837
co se stane, když vytvoříte
výkonný optimalizační proces
11:11
and give it misconceivedjen z nepochopení
or poorlyšpatně specifiedzadaný goalscíle.
196
659322
4789
a dáte mu zavádějící
nebo špatně definované cíle.
11:16
Now you mightmohl say, if a computerpočítač startszačíná
stickinglepení electrodeselektrod into people'slidí facestváře,
197
664111
5189
Můžete si říct, že pokud počítač
začne lidem strkat do tváře elektrody,
11:21
we'dmy jsme just shutzavřeno it off.
198
669300
2265
prostě jej vypnete.
11:24
A, this is not necessarilynezbytně so easysnadný to do
if we'vejsme growndospělý dependentzávislé on the systemSystém --
199
672555
5340
Za A, to nemusí být nutně tak jednoduše
proveditelné, pokud na něm budeme závislí.
11:29
like, where is the off switchpřepínač
to the InternetInternetu?
200
677895
2732
Kde je třeba tlačítko
na vypnutí internetu?
11:32
B, why haven'tnemáte the chimpanzeesšimpanzi
flickedšvihl the off switchpřepínač to humanitylidstvo,
201
680627
5120
Za B, proč šimpanzi nebo neandrtálci
nezmáčkli vypínač
11:37
or the NeanderthalsNeandrtálci?
202
685747
1551
bránící vzniku lidstva?
11:39
They certainlyrozhodně had reasonsdůvodů.
203
687298
2666
Zcela jistě pro to byl důvod.
11:41
We have an off switchpřepínač,
for examplepříklad, right here.
204
689964
2795
Máme vypínač například zrovna tady.
11:44
(ChokingDušení)
205
692759
1554
(Dusí se)
11:46
The reasondůvod is that we are
an intelligentinteligentní adversaryprotivník;
206
694313
2925
Důvodem je,
že jsme inteligentní protivníci,
11:49
we can anticipatepředvídat threatshrozby
and planplán around them.
207
697238
2728
dokážeme předvídat hrozby
a vyhýbat se jim.
11:51
But so could a superintelligentsuperinteligentními agentAgent,
208
699966
2504
To by ale dokázal i
superinteligentní hráč,
11:54
and it would be much better
at that than we are.
209
702470
3254
a byl by v tom mnohem lepší než my.
11:57
The pointbod is, we should not be confidentsebejistý
that we have this underpod controlřízení here.
210
705724
7187
Pointa je v tom, že bychom si neměli
být tak jistí, že máme vše pod kontrolou.
12:04
And we could try to make our jobpráce
a little bitbit easiersnadnější by, say,
211
712911
3447
Mohli bychom si zkusit
usnadnit práci třeba tím,
12:08
puttinguvedení the A.I. in a boxbox,
212
716358
1590
že by se U. I.
zavřela do skříňky,
12:09
like a securezabezpečení softwaresoftware environmentživotní prostředí,
213
717948
1796
do zabezpečeného prostředí,
12:11
a virtualvirtuální realityrealita simulationsimulace
from whichkterý it cannotnemůže escapeuniknout.
214
719744
3022
simulované virtuální reality,
ze které by nemohla uprchnout.
12:14
But how confidentsebejistý can we be that
the A.I. couldn'tnemohl find a bugchyba.
215
722766
4146
Ale jak moc si můžeme být jistí,
že nenajde nějakou díru?
12:18
GivenVzhledem k that merelypouze humančlověk hackersHackeři
find bugshmyz all the time,
216
726912
3169
Vzhledem k tomu, že lidští hackeři
nalézají díry v jednom kuse,
12:22
I'd say, probablypravděpodobně not very confidentsebejistý.
217
730081
3036
bychom moc jistí být neměli.
12:26
So we disconnectodpojit the ethernetEthernet cablekabel
to createvytvořit an airvzduch gapmezera,
218
734237
4548
Takže vypojíme síťový kabel,
abychom přerušili kontakt,
12:30
but again, like merelypouze humančlověk hackersHackeři
219
738785
2668
ale je to tu zas, lidští hackeři
12:33
routinelyrutinně transgressporušoval airvzduch gapsmezery
usingpoužitím socialsociální engineeringinženýrství.
220
741453
3381
běžně tuto překážku překonávají
sociálním inženýrstvím.
12:36
Right now, as I speakmluvit,
221
744834
1259
Jak teď zrovna hovořím,
12:38
I'm sure there is some employeezaměstnanec
out there somewhereněkde
222
746093
2389
zcela jistě je venku nějaký zaměstnanec,
12:40
who has been talkedmluvil into handingpředání out
her accountúčet detailspodrobnosti
223
748482
3346
který byl požádán,
aby nadiktoval údaje svého účtu
12:43
by somebodyněkdo claimingtvrdí to be
from the I.T. departmentoddělení.
224
751828
2746
někomu, kdo tvrdí,
že je z technické podpory.
12:46
More creativetvořivý scenariosscénáře are alsotaké possiblemožný,
225
754574
2127
Možné jsou i nápaditější scénáře,
12:48
like if you're the A.I.,
226
756701
1315
kdy v roli U. I.
12:50
you can imaginepředstav si wigglingkroutí electrodeselektrod
around in your internalvnitřní circuitryobvodů
227
758016
3532
rozmístíte elektrody kolem svého obvodu,
12:53
to createvytvořit radiorádio wavesvlny that you
can use to communicatekomunikovat.
228
761548
3462
abyste vytvořili rádiové vlny,
kterými budete komunikovat.
12:57
Or maybe you could pretendpředstírat to malfunctionporucha,
229
765010
2424
Anebo můžete předstírat poruchu
12:59
and then when the programmersprogramátory openotevřeno
you up to see what wentšel wrongšpatně with you,
230
767434
3497
a když se objeví programátor,
aby se podíval, co se porouchalo,
13:02
they look at the sourcezdroj codekód -- BamBAM! --
231
770931
1936
aby se podíval na zdrojový kód
– Bum! –
13:04
the manipulationmanipulace can take placemísto.
232
772867
2447
poradíte si s ním.
13:07
Or it could outputvýstup the blueprintBlueprint
to a really niftyšikovný technologytechnika,
233
775314
3430
Anebo může vytvořit plán
pro velmi mazanou technologii,
13:10
and when we implementnářadí it,
234
778744
1398
kterou když sestrojíme,
13:12
it has some surreptitiousklamavá sideboční effectúčinek
that the A.I. had plannedplánování.
235
780142
4397
bude mít na nás neblahé vedlejší účinky.
13:16
The pointbod here is that we should
not be confidentsebejistý in our abilityschopnost
236
784539
3463
Zkrátka bychom neměli příliš
věřit ve svou schopnost
13:20
to keep a superintelligentsuperinteligentními geniegenie
lockeduzamčen up in its bottleláhev forevernavždy.
237
788002
3808
udržet superinteligentního
džina v láhvi navždy.
13:23
SoonerDříve or laterpozději, it will out.
238
791810
2254
Dříve nebo později se dostane ven.
13:27
I believe that the answerOdpovědět here
is to figurepostava out
239
795034
3103
Myslím, že řešením je přijít na to,
13:30
how to createvytvořit superintelligentsuperinteligentními A.I.
suchtakový that even if -- when -- it escapesunikne,
240
798137
5024
jak vytvořit superinteligenci tak,
že i kdyby utekla,
13:35
it is still safebezpečný because it is
fundamentallyzásadně on our sideboční
241
803161
3277
byla by stále neškodná,
protože by byla na naší straně,
13:38
because it sharesakcií our valueshodnoty.
242
806438
1899
protože by měla stejné hodnoty jako my.
13:40
I see no way around
this difficultobtížný problemproblém.
243
808337
3210
Nevidím jinou možnost.
13:44
Now, I'm actuallyvlastně fairlyspravedlivě optimisticoptimistický
that this problemproblém can be solvedvyřešeno.
244
812557
3834
Jsem velice optimistický co se týče
vyřešení tohoto problému.
13:48
We wouldn'tby ne have to writenapsat down
a long listseznam of everything we carepéče about,
245
816391
3903
Nemuseli bychom sepsat dlouhý
seznam všeho, na čem nám záleží,
13:52
or worsehorší yetdosud, spellkouzlo it out
in some computerpočítač languageJazyk
246
820294
3643
nebo jej snad
vytvořit v programovacím jazyce
13:55
like C++ or PythonPython,
247
823937
1454
jako je C++ nebo Python,
13:57
that would be a taskúkol beyondmimo hopelessbeznadějný.
248
825391
2767
což by byl beznadějný úkol.
14:00
InsteadMísto toho, we would createvytvořit an A.I.
that usespoužití its intelligenceinteligence
249
828158
4297
Namísto toho bychom měli sestrojit
systém, který svoji inteligenci využije
14:04
to learnUčit se what we valuehodnota,
250
832455
2771
k tomu, aby se naučil, jaké hodnoty máme,
14:07
and its motivationmotivace systemSystém is constructedpostaveno
in suchtakový a way that it is motivatedmotivované
251
835226
5280
a aby jeho motivační systém
byl naladěn tak,
14:12
to pursuesledovat our valueshodnoty or to performprovést actionsakce
that it predictspředpovídá we would approveSchválit of.
252
840506
5232
aby sledoval tyto hodnoty a konal činy,
které bychom schválili.
14:17
We would thustím pádem leveragevliv
its intelligenceinteligence as much as possiblemožný
253
845738
3414
Mohli bychom ovlivnit jeho inteligenci
jak jen by to bylo možné,
14:21
to solveřešit the problemproblém of value-loadingnačítání hodnoty.
254
849152
2745
abychom vyřešili problém načítání hodnot.
14:24
This can happenpřihodit se,
255
852727
1512
Může k tomu dojít
14:26
and the outcomevýsledek could be
very good for humanitylidstvo.
256
854239
3596
a výsledek by byl pro lidstvo příznivý.
14:29
But it doesn't happenpřihodit se automaticallyautomaticky.
257
857835
3957
Nedojde k tomu ale automaticky.
14:33
The initialpočáteční conditionspodmínky
for the intelligenceinteligence explosionexploze
258
861792
2998
Výchozí podmínky pro explozi inteligence
14:36
mightmohl need to be setsoubor up
in just the right way
259
864790
2863
mohou vyžadovat to správné nastavení,
14:39
if we are to have a controlledřízen detonationdetonace.
260
867653
3530
abychom dosáhli řízené detonace.
14:43
The valueshodnoty that the A.I. has
need to matchzápas oursnaše,
261
871183
2618
Hodnoty umělé inteligence
musí být shodné s našimi,
14:45
not just in the familiarznát contextkontext,
262
873801
1760
a to nejen v běžných situacích,
14:47
like where we can easilysnadno checkkontrola
how the A.I. behaveschová se,
263
875561
2438
kdy můžeme snadno zkontrolovat,
jak se chová,
14:49
but alsotaké in all novelromán contextskontexty
that the A.I. mightmohl encountersetkání
264
877999
3234
ale také v nových situacích,
se kterými se může setkat
14:53
in the indefiniteneurčitý futurebudoucnost.
265
881233
1557
v neurčité budoucnosti.
14:54
And there are alsotaké some esotericEsoterická issuesproblémy
that would need to be solvedvyřešeno, sortedtříděny out:
266
882790
4737
Je tu také pár esoterických otázek,
které by měly být vyřešeny:
14:59
the exactpřesný detailspodrobnosti of its decisionrozhodnutí theoryteorie,
267
887527
2089
přesné detaily její rozhodovací teorie,
15:01
how to dealobchod with logicallogický
uncertaintynejistota and so forthdále.
268
889616
2864
jak bude nakládat s logickou neurčitostí
a tak dále.
15:05
So the technicaltechnický problemsproblémy that need
to be solvedvyřešeno to make this work
269
893330
3102
Takže technické problémy,
které je třeba vyřešit,
15:08
look quitedocela difficultobtížný --
270
896432
1113
vypadají složitě –
15:09
not as difficultobtížný as makingtvorba
a superintelligentsuperinteligentními A.I.,
271
897545
3380
i když ne tak složitě
jako vytvoření superinteligence,
15:12
but fairlyspravedlivě difficultobtížný.
272
900925
2868
každopádně hodně složitě.
15:15
Here is the worrytrápit se:
273
903793
1695
Existuje jisté znepokojení.
15:17
MakingTvorba superintelligentsuperinteligentními A.I.
is a really hardtvrdý challengevýzva.
274
905488
4684
Vytvoření superinteligence
je skutečně velká výzva.
15:22
MakingTvorba superintelligentsuperinteligentními A.I. that is safebezpečný
275
910172
2548
Vytvoření superinteligence,
která bude bezpečná,
15:24
involveszahrnuje some additionalDalší
challengevýzva on tophorní of that.
276
912720
2416
zahrnuje navíc několik dalších výzev.
15:28
The riskriziko is that if somebodyněkdo figuresčísel out
how to crackcrack the first challengevýzva
277
916216
3487
Riziko spočívá v tom, když někdo
přijde na to, jak vyřešit první výzvu,
15:31
withoutbez alsotaké havingmít crackedpopraskané
the additionalDalší challengevýzva
278
919703
3001
aniž by zároveň vyřešil připojené výzvy
15:34
of ensuringzajištění perfectperfektní safetybezpečnost.
279
922704
1901
spojené se zachováním bezpečnosti.
15:37
So I think that we should
work out a solutionřešení
280
925375
3331
Takže myslím, že bychom měli najít řešení,
15:40
to the controlřízení problemproblém in advancezáloha,
281
928706
2822
jak to druhé vyřešit v předstihu,
15:43
so that we have it availabledostupný
by the time it is neededpotřeboval.
282
931528
2660
abychom byli připravení, až dospěje čas.
15:46
Now it mightmohl be that we cannotnemůže solveřešit
the entirecelý controlřízení problemproblém in advancezáloha
283
934768
3507
Může se stát, že nevyřešíme problém včas,
15:50
because maybe some elementsPrvky
can only be put in placemísto
284
938275
3024
protože některé části bude možné doplnit
15:53
oncejednou you know the detailspodrobnosti of the
architecturearchitektura where it will be implementedimplementováno.
285
941299
3997
až tehdy, kdy budeme znát
podrobnosti výpočetní architektury.
15:57
But the more of the controlřízení problemproblém
that we solveřešit in advancezáloha,
286
945296
3380
Ale čím více v rámci
tohoto problému vyřešíme,
16:00
the better the oddskurzy that the transitionpřechod
to the machinestroj intelligenceinteligence eraéra
287
948676
4090
tím větší je šance, že přechod
do éry inteligentních strojů
16:04
will go well.
288
952766
1540
proběhne dobře.
16:06
This to me looksvzhled like a thing
that is well worthhodnota doing
289
954306
4644
Toto na mě působí jako věc,
kterou má smysl dělat,
16:10
and I can imaginepředstav si that if
things turnotočit se out okay,
290
958950
3332
a dovedu si představit,
že pokud se věci vyvinou dobře,
16:14
that people a millionmilión yearsroky from now
look back at this centurystoletí
291
962282
4658
lidé se za milion let
podívají zpět na toto století
16:18
and it mightmohl well be that they say that
the one thing we did that really matteredzáleželo
292
966940
4002
a řeknou si, že věc, kterou
jsme udělali skutečně správně,
16:22
was to get this thing right.
293
970942
1567
bylo vypořádání se s tímto problémem.
16:24
Thank you.
294
972509
1689
Děkuji.
16:26
(ApplausePotlesk)
295
974198
2813
(Potlesk)
Translated by Marek Vanžura
Reviewed by Soňa Baštincová

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com