ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Kunnen we AI maken zonder er de controle over te verliezen?

Filmed:
5,024,015 views

Bang voor superintelligente AI? Je zou het moeten zijn, zegt neurowetenschapper en filosoof Sam Harris -- en niet alleen op de een of andere theoretische manier. We gaan bovenmenselijke machines bouwen, zegt Harris, maar we zijn nog niet klaar met de problemen die verband houden met het feit dat we iets creëren dat met ons kan omgaan zoals wij dat doen met mieren.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failuremislukking of intuitionintuïtie
0
1000
2216
Ik kom praten over een gebrek aan intuïtie
00:15
that manyveel of us sufferlijden from.
1
3240
1600
waar velen van ons aan lijden.
Het is eigenlijk een gebrek om
een bepaald soort gevaar aan te voelen.
00:17
It's really a failuremislukking
to detectopsporen a certainzeker kindsoort of dangerGevaar.
2
5480
3040
00:21
I'm going to describebeschrijven a scenarioscenario
3
9360
1736
Ik ga een scenario beschrijven
00:23
that I think is bothbeide terrifyingafschuwelijk
4
11120
3256
dat volgens mij zowel angstaanjagend
00:26
and likelywaarschijnlijk to occurvoorkomen,
5
14400
1760
als waarschijnlijk is,
00:28
and that's not a good combinationcombinatie,
6
16840
1656
en dat is geen goede combinatie,
00:30
as it turnsbochten out.
7
18520
1536
zoals zal blijken.
00:32
And yetnog ratherliever than be scaredbang,
mostmeest of you will feel
8
20080
2456
Toch, in plaats van bang te zijn,
vinden de meesten van jullie
dat eerder cool.
00:34
that what I'm talkingpratend about
is kindsoort of coolkoel.
9
22560
2080
00:37
I'm going to describebeschrijven
how the gainsaanwinsten we make
10
25200
2976
Ik ga uitleggen waarom
de vooruitgang die we boeken
00:40
in artificialkunstmatig intelligenceintelligentie-
11
28200
1776
in artificiële intelligentie, AI,
ons uiteindelijk zou kunnen vernietigen.
00:42
could ultimatelytenslotte destroyvernietigen us.
12
30000
1776
00:43
And in factfeit, I think it's very difficultmoeilijk
to see how they won'tzal niet destroyvernietigen us
13
31800
3456
Ik vind het erg moeilijk
om te zien hoe AI ons niet zal vernietigen
of ons inspireren
om onszelf te vernietigen.
00:47
or inspireinspireren us to destroyvernietigen ourselvesonszelf.
14
35280
1680
00:49
And yetnog if you're anything like me,
15
37400
1856
Als je een beetje als ik bent,
vind je het toch leuk
om over deze dingen na te denken.
00:51
you'llje zult find that it's funpret
to think about these things.
16
39280
2656
00:53
And that responseantwoord is partdeel of the problemprobleem.
17
41960
3376
Dat antwoord is een deel van het probleem.
00:57
OK? That responseantwoord should worryzorgen you.
18
45360
1720
Dat antwoord zou je moeten verontrusten.
00:59
And if I were to convinceovertuigen you in this talk
19
47920
2656
Als ik er jullie in deze talk
van zou overtuigen
01:02
that we were likelywaarschijnlijk
to sufferlijden a globalglobaal faminehongersnood,
20
50600
3416
dat we wellicht op een wereldwijde
hongersnood afstevenen,
01:06
eithereen van beide because of climateklimaat changeverandering
or some other catastrophecatastrofe,
21
54040
3056
door klimaatverandering
of een andere ramp,
01:09
and that your grandchildrenkleinkinderen,
or theirhun grandchildrenkleinkinderen,
22
57120
3416
en dat jullie kleinkinderen
of hun kleinkinderen,
01:12
are very likelywaarschijnlijk to liveleven like this,
23
60560
1800
zeer waarschijnlijk
zo'n leven zouden leiden,
01:15
you wouldn'tzou het niet think,
24
63200
1200
zou je niet denken,
01:17
"InterestingInteressante.
25
65440
1336
"Interessant.
01:18
I like this TEDTED Talk."
26
66800
1200
Leuke TED Talk."
01:21
FamineHongersnood isn't funpret.
27
69200
1520
Hongersnood is niet leuk.
01:23
DeathDood by sciencewetenschap fictionfictie,
on the other handhand-, is funpret,
28
71800
3376
Daarentegen is doodgaan
door sciencefiction wel leuk.
Eén van de dingen
die me het meest zorgen baren
01:27
and one of the things that worrieszorgen me mostmeest
about the developmentontwikkeling of AIAI at this pointpunt
29
75200
3976
over de huidige ontwikkeling van AI
is dat we niet in staat lijken om
de juiste emotionele reactie op te wekken
01:31
is that we seemlijken unableniet in staat to marshalMaarschalk
an appropriategeschikt emotionalemotioneel responseantwoord
30
79200
4096
01:35
to the dangersgevaren that lieliggen aheadverder.
31
83320
1816
op de gevaren die op ons afkomen.
01:37
I am unableniet in staat to marshalMaarschalk this responseantwoord,
and I'm givinggeven this talk.
32
85160
3200
Ik voel deze reactie ook niet,
en ik geef nog wel deze talk.
01:42
It's as thoughhoewel we standstand before two doorsdeuren.
33
90120
2696
Het is alsof we ​​voor twee deuren staan.
01:44
BehindAchter doordeur- numberaantal one,
34
92840
1256
Achter deur nummer één
houden we op met het maken
van steeds intelligentere machines.
01:46
we stop makingmaking progressvooruitgang
in buildinggebouw intelligentintelligent machinesmachines.
35
94120
3296
Onze computerhardware en -software
01:49
Our computercomputer hardwarehardware and softwaresoftware
just stopsstops gettingkrijgen better for some reasonreden.
36
97440
4016
stopt gewoon met beter worden,
om wat voor reden dan ook.
01:53
Now take a momentmoment
to consideroverwegen why this mightmacht happengebeuren.
37
101480
3000
Denk er even over na
waarom dit zou kunnen gebeuren.
01:57
I mean, givengegeven how valuablewaardevol
intelligenceintelligentie- and automationautomatisering are,
38
105080
3656
Omdat intelligentie en automatisering
zo waardevol zijn,
02:00
we will continuevoortzetten to improveverbeteren our technologytechnologie
if we are at all ablein staat to.
39
108760
3520
zullen we doorgaan met onze technologie
te verbeteren als we enigszins kunnen.
02:05
What could stop us from doing this?
40
113200
1667
Wat kan ons tegenhouden?
02:07
A full-scalegrootschalige nuclearnucleair waroorlog?
41
115800
1800
Een mondiale nucleaire oorlog?
02:11
A globalglobaal pandemicpandemisch?
42
119000
1560
Een wereldwijde pandemie?
02:14
An asteroidasteroïde impactbotsing?
43
122320
1320
Een asteroïde-inslag?
02:17
JustinJustin BieberBieber becomingworden
presidentpresident of the UnitedVerenigd StatesStaten?
44
125640
2576
Justin Bieber president
van de Verenigde Staten?
(Gelach)
02:20
(LaughterGelach)
45
128240
2280
02:24
The pointpunt is, something would have to
destroyvernietigen civilizationbeschaving as we know it.
46
132760
3920
Het gaat om iets dat onze huidige
beschaving zou moeten vernietigen.
02:29
You have to imaginestel je voor
how badslecht it would have to be
47
137360
4296
Je moet je voorstellen
hoe erg het zou moeten zijn
02:33
to preventvoorkomen us from makingmaking
improvementsverbeteringen in our technologytechnologie
48
141680
3336
om ons tegen te houden
onze technologie te verbeteren,
02:37
permanentlypermanent,
49
145040
1216
blijvend,
02:38
generationgeneratie after generationgeneratie.
50
146280
2016
generatie na generatie.
02:40
AlmostBijna by definitiondefinitie,
this is the worstslechtst thing
51
148320
2136
Bijna per definitie is dit het ergste
dat ooit gebeurd is
in de menselijke geschiedenis.
02:42
that's ever happenedgebeurd in humanmenselijk historygeschiedenis.
52
150480
2016
02:44
So the only alternativealternatief,
53
152520
1296
Het enige alternatief
02:45
and this is what liesleugens
behindachter doordeur- numberaantal two,
54
153840
2336
is wat er achter deur nummer twee ligt,
02:48
is that we continuevoortzetten
to improveverbeteren our intelligentintelligent machinesmachines
55
156200
3136
namelijk dat we doorgaan
met onze intelligente machines
02:51
yearjaar after yearjaar after yearjaar.
56
159360
1600
jaar na jaar na jaar te verbeteren.
02:53
At a certainzeker pointpunt, we will buildbouwen
machinesmachines that are smarterslimmer than we are,
57
161720
3640
Op een bepaald moment zullen we
machines bouwen die slimmer zijn dan wij,
02:58
and onceeen keer we have machinesmachines
that are smarterslimmer than we are,
58
166080
2616
en zodra we machines
hebben die slimmer zijn dan wij,
gaan ze zichzelf verder verbeteren.
03:00
they will beginbeginnen to improveverbeteren themselveszich.
59
168720
1976
03:02
And then we riskrisico what
the mathematicianwiskundige IJIJ Good calledriep
60
170720
2736
Dan lopen we het risico
op wat de wiskundige IJ Good
03:05
an "intelligenceintelligentie- explosionexplosie,"
61
173480
1776
een 'intelligentie-explosie' noemde:
03:07
that the processwerkwijze could get away from us.
62
175280
2000
dat het proces niet meer
te beheersen valt.
03:10
Now, this is oftenvaak caricaturedvast,
as I have here,
63
178120
2816
Daarvan werd vaak, zoals hier,
een karikatuur gemaakt:
03:12
as a fearangst that armieslegers of maliciousschadelijke robotsrobots
64
180960
3216
de angst dat legers
van kwaadaardige robots
03:16
will attackaanval us.
65
184200
1256
ons zouden aanvallen.
03:17
But that isn't the mostmeest likelywaarschijnlijk scenarioscenario.
66
185480
2696
Maar dat is niet
het meest waarschijnlijke scenario.
03:20
It's not that our machinesmachines
will becomeworden spontaneouslyspontaan malevolentkwaadaardige.
67
188200
4856
Het is niet zo dat onze machines
spontaan boosaardig zullen worden.
03:25
The concernbezorgdheid is really
that we will buildbouwen machinesmachines
68
193080
2616
Het probleem is eigenlijk
dat we machines gaan bouwen
03:27
that are so much
more competentcompetent than we are
69
195720
2056
die zo veel competenter zijn dan wij
03:29
that the slightestgeringste divergenceafwijking
betweentussen theirhun goalsdoelen and our owneigen
70
197800
3776
dat het geringste verschil
tussen hun doelen en de onze
03:33
could destroyvernietigen us.
71
201600
1200
ons einde kan betekenen.
03:35
Just think about how we relatebetrekking hebben to antsmieren.
72
203960
2080
Denk maar aan hoe we
ons verhouden tot mieren.
03:38
We don't hatehaat them.
73
206600
1656
We haten ze niet.
03:40
We don't go out of our way to harmkwaad them.
74
208280
2056
We zijn er niet op uit
om ze kwaad te doen.
03:42
In factfeit, sometimessoms
we take painspijnen not to harmkwaad them.
75
210360
2376
We nemen soms zelfs de moeite
om ze niet te schaden.
03:44
We stepstap over them on the sidewalkstoep.
76
212760
2016
We stappen over hen op de stoep.
03:46
But whenevertelkens als theirhun presenceaanwezigheid
77
214800
2136
Maar wanneer hun aanwezigheid
03:48
seriouslyernstig conflictsconflicten with one of our goalsdoelen,
78
216960
2496
serieus in strijd is
met één van onze doeleinden,
03:51
let's say when constructingconstrueren
a buildinggebouw like this one,
79
219480
2477
laten we zeggen
bij de bouw van een gebouw als dit,
03:53
we annihilatevernietigen them withoutzonder a qualmqualm.
80
221981
1960
vernietigen we ze
zonder er bij stil te staan.
03:56
The concernbezorgdheid is that we will
one day buildbouwen machinesmachines
81
224480
2936
Het probleem is dat we op een dag
machines gaan bouwen
03:59
that, whetherof they're consciousbewust or not,
82
227440
2736
die, bewust of niet,
04:02
could treattraktatie us with similarsoortgelijk disregardnegeren.
83
230200
2000
ons met gelijkaardige
onverschilligheid gaan behandelen.
04:05
Now, I suspectverdachte this seemslijkt
far-fetchedvergezocht to manyveel of you.
84
233760
2760
Ik vermoed dat dit voor velen
van jullie wat vergezocht lijkt.
04:09
I betinzet there are those of you who doubttwijfel
that superintelligentsuperintelligente AIAI is possiblemogelijk,
85
237360
6336
Ik wed dat er zijn die er aan twijfelen
of superintelligente AI
überhaupt mogelijk is,
04:15
much lessminder inevitableonvermijdelijk.
86
243720
1656
laat staan onvermijdelijk.
04:17
But then you mustmoet find something wrongfout
with one of the followingvolgend assumptionsveronderstellingen.
87
245400
3620
Maar dan moet je de fout vinden
in één van de volgende veronderstellingen.
04:21
And there are only threedrie of them.
88
249044
1572
Er zijn er slechts drie.
04:23
IntelligenceIntelligentie is a matterer toe doen of informationinformatie
processingverwerken in physicalfysiek systemssystemen.
89
251800
4719
Intelligentie is een kwestie van
informatieverwerking in fysische systemen.
04:29
ActuallyEigenlijk, this is a little bitbeetje more
than an assumptionveronderstelling.
90
257320
2615
Eigenlijk is dit iets meer
dan een veronderstelling.
04:31
We have alreadynu al builtgebouwd
narrowsmal intelligenceintelligentie- into our machinesmachines,
91
259959
3457
We hebben al beperkte intelligentie
ingebouwd in onze machines
04:35
and manyveel of these machinesmachines performuitvoeren
92
263440
2016
en veel van die machines werken al
04:37
at a levelniveau of superhumanbovenmenselijke
intelligenceintelligentie- alreadynu al.
93
265480
2640
op een bovenmenselijk
niveau van intelligentie.
04:40
And we know that merelouter matterer toe doen
94
268840
2576
We weten dat loutere materie
aanleiding kan geven tot wat
'algemene intelligentie' wordt genoemd,
04:43
can give risestijgen to what is calledriep
"generalalgemeen intelligenceintelligentie-,"
95
271440
2616
04:46
an abilityvermogen to think flexiblyflexibel
acrossaan de overkant multiplemeerdere domainsdomeinen,
96
274080
3656
het vermogen om flexibel te denken
op meerdere domeinen,
04:49
because our brainshersenen have managedbeheerd it. Right?
97
277760
3136
omdat onze hersenen dat kunnen.
04:52
I mean, there's just atomsatomen in here,
98
280920
3936
Ik bedoel, er zijn hier alleen maar atomen
04:56
and as long as we continuevoortzetten
to buildbouwen systemssystemen of atomsatomen
99
284880
4496
en zolang we systemen
van atomen blijven bouwen
05:01
that displaytonen more and more
intelligentintelligent behaviorgedrag,
100
289400
2696
die steeds intelligenter
gedrag gaan vertonen,
05:04
we will eventuallytenslotte,
unlesstenzij we are interruptedonderbroken,
101
292120
2536
zullen we uiteindelijk,
tenzij iets ons tegenhoudt,
05:06
we will eventuallytenslotte
buildbouwen generalalgemeen intelligenceintelligentie-
102
294680
3376
algemene intelligentie creëren
05:10
into our machinesmachines.
103
298080
1296
in onze machines.
05:11
It's crucialbeslissend to realizerealiseren
that the ratetarief of progressvooruitgang doesn't matterer toe doen,
104
299400
3656
Het maakt niet uit
hoe snel we vooruitgaan,
05:15
because any progressvooruitgang
is enoughgenoeg to get us into the endeinde zonezone.
105
303080
3176
want elke vooruitgang
brengt ons dichter bij het eindpunt.
05:18
We don't need Moore'sMoore's lawwet to continuevoortzetten.
We don't need exponentialexponentiële progressvooruitgang.
106
306280
3776
Vergeet de wet van Moore,
exponentiële vooruitgang is niet nodig.
05:22
We just need to keep going.
107
310080
1600
We hoeven alleen maar door te gaan.
05:25
The secondtweede assumptionveronderstelling
is that we will keep going.
108
313480
2920
De tweede veronderstelling
is dat we zullen blijven doorgaan.
05:29
We will continuevoortzetten to improveverbeteren
our intelligentintelligent machinesmachines.
109
317000
2760
We zullen onze intelligente
machines blijven verbeteren.
05:33
And givengegeven the valuewaarde of intelligenceintelligentie- --
110
321000
4376
En gezien de waarde van intelligentie --
05:37
I mean, intelligenceintelligentie- is eithereen van beide
the sourcebron of everything we valuewaarde
111
325400
3536
ik bedoel, intelligentie is ofwel de bron
van alles wat we waarderen
05:40
or we need it to safeguardvrijwaringsmaatregelen
everything we valuewaarde.
112
328960
2776
of ze moet alles beschermen
wat we waarderen.
05:43
It is our mostmeest valuablewaardevol resourcehulpbron.
113
331760
2256
Het is ons waardevolste hulpmiddel.
05:46
So we want to do this.
114
334040
1536
Dus we willen dit doen.
05:47
We have problemsproblemen
that we desperatelywanhopig need to solveoplossen.
115
335600
3336
We hebben problemen
die we nodig moeten oplossen.
05:50
We want to curegenezen diseasesziekten
like Alzheimer'sZiekte van Alzheimer and cancerkanker.
116
338960
3200
We willen ziektes
als Alzheimer en kanker genezen.
05:54
We want to understandbegrijpen economiceconomisch systemssystemen.
We want to improveverbeteren our climateklimaat sciencewetenschap.
117
342960
3936
We willen economische systemen begrijpen
en onze klimaatwetenschap verbeteren.
05:58
So we will do this, if we can.
118
346920
2256
Dus zullen we dit doen, als we kunnen.
06:01
The traintrein is alreadynu al out of the stationstation,
and there's no brakerem to pullTrekken.
119
349200
3286
De trein is al vertrokken
en er is geen houden aan.
06:05
FinallyTot slot, we don't standstand
on a peakhoogtepunt of intelligenceintelligentie-,
120
353880
5456
Tot slot staan we waarschijnlijk niet
op een piek van intelligentie,
06:11
or anywhereoveral nearin de buurt it, likelywaarschijnlijk.
121
359360
1800
of ook maar ergens in de buurt ervan.
06:13
And this really is the crucialbeslissend insightin zicht.
122
361640
1896
En dit is echt het cruciale inzicht.
06:15
This is what makesmerken
our situationsituatie so precariousprecaire,
123
363560
2416
Dit maakt onze situatie zo precair
06:18
and this is what makesmerken our intuitionsintuïties
about riskrisico so unreliableonbetrouwbaar.
124
366000
4040
en dit maakt onze intuïties
over de risico's zo onbetrouwbaar.
06:23
Now, just consideroverwegen the smartestslimste personpersoon
who has ever livedleefden.
125
371120
2720
Beschouw de slimste mens
die ooit heeft geleefd.
06:26
On almostbijna everyone'sieders shortlistshortlist here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Op bijna ieders lijstje
staat hier John von Neumann.
06:30
I mean, the impressionindruk that vonvon NeumannNeumann
madegemaakt on the people around him,
127
378080
3336
Ik bedoel, de indruk die von Neumann
maakte op de mensen om hem heen,
06:33
and this includedingesloten the greatestbeste
mathematicianswiskundigen and physicistsnatuurkundigen of his time,
128
381440
4056
inclusief de grootste wiskundigen
en fysici van zijn tijd,
06:37
is fairlytamelijk well-documentedgoed gedocumenteerde.
129
385520
1936
is redelijk goed gedocumenteerd.
06:39
If only halfvoor de helft the storiesverhalen
about him are halfvoor de helft truewaar,
130
387480
3776
Als slechts de helft van de verhalen
over hem half waar zijn,
06:43
there's no questionvraag
131
391280
1216
dan kan het niet anders
06:44
he's one of the smartestslimste people
who has ever livedleefden.
132
392520
2456
dan dat hij één
van de slimste mensen ooit was.
06:47
So consideroverwegen the spectrumspectrum of intelligenceintelligentie-.
133
395000
2520
Bekijk dit spectrum
van intelligentie eens.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Hier hebben we John von Neumann.
06:53
And then we have you and me.
135
401560
1334
En dan hebben we jou en mij.
06:56
And then we have a chickenkip.
136
404120
1296
En dan hebben we een kip.
06:57
(LaughterGelach)
137
405440
1936
(Gelach)
06:59
Sorry, a chickenkip.
138
407400
1216
Sorry, een kip.
07:00
(LaughterGelach)
139
408640
1256
(Gelach)
07:01
There's no reasonreden for me to make this talk
more depressingdeprimerend than it needsbehoefte aan to be.
140
409920
3736
Ik moet dit gesprek niet
deprimerender maken dan nodig.
07:05
(LaughterGelach)
141
413680
1600
(Gelach)
07:08
It seemslijkt overwhelminglyoverweldigend likelywaarschijnlijk, howeverechter,
that the spectrumspectrum of intelligenceintelligentie-
142
416339
3477
Het lijkt echter uiterst waarschijnlijk
dat het spectrum van intelligentie
07:11
extendsstrekt much furtherverder
than we currentlymomenteel conceivezwanger,
143
419840
3120
veel verder reikt
dan we op dit moment beseffen.
07:15
and if we buildbouwen machinesmachines
that are more intelligentintelligent than we are,
144
423880
3216
Als we machines bouwen
die intelligenter zijn dan wij,
gaan ze hoogstwaarschijnlijk
dit spectrum verkennen
07:19
they will very likelywaarschijnlijk
exploreonderzoeken this spectrumspectrum
145
427120
2296
07:21
in waysmanieren that we can't imaginestel je voor,
146
429440
1856
op een onvoorstelbare manier
07:23
and exceedhoger zijn dan us in waysmanieren
that we can't imaginestel je voor.
147
431320
2520
en ons onvoorstelbaar overtreffen.
07:27
And it's importantbelangrijk to recognizeherken that
this is truewaar by virtuedeugd of speedsnelheid alonealleen.
148
435000
4336
Het is belangrijk te beseffen dat
dit al waar is voor de snelheid alleen.
07:31
Right? So imaginestel je voor if we just builtgebouwd
a superintelligentsuperintelligente AIAI
149
439360
5056
Stel dat we zojuist
een superintelligente AI hadden gemaakt
07:36
that was no smarterslimmer
than your averagegemiddelde teamteam of researchersonderzoekers
150
444440
3456
die niet slimmer was
dan een gemiddeld team van onderzoekers
07:39
at StanfordStanford or MITMIT.
151
447920
2296
aan Stanford en MIT.
07:42
Well, electronicelektronisch circuitscircuits
functionfunctie about a millionmiljoen timestijden fastersneller
152
450240
2976
Elektronische schakelingen werken
ongeveer een miljoen keer sneller
07:45
than biochemicalbiochemische onesdegenen,
153
453240
1256
dan biochemische.
07:46
so this machinemachine should think
about a millionmiljoen timestijden fastersneller
154
454520
3136
Dus zou deze machine ongeveer
een miljoen keer sneller moeten denken
07:49
than the mindsgeesten that builtgebouwd it.
155
457680
1816
dan de geesten die ze ontwierpen.
07:51
So you setreeks it runninglopend for a weekweek,
156
459520
1656
Laat ze één week lopen
07:53
and it will performuitvoeren 20,000 yearsjaar
of human-levelmens-niveau intellectualintellectueel work,
157
461200
4560
en ze zal voor 20 000 jaar intellectuele
arbeid op menselijk niveau uitvoeren,
07:58
weekweek after weekweek after weekweek.
158
466400
1960
week na week na week.
08:01
How could we even understandbegrijpen,
much lessminder constrainbeperken,
159
469640
3096
Hoe kunnen we een verstand
dat dit soort vooruitgang maakt
08:04
a mindgeest makingmaking this sortsoort of progressvooruitgang?
160
472760
2280
nog begrijpen, laat staan ​​beheersen?
08:08
The other thing that's worryingzorgwekkend, franklyrondweg,
161
476840
2136
Wat, eerlijk gezegd,
ook nog verontrustend is:
08:11
is that, imaginestel je voor the bestbeste casegeval scenarioscenario.
162
479000
4976
stel je even het beste scenario voor.
08:16
So imaginestel je voor we hitraken uponop a designontwerp
of superintelligentsuperintelligente AIAI
163
484000
4176
Veronderstel dat we
een superintelligente AI ontwerpen
08:20
that has no safetyveiligheid concernszorgen.
164
488200
1376
die absoluut veilig is.
We vinden gelijk het perfecte ontwerp.
08:21
We have the perfectperfect designontwerp
the first time around.
165
489600
3256
08:24
It's as thoughhoewel we'vewij hebben been handedhanded an oracleorakel
166
492880
2216
Het is alsof we
een orakel hebben gekregen
08:27
that behavesgedraagt zich exactlyprecies as intendedvoorgenomen.
167
495120
2016
dat ​​zich precies zoals bedoeld gedraagt.
08:29
Well, this machinemachine would be
the perfectperfect labor-savingarbeidsparende deviceapparaat.
168
497160
3720
Deze machine zou het perfecte
arbeidsbesparende apparaat zijn.
08:33
It can designontwerp the machinemachine
that can buildbouwen the machinemachine
169
501680
2429
Het kan de machine ontwerpen
die de machine kan bouwen
08:36
that can do any physicalfysiek work,
170
504133
1763
die elk fysiek werk aankan,
08:37
poweredaangedreven by sunlightzonlicht,
171
505920
1456
aangedreven door zonlicht,
08:39
more or lessminder for the costkosten
of rawrauw materialsmaterialen.
172
507400
2696
min of meer voor de kosten
van de grondstoffen.
08:42
So we're talkingpratend about
the endeinde of humanmenselijk drudgerysleur.
173
510120
3256
Gedaan met alle menselijk geploeter!
08:45
We're alsoook talkingpratend about the endeinde
of mostmeest intellectualintellectueel work.
174
513400
2800
Maar ook het einde
van de meeste intellectuele arbeid.
08:49
So what would apesapen like ourselvesonszelf
do in this circumstanceomstandigheid?
175
517200
3056
Wat gaan apen zoals wij
in deze omstandigheden doen?
08:52
Well, we'dwij hadden be freegratis to playspelen FrisbeeFrisbee
and give eachelk other massagesmassages.
176
520280
4080
Nou ja, we zouden vrij zijn om frisbee
te spelen en elkaar massages te geven.
08:57
AddToevoegen some LSDLSD and some
questionabletwijfelachtig wardrobegarderobe choiceskeuzes,
177
525840
2856
Gooi er nog wat LSD
en rare kleren tegenaan
09:00
and the wholegeheel worldwereld-
could be like BurningBranden Man.
178
528720
2176
en de hele wereld wordt
één groot Burning Man-festival.
09:02
(LaughterGelach)
179
530920
1640
(Gelach)
09:06
Now, that mightmacht soundgeluid prettymooi good,
180
534320
2000
Nu klinkt dat misschien best goed,
09:09
but askvragen yourselfjezelf what would happengebeuren
181
537280
2376
maar vraag jezelf eens af
wat er zou gebeuren
09:11
underonder our currentactueel economiceconomisch
and politicalpolitiek orderbestellen?
182
539680
2736
onder onze huidige economische
en politieke orde.
09:14
It seemslijkt likelywaarschijnlijk that we would witnessgetuige
183
542440
2416
Het lijkt waarschijnlijk
dat we getuige zouden zijn
09:16
a levelniveau of wealthrijkdom inequalityongelijkheid
and unemploymentwerkloosheid
184
544880
4136
van een niveau van ongelijke verdeling
van rijkdom en werkloosheid
09:21
that we have never seengezien before.
185
549040
1496
die we nooit eerder hebben gezien.
09:22
AbsentAfwezig a willingnessbereidheid
to immediatelyper direct put this newnieuwe wealthrijkdom
186
550560
2616
Zonder bereidheid om
deze nieuwe rijkdom
09:25
to the serviceservice of all humanityde mensheid,
187
553200
1480
onmiddellijk met iedereen te delen,
09:27
a fewweinig trillionairesTrillionaires could graceGrace
the coverscovers of our businessbedrijf magazinestijdschriften
188
555640
3616
zullen enkele biljonairs de covers
van onze zakenmagazines sieren
09:31
while the restrust uit of the worldwereld-
would be freegratis to starveverhongeren.
189
559280
2440
terwijl de rest van de wereld
vrij zou zijn om te verhongeren.
09:34
And what would the RussiansRussen
or the ChineseChinees do
190
562320
2296
Wat zouden de Russen of de Chinezen doen
09:36
if they heardgehoord that some companybedrijf
in SiliconSilicium ValleyVallei
191
564640
2616
als ze hoorden
dat een bedrijf in Silicon Valley
09:39
was about to deployimplementeren a superintelligentsuperintelligente AIAI?
192
567280
2736
op het punt stond
een superintelligente AI te maken?
09:42
This machinemachine would be capablein staat
of wagingwaging waroorlog,
193
570040
2856
Deze machine zou in staat zijn
tot het voeren van oorlog,
09:44
whetherof terrestrialterrestrische or cyberCyber,
194
572920
2216
hetzij op aarde of in cyberspace,
09:47
with unprecedentedzonder precedent powermacht.
195
575160
1680
met ongekende kracht.
09:50
This is a winner-take-allwinnaar-take-all scenarioscenario.
196
578120
1856
Dit is een winnaar-pakt-alles-scenario.
09:52
To be sixzes monthsmaanden aheadverder
of the competitionwedstrijd here
197
580000
3136
Zes maanden voorsprong op de concurrentie
09:55
is to be 500,000 yearsjaar aheadverder,
198
583160
2776
komt overeen met 500 000 jaar voorsprong,
09:57
at a minimumminimum.
199
585960
1496
op z'n minst.
09:59
So it seemslijkt that even merelouter rumorsgeruchten
of this kindsoort of breakthroughdoorbraak
200
587480
4736
Dus het lijkt erop dat zelfs louter
geruchten van dit soort doorbraak
10:04
could causeoorzaak our speciessoorten to go berserkBerserk.
201
592240
2376
ertoe kunnen leiden
dat het mensdom wild zal worden.
10:06
Now, one of the mostmeest frighteningbeangstigend things,
202
594640
2896
Eén van de meest angstaanjagende dingen,
10:09
in my viewuitzicht, at this momentmoment,
203
597560
2776
naar mijn mening,
10:12
are the kindssoorten of things
that AIAI researchersonderzoekers say
204
600360
4296
zijn het soort dingen
die AI-onderzoekers zeggen
10:16
when they want to be reassuringgeruststellend.
205
604680
1560
wanneer ze ons gerust willen stellen.
10:19
And the mostmeest commongemeenschappelijk reasonreden
we're told not to worryzorgen is time.
206
607000
3456
Waar we ons vooral
geen zorgen over moeten maken, is tijd.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Dit is nog allemaal ver weg, weet je.
10:24
This is probablywaarschijnlijk 50 or 100 yearsjaar away.
208
612560
2440
Waarschijnlijk nog 50 of 100 jaar weg.
Eén onderzoeker heeft gezegd:
10:27
One researcheronderzoeker has said,
209
615720
1256
10:29
"WorryingZorgwekkend about AIAI safetyveiligheid
210
617000
1576
"Piekeren over AI-veiligheid
10:30
is like worryingzorgwekkend
about overpopulationoverbevolking on MarsMars."
211
618600
2280
is net als je zorgen maken
over overbevolking op Mars."
10:34
This is the SiliconSilicium ValleyVallei versionversie
212
622116
1620
Dit is de Silicon Valley-versie
10:35
of "don't worryzorgen your
prettymooi little headhoofd about it."
213
623760
2376
van 'breek er je mooie hoofdje niet over'.
10:38
(LaughterGelach)
214
626160
1336
(Gelach)
10:39
No one seemslijkt to noticekennisgeving
215
627520
1896
Niemand lijkt te merken
10:41
that referencingverwijzen naar the time horizonhorizon
216
629440
2616
dat verwijzen naar de tijdshorizon
een totale 'non sequitur' is,
een onjuist gevolg.
10:44
is a totaltotaal nonniet sequitursequitur.
217
632080
2576
Als intelligentie alleen maar
een kwestie van informatieverwerking is,
10:46
If intelligenceintelligentie- is just a matterer toe doen
of informationinformatie processingverwerken,
218
634680
3256
10:49
and we continuevoortzetten to improveverbeteren our machinesmachines,
219
637960
2656
en we onze machines
maar blijven verbeteren,
10:52
we will produceproduceren
some formformulier of superintelligencesuperintelligentie.
220
640640
2880
zullen we een bepaalde vorm
van superintelligentie produceren.
10:56
And we have no ideaidee
how long it will take us
221
644320
3656
We hebben geen idee
hoe lang het zal duren
11:00
to createcreëren the conditionsvoorwaarden
to do that safelyveilig.
222
648000
2400
om de voorwaarden te creëren
om dat veilig te doen.
11:04
Let me say that again.
223
652200
1296
Ik zeg het nog eens.
11:05
We have no ideaidee how long it will take us
224
653520
3816
We hebben geen idee
hoe lang het zal duren
11:09
to createcreëren the conditionsvoorwaarden
to do that safelyveilig.
225
657360
2240
om de voorwaarden te creëren
om dat veilig te doen.
11:12
And if you haven'thebben niet noticedmerkte,
50 yearsjaar is not what it used to be.
226
660920
3456
Mocht het je nog niet zijn opgevallen:
50 jaar is niet meer wat ooit was.
11:16
This is 50 yearsjaar in monthsmaanden.
227
664400
2456
Dit is 50 jaar in maanden.
11:18
This is how long we'vewij hebben had the iPhoneiPhone.
228
666880
1840
Zo lang hebben we de iPhone al.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevisie.
229
669440
2600
Dit is hoe lang 'The Simpsons'
al op televisie zijn.
11:24
FiftyVijftig yearsjaar is not that much time
230
672680
2376
Vijftig jaar is niet zo heel veel tijd
om één van de grootste
uitdagingen aan te pakken
11:27
to meetontmoeten one of the greatestbeste challengesuitdagingen
our speciessoorten will ever facegezicht.
231
675080
3160
waarmee het mensdom
ooit zal worden geconfronteerd.
11:31
OnceEenmaal again, we seemlijken to be failingtekortkoming
to have an appropriategeschikt emotionalemotioneel responseantwoord
232
679640
4016
We lijken er niet in te slagen om
de juiste emotionele reactie te hebben
11:35
to what we have everyelk reasonreden
to believe is comingkomt eraan.
233
683680
2696
op iets waarvan we alle reden hebben
te geloven dat het komt.
11:38
The computercomputer scientistwetenschapper StuartStuart RussellRussell
has a niceleuk analogyanalogie here.
234
686400
3976
De computerwetenschapper Stuart Russell
heeft hier een mooie analogie.
11:42
He said, imaginestel je voor that we receivedontvangen
a messagebericht from an alienvreemdeling civilizationbeschaving,
235
690400
4896
Hij zei, stel je voor dat we een bericht
van een buitenaardse beschaving ontvangen,
11:47
whichwelke readlezen:
236
695320
1696
dat luidt:
11:49
"People of EarthAarde,
237
697040
1536
"Mensen van de Aarde,
11:50
we will arriveaankomen on your planetplaneet in 50 yearsjaar.
238
698600
2360
binnen 50 jaar komen
we naar jullie planeet.
11:53
Get readyklaar."
239
701800
1576
Hou je gereed."
11:55
And now we're just countingtelling down
the monthsmaanden untiltot the mothershipmoederschip landslandt?
240
703400
4256
En dan gewoon de maanden aftellen
tot aan de landing van het moederschip?
11:59
We would feel a little
more urgencyurgentie than we do.
241
707680
3000
We zouden een beetje
meer urgentie voelen dan we nu doen.
Waarom we ons ook
geen zorgen zouden hoeven maken,
12:04
AnotherEen ander reasonreden we're told not to worryzorgen
242
712680
1856
12:06
is that these machinesmachines
can't help but sharedelen our valueswaarden
243
714560
3016
is dat deze machines sowieso
onze waarden delen,
omdat ze letterlijk uitbreidingen
van onszelf zullen zijn.
12:09
because they will be literallyletterlijk
extensionsextensies of ourselvesonszelf.
244
717600
2616
12:12
They'llZij zullen be graftedgeënt ontonaar our brainshersenen,
245
720240
1816
Ze zullen worden geënt op onze hersenen,
12:14
and we'llgoed essentiallyin wezen
becomeworden theirhun limbiclimbische systemssystemen.
246
722080
2360
en wij zullen in wezen
hun limbisch systeem worden.
12:17
Now take a momentmoment to consideroverwegen
247
725120
1416
Overweeg even
12:18
that the safestveiligste
and only prudentvoorzichtig pathpad forwardvooruit,
248
726560
3176
dat de veiligste
en enige verstandige weg vooruit,
12:21
recommendedAanbevolen,
249
729760
1336
de aanbevolen weg,
12:23
is to implantimplantaat this technologytechnologie
directlydirect into our brainshersenen.
250
731120
2800
is om deze technologie
direct in onze hersenen te implanteren.
12:26
Now, this maymei in factfeit be the safestveiligste
and only prudentvoorzichtig pathpad forwardvooruit,
251
734600
3376
Dit kan in feite de veiligste
en enige voorzichtige weg vooruit zijn,
12:30
but usuallydoorgaans one'séén is safetyveiligheid concernszorgen
about a technologytechnologie
252
738000
3056
maar meestal moet iemand zich toch
volkomen veilig voelen bij een technologie
12:33
have to be prettymooi much workedwerkte out
before you stickstok it insidebinnen your headhoofd.
253
741080
3656
voordat hij ze in zijn hoofd steekt.
12:36
(LaughterGelach)
254
744760
2016
(Gelach)
12:38
The deeperdiepere problemprobleem is that
buildinggebouw superintelligentsuperintelligente AIAI on its owneigen
255
746800
5336
Het dieperliggende probleem is dat
superintelligente AI op zich bouwen
12:44
seemslijkt likelywaarschijnlijk to be easiergemakkelijker
256
752160
1736
waarschijnlijk gemakkelijker lijkt
12:45
than buildinggebouw superintelligentsuperintelligente AIAI
257
753920
1856
dan superintelligente AI bouwen
12:47
and havingmet the completedvoltooid neuroscienceneurowetenschappen
258
755800
1776
én de neurowetenschappen voltooien
12:49
that allowstoestaat us to seamlesslynaadloos
integrateintegreren our mindsgeesten with it.
259
757600
2680
die ons toelaten onze geest
er naadloos mee te integreren.
12:52
And givengegeven that the companiesbedrijven
and governmentsoverheden doing this work
260
760800
3176
Gezien het feit dat de bedrijven
en overheden die dit werk doen
12:56
are likelywaarschijnlijk to perceivewaarnemen themselveszich
as beingwezen in a racerace againsttegen all othersanderen,
261
764000
3656
waarschijnlijk denken
met een race bezig te zijn,
12:59
givengegeven that to winwinnen this racerace
is to winwinnen the worldwereld-,
262
767680
3256
en omdat deze race winnen
neerkomt op de wereld winnen,
13:02
providedvoorzien you don't destroyvernietigen it
in the nextvolgende momentmoment,
263
770960
2456
gesteld dat je hem niet direct vernietigt,
13:05
then it seemslijkt likelywaarschijnlijk
that whateverwat dan ook is easiergemakkelijker to do
264
773440
2616
dan lijkt het waarschijnlijk
dat alles wat gemakkelijker is,
13:08
will get donegedaan first.
265
776080
1200
voorrang zal krijgen.
13:10
Now, unfortunatelyhelaas,
I don't have a solutionoplossing to this problemprobleem,
266
778560
2856
Ik heb helaas geen andere oplossing
voor dit probleem
13:13
apartdeel from recommendingaanbevelen
that more of us think about it.
267
781440
2616
dan de aanbeveling dat we er
over moeten gaan nadenken.
13:16
I think we need something
like a ManhattanManhattan ProjectProject
268
784080
2376
Ik denk aan iets als een Manhattan Project
13:18
on the topiconderwerp of artificialkunstmatig intelligenceintelligentie-.
269
786480
2016
over kunstmatige intelligentie.
13:20
Not to buildbouwen it, because I think
we'llgoed inevitablyonvermijdelijk do that,
270
788520
2736
Niet om het te bouwen,
want dat gaan we sowieso doen,
13:23
but to understandbegrijpen
how to avoidvermijden an armsarmen racerace
271
791280
3336
maar om te begrijpen
hoe een wapenwedloop te voorkomen
13:26
and to buildbouwen it in a way
that is aligneduitgelijnd with our interestsbelangen.
272
794640
3496
en het zo te bouwen
dat het onze belangen dient.
13:30
When you're talkingpratend
about superintelligentsuperintelligente AIAI
273
798160
2136
Als je over superintelligente AI praat
13:32
that can make changesveranderingen to itselfzelf,
274
800320
2256
die zichzelf kan aanpassen,
13:34
it seemslijkt that we only have one chancekans
to get the initialeerste conditionsvoorwaarden right,
275
802600
4616
lijkt het erop dat we
maar één kans hebben
om de beginvoorwaarden goed te krijgen
13:39
and even then we will need to absorbabsorberen
276
807240
2056
en zelfs dan zullen we moeten leren omgaan
13:41
the economiceconomisch and politicalpolitiek
consequencesgevolgen of gettingkrijgen them right.
277
809320
3040
met de economische en politieke
gevolgen van die goede beginvoorwaarden.
13:45
But the momentmoment we admittoegeven
278
813760
2056
Maar zodra we toegeven
13:47
that informationinformatie processingverwerken
is the sourcebron of intelligenceintelligentie-,
279
815840
4000
dat informatieverwerking
de bron van intelligentie is,
13:52
that some appropriategeschikt computationalcomputational systemsysteem
is what the basisbasis of intelligenceintelligentie- is,
280
820720
4800
dat een geschikt computersysteem
aan de basis van intelligentie ligt,
13:58
and we admittoegeven that we will improveverbeteren
these systemssystemen continuouslydoorlopend,
281
826360
3760
en we toegeven dat we deze systemen
onafgebroken zullen blijven verbeteren,
14:03
and we admittoegeven that the horizonhorizon
of cognitionkennis very likelywaarschijnlijk farver exceedsoverschrijdt
282
831280
4456
en dat de kennishorizon
waarschijnlijk veel verder reikt
14:07
what we currentlymomenteel know,
283
835760
1200
dan we nu weten,
dan moeten we toegeven
14:10
then we have to admittoegeven
284
838120
1216
14:11
that we are in the processwerkwijze
of buildinggebouw some sortsoort of god.
285
839360
2640
dat we bezig zijn een soort god te maken.
14:15
Now would be a good time
286
843400
1576
Daarom moeten we er nu voor zorgen
14:17
to make sure it's a god we can liveleven with.
287
845000
1953
dat het een god is
waarmee we kunnen leven.
14:20
Thank you very much.
288
848120
1536
Dankjewel.
14:21
(ApplauseApplaus)
289
849680
5093
(Applaus)
Translated by Rik Delaet
Reviewed by Marleen Laschet

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com