ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Een geweldige toekomst met kunstmatige intelligentie

Filmed:
1,409,007 views

Veel onderzoekers op het gebied van kunstmatige intelligentie verwachten dat KI binnen tientallen jaren mensen te slim af zal zijn voor alle taken en banen, waardoor een toekomst mogelijk wordt waarin we alleen worden beperkt door de wetten van de fysica, niet door de grenzen van onze intelligentie. MIT-fysicus en KI-onderzoeker Max Tegmark scheidt de echte kansen en bedreigingen van de mythen en beschrijft de concrete stappen die we vandaag moeten nemen om ervoor te zorgen dat KI uiteindelijk het beste is -- in plaats van het ergste -- dat de mensheid ooit zal overkomen.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionmiljard yearsjaar
of cosmickosmisch historygeschiedenis,
0
760
4416
Na 13,8 miljard jaar
kosmische geschiedenis
is ons universum wakker geworden
00:17
our universeuniversum has wokengewekt up
1
5200
2096
en zich bewust geworden van zichzelf.
00:19
and becomeworden awarebewust of itselfzelf.
2
7320
1520
00:21
From a smallklein blueblauw planetplaneet,
3
9480
1936
Vanuit een kleine blauwe planeet
00:23
tinyklein, consciousbewust partsonderdelen of our universeuniversum
have begunbegonnen gazingstaren out into the cosmoskosmos
4
11440
4136
begonnen kleine, bewuste delen van
ons universum naar de kosmos te staren
00:27
with telescopestelescopen,
5
15600
1376
en ontdekten met telescopen
iets dat nederig maakt.
00:29
discoveringontdekken something humblingvernedering.
6
17000
1480
00:31
We'veWe hebben discoveredontdekt that our universeuniversum
is vastlyenorm grandergrootser
7
19320
2896
We ontdekten dat ons universum
veel, veel groter was
00:34
than our ancestorsvoorvaders imaginedingebeeld
8
22240
1336
dan onze voorouders dachten
00:35
and that life seemslijkt to be an almostbijna
imperceptiblyonmerkbaar smallklein perturbationperturbation
9
23600
4256
en dat het leven een bijna onmerkbaar
kleine verstoring lijkt te zijn
00:39
on an otherwiseanders- deaddood universeuniversum.
10
27880
1720
in een verder doods universum.
00:42
But we'vewij hebben alsoook discoveredontdekt
something inspiringinspirerende,
11
30320
3016
Maar we ontdekten ook iets inspirerends,
00:45
whichwelke is that the technologytechnologie
we're developingontwikkelen has the potentialpotentieel
12
33360
2976
namelijk dat onze technologie het leven
00:48
to help life flourishfloreren like never before,
13
36360
2856
kon laten floreren als nooit tevoren,
00:51
not just for centurieseeuwen
but for billionsmiljarden of yearsjaar,
14
39240
3096
niet alleen voor eeuwen,
maar voor miljarden jaren
00:54
and not just on earthaarde but throughoutoveral
much of this amazingverbazingwekkend cosmoskosmos.
15
42360
4120
en niet alleen op aarde, maar in een
groot deel van deze geweldige kosmos.
00:59
I think of the earliestvroegste life as "Life 1.0"
16
47680
3336
Ik denk aan dat eerste
leven als ‘Leven 1.0’
01:03
because it was really dumbstom,
17
51040
1376
want het was echt dom,
01:04
like bacteriabacterie, unableniet in staat to learnleren
anything duringgedurende its lifetimelevenslang.
18
52440
4296
zoals bacteriën, niet in staat
om tijdens de levensduur iets te leren.
01:08
I think of us humansmensen as "Life 2.0"
because we can learnleren,
19
56760
3376
Ik zie ons mensen als ‘Leven 2.0’
omdat we kunnen leren,
01:12
whichwelke we in nerdynerdy, geekgeek speakspreken,
20
60160
1496
wat wij in computerjargon
zouden zien als het installeren van
nieuwe software in onze hersenen,
01:13
mightmacht think of as installinginstalleren
newnieuwe softwaresoftware into our brainshersenen,
21
61680
3216
01:16
like languagestalen and jobbaan skillsvaardigheden.
22
64920
2120
zaken als talen en beroepsvaardigheden.
01:19
"Life 3.0," whichwelke can designontwerp not only
its softwaresoftware but alsoook its hardwarehardware
23
67680
4296
‘Het leven 3.0’ kan dan zijn software,
maar ook zijn hardware ontwerpen.
01:24
of courseCursus doesn't existbestaan yetnog.
24
72000
1656
Natuurlijk bestaat dat nog niet.
01:25
But perhapsmisschien our technologytechnologie
has alreadynu al madegemaakt us "Life 2.1,"
25
73680
3776
Maar misschien heeft onze technologie
ons toch al ‘Leven 2.1’ bezorgd
01:29
with our artificialkunstmatig kneesknieën,
pacemakerspacemakers and cochlearcochleair implantsimplantaten.
26
77480
4336
met onze kunstknieën,
pacemakers en cochleaire implantaten.
01:33
So let's take a closerdichterbij look
at our relationshipverhouding with technologytechnologie, OK?
27
81840
3880
Laten we eens een kijkje nemen
op onze relatie met technologie, oké?
01:38
As an examplevoorbeeld,
28
86800
1216
Bijvoorbeeld:
01:40
the ApolloApollo 11 moonmaan missionmissie
was bothbeide successfulgeslaagd and inspiringinspirerende,
29
88040
5296
de Apollo 11-maanmissie
was zowel succesvol als inspirerend,
waaruit blijkt dat wanneer wij mensen
verstandig gebruik maken van technologie,
01:45
showingtonen that when we humansmensen
use technologytechnologie wiselyverstandig,
30
93360
3016
01:48
we can accomplishbereiken things
that our ancestorsvoorvaders could only dreamdroom of.
31
96400
3936
we dingen kunnen verwezenlijken waarvan
onze voorouders slechts konden dromen.
01:52
But there's an even more inspiringinspirerende journeyreis
32
100360
2976
Maar er is een nog inspirerender reis
01:55
propelledPropelled by something
more powerfulkrachtig than rocketraket enginesmotoren,
33
103360
2680
aangedreven door iets dat
machtiger is dan raketmotoren,
01:59
where the passengerspassagiers
aren'tzijn niet just threedrie astronautsastronauten
34
107200
2336
waar de passagiers
niet slechts drie astronauten
02:01
but all of humanityde mensheid.
35
109560
1776
maar de hele mensheid is.
02:03
Let's talk about our collectivecollectief
journeyreis into the futuretoekomst
36
111360
2936
Laten we praten over onze
gezamenlijke reis naar een toekomst
02:06
with artificialkunstmatig intelligenceintelligentie-.
37
114320
2000
met kunstmatige intelligentie.
02:08
My friendvriend JaanJaan TallinnTallinn likessympathieën to pointpunt out
that just as with rocketryRocketry,
38
116960
4536
Mijn vriend Jaan Tallinn wijst er
graag op dat net als bij raketten
02:13
it's not enoughgenoeg to make
our technologytechnologie powerfulkrachtig.
39
121520
3160
het niet genoeg is om onze
technologie krachtiger te maken.
02:17
We alsoook have to figurefiguur out,
if we're going to be really ambitiousambitieuze,
40
125560
3175
We moeten ook uitvinden,
als we ze echt willen,
02:20
how to steersturen it
41
128759
1416
hoe ze te sturen
02:22
and where we want to go with it.
42
130199
1681
en waar we ermee naartoe willen.
02:24
So let's talk about all threedrie
for artificialkunstmatig intelligenceintelligentie-:
43
132880
2840
Laten we daar eens over praten
in verband met kunstmatige intelligentie:
02:28
the powermacht, the steeringstuurinrichting
and the destinationbestemming.
44
136440
3056
de kracht, de besturing en de bestemming.
02:31
Let's startbegin with the powermacht.
45
139520
1286
Laten we beginnen met de kracht.
02:33
I definebepalen intelligenceintelligentie- very inclusivelyinclusief --
46
141600
3096
Ik definieer intelligentie
zeer inclusief --
02:36
simplyeenvoudigweg as our abilityvermogen
to accomplishbereiken complexcomplex goalsdoelen,
47
144720
4336
gewoon als ons vermogen om
complexe doelen te bereiken,
02:41
because I want to includeomvatten bothbeide
biologicalbiologisch and artificialkunstmatig intelligenceintelligentie-.
48
149080
3816
want ik wil zowel biologische als
kunstmatige intelligentie erin opnemen.
02:44
And I want to avoidvermijden
the sillydwaas carbon-chauvinismkoolstof-chauvinisme ideaidee
49
152920
4016
En ik wil af van het
domme koolstof-chauvinisme
02:48
that you can only be smartslim
if you're madegemaakt of meatvlees.
50
156960
2360
dat je alleen slim kunt zijn
als je gemaakt bent van vlees.
02:52
It's really amazingverbazingwekkend how the powermacht
of AIAI has growngegroeid recentlykort geleden.
51
160880
4176
Het is echt verbazingwekkend hoe
de kracht van KI onlangs is gegroeid.
02:57
Just think about it.
52
165080
1256
Denk er gewoon over na.
02:58
Not long agogeleden, robotsrobots couldn'tkon het niet walklopen.
53
166360
3200
Nog niet zo lang geleden
konden robots niet lopen.
03:03
Now, they can do backflipsbackflips.
54
171040
1720
Nu maken ze achterwaartse salto’s.
03:06
Not long agogeleden,
55
174080
1816
Niet lang geleden
03:07
we didn't have self-drivingzelf rijden carsauto's.
56
175920
1760
hadden we geen zelfrijdende auto's.
03:10
Now, we have self-flyingzelf vliegen rocketsraketten.
57
178920
2480
Nu hebben we zelfvliegende raketten.
03:15
Not long agogeleden,
58
183960
1416
Niet lang geleden
03:17
AIAI couldn'tkon het niet do facegezicht recognitionerkenning.
59
185400
2616
kon KI geen gezichten herkennen.
03:20
Now, AIAI can generatevoortbrengen fakenep facesgezichten
60
188040
2976
Nu kan KI nepgezichten genereren
03:23
and simulatesimuleren your facegezicht
sayinggezegde stuffspul that you never said.
61
191040
4160
en je gezicht dingen laten zeggen
die je nooit hebt gezegd.
03:28
Not long agogeleden,
62
196400
1576
Niet lang geleden
03:30
AIAI couldn'tkon het niet beatovertreffen us at the gamespel of Go.
63
198000
1880
kon KI niet van ons
winnen bij het Go-spel.
03:32
Then, GoogleGoogle DeepMind'sDeepMind van AlphaZeroAlphaZero AIAI
tooknam 3,000 yearsjaar of humanmenselijk Go gamesspellen
64
200400
5096
Dan absorbeerde Googles
DeepMind AlphaZero KI
3.000 jaar van menselijke Go-games
03:37
and Go wisdomwijsheid,
65
205520
1256
en Go-wijsheid,
03:38
ignoredbuiten beschouwing gelaten it all and becamewerd the world's's werelds bestbeste
playerspeler by just playingspelen againsttegen itselfzelf.
66
206800
4976
negeerde het allemaal
en werd de beste speler ter wereld
door simpelweg tegen zichzelf te spelen.
03:43
And the mostmeest impressiveindrukwekkend featFeat here
wasn'twas niet that it crushedverpletterd humanmenselijk gamersgamers,
67
211800
3696
De indrukwekkendste prestatie was hier
niet dat het menselijke gamers versloeg,
03:47
but that it crushedverpletterd humanmenselijk AIAI researchersonderzoekers
68
215520
2576
maar dat het menselijke
Kl-onderzoekers versloeg
03:50
who had spentdoorgebracht decadestientallen jaren
handcraftinghandcrafting game-playingspel-spelen softwaresoftware.
69
218120
3680
die tientallen jaren hadden besteed
aan het ontwerpen van spelsoftware.
03:54
And AlphaZeroAlphaZero crushedverpletterd humanmenselijk AIAI researchersonderzoekers
not just in Go but even at chessschaak,
70
222200
4656
En AlphaZero verpletterde
menselijke KI-onderzoekers
niet alleen in Go, maar zelfs bij schaken,
03:58
whichwelke we have been workingwerkend on sincesinds 1950.
71
226880
2480
waar we al sinds 1950 aan hadden gewerkt.
04:02
So all this amazingverbazingwekkend recentrecent progressvooruitgang in AIAI
really begssmeekt the questionvraag:
72
230000
4240
Al die geweldige recente vooruitgang
in KI roept echter de vraag op:
04:07
How farver will it go?
73
235280
1560
hoe ver zal het gaan?
04:09
I like to think about this questionvraag
74
237800
1696
Ik denk graag na over deze vraag
04:11
in termstermen of this abstractabstract
landscapelandschap of taskstaken,
75
239520
2976
in termen van dit abstracte
landschap van taken,
04:14
where the elevationverhoging representsvertegenwoordigt
how hardhard it is for AIAI to do eachelk tasktaak
76
242520
3456
waar de hoogte aangeeft in hoeverre
KI elke taak kan uitvoeren
04:18
at humanmenselijk levelniveau,
77
246000
1216
op menselijk niveau,
04:19
and the seazee levelniveau representsvertegenwoordigt
what AIAI can do todayvandaag.
78
247240
2760
en de zeespiegel vertegenwoordigt
wat KI vandaag kan doen.
De zeespiegel stijgt
naarmate KI beter wordt,
04:23
The seazee levelniveau is risingstijgende lijn
as AIAI improvesverbetert,
79
251120
2056
wat dit taaklandschap doet lijken
op een opwarmende aarde.
04:25
so there's a kindsoort of globalglobaal warmingverwarming
going on here in the tasktaak landscapelandschap.
80
253200
3440
Kies dus geen job aan de kust uit --
04:30
And the obviousduidelijk takeawayafhaalmaaltijden
is to avoidvermijden careerscarrières at the waterfrontwaterkant --
81
258040
3335
(Gelach)
04:33
(LaughterGelach)
82
261399
1257
04:34
whichwelke will soonspoedig be
automatedautomated and disruptedverstoord.
83
262680
2856
waar je binnenkort automatisatie
en jobverlies kan verwachten.
04:37
But there's a much
biggergroter questionvraag as well.
84
265560
2976
Maar er is een nog veel grotere vraag.
04:40
How highhoog will the waterwater endeinde up risingstijgende lijn?
85
268560
1810
Hoe hoog zal het water
uiteindelijk stijgen?
04:43
Will it eventuallytenslotte risestijgen
to floodoverstroming everything,
86
271440
3200
Zal uiteindelijk alles onderlopen
en menselijke intelligentie
voor alle taken evenaren?
04:47
matchingmatching humanmenselijk intelligenceintelligentie- at all taskstaken.
87
275840
2496
04:50
This is the definitiondefinitie
of artificialkunstmatig generalalgemeen intelligenceintelligentie- --
88
278360
3736
Dit is de definitie van
kunstmatige algemene intelligentie:
04:54
AGIAGI,
89
282120
1296
KAI.
Dat is vanaf het begin
de heilige graal van het KI-onderzoek.
04:55
whichwelke has been the holyHeilige grailGraal
of AIAI researchOnderzoek sincesinds its inceptionbegin.
90
283440
3080
Sommige mensen zeggen:
04:59
By this definitiondefinitie, people who say,
91
287000
1776
05:00
"AhAh, there will always be jobsjobs
that humansmensen can do better than machinesmachines,"
92
288800
3416
"Ach, sommige banen zullen mensen
altijd beter kunnen dan machines."
05:04
are simplyeenvoudigweg sayinggezegde
that we'llgoed never get AGIAGI.
93
292240
2920
Die zeggen in feite
dat we nooit KAI zullen krijgen.
05:07
Sure, we mightmacht still chooseKiezen
to have some humanmenselijk jobsjobs
94
295680
3576
Natuurlijk kunnen we nog steeds zorgen
voor een aantal menselijke banen
05:11
or to give humansmensen incomeinkomen
and purposedoel with our jobsjobs,
95
299280
3096
of voor mensen zingeving
en inkomen regelen zonder baan,
05:14
but AGIAGI will in any casegeval
transformtransformeren life as we know it
96
302400
3736
maar KAI zal in ieder geval het leven
zoals wij dat kennen transformeren
05:18
with humansmensen no longerlanger beingwezen
the mostmeest intelligentintelligent.
97
306160
2736
met de mens niet langer
als de meest intelligente.
05:20
Now, if the waterwater levelniveau does reachberijk AGIAGI,
98
308920
3696
Als het waterpeil KAI zal bereiken,
05:24
then furtherverder AIAI progressvooruitgang will be drivenaangedreven
mainlyhoofdzakelijk not by humansmensen but by AIAI,
99
312640
5296
dan zal verdere vooruitgang van KI
meestal niet door mensen,
maar door KI zelf gebeuren.
Dat houdt de mogelijkheid in
05:29
whichwelke meansmiddelen that there's a possibilitymogelijkheid
100
317960
1856
05:31
that furtherverder AIAI progressvooruitgang
could be way fastersneller
101
319840
2336
dat verdere KI-vooruitgang
veel sneller kan gaan
05:34
than the typicaltypisch humanmenselijk researchOnderzoek
and developmentontwikkeling timescaletijdschaal of yearsjaar,
102
322200
3376
dan door typisch menselijk onderzoek
en ontwikkelingsduren van jaren,
05:37
raisingverheffing the controversialcontroversieel possibilitymogelijkheid
of an intelligenceintelligentie- explosionexplosie
103
325600
4016
met de omstreden mogelijkheid
van een intelligentie-explosie
05:41
where recursivelyrecursief self-improvingzelf verbetering AIAI
104
329640
2296
waarbij de recursieve
zelfverbetering van KI
05:43
rapidlysnel leavesbladeren humanmenselijk
intelligenceintelligentie- farver behindachter,
105
331960
3416
snel de menselijke intelligentie
ver achter zich laat
05:47
creatinghet creëren van what's knownbekend
as superintelligencesuperintelligentie.
106
335400
2440
en superintelligentie creëert.
05:51
AlrightOke, realityrealiteit checkcontroleren:
107
339800
2280
Oké, even toetsen aan de werkelijkheid:
05:55
Are we going to get AGIAGI any time soonspoedig?
108
343120
2440
staat KAI er snel aan te komen?
05:58
Some famousberoemd AIAI researchersonderzoekers,
like RodneyRodney BrooksBrooks,
109
346360
2696
Enkele beroemde KI-onderzoekers,
zoals Rodney Brooks,
06:01
think it won'tzal niet happengebeuren
for hundredshonderden of yearsjaar.
110
349080
2496
denken dat het niet voor
de eerste honderden jaren is.
06:03
But othersanderen, like GoogleGoogle DeepMindDeepMind
founderoprichter DemisDemis HassabisHassabis,
111
351600
3896
Maar anderen, zoals de oprichter
van Google DeepMind, Demis Hassabis,
06:07
are more optimisticoptimistisch
112
355520
1256
zijn optimistischer
06:08
and are workingwerkend to try to make
it happengebeuren much soonereerder.
113
356800
2576
en werken eraan om het veel
sneller te laten gebeuren.
06:11
And recentrecent surveysenquêtes have showngetoond
that mostmeest AIAI researchersonderzoekers
114
359400
3296
Recente onderzoeken hebben aangetoond
dat de meeste KI-onderzoekers
06:14
actuallywerkelijk sharedelen Demis'sDemis van optimismoptimisme,
115
362720
2856
eigenlijk Demis's optimisme delen.
06:17
expectingervan uitgaand that we will
get AGIAGI withinbinnen decadestientallen jaren,
116
365600
3080
Ze verwachten KAI binnen
enkele tientallen jaren,
06:21
so withinbinnen the lifetimelevenslang of manyveel of us,
117
369640
2256
dus nog tijdens
het leven van velen van ons.
06:23
whichwelke begssmeekt the questionvraag -- and then what?
118
371920
1960
Wat de vraag oproept: en dan?
06:27
What do we want the rolerol of humansmensen to be
119
375040
2216
Welke rol krijgt de mens toebedeeld
als machines alles beter en goedkoper
dan wij gaan kunnen doen?
06:29
if machinesmachines can do everything better
and cheapergoedkoper than us?
120
377280
2680
06:35
The way I see it, we facegezicht a choicekeuze.
121
383000
2000
Zoals ik het zie,
staan ​​we voor een keuze.
Een optie is achteroverleunen:
06:38
One optionkeuze is to be complacentzelfgenoegzaam.
122
386000
1576
06:39
We can say, "Oh, let's just buildbouwen machinesmachines
that can do everything we can do
123
387600
3776
"Ach, we bouwen alleen machines
die alles beter kunnen dan wij
en maken ons verder geen zorgen.
06:43
and not worryzorgen about the consequencesgevolgen.
124
391400
1816
06:45
Come on, if we buildbouwen technologytechnologie
that makesmerken all humansmensen obsoleteverouderd,
125
393240
3256
Kom nu, als we technologie bouwen
die alle mensen overbodig maakt,
06:48
what could possiblymogelijk go wrongfout?"
126
396520
2096
wat zou er dan mis kunnen gaan?"
06:50
(LaughterGelach)
127
398640
1656
(Gelach)
06:52
But I think that would be
embarrassinglybeschamend lamekreupel.
128
400320
2760
Maar ik denk dat dat
beschamend stom zou zijn.
06:56
I think we should be more ambitiousambitieuze --
in the spiritgeest of TEDTED.
129
404080
3496
Ik denk dat we ambitieuzer moeten zijn
-- in de geest van TED.
06:59
Let's envisionvoor ogen a trulywerkelijk inspiringinspirerende
high-techhigh Tech futuretoekomst
130
407600
3496
Laten we een echt inspirerende
hightech toekomst voor ogen houden
en proberen daar naartoe te sturen.
07:03
and try to steersturen towardsnaar it.
131
411120
1400
07:05
This bringsbrengt us to the secondtweede partdeel
of our rocketraket metaphormetafoor: the steeringstuurinrichting.
132
413720
3536
Dit brengt ons bij het tweede deel
van onze raketmetafoor: de besturing.
07:09
We're makingmaking AIAI more powerfulkrachtig,
133
417280
1896
We maken KI krachtiger,
07:11
but how can we steersturen towardsnaar a futuretoekomst
134
419200
3816
maar hoe sturen we naar een toekomst
waar KI de mensheid helpt bloeien
in plaats van in problemen te geraken?
07:15
where AIAI helpshelpt humanityde mensheid flourishfloreren
ratherliever than flounderbot?
135
423040
3080
Daarvoor richtte ik mede het 'Toekomst
van het Leven Instituut' op.
07:18
To help with this,
136
426760
1256
07:20
I cofoundedsamen the FutureToekomst of Life InstituteInstituut.
137
428040
1976
07:22
It's a smallklein nonprofitnon-profit promotinghet bevorderen van
beneficialgunstig technologytechnologie use,
138
430040
2776
Een kleine non-profit voor
heilzame technologie.
07:24
and our goaldoel is simplyeenvoudigweg
for the futuretoekomst of life to existbestaan
139
432840
2736
Ons doel is gewoon om
het leven in stand te houden
07:27
and to be as inspiringinspirerende as possiblemogelijk.
140
435600
2056
en het zo inspirerend
mogelijk te laten zijn.
07:29
You know, I love technologytechnologie.
141
437680
3176
Want ik hou van technologie.
07:32
TechnologyTechnologie is why todayvandaag
is better than the StoneStone AgeLeeftijd.
142
440880
2920
Technologie is de reden waarom
het nu beter is dan in de steentijd.
07:36
And I'm optimisticoptimistisch that we can createcreëren
a really inspiringinspirerende high-techhigh Tech futuretoekomst ...
143
444600
4080
Ik ben optimistisch voor een
inspirerende hightechtoekomst ...
als -- een grote als --
07:41
if -- and this is a biggroot if --
144
449680
1456
07:43
if we winwinnen the wisdomwijsheid racerace --
145
451160
2456
als we de wijsheidsrace winnen,
07:45
the racerace betweentussen the growinggroeiend
powermacht of our technologytechnologie
146
453640
2856
de race tussen de groeiende
macht van onze technologie
en de groeiende wijsheid
waarmee wij ermee omgaan.
07:48
and the growinggroeiend wisdomwijsheid
with whichwelke we managebeheren it.
147
456520
2200
Maar dit vraagt om
een ​​verandering van strategie
07:51
But this is going to requirevereisen
a changeverandering of strategystrategie
148
459240
2296
07:53
because our oldoud strategystrategie
has been learningaan het leren from mistakesfouten.
149
461560
3040
want onze oude strategie
bestond uit het leren van fouten.
07:57
We inventeduitgevonden firebrand,
150
465280
1536
We vonden het vuur uit,
-- en verbrandden ons wel eens --
07:58
screwedgeschroefd up a bunchbos of timestijden --
151
466840
1536
08:00
inventeduitgevonden the firebrand extinguisherBrandblusser.
152
468400
1816
maar we vonden de brandblusser uit.
08:02
(LaughterGelach)
153
470240
1336
(Gelach)
08:03
We inventeduitgevonden the carauto,
screwedgeschroefd up a bunchbos of timestijden --
154
471600
2416
De auto was ook niet al te veilig --
08:06
inventeduitgevonden the trafficverkeer lightlicht,
the seatstoel beltriem and the airbagairbag,
155
474040
2667
maar dan kwamen
verkeerslichten, gordel en airbag.
08:08
but with more powerfulkrachtig technologytechnologie
like nuclearnucleair weaponswapens and AGIAGI,
156
476731
3845
Met krachtiger technologie
zoals nucleaire wapens en KAI
08:12
learningaan het leren from mistakesfouten
is a lousyberoerd strategystrategie,
157
480600
3376
is leren van fouten een slechte strategie,
vind je niet?
08:16
don't you think?
158
484000
1216
(Gelach)
08:17
(LaughterGelach)
159
485240
1016
Veel beter is het om proactief
te zijn in plaats van reactief:
08:18
It's much better to be proactiveproactieve
ratherliever than reactivereactieve;
160
486280
2576
08:20
planplan aheadverder and get things
right the first time
161
488880
2296
vooruit plannen en alles gelijk goed doen.
08:23
because that mightmacht be
the only time we'llgoed get.
162
491200
2496
Het is misschien
de enige kans die we krijgen.
08:25
But it is funnygrappig because
sometimessoms people tell me,
163
493720
2336
Dat is grappig, soms
zeggen mensen tegen mij:
08:28
"MaxMax, shhhShhh, don't talk like that.
164
496080
2736
"Max, psst, praat niet zo.
08:30
That's LudditeLuddisme scaremongeringbangmakerij."
165
498840
1720
Dat is bangmakerij voor techniek."
08:34
But it's not scaremongeringbangmakerij.
166
502040
1536
Maar het is geen bangmakerij.
08:35
It's what we at MITMIT
call safetyveiligheid engineeringbouwkunde.
167
503600
2880
Aan het MIT heten we
dat veiligheidstechniek.
08:39
Think about it:
168
507200
1216
Denk eens:
08:40
before NASANASA launchedgelanceerd
the ApolloApollo 11 missionmissie,
169
508440
2216
voordat NASA begon
met de Apollo 11-missie
08:42
they systematicallysystematisch thought throughdoor
everything that could go wrongfout
170
510680
3136
gingen ze systematisch na
wat er mis kon gaan
als ze mensen bovenop
explosieve brandstoftanks zetten
08:45
when you put people
on toptop of explosiveontplofbaar fuelbrandstof tankstanks
171
513840
2376
08:48
and launchlancering them somewhereergens
where no one could help them.
172
516240
2616
en ze stuurden naar waar
niemand ze nog kon helpen.
08:50
And there was a lot that could go wrongfout.
173
518880
1936
En er kon veel misgaan.
08:52
Was that scaremongeringbangmakerij?
174
520840
1480
Was dat bangmakerij?
08:55
No.
175
523159
1217
Nee.
Het was precies de veiligheidstechniek
08:56
That's was preciselyprecies
the safetyveiligheid engineeringbouwkunde
176
524400
2016
die instond voor het succes van de missie,
08:58
that ensuredverzekerd the successsucces of the missionmissie,
177
526440
1936
en dat is precies de strategie
die we volgens mij nodig hebben met KAI.
09:00
and that is preciselyprecies the strategystrategie
I think we should take with AGIAGI.
178
528400
4176
09:04
Think throughdoor what can go wrongfout
to make sure it goesgaat right.
179
532600
4056
Denk na over wat er mis kan gaan
om ervoor te zorgen dat het goed gaat.
09:08
So in this spiritgeest,
we'vewij hebben organizedgeorganiseerd conferencesconferenties,
180
536680
2536
In deze geest organiseerden
we conferenties en brachten we
09:11
bringingbrengen togethersamen leadingleidend
AIAI researchersonderzoekers and other thinkersdenkers
181
539240
2816
toonaangevende KI-onderzoekers
en andere denkers samen
09:14
to discussbespreken how to growgroeien this wisdomwijsheid
we need to keep AIAI beneficialgunstig.
182
542080
3736
om te bespreken hoe de wijsheid
te ontwikkelen om KI heilzaam te houden.
09:17
Our last conferenceconferentie
was in AsilomarAsilomar, CaliforniaCalifornië last yearjaar
183
545840
3296
Onze laatste conferentie was vorig jaar
in Asilomar in Californië
en gaf ons deze lijst van 23 principes
09:21
and producedgeproduceerd this listlijst of 23 principlesprincipes
184
549160
3056
die sindsdien is ondertekend
door meer dan 1000 KI-onderzoekers
09:24
whichwelke have sincesinds been signedondertekend
by over 1,000 AIAI researchersonderzoekers
185
552240
2896
en de belangrijkste industriële leiders.
09:27
and keysleutel industryindustrie leadersleiders,
186
555160
1296
09:28
and I want to tell you
about threedrie of these principlesprincipes.
187
556480
3176
Ik wil jullie wat vertellen
over drie van deze principes.
09:31
One is that we should avoidvermijden an armsarmen racerace
and lethaldodelijk autonomousautonoom weaponswapens.
188
559680
4960
Eén is dat we geen wapenwedloop en
dodelijke autonome wapens willen.
09:37
The ideaidee here is that any sciencewetenschap
can be used for newnieuwe waysmanieren of helpinghelpen people
189
565480
3616
Alle wetenschap kan mensen
ofwel op nieuwe manieren helpen
of op nieuwe manieren schaden.
09:41
or newnieuwe waysmanieren of harmingharming people.
190
569120
1536
09:42
For examplevoorbeeld, biologybiologie and chemistrychemie
are much more likelywaarschijnlijk to be used
191
570680
3936
Zo worden bijvoorbeeld biologie
en scheikunde liever gebruikt
09:46
for newnieuwe medicinesgeneesmiddelen or newnieuwe cureskuren
than for newnieuwe waysmanieren of killingdoden people,
192
574640
4856
voor nieuwe geneesmiddelen
of nieuwe geneeswijzen
dan voor nieuwe manieren
om mensen te doden,
09:51
because biologistsbiologen
and chemistschemici pushedgeduwd hardhard --
193
579520
2176
omdat biologen en chemici
hard aandrongen
09:53
and successfullymet succes --
194
581720
1256
-- en met succes --
op een verbod op biologische
en chemische wapens.
09:55
for bansverboden on biologicalbiologisch
and chemicalchemisch weaponswapens.
195
583000
2176
09:57
And in the samedezelfde spiritgeest,
196
585200
1256
In dezelfde geest willen de meeste
09:58
mostmeest AIAI researchersonderzoekers want to stigmatizestigmatiseren
and banban lethaldodelijk autonomousautonoom weaponswapens.
197
586480
4440
KI-onderzoekers dodelijke autonome
wapens brandmerken en verbieden.
10:03
AnotherEen ander AsilomarAsilomar AIAI principlebeginsel
198
591600
1816
Een ander Asilomar KI-principe
10:05
is that we should mitigateverzachten
AI-fueledAI-fueled incomeinkomen inequalityongelijkheid.
199
593440
3696
is dat we door KI veroorzaakte
inkomensongelijkheid moeten inperken.
10:09
I think that if we can growgroeien
the economiceconomisch pietaart dramaticallydramatisch with AIAI
200
597160
4456
Als we met KI de economische koek
dramatisch kunnen laten groeien,
maar niet kunnen achterhalen
hoe de taart zo te verdelen
10:13
and we still can't figurefiguur out
how to divideverdelen this pietaart
201
601640
2456
10:16
so that everyoneiedereen is better off,
202
604120
1576
dat iedereen beter af is,
10:17
then shameschande on us.
203
605720
1256
moeten we beschaamd zijn.
10:19
(ApplauseApplaus)
204
607000
4096
(Applaus)
10:23
AlrightOke, now raiseverhogen your handhand-
if your computercomputer has ever crashedcrashte.
205
611120
3600
Oké, steek je hand op als
je computer ooit is gecrasht.
(Gelach)
10:27
(LaughterGelach)
206
615480
1256
Wauw, dat zijn veel handen.
10:28
WowWow, that's a lot of handshanden.
207
616760
1656
10:30
Well, then you'llje zult appreciateop prijs stellen
this principlebeginsel
208
618440
2176
Nou, dan zul je wel het principe waarderen
dat we veel meer moeten investeren
in veiligheidsonderzoek voor KI.
10:32
that we should investinvesteren much more
in AIAI safetyveiligheid researchOnderzoek,
209
620640
3136
10:35
because as we put AIAI in chargein rekening brengen
of even more decisionsbeslissingen and infrastructureinfrastructuur,
210
623800
3656
Als we KI verantwoordelijk maken
voor meer beslissingen en infrastructuur,
10:39
we need to figurefiguur out how to transformtransformeren
today'svandaag buggybuggy and hackablegehackt computerscomputers
211
627480
3616
moeten we uitvissen hoe we de huidige
foutgevoelige en hackbare computers
10:43
into robustrobuust AIAI systemssystemen
that we can really trustvertrouwen,
212
631120
2416
kunnen omvormen tot robuuste,
betrouwbare KI-systemen.
10:45
because otherwiseanders-,
213
633560
1216
Anders hapert die geweldige technologie
en brengt ze ons schade toe
10:46
all this awesomegeweldig newnieuwe technologytechnologie
can malfunctionstoring and harmkwaad us,
214
634800
2816
of wordt ze gehackt en tegen ons gekeerd.
10:49
or get hackedgehackt and be turnedgedraaid againsttegen us.
215
637640
1976
10:51
And this AIAI safetyveiligheid work
has to includeomvatten work on AIAI valuewaarde alignmentuitlijning,
216
639640
5696
Dit werk voor veilige KI moet ook zorgen
dat KI overeenstemt met onze waarden,
10:57
because the realecht threatbedreiging
from AGIAGI isn't maliceMalice,
217
645360
2816
omdat de echte dreiging van KAI
niet kwaadaardigheid is,
11:00
like in sillydwaas HollywoodHollywood moviesfilms,
218
648200
1656
zoals in domme Hollywood-films,
11:01
but competencebevoegdheid --
219
649880
1736
maar competentie,
waarbij KAI eigen doelstellingen
gaat nastreven die niet de onze zijn.
11:03
AGIAGI accomplishingvolbrengen goalsdoelen
that just aren'tzijn niet aligneduitgelijnd with oursDe onze.
220
651640
3416
11:07
For examplevoorbeeld, when we humansmensen drovedreef
the WestWest AfricanAfrikaanse blackzwart rhinoRhino extinctuitgestorven,
221
655080
4736
Toen wij mensen de West-Afrikaanse
zwarte neushoorn tot uitsterven dreven,
deden we dat toch niet omdat we
allemaal boze neushoornhaters waren, hè?
11:11
we didn't do it because we were a bunchbos
of evilonheil rhinocerosneushoorn hatershaters, did we?
222
659840
3896
We deden het omdat wij
slimmer waren dan zij
11:15
We did it because
we were smarterslimmer than them
223
663760
2056
11:17
and our goalsdoelen weren'twaren niet aligneduitgelijnd with theirshunne.
224
665840
2576
en onze doelen zijn niet
overeenkwamen met de hunne.
11:20
But AGIAGI is by definitiondefinitie smarterslimmer than us,
225
668440
2656
Maar KAI is per definitie slimmer dan ons.
11:23
so to make sure that we don't put
ourselvesonszelf in the positionpositie of those rhinosneushoorns
226
671120
3576
Om te vermijden dat ons hetzelfde
overkomt als die neushoorns
11:26
if we createcreëren AGIAGI,
227
674720
1976
bij het creëren van KAI,
11:28
we need to figurefiguur out how
to make machinesmachines understandbegrijpen our goalsdoelen,
228
676720
4176
moeten we erachter zien te komen hoe
machines onze doelen kunnen begrijpen
11:32
adoptadopteren our goalsdoelen and retainbehouden our goalsdoelen.
229
680920
3160
en onze doelen overnemen en aanhouden.
11:37
And whosewaarvan goalsdoelen should these be, anywayin ieder geval?
230
685320
2856
En wiens doelstellingen
moeten dat dan worden?
11:40
WhichDie goalsdoelen should they be?
231
688200
1896
Welke doelen moeten dat zijn?
11:42
This bringsbrengt us to the thirdderde partdeel
of our rocketraket metaphormetafoor: the destinationbestemming.
232
690120
3560
Dat brengt ons bij het derde deel van
onze raketmetafoor: de bestemming.
11:47
We're makingmaking AIAI more powerfulkrachtig,
233
695160
1856
We maken KI krachtiger,
proberen te achterhalen hoe het te sturen,
11:49
tryingproberen to figurefiguur out how to steersturen it,
234
697040
1816
11:50
but where do we want to go with it?
235
698880
1680
maar waar willen we naartoe?
11:53
This is the elephantolifant in the roomkamer
that almostbijna nobodyniemand talksgesprekken about --
236
701760
3656
Dat is de hete brij
waar iedereen omheen draait
11:57
not even here at TEDTED --
237
705440
1856
-- zelfs hier bij TED --
11:59
because we're so fixatedgefixeerd
on short-termkorte termijn AIAI challengesuitdagingen.
238
707320
4080
omdat we zo gefixeerd zijn
op de KI-uitdagingen op korte termijn.
12:04
Look, our speciessoorten is tryingproberen to buildbouwen AGIAGI,
239
712080
4656
Kijk, onze soort probeert KAI te bouwen
12:08
motivatedgemotiveerd by curiositynieuwsgierigheid and economicseconomie,
240
716760
3496
uit nieuwsgierigheid en economie,
12:12
but what sortsoort of futuretoekomst societymaatschappij
are we hopinghoop for if we succeedslagen?
241
720280
3680
maar op wat voor toekomstige
maatschappij hopen we als het lukt?
We hielden onlangs
een opiniepeiling hierover
12:16
We did an opinionmening pollPoll on this recentlykort geleden,
242
724680
1936
12:18
and I was struckgeslagen to see
243
726640
1216
en het verbaasde me
12:19
that mostmeest people actuallywerkelijk
want us to buildbouwen superintelligencesuperintelligentie:
244
727880
2896
dat de meeste mensen
een superintelligentie willen,
12:22
AIAI that's vastlyenorm smarterslimmer
than us in all waysmanieren.
245
730800
3160
die op alle vlakken
enorm veel slimmer is dan wijzelf.
Ze vonden bijna allemaal
dat we ambitieus moeten zijn
12:27
What there was the greatestbeste agreementovereenkomst on
was that we should be ambitiousambitieuze
246
735120
3416
en het leven moesten helpen
verspreiden in de kosmos,
12:30
and help life spreadverspreiding into the cosmoskosmos,
247
738560
2016
12:32
but there was much lessminder agreementovereenkomst
about who or what should be in chargein rekening brengen.
248
740600
4496
maar er was veel minder overeenstemming
over wie of wat de baas moest zijn.
12:37
And I was actuallywerkelijk quiteheel amusedgeamuseerd
249
745120
1736
Ik vond het erg grappig
12:38
to see that there's some some people
who want it to be just machinesmachines.
250
746880
3456
dat een aantal mensen
koos voor 'alleen de machines'.
12:42
(LaughterGelach)
251
750360
1696
(Gelach)
12:44
And there was totaltotaal disagreementonenigheid
about what the rolerol of humansmensen should be,
252
752080
3856
Er was volstrekt geen overeenstemming
over de rol van de mens hierin,
12:47
even at the mostmeest basicbasis- levelniveau,
253
755960
1976
zelfs op het meest basale niveau,
12:49
so let's take a closerdichterbij look
at possiblemogelijk futuresFutures
254
757960
2816
dus laten we eens kijken
naar mogelijke toekomsten
om naartoe te willen, oké?
12:52
that we mightmacht chooseKiezen
to steersturen towardin de richting van, alrightin orde?
255
760800
2736
Begrijp me niet verkeerd.
12:55
So don't get be wrongfout here.
256
763560
1336
Ik heb het niet over ruimtereizen,
12:56
I'm not talkingpratend about spaceruimte travelreizen,
257
764920
2056
12:59
merelyalleen about humanity'sde mensheid
metaphoricalmetaforische journeyreis into the futuretoekomst.
258
767000
3200
slechts over de metaforische reis
van de mensheid naar de toekomst.
13:02
So one optionkeuze that some
of my AIAI colleaguescollega's like
259
770920
3496
Een mogelijkheid waar sommige
van mijn KI-collega’s van houden,
13:06
is to buildbouwen superintelligencesuperintelligentie
and keep it underonder humanmenselijk controlcontrole,
260
774440
3616
is om superintelligentie te bouwen
en onder menselijke controle te houden,
13:10
like an enslavedslavernij god,
261
778080
1736
als een tot slaaf gemaakte god,
13:11
disconnectedlosgekoppeld from the internetinternet
262
779840
1576
losgekoppeld van het internet
13:13
and used to createcreëren unimaginableondenkbaar
technologytechnologie and wealthrijkdom
263
781440
3256
en gebruikt om onvoorstelbare
technologie en welvaart te creëren
13:16
for whoeverwie dan ook controlscontrols it.
264
784720
1240
voor wie het controleert.
13:18
But LordLord ActonActon warnedgewaarschuwd us
265
786800
1456
Maar Lord Acton waarschuwde ons
13:20
that powermacht corruptscorrumpeert,
and absoluteabsoluut powermacht corruptscorrumpeert absolutelyAbsoluut,
266
788280
3616
dat macht corrumpeert en absolute
macht absoluut corrumpeert.
13:23
so you mightmacht worryzorgen that maybe
we humansmensen just aren'tzijn niet smartslim enoughgenoeg,
267
791920
4056
Wellicht zijn wij mensen dus
misschien gewoon niet slim genoeg,
of wijs genoeg, beter gezegd,
13:28
or wisewijs enoughgenoeg ratherliever,
268
796000
1536
13:29
to handlehandvat this much powermacht.
269
797560
1240
om zoveel macht te beheren.
13:31
AlsoOok, asideterzijde from any
moralMoreel qualmsscrupules you mightmacht have
270
799640
2536
Afgezien van wat morele scrupules
13:34
about enslavingslavernij superiorbeter mindsgeesten,
271
802200
2296
over het tot slaaf maken
van superieure geesten,
13:36
you mightmacht worryzorgen that maybe
the superintelligencesuperintelligentie could outsmartte slim af us,
272
804520
3976
zou de superintelligentie
ons misschien te slim af kunnen zijn,
13:40
breakbreken out and take over.
273
808520
2240
gaan rebelleren en de boel overnemen.
13:43
But I alsoook have colleaguescollega's
who are fine with AIAI takingnemen over
274
811560
3416
Maar sommige collega's zouden
het prima vinden dat KI het zou overnemen
13:47
and even causingveroorzakend humanmenselijk extinctionuitdoving,
275
815000
2296
en zelfs menselijk uitsterven veroorzaken,
13:49
as long as we feel the the AIsAIs
are our worthywaardig descendantsnakomelingen,
276
817320
3576
zolang we voelen dat de KI's
onze waardige nakomelingen zijn,
13:52
like our childrenkinderen.
277
820920
1736
net als onze kinderen.
13:54
But how would we know that the AIsAIs
have adoptedgeadopteerd our bestbeste valueswaarden
278
822680
5616
Hoe zouden we weten dat KI's zich zouden
vereenzelvigen met onze beste waarden
14:00
and aren'tzijn niet just unconsciousbewusteloos zombieszombies
trickingtricking us into anthropomorphizinganthropomorphizing them?
279
828320
4376
en geen onbewuste zombies zijn die ons
erin tuinden om ze te antropomorfiseren?
14:04
AlsoOok, shouldn'tmoet niet those people
who don't want humanmenselijk extinctionuitdoving
280
832720
2856
En hebben de mensen
die géén menselijk uitsterven willen
14:07
have a say in the matterer toe doen, too?
281
835600
1440
hier niets over te zeggen?
14:10
Now, if you didn't like eithereen van beide
of those two high-techhigh Tech optionsopties,
282
838200
3376
Als je niet van een van
deze twee hightech-opties houdt,
14:13
it's importantbelangrijk to rememberonthouden
that low-techlow-tech is suicidezelfmoord
283
841600
3176
is het belangrijk om te onthouden
dat lowtech zelfmoord is
vanuit kosmisch perspectief,
14:16
from a cosmickosmisch perspectiveperspectief,
284
844800
1256
14:18
because if we don't go farver
beyondvoorbij today'svandaag technologytechnologie,
285
846080
2496
want als we technisch gaan stilstaan,
is het niet de vraag
of de mensheid zal uitsterven,
14:20
the questionvraag isn't whetherof humanityde mensheid
is going to go extinctuitgestorven,
286
848600
2816
maar of dat zal gebeuren
14:23
merelyalleen whetherof
we're going to get takeningenomen out
287
851440
2016
door de volgende dodelijke
asteroïde, supervulkaan,
14:25
by the nextvolgende killermoordenaar asteroidasteroïde, supervolcanoSupervulkaan
288
853480
2136
14:27
or some other problemprobleem
that better technologytechnologie could have solvedopgelost.
289
855640
3096
of een ander probleem
dat betere technologie had opgelost.
Hoe zit met het onderste
uit de kan willen ...
14:30
So, how about havingmet
our cakecake and eatingaan het eten it ...
290
858760
3576
met KAI die geen slaaf is,
14:34
with AGIAGI that's not enslavedslavernij
291
862360
1840
maar ons goed behandelt, omdat
haar waarden ook de onze zijn?
14:37
but treatstraktaties us well because its valueswaarden
are aligneduitgelijnd with oursDe onze?
292
865120
3176
14:40
This is the gistgist of what EliezerEliëzer YudkowskyYudkowsky
has calledriep "friendlyvriendelijk AIAI,"
293
868320
4176
Daar komt Eliezer Yudkowsky’s
‘vriendelijke KI’ op neer
en als dit ons lukt,
zou het geweldig kunnen zijn.
14:44
and if we can do this,
it could be awesomegeweldig.
294
872520
2680
14:47
It could not only eliminateelimineren negativenegatief
experienceservaringen like diseaseziekte, povertyarmoede,
295
875840
4816
Het kon niet alleen een einde maken
aan negatieve ervaringen zoals ziekte,
armoede, criminaliteit en ander lijden,
14:52
crimemisdrijf and other sufferinglijden,
296
880680
1456
14:54
but it could alsoook give us
the freedomvrijheid to chooseKiezen
297
882160
2816
maar ze kan ons ook
de vrijheid geven om te kiezen
14:57
from a fantasticfantastisch newnieuwe diversityverscheidenheid
of positivepositief experienceservaringen --
298
885000
4056
uit een fantastische nieuwe
diversiteit aan positieve ervaringen,
15:01
basicallyeigenlijk makingmaking us
the mastersMasters of our owneigen destinylotsbestemming.
299
889080
3160
waardoor wij in principe de meesters
van ons eigen lot zouden worden.
15:06
So in summarySamenvatting,
300
894280
1376
Samengevat:
15:07
our situationsituatie with technologytechnologie
is complicatedingewikkeld,
301
895680
3096
onze verhouding met
technologie is ingewikkeld,
15:10
but the biggroot pictureafbeelding is ratherliever simpleeenvoudig.
302
898800
2416
maar het grote plaatje is vrij simpel.
15:13
MostDe meeste AIAI researchersonderzoekers
expectverwachten AGIAGI withinbinnen decadestientallen jaren,
303
901240
3456
De meeste KI-onderzoekers
verwachten KAI binnen decennia,
15:16
and if we just bumblestuntel
into this unpreparedonvoorbereid,
304
904720
3136
en als we er gewoon
onvoorbereid in duikelen,
zal het waarschijnlijk de grootste fout
in de menselijke geschiedenis zijn.
15:19
it will probablywaarschijnlijk be
the biggestgrootste mistakevergissing in humanmenselijk historygeschiedenis --
305
907880
3336
Laten we eerlijk zijn.
15:23
let's facegezicht it.
306
911240
1416
Het zou kunnen leiden tot
een wrede, wereldwijde dictatuur
15:24
It could enablein staat stellen brutalbrutaal,
globalglobaal dictatorshipdictatuur
307
912680
2576
15:27
with unprecedentedzonder precedent inequalityongelijkheid,
surveillancetoezicht and sufferinglijden,
308
915280
3536
met ongekende ongelijkheid,
controle en lijden.
15:30
and maybe even humanmenselijk extinctionuitdoving.
309
918840
1976
Misschien zelfs tot menselijk uitsterven.
15:32
But if we steersturen carefullyvoorzichtig,
310
920840
2320
Maar als we goed sturen,
15:36
we could endeinde up in a fantasticfantastisch futuretoekomst
where everybody'svan iedereen better off:
311
924040
3896
zou het kunnen uitmonden
in een fantastische toekomst
waar iedereen beter af is:
15:39
the poorarm are richerrijker, the richrijk are richerrijker,
312
927960
2376
de armen rijker, de rijken rijker,
15:42
everybodyiedereen is healthygezond
and freegratis to liveleven out theirhun dreamsdromen.
313
930360
3960
iedereen gezond en vrij om
zijn dromen uit te leven.
15:47
Now, hanghangen on.
314
935000
1536
Nog even volhouden.
15:48
Do you folksmensen want the futuretoekomst
that's politicallypolitiek right or left?
315
936560
4576
Wil je een toekomst
die politiek rechts of links is?
15:53
Do you want the piousvrome societymaatschappij
with strictstreng moralMoreel rulesreglement,
316
941160
2856
Wil je een vrome samenleving
met strikte morele regels
15:56
or do you an hedonistichedonistische free-for-allFree-for-all,
317
944040
1816
of wil je hedonistische
vrijheid voor iedereen,
15:57
more like BurningBranden Man 24/7?
318
945880
2216
de hele dag feest?
16:00
Do you want beautifulmooi beachesstranden,
forestsbossen and lakesmeren,
319
948120
2416
Wil je prachtige
stranden, bossen en meren
16:02
or would you preferverkiezen to rearrangeopnieuw rangschikken
some of those atomsatomen with the computerscomputers,
320
950560
3416
of wil je wat atomen
met computers herschikken
om virtuele ervaringen
mogelijk te maken?
16:06
enablinginschakelen virtualvirtueel experienceservaringen?
321
954000
1715
16:07
With friendlyvriendelijk AIAI, we could simplyeenvoudigweg
buildbouwen all of these societiessamenlevingen
322
955739
3157
Met vriendelijke KI zouden we al
deze samenlevingen kunnen bouwen
16:10
and give people the freedomvrijheid
to chooseKiezen whichwelke one they want to liveleven in
323
958920
3216
en mensen de vrijheid geven om
te kiezen in welke ze willen wonen.
16:14
because we would no longerlanger
be limitedbeperkt by our intelligenceintelligentie-,
324
962160
3096
We werden niet langer beperkt
door onze intelligentie,
enkel de wetten van de fysica.
16:17
merelyalleen by the lawswetten of physicsfysica.
325
965280
1456
16:18
So the resourcesmiddelen and spaceruimte
for this would be astronomicalsterrenkundig --
326
966760
4616
De middelen en ruimte hiervoor
zouden daarom astronomisch zijn --
16:23
literallyletterlijk.
327
971400
1320
letterlijk.
16:25
So here'shier is our choicekeuze.
328
973320
1200
Dus is hier onze keuze.
16:27
We can eithereen van beide be complacentzelfgenoegzaam
about our futuretoekomst,
329
975880
2320
We kunnen zelfgenoegzaam
zijn over onze toekomst,
16:31
takingnemen as an articleartikel of blindBlind faithgeloof
330
979440
2656
in blind vertrouwen
16:34
that any newnieuwe technologytechnologie
is guaranteedgegarandeerd to be beneficialgunstig,
331
982120
4016
dat elke nieuwe technologie
gegarandeerd heilzaam is
16:38
and just repeatherhaling that to ourselvesonszelf
as a mantramantra over and over and over again
332
986160
4136
en dat steeds weer als
een mantra blijven herhalen
terwijl we als een stuurloos schip
naar onze eigen aftakeling drijven.
16:42
as we driftdrift like a rudderlessstuurloos shipschip
towardsnaar our owneigen obsolescenceveroudering.
333
990320
3680
Of we kunnen ambitieus zijn:
16:46
Or we can be ambitiousambitieuze --
334
994920
1880
16:49
thinkinghet denken hardhard about how
to steersturen our technologytechnologie
335
997840
2456
hard nadenken hoe
onze technologie te sturen
16:52
and where we want to go with it
336
1000320
1936
en waar we ermee naartoe willen
16:54
to createcreëren the ageleeftijd of amazementverbazing.
337
1002280
1760
om een wonderbaarlijk tijdperk te creëren.
16:57
We're all here to celebratevieren
the ageleeftijd of amazementverbazing,
338
1005000
2856
We zijn hier allemaal ter ere
van dat wonderbaarlijke tijdperk
16:59
and I feel that its essenceessence should lieliggen
in becomingworden not overpoweredovermeesterd
339
1007880
4440
en de essentie daarvan
moet niet liggen in 'overweldigd worden',
17:05
but empoweredgemachtigd by our technologytechnologie.
340
1013240
2616
maar in 'geweldig worden'
door onze technologie.
17:07
Thank you.
341
1015880
1376
Dank je.
17:09
(ApplauseApplaus)
342
1017280
3080
(Applaus)
Translated by Rik Delaet
Reviewed by Axel Saffran

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com