ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Bereid je voor op hybride denken

Filmed:
3,548,296 views

Tweehonderd miljoen jaar geleden ontwikkelden onze zoogdier-voorouders een nieuwe hersenfunctie: de neocortex. Dit stukje weefsel ter grootte van een postzegel (rond hersenen ter grootte van een walnoot) is de sleutel tot wat de mensheid is geworden. Futurist Ray Kurzweil suggereert dat we ons klaar moeten houden voor de volgende grote stap in hersenvermogen, als we de rekenkracht in de cloud gaan aanboren.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyverhaal.
0
988
2316
Ik vertel jullie
een 200 miljoen jaar oud verhaal:
00:15
It goesgaat back 200 millionmiljoen yearsjaar.
1
3304
1799
het verhaal van de neocortex,
00:17
It's a storyverhaal of the neocortexneocortex,
2
5103
1984
00:19
whichwelke meansmiddelen "newnieuwe rindzwoerd."
3
7087
1974
wat 'nieuwe schil’ betekent.
00:21
So in these earlyvroeg mammalszoogdieren,
4
9061
2431
Deze vroege zoogdieren
00:23
because only mammalszoogdieren have a neocortexneocortex,
5
11492
2055
- alleen zoogdieren
hebben een neocortex -
00:25
rodent-likeknaagdier-achtige creaturesschepsels.
6
13547
1664
waren knaagdierachtige wezens.
00:27
It was the sizegrootte of a postageverzendkosten stamppostzegel and just as thindun,
7
15211
3579
Het was iets als een postzegel,
en net zo dun,
een dun laagje rond de hersenen
00:30
and was a thindun coveringbekleding around
8
18790
1439
00:32
theirhun walnut-sizedwalnoot-en kleinbedrijf brainhersenen,
9
20229
2264
ter grootte van een walnoot.
00:34
but it was capablein staat of a newnieuwe typetype of thinkinghet denken.
10
22493
3701
Maar het kon
op een nieuwe manier denken.
00:38
RatherEerder than the fixedvast behaviorsgedragingen
11
26194
1567
In plaats van het vaste gedrag
00:39
that non-mammalianbij niet-zoogdieren animalsdieren have,
12
27761
1992
van niet-zoogdieren
00:41
it could inventuitvinden newnieuwe behaviorsgedragingen.
13
29753
2692
kon het nieuw gedrag bedenken.
00:44
So a mousemuis is escapingontsnappen a predatorPredator,
14
32445
2553
Als een muis aan een roofdier ontsnapt
00:46
its pathpad is blockedgeblokkeerd,
15
34998
1540
en het pad geblokkeerd is,
00:48
it'llhet zal try to inventuitvinden a newnieuwe solutionoplossing.
16
36538
2129
zal ze een ​​nieuwe oplossing verzinnen.
Dat werkt wel of niet,
00:50
That maymei work, it maymei not,
17
38667
1266
maar als het werkt,
zal ze het zich herinneren
00:51
but if it does, it will rememberonthouden that
18
39933
1910
00:53
and have a newnieuwe behaviorgedrag,
19
41843
1292
en een nieuw gedrag vertonen
00:55
and that can actuallywerkelijk spreadverspreiding virallyviraal
20
43135
1457
dat zich viraal kan verspreiden
00:56
throughdoor the restrust uit of the communitygemeenschap.
21
44592
2195
door de rest van de gemeenschap.
Andere muizen kijken het af en zeggen,
00:58
AnotherEen ander mousemuis watchingkijken this could say,
22
46787
1609
01:00
"Hey, that was prettymooi cleverknap, going around that rockrots,"
23
48396
2704
"He, rond die rots lopen is slim."
01:03
and it could adoptadopteren a newnieuwe behaviorgedrag as well.
24
51100
3725
en ze gaan het ook doen.
01:06
Non-mammalianBij niet-zoogdieren animalsdieren
25
54825
1717
Niet-zoogdieren
01:08
couldn'tkon het niet do any of those things.
26
56542
1713
kunnen dat niet.
01:10
They had fixedvast behaviorsgedragingen.
27
58255
1215
Hun gedrag ligt vast.
Ze kunnen nieuw gedrag leren
01:11
Now they could learnleren a newnieuwe behaviorgedrag
28
59470
1331
01:12
but not in the courseCursus of one lifetimelevenslang.
29
60801
2576
maar niet tijdens één leven.
01:15
In the courseCursus of maybe a thousandduizend lifetimeslevensduur,
30
63377
1767
Misschien in wel duizend levens
01:17
it could evolveevolueren a newnieuwe fixedvast behaviorgedrag.
31
65144
3330
kan een nieuw vast gedrag evolueren.
01:20
That was perfectlyvolmaakt okay 200 millionmiljoen yearsjaar agogeleden.
32
68474
3377
200 miljoen jaar geleden was dat oké.
01:23
The environmentmilieu changedveranderd very slowlylangzaam.
33
71851
1981
De omgeving veranderde heel langzaam.
Het kon 10.000 jaar duren voor er
01:25
It could take 10,000 yearsjaar for there to be
34
73832
1554
01:27
a significantsignificant environmentalmilieu changeverandering,
35
75386
2092
significante veranderingen
optraden in het milieu.
01:29
and duringgedurende that periodperiode of time
36
77478
1382
Gedurende die periode
01:30
it would evolveevolueren a newnieuwe behaviorgedrag.
37
78860
2929
kon zich een nieuw gedrag ontwikkelen.
01:33
Now that wentgegaan alonglangs fine,
38
81789
1521
Dat ging prima,
01:35
but then something happenedgebeurd.
39
83310
1704
maar toen gebeurde er iets.
01:37
Sixty-fiveVijfenzestig millionmiljoen yearsjaar agogeleden,
40
85014
2246
Vijfenzestig miljoen jaar geleden
01:39
there was a suddenplotseling, violentgewelddadig
changeverandering to the environmentmilieu.
41
87260
2615
gebeurde er een verwoestende
milieu-impact.
01:41
We call it the CretaceousKrijt extinctionuitdoving eventevenement.
42
89875
3505
We noemen het de Krijt-massaextinctie.
01:45
That's when the dinosaursdinosaurussen wentgegaan extinctuitgestorven,
43
93380
2293
Toen stierven de dinosaurussen uit,
01:47
that's when 75 percentprocent of the
44
95673
3449
en daarbij nog eens 75 procent
01:51
animaldier and plantfabriek speciessoorten wentgegaan extinctuitgestorven,
45
99122
2746
van alle dier- en plantensoorten.
01:53
and that's when mammalszoogdieren
46
101868
1745
Toen namen de zoogdieren
01:55
overtookging voorbij theirhun ecologicalecologisch nicheniche,
47
103613
2152
hun ecologische niches over.
01:57
and to anthropomorphizeanthropomorphize, biologicalbiologisch evolutionevolutie said,
48
105765
3654
Mocht de evolutie kunnen denken,
zou ze zeggen:
02:01
"HmmHmm, this neocortexneocortex is prettymooi good stuffspul,"
49
109419
2025
"Hmm, die neocortex is best goed spul,
02:03
and it beganbegon to growgroeien it.
50
111444
1793
we gaan die wat laten groeien.”
02:05
And mammalszoogdieren got biggergroter,
51
113237
1342
De zoogdieren werden groter,
02:06
theirhun brainshersenen got biggergroter at an even fastersneller pacetempo,
52
114579
2915
ook hun hersenen
in een nog sneller tempo,
02:09
and the neocortexneocortex got biggergroter even fastersneller than that
53
117494
3807
en de neocortex
werd zelfs nog sneller groter
02:13
and developedontwikkelde these distinctivekenmerkend ridgesruggen and foldsplooien
54
121301
2929
en ontwikkelde de karakteristieke
ribbels en plooien
02:16
basicallyeigenlijk to increasetoename its surfaceoppervlak areaGebied.
55
124230
2881
om de oppervlakte ervan te vergroten.
02:19
If you tooknam the humanmenselijk neocortexneocortex
56
127111
1819
Als je de menselijke neocortex uitspreidt,
02:20
and stretcheduitgerekt it out,
57
128930
1301
is hij ongeveer zo groot als een servet,
02:22
it's about the sizegrootte of a tabletafel napkinServet,
58
130231
1713
02:23
and it's still a thindun structurestructuur.
59
131944
1306
en nog steeds erg dun.
02:25
It's about the thicknessdikte of a tabletafel napkinServet.
60
133250
1980
Ongeveer de dikte van een servet.
02:27
But it has so manyveel convolutionskronkels and ridgesruggen
61
135230
2497
Maar hij heeft
zo veel windingen en ribbels
02:29
it's now 80 percentprocent of our brainhersenen,
62
137727
3075
dat hij nu 80 procent
van onze hersenen beslaat.
02:32
and that's where we do our thinkinghet denken,
63
140802
2461
Het is waar we denken,
02:35
and it's the great sublimatorsublimator.
64
143263
1761
en het is de grote sublimator.
We hebben nog steeds
die oude hersenen
02:37
We still have that oldoud brainhersenen
65
145024
1114
02:38
that providesbiedt our basicbasis- drivesdrives and motivationsmotivaties,
66
146138
2764
voor onze oerdriften en motivaties.
02:40
but I maymei have a driverijden for conquestverovering,
67
148902
2716
Ik kan geneigd zijn
om op verovering uit te gaan,
02:43
and that'lldat zal be sublimatedgesublimeerd by the neocortexneocortex
68
151618
2715
maar de neocortex kan dat sublimeren
02:46
into writingschrift a poemgedicht or inventinguitvinden an appapp
69
154333
2909
tot het schrijven van een gedicht,
het uitvinden van een app
02:49
or givinggeven a TEDTED Talk,
70
157242
1509
of het geven van een TED-talk,
02:50
and it's really the neocortexneocortex that's where
71
158751
3622
In de neocortex gebeurt het.
02:54
the actionactie is.
72
162373
1968
Vijftig jaar geleden schreef ik een paper
02:56
FiftyVijftig yearsjaar agogeleden, I wroteschreef a paperpapier
73
164341
1717
over hoe ik dacht
dat de hersenen werkten.
02:58
describingbeschrijven how I thought the brainhersenen workedwerkte,
74
166058
1918
02:59
and I describedbeschreven it as a seriesserie of modulesmodules.
75
167976
3199
Ik beschreef het
als een reeks modules.
03:03
EachElke modulemodule could do things with a patternpatroon.
76
171175
2128
Elke module kan iets doen
met een patroon.
03:05
It could learnleren a patternpatroon. It could rememberonthouden a patternpatroon.
77
173303
2746
Ze kan een patroon leren,
zich een patroon herinneren.
03:08
It could implementuitvoeren a patternpatroon.
78
176049
1407
Ze kan een patroon uitvoeren.
03:09
And these modulesmodules were organizedgeorganiseerd in hierarchieshiërarchieën,
79
177456
2679
Deze modules werden
in hiërarchieën georganiseerd,
03:12
and we createdaangemaakt that hierarchyhiërarchie with our owneigen thinkinghet denken.
80
180135
2954
en we creëerden deze hiërarchie
door ons eigen denken.
03:15
And there was actuallywerkelijk very little to go on
81
183089
3333
50 jaar geleden had je
eigenlijk heel weinig houvast.
03:18
50 yearsjaar agogeleden.
82
186422
1562
Het bracht me in contact
met president Johnson.
03:19
It led me to meetontmoeten PresidentDe Voorzitter JohnsonJohnson.
83
187984
2115
03:22
I've been thinkinghet denken about this for 50 yearsjaar,
84
190099
2173
Ik heb er 50 jaar
over zitten nadenken,
03:24
and a yearjaar and a halfvoor de helft agogeleden I camekwam out with the bookboek
85
192272
2828
en anderhalf jaar geleden
kwam ik met het boek:
"Hoe maak je een Verstand.”
03:27
"How To CreateMaken A MindGeest,"
86
195100
1265
03:28
whichwelke has the samedezelfde thesisscriptie,
87
196365
1613
Hetzelfde thema,
03:29
but now there's a plethoraovervloed of evidencebewijsmateriaal.
88
197978
2812
maar nu met een overvloed aan bewijs.
03:32
The amountbedrag of datagegevens we're gettingkrijgen about the brainhersenen
89
200790
1814
De hoeveelheid data over de hersenen
03:34
from neuroscienceneurowetenschappen is doublingverdubbeling everyelk yearjaar.
90
202604
2203
via de neurowetenschappen
verdubbelt elk jaar.
03:36
SpatialRuimtelijke resolutionresolutie of brainscanningbrainscanning of all typestypes
91
204807
2654
De ruimtelijke resolutie
van allerlei soorten hersenscanning
03:39
is doublingverdubbeling everyelk yearjaar.
92
207461
2285
verdubbelt elk jaar.
We kunnen nu in een levend brein kijken
03:41
We can now see insidebinnen a livingleven brainhersenen
93
209746
1717
03:43
and see individualindividu interneuralinterneural connectionsverbindingen
94
211463
2870
en individuele interneurale aansluitingen
03:46
connectingverbinden in realecht time, firingvuren in realecht time.
95
214333
2703
in real time zien ontstaan en vuren.
03:49
We can see your brainhersenen createcreëren your thoughtsgedachten.
96
217036
2419
We zien hoe je hersenen
gedachten maken
03:51
We can see your thoughtsgedachten createcreëren your brainhersenen,
97
219455
1575
en gedachten je hersenen maken.
03:53
whichwelke is really keysleutel to how it workswerken.
98
221030
1999
Dat is echt de sleutel
tot hoe het werkt.
03:55
So let me describebeschrijven brieflykort how it workswerken.
99
223029
2219
Laat ik dat in het kort beschrijven.
03:57
I've actuallywerkelijk countedgeteld these modulesmodules.
100
225248
2275
Ik heb deze modules echt geteld.
03:59
We have about 300 millionmiljoen of them,
101
227523
2046
We hebben er ongeveer 300 miljoen van,
04:01
and we createcreëren them in these hierarchieshiërarchieën.
102
229569
2229
en we maken ze
in dit soort hiërarchieën.
Ik zal jullie
een eenvoudig voorbeeld geven.
04:03
I'll give you a simpleeenvoudig examplevoorbeeld.
103
231798
2082
04:05
I've got a bunchbos of modulesmodules
104
233880
2805
Ik heb een heleboel modules
die de dwarsstreep van een letter ​​A
kunnen herkennen.
04:08
that can recognizeherken the crossbardwarsbalk to a capitalhoofdstad A,
105
236685
3403
04:12
and that's all they carezorg about.
106
240088
1914
Dat is het enige waar ze om geven.
04:14
A beautifulmooi songlied can playspelen,
107
242002
1578
Er kan een mooi liedje spelen
of een mooi meisje voorbijlopen,
04:15
a prettymooi girlmeisje could walklopen by,
108
243580
1434
04:17
they don't carezorg, but they see
a crossbardwarsbalk to a capitalhoofdstad A,
109
245014
2846
het laat ze koud,
maar die dwarsstreep zien ze wel.
04:19
they get very excitedopgewonden and they say "crossbardwarsbalk,"
110
247860
3021
Enthousiast zeggen ze:
”Dwarsstreep!"
04:22
and they put out a highhoog probabilitywaarschijnlijkheid
111
250881
2112
en ze steken
een grote waarschijnlijkheid
04:24
on theirhun outputuitgang axonaxon.
112
252993
1634
op hun output-axon.
Dat gaat naar het volgende niveau,
04:26
That goesgaat to the nextvolgende levelniveau,
113
254627
1333
04:27
and these layerslagen are organizedgeorganiseerd in conceptualconceptuele levelslevels.
114
255960
2750
waar alles georganiseerd is
in conceptuele niveaus,
elk abstracter dan het volgende.
04:30
EachElke is more abstractabstract than the nextvolgende one,
115
258710
1856
Het volgende zou kunnen zeggen:
”Hoofdletter A".
04:32
so the nextvolgende one mightmacht say "capitalhoofdstad A."
116
260566
2418
04:34
That goesgaat up to a higherhoger
levelniveau that mightmacht say "AppleApple."
117
262984
2891
Op een nog hoger niveau
kan dat ”Apple" worden.
04:37
InformationInformatie flowsstroomt down alsoook.
118
265875
2167
Informatie stroomt ook terug.
Als de apple-herkenner
A-P-P-L heeft gezien,
04:40
If the appleappel recognizerherkenning has seengezien A-P-P-LA-P-P-L,
119
268042
2936
zal hij bij zichzelf denken: ”Hmm,
daar zal wel een E achter komen” ,
04:42
it'llhet zal think to itselfzelf, "HmmHmm, I
think an E is probablywaarschijnlijk likelywaarschijnlijk,"
120
270978
3219
04:46
and it'llhet zal sendsturen a signalsignaal down to all the E recognizerskenmerken
121
274197
2564
een signaal terugsturen
naar alle E-herkenners
04:48
sayinggezegde, "Be on the lookoutZoek for an E,
122
276761
1619
en zeggen: ”Kijk uit naar een E,
04:50
I think one mightmacht be comingkomt eraan."
123
278380
1556
die kan eraan komen.”
04:51
The E recognizerskenmerken will lowerlager theirhun thresholddrempel
124
279936
2843
De E-herkenners
zullen hun drempel verlagen
en een slordige E gaan zien.
04:54
and they see some sloppyslordig
thing, could be an E.
125
282779
1945
Normaal gesproken
zou je zo niet denken,
04:56
OrdinarilyNormaal gesproken you wouldn'tzou het niet think so,
126
284724
1490
04:58
but we're expectingervan uitgaand an E, it's good enoughgenoeg,
127
286214
2009
maar we verwachten een E,
het is goed genoeg,
05:00
and yeah, I've seengezien an E, and then appleappel sayszegt,
128
288223
1817
en ja, ik zag een E, en dan
zegt de apple-herkenner: "Apple!"
05:02
"Yeah, I've seengezien an AppleApple."
129
290040
1728
05:03
Go up anothereen ander fivevijf levelslevels,
130
291768
1746
Ga nog eens vijf niveaus omhoog,
en je zit op een vrij hoog niveau
05:05
and you're now at a prettymooi highhoog levelniveau
131
293514
1353
05:06
of this hierarchyhiërarchie,
132
294867
1569
van deze hiërarchie
en dan weer omlaag
naar de verschillende zintuigen,
05:08
and stretchrekken down into the differentverschillend sensesverstand,
133
296436
2353
05:10
and you maymei have a modulemodule
that seesziet a certainzeker fabrickleding stof,
134
298789
2655
en je hebt een module
die een bepaalde structuur ziet,
05:13
hearshoort a certainzeker voicestem qualitykwaliteit,
smellsgeuren a certainzeker perfumeparfum,
135
301444
2844
een bepaalde stemkwaliteit hoort,
een bepaald parfum ruikt,
05:16
and will say, "My wifevrouw has enteredingevoerde the roomkamer."
136
304288
2513
en zegt: ”Mijn vrouw is net
de kamer binnengekomen."
05:18
Go up anothereen ander 10 levelslevels, and now you're at
137
306801
1895
Nog eens 10 niveaus,
en je zit
05:20
a very highhoog levelniveau.
138
308696
1160
op een zeer hoog niveau,
05:21
You're probablywaarschijnlijk in the frontalfrontaal cortexschors,
139
309856
1937
waarschijnlijk in de frontale cortex,
05:23
and you'llje zult have modulesmodules that say, "That was ironicIronisch.
140
311793
3767
met modules die zeggen:
”Dat was ironisch.
05:27
That's funnygrappig. She's prettymooi."
141
315560
2370
Dat is grappig. Ze is mooi.”
Je zou kunnen denken
dat die meer verfijnd zijn,
05:29
You mightmacht think that those are more sophisticatedgeavanceerde,
142
317930
2105
05:32
but actuallywerkelijk what's more complicatedingewikkeld
143
320035
1506
maar in feite
is de hiërarchie eronder ingewikkelder.
05:33
is the hierarchyhiërarchie beneathonder them.
144
321541
2669
05:36
There was a 16-year-old-jaar oud girlmeisje, she had brainhersenen surgerychirurgie,
145
324210
2620
Een 16-jarig meisje
onderging een hersenoperatie.
05:38
and she was consciousbewust because the surgeonschirurgen
146
326830
2051
Ze was bij bewustzijn omdat de chirurgen
met haar wilden praten.
05:40
wanted to talk to her.
147
328881
1537
05:42
You can do that because there's no painpijn receptorsreceptoren
148
330418
1822
Dat gaat omdat er geen pijnreceptoren
zijn in de hersenen.
05:44
in the brainhersenen.
149
332240
1038
05:45
And whenevertelkens als they stimulatedgestimuleerd particularbijzonder,
150
333278
1800
Toen ze bepaalde zeer kleine punten
in haar neocortex stimuleerden,
05:47
very smallklein pointspoints on her neocortexneocortex,
151
335078
2463
05:49
showngetoond here in redrood, she would laughlach.
152
337541
2665
- hier in rood weergegeven –
lachte ze.
In eerste instantie dachten ze
dat ze een soort lachreflex uitlokten,
05:52
So at first they thought they were triggeringtriggering
153
340206
1440
05:53
some kindsoort of laughlach reflexreflex,
154
341646
1720
05:55
but no, they quicklysnel realizedrealiseerde they had foundgevonden
155
343366
2519
maar nee, ze beseften snel
dat ze in haar neocortex
05:57
the pointspoints in her neocortexneocortex that detectopsporen humorhumor,
156
345885
3044
de punten hadden gevonden
die humor detecteren.
06:00
and she just foundgevonden everything hilarioushilarisch
157
348929
1969
Ze vond alles hilarisch
06:02
whenevertelkens als they stimulatedgestimuleerd these pointspoints.
158
350898
2437
als ze deze punten stimuleerden.
06:05
"You guys are so funnygrappig just standingstaand around,"
159
353335
1925
"Jullie staan er zo grappig bij,"
06:07
was the typicaltypisch commentcommentaar,
160
355260
1738
was de typische reactie,
06:08
and they weren'twaren niet funnygrappig,
161
356998
2302
en ze waren helemaal niet grappig,
06:11
not while doing surgerychirurgie.
162
359300
3247
zeker niet terwijl ze
met een operatie bezig waren.
06:14
So how are we doing todayvandaag?
163
362547
4830
Hoe zit het nu vandaag?
06:19
Well, computerscomputers are actuallywerkelijk beginningbegin to mastermeester
164
367377
3054
Computers beginnen
menselijke taal te beheersen
06:22
humanmenselijk languagetaal with techniquestechnieken
165
370431
2001
met technieken die lijken
op die van de neocortex.
06:24
that are similarsoortgelijk to the neocortexneocortex.
166
372432
2867
06:27
I actuallywerkelijk describedbeschreven the algorithmalgoritme,
167
375299
1514
Ik beschreef het algoritme,
06:28
whichwelke is similarsoortgelijk to something calledriep
168
376813
2054
dat vergelijkbaar is met een zogenaamd
06:30
a hierarchicalhiërarchische hiddenverborgen MarkovMarkov modelmodel-,
169
378867
2233
hiërarchisch verborgen Markov model,
06:33
something I've workedwerkte on sincesinds the '90s.
170
381100
3241
iets waar ik sinds de jaren 90
aan heb gewerkt.
06:36
"JeopardyGevaar" is a very broadbreed naturalnatuurlijk languagetaal gamespel,
171
384341
3238
"Jeopardy” is een veelomvattend spel
met natuurlijke taal,
06:39
and WatsonWatson got a higherhoger scorepartituur
172
387579
1892
en Watson kreeg een hogere score
06:41
than the bestbeste two playersspelers combinedgecombineerde.
173
389471
2000
dan de beste twee spelers samen.
06:43
It got this queryquery correctcorrect:
174
391471
2499
Hij beantwoordde deze vraag correct:
06:45
"A long, tiresomevermoeiend speechtoespraak
175
393970
2085
"Een lange, vermoeiende toespraak
door een schuimige taarttopping,”
06:48
deliveredgeleverd by a frothyschuimige pietaart toppingtopping,"
176
396055
2152
en hij reageerde prompt:
"Wat is een meringue harangue (tirade)?"
06:50
and it quicklysnel respondedreageerden,
"What is a meringueschuimgebakje harangueharangue?"
177
398207
2796
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Jennings en de andere man
hadden dat niet.
Het is een vrij geavanceerd voorbeeld
06:55
It's a prettymooi sophisticatedgeavanceerde examplevoorbeeld of
179
403638
1926
van hoe computers
menselijke taal begrijpen.
06:57
computerscomputers actuallywerkelijk understandingbegrip humanmenselijk languagetaal,
180
405564
1914
06:59
and it actuallywerkelijk got its knowledgekennis by readinglezing
181
407478
1652
Hij verkreeg zijn kennis door het lezen
07:01
WikipediaWikipedia and severalverscheidene other encyclopediasencyclopedieën.
182
409130
3785
van Wikipedia
en andere encyclopedieën.
5 tot 10 jaar na nu
07:04
FiveVijf to 10 yearsjaar from now,
183
412915
2133
07:07
searchzoeken enginesmotoren will actuallywerkelijk be basedgebaseerde on
184
415048
2184
zullen zoekmachines niet alleen
07:09
not just looking for combinationscombinaties of wordstekst and linkskoppelingen
185
417232
2794
op zoek gaan naar combinaties
van woorden en verbanden,
07:12
but actuallywerkelijk understandingbegrip,
186
420026
1914
maar echt begrijpen wat er staat
07:13
readinglezing for understandingbegrip the billionsmiljarden of pagespagina's
187
421940
2411
op de miljarden pagina's van het web
en in boeken.
07:16
on the webweb and in booksboeken.
188
424351
2733
Je bent op wandel,
07:19
So you'llje zult be walkingwandelen alonglangs, and GoogleGoogle will popknal up
189
427084
2616
Google springt tevoorschijn
07:21
and say, "You know, MaryMary, you expresseduitgedrukt concernbezorgdheid
190
429700
3081
en zegt: ”Weet je, Mary,
vorige maand was je bezorgd
07:24
to me a monthmaand agogeleden that your glutathioneGlutathion supplementsupplement
191
432781
3019
dat je glutathionsupplement
niet voorbij de bloed-
hersenbarrière geraakte.
07:27
wasn'twas niet gettingkrijgen pastverleden the blood-brainbloed-hersenen barrierbarrière.
192
435800
2231
Net 13 seconden geleden bracht
nieuw onderzoek aan het licht
07:30
Well, newnieuwe researchOnderzoek just camekwam out 13 secondsseconden agogeleden
193
438031
2593
07:32
that showsshows a wholegeheel newnieuwe approachnadering to that
194
440624
1711
dat er een geheel nieuwe manier is
07:34
and a newnieuwe way to take glutathioneGlutathion.
195
442335
1993
om glutathion in te nemen.
07:36
Let me summarizesamenvatten it for you."
196
444328
2562
Laat het me voor je samenvatten.”
07:38
TwentyTwintig yearsjaar from now, we'llgoed have nanobotsnanobots,
197
446890
3684
Binnen twintig jaar hebben we nanobots.
07:42
because anothereen ander exponentialexponentiële trendneiging
198
450574
1627
De technologie wordt
exponentieel geminiaturiseerd.
07:44
is the shrinkingkrimpen of technologytechnologie.
199
452201
1615
07:45
They'llZij zullen go into our brainhersenen
200
453816
2370
Ze zullen via de haarvaten
07:48
throughdoor the capillarieshaarvaten
201
456186
1703
in onze hersenen geraken
07:49
and basicallyeigenlijk connectaansluiten our neocortexneocortex
202
457889
2477
en onze neocortex verbinden
07:52
to a syntheticsynthetisch neocortexneocortex in the cloudwolk
203
460366
3185
met een synthetische neocortex
in de cloud
07:55
providinghet verstrekken van an extensionuitbreiding of our neocortexneocortex.
204
463551
3591
en zo een uitbreiding zijn
van onze neocortex.
07:59
Now todayvandaag, I mean,
205
467142
1578
Vandaag, bedoel ik,
08:00
you have a computercomputer in your phonetelefoon,
206
468720
1530
heb je een computer in je telefoon,
08:02
but if you need 10,000 computerscomputers for a fewweinig secondsseconden
207
470250
2754
maar als je even
10.000 computers nodig hebt
08:05
to do a complexcomplex searchzoeken,
208
473004
1495
voor een ​​complex onderzoek,
08:06
you can accesstoegang that for a secondtweede or two in the cloudwolk.
209
474499
3396
kan dat even in de cloud.
Heb je in de jaren na 2030
wat extra neocortex nodig,
08:09
In the 2030s, if you need some extraextra neocortexneocortex,
210
477895
3095
08:12
you'llje zult be ablein staat to connectaansluiten to that in the cloudwolk
211
480990
2273
dan kan dat rechtstreeks
vanuit je hersenen naar de cloud.
08:15
directlydirect from your brainhersenen.
212
483263
1648
08:16
So I'm walkingwandelen alonglangs and I say,
213
484911
1543
Bij het rondlopen zeg ik:
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
"Ach, daar komt
Chris Anderson aangelopen.
08:19
He's comingkomt eraan my way.
215
487817
1525
08:21
I'd better think of something cleverknap to say.
216
489342
2335
Ik kan maar beter
iets slims bedenken.
08:23
I've got threedrie secondsseconden.
217
491677
1524
Ik heb 3 seconden.
08:25
My 300 millionmiljoen modulesmodules in my neocortexneocortex
218
493201
3097
Mijn 300 miljoen modules
in mijn neocortex kunnen dat niet.
08:28
isn't going to cutbesnoeiing it.
219
496298
1240
Ik heb er een miljard meer nodig.”
08:29
I need a billionmiljard more."
220
497538
1246
08:30
I'll be ablein staat to accesstoegang that in the cloudwolk.
221
498784
3323
In de cloud gaat dat kunnen.
08:34
And our thinkinghet denken, then, will be a hybridhybride
222
502107
2812
Ons denken zal een hybride zijn
08:36
of biologicalbiologisch and non-biologicalniet-biologische thinkinghet denken,
223
504919
3522
van biologisch en niet-biologisch denken,
08:40
but the non-biologicalniet-biologische portiondeel
224
508441
1898
maar het niet-biologische gedeelte
is onderworpen aan mijn wet
van versnellende opbrengsten.
08:42
is subjectonderwerpen to my lawwet of acceleratingversnellen returnskomt terug.
225
510339
2682
08:45
It will growgroeien exponentiallyexponentieel.
226
513021
2239
Het zal exponentieel groeien.
08:47
And rememberonthouden what happensgebeurt
227
515260
2016
Denk aan wat er gebeurde
vorige keer dat wij
onze neocortex uitbreidden.
08:49
the last time we expandeduitgebreid our neocortexneocortex?
228
517276
2645
Dat was twee miljoen jaar geleden
08:51
That was two millionmiljoen yearsjaar agogeleden
229
519921
1426
toen we mensachtigen werden
08:53
when we becamewerd humanoidshumanoïden
230
521347
1236
08:54
and developedontwikkelde these largegroot foreheadsvoorhoofd.
231
522583
1594
met die grote voorhoofden.
08:56
Other primatesprimaten have a slantedschuin browwenkbrauw.
232
524177
2583
Andere primaten hebben
een schuin voorhoofd.
08:58
They don't have the frontalfrontaal cortexschors.
233
526760
1745
Ze hebben geen frontale cortex.
09:00
But the frontalfrontaal cortexschors is not
really qualitativelykwalitatief differentverschillend.
234
528505
3685
Maar de frontale cortex is niet
echt kwalitatief verschillend.
09:04
It's a quantitativekwantitatief expansionuitbreiding of neocortexneocortex,
235
532190
2743
Het is een kwantitatieve uitbreiding
van de neocortex,
09:06
but that additionalextra quantityhoeveelheid of thinkinghet denken
236
534933
2703
maar die extra hoeveelheid denkvermogen
09:09
was the enablinginschakelen factorfactor for us to take
237
537636
1779
was de sleutelfactor om ons
09:11
a qualitativekwalitatieve leapsprong and inventuitvinden languagetaal
238
539415
3346
een kwalitatieve sprong te laten maken.
We vonden taal,
09:14
and artkunst and sciencewetenschap and technologytechnologie
239
542761
1967
kunst, wetenschap, technologie
09:16
and TEDTED conferencesconferenties.
240
544728
1454
en TED-conferenties uit.
Geen enkele andere diersoort
heeft dat ooit gedaan.
09:18
No other speciessoorten has donegedaan that.
241
546182
2131
09:20
And so, over the nextvolgende fewweinig decadestientallen jaren,
242
548313
2075
In de komende decennia
09:22
we're going to do it again.
243
550388
1760
gaan we het weer doen.
09:24
We're going to again expanduitbreiden our neocortexneocortex,
244
552148
2274
We gaan onze neocortex
weer uitbreiden,
09:26
only this time we won'tzal niet be limitedbeperkt
245
554422
1756
alleen zullen we dit keer
niet worden beperkt
09:28
by a fixedvast architecturearchitectuur of enclosureomsluiting.
246
556178
4280
door een vaste architectuur
van behuizing.
09:32
It'llItll be expandeduitgebreid withoutzonder limitbegrenzing.
247
560458
3304
Hij zal zonder beperking
worden uitgebreid.
09:35
That additionalextra quantityhoeveelheid will again
248
563762
2243
Die extra hoeveelheid zal opnieuw
09:38
be the enablinginschakelen factorfactor for anothereen ander qualitativekwalitatieve leapsprong
249
566005
3005
de sleutelfactor zijn
voor een kwalitatieve sprong
09:41
in culturecultuur and technologytechnologie.
250
569010
1635
in cultuur en technologie.
09:42
Thank you very much.
251
570645
2054
Heel hartelijk bedankt.
09:44
(ApplauseApplaus)
252
572699
3086
(Applaus)
Translated by Rik Delaet
Reviewed by Christel Foncke

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com