ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins over hoe neurowetenschap de ontwikkeling van computersystemen zal veranderen

Filmed:
1,674,773 views

Jeff Hawkins, uitvinder van de Treo, moedigt ons aan om op een andere manier naar onze hersenen te kijken -- om ze niet als een snelle processor te zien, maar als een geheugensysteem dat onze ervaringen opslaat en terug afspeelt en ons zo helpt op een intelligente manier gebeurtenissen te voorspellen.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designontwerp mobilemobiel computerscomputers and I studystudie brainshersenen.
0
0
3000
Ik doe twee dingen. Ik ontwerp mobiele computers en ik bestudeer hersenen.
00:29
And today'svandaag talk is about brainshersenen and,
1
4000
2000
De lezing van vandaag gaat over hersenen en ...
00:31
yayyay, somewhereergens I have a brainhersenen fanventilator out there.
2
6000
2000
hé, blijkbaar heb ik daar ergens een brein-fan.
00:33
(LaughterGelach)
3
8000
2000
(Gelach)
00:35
I'm going to, if I can have my first slideglijbaan up here,
4
10000
2000
Als ik mijn eerste dia krijg, zie je de titel
00:37
and you'llje zult see the titletitel of my talk and my two affiliationsvoorkeuren.
5
12000
4000
van mijn lezing en de twee bedrijven waaraan ik verbonden ben.
00:41
So what I'm going to talk about is why we don't have a good brainhersenen theorytheorie,
6
16000
4000
Ik ga het hebben over de reden waarom we nog geen goede hersentheorie hebben,
00:45
why it is importantbelangrijk that we should developontwikkelen one and what we can do about it.
7
20000
3000
en waarom het belangrijk is dat we er een ontwikkelen en hoe we dat kunnen bereiken.
00:48
And I'll try to do all that in 20 minutesnotulen. I have two affiliationsvoorkeuren.
8
23000
3000
En dat allemaal in twintig minuten. Ik ben verbonden aan twee bedrijven.
00:51
MostDe meeste of you know me from my PalmPalm and HandspringHandspring daysdagen,
9
26000
3000
De meesten van jullie kennen me van mijn tijd bij Palm en Handspring,
00:54
but I alsoook runrennen a nonprofitnon-profit scientificwetenschappelijk researchOnderzoek instituteinstituut
10
29000
3000
maar ik leid ook een non-profit wetenschappelijk onderzoeksinstituut,
00:57
calledriep the RedwoodRedwood NeuroscienceNeurowetenschappen InstituteInstituut in MenloMenlo ParkPark,
11
32000
2000
het Redwood Instituut voor Neurowetenschap in Menlo Park.
00:59
and we studystudie theoreticaltheoretisch neuroscienceneurowetenschappen,
12
34000
2000
We bestuderen theoretische neurowetenschap
01:01
and we studystudie how the neocortexneocortex workswerken.
13
36000
2000
en hoe de neocortex werkt.
01:03
I'm going to talk all about that.
14
38000
2000
Daar ga ik allerlei over vertellen.
01:05
I have one slideglijbaan on my other life, the computercomputer life, and that's the slideglijbaan here.
15
40000
3000
Deze dia gaat over mijn andere leven, mijn computerleven.
01:08
These are some of the productsproducten I've workedwerkte on over the last 20 yearsjaar,
16
43000
3000
Dit zijn een aantal producten waar ik de laatste twintig jaar aan heb gewerkt,
01:11
startingbeginnend back from the very originalorigineel laptoplaptop to some of the first tabletTablet PC computerscomputers
17
46000
4000
van de allereerste originele laptop tot een paar van de eerste tablet-pc's
01:15
and so on, and endingeinde up mostmeest recentlykort geleden with the TreoTreo,
18
50000
2000
enz.., met de Treo als de meest recente
01:17
and we're continuingvoortgezette to do this.
19
52000
2000
en hieraan werken we nog verder.
01:19
And I've donegedaan this because I really believe that mobilemobiel computinggegevensverwerking
20
54000
2000
Ik heb dit gedaan omdat ik echt geloof dat mobiel computergebruik
01:21
is the futuretoekomst of personalpersoonlijk computinggegevensverwerking, and I'm tryingproberen to make the worldwereld-
21
56000
3000
de toekomst heeft en ik probeer de wereld
01:24
a little bitbeetje better by workingwerkend on these things.
22
59000
3000
een klein beetje beter te maken door aan deze dingen te werken.
01:27
But this was, I have to admittoegeven, all an accidentongeval.
23
62000
2000
Maar dit was, moet ik toegeven, allemaal slechts toeval.
01:29
I really didn't want to do any of these productsproducten
24
64000
2000
Eigenlijk wou ik deze producten helemaal niet maken.
01:31
and very earlyvroeg in my careercarrière I decidedbeslist
25
66000
2000
Vroeg in mijn loopbaan besliste ik
01:33
I was not going to be in the computercomputer industryindustrie.
26
68000
3000
dat ik niet in de computerindustrie wilde werken.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Voor ik jullie daarover vertel, moet ik jullie vertellen
01:38
this one little pictureafbeelding of graffitigraffiti there I pickeduitgekozen off the webweb the other day.
28
73000
2000
over dit graffitiplaatje dat ik onlangs vond op het internet.
01:40
I was looking for a pictureafbeelding of graffitigraffiti, little texttekst inputinvoer languagetaal,
29
75000
3000
Ik zocht een graffitiplaatje, een taal met weinig tekst.
01:43
and I foundgevonden the websitewebsite dedicatedtoegewijd to teachersleraren who want to make these,
30
78000
3000
Ik vond een website voor leerkrachten die
01:46
you know, the scriptscript writingschrift things acrossaan de overkant the toptop of theirhun blackboardBlackboard,
31
81000
3000
slogans schrijven bovenaan hun schoolbord.
01:49
and they had addedtoegevoegd graffitigraffiti to it, and I'm sorry about that.
32
84000
3000
Ze hadden er graffiti aan toegevoegd, mijn excuses daarvoor.
01:52
(LaughterGelach)
33
87000
2000
(Gelach)
01:54
So what happenedgebeurd was, when I was youngjong and got out of engineeringbouwkunde schoolschool-
34
89000
5000
Toen ik jong was en in '79 afstudeerde van de ingenieursschool van Cornell,
01:59
at CornellCornell in '79, I decidedbeslist -- I wentgegaan to work for IntelIntel and
35
94000
4000
besloot ik te gaan werken voor Intel.
02:03
I was in the computercomputer industryindustrie -- and threedrie monthsmaanden into that,
36
98000
3000
Ik zat in de computerindustrie en drie maanden later
02:06
I fellviel in love with something elseanders, and I said, "I madegemaakt the wrongfout careercarrière choicekeuze here,"
37
101000
4000
werd ik verliefd op iets anders. Ik zei: "Ik heb de verkeerde carrière gekozen."
02:10
and I fellviel in love with brainshersenen.
38
105000
3000
en werd verliefd op hersenen.
02:13
This is not a realecht brainhersenen. This is a pictureafbeelding of one, a linelijn drawingtekening.
39
108000
3000
Dit is geen echt brein. Het is een pentekening.
02:16
But I don't rememberonthouden exactlyprecies how it happenedgebeurd,
40
111000
3000
Ik herinner me niet precies meer hoe het gegaan is,
02:19
but I have one recollectionherinnering, whichwelke was prettymooi strongsterk in my mindgeest.
41
114000
3000
maar ik heb een herinnering die me sterk bijgebleven is.
02:22
In SeptemberSeptember 1979, ScientificWetenschappelijke AmericanAmerikaanse camekwam out
42
117000
3000
In september 1979 verscheen een uitgave van 'Scientific American'
02:25
with a singlesingle topiconderwerp issuekwestie about the brainhersenen. And it was quiteheel good.
43
120000
3000
volledig gewijd aan de hersenen. Die was erg goed.
02:28
It was one of the bestbeste issueskwesties ever. And they talkedgesproken about the neuronneuron
44
123000
3000
Het was een van de beste uitgaven ooit. Ze spraken over het neuron,
02:31
and developmentontwikkeling and diseaseziekte and visionvisie and all the things
45
126000
2000
ontwikkeling, ziekte, het gezichtsvermogen en over nog veel meer
02:33
you mightmacht want to know about brainshersenen. It was really quiteheel impressiveindrukwekkend.
46
128000
3000
wat je misschien wil weten over hersenen. Het was echt de moeite.
02:36
And one mightmacht have the impressionindruk that we really knewwist a lot about brainshersenen.
47
131000
3000
Het gaf de indruk dat we echt veel wisten over de hersenen.
02:39
But the last articleartikel in that issuekwestie was writtengeschreven by FrancisFrancis CrickCrick of DNADNA fameroem.
48
134000
4000
Het laatste artikel in deze uitgave was geschreven door Francis Crick, beroemd van het DNA.
02:43
TodayVandaag is, I think, the 50thth anniversaryverjaardag of the discoveryontdekking of DNADNA.
49
138000
3000
Vandaag is het, geloof ik, de 50ste verjaardag van de ontdekking van DNA.
02:46
And he wroteschreef a storyverhaal basicallyeigenlijk sayinggezegde,
50
141000
2000
Hij schreef iets wat neerkwam op:
02:48
well, this is all well and good, but you know what,
51
143000
3000
"Dit is allemaal goed en wel, maar
02:51
we don't know diddleyDiddley squatSquat about brainshersenen
52
146000
2000
we weten eigenlijk geen sikkepit over de hersenen
02:53
and no one has a clueaanwijzing how these things work,
53
148000
2000
en niemand heeft enig idee hoe ze werken.
02:55
so don't believe what anyoneiedereen tellsvertelt you.
54
150000
2000
Geloof niet wat ze zeggen."
02:57
This is a quotecitaat from that articleartikel. He said, "What is conspicuouslyopvallend lackingontbrekend,"
55
152000
3000
Dit is een citaat uit dat artikel. Hij zegt: "Wat opvallenderwijs ontbreekt,"
03:00
he's a very propergoede BritishBritse gentlemanheer so, "What is conspicuouslyopvallend lackingontbrekend
56
155000
4000
hij is een échte Engelse heer, dus: "Wat opvallenderwijs ontbreekt
03:04
is a broadbreed frameworkkader of ideasideeën in whichwelke to interpretinterpreteren these differentverschillend approachesbenaderingen."
57
159000
3000
is een breed kader van ideeën om deze verschillende benaderingen te interpreteren."
03:07
I thought the wordwoord frameworkkader was great.
58
162000
2000
Ik vond het woord 'kader' goed.
03:09
He didn't say we didn't even have a theorytheorie. He sayszegt,
59
164000
2000
Hij zei niet dat we geen theorie hebben.
03:11
we don't even know how to beginbeginnen to think about it --
60
166000
2000
Hij zei dat we zelfs niet weten hoe we erover moeten beginnen te denken.
03:13
we don't even have a frameworkkader.
61
168000
2000
We hebben zelfs geen kader.
03:15
We are in the pre-paradigmpre paradigma daysdagen, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
We zijn in het pre-paradigmatijdperk als je Thomas Kuhn wilt gebruiken.
03:18
And so I fellviel in love with this, and said look,
63
173000
3000
Ik werd hier verliefd op en ik zei: “Kijk,
03:21
we have all this knowledgekennis about brainshersenen. How hardhard can it be?
64
176000
3000
we hebben zoveel kennis over de hersenen. Hoe moeilijk kan het zijn?”
03:24
And this is something we can work on my lifetimelevenslang. I feltvoelde I could make a differenceverschil,
65
179000
3000
Hier kon ik mijn leven aan wijden. Ik voelde dat ik een verschil kon maken
03:27
and so I triedbeproefd to get out of the computercomputer businessbedrijf, into the brainhersenen businessbedrijf.
66
182000
4000
dus probeerde ik de overstap te maken van het domein van de computers naar dat van de hersenen.
03:31
First, I wentgegaan to MITMIT, the AIAI lablaboratorium was there,
67
186000
2000
Eerst ging ik naar MIT, het lab voor kunstmatige intelligentie
03:33
and I said, well, I want to buildbouwen intelligentintelligent machinesmachines, too,
68
188000
2000
en ik zei: “Ik wil ook intelligente machines maken,
03:35
but the way I want to do it is to studystudie how brainshersenen work first.
69
190000
3000
maar ik wil dit doen door eerst te onderzoeken hoe de hersenen werken.”
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Ze zeiden: “Je hoeft dat niet te doen.
03:41
We're just going to programprogramma computerscomputers; that's all we need to do.
71
196000
2000
We gaan gewoon computers programmeren, meer hoeft niet.”
03:43
And I said, no, you really oughtmoeten to studystudie brainshersenen. They said, oh, you know,
72
198000
3000
Ik zei: "Nee, je moet echt eerst de hersenen bestuderen." Zij zeiden: "Nee, je bent verkeerd."
03:46
you're wrongfout. And I said, no, you're wrongfout, and I didn't get in.
73
201000
2000
Ik zei: "Nee, jullie zijn verkeerd.", en zo werd ik niet aanvaard.
03:48
(LaughterGelach)
74
203000
1000
(Gelach)
03:50
But I was a little disappointedteleurgesteld -- prettymooi youngjong -- but I wentgegaan back again
75
205000
2000
Ik was een beetje ontgoocheld. Redelijk jong nog, maar ik ging
03:52
a fewweinig yearsjaar laterlater and this time was in CaliforniaCalifornië, and I wentgegaan to BerkeleyBerkeley.
76
207000
3000
een paar jaar later terug naar Berkeley, Californië.
03:55
And I said, I'll go in from the biologicalbiologisch sidekant.
77
210000
4000
Ik zou het via de biologische kant benaderen.
03:59
So I got in -- in the PhPH.D. programprogramma in biophysicsbiofysica, and I was, all right,
78
214000
3000
Ik werd aanvaard in het PhD programma van biofysica, en ik zat goed.
04:02
I'm studyingaan het studeren brainshersenen now, and I said, well, I want to studystudie theorytheorie.
79
217000
3000
Ik bestudeerde hersenen en ik zei: "Ik wil theorie studeren."
04:05
And they said, oh no, you can't studystudie theorytheorie about brainshersenen.
80
220000
2000
Zij zeiden: "Nee, je kunt geen theorie studeren over de hersenen.
04:07
That's not something you do. You can't get fundedgefinancierde for that.
81
222000
2000
Zoiets doe je niet. Je krijgt daar geen subsidies voor.
04:09
And as a graduateafstuderen studentstudent, you can't do that. So I said, oh my goshJeetje.
82
224000
4000
Als bachelorstudent kan je dat niet doen.” Dus ik dacht: "Mijn god!"
04:13
I was very depressedterneergeslagen. I said, but I can make a differenceverschil in this fieldveld-.
83
228000
2000
Ik was heel teleurgesteld, want ik wilde een verschil maken.
04:15
So what I did is I wentgegaan back in the computercomputer industryindustrie
84
230000
3000
Dus ging ik terug naar de computerindustrie
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
en besefte dat ik hier even zou moeten werken, iets realiseren.
04:20
That's when I designedontworpen all those computercomputer productsproducten.
86
235000
3000
Toen creëerde ik al die computerproducten.
04:23
(LaughterGelach)
87
238000
1000
(Gelach)
04:24
And I said, I want to do this for fourvier yearsjaar, make some moneygeld,
88
239000
3000
Ik zei: "Ik wil dit vier jaar doen en een beetje geld verdienen."
04:27
like I was havingmet a familyfamilie, and I would matureoudere a bitbeetje,
89
242000
4000
Ik had ondertussen een gezin, ik zou een beetje volwassen worden
04:31
and maybe the businessbedrijf of neuroscienceneurowetenschappen would matureoudere a bitbeetje.
90
246000
3000
en misschien zou het veld van de neurowetenschap ook wat volwassen worden.
04:34
Well, it tooknam longerlanger than fourvier yearsjaar. It's been about 16 yearsjaar.
91
249000
3000
Het duurde wat langer dan vier jaar. Ondertussen al 16 jaar.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Maar ik doe het nu en ik zal jullie erover vertellen.
04:39
So why should we have a good brainhersenen theorytheorie?
93
254000
3000
Waarom hebben we een goede hersentheorie nodig?
04:42
Well, there's lots of reasonsredenen people do sciencewetenschap.
94
257000
3000
Er zijn verschillende redenen waarom mensen aan wetenschap doen.
04:45
One is -- the mostmeest basicbasis- one is -- people like to know things.
95
260000
3000
Een ervan is: mensen weten graag dingen.
04:48
We're curiousnieuwsgierig, and we just go out and get knowledgekennis, you know?
96
263000
2000
We zijn nieuwsgierig en we gaan gewoon kennis opzoeken.
04:50
Why do we studystudie antsmieren? Well, it's interestinginteressant.
97
265000
2000
Waarom bestuderen we mieren? Omdat het interessant is.
04:52
Maybe we'llgoed learnleren something really usefulnuttig about it, but it's interestinginteressant and fascinatingfascinerend.
98
267000
3000
We leren misschien iets nuttig, maar het is vooral interessant en fascinerend.
04:55
But sometimessoms, a sciencewetenschap has some other attributeskenmerken
99
270000
2000
Maar soms heeft een wetenschap nog andere kenmerken
04:57
whichwelke makesmerken it really, really interestinginteressant.
100
272000
2000
wat ze écht interessant maakt.
04:59
SometimesSoms a sciencewetenschap will tell something about ourselvesonszelf,
101
274000
3000
Soms zal een wetenschap iets over onszelf vertellen,
05:02
it'llhet zal tell us who we are.
102
277000
1000
ons vertellen wie we zijn.
05:03
RarelyZelden, you know: evolutionevolutie did this and CopernicusCopernicus did this,
103
278000
3000
Dit gebeurt maar heel af en toe zoals met de evolutietheorie en Copernicus,
05:06
where we have a newnieuwe understandingbegrip of who we are.
104
281000
2000
waardoor we een nieuw begrip kregen over wie we zijn.
05:08
And after all, we are our brainshersenen. My brainhersenen is talkingpratend to your brainhersenen.
105
283000
4000
Uiteindelijk zijn we onze hersenen. Mijn brein praat nu met jouw brein.
05:12
Our bodieslichamen are hangingopknoping alonglangs for the riderijden, but my brainhersenen is talkingpratend to your brainhersenen.
106
287000
3000
Onze lichamen volgen gewoon, maar mijn brein praat met jouw brein.
05:15
And if we want to understandbegrijpen who we are and how we feel and perceivewaarnemen,
107
290000
3000
Als we willen begrijpen wie we zijn en hoe we voelen en waarnemen,
05:18
we really understandbegrijpen what brainshersenen are.
108
293000
2000
moeten we echt begrijpen wat hersenen zijn.
05:20
AnotherEen ander thing is sometimessoms sciencewetenschap
109
295000
2000
Iets anders nog: wetenschap
05:22
leadsleads to really biggroot societalmaatschappelijke benefitsvoordelen and technologiestechnologieën,
110
297000
2000
leidt soms tot grote maatschappelijke en technologische voordelen,
05:24
or businessesondernemingen, or whateverwat dan ook, that come out of it. And this is one, too,
111
299000
2000
bedrijven of om het even wat eruit voortkomt. Dit is er ook een van.
05:26
because when we understandbegrijpen how brainshersenen work, we're going to be ablein staat
112
301000
3000
Als we weten hoe de hersenen werken, zullen we
05:29
to buildbouwen intelligentintelligent machinesmachines, and I think that's actuallywerkelijk a good thing on the wholegeheel,
113
304000
3000
intelligente machines kunnen maken en ik denk dat dit uiteindelijk iets goed is.
05:32
and it's going to have tremendousenorme benefitsvoordelen to societymaatschappij,
114
307000
2000
Het zal enorme voordelen hebben voor onze maatschappij
05:34
just like a fundamentalfundamenteel technologytechnologie.
115
309000
2000
net zoals een fundamentele technologie.
05:36
So why don't we have a good theorytheorie of brainshersenen?
116
311000
2000
Waarom hebben we dan geen goede hersentheorie?
05:38
And people have been workingwerkend on it for 100 yearsjaar.
117
313000
3000
We zijn er al honderd jaar naar op zoek.
05:41
Well, let's first take a look at what normalnormaal sciencewetenschap lookslooks like.
118
316000
2000
Laten we eerst kijken naar hoe normale wetenschap eruit ziet.
05:43
This is normalnormaal sciencewetenschap.
119
318000
2000
Dit is normale wetenschap.
05:45
NormalNormaal sciencewetenschap is a niceleuk balancebalans betweentussen theorytheorie and experimentalistsexperimentalisten.
120
320000
4000
Normale wetenschap is een mooie balans tussen theorie en experimenten.
05:49
And so the theoristtheoreticus guys say, well, I think this is what's going on,
121
324000
2000
Degenen die de theorie bedenken zeggen: "Ik denk dat dit gebeurt.",
05:51
and the experimentalistexperimentalist sayszegt, no, you're wrongfout.
122
326000
2000
terwijl degenen die de experimenten uitvoeren zeggen: "Nee, je zit verkeerd."
05:53
And it goesgaat back and forthvoort, you know?
123
328000
2000
Zo gaat dat over en weer, snap je?
05:55
This workswerken in physicsfysica. This workswerken in geologygeologie. But if this is normalnormaal sciencewetenschap,
124
330000
2000
Zo gaat dat in fysica. Zo gaat dat in geologie. Maar als dit normale wetenschap is,
05:57
what does neuroscienceneurowetenschappen look like? This is what neuroscienceneurowetenschappen lookslooks like.
125
332000
3000
hoe ziet neurowetenschap er dan uit? Zo ziet neurowetenschap eruit.
06:00
We have this mountainberg- of datagegevens, whichwelke is anatomyanatomie, physiologyfysiologie and behaviorgedrag.
126
335000
5000
We hebben een berg data, bestaande uit anatomie, fysiologie en gedrag.
06:05
You can't imaginestel je voor how much detaildetail- we know about brainshersenen.
127
340000
3000
Je kunt je niet voorstellen hoeveel details we weten over de hersenen.
06:08
There were 28,000 people who wentgegaan to the neuroscienceneurowetenschappen conferenceconferentie this yearjaar,
128
343000
4000
Dit jaar kwamen 28.000 mensen naar de neurowetenschapsconferentie
06:12
and everyelk one of them is doing researchOnderzoek in brainshersenen.
129
347000
2000
en stuk voor stuk deden ze aan hersenonderzoek.
06:14
A lot of datagegevens. But there's no theorytheorie. There's a little, wimpywimpy boxdoos on toptop there.
130
349000
4000
Een heleboel data. Maar er is geen theorie. Je ziet slechts een klein kadertje daarboven.
06:18
And theorytheorie has not playedgespeeld a rolerol in any sortsoort of grandgroots way in the neurosciencesNeurowetenschappen.
131
353000
5000
Theorie heeft nog nooit een grote rol gespeeld in de neurowetenschap.
06:23
And it's a realecht shameschande. Now why has this come about?
132
358000
3000
Het is echt zonde. Hoe is dit nu gekomen?
06:26
If you askvragen neuroscientistsneurowetenschappers, why is this the statestaat of affairaffaire,
133
361000
2000
Als je aan neurowetenschappers vraagt waarom dit nu de stand van zaken is,
06:28
they'llzullen ze first of all admittoegeven it. But if you askvragen them, they'llzullen ze say,
134
363000
3000
zullen ze dat eerst toegeven. Maar als je het vraagt
06:31
well, there's variousdivers reasonsredenen we don't have a good brainhersenen theorytheorie.
135
366000
3000
zeggen ze wel: “Er zijn verscheidene redenen waarom we geen goede hersentheorie hebben.”
06:34
Some people say, well, we don't still have enoughgenoeg datagegevens,
136
369000
2000
Sommigen zeggen dat we nog steeds niet genoeg data hebben.
06:36
we need to get more informationinformatie, there's all these things we don't know.
137
371000
3000
We hebben meer informatie nodig, er zijn nog zoveel dingen die we niet weten.
06:39
Well, I just told you there's so much datagegevens comingkomt eraan out your earsoren.
138
374000
3000
Ik vertelde net dat er zoveel data is dat het je oren uitkomt.
06:42
We have so much informationinformatie, we don't even know how to beginbeginnen to organizeorganiseren it.
139
377000
3000
We hebben zo veel informatie, maar weten niet hoe we ze moeten organiseren.
06:45
What good is more going to do?
140
380000
2000
Waarom zouden we er nog meer nodig hebben?
06:47
Maybe we'llgoed be luckyLucky and discoverontdekken some magicmagie thing, but I don't think so.
141
382000
3000
Misschien hebben we geluk en ontdekken we plots iets magisch, maar dat geloof ik niet.
06:50
This is actuallywerkelijk a symptomsymptoom of the factfeit that we just don't have a theorytheorie.
142
385000
3000
Dit is eigenlijk een symptoom van het feit dat we geen theorie hebben.
06:53
We don't need more datagegevens -- we need a good theorytheorie about it.
143
388000
3000
We hebben niet nog meer data nodig, we hebben een goede theorie nodig.
06:56
AnotherEen ander one is sometimessoms people say, well, brainshersenen are so complexcomplex,
144
391000
3000
Mensen zeggen ook soms dat de hersenen zo complex zijn dat
06:59
it'llhet zal take anothereen ander 50 yearsjaar.
145
394000
2000
het nog eens 50 jaar zal duren.
07:01
I even think ChrisChris said something like this yesterdaygisteren.
146
396000
2000
Ik denk zelfs dat Chris gisteren zoiets zei.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Ik weet niet zeker wat je zei Chris, maar iets als:
07:05
well, it's one of the mostmeest complicatedingewikkeld things in the universeuniversum. That's not truewaar.
148
400000
3000
"Het is een van de meest gecompliceerde dingen in het universum." Dat is niet waar.
07:08
You're more complicatedingewikkeld than your brainhersenen. You've got a brainhersenen.
149
403000
2000
Jij bent gecompliceerder dan je brein. Je hebt een brein.
07:10
And it's alsoook, althoughhoewel the brainhersenen lookslooks very complicatedingewikkeld,
150
405000
2000
En hoewel het brein er heel gecompliceerd uitziet,
07:12
things look complicatedingewikkeld untiltot you understandbegrijpen them.
151
407000
3000
lijken dingen enkel gecompliceerd tot je ze begrijpt.
07:15
That's always been the casegeval. And so all we can say, well,
152
410000
3000
Dat is al altijd zo geweest. Al wat we kunnen zeggen is dat
07:18
my neocortexneocortex, whichwelke is the partdeel of the brainhersenen I'm interestedgeïnteresseerd in, has 30 billionmiljard cellscellen.
153
413000
4000
onze neocortex, het stuk van de hersenen waarin ik geïnteresseerd ben, 30 miljard cellen heeft.
07:22
But, you know what? It's very, very regularregelmatig.
154
417000
2000
Maar weet je wat? Ze zijn eigenlijk heel gelijkmatig.
07:24
In factfeit, it lookslooks like it's the samedezelfde thing repeatedherhaald over and over and over again.
155
419000
3000
Eigenlijk lijkt het alsof hetzelfde patroon zich steeds opnieuw herhaalt.
07:27
It's not as complexcomplex as it lookslooks. That's not the issuekwestie.
156
422000
3000
Het is niet zo complex als het eruit ziet. Dat is niet het probleem.
07:30
Some people say, brainshersenen can't understandbegrijpen brainshersenen.
157
425000
2000
Sommigen zeggen, hersenen kunnen geen andere hersenen begrijpen.
07:32
Very Zen-likeZen-achtige. WhooWhoo. (LaughterGelach)
158
427000
3000
Heel Zen-achtig.
07:35
You know,
159
430000
1000
(Gelach)
07:36
it soundsklanken good, but why? I mean, what's the pointpunt?
160
431000
3000
Het klinkt goed, maar waarom? Maar wat is het punt?
07:39
It's just a bunchbos of cellscellen. You understandbegrijpen your liverlever.
161
434000
3000
Het is slechts een hoopje cellen. Je begrijpt je lever.
07:42
It's got a lot of cellscellen in it too, right?
162
437000
2000
Die heeft ook een heleboel cellen.
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Dus ik geloof dat dit niet klopt.
07:46
And finallyTenslotte, some people say, well, you know,
164
441000
2000
En uiteindelijk zijn er sommigen die zeggen:
07:48
I don't feel like a bunchbos of cellscellen, you know. I'm consciousbewust.
165
443000
4000
ik voel me niet als een hoopje cellen, ik ben bewust.
07:52
I've got this experienceervaring, I'm in the worldwereld-, you know.
166
447000
2000
Ik heb deze ervaring, ik sta in de wereld,
07:54
I can't be just a bunchbos of cellscellen. Well, you know,
167
449000
2000
ik kan niet alleen maar een hoopje cellen zijn.
07:56
people used to believe there was a life forcedwingen to be livingleven,
168
451000
3000
Mensen geloofden ooit dat er een levenskracht nodig was om te kunnen leven.
07:59
and we now know that's really not truewaar at all.
169
454000
2000
We weten ondertussen dat dat helemaal niet waar is.
08:01
And there's really no evidencebewijsmateriaal that sayszegt -- well, other than people
170
456000
3000
Er is eigenlijk geen enkel bewijs, buiten het feit dat mensen
08:04
just have disbeliefongeloof that cellscellen can do what they do.
171
459000
2000
gewoon niet geloven dat cellen kunnen doen wat ze doen.
08:06
And so, if some people have fallengesneuvelde into the pitpit of metaphysicalmetafysisch dualismdualisme,
172
461000
3000
Zo zijn sommige mensen in de val van het metafysisch dualisme getrapt,
08:09
some really smartslim people, too, but we can rejectverwerpen all that.
173
464000
3000
ook hele slimme mensen, maar dat kunnen we allemaal negeren.
08:12
(LaughterGelach)
174
467000
2000
(Gelach)
08:14
No, I'm going to tell you there's something elseanders,
175
469000
3000
Ik ga jullie vertellen dat er iets anders is,
08:17
and it's really fundamentalfundamenteel, and this is what it is:
176
472000
2000
iets heel fundamenteels, namelijk dit:
08:19
there's anothereen ander reasonreden why we don't have a good brainhersenen theorytheorie,
177
474000
2000
er is een andere reden waarom we geen goede hersentheorie hebben.
08:21
and it's because we have an intuitiveintuïtief, strongly-heldsterk-gehouden,
178
476000
3000
Dat is omdat we een sterk intuïtieve,
08:24
but incorrectonjuiste assumptionveronderstelling that has preventedverhinderd us from seeingziend the answerantwoord.
179
479000
5000
maar verkeerde aanname hebben, die ons ervan weerhoudt het antwoord te zien.
08:29
There's something we believe that just, it's obviousduidelijk, but it's wrongfout.
180
484000
3000
We geloven dat iets gewoon vanzelfsprekend is, maar het is verkeerd.
08:32
Now, there's a historygeschiedenis of this in sciencewetenschap and before I tell you what it is,
181
487000
4000
Dit heeft een geschiedenis in de wetenschap en vooraleer ik je vertel wat het is,
08:36
I'm going to tell you a bitbeetje about the historygeschiedenis of it in sciencewetenschap.
182
491000
2000
ga ik een beetje vertellen over de geschiedenis ervan in de wetenschap.
08:38
You look at some other scientificwetenschappelijk revolutionsrevoluties,
183
493000
2000
Als je kijkt naar wetenschappelijke revoluties,
08:40
and this casegeval, I'm talkingpratend about the solarzonne- systemsysteem, that's CopernicusCopernicus,
184
495000
2000
in dit geval heb ik het over het zonnestelsel, Copernicus,
08:42
Darwin'sDarwin's evolutionevolutie, and tectonictektonische platesplaten, that's WegenerWegener.
185
497000
3000
de evolutieleer van Darwin en de tektonische platen van Wegener.
08:45
They all have a lot in commongemeenschappelijk with brainhersenen sciencewetenschap.
186
500000
3000
Ze hebben allemaal veel gemeen met neurowetenschap.
08:48
First of all, they had a lot of unexplainedonverklaard datagegevens. A lot of it.
187
503000
3000
Eerst hadden ze ook een hoop onverklaarde data. Een heleboel.
08:51
But it got more manageablebeheersbaar onceeen keer they had a theorytheorie.
188
506000
3000
Het werd echter meer werkbaar toen ze een theorie hadden.
08:54
The bestbeste mindsgeesten were stumpedstumped -- really, really smartslim people.
189
509000
3000
De slimste koppen stonden voor een raadsel, heel slimme mensen.
08:57
We're not smarterslimmer now than they were then.
190
512000
2000
We zijn nu niet slimmer dan zij toen waren.
08:59
It just turnsbochten out it's really hardhard to think of things,
191
514000
2000
Het blijkt gewoon dat het heel moeilijk is om bepaalde dingen te bedenken,
09:01
but onceeen keer you've thought of them, it's kindsoort of easygemakkelijk to understandbegrijpen it.
192
516000
2000
maar eenmaal bedacht, is het redelijk gemakkelijk om ze te begrijpen.
09:03
My daughtersdochters understoodbegrijpelijk these threedrie theoriestheorieën
193
518000
2000
Mijn dochters begrepen de basisprincipes
09:05
in theirhun basicbasis- frameworkkader by the time they were in kindergartenkleuterschool.
194
520000
3000
van deze drie theorieën toen ze nog op de kleuterschool zaten.
09:08
And now it's not that hardhard, you know, here'shier is the appleappel, here'shier is the orangeoranje,
195
523000
3000
Het is niet zo moeilijk, hier is de appel, hier is de sinaasappel,
09:11
you know, the EarthAarde goesgaat around, that kindsoort of stuffspul.
196
526000
3000
de aarde draait rond, dat soort zaken.
09:14
FinallyTot slot, anothereen ander thing is the answerantwoord was there all alonglangs,
197
529000
2000
Het antwoord was er al de hele tijd, maar we
09:16
but we kindsoort of ignoredbuiten beschouwing gelaten it because of this obviousduidelijk thing, and that's the thing.
198
531000
3000
negeerden het omwille van dat vanzelfsprekende idee en dat bedoel ik nu.
09:19
It was an intuitiveintuïtief, strong-heldsterke-gehouden beliefgeloof that was wrongfout.
199
534000
3000
Het was een intuïtief, vastgeroest geloof maar een verkeerd geloof.
09:22
In the casegeval of the solarzonne- systemsysteem, the ideaidee that the EarthAarde is spinningspinnen
200
537000
3000
In het geval van het zonnestelsel bijvoorbeeld, het idee dat de aarde draait
09:25
and the surfaceoppervlak of the EarthAarde is going like a thousandduizend milesmijlen an houruur,
201
540000
3000
en het oppervlak van de aarde een snelheid haalt van 1600 km per uur,
09:28
and the EarthAarde is going throughdoor the solarzonne- systemsysteem about a millionmiljoen milesmijlen an houruur.
202
543000
3000
en dat de aarde zich met een snelheid van 1,6 miljoen km per uur door het zonnestelsel verplaatst.
09:31
This is lunacywaanzin. We all know the EarthAarde isn't movingin beweging.
203
546000
2000
Dit is krankzinnig. We weten allemaal dat de aarde niet beweegt.
09:33
Do you feel like you're movingin beweging a thousandduizend milesmijlen an houruur?
204
548000
2000
Voelt het alsof je met 1600 km per uur beweegt?
09:35
Of courseCursus not. You know, and someoneiemand who said,
205
550000
2000
Natuurlijk niet. En iemand die beweerde
09:37
well, it was spinningspinnen around in spaceruimte and it's so hugereusachtig,
206
552000
2000
dat we ronddraaien in deze enorme ruimte,
09:39
they would lockslot you up, and that's what they did back then.
207
554000
2000
hebben ze opgesloten.
09:41
(LaughterGelach)
208
556000
1000
(Gelach)
09:42
So it was intuitiveintuïtief and obviousduidelijk. Now what about evolutionevolutie?
209
557000
3000
De oude aanname leek zo intuïtief en vanzelfsprekend. Wat met de evolutieleer?
09:45
Evolution'sEvolution's the samedezelfde thing. We taughtonderwezen our kidskinderen, well, the BibleBijbel sayszegt,
210
560000
3000
Evolutie is hetzelfde. We leerden onze kinderen dat, volgens de Bijbel,
09:48
you know, God createdaangemaakt all these speciessoorten, catskatten are catskatten, dogshonden are dogshonden,
211
563000
2000
God al deze levensvormen creëerde, katten zijn katten, honden zijn honden,
09:50
people are people, plantsplanten are plantsplanten, they don't changeverandering.
212
565000
3000
mensen zijn mensen, planten zijn planten, ze veranderen niet.
09:53
NoahNoach put them on the ArkArk in that orderbestellen, blahblah, blahblah, blahblah. And, you know,
213
568000
4000
Noah zette hen op de Ark in die volgorde, bla bla bla.
09:57
the factfeit is, if you believe in evolutionevolutie, we all have a commongemeenschappelijk ancestorvoorouder,
214
572000
4000
Maar als je in evolutie gelooft, hebben we allemaal dezelfde voorouder
10:01
and we all have a commongemeenschappelijk ancestryafkomst with the plantfabriek in the lobbylobby.
215
576000
3000
en hebben we allemaal dezelfde afkomst als die plant in de lobby.
10:04
This is what evolutionevolutie tellsvertelt us. And, it's truewaar. It's kindsoort of unbelievableongelooflijk.
216
579000
3000
Dit vertelt de evolutie ons. Ook weer een beetje moeilijk om te geloven.
10:07
And the samedezelfde thing about tectonictektonische platesplaten, you know?
217
582000
3000
Hetzelfde met tektonische platen.
10:10
All the mountainsbergen and the continentscontinenten are kindsoort of floatingdrijvend around
218
585000
2000
Dat al die bergen en continenten zo maar wat ronddrijven
10:12
on toptop of the EarthAarde, you know? It's like, it doesn't make any sensezin.
219
587000
4000
op de aarde lijkt geen steek te houden.
10:16
So what is the intuitiveintuïtief, but incorrectonjuiste assumptionveronderstelling,
220
591000
4000
Wat is dan de intuïtieve, maar verkeerde aanname,
10:20
that's keptgehouden us from understandingbegrip brainshersenen?
221
595000
2000
die ons ervan weerhoudt hersenen te begrijpen?
10:22
Now I'm going to tell it to you, and it's going to seemlijken obviousduidelijk that that is correctcorrect,
222
597000
2000
Wat ik jullie ga vertellen, gaat vanzelfsprekend juist lijken.
10:24
and that's the pointpunt, right? Then I'm going to have to make an argumentargument
223
599000
2000
En daar gaat het toch om, niet? Ik moet een argument vinden
10:26
why you're incorrectonjuiste about the other assumptionveronderstelling.
224
601000
2000
waarom je verkeerd zit met die andere aanname.
10:28
The intuitiveintuïtief but obviousduidelijk thing is that somehowhoe dan ook intelligenceintelligentie-
225
603000
3000
Het intuïtieve, vanzelfsprekende is dat intelligentie
10:31
is definedbepaald by behaviorgedrag,
226
606000
2000
bepaald lijkt te worden door gedrag,
10:33
that we are intelligentintelligent because of the way that we do things
227
608000
2000
dat we intelligent zijn door de manier waarop we dingen doen
10:35
and the way we behavezich gedragen intelligentlyintelligent, and I'm going to tell you that's wrongfout.
228
610000
3000
en de manier waarop we ons intelligent gedragen. Ik ga jullie vertellen dat dat verkeerd is.
10:38
What it is is intelligenceintelligentie- is definedbepaald by predictionvoorspelling.
229
613000
2000
Intelligentie wordt eigenlijk bepaald door voorspelling.
10:40
And I'm going to work you throughdoor this in a fewweinig slidesslides here,
230
615000
3000
Ik zal het jullie verduidelijken door een aantal dia's
10:43
give you an examplevoorbeeld of what this meansmiddelen. Here'sHier is a systemsysteem.
231
618000
4000
met voorbeelden. Hier heb je een systeem.
10:47
EngineersIngenieurs like to look at systemssystemen like this. ScientistsWetenschappers like to look at systemssystemen like this.
232
622000
3000
Ingenieurs en wetenschappers kijken graag naar dergelijke systemen.
10:50
They say, well, we have a thing in a boxdoos, and we have its inputsinput and its outputsuitgangen.
233
625000
3000
Ze zeggen: “We hebben iets in een doos en er gaat wat in en er komt wat uit..”
10:53
The AIAI people said, well, the thing in the boxdoos is a programmableprogrammeerbare computercomputer
234
628000
3000
Volgens de mensen van kunstmatige intelligentie zat er in de doos een programmeerbare computer
10:56
because that's equivalentgelijkwaardig to a brainhersenen, and we'llgoed feedeten geven it some inputsinput
235
631000
2000
omdat dat gelijk is aan een brein. We geven het wat input
10:58
and we'llgoed get it to do something, have some behaviorgedrag.
236
633000
2000
en het zal iets doen, het zal gedrag vertonen.
11:00
And AlanAlan TuringTuring definedbepaald the TuringTuring testtest, whichwelke is essentiallyin wezen sayinggezegde,
237
635000
3000
Alan Turing stelde de Turingtest op, die in principe zegt:
11:03
we'llgoed know if something'ser is iets intelligentintelligent if it behavesgedraagt zich identicalidentiek to a humanmenselijk.
238
638000
3000
“We weten of iets intelligent is als het zich identiek gedraagt als een mens.”
11:06
A behavioralgedrags metricmetriek of what intelligenceintelligentie- is,
239
641000
3000
Een gedragsmatige maatstaf van wat intelligentie is.
11:09
and this has stuckgeplakt in our mindsgeesten for a long periodperiode of time.
240
644000
3000
Dit idee is lang meegegaan.
11:12
RealityWerkelijkheid thoughhoewel, I call it realecht intelligenceintelligentie-.
241
647000
2000
Maar in werkelijkheid vind ik
11:14
RealEchte intelligenceintelligentie- is builtgebouwd on something elseanders.
242
649000
2000
dat échte intelligentie gebaseerd is op iets anders.
11:16
We experienceervaring the worldwereld- throughdoor a sequencevolgorde of patternspatronen, and we storeop te slaan them,
243
651000
4000
We ervaren de wereld door een opeenvolging van patronen. We slaan ze op
11:20
and we recallterugroepen them. And when we recallterugroepen them, we matchbij elkaar passen them up
244
655000
3000
en roepen ze opnieuw op. En wanneer we ze oproepen, toetsen we ze
11:23
againsttegen realityrealiteit, and we're makingmaking predictionsvoorspellingen all the time.
245
658000
4000
aan de werkelijkheid. We maken voortdurend voorspellingen.
11:27
It's an eternaleeuwige metricmetriek. There's an eternaleeuwige metricmetriek about us sortsoort of sayinggezegde,
246
662000
3000
Het is een voortdurende controle die blijft nagaan
11:30
do we understandbegrijpen the worldwereld-? Am I makingmaking predictionsvoorspellingen? And so on.
247
665000
3000
of we de wereld begrijpen? Maak ik voorspellingen? Enzoverder.
11:33
You're all beingwezen intelligentintelligent right now, but you're not doing anything.
248
668000
2000
Jullie zijn nu allemaal intelligent bezig, maar jullie doen niets.
11:35
Maybe you're scratchingkrabben yourselfjezelf, or pickingpluk your noseneus-,
249
670000
2000
Misschien krab je jezelf of zit je in je neus,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
ik weet het niet, maar je doet niets op dit moment,
11:39
but you're beingwezen intelligentintelligent; you're understandingbegrip what I'm sayinggezegde.
251
674000
3000
Maar je bent intelligent bezig want je begrijpt wat ik zeg.
11:42
Because you're intelligentintelligent and you speakspreken EnglishEngels,
252
677000
2000
Omdat je intelligent bent en je Engels spreekt,
11:44
you know what wordwoord is at the endeinde of this -- (SilenceStilte)
253
679000
1000
weet je welk woord er komt op het einde van deze... (stilte)
11:45
sentencezin.
254
680000
2000
... zin.
11:47
The wordwoord camekwam into you, and you're makingmaking these predictionsvoorspellingen all the time.
255
682000
3000
Dat woord bedacht je zelf, je maakt voortdurend dergelijke voorspellingen.
11:50
And then, what I'm sayinggezegde is,
256
685000
2000
Wat ik bedoel is
11:52
is that the eternaleeuwige predictionvoorspelling is the outputuitgang in the neocortexneocortex.
257
687000
2000
dat de eeuwige voorspelling de output is van de neocortex.
11:54
And that somehowhoe dan ook, predictionvoorspelling leadsleads to intelligentintelligent behaviorgedrag.
258
689000
3000
en dat, op een of andere manier, voorspelling leidt tot intelligent gedrag.
11:57
And here'shier is how that happensgebeurt. Let's startbegin with a non-intelligentniet-intelligent brainhersenen.
259
692000
3000
Hoe gebeurt dit nu? Laten we van start gaan met een niet-intelligent brein.
12:00
Well I'll argueargumenteren a non-intelligentniet-intelligent brainhersenen, we got holdhouden of an oldoud brainhersenen,
260
695000
4000
Ik zeg nadrukkelijk: een niet-intelligent brein, een oud brein.
12:04
and we're going to say it's like a non-mammalniet-zoogdier, like a reptilereptielen,
261
699000
3000
Laten we zeggen dat het geen zoogdier is, maar een reptiel,
12:07
so I'll say, an alligatoralligator; we have an alligatoralligator.
262
702000
2000
bijvoorbeeld een alligator.
12:09
And the alligatoralligator has some very sophisticatedgeavanceerde sensesverstand.
263
704000
3000
Deze alligator heeft zeer goed ontwikkelde zintuigen.
12:12
It's got good eyesogen and earsoren and touchaanraken sensesverstand and so on,
264
707000
3000
Hij heeft goede ogen, oren, tastzintuigen,
12:15
a mouthmond and a noseneus-. It has very complexcomplex behaviorgedrag.
265
710000
4000
een mond en een neus. Hij vertoont complex gedrag.
12:19
It can runrennen and hideverbergen. It has fearsangsten and emotionsemoties. It can eateten you, you know.
266
714000
4000
Hij kan lopen en zich verbergen. Hij heeft angsten en emoties. Hij kan je opeten,
12:23
It can attackaanval. It can do all kindssoorten of stuffspul.
267
718000
4000
hij kan aanvallen. Hij kan allerlei dingen doen.
12:27
But we don't consideroverwegen the alligatoralligator very intelligentintelligent, not like in a humanmenselijk sortsoort of way.
268
722000
5000
Maar we beschouwen de alligator niet echt als intelligent, niet op de manier waarop mensen dat zijn.
12:32
But it has all this complexcomplex behaviorgedrag alreadynu al.
269
727000
2000
Toch vertoont hij complex gedrag.
12:34
Now, in evolutionevolutie, what happenedgebeurd?
270
729000
2000
Wat gebeurde er in de evolutie?
12:36
First thing that happenedgebeurd in evolutionevolutie with mammalszoogdieren,
271
731000
3000
Het eerste wat zoogdieren in de evolutie ontwikkelden
12:39
we startedbegonnen to developontwikkelen a thing calledriep the neocortexneocortex.
272
734000
2000
was de neocortex.
12:41
And I'm going to representvertegenwoordigen the neocortexneocortex here,
273
736000
2000
Ik zal de neocortex hier afbeelden
12:43
by this boxdoos that's stickingplakken on toptop of the oldoud brainhersenen.
274
738000
2000
aan de hand van deze doos die bovenop het oude brein plakt.
12:45
NeocortexNeocortex meansmiddelen newnieuwe layerlaag. It is a newnieuwe layerlaag on toptop of your brainhersenen.
275
740000
3000
Neocortex betekent letterlijk 'nieuwe laag'. Een nieuwe laag bovenop je brein.
12:48
If you don't know it, it's the wrinklyrimpelige thing on the toptop of your headhoofd that,
276
743000
3000
Mocht je het niet kennen: het is dat gekreukeld ding boven in je hoofd.
12:51
it's got wrinklyrimpelige because it got shovedschoof in there and doesn't fitpassen.
277
746000
3000
Het raakte gekreukeld omdat het erin werd geduwd. Het past er niet goed in.
12:54
(LaughterGelach)
278
749000
1000
(Gelach)
12:55
No, really, that's what it is. It's about the sizegrootte of a tabletafel napkinServet.
279
750000
2000
Nee, echt waar. Het heeft ongeveer de grootte van een servet.
12:57
And it doesn't fitpassen, so it getskrijgt all wrinklyrimpelige. Now look at how I've drawngetrokken this here.
280
752000
3000
Het paste niet, dus het raakte helemaal verkreukeld. Kijk hoe ik dit getekend heb.
13:00
The oldoud brainhersenen is still there. You still have that alligatoralligator brainhersenen.
281
755000
4000
Het oude brein is er nog. Je hebt nog steeds dat alligatorbrein.
13:04
You do. It's your emotionalemotioneel brainhersenen.
282
759000
2000
Dat is je emotionele brein.
13:06
It's all those things, and all those gutdarm reactionsreacties you have.
283
761000
3000
Het zijn al die dingen en alle instinctieve reacties die je hebt.
13:09
And on toptop of it, we have this memorygeheugen systemsysteem calledriep the neocortexneocortex.
284
764000
3000
Daarboven hebben we het geheugensysteem dat de neocortex heet.
13:12
And the memorygeheugen systemsysteem is sittingzittend over the sensoryzintuiglijk partdeel of the brainhersenen.
285
767000
4000
Het geheugensysteem zit over het zintuiglijke deel van het brein.
13:16
And so as the sensoryzintuiglijk inputinvoer comeskomt in and feedsfeeds from the oldoud brainhersenen,
286
771000
3000
Als de zintuiglijke input binnenkomt via het oude brein
13:19
it alsoook goesgaat up into the neocortexneocortex. And the neocortexneocortex is just memorizingonthouden.
287
774000
4000
gaat hij ook omhoog naar de neocortex. De neocortex registreert gewoon
13:23
It's sittingzittend there sayinggezegde, ahAh, I'm going to memorizememoriseren all the things that are going on:
288
778000
4000
en onthoudt alle gebeurtenissen.
13:27
where I've been, people I've seengezien, things I've heardgehoord, and so on.
289
782000
2000
Waar ik geweest ben, de mensen die ik gezien heb, dingen die ik hoorde, enz.
13:29
And in the futuretoekomst, when it seesziet something similarsoortgelijk to that again,
290
784000
4000
In de toekomst, wanneer hij nog eens iets gelijkaardigs ziet
13:33
so in a similarsoortgelijk environmentmilieu, or the exactexact samedezelfde environmentmilieu,
291
788000
3000
in een gelijkaardige of in dezelfde omgeving,
13:36
it'llhet zal playspelen it back. It'llItll startbegin playingspelen it back.
292
791000
2000
zal hij het opnieuw afspelen.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
O, ik ben hier al eens geweest. Toen ik hier was,
13:40
this happenedgebeurd nextvolgende. It allowstoestaat you to predictvoorspellen the futuretoekomst.
294
795000
3000
gebeurde dit. Het laat je toe de toekomst te voorspellen.
13:43
It allowstoestaat you to, literallyletterlijk it feedsfeeds back the signalssignalen into your brainhersenen;
295
798000
4000
Hij stuurt letterlijk signalen, die je laten zien wat er straks
13:47
they'llzullen ze let you see what's going to happengebeuren nextvolgende,
296
802000
2000
gaat gebeuren, terug naar je brein.
13:49
will let you hearhoren the wordwoord "sentencezin" before I said it.
297
804000
3000
Je hoort het woord 'zin' nog voor ik het uitspreek.
13:52
And it's this feedingvoeding back into the oldoud brainhersenen
298
807000
3000
Het is dit terugkoppelen naar het oude brein
13:55
that'lldat zal allowtoestaan you to make very more intelligentintelligent decisionsbeslissingen.
299
810000
3000
dat je toelaat meer intelligente beslissingen te nemen.
13:58
This is the mostmeest importantbelangrijk slideglijbaan of my talk, so I'll dwellDwell on it a little bitbeetje.
300
813000
3000
Dit is de belangrijkste dia van mijn lezing, ik blijf er even bij stilstaan.
14:01
And so, all the time you say, oh, I can predictvoorspellen the things.
301
816000
4000
Telkens opnieuw merk je dat je dingen kan voorspellen.
14:05
And if you're a ratRat and you go throughdoor a mazedoolhof, and then you learnleren the mazedoolhof,
302
820000
3000
Als je een rat bent en je gaat door een doolhof, dan leer je de doolhof.
14:08
the nextvolgende time you're in a mazedoolhof, you have the samedezelfde behaviorgedrag,
303
823000
2000
De volgende keer wanneer je in de doolhof bent, gedraag je je hetzelfde
14:10
but all of a suddenplotseling, you're smarterslimmer
304
825000
2000
maar plots ben je nu slimmer
14:12
because you say, oh, I recognizeherken this mazedoolhof, I know whichwelke way to go,
305
827000
3000
omdat je merkt dat je deze doolhof herkent en weet welke kant je uit moet.
14:15
I've been here before, I can envisionvoor ogen the futuretoekomst. And that's what it's doing.
306
830000
3000
Je bent hier al geweest, je ziet de toekomst voor je. Dat is wat het doet.
14:18
In humansmensen -- by the way, this is truewaar for all mammalszoogdieren;
307
833000
3000
Bij mensen, trouwens dit geldt voor alle zoogdieren,
14:21
it's truewaar for other mammalszoogdieren -- and in humansmensen, it got a lot worseerger.
308
836000
2000
maar bij mensen ging het nog veel verder.
14:23
In humansmensen, we actuallywerkelijk developedontwikkelde the frontvoorkant partdeel of the neocortexneocortex
309
838000
3000
Bij mensen ontwikkelden we zelfs het voorste stuk van de neocortex
14:26
calledriep the anterioranterior partdeel of the neocortexneocortex. And naturenatuur did a little tricktruc.
310
841000
4000
het anterieure deel van de neocortex. De natuur gebruikte hier een trucje:
14:30
It copiedgekopieerd the posteriorposterior partdeel, the back partdeel, whichwelke is sensoryzintuiglijk,
311
845000
2000
zij kopieerde het posterieure deel, het achterste deel, het zintuiglijke,
14:32
and put it in the frontvoorkant partdeel.
312
847000
2000
en stopte het in het voorste deel.
14:34
And humansmensen uniquelyuniek have the samedezelfde mechanismmechanisme on the frontvoorkant,
313
849000
2000
Enkel bij mensen hebben we hetzelfde mechanisme vooraan.
14:36
but we use it for motormotor controlcontrole.
314
851000
2000
We gebruiken het voor motorische controle.
14:38
So we are now ablein staat to make very sophisticatedgeavanceerde motormotor planningplanning, things like that.
315
853000
3000
Dus we kunnen nu een heel verfijnde motorische planning maken, dat soort dingen.
14:41
I don't have time to get into all this, but if you want to understandbegrijpen how a brainhersenen workswerken,
316
856000
3000
Ik heb geen tijd om hier dieper op in te gaan, maar als je wilt weten hoe de hersenen werken,
14:44
you have to understandbegrijpen how the first partdeel of the mammalianzoogdieren neocortexneocortex workswerken,
317
859000
3000
moet je begrijpen hoe het eerste deel van de neocortex van zoogdieren werkt,
14:47
how it is we storeop te slaan patternspatronen and make predictionsvoorspellingen.
318
862000
2000
hoe we patronen opslaan en voorspellingen maken.
14:49
So let me give you a fewweinig examplesvoorbeelden of predictionsvoorspellingen.
319
864000
3000
Laat me jullie een paar voorbeelden geven van voorspellingen.
14:52
I alreadynu al said the wordwoord "sentencezin." In musicmuziek-,
320
867000
2000
Ik zei bijvoorbeeld al het woord 'zin'. Op muzikaal vlak:
14:54
if you've heardgehoord a songlied before, if you heardgehoord JillJill singzingen those songssongs before,
321
869000
3000
als je een lied al eens hebt gehoord, als je Jill die liedjes al hebt horen zingen,
14:57
when she singszingt them, the nextvolgende noteNotitie popsPOP 's into your headhoofd alreadynu al --
322
872000
3000
schieten de volgende noten je al te binnen wanneer ze zingt.
15:00
you anticipateanticiperen it as you're going. If it was an albumalbum of musicmuziek-,
323
875000
2000
Je anticipeert op wat volgt. Als je een volledig album beluistert,
15:02
the endeinde of one albumalbum, the nextvolgende songlied popsPOP 's into your headhoofd.
324
877000
3000
zal bij het einde van een lied, het volgende lied je al te binnen schieten.
15:05
And these things happengebeuren all the time. You're makingmaking these predictionsvoorspellingen.
325
880000
2000
Deze dingen gebeuren constant. Je maakt voorspellingen.
15:07
I have this thing calledriep the alteredgewijzigd doordeur- thought experimentexperiment.
326
882000
3000
Ik heb een experiment het 'gewijzigde-deur-gedachte-experiment' genoemd.
15:10
And the alteredgewijzigd doordeur- thought experimentexperiment sayszegt, you have a doordeur- at home,
327
885000
3000
In dit experiment gaan we ervan uit dat je thuis een deur hebt.
15:13
and when you're here, I'm changingveranderen it, I've got a guy
328
888000
3000
Terwijl je hier bent, verander ik de deur. Ik heb een mannetje
15:16
back at your househuis right now, movingin beweging the doordeur- around,
329
891000
2000
dat nu bij jou thuis die deur aan het bewerken is.
15:18
and they're going to take your doorknobDeurknopje and moveverhuizing it over two inchesinches.
330
893000
2000
Hij gaat je deurknop vijf centimeter verplaatsen.
15:20
And when you go home tonightvanavond, you're going to put your handhand- out there,
331
895000
2000
Als je vanavond naar huis gaat, ga je je hand uitsteken,
15:22
and you're going to reachberijk for the doorknobDeurknopje and you're going to noticekennisgeving
332
897000
2000
naar de deurknop reiken en merken
15:24
it's in the wrongfout spotplek, and you'llje zult go, whoaho, something happenedgebeurd.
333
899000
3000
dat die op de verkeerde plaats zit. Je merkt dat er iets is veranderd.
15:27
It maymei take a secondtweede to figurefiguur out what it was, but something happenedgebeurd.
334
902000
2000
Het duurt misschien even voor je het beseft, maar er is iets veranderd.
15:29
Now I could changeverandering your doorknobDeurknopje in other waysmanieren.
335
904000
2000
Ik kan je deurknop op verschillende manieren veranderen.
15:31
I can make it largergrotere or smallerkleiner, I can changeverandering its brassmessing to silverzilver,
336
906000
2000
Ik kan hem groter of kleiner maken, het koper in zilver veranderen,
15:33
I could make it a leverhendel. I can changeverandering your doordeur-, put colorskleuren on;
337
908000
2000
hem in een hendel veranderen. Ik kan je deur veranderen, ze schilderen.
15:35
I can put windowsramen in. I can changeverandering a thousandduizend things about your doordeur-,
338
910000
3000
Ik kan er ramen in plaatsen. Ik kan duizend dingen aan je deur veranderen
15:38
and in the two secondsseconden you take to openOpen your doordeur-,
339
913000
2000
en in de twee seconden die je nodig hebt om je deur te openen,
15:40
you're going to noticekennisgeving that something has changedveranderd.
340
915000
3000
zal je merken dat er iets veranderd is.
15:43
Now, the engineeringbouwkunde approachnadering to this, the AIAI approachnadering to this,
341
918000
2000
Een ingenieur of kunstmatige intelligentie zou hiervoor
15:45
is to buildbouwen a doordeur- databasedatabank. It has all the doordeur- attributeskenmerken.
342
920000
3000
een database bouwen die alle deurattributen bevat.
15:48
And as you go up to the doordeur-, you know, let's checkcontroleren them off one at time.
343
923000
3000
Wanneer je de deur benadert, ga je ze allemaal aflopen.
15:51
DoorDeur, doordeur-, doordeur-, you know, colorkleur, you know what I'm sayinggezegde.
344
926000
2000
Deur, deur, deur, je weet wel, kleur, je weet wat ik bedoel.
15:53
We don't do that. Your brainhersenen doesn't do that.
345
928000
2000
Wij doen dit niet. Je brein doet dat niet.
15:55
What your brainhersenen is doing is makingmaking constantconstante predictionsvoorspellingen all the time
346
930000
2000
Je brein maakt constante voorspellingen
15:57
about what is going to happengebeuren in your environmentmilieu.
347
932000
2000
over wat er gaat gebeuren in je omgeving.
15:59
As I put my handhand- on this tabletafel, I expectverwachten to feel it stop.
348
934000
3000
Als ik mijn hand op deze tafel leg, verwacht ik te voelen waar ze eindigt.
16:02
When I walklopen, everyelk stepstap, if I missedgemiste it by an eighthachtste of an inchduim,
349
937000
3000
Als ik rondloop en de tafel op een haar na zou missen,
16:05
I'll know something has changedveranderd.
350
940000
2000
zal ik weten dat er iets veranderd is.
16:07
You're constantlyvoortdurend makingmaking predictionsvoorspellingen about your environmentmilieu.
351
942000
2000
Je maakt voortdurend voorspellingen over je omgeving.
16:09
I'll talk about visionvisie here brieflykort. This is a pictureafbeelding of a womanvrouw.
352
944000
3000
Ik zal het kort hebben over zien. Dit is een plaatje van een vrouw.
16:12
And when you look at people, your eyesogen are caughtgevangen
353
947000
2000
Wanneer je mensen aankijkt, bewegen je ogen
16:14
over at two to threedrie timestijden a secondtweede.
354
949000
1000
ongeveer 2 à 3 keer per seconde over en weer.
16:15
You're not awarebewust of this, but your eyesogen are always movingin beweging.
355
950000
2000
Je doet dit onbewust, je ogen zijn constant in beweging.
16:17
And so when you look at someone'siemands facegezicht,
356
952000
2000
Wanneer je naar iemand zijn gezicht kijkt,
16:19
you'dje zou typicallytypisch go from eyeoog to eyeoog to eyeoog to noseneus- to mouthmond.
357
954000
2000
ga je normaal van oog naar oog naar oog naar neus naar mond.
16:21
Now, when your eyeoog movesmoves from eyeoog to eyeoog,
358
956000
2000
Wanneer je beweegt van oog naar oog,
16:23
if there was something elseanders there like, a noseneus-,
359
958000
2000
en er zou daar iets anders staan, bijvoorbeeld een neus,
16:25
you'dje zou see a noseneus- where an eyeoog is supposedvermeend to be,
360
960000
2000
zou je een neus zien op de plaats van het oog.
16:27
and you'dje zou go, oh shitstront, you know --
361
962000
3000
Je zou denken: "Oh shit."
16:30
(LaughterGelach)
362
965000
1000
(Gelach)
16:31
There's something wrongfout about this personpersoon.
363
966000
2000
“Er is iets mis met deze persoon.”
16:33
And that's because you're makingmaking a predictionvoorspelling.
364
968000
2000
Dat is omdat je een voorspelling maakt.
16:35
It's not like you just look over there and say, what am I seeingziend now?
365
970000
2000
Het is niet alsof je er gewoon naar kijkt en zegt: “Wat zie ik nu?
16:37
A noseneus-, that's okay. No, you have an expectationverwachting of what you're going to see.
366
972000
3000
Een neus, oké.” Nee, je hebt een verwachting van wat je gaat zien.
16:40
(LaughterGelach)
367
975000
1000
(Gelach)
16:41
EveryElke singlesingle momentmoment. And finallyTenslotte, let's think about how we testtest intelligenceintelligentie-.
368
976000
4000
Ten laatste, laten we eens denken over hoe we intelligentie testen.
16:45
We testtest it by predictionvoorspelling. What is the nextvolgende wordwoord in this, you know?
369
980000
3000
We testen het volgens voorspelling. Wat is het volgende woord in deze …
16:48
This is to this as this is to this. What is the nextvolgende numberaantal in this sentencezin?
370
983000
3000
Dit verhoudt zich tot dit zoals dit zich verhoudt tot dat. Wat is het volgende nummer in deze rij?
16:51
Here'sHier is threedrie visionsvisioenen of an objectvoorwerp.
371
986000
2000
Hier zijn drie beelden van een object.
16:53
What's the fourthvierde one? That's how we testtest it. It's all about predictionvoorspelling.
372
988000
4000
Welke is het vierde? Zo testen we dat. Het draait allemaal rond voorspellingen.
16:57
So what is the reciperecept for brainhersenen theorytheorie?
373
992000
3000
Dus wat is het recept voor een hersentheorie?
17:00
First of all, we have to have the right frameworkkader.
374
995000
3000
Ten eerste: we moeten het juiste kader hebben.
17:03
And the frameworkkader is a memorygeheugen frameworkkader,
375
998000
2000
Dat kader is een geheugenkader,
17:05
not a computationberekening or behaviorgedrag frameworkkader. It's a memorygeheugen frameworkkader.
376
1000000
2000
geen berekenings- of een gedragskader. Een geheugenkader.
17:07
How do you storeop te slaan and recallterugroepen these sequencessequenties or patternspatronen? It's spatio-temporalSpatio-temporele patternspatronen.
377
1002000
4000
Hoe sla je al deze reeksen en patronen op? Het zijn tijdelijke ruimtelijke patronen.
17:11
Then, if in that frameworkkader, you take a bunchbos of theoreticianstheoretici.
378
1006000
3000
Vertrekkend vanuit dat kader, zoek je een paar theoretici.
17:14
Now biologistsbiologen generallyalgemeen are not good theoreticianstheoretici.
379
1009000
2000
Over het algemeen zijn biologen geen goede theoretici.
17:16
It's not always truewaar, but in generalalgemeen, there's not a good historygeschiedenis of theorytheorie in biologybiologie.
380
1011000
4000
Het is niet altijd zo, maar over het algemeen is er geen goede geschiedenis van theorie in biologie.
17:20
So I foundgevonden the bestbeste people to work with are physicistsnatuurkundigen,
381
1015000
3000
Voor mij zijn de beste mensen om mee te werken de natuurkundigen,
17:23
engineersingenieurs and mathematicianswiskundigen, who tendde neiging hebben to think algorithmicallyalgoritmisch.
382
1018000
3000
ingenieurs en wiskundigen, die meestal algoritmisch denken.
17:26
Then they have to learnleren the anatomyanatomie, and they'veze hebben got to learnleren the physiologyfysiologie.
383
1021000
3000
Dan moeten zij de anatomie leren en ook de fysiologie.
17:29
You have to make these theoriestheorieën very realisticrealistische in anatomicalanatomisch termstermen.
384
1024000
4000
Je moet deze theorieën realistisch maken in anatomische termen.
17:33
AnyoneIedereen who getskrijgt up and tellsvertelt you theirhun theorytheorie about how the brainhersenen workswerken
385
1028000
4000
Iemand die je zijn theorie vertelt over hoe het brein werkt
17:37
and doesn't tell you exactlyprecies how it's workingwerkend in the brainhersenen
386
1032000
2000
en je niet exact vertelt hoe het werkt in het brein
17:39
and how the wiringbedrading workswerken in the brainhersenen, it is not a theorytheorie.
387
1034000
2000
en hoe de connecties werken in de hersenen, heeft geen theorie.
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceNeurowetenschappen InstituteInstituut.
388
1036000
3000
Dat doen we aan het Redwood Instituut voor Neurowetenschap.
17:44
I would love to have more time to tell you we're makingmaking fantasticfantastisch progressvooruitgang in this thing,
389
1039000
4000
Ik had graag meer tijd gehad, we boeken fantastische vooruitgang
17:48
and I expectverwachten to be back up on this stagestadium,
390
1043000
2000
en ik verwacht mezelf in de nabije toekomst
17:50
maybe this will be some other time in the not too distantafgelegen futuretoekomst and tell you about it.
391
1045000
2000
terug op dit podium om jullie erover te vertellen.
17:52
I'm really, really excitedopgewonden. This is not going to take 50 yearsjaar at all.
392
1047000
3000
Ik zie het volledig zitten. Dit gaat geen 50 jaar duren.
17:55
So what will brainhersenen theorytheorie look like?
393
1050000
2000
Hoe gaat de hersentheorie eruit zien?
17:57
First of all, it's going to be a theorytheorie about memorygeheugen.
394
1052000
2000
Eerst en vooral zal het een geheugentheorie zijn.
17:59
Not like computercomputer memorygeheugen. It's not at all like computercomputer memorygeheugen.
395
1054000
3000
Niet zoals computergeheugen. Helemaal niet zoals computergeheugen.
18:02
It's very, very differentverschillend. And it's a memorygeheugen of these very
396
1057000
2000
Het is helemaal anders. Het is een geheugen van
18:04
high-dimensionalhoogdimensionale patternspatronen, like the things that come from your eyesogen.
397
1059000
3000
hoog-dimensionale patronen, vergelijkbaar met hetgeen je ogen produceren.
18:07
It's alsoook memorygeheugen of sequencessequenties.
398
1062000
2000
Het is ook een geheugen van sequenties.
18:09
You cannotkan niet learnleren or recallterugroepen anything outsidebuiten of a sequencevolgorde.
399
1064000
2000
Je kunt niets leren of onthouden buiten een sequentie.
18:11
A songlied mustmoet be heardgehoord in sequencevolgorde over time,
400
1066000
3000
Een liedje moet gehoord worden in een volgorde van tijd,
18:14
and you mustmoet playspelen it back in sequencevolgorde over time.
401
1069000
3000
en je moet het terug afspelen in volgorde van tijd.
18:17
And these sequencessequenties are auto-associativelyauto-associatief recalledteruggeroepen, so if I see something,
402
1072000
3000
En deze volgorde wordt auto-associatief opgeroepen, ik zie en hoor iets
18:20
I hearhoren something, it remindsherinnert me of it, and then it playstoneelstukken back automaticallyautomatisch.
403
1075000
3000
dat mij eraan doet denken en ze wordt automatisch terug afgespeeld.
18:23
It's an automaticAutomatisch playbackafspelen. And predictionvoorspelling of futuretoekomst inputsinput is the desiredgewenste outputuitgang.
404
1078000
4000
Het is een automatische playback. En voorspelling van toekomstige inputs is de gewenste output.
18:27
And as I said, the theorytheorie mustmoet be biologicallybiologisch accurateaccuraat,
405
1082000
3000
Zoals ik zei moet de theorie biologisch accuraat zijn,
18:30
it mustmoet be testabletestbare, and you mustmoet be ablein staat to buildbouwen it.
406
1085000
2000
ze moet toetsbaar zijn en je moet ze kunnen opbouwen.
18:32
If you don't buildbouwen it, you don't understandbegrijpen it. So, one more slideglijbaan here.
407
1087000
4000
Als je ze niet opbouwt, begrijp je haar niet. Nog een dia.
18:36
What is this going to resultresultaat in? Are we going to really buildbouwen intelligentintelligent machinesmachines?
408
1091000
4000
Wat zal het resultaat zijn? Gaan we intelligente machines maken?
18:40
AbsolutelyAbsoluut. And it's going to be differentverschillend than people think.
409
1095000
4000
Absoluut. En het zal anders zijn dan de mensen zich voorstellen.
18:44
No doubttwijfel that it's going to happengebeuren, in my mindgeest.
410
1099000
3000
Voor mij is er geen twijfel mogelijk dat het zal gebeuren.
18:47
First of all, it's going to be builtgebouwd up, we're going to buildbouwen the stuffspul out of siliconsilicium.
411
1102000
4000
Eerst en vooral bouwen we ze op en zullen we dingen maken van silicium.
18:51
The samedezelfde techniquestechnieken we use for buildinggebouw siliconsilicium computercomputer memoriesherinneringen,
412
1106000
3000
We kunnen hier dezelfde technieken gebruiken
18:54
we can use for here.
413
1109000
1000
zoals bij het bouwen van computergeheugens van silicium.
18:55
But they're very differentverschillend typestypes of memoriesherinneringen.
414
1110000
2000
Maar het zijn zeer verschillende geheugentypes.
18:57
And we're going to attachhechten these memoriesherinneringen to sensorssensors,
415
1112000
2000
We zullen deze geheugens aan sensoren koppelen,
18:59
and the sensorssensors will experienceervaring real-livereal-live, real-worldechte wereld datagegevens,
416
1114000
3000
al de sensoren zullen real-live data ontvangen,
19:02
and these things are going to learnleren about theirhun environmentmilieu.
417
1117000
2000
en deze dingen zullen leren over hun omgeving.
19:04
Now it's very unlikelyonwaarschijnlijk the first things you're going to see are like robotsrobots.
418
1119000
3000
Het is zeer onwaarschijnlijk dat robots de eerste dingen zullen zijn die je zult zien.
19:07
Not that robotsrobots aren'tzijn niet usefulnuttig and people can buildbouwen robotsrobots.
419
1122000
3000
Robots zijn nuttig en mensen kunnen ze maken.
19:10
But the roboticsRobotica partdeel is the hardesthardste partdeel. That's the oldoud brainhersenen. That's really hardhard.
420
1125000
4000
Maar het robotgedeelte is het moeilijkste stuk. Dat is het oude brein. Behoorlijk moeilijk.
19:14
The newnieuwe brainhersenen is actuallywerkelijk kindsoort of easiergemakkelijker than the oldoud brainhersenen.
421
1129000
2000
Het nieuwe brein is eigenlijk gemakkelijker dan het oude brein.
19:16
So the first thing we're going to do are the things that don't requirevereisen a lot of roboticsRobotica.
422
1131000
3000
De eerste dingen die we gaan doen, zijn dingen die niet veel robotica nodig hebben.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Je gaat geen C-3PO zien.
19:21
You're going to more see things like, you know, intelligentintelligent carsauto's
424
1136000
2000
Je gaat eerder dingen als intelligente auto's zien
19:23
that really understandbegrijpen what trafficverkeer is and what drivinghet rijden is
425
1138000
3000
die echt begrijpen wat verkeer is en hoe je moet rijden.
19:26
and have learnedgeleerd that certainzeker typestypes of carsauto's with the blinkersoogkleppen on for halfvoor de helft a minuteminuut
426
1141000
3000
Die geleerd hebben dat auto’s die langer dan een halve minuut met knipperlichten aan rijden,
19:29
probablywaarschijnlijk aren'tzijn niet going to turnbeurt, things like that.
427
1144000
2000
waarschijnlijk niet gaan afslaan, dat soort dingen.
19:31
(LaughterGelach)
428
1146000
1000
(Gelach)
19:32
We can alsoook do intelligentintelligent securityveiligheid systemssystemen.
429
1147000
2000
We kunnen ook intelligente beveiligingssystemen maken.
19:34
AnywhereOveral where we're basicallyeigenlijk usinggebruik makend van our brainhersenen, but not doing a lot of mechanicsmechanica.
430
1149000
4000
Overal waar we onze hersenen gebruiken, maar eigenlijk niet veel mechanisch doen.
19:38
Those are the things that are going to happengebeuren first.
431
1153000
2000
Dat gaat eerst gebeuren.
19:40
But ultimatelytenslotte, the world's's werelds the limitbegrenzing here.
432
1155000
2000
Maar uiteindelijk zit er geen limiet op.
19:42
I don't know how this is going to turnbeurt out.
433
1157000
2000
Ik weet niet hoe dit zal verlopen.
19:44
I know a lot of people who inventeduitgevonden the microprocessormicroprocessor
434
1159000
2000
Ik ken een aantal mensen die de microprocessor uitvonden.
19:46
and if you talk to them, they knewwist what they were doing was really significantsignificant,
435
1161000
5000
Ze wisten dat ze aan iets heel belangrijk werkten,
19:51
but they didn't really know what was going to happengebeuren.
436
1166000
3000
maar ze wisten ook niet wat er ging gebeuren.
19:54
They couldn'tkon het niet anticipateanticiperen cellcel phonestelefoons and the InternetInternet and all this kindsoort of stuffspul.
437
1169000
5000
Ze konden niet anticiperen op mobiele telefoons en het internet.
19:59
They just knewwist like, hey, they were going to buildbouwen calculatorsrekenmachines
438
1174000
2000
Ze wisten gewoon dat ze rekenmachines gingen maken
20:01
and trafficverkeer lightlicht controllersdomeincontrollers. But it's going to be biggroot.
439
1176000
2000
en verkeerslichtsystemen. Maar het zal groots worden.
20:03
In the samedezelfde way, this is like brainhersenen sciencewetenschap and these memoriesherinneringen
440
1178000
3000
Op dezelfde manier is dit zoals neurowetenschap en deze geheugens
20:06
are going to be a very fundamentalfundamenteel technologytechnologie, and it's going to leadlood
441
1181000
3000
gaan zeer fundamentele technologie worden. Het zal leiden
20:09
to very unbelievableongelooflijk changesveranderingen in the nextvolgende 100 yearsjaar.
442
1184000
3000
tot ongelofelijke veranderingen in de volgende 100 jaar.
20:12
And I'm mostmeest excitedopgewonden about how we're going to use them in sciencewetenschap.
443
1187000
4000
Ik ben zeer benieuwd hoe we ze gaan gebruiken in wetenschap.
20:16
So I think that's all my time, I'm over it, and I'm going to endeinde my talk
444
1191000
3000
Ik geloof dat mijn tijd er op zit, ik zit er eigenlijk al over.
20:19
right there.
445
1194000
1000
Daarmee eindigt dan mijn lezing.
Translated by Christel Foncke
Reviewed by Rik Delaet

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com