ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Ο Τζεφ Χόκινς για τη Νευροεπιστήμη και πώς αυτή θα αλλάξει τους υπολογιστές

Filmed:
1,674,773 views

Ο κατασκευαστής του Tρέο, Τζεφ Χόκινς, μας καλεί να δούμε τον εγκέφαλο με άλλο μάτι. Να τον αντιμετωπίσουμε πλέον, όχι σαν επεξεργαστή, αλλά σαν ένα σύστημα απομνημόνευσης που αποθηκεύει και αναπαράγει τις εμπειρίες μας βοηθώντας μας να προβλέπουμε έξυπνα, τι πρόκειται να επακολουθήσει.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designσχέδιο mobileκινητό computersΥπολογιστές and I studyμελέτη brainsμυαλά.
0
0
3000
Ασχολούμαι με δύο πράγματα. Σχεδιάζω φορητούς υπολογιστές και μελετάω εγκεφάλους.
00:29
And today'sσημερινή talk is about brainsμυαλά and,
1
4000
2000
Η σημερινή ομιλία είναι για τους εγκεφάλους.
00:31
yayyay, somewhereκάπου I have a brainεγκέφαλος fanανεμιστήρας out there.
2
6000
2000
Ω ένας θαυμαστής εγκεφάλων στο κοινό!
00:33
(LaughterΤο γέλιο)
3
8000
2000
(Γέλια)
00:35
I'm going to, if I can have my first slideολίσθηση up here,
4
10000
2000
Πρόκειται -αν μπορώ να έχω την πρώτη εικόνα-
00:37
and you'llθα το κάνετε see the titleτίτλος of my talk and my two affiliationsσυνεργασίες.
5
12000
4000
βλέπετε τον τίτλο της ομιλίας μου και τις δύο προσχωρήσεις μου.
00:41
So what I'm going to talk about is why we don't have a good brainεγκέφαλος theoryθεωρία,
6
16000
4000
Πρόκειται να αναλύσω γιατί δεν έχουμε μια καλή θεωρία για τον εγκέφαλο,
00:45
why it is importantσπουδαίος that we should developαναπτύσσω one and what we can do about it.
7
20000
3000
γιατί είναι σημαντικό ν'αποκτήσουμε μία και τι μπορούμε να κάνουμε γι' αυτό.
00:48
And I'll try to do all that in 20 minutesλεπτά. I have two affiliationsσυνεργασίες.
8
23000
3000
Θα προσπαθήσω να τα κάνω όλα αυτά σε 20 λεπτά. Έχω δύο προσχωρήσεις.
00:51
MostΠερισσότερα of you know me from my PalmΦοίνικας and HandspringHandspring daysημέρες,
9
26000
3000
Οι περισσότεροι με γνωρίζετε από την εποχή του Παλμ και του Χάντσπρινγκ,
00:54
but I alsoεπίσης runτρέξιμο a nonprofitμη κερδοσκοπικος scientificεπιστημονικός researchέρευνα instituteινστιτούτο
10
29000
3000
αλλά διευθύνω επίσης και ένα μη κερδοσκοπικό ινστιτούτο επιστημονικών ερευνών
00:57
calledπου ονομάζεται the RedwoodRedwood NeuroscienceΝευροεπιστήμη InstituteΙνστιτούτο in MenloMenlo ParkΠάρκο,
11
32000
2000
που ονομάζεται Ινστιτούτο Νευροεπιστήμης του Ρέντγουντ στο Πάρκο Μένλο,
00:59
and we studyμελέτη theoreticalθεωρητικός neuroscienceνευροεπιστήμη,
12
34000
2000
όπου μελετάμε θεωρητική νευροεπιστήμη,
01:01
and we studyμελέτη how the neocortexneocortex worksεργοστάσιο.
13
36000
2000
καθώς και πώς λειτουργεί ο νεοφλοιός.
01:03
I'm going to talk all about that.
14
38000
2000
Θα σας μιλήσω γι' αυτό.
01:05
I have one slideολίσθηση on my other life, the computerυπολογιστή life, and that's the slideολίσθηση here.
15
40000
3000
Έχω μια εικόνα από την άλλη, την ηλεκτρονική ζωή μου, που είναι αυτή εδώ.
01:08
These are some of the productsπροϊόντα I've workedεργάστηκε on over the last 20 yearsχρόνια,
16
43000
3000
Αυτά είναι μερικά από τα προϊόντα πάνω στα οποία έχω εργαστεί τα τελευταία 20 χρόνια,
01:11
startingεκκίνηση back from the very originalπρωτότυπο laptopΦΟΡΗΤΟΣ ΥΠΟΛΟΓΙΣΤΗΣ to some of the first tabletδισκίο computersΥπολογιστές
17
46000
4000
ξεκινώντας από το πρώτο λάπτοπ, μέχρι τους πρώτους υπολογιστές τάμπλετ
01:15
and so on, and endingκατάληξη up mostπλέον recentlyπρόσφατα with the TreoTreo,
18
50000
2000
μέχρι το πιο πρόσφατο: τον Τρίο,
01:17
and we're continuingσυνεχίζοντας to do this.
19
52000
2000
και συνεχίζουμε να το κάνουμε αυτό.
01:19
And I've doneΈγινε this because I really believe that mobileκινητό computingχρήση υπολογιστή
20
54000
2000
Ασχολήθηκα με αυτό επειδή πιστεύω ότι η τεχνολογία φορητών υπολογιστών,
01:21
is the futureμελλοντικός of personalπροσωπικός computingχρήση υπολογιστή, and I'm tryingπροσπαθεί to make the worldκόσμος
21
56000
3000
είναι το μέλλον των προσωπικών υπολογιστών και προσπαθώ να κάνω τον κόσμο
01:24
a little bitκομμάτι better by workingεργαζόμενος on these things.
22
59000
3000
λίγο καλύτερο, μέσα από αυτό.
01:27
But this was, I have to admitομολογώ, all an accidentατύχημα.
23
62000
2000
Αν και πρέπει να παραδεχτώ πως όλα αυτά συνέβησαν τυχαία.
01:29
I really didn't want to do any of these productsπροϊόντα
24
64000
2000
Δεν ήθελα στην πραγματικότητα να σχεδιάσω κανένα από αυτά τα προϊόντα.
01:31
and very earlyνωρίς in my careerκαριέρα I decidedαποφασισμένος
25
66000
2000
και πολύ νωρίς στην καριέρα μου αποφάσισα
01:33
I was not going to be in the computerυπολογιστή industryβιομηχανία.
26
68000
3000
ότι δεν θα ήμουν μέρος της βιομηχανίας υπολογιστών.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Πριν σας μιλήσω γι' αυτό, πρέπει να σας πω,
01:38
this one little pictureεικόνα of graffitiγκράφιτι there I pickedεκλεκτός off the webιστός the other day.
28
73000
2000
γι' αυτή τη μικρή εικόνα γκράφιτι που βρήκα στο ίντερνετ τις προάλλες.
01:40
I was looking for a pictureεικόνα of graffitiγκράφιτι, little textκείμενο inputεισαγωγή languageΓλώσσα,
29
75000
3000
Έψαχνα για μια εικόνα γκράφιτι, γλώσσα εισαγωγής κειμένου,
01:43
and I foundβρέθηκαν the websiteδικτυακός τόπος dedicatedαφιερωμένη to teachersκαθηγητές who want to make these,
30
78000
3000
και βρήκα αυτή τη σελίδα, αφιερωμένη σε δασκάλους που θέλουν να κάνουν τέτοια,
01:46
you know, the scriptδέσμη ενεργειών writingΓραφή things acrossαπέναντι the topμπλουζα of theirδικα τους blackboardΜαυροπίνακας,
31
81000
3000
πραγματάκια κατά μήκος του επάνω μέρους του πίνακα,
01:49
and they had addedπρόσθεσε graffitiγκράφιτι to it, and I'm sorry about that.
32
84000
3000
και είχαν προσθέσει γκράφιτι ...λυπάμαι γι' αυτό.
01:52
(LaughterΤο γέλιο)
33
87000
2000
(Γέλια)
01:54
So what happenedσυνέβη was, when I was youngνεαρός and got out of engineeringμηχανική schoolσχολείο
34
89000
5000
Όταν ήμουν νέος και αποφοίτησα από τη σχολή μηχανικών
01:59
at CornellCornell in '79, I decidedαποφασισμένος -- I wentπήγε to work for IntelIntel and
35
94000
4000
του Κορνέλ το '79, αποφάσισα να εργαστώ για την Ίντελ.
02:03
I was in the computerυπολογιστή industryβιομηχανία -- and threeτρία monthsμήνες into that,
36
98000
3000
Ήμουν στη βιομηχανία Η/Υ, τρεις μήνες, όταν
02:06
I fellτομάρι ζώου in love with something elseαλλού, and I said, "I madeέκανε the wrongλανθασμένος careerκαριέρα choiceεπιλογή here,"
37
101000
4000
ερωτεύτηκα κάτι άλλο και είπα μέσα μου "Διάλεξες λάθος καριέρα"
02:10
and I fellτομάρι ζώου in love with brainsμυαλά.
38
105000
3000
...ερωτεύτηκα τον εγκέφαλο.
02:13
This is not a realπραγματικός brainεγκέφαλος. This is a pictureεικόνα of one, a lineγραμμή drawingσχέδιο.
39
108000
3000
Αυτό δεν είναι αληθινός εγκέφαλος. Είναι μια εικόνα, ένα σκίτσο.
02:16
But I don't rememberθυμάμαι exactlyακριβώς how it happenedσυνέβη,
40
111000
3000
Δε θυμάμαι ακριβώς πώς έγινε,
02:19
but I have one recollectionανάμνηση, whichοι οποίες was prettyαρκετά strongισχυρός in my mindμυαλό.
41
114000
3000
αν και έχω μια ανάμνηση, που είναι αρκετά ισχυρή μέσα στο μυαλό μου.
02:22
In SeptemberΣεπτέμβριος 1979, ScientificΕπιστημονική AmericanΑμερικανική cameήρθε out
42
117000
3000
Το Σεπτέμβριο του 1979, το περιοδικό Σαϊεντίφικ Αμέρικαν κυκλοφόρησε
02:25
with a singleμονόκλινο topicθέμα issueθέμα about the brainεγκέφαλος. And it was quiteαρκετά good.
43
120000
3000
με αφιέρωμα στον εγκέφαλο. Και ήταν αρκετά καλό.
02:28
It was one of the bestκαλύτερος issuesθέματα ever. And they talkedμίλησε about the neuronνευρώνας
44
123000
3000
Ήταν ένα από τα καλύτερα τεύχη. Και έγραφε για τους νευρώνες
02:31
and developmentανάπτυξη and diseaseασθένεια and visionόραμα and all the things
45
126000
2000
και την ανάπτυξη, τις ασθένειες και την όραση και όλα όσα
02:33
you mightθα μπορούσε want to know about brainsμυαλά. It was really quiteαρκετά impressiveΕΝΤΥΠΩΣΙΑΚΟ.
46
128000
3000
θα θέλατε να ξέρετε για τον εγκέφαλο. Ήταν πραγματικά εντυπωσιακό.
02:36
And one mightθα μπορούσε have the impressionεντύπωση that we really knewήξερε a lot about brainsμυαλά.
47
131000
3000
Έτσι κάποιος μπορεί να έχει την εντύπωση ότι γνωρίζουμε πολλά για τον εγκέφαλο.
02:39
But the last articleάρθρο in that issueθέμα was writtenγραπτός by FrancisΦράνσις CrickΝευροκαβαλίκεμα of DNADNA fameφήμη.
48
134000
4000
Αλλά το τελευταίο άρθρο σε εκείνο το τεύχος, ήταν του Φράνσις Κρικ, γνωστού λόγω του DNA.
02:43
TodayΣήμερα is, I think, the 50thth anniversaryεπέτειος of the discoveryανακάλυψη of DNADNA.
49
138000
3000
Σήμερα νομίζω είναι η 50η επέτειος της ανακάλυψης του DNA.
02:46
And he wroteέγραψε a storyιστορία basicallyβασικα sayingρητό,
50
141000
2000
Και έγραψε βασικά μια ιστορία, λέγοντας:
02:48
well, this is all well and good, but you know what,
51
143000
3000
Καλά όλα αυτά, αλλά
02:51
we don't know diddleydiddley squatκατάληψη about brainsμυαλά
52
146000
2000
δεν γνωρίζουμε απολύτως τίποτα για τον εγκέφαλο
02:53
and no one has a clueένδειξη how these things work,
53
148000
2000
και κανείς δεν έχει ιδέα πώς λειτουργεί,
02:55
so don't believe what anyoneο καθενας tellsλέει you.
54
150000
2000
γι' αυτό μην πιστεύετε ό,τι σας λέει ο καθένας.
02:57
This is a quoteπαραθέτω, αναφορά from that articleάρθρο. He said, "What is conspicuouslyεμφανώς lackingλείπει,"
55
152000
3000
Αυτή είναι μια παράθεση από το άρθρο. Είπε: "Αυτό που καταφανώς μας λείπει-"
03:00
he's a very properορθή BritishΒρετανοί gentlemanκύριος so, "What is conspicuouslyεμφανώς lackingλείπει
56
155000
4000
ήταν ένας πολύ καθωσπρέπει Βρετανός, λοιπόν, "Αυτό που καταφανώς μας λείπει-"
03:04
is a broadευρύς frameworkδομή of ideasιδέες in whichοι οποίες to interpretερμηνεύσει these differentδιαφορετικός approachesπροσεγγίσεις."
57
159000
3000
"είναι ένα ευρύ πλαίσιο εργασίας ιδεών, στο οποίο να εξηγούμε όλες αυτές τις διαφορετικές προσεγγίσεις".
03:07
I thought the wordλέξη frameworkδομή was great.
58
162000
2000
Σκέφτηκα ότι η φράση "πλαίσιο εργασίας" ήταν σπουδαία.
03:09
He didn't say we didn't even have a theoryθεωρία. He saysλέει,
59
164000
2000
Δεν είπε ότι δεν έχουμε καν θεωρία, αλλά ότι
03:11
we don't even know how to beginαρχίζουν to think about it --
60
166000
2000
δεν ξέρουμε καν από που ν' αρχίσουμε να σκεφτόμαστε για τον εγκέφαλο,
03:13
we don't even have a frameworkδομή.
61
168000
2000
δεν έχουμε καν πλαίσιο εργασίας.
03:15
We are in the pre-paradigmπρο-παραδειγματική daysημέρες, if you want to use ThomasΘΩΜΑΣ KuhnKuhn.
62
170000
3000
Βρισκόμαστε στις "προ-κατάθεσης επιστημονικού παραδείγματος" ημέρες κατά τον Tόμας Κουν.
03:18
And so I fellτομάρι ζώου in love with this, and said look,
63
173000
3000
Έτσι ερωτεύτηκα, και σκέφτηκα ότι
03:21
we have all this knowledgeη γνώση about brainsμυαλά. How hardσκληρά can it be?
64
176000
3000
έχουμε όλη αυτή τη γνώση για τον εγκέφαλο. Πόσο δύσκολο μπορεί να είναι;
03:24
And this is something we can work on my lifetimeΔιάρκεια Ζωής. I feltένιωσα I could make a differenceδιαφορά,
65
179000
3000
Ήταν κάτι, με το οποίο μπορούσα να ασχοληθώ όλη μου τη ζωή. Ένιωσα ότι μπορούσα να κάνω τη διαφορά.
03:27
and so I triedδοκιμασμένος to get out of the computerυπολογιστή businessεπιχείρηση, into the brainεγκέφαλος businessεπιχείρηση.
66
182000
4000
Δοκίμασα ν' αφήσω τους υπολογιστές και να ασχοληθώ με τον εγκέφαλο.
03:31
First, I wentπήγε to MITMIT, the AIAI labεργαστήριο was there,
67
186000
2000
Πρώτα πήγα στο MIT, στο εργαστήριο τεχνητής νοημοσύνης,
03:33
and I said, well, I want to buildχτίζω intelligentέξυπνος machinesμηχανές, too,
68
188000
2000
και τους είπα πως θέλω να κατασκευάσω κι εγώ έξυπνες μηχανές,
03:35
but the way I want to do it is to studyμελέτη how brainsμυαλά work first.
69
190000
3000
αλλά να το κάνω με τρόπο, ώστε να καταλάβω πρώτα πώς λειτουργεί ο εγκέφαλος.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Και εκείνοι μου είπαν "Μα δε χρειάζεται να το κάνεις αυτό".
03:41
We're just going to programπρόγραμμα computersΥπολογιστές; that's all we need to do.
71
196000
2000
"Θα προγραμματίζουμε υπολογιστές, αυτό χρειάζεται μόνο να κάνουμε".
03:43
And I said, no, you really oughtπρέπει to studyμελέτη brainsμυαλά. They said, oh, you know,
72
198000
3000
Και εγώ είπα "όχι, θα έπρεπε να μελετάτε τον εγκέφαλο". Εκείνοι απάντησαν ότι
03:46
you're wrongλανθασμένος. And I said, no, you're wrongλανθασμένος, and I didn't get in.
73
201000
2000
κάνω λάθος. Και εγώ είπα "όχι εσείς κάνετε λάθος" και δεν μπήκα στο πρόγραμμα.
03:48
(LaughterΤο γέλιο)
74
203000
1000
(Γέλια)
03:50
But I was a little disappointedαπογοητευμένος -- prettyαρκετά youngνεαρός -- but I wentπήγε back again
75
205000
2000
Αλλά απογοητεύτηκα, ήμουν πολύ νέος, αν και ξαναγύρισα
03:52
a fewλίγοι yearsχρόνια laterαργότερα and this time was in CaliforniaΚαλιφόρνια, and I wentπήγε to BerkeleyΜπέρκλεϊ.
76
207000
3000
λίγα χρόνια αργότερα, αυτή τη φορά στην Καλιφόρνια και πήγα στο Μπέρκλεϊ.
03:55
And I said, I'll go in from the biologicalβιολογικός sideπλευρά.
77
210000
4000
Και είπα να το πιάσω από τη βιολογική πλευρά.
03:59
So I got in -- in the PhPH.D. programπρόγραμμα in biophysicsβιοφυσική, and I was, all right,
78
214000
3000
Έτσι μπήκα στο διδακτορικό πρόγραμμα της Βιοφυσικής και ήμουν καλά.
04:02
I'm studyingμελετώντας brainsμυαλά now, and I said, well, I want to studyμελέτη theoryθεωρία.
79
217000
3000
Μελετούσα τον εγκέφαλο τώρα και σκέφτηκα πως ήθελα να μελετήσω τη θεωρία του.
04:05
And they said, oh no, you can't studyμελέτη theoryθεωρία about brainsμυαλά.
80
220000
2000
Και εκείνοι είπαν "όχι, δε μπορείς να μελετήσεις θεωρία που να αφορά τον εγκέφαλο".
04:07
That's not something you do. You can't get fundedχρηματοδότηση for that.
81
222000
2000
"Δεν είναι κάτι που μπορείς να κάνεις. Δε μπορείς να πάρεις επιδότηση γι' αυτό".
04:09
And as a graduateαποφοιτώ studentμαθητης σχολειου, you can't do that. So I said, oh my goshΘέε μου.
82
224000
4000
"Σαν μεταπτυχιακός φοιτητής, δε μπορείς να ασχοληθείς μ' αυτό". Έτσι σκέφτηκα "Ω, Θεέ μου!"
04:13
I was very depressedμελαγχολικός. I said, but I can make a differenceδιαφορά in this fieldπεδίο.
83
228000
2000
Ήμουν πολύ απογοητευμένος. Σκέφτηκα οτι μπορούσα να κάνω τη διαφορά σε αυτόν τον τομέα.
04:15
So what I did is I wentπήγε back in the computerυπολογιστή industryβιομηχανία
84
230000
3000
Έτσι, αυτό που έκανα ήταν να γυρίσω πίσω στην βιομηχανία υπολογιστών
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
και είπα ότι έπρεπε να εργαστώ εκεί για λίγο καιρό, να κάνω κάτι.
04:20
That's when I designedσχεδιασμένο all those computerυπολογιστή productsπροϊόντα.
86
235000
3000
Τότε ήταν που σχεδίασα όλα αυτά τα προϊόντα υπολογιστών.
04:23
(LaughterΤο γέλιο)
87
238000
1000
(Γέλια)
04:24
And I said, I want to do this for fourτέσσερα yearsχρόνια, make some moneyχρήματα,
88
239000
3000
Είπα πως αυτή θα ήταν η ασχολία μου για τέσσερα χρόνια, ώστε να βγάλω κάποια χρήματα,
04:27
like I was havingέχοντας a familyοικογένεια, and I would matureώριμος / η a bitκομμάτι,
89
242000
4000
αφού ετοίμαζα οικογένεια και ήθελα να ωριμάσω λίγο,
04:31
and maybe the businessεπιχείρηση of neuroscienceνευροεπιστήμη would matureώριμος / η a bitκομμάτι.
90
246000
3000
και ίσως να ωρίμαζε στο μεταξύ και η Νευροεπιστήμη.
04:34
Well, it tookπήρε longerμακρύτερα than fourτέσσερα yearsχρόνια. It's been about 16 yearsχρόνια.
91
249000
3000
Ε, λοιπόν μου πήρε πάνω από τέσσερα χρόνια. Πέρασαν σχεδόν 16.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Αλλά τώρα ασχολούμαι με αυτό και θα σας το περιγράψω.
04:39
So why should we have a good brainεγκέφαλος theoryθεωρία?
93
254000
3000
Γιατί λοιπόν χρειαζόμαστε μια καλή θεωρία για τον εγκέφαλο;
04:42
Well, there's lots of reasonsαιτιολογικό people do scienceεπιστήμη.
94
257000
3000
Υπάρχουν πολλοί λόγοι που οι άνθρωποι ασχολούνται με τις επιστήμες.
04:45
One is -- the mostπλέον basicβασικός one is -- people like to know things.
95
260000
3000
Ένας από αυτούς -ο βασικότερος- είναι ότι οι άνθρωποι θέλουν να μαθαίνουν πράγματα.
04:48
We're curiousπερίεργος, and we just go out and get knowledgeη γνώση, you know?
96
263000
2000
Είμαστε περίεργοι και συλλέγουμε γνώσεις.
04:50
Why do we studyμελέτη antsτα μυρμήγκια? Well, it's interestingενδιαφέρων.
97
265000
2000
Γιατί μελετάμε τα μυρμήγκια; Μα γιατί έχει ενδιαφέρον.
04:52
Maybe we'llΚαλά learnμαθαίνω something really usefulχρήσιμος about it, but it's interestingενδιαφέρων and fascinatingγοητευτικός.
98
267000
3000
Ίσως μάθουμε κάτι χρήσιμο, αλλά είναι κυρίως ενδιαφέρον και γοητευτικό.
04:55
But sometimesωρες ωρες, a scienceεπιστήμη has some other attributesχαρακτηριστικά
99
270000
2000
Μερικές φορές όμως, η επιστήμη έχει και άλλα χαρακτηριστικά
04:57
whichοι οποίες makesκάνει it really, really interestingενδιαφέρων.
100
272000
2000
που την κάνουν ιδιαίτερα ενδιαφέρουσα.
04:59
SometimesΜερικές φορές a scienceεπιστήμη will tell something about ourselvesεμείς οι ίδιοι,
101
274000
3000
Μερικές φορές η επιστήμη μας λέει πράγματα για τον εαυτό μας,
05:02
it'llθα το κάνει tell us who we are.
102
277000
1000
μας λέει ποιοι είμαστε.
05:03
RarelyΣπάνια, you know: evolutionεξέλιξη did this and CopernicusΚοπέρνικος did this,
103
278000
3000
Σπάνια συμβαίνει, το έκανε η εξέλιξη και ο Κοπέρνικος,
05:06
where we have a newνέος understandingκατανόηση of who we are.
104
281000
2000
όπου αποκτήσαμε μια νέα κατανόηση του ποιοι είμαστε.
05:08
And after all, we are our brainsμυαλά. My brainεγκέφαλος is talkingομιλία to your brainεγκέφαλος.
105
283000
4000
Έπειτα, ό,τι είμαστε είναι το μυαλό μας. Ο εγκέφαλός μου μιλάει στους δικούς σας.
05:12
Our bodiesσώματα are hangingκρέμασμα alongκατά μήκος for the rideβόλτα, but my brainεγκέφαλος is talkingομιλία to your brainεγκέφαλος.
106
287000
3000
Τα κορμιά μας, είναι παρόντα, αλλά ο εγκέφαλός μου είναι που μιλάει στον δικό σας.
05:15
And if we want to understandκαταλαβαίνουν who we are and how we feel and perceiveαντιλαμβάνονται,
107
290000
3000
Και αν θέλουμε να κατανοήσουμε ποιοι είμαστε, πώς νιώθουμε και αντιλαμβανόμαστε,
05:18
we really understandκαταλαβαίνουν what brainsμυαλά are.
108
293000
2000
πρέπει να κατανοήσουμε τι είναι ο εγκέφαλος.
05:20
AnotherΈνα άλλο thing is sometimesωρες ωρες scienceεπιστήμη
109
295000
2000
Μια άλλη παράμετρος είναι ότι μερικές φορές η επιστήμη
05:22
leadsοδηγεί to really bigμεγάλο societalκοινωνικές benefitsπλεονεκτήματα and technologiesτεχνολογίες,
110
297000
2000
οδηγεί σε μεγάλα κοινωνικά και τεχνολογικά,
05:24
or businessesεπιχειρήσεις, or whateverοτιδήποτε, that come out of it. And this is one, too,
111
299000
2000
ή επαγγελματικά οφέλη, ή οτιδήποτε μπορεί να προέρθει από αυτά.
05:26
because when we understandκαταλαβαίνουν how brainsμυαλά work, we're going to be ableικανός
112
301000
3000
Όταν καταλάβουμε πώς λειτουργεί ο εγκέφαλος, θα είμαστε σε θέση
05:29
to buildχτίζω intelligentέξυπνος machinesμηχανές, and I think that's actuallyπράγματι a good thing on the wholeολόκληρος,
113
304000
3000
να φτιάξουμε έξυπνες μηχανές και αυτό πιστεύω οτι είναι καλό σε γενικές γραμμές,
05:32
and it's going to have tremendousκαταπληκτικός benefitsπλεονεκτήματα to societyκοινωνία,
114
307000
2000
και θα έχει φοβερά οφέλη για την κοινωνία
05:34
just like a fundamentalθεμελιώδης technologyτεχνολογία.
115
309000
2000
όπως μία θεμελιώδης τεχνολογία.
05:36
So why don't we have a good theoryθεωρία of brainsμυαλά?
116
311000
2000
Άρα γιατί δεν έχουμε μια καλή θεωρία για τον εγκέφαλο;
05:38
And people have been workingεργαζόμενος on it for 100 yearsχρόνια.
117
313000
3000
Οι άνθρωποι εργάζονται πάνω σ' αυτό εδώ και 100 χρόνια.
05:41
Well, let's first take a look at what normalκανονικός scienceεπιστήμη looksφαίνεται like.
118
316000
2000
Ας πάρουμε πρώτα μια ιδέα για το πώς λειτουργεί η κλασική επιστήμη.
05:43
This is normalκανονικός scienceεπιστήμη.
119
318000
2000
Αυτή είναι η κλασική επιστήμη:
05:45
NormalΚανονική λειτουργία scienceεπιστήμη is a niceόμορφη balanceισορροπία betweenμεταξύ theoryθεωρία and experimentalistsπειραματικοί.
120
320000
4000
Η καλή ισορροπία μεταξύ της θεωρίας και του πειραματισμού.
05:49
And so the theoristθεωρητικός guys say, well, I think this is what's going on,
121
324000
2000
Έτσι οι θεωρητικοί λένε: "Πιστεύω οτι έτσι συμβαίνει αυτό".
05:51
and the experimentalistπειραματιστής saysλέει, no, you're wrongλανθασμένος.
122
326000
2000
και οι πειραματιστές λένε: "Όχι, έχεις άδικο".
05:53
And it goesπηγαίνει back and forthΕμπρός, you know?
123
328000
2000
Και αυτό επαναλαμβάνεται συνεχώς.
05:55
This worksεργοστάσιο in physicsη φυσικη. This worksεργοστάσιο in geologyΓεωλογία. But if this is normalκανονικός scienceεπιστήμη,
124
330000
2000
Λειτουργεί στη Φυσική. Λειτουργεί στη Γεωλογία. Αλλά εάν είναι έτσι η κλασική επιστήμη,
05:57
what does neuroscienceνευροεπιστήμη look like? This is what neuroscienceνευροεπιστήμη looksφαίνεται like.
125
332000
3000
πώς είναι η Νευροεπιστήμη; Ορίστε πώς είναι:
06:00
We have this mountainβουνό of dataδεδομένα, whichοι οποίες is anatomyανατομία, physiologyφισιολογία and behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
126
335000
5000
Έχουμε ένα βουνό δεδομένων, από την Ανατομία, τη Φυσιολογία και τις Συμπεριφορικές Επιστήμες.
06:05
You can't imagineφαντάζομαι how much detailλεπτομέρεια we know about brainsμυαλά.
127
340000
3000
Δε μπορείτε να φανταστείτε πόσες λεπτομέρειες γνωρίζουμε για τον εγκέφαλο.
06:08
There were 28,000 people who wentπήγε to the neuroscienceνευροεπιστήμη conferenceδιάσκεψη this yearέτος,
128
343000
4000
Περίπου 28.000 άνθρωποι παρευρέθησαν στο Συνέδριο Νευροεπιστημών φέτος,
06:12
and everyκάθε one of them is doing researchέρευνα in brainsμυαλά.
129
347000
2000
και ο καθένας από αυτούς ερευνά τον εγκέφαλο.
06:14
A lot of dataδεδομένα. But there's no theoryθεωρία. There's a little, wimpywimpy boxκουτί on topμπλουζα there.
130
349000
4000
Πολλά δεδομένα. Αλλά δεν υπάρχει καμία θεωρία και
06:18
And theoryθεωρία has not playedέπαιξε a roleρόλος in any sortείδος of grandμεγαλειώδης way in the neurosciencesΝευροεπιστήμες.
131
353000
5000
καμία θεωρία δεν έχει παίξει σημαντικό ρόλο στις Νευροεπιστήμες.
06:23
And it's a realπραγματικός shameντροπή. Now why has this come about?
132
358000
3000
Είναι κρίμα. Γιατί όμως συμβαίνει αυτό;
06:26
If you askπαρακαλώ neuroscientistsνευροεπιστήμονες, why is this the stateκατάσταση of affairυπόθεση,
133
361000
2000
Εάν ρωτήσετε γιατί συμβαίνει αυτό τους Νευροεπιστήμονες,
06:28
they'llθα το κάνουν first of all admitομολογώ it. But if you askπαρακαλώ them, they'llθα το κάνουν say,
134
363000
3000
εκ πρώτης, δε θα το αρνηθούν, αλλά αν πραγματικά τους ρωτήσετε, θα σας πουν
06:31
well, there's variousδιάφορος reasonsαιτιολογικό we don't have a good brainεγκέφαλος theoryθεωρία.
135
366000
3000
ότι υπάρχουν διάφοροι λόγοι που εξηγούν γιατί δεν υπάρχει μια καλή θεωρία για τον εγκέφαλο.
06:34
Some people say, well, we don't still have enoughαρκετά dataδεδομένα,
136
369000
2000
Μερικοί λένε ότι δεν έχουμε ακόμη αρκετά στοιχεία,
06:36
we need to get more informationπληροφορίες, there's all these things we don't know.
137
371000
3000
ότι χρειαζόμαστε περισσότερες πληροφορίες και ότι υπάρχουν πολλά που δε γνωρίζουμε.
06:39
Well, I just told you there's so much dataδεδομένα comingερχομός out your earsαυτιά.
138
374000
3000
Σας είπα ήδη ότι έχουμε τόσα πολλά δεδομένα που ξεχειλίζουν απ' τ' αυτιά μας.
06:42
We have so much informationπληροφορίες, we don't even know how to beginαρχίζουν to organizeοργανώνω it.
139
377000
3000
Έχουμε τόσες πληροφορίες που δε ξέρουμε από που ν' αρχίσουμε να τις οργανώνουμε.
06:45
What good is more going to do?
140
380000
2000
Τι θα μας προσφέρουν ακόμα περισσότερες πληροφορίες;
06:47
Maybe we'llΚαλά be luckyτυχερός and discoverανακαλύπτω some magicμαγεία thing, but I don't think so.
141
382000
3000
Ίσως σταθούμε τυχεροί και ανακαλύψουμε κάτι μαγικό, αλλά δεν το πιστεύω.
06:50
This is actuallyπράγματι a symptomτο σύμπτωμα of the factγεγονός that we just don't have a theoryθεωρία.
142
385000
3000
Αυτό δεν είναι παρά ένα σύμπτωμα του γεγονότος ότι δεν έχουμε θεωρία.
06:53
We don't need more dataδεδομένα -- we need a good theoryθεωρία about it.
143
388000
3000
Δε χρειαζόμαστε περισσότερα δεδομένα. Χρειαζόμαστε μια καλή θεωρία γι' αυτά.
06:56
AnotherΈνα άλλο one is sometimesωρες ωρες people say, well, brainsμυαλά are so complexσυγκρότημα,
144
391000
3000
Άλλοι πάλι λένε ότι ο εγκέφαλος είναι τόσο περίπλοκος,
06:59
it'llθα το κάνει take anotherαλλο 50 yearsχρόνια.
145
394000
2000
ώστε θα χρειαστούν άλλα 50 χρόνια.
07:01
I even think ChrisChris said something like this yesterdayεχθές.
146
396000
2000
Νομίζω ότι ο Κρις είπε κάτι αντίστοιχο, χτες.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Δε θυμάμαι τι ακριβώς είπες Κρις αλλά νομίζω είπες ότι είναι
07:05
well, it's one of the mostπλέον complicatedπερίπλοκος things in the universeσύμπαν. That's not trueαληθής.
148
400000
3000
ένα από τα πιο περίπλοκα πράγματα στο Σύμπαν. Αυτό δεν είναι αλήθεια.
07:08
You're more complicatedπερίπλοκος than your brainεγκέφαλος. You've got a brainεγκέφαλος.
149
403000
2000
Είστε πιο περίπλοκοι από τον εγκέφαλό σας. Έχετε έναν εγκέφαλο.
07:10
And it's alsoεπίσης, althoughαν και the brainεγκέφαλος looksφαίνεται very complicatedπερίπλοκος,
150
405000
2000
Παρόλο που μοιάζει περίπλοκος,
07:12
things look complicatedπερίπλοκος untilμέχρις ότου you understandκαταλαβαίνουν them.
151
407000
3000
τα πράγματα μοιάζουν περίπλοκα μέχρι να τα καταλάβεις.
07:15
That's always been the caseπερίπτωση. And so all we can say, well,
152
410000
3000
Πάντα έτσι ήταν. Αυτό που μπορούμε να πούμε είναι...
07:18
my neocortexneocortex, whichοι οποίες is the partμέρος of the brainεγκέφαλος I'm interestedενδιαφερόμενος in, has 30 billionδισεκατομμύριο cellsκυττάρων.
153
413000
4000
Ο νεοφλοιός είναι το τμήμα του εγκεφάλου που με ενδιαφέρει και έχει 30 εκατομμύρια κύτταρα.
07:22
But, you know what? It's very, very regularτακτικός.
154
417000
2000
Αλλά ξέρετε κάτι; Είναι πολύ συμμετρικός.
07:24
In factγεγονός, it looksφαίνεται like it's the sameίδιο thing repeatedαλλεπάλληλος over and over and over again.
155
419000
3000
Στην πραγματικότητα μοιάζει να είναι το ίδιο πράγμα που επαναλαμβάνεται, ξανά και ξανά.
07:27
It's not as complexσυγκρότημα as it looksφαίνεται. That's not the issueθέμα.
156
422000
3000
Δεν είναι τόσο σύνθετο όσο φαίνεται. Δεν είναι αυτό το πρόβλημα.
07:30
Some people say, brainsμυαλά can't understandκαταλαβαίνουν brainsμυαλά.
157
425000
2000
Μερικοί πιστεύουν ότι οι εγκέφαλοι δεν μπορούν να καταλάβουν εγκεφάλους.
07:32
Very Zen-likeΖεν. WhooWhoo. (LaughterΤο γέλιο)
158
427000
3000
Πολύ Ζεν ακούγεται αυτό.
07:35
You know,
159
430000
1000
(Γέλια)
07:36
it soundsήχους good, but why? I mean, what's the pointσημείο?
160
431000
3000
Ακούγεται καλό, αλλά γιατί; Ποιο το νόημα;
07:39
It's just a bunchδέσμη of cellsκυττάρων. You understandκαταλαβαίνουν your liverσυκώτι.
161
434000
3000
Είναι ένα μάτσο κύτταρα. Καταλαβαίνουμε το συκώτι μας
07:42
It's got a lot of cellsκυττάρων in it too, right?
162
437000
2000
έχει κι αυτό πολλά κύτταρα επίσης, σωστά;
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Έτσι δεν πιστεύω ότι υπάρχει ουσία σ' αυτή την πίστη.
07:46
And finallyτελικά, some people say, well, you know,
164
441000
2000
Τέλος, κάποιοι λένε:
07:48
I don't feel like a bunchδέσμη of cellsκυττάρων, you know. I'm consciousσυνειδητός.
165
443000
4000
"Δεν αισθάνομαι σαν ένα μάτσο κυττάρων. Έχω συνείδηση-"
07:52
I've got this experienceεμπειρία, I'm in the worldκόσμος, you know.
166
447000
2000
"-έχω εμπειρίες, ζω μέσα στον κόσμο.-"
07:54
I can't be just a bunchδέσμη of cellsκυττάρων. Well, you know,
167
449000
2000
"-Δε μπορεί να είμαι ένα μάτσο κύτταρα".
07:56
people used to believe there was a life forceδύναμη to be livingζωή,
168
451000
3000
Οι άνθρωποι πίστευαν κάποτε ότι υπήρχε μια ζωτική ορμή αν και
07:59
and we now know that's really not trueαληθής at all.
169
454000
2000
πλεον γνωρίζουμε ότι αυτό δεν είναι αλήθεια.
08:01
And there's really no evidenceαπόδειξη that saysλέει -- well, other than people
170
456000
3000
Και δεν υπάρχει καμία ένδειξη που να λέει...
08:04
just have disbeliefδυσπιστία that cellsκυττάρων can do what they do.
171
459000
2000
...άλλοι άνθρωποι πιστεύουν ότι τα κύτταρα μπορούν να κάνουν ό,τι κάνουν.
08:06
And so, if some people have fallenπεσμένος into the pitpit of metaphysicalμεταφυσικός dualismδυϊσμός,
172
461000
3000
Έτσι, κάποιοι έχουν πέσει στο λάκκο του μεταφυσικού δυισμού,
08:09
some really smartέξυπνος people, too, but we can rejectαπόρριψη all that.
173
464000
3000
μερικοί πολύ έξυπνοι άνθρωποι επίσης, αλλά μπορούμε να τα απορρίψουμε όλ' αυτά.
08:12
(LaughterΤο γέλιο)
174
467000
2000
(Γέλια)
08:14
No, I'm going to tell you there's something elseαλλού,
175
469000
3000
Όχι, θα σας πω ότι υπάρχει κάτι άλλο
08:17
and it's really fundamentalθεμελιώδης, and this is what it is:
176
472000
2000
και είναι βασικό και είναι το ακόλουθο:
08:19
there's anotherαλλο reasonλόγος why we don't have a good brainεγκέφαλος theoryθεωρία,
177
474000
2000
Υπάρχει κι άλλος λόγος που δεν έχουμε μια καλή θεωρία για τον εγκέφαλο,
08:21
and it's because we have an intuitiveενστικτώδης, strongly-heldεδραίες,
178
476000
3000
επειδή έχουμε δημιουργήσει μια διαισθητική, ισχυρή
08:24
but incorrectεσφαλμένη assumptionυπόθεση that has preventedεμπόδισε us from seeingβλέπων the answerαπάντηση.
179
479000
5000
αλλά λανθασμένη υπόθεση η οποία μας έχει εμποδίσει από το να δούμε την απάντηση.
08:29
There's something we believe that just, it's obviousφανερός, but it's wrongλανθασμένος.
180
484000
3000
Υπάρχει κάτι που πιστεύουμε ότι είναι προφανές, αλλά κάνουμε λάθος.
08:32
Now, there's a historyιστορία of this in scienceεπιστήμη and before I tell you what it is,
181
487000
4000
Υπάρχει προϊστορία με αυτό στην επιστήμη, αλλά πριν σας πω τι είναι,
08:36
I'm going to tell you a bitκομμάτι about the historyιστορία of it in scienceεπιστήμη.
182
491000
2000
θα σας μιλήσω λίγο για την ιστορία του στην επιστήμη.
08:38
You look at some other scientificεπιστημονικός revolutionsστροφές,
183
493000
2000
Βλέπουμε κάποιες άλλες επιστημονικές επαναστάσεις,
08:40
and this caseπερίπτωση, I'm talkingομιλία about the solarηλιακός systemΣύστημα, that's CopernicusΚοπέρνικος,
184
495000
2000
και μιλάω για το ηλιακό σύστημα, αυτό είναι Κοπέρνικος,
08:42
Darwin'sΤου Δαρβίνου evolutionεξέλιξη, and tectonicτεκτονική platesπλάκες, that's WegenerWegener.
185
497000
3000
τη Δαρβινική εξέλιξη, τις τεκτονικές πλάκες του Βέγκενερ.
08:45
They all have a lot in commonκοινός with brainεγκέφαλος scienceεπιστήμη.
186
500000
3000
Όλοι έχουν πολλά κοινά με τη Νευροφυσιολογία.
08:48
First of all, they had a lot of unexplainedανεξήγητο dataδεδομένα. A lot of it.
187
503000
3000
Πρώτ' απ' όλα, είχαν όλοι πολλά ανεξήγητα δεδομένα. Πολλά.
08:51
But it got more manageableεύχρηστο onceμια φορά they had a theoryθεωρία.
188
506000
3000
Αλλά έγινε ευκολότερο, μόλις απέκτησαν θεωρία.
08:54
The bestκαλύτερος mindsμυαλά were stumpedμείνει άναυδοι -- really, really smartέξυπνος people.
189
509000
3000
Τα καλύτερα μυαλά είχαν μπερδευτεί, πραγματικά πολύ ευφυείς άνθρωποι.
08:57
We're not smarterεξυπνότερα now than they were then.
190
512000
2000
Δεν είμαστε εξυπνότεροι σήμερα απ' όσο ήταν εκείνοι.
08:59
It just turnsστροφές out it's really hardσκληρά to think of things,
191
514000
2000
Είναι τελικά δύσκολο να σκεφτείς ένα πράγμα,
09:01
but onceμια φορά you've thought of them, it's kindείδος of easyεύκολος to understandκαταλαβαίνουν it.
192
516000
2000
αλλά όταν το σκεφτείς είναι τελικά εύκολο να το κατανοήσεις.
09:03
My daughtersθυγατέρες understoodκατανοητή these threeτρία theoriesθεωρίες
193
518000
2000
Οι κόρες μου κατάλαβαν αυτές τις 3 θεωρίες
09:05
in theirδικα τους basicβασικός frameworkδομή by the time they were in kindergartenΝηπιαγωγείο.
194
520000
3000
στο βασικό τους πλαίσιο από τότε που ήταν στο νηπιαγωγείο.
09:08
And now it's not that hardσκληρά, you know, here'sεδώ είναι the appleμήλο, here'sεδώ είναι the orangeπορτοκάλι,
195
523000
3000
Δεν είναι πολύ δύσκολο, εδώ είναι το μήλο, εδώ το πορτοκάλι,
09:11
you know, the EarthΓη goesπηγαίνει around, that kindείδος of stuffυλικό.
196
526000
3000
η γη γυρίζει, τέτοια πράγματα.
09:14
FinallyΤέλος, anotherαλλο thing is the answerαπάντηση was there all alongκατά μήκος,
197
529000
2000
Τέλος, η απάντηση ήταν μπροστά μας από την αρχή,
09:16
but we kindείδος of ignoredαγνοείται it because of this obviousφανερός thing, and that's the thing.
198
531000
3000
αλλά την αγνοήσαμε επειδή ήταν προφανής, αυτό είναι το θέμα.
09:19
It was an intuitiveενστικτώδης, strong-heldισχυρή-που πραγματοποιήθηκε beliefπίστη that was wrongλανθασμένος.
199
534000
3000
Ήταν μια διαισθητική, ισχυρή πίστη, αλλά ήταν λανθασμένη.
09:22
In the caseπερίπτωση of the solarηλιακός systemΣύστημα, the ideaιδέα that the EarthΓη is spinningκλώση
200
537000
3000
Στην περίπτωση του ηλιακού συστήματος, η ιδέα ότι η Γη γυρίζει
09:25
and the surfaceεπιφάνεια of the EarthΓη is going like a thousandχίλια milesμίλια an hourώρα,
201
540000
3000
και η επιφάνειά της κινείται με χίλια χιλιόμετρα την ώρα,
09:28
and the EarthΓη is going throughδιά μέσου the solarηλιακός systemΣύστημα about a millionεκατομμύριο milesμίλια an hourώρα.
202
543000
3000
και η Γη περνάει μέσα από το ηλιακό σύστημα περίπου ένα εκατομμύριο μίλια την ώρα.
09:31
This is lunacyτρέλα. We all know the EarthΓη isn't movingκίνηση.
203
546000
2000
Αυτό είναι μια τρέλα. Όλοι ξέρουμε ότι η Γη δεν κινείται.
09:33
Do you feel like you're movingκίνηση a thousandχίλια milesμίλια an hourώρα?
204
548000
2000
Νιώθετε να κινήστε με χίλια μίλια την ώρα;
09:35
Of courseσειρά μαθημάτων not. You know, and someoneκάποιος who said,
205
550000
2000
Όχι βέβαια. Αν κάποιος έλεγε ότι η Γη
09:37
well, it was spinningκλώση around in spaceχώρος and it's so hugeτεράστιος,
206
552000
2000
γυρίζει μέσα στο σύμπαν και είναι τόσο μεγάλη,
09:39
they would lockκλειδαριά you up, and that's what they did back then.
207
554000
2000
θα τον έκλειναν στο τρελοκομείο και αυτό έκαναν τότε.
09:41
(LaughterΤο γέλιο)
208
556000
1000
(Γέλια)
09:42
So it was intuitiveενστικτώδης and obviousφανερός. Now what about evolutionεξέλιξη?
209
557000
3000
Έτσι ήταν διαισθητικό και προφανές. Τι γίνεται τώρα με την εξέλιξη;
09:45
Evolution'sΕξέλιξη του the sameίδιο thing. We taughtδιδακτός our kidsπαιδιά, well, the BibleΑγία Γραφή saysλέει,
210
560000
3000
Είναι το ίδιο πράγμα. Διδάξαμε στα παιδιά μας, δηλαδή η Βίβλος λέει,
09:48
you know, God createdδημιουργήθηκε all these speciesείδος, catsγάτες are catsγάτες, dogsΣκύλοι are dogsΣκύλοι,
211
563000
2000
ότι ο Θεός δημιούργησε όλα τα είδη, οι γάτες είναι γάτες, οι σκύλοι είναι σκύλοι,
09:50
people are people, plantsφυτά are plantsφυτά, they don't changeαλλαγή.
212
565000
3000
οι άνθρωποι είναι άνθρωποι, τα φυτά είναι φυτά και δεν αλλάζουν.
09:53
NoahΝώε put them on the ArkΚιβωτός in that orderΣειρά, blahΜπλα, blahΜπλα, blahΜπλα. And, you know,
213
568000
4000
Ο Νώε τα έβαλε στην κιβωτό με αυτή τη σειρά και μπλά μπλά μπλά.
09:57
the factγεγονός is, if you believe in evolutionεξέλιξη, we all have a commonκοινός ancestorπρόγονος,
214
572000
4000
Το θέμα είναι ότι αν πιστεύετε στην εξέλιξη, έχουμε όλοι τον ίδιο πρόγονο,
10:01
and we all have a commonκοινός ancestryκαταγωγή with the plantφυτό in the lobbyαίθουσα.
215
576000
3000
και κοινή γενεαλογία με το φυτό στο διάδρομο.
10:04
This is what evolutionεξέλιξη tellsλέει us. And, it's trueαληθής. It's kindείδος of unbelievableαπίστευτος.
216
579000
3000
Αυτό μας λέει η εξέλιξη. Και είναι αλήθεια. Είναι απίστευτο.
10:07
And the sameίδιο thing about tectonicτεκτονική platesπλάκες, you know?
217
582000
3000
Το ίδιο και με τις τεκτονικές πλάκες.
10:10
All the mountainsβουνά and the continentsηπείρους are kindείδος of floatingεπιπλέων around
218
585000
2000
Όλοι οι λόφοι και οι ήπειροι επιπλέουν
10:12
on topμπλουζα of the EarthΓη, you know? It's like, it doesn't make any senseέννοια.
219
587000
4000
στην επιφάνεια της γης, είναι σαν...δε βγαίνει νόημα.
10:16
So what is the intuitiveενστικτώδης, but incorrectεσφαλμένη assumptionυπόθεση,
220
591000
4000
Έτσι ποια είναι η διαισθητική αλλά λανθασμένη υπόθεση,
10:20
that's keptδιατηρούνται us from understandingκατανόηση brainsμυαλά?
221
595000
2000
που μας εμπόδισε να κατανοήσουμε τον εγκέφαλο;
10:22
Now I'm going to tell it to you, and it's going to seemφαίνομαι obviousφανερός that that is correctσωστός,
222
597000
2000
Θα σας πω τώρα και θα σας φανεί προφανές ότι αυτό είναι το σωστό,
10:24
and that's the pointσημείο, right? Then I'm going to have to make an argumentδιαφωνία
223
599000
2000
και αυτό είναι το ζητούμενο, σωστά; Μετά θα πρέπει να φτιάξω ένα επιχείρημα
10:26
why you're incorrectεσφαλμένη about the other assumptionυπόθεση.
224
601000
2000
γιατί ήταν λάθος η προηγούμενη υπόθεση.
10:28
The intuitiveενστικτώδης but obviousφανερός thing is that somehowκάπως intelligenceνοημοσύνη
225
603000
3000
Το διαισθητικό αλλά προφανές είναι ότι με κάποιο τρόπο η ευφυΐα
10:31
is definedορίζεται by behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
226
606000
2000
καθορίζεται από τη συμπεριφορά,
10:33
that we are intelligentέξυπνος because of the way that we do things
227
608000
2000
ότι δηλαδή είμαστε έξυπνοι, εξ' αιτίας του τρόπου που κάνουμε πράγματα
10:35
and the way we behaveσυμπεριφέρομαι intelligentlyέξυπνα, and I'm going to tell you that's wrongλανθασμένος.
228
610000
3000
και του τρόπου που αντιδρούμε έξυπνα και θα σας πω ότι αυτό είναι λάθος.
10:38
What it is is intelligenceνοημοσύνη is definedορίζεται by predictionπροφητεία.
229
613000
2000
Στην πραγματικότητα, η ευφυΐα καθορίζεται από την πρόβλεψη.
10:40
And I'm going to work you throughδιά μέσου this in a fewλίγοι slidesδιαφάνειες here,
230
615000
3000
Και θα σας το εξηγήσω αυτό με μερικές εικόνες,
10:43
give you an exampleπαράδειγμα of what this meansπου σημαίνει. Here'sΕδώ είναι a systemΣύστημα.
231
618000
4000
δίνοντάς σας παραδείγματα του τι σημαίνει. Εδώ έχουμε ένα σύστημα.
10:47
EngineersΜηχανικοί like to look at systemsσυστήματα like this. ScientistsΟι επιστήμονες like to look at systemsσυστήματα like this.
232
622000
3000
Οι μηχανικοί αρέσκονται να μελετούν συστήματα σαν αυτό. Το ίδιο και οι επιστήμονες.
10:50
They say, well, we have a thing in a boxκουτί, and we have its inputsεισόδους and its outputsέξοδοι.
233
625000
3000
Λένε ότι έχουμε ένα πράγμα μέσα σε ένα κουτί και έχουμε τα εισαγόμενα και τα εξαγόμενα δεδομένα του.
10:53
The AIAI people said, well, the thing in the boxκουτί is a programmableπρογραμματιζόμενος computerυπολογιστή
234
628000
3000
Οι ειδικοί της Τεχνητής Νοημοσύνης, πιστεύουν πως μέσα στο κουτί υπάρχει ένας προγραμματιζόμενος υπολογιστής
10:56
because that's equivalentισοδύναμος to a brainεγκέφαλος, and we'llΚαλά feedταίζω it some inputsεισόδους
235
631000
2000
επειδή αυτή είναι η αντιστοιχία με τον εγκέφαλο, τον οποίο θα τροφοδοτήσουμε με δεδομένα
10:58
and we'llΚαλά get it to do something, have some behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
236
633000
2000
και θα τον βάλουμε να κάνει κάτι, να έχει συμπεριφορά.
11:00
And AlanAlan TuringΤούρινγκ definedορίζεται the TuringΤούρινγκ testδοκιμή, whichοι οποίες is essentiallyουσιαστικά sayingρητό,
237
635000
3000
Ο Άλαν Τιούρινγκ, καθόρισε το Τεστ Τιούρινγκ το οποίο ουσιαστικά λέει ότι
11:03
we'llΚαλά know if something'sμερικά πράγματα intelligentέξυπνος if it behavesσυμπεριφέρεται identicalπανομοιότυπο to a humanο άνθρωπος.
238
638000
3000
ξέρουμε εάν κάτι είναι ευφυές, εάν συμπεριφέρεται το ίδιο με έναν άνθρωπο.
11:06
A behavioralσυμπεριφορική metricμετρικός of what intelligenceνοημοσύνη is,
239
641000
3000
Αυτό είναι το μετρικό σύστημα της ευφυΐας. Η Συμπεριφορά.
11:09
and this has stuckκολλήσει in our mindsμυαλά for a long periodπερίοδος of time.
240
644000
3000
Και αυτό είχε κολλήσει στο μυαλό μας, για πάρα πολύ καιρό.
11:12
RealityΠραγματικότητα thoughαν και, I call it realπραγματικός intelligenceνοημοσύνη.
241
647000
2000
Η πραγματικότητα όμως είναι αυτό που ονομάζω, αληθινή ευφυΐα.
11:14
RealΠραγματικό intelligenceνοημοσύνη is builtχτισμένο on something elseαλλού.
242
649000
2000
Η πραγματική ευφυΐα δημιουργείται από κάτι άλλο.
11:16
We experienceεμπειρία the worldκόσμος throughδιά μέσου a sequenceαλληλουχία of patternsσχέδια, and we storeκατάστημα them,
243
651000
4000
Βιώνουμε τον κόσμο μέσα από μια ακολουθία μοτίβων, τα αποθηκεύουμε,
11:20
and we recallανάκληση them. And when we recallανάκληση them, we matchαγώνας them up
244
655000
3000
και τα ανακαλούμε. Και όταν τα ανακαλούμε τα συγκρίνουμε
11:23
againstκατά realityπραγματικότητα, and we're makingκατασκευή predictionsΠρογνωστικά all the time.
245
658000
4000
με την πραγματικότητα κι έτσι κάνουμε προβλέψεις όλη την ώρα.
11:27
It's an eternalαιώνια metricμετρικός. There's an eternalαιώνια metricμετρικός about us sortείδος of sayingρητό,
246
662000
3000
Είναι ένα αέναο μετρικό σύστημα. Υπάρχει ένα αέναο μετρικό σύστημα μέσα μας.
11:30
do we understandκαταλαβαίνουν the worldκόσμος? Am I makingκατασκευή predictionsΠρογνωστικά? And so on.
247
665000
3000
Καταλαβαίνουμε τον κόσμο; Κάνουμε προβλέψεις; Και πάει λέγοντας.
11:33
You're all beingνα εισαι intelligentέξυπνος right now, but you're not doing anything.
248
668000
2000
Είστε έξυπνοι αυτοί τη στιγμή, χωρίς να κάνετε τίποτα.
11:35
Maybe you're scratchingξύσιμο yourselfσύ ο ίδιος, or pickingσυλλογή your noseμύτη,
249
670000
2000
Ίσως ξύνεστε ή πειράζετε τη μύτη σας,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
δε ξέρω, πάντως δε κάνετε κάτι τώρα,
11:39
but you're beingνα εισαι intelligentέξυπνος; you're understandingκατανόηση what I'm sayingρητό.
251
674000
3000
αλλά είστε ευφυείς, καταλαβαίνετε αυτά που λέω.
11:42
Because you're intelligentέξυπνος and you speakμιλώ EnglishΑγγλικά,
252
677000
2000
Επειδή είστε έξυπνοι και μιλάτε Αγγλικά,
11:44
you know what wordλέξη is at the endτέλος of this -- (SilenceΣιωπή)
253
679000
1000
ξέρετε ποια λέξη είναι στο τέλος αυτής της -- [σιωπή]
11:45
sentenceπερίοδος.
254
680000
2000
πρότασης.
11:47
The wordλέξη cameήρθε into you, and you're makingκατασκευή these predictionsΠρογνωστικά all the time.
255
682000
3000
Η λέξη σας ήρθε αυτόματα και τέτοιες προβλέψεις, κάνετε όλη την ώρα.
11:50
And then, what I'm sayingρητό is,
256
685000
2000
Αυτό που λέω είναι,
11:52
is that the eternalαιώνια predictionπροφητεία is the outputπαραγωγή in the neocortexneocortex.
257
687000
2000
ότι η αέναη πρόβλεψη είναι το εξαγόμενο δεδομένο του νεοφλοιού.
11:54
And that somehowκάπως, predictionπροφητεία leadsοδηγεί to intelligentέξυπνος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
258
689000
3000
Και πως με κάποιο τρόπο η πρόβλεψη, οδηγεί σε ευφυή συμπεριφορά.
11:57
And here'sεδώ είναι how that happensσυμβαίνει. Let's startαρχή with a non-intelligentμη ευφυής brainεγκέφαλος.
259
692000
3000
Ορίστε πως γίνεται αυτό. Ας ξεκινήσουμε με έναν μη ευφυή εγκέφαλο.
12:00
Well I'll argueλογομαχώ a non-intelligentμη ευφυής brainεγκέφαλος, we got holdΚρατήστε of an oldπαλαιός brainεγκέφαλος,
260
695000
4000
Θα αμφισβητήσω το "μη-ευφυής", ας ξεκινήσουμε με έναν παλαιό εγκέφαλο,
12:04
and we're going to say it's like a non-mammalμη-θηλαστικό, like a reptileερπετό,
261
699000
3000
και ας πούμε ότι δεν μοιάζει με εγκέφαλο θηλαστικού, αλλά ερπετού,
12:07
so I'll say, an alligatorαλλιγάτορας; we have an alligatorαλλιγάτορας.
262
702000
2000
ας πούμε, ένας κροκόδειλος, έχουμε έναν κροκόδειλο.
12:09
And the alligatorαλλιγάτορας has some very sophisticatedεκλεπτυσμένο sensesαισθήσεις.
263
704000
3000
Και ο κροκόδειλος έχει μερικές πολύ σύνθετες αισθήσεις.
12:12
It's got good eyesμάτια and earsαυτιά and touchαφή sensesαισθήσεις and so on,
264
707000
3000
Έχει καλά μάτια και αυτιά και αφή κτλ,
12:15
a mouthστόμα and a noseμύτη. It has very complexσυγκρότημα behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
265
710000
4000
ένα στόμα και μια μύτη. Έχει μια περίπλοκη συμπεριφορά.
12:19
It can runτρέξιμο and hideκρύβω. It has fearsφόβους and emotionsσυναισθήματα. It can eatτρώω you, you know.
266
714000
4000
Μπορεί να τρέχει και να κρύβεται. Έχει φόβους και συναισθήματα. Μπορεί να σας φάει...
12:23
It can attackεπίθεση. It can do all kindsείδη of stuffυλικό.
267
718000
4000
Μπορεί να επιτεθεί. Μπορεί να κάνει ένα σωρό πράγματα.
12:27
But we don't considerσκεφτείτε the alligatorαλλιγάτορας very intelligentέξυπνος, not like in a humanο άνθρωπος sortείδος of way.
268
722000
5000
Αλλά δεν θεωρούμε τον κροκόδειλο ευφυή, με την ανθρώπινη έννοια.
12:32
But it has all this complexσυγκρότημα behaviorη ΣΥΜΠΕΡΙΦΟΡΑ alreadyήδη.
269
727000
2000
Έχει όμως ήδη όλη αυτή τη σύνθετη συμπεριφορά.
12:34
Now, in evolutionεξέλιξη, what happenedσυνέβη?
270
729000
2000
Τώρα, με την εξέλιξη, τι έγινε;
12:36
First thing that happenedσυνέβη in evolutionεξέλιξη with mammalsθηλαστικά,
271
731000
3000
Το πρώτο πράγμα που έγινε με την εξέλιξη στα θηλαστικά
12:39
we startedξεκίνησε to developαναπτύσσω a thing calledπου ονομάζεται the neocortexneocortex.
272
734000
2000
είναι ότι δημιουργήθηκε αυτό που ονομάζουμε νεοφλοιό.
12:41
And I'm going to representεκπροσωπώ the neocortexneocortex here,
273
736000
2000
Θα αναπαραστήσω εδώ το νεοφλοιό,
12:43
by this boxκουτί that's stickingκολλάει on topμπλουζα of the oldπαλαιός brainεγκέφαλος.
274
738000
2000
με αυτό το κουτί που στέκεται επάνω στον παλαιό εγκέφαλο.
12:45
NeocortexΝεοφλοιού meansπου σημαίνει newνέος layerστρώμα. It is a newνέος layerστρώμα on topμπλουζα of your brainεγκέφαλος.
275
740000
3000
Νεοφλοιός, σημαίνει νέο στρώμα. Είναι ένα νέο στρώμα, επάνω στον εγκέφαλό σας.
12:48
If you don't know it, it's the wrinklyρυτιδωμένο thing on the topμπλουζα of your headκεφάλι that,
276
743000
3000
Εάν δε το ξέρετε, είναι ένα τσαλακωμένο πράμα στην κορυφή του κεφαλιού σας,
12:51
it's got wrinklyρυτιδωμένο because it got shovedώθησε in there and doesn't fitκατάλληλος.
277
746000
3000
το οποίο τσαλακώθηκε επειδή στριμώχτηκε εκεί μέσα και δε χωράει καλά.
12:54
(LaughterΤο γέλιο)
278
749000
1000
(Γέλια)
12:55
No, really, that's what it is. It's about the sizeμέγεθος of a tableτραπέζι napkinπετσετάκι.
279
750000
2000
Όχι στ' αλήθεια, αυτό συνέβη. Είναι σε μέγεθος, περίπου όσο ένα τραπεζομάντηλο.
12:57
And it doesn't fitκατάλληλος, so it getsπαίρνει all wrinklyρυτιδωμένο. Now look at how I've drawnσυρθεί this here.
280
752000
3000
Και δε χωράει, έτσι τσαλακώθηκε. Τώρα κοιτάξτε πώς το έχω ζωγραφίσει αυτό.
13:00
The oldπαλαιός brainεγκέφαλος is still there. You still have that alligatorαλλιγάτορας brainεγκέφαλος.
281
755000
4000
Ο παλαιός εγκέφαλος είναι ακόμα εκεί. Έχετε ακόμη τον ερπετικό εγκέφαλο.
13:04
You do. It's your emotionalΣυναισθηματική brainεγκέφαλος.
282
759000
2000
Είναι ο συναισθηματικός σας εγκέφαλος.
13:06
It's all those things, and all those gutέντερο reactionsαντιδράσεις you have.
283
761000
3000
Είναι όλες εκείνες οι ενδόμυχες αντιδράσεις σας.
13:09
And on topμπλουζα of it, we have this memoryμνήμη systemΣύστημα calledπου ονομάζεται the neocortexneocortex.
284
764000
3000
Και επάνω από αυτόν, έχουμε ένα μνημονικό σύστημα που ονομάζεται Νεοφλοιός.
13:12
And the memoryμνήμη systemΣύστημα is sittingσυνεδρίαση over the sensoryαισθητήριος partμέρος of the brainεγκέφαλος.
285
767000
4000
και το μνημονικό σύστημα, βρίσκεται επάνω από το αισθητηριακό κομμάτι του εγκεφάλου.
13:16
And so as the sensoryαισθητήριος inputεισαγωγή comesέρχεται in and feedsτροφές from the oldπαλαιός brainεγκέφαλος,
286
771000
3000
Έτσι καθώς εισέρχονται τα αισθητηριακά δεδομένα και τροφοδοτούν τον παλαιό εγκέφαλο,
13:19
it alsoεπίσης goesπηγαίνει up into the neocortexneocortex. And the neocortexneocortex is just memorizingΑπομνημόνευση.
287
774000
4000
πηγαίνουν και στο νεοφλοιό. Και ο νεοφλοιός απλά απομνημονεύει.
13:23
It's sittingσυνεδρίαση there sayingρητό, ahαχ, I'm going to memorizeαπομνημονεύω all the things that are going on:
288
778000
4000
Κάθεται εκεί λέγοντας "Α, θα απομνημονεύσω κάθε τι που συμβαίνει",
13:27
where I've been, people I've seenείδα, things I've heardακούσει, and so on.
289
782000
2000
"πού πήγα, τους ανθρώπους που συνάντησα, αυτά που άκουσα", κτλ.
13:29
And in the futureμελλοντικός, when it seesβλέπει something similarπαρόμοιος to that again,
290
784000
4000
Και στο μέλλον, όταν δει κάτι παρόμοιο με αυτό που έχει απομνημονεύσει,
13:33
so in a similarπαρόμοιος environmentπεριβάλλον, or the exactακριβής sameίδιο environmentπεριβάλλον,
291
788000
3000
σε ένα παρόμοιο περιβάλλον, ή και στο ίδιο,
13:36
it'llθα το κάνει playπαίζω it back. It'llΑυτό θα startαρχή playingπαιχνίδι it back.
292
791000
2000
θα το αναπαράγει, σαν ηχογράφηση.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
"Έχω ξαναβρεθεί εδώ". Και όταν έχετε ξαναβρεθεί κάπου,
13:40
this happenedσυνέβη nextεπόμενος. It allowsεπιτρέπει you to predictπρολέγω the futureμελλοντικός.
294
795000
3000
ξέρετε τι ακολούθησε. Σας επιτρέπει να προβλέπετε το μέλλον.
13:43
It allowsεπιτρέπει you to, literallyΚυριολεκτικά it feedsτροφές back the signalsσήματα into your brainεγκέφαλος;
295
798000
4000
Σας επιτρέπει να το κάνετε αυτό, κυριολεκτικά, επανατροφοδοτεί τον εγκέφαλο με τα ίδια σήματα.
13:47
they'llθα το κάνουν let you see what's going to happenσυμβεί nextεπόμενος,
296
802000
2000
Σας επιτρέπει να δείτε αυτό που θα ακολουθήσει,
13:49
will let you hearακούω the wordλέξη "sentenceπερίοδος" before I said it.
297
804000
3000
σας επιτρέπει να ακούτε τη επόμενη λέξη της φράσης, πριν εγώ την πω.
13:52
And it's this feedingσίτιση back into the oldπαλαιός brainεγκέφαλος
298
807000
3000
Και είναι αυτή η επανατροφοδότηση στον παλαιό εγκέφαλο
13:55
that'llαυτό θα γίνει allowεπιτρέπω you to make very more intelligentέξυπνος decisionsαποφάσεων.
299
810000
3000
που σας επιτρέπει να παίρνετε ευφυείς αποφάσεις.
13:58
This is the mostπλέον importantσπουδαίος slideολίσθηση of my talk, so I'll dwellκατοικήστε on it a little bitκομμάτι.
300
813000
3000
Αυτή είναι η σημαντικότερη εικόνα της ομιλίας μου, έτσι ας σταθούμε λίγο εδώ.
14:01
And so, all the time you say, oh, I can predictπρολέγω the things.
301
816000
4000
Κάθε λεπτό μπορείτε να προβλέπετε.
14:05
And if you're a ratαρουραίος and you go throughδιά μέσου a mazeλαβύρινθος, and then you learnμαθαίνω the mazeλαβύρινθος,
302
820000
3000
Αν ήσασταν ποντικός και περνούσατε μέσα από ένα λαβύρινθο και μαθαίνατε τη διαδρομή,
14:08
the nextεπόμενος time you're in a mazeλαβύρινθος, you have the sameίδιο behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
303
823000
2000
την επόμενη φορά που θα βρισκόσασταν στον ίδιο λαβύρινθο και είχατε την ίδια συμπεριφορά,
14:10
but all of a suddenαιφνίδιος, you're smarterεξυπνότερα
304
825000
2000
έξαφνα θα ήσασταν εξυπνότερος,
14:12
because you say, oh, I recognizeαναγνωρίζω this mazeλαβύρινθος, I know whichοι οποίες way to go,
305
827000
3000
επειδή θα λέγατε "αναγνωρίζω αυτό το λαβύρινθο και ξέρω από που πρέπει να πάω"
14:15
I've been here before, I can envisionΟραματιζόμαστε the futureμελλοντικός. And that's what it's doing.
306
830000
3000
"Έχω ξαναβρεθεί εδώ, μπορώ να οραματιστώ το μέλλον". Και αυτό συμβαίνει.
14:18
In humansτου ανθρώπου -- by the way, this is trueαληθής for all mammalsθηλαστικά;
307
833000
3000
Στους ανθρώπους, αν και αυτό ισχύει για κάθε θηλαστικό,
14:21
it's trueαληθής for other mammalsθηλαστικά -- and in humansτου ανθρώπου, it got a lot worseχειρότερος.
308
836000
2000
στον άνθρωπο είναι ακόμη χειρότερα.
14:23
In humansτου ανθρώπου, we actuallyπράγματι developedαναπτηγμένος the frontεμπρός partμέρος of the neocortexneocortex
309
838000
3000
Στους ανθρώπους αναπτύχθηκε το μπροστινό κομμάτι του νεοφλοιού
14:26
calledπου ονομάζεται the anteriorπρόσθια partμέρος of the neocortexneocortex. And natureφύση did a little trickτέχνασμα.
310
841000
4000
που ονομάζεται πρόσθιο και η φύση έκανε ένα μικρό κόλπο.
14:30
It copiedαντιγραφεί the posteriorοπίσθια partμέρος, the back partμέρος, whichοι οποίες is sensoryαισθητήριος,
311
845000
2000
Αντέγραψε το οπίσθιο μέρος που είναι αισθητηριακό,
14:32
and put it in the frontεμπρός partμέρος.
312
847000
2000
και το τοποθέτησε στο πρόσθιο κομμάτι.
14:34
And humansτου ανθρώπου uniquelyμοναδικώς have the sameίδιο mechanismμηχανισμός on the frontεμπρός,
313
849000
2000
Έτσι οι άνθρωποι έχουμε με μοναδικό τρόπο τον ίδιο μηχανισμό μπροστά
14:36
but we use it for motorμοτέρ controlέλεγχος.
314
851000
2000
αλλά τον χρησιμοποιούμε για μηχανικό έλεγχο.
14:38
So we are now ableικανός to make very sophisticatedεκλεπτυσμένο motorμοτέρ planningσχεδίαση, things like that.
315
853000
3000
Έτσι είμαστε σε θέση να κάνουμε σύνθετους μηχανικούς προγραμματισμούς.
14:41
I don't have time to get into all this, but if you want to understandκαταλαβαίνουν how a brainεγκέφαλος worksεργοστάσιο,
316
856000
3000
Δεν έχω χρόνο για να μιλήσω για όλ' αυτά, αλλά αν θέλετε να καταλάβετε πώς λειτουργεί ο εγκέφαλος,
14:44
you have to understandκαταλαβαίνουν how the first partμέρος of the mammalianθηλαστικών neocortexneocortex worksεργοστάσιο,
317
859000
3000
πρέπει να κατανοήσετε πώς λειτουργεί το πρώτο κομμάτι του νεοφλοιού των θηλαστικών,
14:47
how it is we storeκατάστημα patternsσχέδια and make predictionsΠρογνωστικά.
318
862000
2000
πώς αποθηκεύει μοτίβα και κάνει προβλέψεις.
14:49
So let me give you a fewλίγοι examplesπαραδείγματα of predictionsΠρογνωστικά.
319
864000
3000
Να σας δώσω μερικά παραδείγματα τέτοιων προβλέψεων.
14:52
I alreadyήδη said the wordλέξη "sentenceπερίοδος." In musicΜΟΥΣΙΚΗ,
320
867000
2000
Σας είπα ήδη για την επόμενη λέξη στην πρόταση. Στη μουσική,
14:54
if you've heardακούσει a songτραγούδι before, if you heardακούσει JillJill singτραγουδώ those songsΜΟΥΣΙΚΑ ΚΟΜΜΑΤΙΑ before,
321
869000
3000
εάν έχετε ξανακούσει ένα τραγούδι, εάν έχετε ξανακούσει τη Τζιλ να τραγουδά
14:57
when she singsτραγουδάει them, the nextεπόμενος noteΣημείωση popsσκάει into your headκεφάλι alreadyήδη --
322
872000
3000
όταν τραγουδάει, η επόμενη νότα πετάγεται ήδη μέσα στο κεφάλι σας.
15:00
you anticipateπροσδοκώ it as you're going. If it was an albumάλμπουμ of musicΜΟΥΣΙΚΗ,
323
875000
2000
Την προβλέπετε. Εάν μιλάμε για ένα άλμπουμ μουσικής,
15:02
the endτέλος of one albumάλμπουμ, the nextεπόμενος songτραγούδι popsσκάει into your headκεφάλι.
324
877000
3000
στο τέλος ενός τραγουδιού, το επόμενο έρχεται στο μυαλό σας.
15:05
And these things happenσυμβεί all the time. You're makingκατασκευή these predictionsΠρογνωστικά.
325
880000
2000
Και αυτά συμβαίνουν όλη την ώρα. Κάνετε αυτές τις προβλέψεις.
15:07
I have this thing calledπου ονομάζεται the alteredμεταβληθεί doorθύρα thought experimentπείραμα.
326
882000
3000
Έχω επίσης, αυτό που ονομάζω "πείραμα της αλλαγμένης πόρτας".
15:10
And the alteredμεταβληθεί doorθύρα thought experimentπείραμα saysλέει, you have a doorθύρα at home,
327
885000
3000
Το οποίο λέει ότι έχετε μια πόρτα σπίτι σας,
15:13
and when you're here, I'm changingαλλάζοντας it, I've got a guy
328
888000
3000
και την ώρα που είστε εδώ, εγώ την αλλάζω. Έχω στείλει κάποιον
15:16
back at your houseσπίτι right now, movingκίνηση the doorθύρα around,
329
891000
2000
στο σπίτι σας, τούτη τη στιγμή, που μετακινεί την πόρτα σας,
15:18
and they're going to take your doorknobπόμολο and moveκίνηση it over two inchesίντσες.
330
893000
2000
και θα πάρει το πόμολο και θα το μετακινήσει δύο ίντσες περίπου.
15:20
And when you go home tonightαπόψε, you're going to put your handχέρι out there,
331
895000
2000
Και όταν επιστρέψετε σπίτι απόψε, θα απλώσετε το χέρι σας
15:22
and you're going to reachφθάνω for the doorknobπόμολο and you're going to noticeειδοποίηση
332
897000
2000
να πιάσετε το πόμολο και θα προσέξετε
15:24
it's in the wrongλανθασμένος spotσημείο, and you'llθα το κάνετε go, whoaποιος, something happenedσυνέβη.
333
899000
3000
ότι είναι σε λάθος μέρος και θα καταλάβετε ότι κάτι έγινε.
15:27
It mayενδέχεται take a secondδεύτερος to figureεικόνα out what it was, but something happenedσυνέβη.
334
902000
2000
Μπορεί να σας πάρει ένα δευτερόλεπτο να βρείτε τι έγινε, αλλά σίγουρα κάτι έγινε.
15:29
Now I could changeαλλαγή your doorknobπόμολο in other waysτρόπους.
335
904000
2000
Θα μπορούσα να αλλάξω το πόμολο με πολλούς άλλους τρόπους.
15:31
I can make it largerμεγαλύτερος or smallerμικρότερος, I can changeαλλαγή its brassορείχαλκος to silverασήμι,
336
906000
2000
Να το κάνω μεγαλύτερο ή μικρότερο, από μπρούτζινο σε ασημένιο,
15:33
I could make it a leverμοχλός. I can changeαλλαγή your doorθύρα, put colorsχρωματιστά on;
337
908000
2000
θα μπορούσα να βάλω ένα μοχλό, να αλλάξω όλη την πόρτα με χρώματα,
15:35
I can put windowsπαράθυρα in. I can changeαλλαγή a thousandχίλια things about your doorθύρα,
338
910000
3000
να της βάλω παράθυρα. Μπορώ να αλλάξω χιλιάδες πράγματα στην πόρτα σας,
15:38
and in the two secondsδευτερολέπτων you take to openΆνοιξε your doorθύρα,
339
913000
2000
και μέσα στα δύο δευτερόλεπτα που χρειάζεστε για να ανοίξετε την πόρτα,
15:40
you're going to noticeειδοποίηση that something has changedάλλαξε.
340
915000
3000
θα αντιληφθείτε ότι κάτι έχει αλλάξει.
15:43
Now, the engineeringμηχανική approachπλησιάζω to this, the AIAI approachπλησιάζω to this,
341
918000
2000
Τώρα η μηχανολογική προσέγγιση σε αυτό, η Τεχνητή Νοημοσύνη,
15:45
is to buildχτίζω a doorθύρα databaseβάση δεδομένων. It has all the doorθύρα attributesχαρακτηριστικά.
342
920000
3000
δημιουργεί μια βάση δεδομένων με όλες τις πιθανές τροποποιήσεις.
15:48
And as you go up to the doorθύρα, you know, let's checkέλεγχος them off one at time.
343
923000
3000
Και θα έπρεπε να τα τσεκάρετε ένα-ένα πλησιάζοντας την πόρτα σας.
15:51
DoorΠόρτα, doorθύρα, doorθύρα, you know, colorχρώμα, you know what I'm sayingρητό.
344
926000
2000
Αυτό, εκείνο το άλλο, το χρώμα...
15:53
We don't do that. Your brainεγκέφαλος doesn't do that.
345
928000
2000
Δε το κάνουμε αυτό. Ο εγκέφαλός σας, δε το κάνει αυτό.
15:55
What your brainεγκέφαλος is doing is makingκατασκευή constantσυνεχής predictionsΠρογνωστικά all the time
346
930000
2000
Ο εγκέφαλος διαρκώς κάνει προβλέψεις
15:57
about what is going to happenσυμβεί in your environmentπεριβάλλον.
347
932000
2000
για το τι πρόκειται να συμβεί στο περιβάλλον σας.
15:59
As I put my handχέρι on this tableτραπέζι, I expectαναμένω to feel it stop.
348
934000
3000
Καθώς βάζω το χέρι μου πάνω στο τραπέζι, περιμένω να το νιώσω να σταματά.
16:02
When I walkΠερπατήστε, everyκάθε stepβήμα, if I missedαναπάντητες it by an eighthόγδοο of an inchίντσα,
349
937000
3000
Όταν περπατώ, εάν χάσω το βηματισμό μου κατά ένα όγδοο της ίντσας,
16:05
I'll know something has changedάλλαξε.
350
940000
2000
θα ξέρω ότι κάτι άλλαξε.
16:07
You're constantlyσυνεχώς makingκατασκευή predictionsΠρογνωστικά about your environmentπεριβάλλον.
351
942000
2000
Συνεχώς κάνετε προβλέψεις για το περιβάλλον σας.
16:09
I'll talk about visionόραμα here brieflyεν ολίγοις. This is a pictureεικόνα of a womanγυναίκα.
352
944000
3000
Θα μιλήσω τώρα σύντομα για την όραση. Αυτή είναι η εικόνα μιας γυναίκας.
16:12
And when you look at people, your eyesμάτια are caughtπου αλιεύονται
353
947000
2000
Όταν κοιτάζετε ανθρώπους τα μάτια σας πιάνονται
16:14
over at two to threeτρία timesφορές a secondδεύτερος.
354
949000
1000
δύο με τρεις φορές το δευτερόλεπτο.
16:15
You're not awareενήμερος of this, but your eyesμάτια are always movingκίνηση.
355
950000
2000
Δε το καταλαβαίνετε, αλλά τα μάτια σας, συνεχώς κινούνται.
16:17
And so when you look at someone'sκάποιου faceπρόσωπο,
356
952000
2000
Έτσι όταν κοιτάζετε κάποιον στο πρόσωπο,
16:19
you'dεσείς typicallyτυπικά go from eyeμάτι to eyeμάτι to eyeμάτι to noseμύτη to mouthστόμα.
357
954000
2000
συνήθως πηγαίνετε από το ένα μάτι στο άλλο, στη μύτη, στο στόμα.
16:21
Now, when your eyeμάτι movesκινήσεις from eyeμάτι to eyeμάτι,
358
956000
2000
Όταν τα μάτια σας κινούνται από μάτι σε μάτι,
16:23
if there was something elseαλλού there like, a noseμύτη,
359
958000
2000
εάν υπήρχε κάτι άλλο εκεί, όπως μια μύτη,
16:25
you'dεσείς see a noseμύτη where an eyeμάτι is supposedυποτιθεμένος to be,
360
960000
2000
θα βλέπατε μια μύτη εκεί που θα έπρεπε να υπάρχει ένα μάτι,
16:27
and you'dεσείς go, oh shitσκατά, you know --
361
962000
3000
και αυτό θα σας εξέπληττε:
16:30
(LaughterΤο γέλιο)
362
965000
1000
(Γέλια)
16:31
There's something wrongλανθασμένος about this personπρόσωπο.
363
966000
2000
"Κάτι δεν πάει καλά μ' αυτόν τον άνθρωπο."
16:33
And that's because you're makingκατασκευή a predictionπροφητεία.
364
968000
2000
Αυτό συμβαίνει επειδή κάνετε μια πρόβλεψη.
16:35
It's not like you just look over there and say, what am I seeingβλέπων now?
365
970000
2000
Δεν είναι ότι κοιτάζετε και σκέφτεστε "Τι βλέπω τώρα;"
16:37
A noseμύτη, that's okay. No, you have an expectationπροσδοκία of what you're going to see.
366
972000
3000
"Α, είναι μια μύτη, εντάξει". -Όχι, έχετε συγκεκριμένη προσδοκία γι' αυτό που θα δείτε.
16:40
(LaughterΤο γέλιο)
367
975000
1000
(Γέλια)
16:41
EveryΚάθε singleμονόκλινο momentστιγμή. And finallyτελικά, let's think about how we testδοκιμή intelligenceνοημοσύνη.
368
976000
4000
Αυτό συμβαίνει κάθε στιγμή. Τέλος, ας σκεφτούμε πώς ελέγχουμε την ευφυΐα.
16:45
We testδοκιμή it by predictionπροφητεία. What is the nextεπόμενος wordλέξη in this, you know?
369
980000
3000
Την ελέγχουμε με την πρόβλεψη: Ποια είναι η επόμενη λέξη εδώ
16:48
This is to this as this is to this. What is the nextεπόμενος numberαριθμός in this sentenceπερίοδος?
370
983000
3000
αυτό είναι για εκείνο, ότι αυτό για το άλλο. Ποιος είναι ο επόμενος αριθμός;
16:51
Here'sΕδώ είναι threeτρία visionsοράματα of an objectαντικείμενο.
371
986000
2000
Βλέπουμε τρεις πλευρές ενός αντικειμένου.
16:53
What's the fourthτέταρτος one? That's how we testδοκιμή it. It's all about predictionπροφητεία.
372
988000
4000
Ποιά είναι η τέταρτη. Έτσι την ελέγχουμε. Αφορά την πρόβλεψη.
16:57
So what is the recipeσυνταγή for brainεγκέφαλος theoryθεωρία?
373
992000
3000
Ποια είναι λοιπόν η συνταγή για μια θεωρία που αφορά τον εγκέφαλο;
17:00
First of all, we have to have the right frameworkδομή.
374
995000
3000
Πρωτίστως χρειαζόμαστε το κατάλληλο πλαίσιο εργασίας.
17:03
And the frameworkδομή is a memoryμνήμη frameworkδομή,
375
998000
2000
Αυτό το πλαίσιο είναι πλαίσιο μνήμης,
17:05
not a computationυπολογισμός or behaviorη ΣΥΜΠΕΡΙΦΟΡΑ frameworkδομή. It's a memoryμνήμη frameworkδομή.
376
1000000
2000
δεν είναι υπολογισμός ή συμπεριφορά. Είναι μνήμη.
17:07
How do you storeκατάστημα and recallανάκληση these sequencesακολουθίες or patternsσχέδια? It's spatio-temporalχωρο-χρονική patternsσχέδια.
377
1002000
4000
Πώς αποθηκεύονται και ανακαλώνται αυτές οι αλληλουχίες μοτίβων. Είναι χωροχρονικά μοτίβα.
17:11
Then, if in that frameworkδομή, you take a bunchδέσμη of theoreticiansθεωρητικοί.
378
1006000
3000
Έπειτα μέσα σε αυτό το πλαίσιο βάζεις ένα μάτσο θεωρητικούς.
17:14
Now biologistsβιολόγους generallyγενικά are not good theoreticiansθεωρητικοί.
379
1009000
2000
Οι βιολόγοι δεν είναι καλοί θεωρητικοί.
17:16
It's not always trueαληθής, but in generalγενικός, there's not a good historyιστορία of theoryθεωρία in biologyβιολογία.
380
1011000
4000
Δεν είναι πάντα αλήθεια, αλλά κατά κανόνα, δεν υπάρχει καλό ιστορικό θεωρίας στο χώρο της βιολογίας.
17:20
So I foundβρέθηκαν the bestκαλύτερος people to work with are physicistsφυσικοί,
381
1015000
3000
Βρήκα πως οι καταλληλότεροι είναι οι φυσικοί,
17:23
engineersμηχανικούς and mathematiciansμαθηματικοί, who tendτείνω to think algorithmicallyαλγοριθμικά.
382
1018000
3000
οι μηχανικοί και οι μαθηματικοί, που τείνουν να σκέφτονται αλγοριθμικά.
17:26
Then they have to learnμαθαίνω the anatomyανατομία, and they'veέχουν got to learnμαθαίνω the physiologyφισιολογία.
383
1021000
3000
Έπειτα πρέπει να μάθουν ανατομία και φυσιολογία.
17:29
You have to make these theoriesθεωρίες very realisticρεαλιστική in anatomicalανατομικός termsόροι.
384
1024000
4000
Πρέπει αυτές οι θεωρίες να γίνουν πολύ ρεαλιστικές από άποψη ανατομίας.
17:33
AnyoneΚάποιος who getsπαίρνει up and tellsλέει you theirδικα τους theoryθεωρία about how the brainεγκέφαλος worksεργοστάσιο
385
1028000
4000
Όποιος σας πει μια θεωρία για τη λειτουργία του εγκεφάλου
17:37
and doesn't tell you exactlyακριβώς how it's workingεργαζόμενος in the brainεγκέφαλος
386
1032000
2000
και δε σας πει επακριβώς πώς λειτουργεί στον εγκέφαλο
17:39
and how the wiringκαλωδίωση worksεργοστάσιο in the brainεγκέφαλος, it is not a theoryθεωρία.
387
1034000
2000
και πως λειτουργούν οι συνδέσεις στον εγκέφαλο, δεν είναι αυτή θεωρία.
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceΝευροεπιστήμη InstituteΙνστιτούτο.
388
1036000
3000
Αυτό κάνουμε στο Ινστιτούτο Νευροανατομίας του Ρέντγουντ.
17:44
I would love to have more time to tell you we're makingκατασκευή fantasticφανταστικός progressπρόοδος in this thing,
389
1039000
4000
Θα ήθελα να είχα περισσότερο χρόνο να σας πω για τις φανταστικές προόδους που γίνονται,
17:48
and I expectαναμένω to be back up on this stageστάδιο,
390
1043000
2000
και ελπίζω να βρεθώ ξανά σ' αυτή τη σκηνή,
17:50
maybe this will be some other time in the not too distantμακρινός futureμελλοντικός and tell you about it.
391
1045000
2000
κάποια στιγμή στο όχι και τόσο μακρινό μέλλον, να σας μιλήσω για όλα αυτά.
17:52
I'm really, really excitedερεθισμένος. This is not going to take 50 yearsχρόνια at all.
392
1047000
3000
Είναι στ' αλήθεια ενθουσιασμένος. Δεν πρόκειται να χρειαστούν άλλα 50 χρόνια.
17:55
So what will brainεγκέφαλος theoryθεωρία look like?
393
1050000
2000
Πώς θα είναι αυτή η θεωρία;
17:57
First of all, it's going to be a theoryθεωρία about memoryμνήμη.
394
1052000
2000
Θα είναι μια θεωρία για τη μνήμη.
17:59
Not like computerυπολογιστή memoryμνήμη. It's not at all like computerυπολογιστή memoryμνήμη.
395
1054000
3000
Όχι σαν τη μνήμη του υπολογιστή. Δεν μοιάζει καθόλου με αυτή τη μνήμη.
18:02
It's very, very differentδιαφορετικός. And it's a memoryμνήμη of these very
396
1057000
2000
Είναι πολύ-πολύ διαφορετική. Είναι η μνήμη αυτών των
18:04
high-dimensionalυψηλής διαστάσεων patternsσχέδια, like the things that come from your eyesμάτια.
397
1059000
3000
πολυδιάστατων μοτίβων, σαν αυτά που προέρχονται από τα μάτια σας.
18:07
It's alsoεπίσης memoryμνήμη of sequencesακολουθίες.
398
1062000
2000
Είναι επίσης μια μνήμη αλληλουχιών.
18:09
You cannotδεν μπορώ learnμαθαίνω or recallανάκληση anything outsideεξω απο of a sequenceαλληλουχία.
399
1064000
2000
Δε μπορείτε να μάθετε ή να θυμηθείτε οτιδήποτε έξω από μια αλληλουχία.
18:11
A songτραγούδι mustπρέπει be heardακούσει in sequenceαλληλουχία over time,
400
1066000
3000
Ένα τραγούδι πρέπει να ακούγεται σε αλληλουχία στο χρόνο,
18:14
and you mustπρέπει playπαίζω it back in sequenceαλληλουχία over time.
401
1069000
3000
και πρέπει να αναπαράγεται σε αλληλουχία στο χρόνο.
18:17
And these sequencesακολουθίες are auto-associativelyAuto-συνειρμικά recalledυπενθύμισε, so if I see something,
402
1072000
3000
Αυτές οι αλληλουχίες είναι αυτό-συσχετιζόμενα ανακληθείσες, έτσι αν δω κάτι,
18:20
I hearακούω something, it remindsυπενθυμίζει me of it, and then it playsπαίζει back automaticallyαυτομάτως.
403
1075000
3000
ή ακούσω κάτι, να μου το θυμίσουν και να αναπαράγεται αυτόματα.
18:23
It's an automaticΑυτόματη playbackαναπαραγωγή. And predictionπροφητεία of futureμελλοντικός inputsεισόδους is the desiredεπιθυμητό outputπαραγωγή.
404
1078000
4000
Είναι αυτόματη αναπαραγωγή. Και οι μελλοντικές προβλέψεις είναι το επιθυμητό εξαγόμενο δεδομένο.
18:27
And as I said, the theoryθεωρία mustπρέπει be biologicallyβιολογικά accurateακριβής,
405
1082000
3000
Όπως είπα, η θεωρία πρέπει να είναι βιολογικά ακριβής,
18:30
it mustπρέπει be testableδοκιμάσιμος, and you mustπρέπει be ableικανός to buildχτίζω it.
406
1085000
2000
πειραματικά ελέγξιμη και να μπορεί να κατασκευαστεί.
18:32
If you don't buildχτίζω it, you don't understandκαταλαβαίνουν it. So, one more slideολίσθηση here.
407
1087000
4000
Εάν δεν κατασκευαστεί, δε μπορεί να γίνει κατανοητή. Άλλη μια εικόνα εδώ.
18:36
What is this going to resultαποτέλεσμα in? Are we going to really buildχτίζω intelligentέξυπνος machinesμηχανές?
408
1091000
4000
Τι αποτέλεσμα θα έχει αυτό; Πρόκειται πράγματι να κατασκευάσουμε έξυπνες μηχανές;
18:40
AbsolutelyΑπολύτως. And it's going to be differentδιαφορετικός than people think.
409
1095000
4000
Αναμφίβολα. Και θα είναι διαφορετικές απ' ότι πιστεύει ο κόσμος.
18:44
No doubtαμφιβολία that it's going to happenσυμβεί, in my mindμυαλό.
410
1099000
3000
Δεν υπάρχει καμία αμφιβολία στο μυαλό μου, ότι αυτό πρόκειται να συμβεί.
18:47
First of all, it's going to be builtχτισμένο up, we're going to buildχτίζω the stuffυλικό out of siliconπυρίτιο.
411
1102000
4000
Πρώτα θα κατασκευαστεί από σιλικόνη.
18:51
The sameίδιο techniquesτεχνικές we use for buildingΚτίριο siliconπυρίτιο computerυπολογιστή memoriesαναμνήσεις,
412
1106000
3000
Η ίδια τεχνική που χρησιμοποιούμε για να κατασκευάσουμε μνήμες υπολογιστών,
18:54
we can use for here.
413
1109000
1000
μπορεί να χρησιμοποιηθεί κι εδώ.
18:55
But they're very differentδιαφορετικός typesτύπους of memoriesαναμνήσεις.
414
1110000
2000
Αλλά είναι πολύ διαφορετικά είδη μνήμης.
18:57
And we're going to attachσυνδέω these memoriesαναμνήσεις to sensorsΑισθητήρες,
415
1112000
2000
Θα συνδέσουμε αυτές τις μνήμες πάνω σε αισθητήρες,
18:59
and the sensorsΑισθητήρες will experienceεμπειρία real-liveπραγματική-live, real-worldπραγματικό κόσμο dataδεδομένα,
416
1114000
3000
και οι αισθητήρες θα δέχονται ζωντανά, αληθινά δεδομένα,
19:02
and these things are going to learnμαθαίνω about theirδικα τους environmentπεριβάλλον.
417
1117000
2000
έτσι θα μάθουν για το περιβάλλον τους.
19:04
Now it's very unlikelyαπίθανος the first things you're going to see are like robotsρομπότ.
418
1119000
3000
Είναι αμφίβολο αν τα πρώτα που θα δείτε θα μοιάζουν με ρομπότ.
19:07
Not that robotsρομπότ aren'tδεν είναι usefulχρήσιμος and people can buildχτίζω robotsρομπότ.
419
1122000
3000
Όχι ότι δεν είναι χρήσιμα τα ρομπότ και δε μπορούμε να τα κατασκευάσουμε.
19:10
But the roboticsΡομποτική partμέρος is the hardestπιο δύσκολο partμέρος. That's the oldπαλαιός brainεγκέφαλος. That's really hardσκληρά.
420
1125000
4000
Αλλά το κομμάτι της ρομποτικής είναι το δυσκολότερο. Είναι ο παλαιός εγκέφαλος.
19:14
The newνέος brainεγκέφαλος is actuallyπράγματι kindείδος of easierευκολότερη than the oldπαλαιός brainεγκέφαλος.
421
1129000
2000
Ο νέος εγκέφαλος είναι ευκολότερο να κατασκευαστεί.
19:16
So the first thing we're going to do are the things that don't requireαπαιτώ a lot of roboticsΡομποτική.
422
1131000
3000
Τα πρώτα που θα φτιάξουμε δε θα απαιτούν πολλά στοιχεία ρομποτικής.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Δε πρόκειται να δείτε τον C-3PO.
19:21
You're going to more see things like, you know, intelligentέξυπνος carsαυτοκίνητα
424
1136000
2000
Θα δείτε πράγματα όπως έξυπνα αυτοκίνητα
19:23
that really understandκαταλαβαίνουν what trafficΚΙΝΗΣΗ στους ΔΡΟΜΟΥΣ is and what drivingοδήγηση is
425
1138000
3000
που καταλαβαίνουν την κίνηση και την οδήγηση
19:26
and have learnedέμαθα that certainβέβαιος typesτύπους of carsαυτοκίνητα with the blinkersπαρωπίδες on for halfΉμισυ a minuteλεπτό
426
1141000
3000
και έχουν μάθει οτι συγκεκριμένοι τύποι αυτοκινήτων με τα φλας αναμμένα για μισό λεπτό
19:29
probablyπιθανώς aren'tδεν είναι going to turnστροφή, things like that.
427
1144000
2000
...μάλλον δε θα στρίψουν, τέτοια πράγματα.
19:31
(LaughterΤο γέλιο)
428
1146000
1000
(Γέλια)
19:32
We can alsoεπίσης do intelligentέξυπνος securityασφάλεια systemsσυστήματα.
429
1147000
2000
Μπορούμε επίσης να φτιάξουμε έξυπνα συστήματα ασφαλείας.
19:34
AnywhereΟπουδήποτε where we're basicallyβασικα usingχρησιμοποιώντας our brainεγκέφαλος, but not doing a lot of mechanicsμηχανική.
430
1149000
4000
Οπουδήποτε χρησιμοποιούμε τον εγκέφαλό μας, χωρίς ιδιαίτερη μηχανική εφαρμογή.
19:38
Those are the things that are going to happenσυμβεί first.
431
1153000
2000
Αυτά θα συμβούν πρώτα.
19:40
But ultimatelyτελικά, the world'sτου κόσμου the limitόριο here.
432
1155000
2000
Αλλά εν τέλει, η ανθρωπότητα είναι το όριο εδώ.
19:42
I don't know how this is going to turnστροφή out.
433
1157000
2000
Δε ξέρω ποια θα είναι η έκβαση.
19:44
I know a lot of people who inventedεφευρέθηκε the microprocessorμικροεπεξεργαστής
434
1159000
2000
Ξέρω πολλούς από τους εφευρέτες των μικροεπεξεργαστών
19:46
and if you talk to them, they knewήξερε what they were doing was really significantσημαντικός,
435
1161000
5000
αν συζητήσετε μαζί τους, ήξεραν πως αυτό που έφτιαχναν ήταν σημαντικό,
19:51
but they didn't really know what was going to happenσυμβεί.
436
1166000
3000
αλλά δεν ήξεραν τι επρόκειτο να συμβεί.
19:54
They couldn'tδεν μπορούσε anticipateπροσδοκώ cellκύτταρο phonesτηλεφώνων and the InternetΣτο διαδίκτυο and all this kindείδος of stuffυλικό.
437
1169000
5000
Δε μπορούσαν να προβλέψουν τα κινητά τηλέφωνα, το ίντερνετ και όλα αυτά τα πράγματα.
19:59
They just knewήξερε like, hey, they were going to buildχτίζω calculatorsυπολογιστές
438
1174000
2000
Αυτοί ήξεραν πως έφτιαχναν υπολογιστές
20:01
and trafficΚΙΝΗΣΗ στους ΔΡΟΜΟΥΣ lightφως controllersελεγκτές. But it's going to be bigμεγάλο.
439
1176000
2000
και ελεγκτές φωτεινών σηματοδοτών. -Θα είναι κάτι μεγάλο.
20:03
In the sameίδιο way, this is like brainεγκέφαλος scienceεπιστήμη and these memoriesαναμνήσεις
440
1178000
3000
Με τον ίδιο τρόπο είναι σαν την Νευροεπιστήμη και αυτές οι μνήμες
20:06
are going to be a very fundamentalθεμελιώδης technologyτεχνολογία, and it's going to leadΟΔΗΓΩ
441
1181000
3000
θα αποτελέσουν θεμελιώδη τεχνολογία, που θα ηγηθεί
20:09
to very unbelievableαπίστευτος changesαλλαγές in the nextεπόμενος 100 yearsχρόνια.
442
1184000
3000
απίστευτων αλλαγών τα επόμενα 100 χρόνια.
20:12
And I'm mostπλέον excitedερεθισμένος about how we're going to use them in scienceεπιστήμη.
443
1187000
4000
Είμαι ενθουσιασμένος για τη χρήση που θα κάνουμε στις επιστήμες.
20:16
So I think that's all my time, I'm over it, and I'm going to endτέλος my talk
444
1191000
3000
Νομίζω πως δεν έχω άλλο χρόνο, θα τελειώσω την ομιλία μου εδώ.
20:19
right there.
445
1194000
1000
-

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com