ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Bereit für das hybride Denken?

Filmed:
3,548,296 views

Vor zweihundert Millionen Jahren entwickelte sich bei den ersten Säugetieren ein neues Bestandteil im Gehirn: der Neokortex. Dieses Gewebe in der Größe einer Briefmarke umhüllte ihr walnussgroßes Gehirn und ist der Schlüssel zur Entwicklungsgeschichte der Menschheit. Zukunftsforscher Ray Kurzweil sagt den nächsten großen Sprung unserer geistigen Leistungsfähigkeit voraus, der durch die Einbindung der Rechenleistung in der Cloud möglich sein wird.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyGeschichte.
0
988
2316
Ich erzähle Ihnen eine Geschichte,
die sich vor 200 Mio. Jahren abspielte.
00:15
It goesgeht back 200 millionMillion yearsJahre.
1
3304
1799
00:17
It's a storyGeschichte of the neocortexNeocortex,
2
5103
1984
Es ist die Geschichte des Neokortex,
was so viel wie "Neurinde" heißt.
00:19
whichwelche meansmeint "newneu rindRinde."
3
7087
1974
00:21
So in these earlyfrüh mammalsSäugetiere,
4
9061
2431
Bei den frühen Säugetieren
00:23
because only mammalsSäugetiere have a neocortexNeocortex,
5
11492
2055
-- nur Säugetiere haben einen Neokortex --
00:25
rodent-likeNagetier-wie creaturesKreaturen.
6
13547
1664
sie sahen aus wie Nagetiere,
00:27
It was the sizeGröße of a postagePorto stampBriefmarke and just as thindünn,
7
15211
3579
war der Neokortex so klein und dünn
wie eine Briefmarke.
00:30
and was a thindünn coveringVerkleidung around
8
18790
1439
Es war eine dünne Schicht,
die ihr walnussgroßes Gehirn umgab.
00:32
theirihr walnut-sizedwalnussgroße brainGehirn,
9
20229
2264
00:34
but it was capablefähig of a newneu typeArt of thinkingDenken.
10
22493
3701
Das gab ihnen die Möglichkeit,
auf eine ganz neue Weise zu denken.
00:38
RatherVielmehr than the fixedFest behaviorsVerhaltensweisen
11
26194
1567
Über die festen Verhaltensweisen
der Nicht-Säugetiere hinaus
00:39
that non-mammaliannicht-Säugetier animalsTiere have,
12
27761
1992
00:41
it could inventerfinden newneu behaviorsVerhaltensweisen.
13
29753
2692
ermöglichte der Neokortex
ganz neue Verhaltensweisen.
00:44
So a mouseMaus is escapingFlucht a predatorPredator,
14
32445
2553
Flieht eine Maus vor einem Raubtier
und der Weg ist versperrt,
00:46
its pathPfad is blockedverstopft,
15
34998
1540
00:48
it'lles wird try to inventerfinden a newneu solutionLösung.
16
36538
2129
sucht sie eine neue Lösung.
00:50
That maykann work, it maykann not,
17
38667
1266
Funktioniert diese,
00:51
but if it does, it will remembermerken that
18
39933
1910
wird sich die Maus dieses Verhalten
aneignen und daraus lernen.
00:53
and have a newneu behaviorVerhalten,
19
41843
1292
00:55
and that can actuallytatsächlich spreadVerbreitung virallyViral
20
43135
1457
In der Tat kann sich diese wie ein Virus
im gesamten Mäusebau verbreiten.
00:56
throughdurch the restsich ausruhen of the communityGemeinschaft.
21
44592
2195
Eine andere Maus denkt sich z. B.:
00:58
AnotherEin weiterer mouseMaus watchingAufpassen this could say,
22
46787
1609
01:00
"Hey, that was prettyziemlich cleverklug, going around that rockRock,"
23
48396
2704
"Hey, es war schlau,
um den Felsen herumzulaufen",
01:03
and it could adoptadoptieren a newneu behaviorVerhalten as well.
24
51100
3725
und übernimmt das gleiche Verhalten.
01:06
Non-mammalianNicht-Säugetier animalsTiere
25
54825
1717
Nicht-Säugetiere konnten das aber nicht.
Ihr Verhalten war festgelegt.
01:08
couldn'tkonnte nicht do any of those things.
26
56542
1713
01:10
They had fixedFest behaviorsVerhaltensweisen.
27
58255
1215
01:11
Now they could learnlernen a newneu behaviorVerhalten
28
59470
1331
Sie konnten zwar neue Verhaltensweisen
lernen, aber nicht im Laufe eines Lebens.
01:12
but not in the courseKurs of one lifetimeLebenszeit.
29
60801
2576
01:15
In the courseKurs of maybe a thousandtausend lifetimesLebenszeiten,
30
63377
1767
Nur im Laufe von tausend Generationen
kann sich ein neues Verhalten entwickeln.
01:17
it could evolveentwickeln a newneu fixedFest behaviorVerhalten.
31
65144
3330
01:20
That was perfectlyperfekt okay 200 millionMillion yearsJahre agovor.
32
68474
3377
Vor 200 Mio. Jahren war das gut genug,
da sich die Umwelt nur langsam veränderte.
01:23
The environmentUmwelt changedgeändert very slowlylangsam.
33
71851
1981
Eine wesentliche Veränderung
brauchte vielleicht 10 000 Jahre,
01:25
It could take 10,000 yearsJahre for there to be
34
73832
1554
01:27
a significantsignifikant environmentalUmwelt changeVeränderung,
35
75386
2092
und dann gab es auch genug Zeit,
um neue Verhaltensweisen zu entwickeln.
01:29
and duringwährend that periodPeriode of time
36
77478
1382
01:30
it would evolveentwickeln a newneu behaviorVerhalten.
37
78860
2929
Das lief eine ganze Zeit gut,
aber dann geschah etwas.
01:33
Now that wentging alongeine lange fine,
38
81789
1521
01:35
but then something happenedpassiert.
39
83310
1704
01:37
Sixty-fiveFünfundsechzig millionMillion yearsJahre agovor,
40
85014
2246
Vor 65 Mio. Jahren gab es eine plötzliche,
gewaltige Veränderung in der Umwelt:
01:39
there was a suddenplötzlich, violentheftig
changeVeränderung to the environmentUmwelt.
41
87260
2615
01:41
We call it the CretaceousKreidezeit extinctionAussterben eventEvent.
42
89875
3505
das "Große Aussterben" in der Kreidezeit.
01:45
That's when the dinosaursDinosaurier wentging extinctausgestorben,
43
93380
2293
Damals starben auch die Dinosaurier,
zusammen mit 75% aller Tiere und Pflanzen.
01:47
that's when 75 percentProzent of the
44
95673
3449
01:51
animalTier and plantPflanze speciesSpezies wentging extinctausgestorben,
45
99122
2746
Die Säugetiere übernahmen dann
ihre ökologische Nische.
01:53
and that's when mammalsSäugetiere
46
101868
1745
01:55
overtooküberholte theirihr ecologicalökologisch nicheNische,
47
103613
2152
01:57
and to anthropomorphizeVermenschlichung, biologicalbiologisch evolutionEvolution said,
48
105765
3654
Wäre die Evolution ein Mensch,
hätte sie zu sich gesagt:
02:01
"HmmHmm, this neocortexNeocortex is prettyziemlich good stuffSachen,"
49
109419
2025
"Hm, dieser Neokortex ist echt cool"
und begann ihn weiterzuentwickeln.
02:03
and it beganbegann to growgrößer werden it.
50
111444
1793
Die Säugetiere wurden größer,
ihr Gehirn wuchs noch schneller,
02:05
And mammalsSäugetiere got biggergrößer,
51
113237
1342
02:06
theirihr brainsGehirne got biggergrößer at an even fasterschneller paceTempo,
52
114579
2915
02:09
and the neocortexNeocortex got biggergrößer even fasterschneller than that
53
117494
3807
und ihr Neokortex sogar noch schneller.
Dabei entwickelte er diese
markanten Hügel und Windungen,
02:13
and developedentwickelt these distinctivemarkant ridgesGrate and foldsFalten
54
121301
2929
02:16
basicallyGrundsätzlich gilt to increaseerhöhen, ansteigen its surfaceOberfläche areaBereich.
55
124230
2881
vor allem, um seinen
Oberflächenumfang zu erhöhen.
02:19
If you tookdauerte the humanMensch neocortexNeocortex
56
127111
1819
Würde man den menschlichen Neokortex
auseinanderfalten,
02:20
and stretchedgestreckt it out,
57
128930
1301
wäre er so groß wie eine Tischdecke.
02:22
it's about the sizeGröße of a tableTabelle napkinServiette,
58
130231
1713
02:23
and it's still a thindünn structureStruktur.
59
131944
1306
Es ist ein dünnes Gewebe,
eben wie eine Tischdecke.
02:25
It's about the thicknessDicke of a tableTabelle napkinServiette.
60
133250
1980
Der Neokortex hat aber so viele Windungen,
dass er 80 % unseres Gehirns ausmacht.
02:27
But it has so manyviele convolutionsWindungen and ridgesGrate
61
135230
2497
02:29
it's now 80 percentProzent of our brainGehirn,
62
137727
3075
Dort geschieht unser Denken,
und er verfeinert unsere Gedanken.
02:32
and that's where we do our thinkingDenken,
63
140802
2461
02:35
and it's the great sublimatorSublimator.
64
143263
1761
02:37
We still have that oldalt brainGehirn
65
145024
1114
Wir haben immer noch unser altes Hirn,
wo unsere Triebe und Antriebe entstehen.
02:38
that providesbietet our basicBasic drivesfährt and motivationsMotivationen,
66
146138
2764
02:40
but I maykann have a driveFahrt for conquestEroberung,
67
148902
2716
Wenn ich aber einen Eroberungsdrang spüre,
veredelt ihn der Neokortex,
02:43
and that'lldas werde be sublimatedsublimiert by the neocortexNeocortex
68
151618
2715
02:46
into writingSchreiben a poemGedicht or inventingerfinden an appApp
69
154333
2909
und ich schreibe ein Gedicht,
erfinde eine App
02:49
or givinggeben a TEDTED Talk,
70
157242
1509
oder halte einen TED-Vortrag.
02:50
and it's really the neocortexNeocortex that's where
71
158751
3622
Dahinter steckt der Neokortex --
dort geht alles ab.
02:54
the actionAktion is.
72
162373
1968
Vor 50 Jahren beschrieb ich,
02:56
FiftyFünfzig yearsJahre agovor, I wroteschrieb a paperPapier-
73
164341
1717
02:58
describingbeschreibend how I thought the brainGehirn workedhat funktioniert,
74
166058
1918
wie das Gehirn funktioniert.
02:59
and I describedbeschrieben it as a seriesSerie of modulesModule.
75
167976
3199
Demnach besteht
das Gehirn aus Bestandteilen
und jedes wendet bestimmte
Verhaltensmuster an.
03:03
EachJedes moduleModul could do things with a patternMuster.
76
171175
2128
03:05
It could learnlernen a patternMuster. It could remembermerken a patternMuster.
77
173303
2746
Es kann sich Muster aneignen und abrufen
und neue Verhaltensmuster entwickeln.
03:08
It could implementimplementieren a patternMuster.
78
176049
1407
03:09
And these modulesModule were organizedorganisiert in hierarchiesHierarchien,
79
177456
2679
Diese Bestandteile sind
hierarchisch angeordnet,
03:12
and we createderstellt that hierarchyHierarchie with our ownbesitzen thinkingDenken.
80
180135
2954
und diese Hierarchie bauen
wir selbst gedanklich auf.
03:15
And there was actuallytatsächlich very little to go on
81
183089
3333
Aber vor 50 Jahren gab es wenig,
woran wir anknüpfen könnten,
03:18
50 yearsJahre agovor.
82
186422
1562
ich traf zwar Präsident Johnson ...
03:19
It led me to meetTreffen PresidentPräsident JohnsonJohnson.
83
187984
2115
Aber 50 Jahre lang machte ich mir
weiter Gedanken dazu.
03:22
I've been thinkingDenken about this for 50 yearsJahre,
84
190099
2173
03:24
and a yearJahr and a halfHälfte agovor I camekam out with the bookBuch
85
192272
2828
Vor anderthalb Jahren
veröffentlichte ich das Buch
"Das Geheimnis des menschlichen Denkens".
03:27
"How To CreateErstellen A MindGeist,"
86
195100
1265
03:28
whichwelche has the samegleich thesisThese,
87
196365
1613
Darin vertrete ich dieselbe These --
nun durch zahlreiche Belege untermauert.
03:29
but now there's a plethoraFülle of evidenceBeweise.
88
197978
2812
Jedes Jahr liefert die Neurowissenschaft
doppelt so viele Daten über das Gehirn.
03:32
The amountMenge of dataDaten we're gettingbekommen about the brainGehirn
89
200790
1814
03:34
from neuroscienceNeurowissenschaften is doublingVerdoppelung everyjeden yearJahr.
90
202604
2203
03:36
SpatialRäumliche resolutionAuflösung of brainscanningbrainscanning of all typesTypen
91
204807
2654
Jedes Jahr verdoppelt sich die Auflösung
der bildgebenden Verfahren aller Art.
03:39
is doublingVerdoppelung everyjeden yearJahr.
92
207461
2285
Heute können wir die Nervenzellen
dabei beobachten,
03:41
We can now see insideinnen a livingLeben brainGehirn
93
209746
1717
03:43
and see individualPerson interneuralinterneural connectionsVerbindungen
94
211463
2870
wie sie sich miteinander verbinden,
und dies in Echtzeit.
03:46
connectingVerbindung in realecht time, firingfeuern in realecht time.
95
214333
2703
Wir können sehen,
wie im Gehirn Gedanken entstehen,
03:49
We can see your brainGehirn createerstellen your thoughtsGedanken.
96
217036
2419
03:51
We can see your thoughtsGedanken createerstellen your brainGehirn,
97
219455
1575
wie es selbst daraus entsteht
und demnach, wie es funktioniert.
03:53
whichwelche is really keySchlüssel to how it worksWerke.
98
221030
1999
Lassen Sie mich dies kurz erläutern.
03:55
So let me describebeschreiben brieflykurz how it worksWerke.
99
223029
2219
03:57
I've actuallytatsächlich countedgezählt these modulesModule.
100
225248
2275
Ich habe diese Bestandteile gezählt.
03:59
We have about 300 millionMillion of them,
101
227523
2046
Wir haben etwa 300 Mio. davon,
und wir bauen sie hierarchisch auf.
04:01
and we createerstellen them in these hierarchiesHierarchien.
102
229569
2229
Ich gebe Ihnen ein einfaches Beispiel.
04:03
I'll give you a simpleeinfach exampleBeispiel.
103
231798
2082
04:05
I've got a bunchBündel of modulesModule
104
233880
2805
Ich habe eine Handvoll Bestandteile,
04:08
that can recognizeerkenne the crossbarQuerstange to a capitalHauptstadt A,
105
236685
3403
mit denen wir den waagerechten Balken
im Buchstaben "A" erkennen.
04:12
and that's all they carePflege about.
106
240088
1914
Das ist alles, was sie interessiert.
04:14
A beautifulschön songLied can playspielen,
107
242002
1578
Es läuft ein schönes Lied oder
ein schönes Mädchen vorbei --
04:15
a prettyziemlich girlMädchen could walkgehen by,
108
243580
1434
04:17
they don't carePflege, but they see
a crossbarQuerstange to a capitalHauptstadt A,
109
245014
2846
das ist ihnen egal.
Aber sehen sie den Balken in einem "A",
rufen sie entzückt "Balken!"
04:19
they get very excitedaufgeregt and they say "crossbarQuerstange,"
110
247860
3021
04:22
and they put out a highhoch probabilityWahrscheinlichkeit
111
250881
2112
und stellen ihre Neuraxonen
auf "hohe Wahrscheinlichkeit" um.
04:24
on theirihr outputAusgabe axonAxon.
112
252993
1634
Dies geht auf die nächste Ebene über.
04:26
That goesgeht to the nextNächster levelEbene,
113
254627
1333
04:27
and these layersLagen are organizedorganisiert in conceptualBegriffs levelsEbenen.
114
255960
2750
Jede Ebene entspricht
einer konzeptuellen Ebene.
04:30
EachJedes is more abstractabstrakt than the nextNächster one,
115
258710
1856
Die Ebenen werden immer abstrakter.
04:32
so the nextNächster one mightMacht say "capitalHauptstadt A."
116
260566
2418
Die nächste Ebene könnte z. B.
"Großbuchstabe A!" ausrufen.
04:34
That goesgeht up to a higherhöher
levelEbene that mightMacht say "AppleApple."
117
262984
2891
Dann geht es zur nächsten Ebene,
wo es "Apfel" heißt.
04:37
InformationInformationen flowsFlüsse down alsoebenfalls.
118
265875
2167
Die Information fließt aber
auch nach unten.
Sobald das entsprechende Bestandteil
die Folge A-P-F-E erkennt,
04:40
If the appleApfel recognizerErkennungsmodul has seengesehen A-P-P-LA-P-P-L,
119
268042
2936
04:42
it'lles wird think to itselfselbst, "HmmHmm, I
think an E is probablywahrscheinlich likelywahrscheinlich,"
120
270978
3219
mag es zu sich sagen:
"Hm, jetzt kommt wahrscheinlich ein L".
Dann schickt es ein Signal
an alle Bestandteile zur L-Erkennung:
04:46
and it'lles wird sendsenden a signalSignal down to all the E recognizersErkennungsmodule
121
274197
2564
04:48
sayingSprichwort, "Be on the lookoutSuche for an E,
122
276761
1619
"Haltet Ausschau nach einem L,
es kommt vielleicht eins."
04:50
I think one mightMacht be comingKommen."
123
278380
1556
04:51
The E recognizersErkennungsmodule will lowerniedriger theirihr thresholdSchwelle
124
279936
2843
Daraufhin senken diese Bestandteile
den Schwellenwert für das L
04:54
and they see some sloppyschlampig
thing, could be an E.
125
282779
1945
und erkennen auch ein schwammiges L.
04:56
OrdinarilyNormalerweise you wouldn'twürde nicht think so,
126
284724
1490
Sonst würden sie es nicht tun,
aber man erwartet ein L:
04:58
but we're expectingerwartet an E, it's good enoughgenug,
127
286214
2009
"Ja, ich habe ein L gesehen".
05:00
and yeah, I've seengesehen an E, and then appleApfel sayssagt,
128
288223
1817
Das "Apfel-Bestandteil" entgegnet:
"Ja, es ist das Wort APFEL."
05:02
"Yeah, I've seengesehen an AppleApple."
129
290040
1728
05:03
Go up anotherein anderer fivefünf levelsEbenen,
130
291768
1746
Fünf Ebenen höher
ist aber ziemlich weit oben.
05:05
and you're now at a prettyziemlich highhoch levelEbene
131
293514
1353
05:06
of this hierarchyHierarchie,
132
294867
1569
Bezieht man die verschiedenen Sinne ein,
05:08
and stretchstrecken down into the differentanders sensesSinne,
133
296436
2353
entdeckt man ein Bestandteil,
das ein bestimmtes Gewebe erkennt,
05:10
and you maykann have a moduleModul
that seessieht a certainsicher fabricStoff,
134
298789
2655
eine bestimmte Stimmeigenschaft
oder ein Parfüm unterscheidet,
05:13
hearshört a certainsicher voiceStimme qualityQualität,
smellsriecht a certainsicher perfumeParfüm,
135
301444
2844
05:16
and will say, "My wifeEhefrau has enteredtrat ein the roomZimmer."
136
304288
2513
und sagt dann:
"Meine Frau ist gerade herein gekommen."
05:18
Go up anotherein anderer 10 levelsEbenen, and now you're at
137
306801
1895
10 Stufen höher befindet sich
eine viel höhere Ebene.
05:20
a very highhoch levelEbene.
138
308696
1160
Wir sind womöglich im
frontalen Kortex angelangt,
05:21
You're probablywahrscheinlich in the frontalfrontal cortexKortex,
139
309856
1937
05:23
and you'lldu wirst have modulesModule that say, "That was ironicironisch.
140
311793
3767
und es gibt wohl Bestandteile, die sagen:
"Das war ironisch gemeint."
05:27
That's funnykomisch. She's prettyziemlich."
141
315560
2370
"Das ist witzig. Sie ist schön."
Man könnte meinen, diese Gedanken
seien raffinierter,
05:29
You mightMacht think that those are more sophisticatedanspruchsvoll,
142
317930
2105
05:32
but actuallytatsächlich what's more complicatedkompliziert
143
320035
1506
aber wirklich komplex sind
all die Ebenen darunter.
05:33
is the hierarchyHierarchie beneathunter them.
144
321541
2669
Es gab einmal ein 16-jähriges Mädchen,
das am Hirn operiert wurde.
05:36
There was a 16-year-old-Jahr alt girlMädchen, she had brainGehirn surgeryChirurgie,
145
324210
2620
05:38
and she was consciousbewusst because the surgeonsChirurgen
146
326830
2051
Sie war bei Bewusstsein,
weil die Chirurgen mit ihr reden wollten.
05:40
wanted to talk to her.
147
328881
1537
Dies ist möglich, weil es im Hirn
keine Schmerzrezeptoren gibt.
05:42
You can do that because there's no painSchmerz receptorsRezeptoren
148
330418
1822
05:44
in the brainGehirn.
149
332240
1038
05:45
And wheneverwann immer they stimulatedstimuliert particularinsbesondere,
150
333278
1800
Wann immer sie bestimmte Stellen
in ihrem Neokortex stimulierten,
05:47
very smallklein pointsPunkte on her neocortexNeocortex,
151
335078
2463
05:49
showngezeigt here in redrot, she would laughLachen.
152
337541
2665
die hier rot gekennzeichnet sind,
lachte sie.
Die Ärzte dachten also zunächst,
dass sie einen Lachreflex auslösten.
05:52
So at first they thought they were triggeringTriggerung
153
340206
1440
05:53
some kindArt of laughLachen reflexReflex,
154
341646
1720
05:55
but no, they quicklyschnell realizedrealisiert they had foundgefunden
155
343366
2519
Aber bald merkten sie, dass jene Stellen
im Neokortex getroffen wurden,
05:57
the pointsPunkte in her neocortexNeocortex that detecterkennen humorHumor,
156
345885
3044
die für den Humor zuständig sind,
06:00
and she just foundgefunden everything hilariousunglaublich witzig
157
348929
1969
sodass sie einfach alles witzig fand,
wenn sie diese Stellen stimulierten.
06:02
wheneverwann immer they stimulatedstimuliert these pointsPunkte.
158
350898
2437
06:05
"You guys are so funnykomisch just standingStehen around,"
159
353335
1925
"Ihr steht da so witzig herum",
meinte sie immer wieder.
06:07
was the typicaltypisch commentKommentar,
160
355260
1738
06:08
and they weren'twaren nicht funnykomisch,
161
356998
2302
Aber sie waren nicht witzig --
also nicht während des Eingriffs.
06:11
not while doing surgeryChirurgie.
162
359300
3247
06:14
So how are we doing todayheute?
163
362547
4830
Womit beschäftigt sich
die heutige Forschung?
06:19
Well, computersComputer are actuallytatsächlich beginningAnfang to masterMeister
164
367377
3054
Computer sind dabei,
die menschliche Sprache
06:22
humanMensch languageSprache with techniquesTechniken
165
370431
2001
mit ähnlichen Techniken wie
der Neokortex zu beherrschen.
06:24
that are similarähnlich to the neocortexNeocortex.
166
372432
2867
Ich beschrieb den
entsprechenden Algorithmus,
06:27
I actuallytatsächlich describedbeschrieben the algorithmAlgorithmus,
167
375299
1514
06:28
whichwelche is similarähnlich to something callednamens
168
376813
2054
der so ähnlich wie ein
Markov'sches Modell funktioniert.
06:30
a hierarchicalhierarchische hiddenversteckt MarkovMarkov modelModell-,
169
378867
2233
06:33
something I've workedhat funktioniert on sinceschon seit the '90s.
170
381100
3241
Daran habe ich
seit den 90er Jahren gearbeitet.
"Jeopardy!" ist ein ziemlich
breit gefasstes Sprachspiel,
06:36
"JeopardyGefahr" is a very broadbreit naturalnatürlich languageSprache gameSpiel,
171
384341
3238
und IBMs Computer Watson
erlangte eine höhere Punktzahl
06:39
and WatsonWatson got a higherhöher scoreErgebnis
172
387579
1892
06:41
than the bestBeste two playersSpieler combinedkombiniert.
173
389471
2000
als die besten zwei Spieler zusammen.
06:43
It got this queryAbfrage correctrichtig:
174
391471
2499
Er löste sogar diese Aufgabe korrekt:
06:45
"A long, tiresomelästige speechRede
175
393970
2085
"Die lange, ermüdende Rede
eines süßen Kuchenbelags."
06:48
deliveredgeliefert by a frothyschaumig piePie toppingTopping,"
176
396055
2152
Die prompte Antwort:
"Was ist eine Schokolade-Tirade?"
06:50
and it quicklyschnell respondedantwortete,
"What is a meringueBaiser harangueRede?"
177
398207
2796
Jennings und der andere Typ
schafften die Quizfrage aber nicht.
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
06:55
It's a prettyziemlich sophisticatedanspruchsvoll exampleBeispiel of
179
403638
1926
Dies ist ein gutes Beispiel dafür,
wie raffiniert Computer
mit Sprache umgehen können.
06:57
computersComputer actuallytatsächlich understandingVerstehen humanMensch languageSprache,
180
405564
1914
06:59
and it actuallytatsächlich got its knowledgeWissen by readingLesen
181
407478
1652
Watson lernte dies übrigens bloß aus
Wikipedia und anderen Enzyklopädien.
07:01
WikipediaWikipedia and severalmehrere other encyclopediasEnzyklopädien.
182
409130
3785
07:04
FiveFünf to 10 yearsJahre from now,
183
412915
2133
In fünf bis zehn Jahren
07:07
searchSuche enginesMotoren will actuallytatsächlich be basedbasierend on
184
415048
2184
werden Suchmaschinen nicht einfach
Wörter und Links miteinander verbinden,
07:09
not just looking for combinationsKombinationen of wordsWörter and linksLinks
185
417232
2794
sondern wirklich verstehen --
07:12
but actuallytatsächlich understandingVerstehen,
186
420026
1914
07:13
readingLesen for understandingVerstehen the billionsMilliarden of pagesSeiten
187
421940
2411
lesen, um Milliarden Seiten im Web
und aus Büchern zu verstehen.
07:16
on the webweb and in booksBücher.
188
424351
2733
Wenn wir spazieren gehen,
wird sich Google öffnen und meinen:
07:19
So you'lldu wirst be walkingGehen alongeine lange, and GoogleGoogle will popPop up
189
427084
2616
07:21
and say, "You know, MaryMary, you expressedausgedrückt concernbetreffen
190
429700
3081
"Mary, vor einem Monat hast du beklagt,
07:24
to me a monthMonat agovor that your glutathioneGlutathion supplementErgänzung
191
432781
3019
dass das Glutathion nicht vom Blut
ins Gehirn gelangen würde.
07:27
wasn'twar nicht gettingbekommen pastVergangenheit the blood-brainBlut-Hirn- barrierBarriere.
192
435800
2231
07:30
Well, newneu researchForschung just camekam out 13 secondsSekunden agovor
193
438031
2593
Vor 13 Sekunden wurde aber
eine Studie veröffentlicht,
07:32
that showszeigt an a wholeganze newneu approachAnsatz to that
194
440624
1711
in der ein neuer Ansatz zur Einnahme
von Glutathion vorgestellt wird.
07:34
and a newneu way to take glutathioneGlutathion.
195
442335
1993
07:36
Let me summarizezusammenfassen it for you."
196
444328
2562
Ich fasse ihn für dich zusammen."
07:38
TwentyZwanzig yearsJahre from now, we'llGut have nanobotsNanobots,
197
446890
3684
In 20 Jahren werden wir Nanoroboter haben,
denn eine weitere rasante Entwicklung
ist die Miniaturisierung der Technik.
07:42
because anotherein anderer exponentialexponentiell trendTrend
198
450574
1627
07:44
is the shrinkingSchrumpfung of technologyTechnologie.
199
452201
1615
07:45
They'llSie werden go into our brainGehirn
200
453816
2370
Die Roboter werden durch die Kapillare
in unserem Gehirn ankommen
07:48
throughdurch the capillariesKapillaren
201
456186
1703
07:49
and basicallyGrundsätzlich gilt connectverbinden our neocortexNeocortex
202
457889
2477
und unseren Neokortex mit einem
Neokortex in der Cloud verbinden,
07:52
to a syntheticSynthetik neocortexNeocortex in the cloudWolke
203
460366
3185
als künstliche Gehirn-Erweiterung.
07:55
providingBereitstellung an extensionErweiterung of our neocortexNeocortex.
204
463551
3591
07:59
Now todayheute, I mean,
205
467142
1578
Heute befindet sich
in jedem Handy ein Computer.
08:00
you have a computerComputer in your phoneTelefon,
206
468720
1530
Wenn man aber für eine Suche
kurz mal 10 000 Rechner braucht,
08:02
but if you need 10,000 computersComputer for a fewwenige secondsSekunden
207
470250
2754
08:05
to do a complexKomplex searchSuche,
208
473004
1495
08:06
you can accessZugriff that for a secondzweite or two in the cloudWolke.
209
474499
3396
wird man sich dafür
mit der Cloud verbinden können.
08:09
In the 2030s, if you need some extraextra neocortexNeocortex,
210
477895
3095
Wenn man in den 2030ern
ein wenig mehr Neokortex braucht,
08:12
you'lldu wirst be ablefähig to connectverbinden to that in the cloudWolke
211
480990
2273
kann man das Gehirn
direkt mit der Cloud verbinden.
08:15
directlydirekt from your brainGehirn.
212
483263
1648
Ich gehe also spazieren und merke:
08:16
So I'm walkingGehen alongeine lange and I say,
213
484911
1543
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
"Ach, da kommt ja Chris Anderson.
08:19
He's comingKommen my way.
215
487817
1525
Ich sollte mir lieber
etwas Schlaues ausdenken.
08:21
I'd better think of something cleverklug to say.
216
489342
2335
08:23
I've got threedrei secondsSekunden.
217
491677
1524
Dafür habe ich drei Sekunden.
08:25
My 300 millionMillion modulesModule in my neocortexNeocortex
218
493201
3097
Die 300 Mio. Bestandteile in
meinem Neokortex schaffen das aber nicht.
08:28
isn't going to cutschneiden it.
219
496298
1240
Ich brauche 1 Milliarde mehr."
08:29
I need a billionMilliarde more."
220
497538
1246
08:30
I'll be ablefähig to accessZugriff that in the cloudWolke.
221
498784
3323
Dann kann ich auf die Cloud zurückgreifen.
08:34
And our thinkingDenken, then, will be a hybridHybrid
222
502107
2812
Unser Denken wird also eine Mischform von
(nicht-)biologischem Denken sein,
08:36
of biologicalbiologisch and non-biologicalnicht-biologischen thinkingDenken,
223
504919
3522
wobei der nicht-biologische Teil
08:40
but the non-biologicalnicht-biologischen portionPortion
224
508441
1898
dem "Gesetz des sich beschleunigenden
Nutzens" unterworfen ist --
08:42
is subjectFach to my lawRecht of acceleratingbeschleunigend returnskehrt zurück.
225
510339
2682
08:45
It will growgrößer werden exponentiallyexponentiell.
226
513021
2239
es wird exponentiell wachsen.
08:47
And remembermerken what happensdas passiert
227
515260
2016
Erinnern Sie sich daran, was geschah,
08:49
the last time we expandederweitert our neocortexNeocortex?
228
517276
2645
als sich der Neokortex
das letzte Mal erweiterte?
Das war vor 2 Mio. Jahren.
08:51
That was two millionMillion yearsJahre agovor
229
519921
1426
Da wurden wir zu Hominiden,
entwickelten eine gewölbte Stirn.
08:53
when we becamewurde humanoidshumanoide
230
521347
1236
08:54
and developedentwickelt these largegroß foreheadsStirn.
231
522583
1594
Alle anderen Menschenaffen
haben eine schräge Stirn,
08:56
Other primatesPrimaten have a slantedschräg browBraue.
232
524177
2583
denn sie haben keinen frontalen Kortex.
08:58
They don't have the frontalfrontal cortexKortex.
233
526760
1745
09:00
But the frontalfrontal cortexKortex is not
really qualitativelyqualitativ differentanders.
234
528505
3685
Aber unser frontaler Kortex
ist qualitativ eigentlich nicht anders.
Es ist einfach eine quantitative
Erweiterung des Neokortex,
09:04
It's a quantitativequantitativ expansionErweiterung of neocortexNeocortex,
235
532190
2743
09:06
but that additionalzusätzliche quantityMenge of thinkingDenken
236
534933
2703
aber die vergrößerte Datenkapazität
ermöglichte es uns,
09:09
was the enablingAktivieren factorFaktor for us to take
237
537636
1779
09:11
a qualitativequalitative leapSprung and inventerfinden languageSprache
238
539415
3346
einen qualitativen Sprung zu machen,
und die Sprache, die Kunst,
die Wissenschaft und die Technik
09:14
and artKunst and scienceWissenschaft and technologyTechnologie
239
542761
1967
09:16
and TEDTED conferencesKonferenzen.
240
544728
1454
sowie die TED-Konferenzen zu erfinden.
09:18
No other speciesSpezies has doneerledigt that.
241
546182
2131
Das hat keine andere Spezies erreicht.
09:20
And so, over the nextNächster fewwenige decadesJahrzehnte,
242
548313
2075
Im Laufe der kommenden Jahrzehnte
werden wir das noch mal schaffen.
09:22
we're going to do it again.
243
550388
1760
09:24
We're going to again expanderweitern our neocortexNeocortex,
244
552148
2274
Wir werden unseren Neokortex
wieder erweitern,
09:26
only this time we won'tGewohnheit be limitedbegrenzt
245
554422
1756
nur werden wir dieses Mal keine räumliche
Einschränkung durch den Schädel zulassen.
09:28
by a fixedFest architecturedie Architektur of enclosureGehege.
246
556178
4280
Diesmal ist die Erweiterung grenzenlos.
09:32
It'llEs werde be expandederweitert withoutohne limitGrenze.
247
560458
3304
Die quantitative Erweiterung
wird es uns ermöglichen,
09:35
That additionalzusätzliche quantityMenge will again
248
563762
2243
09:38
be the enablingAktivieren factorFaktor for anotherein anderer qualitativequalitative leapSprung
249
566005
3005
einen qualitativen Sprung in unserer
Kultur und Technologie zu machen.
09:41
in cultureKultur and technologyTechnologie.
250
569010
1635
09:42
Thank you very much.
251
570645
2054
Vielen Dank.
(Applaus)
09:44
(ApplauseApplaus)
252
572699
3086

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com