ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Рей Курцуейл: Пригответе се за хибридно мислене

Filmed:
3,548,296 views

Преди двеста милиона години нашите предци са развили нова част на мозъка: неокортекса. Тази част от тъкан с размер на пощенска марка (обвита около мозък с размера на орех) е ключ към това, което е човечеството днес. Футуристът Рей Курцуейл теоретизира, че трябва да се подготвим за следващата голяма стъпка в мощта на мозъка, използвайки възможностите на компютрите в клауд.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyистория.
0
988
2316
Нека Ви разкажа една история.
00:15
It goesотива back 200 millionмилион yearsгодини.
1
3304
1799
Тя е от преди 200 милиона години.
00:17
It's a storyистория of the neocortexнеокортекса,
2
5103
1984
Това е история за неокортекса,
00:19
whichкойто meansсредства "newнов rindкора."
3
7087
1974
което означава "нова кора".
00:21
So in these earlyрано mammalsбозайници,
4
9061
2431
И така тези ранни бозайници,
00:23
because only mammalsбозайници have a neocortexнеокортекса,
5
11492
2055
защото само бозайниците имат неокортекс,
00:25
rodent-likeгризачи като creaturesсъздания.
6
13547
1664
гризачоподобни същества.
00:27
It was the sizeразмер of a postageпощенски услуги stampпечат and just as thinтънък,
7
15211
3579
Бил е с размера на пощенска марка и точно
толкова тънък,
00:30
and was a thinтънък coveringпокриващи around
8
18790
1439
и е бил тънко покритие около
00:32
theirтехен walnut-sizedорех големи brainмозък,
9
20229
2264
техния мозък с размер на орех,
00:34
but it was capableспособен of a newнов typeТип of thinkingмислене.
10
22493
3701
но е давал възможност за нов вид мислене.
00:38
RatherПо-скоро than the fixedопределен behaviorsповедения
11
26194
1567
Вместо фиксираните поведения,
00:39
that non-mammalianне са бозайници animalsживотни have,
12
27761
1992
което имат животните, които не
са бозайници,
00:41
it could inventизмислям newнов behaviorsповедения.
13
29753
2692
той е можел да създава нови поведения.
00:44
So a mouseмишка is escapingбягство a predatorХищникът,
14
32445
2553
И така, мишка бяга от хищник,
00:46
its pathпът is blockedблокиран,
15
34998
1540
пътят ѝ е блокиран,
00:48
it'llще try to inventизмислям a newнов solutionрешение.
16
36538
2129
тя ще се опита да намери ново решение.
00:50
That mayможе work, it mayможе not,
17
38667
1266
Това може да проработи, а може и
да не проработи,
00:51
but if it does, it will rememberпомня that
18
39933
1910
но ако успее, ще го запомни
00:53
and have a newнов behaviorповедение,
19
41843
1292
и ще има нов вид поведение,
00:55
and that can actuallyвсъщност spreadразпространение virallyvirally
20
43135
1457
което всъщност може да се разпространи
много бързо
00:56
throughпрез the restПочивка of the communityобщност.
21
44592
2195
в останалата част от групата.
00:58
AnotherДруг mouseмишка watchingгледане this could say,
22
46787
1609
Друга мишка, гледаща това,
може да си каже,
01:00
"Hey, that was prettyкрасива cleverумен, going around that rockрок,"
23
48396
2704
"Хей, това е доста хитро, да заобиколиш
тази скала,"
01:03
and it could adoptприеме a newнов behaviorповедение as well.
24
51100
3725
и може да също приеме този начин
на поведение.
01:06
Non-mammalianНе са от бозайници animalsживотни
25
54825
1717
Животните, които не са
бозайници,
01:08
couldn'tне можех do any of those things.
26
56542
1713
не са можели да направят нещо такова.
01:10
They had fixedопределен behaviorsповедения.
27
58255
1215
Те са имали фиксирани поведения.
01:11
Now they could learnуча a newнов behaviorповедение
28
59470
1331
Сега те можели да научат
нов вид поведение,
01:12
but not in the courseкурс of one lifetimeживот.
29
60801
2576
но разбира се, че не в рамките
на един живот.
01:15
In the courseкурс of maybe a thousandхиляда lifetimesживоти,
30
63377
1767
В процеса на, може би,
хиляда живота,
01:17
it could evolveсе развива a newнов fixedопределен behaviorповедение.
31
65144
3330
можело да еволюира ново
фиксирано поведение.
01:20
That was perfectlyсъвършено okay 200 millionмилион yearsгодини agoпреди.
32
68474
3377
Това било напълно приемливо
преди 200 милиона години.
01:23
The environmentзаобикаляща среда changedпроменен very slowlyбавно.
33
71851
1981
Околната среда се променяла много бавно.
01:25
It could take 10,000 yearsгодини for there to be
34
73832
1554
Можело да отнеме 10,000 години, за да
01:27
a significantзначителен environmentalна околната среда changeпромяна,
35
75386
2092
се появи съществена промяна в
околната среда,
01:29
and duringпо време на that periodПериод of time
36
77478
1382
и по време на този период от време,
01:30
it would evolveсе развива a newнов behaviorповедение.
37
78860
2929
е щял да се появи нов вид поведение.
01:33
Now that wentотидох alongзаедно fine,
38
81789
1521
Всичко това вървяло добре,
01:35
but then something happenedсе случи.
39
83310
1704
но нещо се случило.
01:37
Sixty-fiveШестдесет и пет millionмилион yearsгодини agoпреди,
40
85014
2246
Преди шестдесет и пет милиона години
01:39
there was a suddenвнезапен, violentнасилствен
changeпромяна to the environmentзаобикаляща среда.
41
87260
2615
се случила внезапна, бурна
промяна в околната среда.
01:41
We call it the CretaceousКреда extinctionизмиране eventсъбитие.
42
89875
3505
Ние наричаме това изчезването
от периода Креда.
01:45
That's when the dinosaursдинозаврите wentотидох extinctизчезнал,
43
93380
2293
Това е когато динозаврите
са изчезнали,
01:47
that's when 75 percentна сто of the
44
95673
3449
това е когато 75 процента от
01:51
animalживотно and plantрастение speciesвид wentотидох extinctизчезнал,
45
99122
2746
животинските и растителните видове
са изчезнали
01:53
and that's when mammalsбозайници
46
101868
1745
и когато бозайниците
01:55
overtookизпревари theirтехен ecologicalекологичен nicheниша,
47
103613
2152
са извоювали своята
екологична ниша,
01:57
and to anthropomorphizeanthropomorphize, biologicalбиологичен evolutionеволюция said,
48
105765
3654
и за да антропорофизираме,
биологичната еволюция казала,
"Хмм, този неокортекс е доста
добро нещо,"
02:01
"HmmХм, this neocortexнеокортекса is prettyкрасива good stuffматерия,"
49
109419
2025
02:03
and it beganзапочна to growрастат it.
50
111444
1793
и започнала да го отглежда.
02:05
And mammalsбозайници got biggerпо-голям,
51
113237
1342
И бозайниците станали по-големи,
02:06
theirтехен brainsмозъците got biggerпо-голям at an even fasterпо-бързо paceтемпо,
52
114579
2915
техните мозъци растяли
още по-бързо,
02:09
and the neocortexнеокортекса got biggerпо-голям even fasterпо-бързо than that
53
117494
3807
а неокортексът се разрастнал
по-бързо и от това
02:13
and developedразвита these distinctiveотличителен ridgesхребети and foldsгънки
54
121301
2929
и развил тези характерни хълмове и гънки,
02:16
basicallyв основата си to increaseнараства its surfaceповърхност area■ площ.
55
124230
2881
за да увеличи площта си.
02:19
If you tookвзеха the humanчовек neocortexнеокортекса
56
127111
1819
Ако вземете човешкия неокортекс
02:20
and stretchedразтегнат it out,
57
128930
1301
и го разпънете,
02:22
it's about the sizeразмер of a tableмаса napkinсалфетка,
58
130231
1713
той е с размера на салфетка,
02:23
and it's still a thinтънък structureструктура.
59
131944
1306
и все още е тънък.
02:25
It's about the thicknessдебелина of a tableмаса napkinсалфетка.
60
133250
1980
Има приблизително дебелината
на салфетка.
02:27
But it has so manyмного convolutionsизвивки and ridgesхребети
61
135230
2497
Но има толкова много гънки и хълмове, че
02:29
it's now 80 percentна сто of our brainмозък,
62
137727
3075
сега е 80 процента от мозъка,
02:32
and that's where we do our thinkingмислене,
63
140802
2461
и там е, където извършваме
нашето мислене,
02:35
and it's the great sublimatorsublimator.
64
143263
1761
и това е големият сублиматор.
02:37
We still have that oldстар brainмозък
65
145024
1114
Все още притежаваме този
стар мозък,
02:38
that providesосигурява our basicосновен drivesкара and motivationsмотивация,
66
146138
2764
който е източник на основните ни
стремежи и мотивации,
02:40
but I mayможе have a driveпът for conquestзавоевание,
67
148902
2716
но аз може да имам стремеж
за завладяване
02:43
and that'llтова ще be sublimatedсублимирани by the neocortexнеокортекса
68
151618
2715
и това да е сублимирано
от неокортекса
02:46
into writingписане a poemстихотворение or inventingизобретяването на an appап
69
154333
2909
в писането на поема или
създаването на приложение
02:49
or givingдавайки a TEDТЕД Talk,
70
157242
1509
или изнасянето на
TED лекция,
02:50
and it's really the neocortexнеокортекса that's where
71
158751
3622
и всъщност неокортексът е
там, където
02:54
the actionдействие is.
72
162373
1968
се развива действието.
02:56
FiftyПетдесет yearsгодини agoпреди, I wroteнаписах a paperхартия
73
164341
1717
Преди петдесет години
написах статия,
02:58
describingописващ how I thought the brainмозък workedработил,
74
166058
1918
описваща как мисля, че
работи мозъкът
02:59
and I describedописан it as a seriesсерия of modulesмодули.
75
167976
3199
и го описах като серия
от модули.
03:03
EachВсеки moduleмодул could do things with a patternмодел.
76
171175
2128
Всеки модул може да върши нещата
по определен модел.
03:05
It could learnуча a patternмодел. It could rememberпомня a patternмодел.
77
173303
2746
Може да научи модел.
Може да запомни модел.
03:08
It could implementизпълнение a patternмодел.
78
176049
1407
Може да приложи модел.
03:09
And these modulesмодули were organizedорганизиран in hierarchiesйерархии,
79
177456
2679
И модулите са организирани
йерархично,
03:12
and we createdсъздаден that hierarchyйерархия with our ownсобствен thinkingмислене.
80
180135
2954
а ние създаваме йерархията
чрез нашето собствено мислене.
03:15
And there was actuallyвсъщност very little to go on
81
183089
3333
И всъщност много малко
беше известно
03:18
50 yearsгодини agoпреди.
82
186422
1562
преди 50 години.
03:19
It led me to meetСреща PresidentПредседател JohnsonДжонсън.
83
187984
2115
Това ме доведе до президент Джонсън.
03:22
I've been thinkingмислене about this for 50 yearsгодини,
84
190099
2173
Мислих по това 50 години
03:24
and a yearгодина and a halfнаполовина agoпреди I cameдойде out with the bookКнига
85
192272
2828
и преди година и половина
създадох книгата
"Как да създадеш ум",
03:27
"How To CreateСъздаване на A MindУм,"
86
195100
1265
03:28
whichкойто has the sameедин и същ thesisтеза,
87
196365
1613
която има същата теза,
03:29
but now there's a plethoraмножество of evidenceдоказателства.
88
197978
2812
но сега има много
доказателства.
03:32
The amountколичество of dataданни we're gettingполучаване на about the brainмозък
89
200790
1814
Количеството информация,
което получаваме за мозъка
03:34
from neuroscienceневрология is doublingудвояване everyвсеки yearгодина.
90
202604
2203
от неврологичните науки
се удвоява всяка година.
03:36
SpatialПространствени resolutionрезолюция of brainscanningbrainscanning of all typesвидове
91
204807
2654
Пространствената резолюция
от всички видове
03:39
is doublingудвояване everyвсеки yearгодина.
92
207461
2285
се удвоява всяка година.
03:41
We can now see insideвътре a livingжив brainмозък
93
209746
1717
Сега можем да погледнем
в живия мозък
03:43
and see individualиндивидуален interneuralinterneural connectionsвръзки
94
211463
2870
и да видим индивидуалните
връзки между невроните,
03:46
connectingсвързване in realреален time, firingизпичане in realреален time.
95
214333
2703
свързващи се в реално време,
сигнализиращи в реално време.
03:49
We can see your brainмозък createсъздавам your thoughtsмисли.
96
217036
2419
Можем да видим как
мозъкът създава мислите Ви.
03:51
We can see your thoughtsмисли createсъздавам your brainмозък,
97
219455
1575
Можем да видим как мислите
Ви създават Вашия мозък,
03:53
whichкойто is really keyключ to how it worksвърши работа.
98
221030
1999
което всъщност е ключа
към това как функционира.
03:55
So let me describeописвам brieflyнакратко how it worksвърши работа.
99
223029
2219
И нека Ви опиша накратко
как функционира.
03:57
I've actuallyвсъщност countedпреброени these modulesмодули.
100
225248
2275
Аз, всъщност съм броил
тези модули.
03:59
We have about 300 millionмилион of them,
101
227523
2046
Имаме около 300 милиона такива
04:01
and we createсъздавам them in these hierarchiesйерархии.
102
229569
2229
и ги подреждаме в йерархии.
04:03
I'll give you a simpleпрост exampleпример.
103
231798
2082
Ще Ви дам прост пример.
04:05
I've got a bunchкуп of modulesмодули
104
233880
2805
Имам няколко модула,
04:08
that can recognizeпризнавам the crossbarразпънка to a capitalкапитал A,
105
236685
3403
които познават чертата на
главното А
04:12
and that's all they careгрижа about.
106
240088
1914
и не се занимават с нищо друго.
04:14
A beautifulкрасив songпесен can playиграя,
107
242002
1578
Може да се чува хубава песен,
04:15
a prettyкрасива girlмомиче could walkразходка by,
108
243580
1434
да мине красиво момиче,
04:17
they don't careгрижа, but they see
a crossbarразпънка to a capitalкапитал A,
109
245014
2846
те не се интересуват, но когато
видят чертат на главното А,
04:19
they get very excitedвъзбуден and they say "crossbarразпънка,"
110
247860
3021
те се развълнуват и си
казват "черта",
04:22
and they put out a highВисоко probabilityвероятност
111
250881
2112
и регистрират висока вероятност
04:24
on theirтехен outputпродукция axonаксон.
112
252993
1634
на изходния аксон.
04:26
That goesотива to the nextследващия levelниво,
113
254627
1333
Това продължава на следващото ниво,
04:27
and these layersслоеве are organizedорганизиран in conceptualидеен levelsнива.
114
255960
2750
и тези пластове са организирани
в концептуални нива.
04:30
EachВсеки is more abstractабстрактен than the nextследващия one,
115
258710
1856
Всеки е по-абстрактен
от следващия,
04:32
so the nextследващия one mightбиха могли, може say "capitalкапитал A."
116
260566
2418
така че следващия може да каже
"главно А".
04:34
That goesотива up to a higherпо-висок
levelниво that mightбиха могли, може say "AppleЯбълка."
117
262984
2891
Това отива на по-високо ниво,
което може да каже "Apple" (Ябълка).
04:37
InformationИнформация flowsпотоци down alsoсъщо.
118
265875
2167
Информацията се движи
и надолу също.
04:40
If the appleябълка recognizerсистемата за разпознаване has seenвидян A-P-P-LA-P-P-L,
119
268042
2936
Ако разпознавача на "Apple" е
видял A-P-P-L,
04:42
it'llще think to itselfсебе си, "HmmХм, I
think an E is probablyвероятно likelyвероятно,"
120
270978
3219
той си мисли, "Хмм, мисля,
че E може би следва."
и ще прати сигнал надолу
към разпознавачите на E,
04:46
and it'llще sendизпращам a signalсигнал down to all the E recognizersмодули за разпознаване
121
274197
2564
04:48
sayingпоговорка, "Be on the lookoutнаблюдателен пост for an E,
122
276761
1619
казвайки, "Търсете E,
04:50
I think one mightбиха могли, може be comingидващ."
123
278380
1556
мисля, че то следва."
04:51
The E recognizersмодули за разпознаване will lowerнисък theirтехен thresholdпраг
124
279936
2843
Разпознавачите на Е ще
намалят своя праг
04:54
and they see some sloppyпомия
thing, could be an E.
125
282779
1945
и виждат нещо размазано,
което може да е Е.
04:56
OrdinarilyОбикновено you wouldn'tне би think so,
126
284724
1490
Обикновено, няма да си
помислите това,
04:58
but we're expectingочакваме an E, it's good enoughдостатъчно,
127
286214
2009
но ние очакваме Е и това
е достатъчно,
05:00
and yeah, I've seenвидян an E, and then appleябълка saysказва,
128
288223
1817
и да, виждаме е и след това
ябълката (apple) казва,
05:02
"Yeah, I've seenвидян an AppleЯбълка."
129
290040
1728
"Да, видях "ябълка" ("apple").
05:03
Go up anotherоще fiveпет levelsнива,
130
291768
1746
Отидете още пет нива
по-нагоре
05:05
and you're now at a prettyкрасива highВисоко levelниво
131
293514
1353
и вече сте на доста високо ниво
05:06
of this hierarchyйерархия,
132
294867
1569
в тази йерархия
05:08
and stretchопъвам, разтягам down into the differentразличен sensesсетива,
133
296436
2353
и се разпростирате в
различни сетива,
05:10
and you mayможе have a moduleмодул
that seesвижда a certainопределен fabricплат,
134
298789
2655
и може да имате модул,
който вижда определен вид плат,
05:13
hearsчува a certainопределен voiceглас qualityкачество,
smellsмирише a certainопределен perfumeпарфюм,
135
301444
2844
чува определен гласов тембър,
усеща определен парфюм,
05:16
and will say, "My wifeсъпруга has enteredвписано the roomстая."
136
304288
2513
и ще каже, "Жена ми е влязла
в стаята."
05:18
Go up anotherоще 10 levelsнива, and now you're at
137
306801
1895
Идете още 10 нива по-горе и
вече сте
05:20
a very highВисоко levelниво.
138
308696
1160
на много високо ниво.
05:21
You're probablyвероятно in the frontalчелен cortexкора,
139
309856
1937
Може би сте във фронталния кортекс
05:23
and you'llти ще have modulesмодули that say, "That was ironicирония.
140
311793
3767
и имате модулите, които казват,
"Това беше ирония.
05:27
That's funnyзабавен. She's prettyкрасива."
141
315560
2370
Това е забавно. Тя е красива."
05:29
You mightбиха могли, може think that those are more sophisticatedсложен,
142
317930
2105
Може да си помислите, че те
са по-сложни,
но всъщност по-сложното е
05:32
but actuallyвсъщност what's more complicatedсложен
143
320035
1506
05:33
is the hierarchyйерархия beneathпод them.
144
321541
2669
йерархията под тях.
05:36
There was a 16-year-old-годишен girlмомиче, she had brainмозък surgeryхирургия,
145
324210
2620
Имаше едно 16-годишно момиче
с мозъчна операция
05:38
and she was consciousв съзнание because the surgeonsхирурзи
146
326830
2051
и тя беше в съзнание,
защото хирурзите
05:40
wanted to talk to her.
147
328881
1537
искаха да говорят с нея.
05:42
You can do that because there's no painболка receptorsрецептори
148
330418
1822
Това може да се направи, защото
няма рецептори за болка
05:44
in the brainмозък.
149
332240
1038
в мозъка.
05:45
And wheneverкогато и да е they stimulatedстимулирано particularособен,
150
333278
1800
И когато те стимулират определени,
05:47
very smallмалък pointsточки on her neocortexнеокортекса,
151
335078
2463
много малки точки в неокортекса ѝ,
05:49
shownпосочен here in redчервен, she would laughсмях.
152
337541
2665
показани тук в червено,
тя се разсмива.
05:52
So at first they thought they were triggeringтригери
153
340206
1440
Първоначално, те си мислят,
че активират
05:53
some kindмил of laughсмях reflexрефлекс,
154
341646
1720
някакъв рефлекс за смях,
05:55
but no, they quicklyбързо realizedосъзнах they had foundнамерено
155
343366
2519
но не, бързо разбират,
че са открили
05:57
the pointsточки in her neocortexнеокортекса that detectоткриване humorхумор,
156
345885
3044
точките в неокортекса ѝ,
които регистрират хумор
06:00
and she just foundнамерено everything hilariousвесел
157
348929
1969
и тя просто намира всичко
за много смешно,
06:02
wheneverкогато и да е they stimulatedстимулирано these pointsточки.
158
350898
2437
когато тези точки се стимулират.
06:05
"You guys are so funnyзабавен just standingстоящ around,"
159
353335
1925
"Толкова сте смешни,
стоейки така наоколо,"
06:07
was the typicalтипичен commentкоментар,
160
355260
1738
е обичайния коментар,
06:08
and they weren'tне са били funnyзабавен,
161
356998
2302
а те не са смешни,
не и когато оперират.
06:11
not while doing surgeryхирургия.
162
359300
3247
06:14
So how are we doing todayднес?
163
362547
4830
И как са нещата сега?
06:19
Well, computersкомпютри are actuallyвсъщност beginningначало to masterмайстор
164
367377
3054
Ами, компютрите започват
да усвояват
06:22
humanчовек languageезик with techniquesтехники
165
370431
2001
човешкия език с техники,
06:24
that are similarподобен to the neocortexнеокортекса.
166
372432
2867
които наподобяват на неокортекса.
Всъщност описах алгоритъм,
06:27
I actuallyвсъщност describedописан the algorithmалгоритъм,
167
375299
1514
06:28
whichкойто is similarподобен to something calledНаречен
168
376813
2054
който е подобен на нещо,
наречено
06:30
a hierarchicalйерархична hiddenскрит MarkovМарков modelмодел,
169
378867
2233
йерархичен скрит модел
на Марков,
06:33
something I've workedработил on sinceот the '90s.
170
381100
3241
нещо, върху което работя
от 90-те.
06:36
"JeopardyОпасност" is a very broadширок naturalестествен languageезик gameигра,
171
384341
3238
"Jeopardy" е много широкообхватна
игра, базирана на натуралния език
06:39
and WatsonУотсън got a higherпо-висок scoreрезултат
172
387579
1892
и Уотсън има по-висок резултат
06:41
than the bestнай-доброто two playersиграчи combinedкомбиниран.
173
389471
2000
от двамата най-добри играчи
взети заедно.
06:43
It got this queryзаявка correctправилен:
174
391471
2499
Той отговаря правилно
на този въпрос:
06:45
"A long, tiresomeизморителна speechреч
175
393970
2085
"Дълга изморителна реч,
06:48
deliveredдоставено by a frothyпенлива pieпай toppingтопинг,"
176
396055
2152
дадена от въздушен
топинг на пай,"
06:50
and it quicklyбързо respondedотговори,
"What is a meringueцелувка harangueharangue?"
177
398207
2796
и той веднага отговаря, "Какво е
тирада от разбити белтъци ?"
06:53
And JenningsДженингс and the other guy didn't get that.
178
401003
2635
А Дженинг и другият човек не
успяват да го познаят.
06:55
It's a prettyкрасива sophisticatedсложен exampleпример of
179
403638
1926
Това е доста сложен пример за
06:57
computersкомпютри actuallyвсъщност understandingразбиране humanчовек languageезик,
180
405564
1914
компютри, които разбират
човешкия език,
06:59
and it actuallyвсъщност got its knowledgeзнание by readingчетене
181
407478
1652
и всъщност той знае това,
тъй като е чел
07:01
WikipediaУикипедия and severalняколко other encyclopediasенциклопедии.
182
409130
3785
Уикипедия и няколко
други енциклопедии.
07:04
FiveПет to 10 yearsгодини from now,
183
412915
2133
От пет до 10 години в бъдещето,
07:07
searchТърсене enginesдвигатели will actuallyвсъщност be basedбазиран on
184
415048
2184
търсачките ще бъдат базирани
07:09
not just looking for combinationsкомбинации of wordsдуми and linksзвена
185
417232
2794
не само на сравняване на
комбинации от думи и линкове,
07:12
but actuallyвсъщност understandingразбиране,
186
420026
1914
а на самото разбиране,
07:13
readingчетене for understandingразбиране the billionsмилиарди of pagesстраници
187
421940
2411
четене с разбиране на
милиардите страници
в мрежата и в книгите.
07:16
on the webмрежа and in booksкниги.
188
424351
2733
07:19
So you'llти ще be walkingходене alongзаедно, and GoogleGoogle will popпоп up
189
427084
2616
Ще се разхождате и
Гугъл ще се появи
07:21
and say, "You know, MaryМери, you expressedизразена concernзагриженост
190
429700
3081
и ще каже, "Знаеш ли, Мери,
ти се притесняваше
07:24
to me a monthмесец agoпреди that your glutathioneглутатион supplementдобавка
191
432781
3019
преди месец, че
глутатионната ти добавка
07:27
wasn'tне е gettingполучаване на pastминало the blood-brainкръвно-мозъчната barrierбариера.
192
435800
2231
не преминава през границата
между кръвта и мозъка.
07:30
Well, newнов researchизследване just cameдойде out 13 secondsсекунди agoпреди
193
438031
2593
Ами, появи се проучване
преди 13 секунди,
07:32
that showsпредавания a wholeцяло newнов approachподход to that
194
440624
1711
което показва нов подход в това
07:34
and a newнов way to take glutathioneглутатион.
195
442335
1993
и нов начин на приемане
на глутатион.
07:36
Let me summarizeрезюмирам it for you."
196
444328
2562
Нека ти го обобщя."
07:38
TwentyДвадесет yearsгодини from now, we'llдобре have nanobotsnanobots,
197
446890
3684
След двадесет години ще
имаме наноботи,
защото друга развиваща
се тенденция
07:42
because anotherоще exponentialпоказателен trendтенденция
198
450574
1627
07:44
is the shrinkingсвива of technologyтехнология.
199
452201
1615
е смаляването на технологията.
07:45
They'llТе ще go into our brainмозък
200
453816
2370
Ще влизат в мозъка ни
07:48
throughпрез the capillariesкапиляри
201
456186
1703
през капилярите
07:49
and basicallyв основата си connectсвържете our neocortexнеокортекса
202
457889
2477
и ще се свързват неокортекса ни
07:52
to a syntheticсинтетичен neocortexнеокортекса in the cloudоблак
203
460366
3185
към синтетичен неокортекс
в облака,
07:55
providingосигуряване an extensionразширение of our neocortexнеокортекса.
204
463551
3591
предоставящ разширение
на нашия неокортекс.
07:59
Now todayднес, I mean,
205
467142
1578
В наши дни
имате компютър в телефона си,
08:00
you have a computerкомпютър in your phoneтелефон,
206
468720
1530
08:02
but if you need 10,000 computersкомпютри for a fewмалцина secondsсекунди
207
470250
2754
но ако Ви трябват 10,000
компютъра за няколко секунди,
08:05
to do a complexкомплекс searchТърсене,
208
473004
1495
за да направите
комплексно търсене,
08:06
you can accessдостъп that for a secondвтори or two in the cloudоблак.
209
474499
3396
можете да получите достъп до такива
за секунда или две в облака.
08:09
In the 2030s, if you need some extraекстра neocortexнеокортекса,
210
477895
3095
През 2030, ако имате нужда от
допълнителен неокортекс,
08:12
you'llти ще be ableспособен to connectсвържете to that in the cloudоблак
211
480990
2273
ще можете да се свържете с
такъв в облака
директно от Вашия мозък.
08:15
directlyпряко from your brainмозък.
212
483263
1648
08:16
So I'm walkingходене alongзаедно and I say,
213
484911
1543
И така, вървя си и си казвам,
08:18
"Oh, there's ChrisКрис AndersonАндерсън.
214
486454
1363
"О, ето го Крис Андерсън.
08:19
He's comingидващ my way.
215
487817
1525
Той идва към мен.
08:21
I'd better think of something cleverумен to say.
216
489342
2335
Трябва да измисля нещо
оригинално, което да кажа.
08:23
I've got threeтри secondsсекунди.
217
491677
1524
Имам три секунди.
08:25
My 300 millionмилион modulesмодули in my neocortexнеокортекса
218
493201
3097
300-тата милиона модула
в моя неокортекс
няма да ми помогнат.
08:28
isn't going to cutразрез it.
219
496298
1240
Имам нужда от още милиард."
08:29
I need a billionмилиард more."
220
497538
1246
08:30
I'll be ableспособен to accessдостъп that in the cloudоблак.
221
498784
3323
Ще мога да получа достъп до
тях в облака.
08:34
And our thinkingмислене, then, will be a hybridхибрид
222
502107
2812
И нашето мислене тогава
ще бъде хибрид
08:36
of biologicalбиологичен and non-biologicalнебиологични thinkingмислене,
223
504919
3522
между биологично и
небиологично мислене,
08:40
but the non-biologicalнебиологични portionчаст
224
508441
1898
но небиологичната част
08:42
is subjectпредмет to my lawзакон of acceleratingускоряващ returnsсе завръща.
225
510339
2682
е обект на моят закон за
увеличаващата се възвръщаемост.
08:45
It will growрастат exponentiallyекспоненциално.
226
513021
2239
Ще расте експоненциално.
08:47
And rememberпомня what happensслучва се
227
515260
2016
И спомняте ли си какво става
08:49
the last time we expandedразширен our neocortexнеокортекса?
228
517276
2645
последния път, когато сме
разширили неокортекса си?
08:51
That was two millionмилион yearsгодини agoпреди
229
519921
1426
Това е преди два милиона години,
08:53
when we becameстана humanoidsхуманоид
230
521347
1236
когато сме станали хуманоиди
08:54
and developedразвита these largeголям foreheadsчелата.
231
522583
1594
и сме развили тези големи чела.
08:56
Other primatesпримати have a slantedнаклонен browчело.
232
524177
2583
Другите примати имат скосено чело.
08:58
They don't have the frontalчелен cortexкора.
233
526760
1745
Те нямат фронтален кортекс.
09:00
But the frontalчелен cortexкора is not
really qualitativelyкачествено differentразличен.
234
528505
3685
Но фронталният кортекс не
допринася за качествената разлика.
09:04
It's a quantitativeколичествен expansionекспанзия of neocortexнеокортекса,
235
532190
2743
Това е количествено разширение
на неокортекса,
09:06
but that additionalдопълнителни quantityколичество of thinkingмислене
236
534933
2703
но това допълнително
количество на мислене
09:09
was the enablingпозволяваща factorфактор for us to take
237
537636
1779
е факторът, който ни дава
възможност да направим
09:11
a qualitativeкачествен leapскок and inventизмислям languageезик
238
539415
3346
качествен скок и да
създадем език
09:14
and artизкуство and scienceнаука and technologyтехнология
239
542761
1967
и изкуство, и наука, и технология,
09:16
and TEDТЕД conferencesконференции.
240
544728
1454
и TED конференциите.
09:18
No other speciesвид has doneСвършен that.
241
546182
2131
Никой друг вид не е постигнал това.
09:20
And so, over the nextследващия fewмалцина decadesдесетилетия,
242
548313
2075
И така, през следващите
няколко десетилетия
09:22
we're going to do it again.
243
550388
1760
ще го направим отново.
09:24
We're going to again expandразширят our neocortexнеокортекса,
244
552148
2274
Ще го направим отново и ще
разширим неокортекса си,
09:26
only this time we won'tняма да be limitedограничен
245
554422
1756
само че този път няма
да сме ограничени
09:28
by a fixedопределен architectureархитектура of enclosureограждане.
246
556178
4280
от фиксираната архитектура
на нашата обвивка.
09:32
It'llТя ще be expandedразширен withoutбез limitлимит.
247
560458
3304
Ще бъде разширен неограничено.
09:35
That additionalдопълнителни quantityколичество will again
248
563762
2243
Това допълнително
количество отново
09:38
be the enablingпозволяваща factorфактор for anotherоще qualitativeкачествен leapскок
249
566005
3005
ще бъде факторът, който ще ни
помогне да направим качествен скок
в културата и технологията.
09:41
in cultureкултура and technologyтехнология.
250
569010
1635
09:42
Thank you very much.
251
570645
2054
Благодаря Ви много.
(Аплодисменти)
09:44
(ApplauseАплодисменти)
252
572699
3086
Translated by Dani Peteva
Reviewed by Yavor Ivanov

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com