ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Рэй Курцвейл: Готовьтесь к гибридному мышлению

Filmed:
3,548,296 views

200 миллионов лет назад у наших млекопитающих предков появилась новая особенность — неокортекс. Эта ткань размером с почтовую марку, покрывающая мозг размером с грецкий орех, явилась ключевым фактором того, что человечество представляет из себя сегодня. Футурист Рэй Курцвейл советует нам приготовиться к следующему большому скачку в функционировании мозга, по мере того как мы осваиваем компьютерные технологии в облаке.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyистория.
0
988
2316
Позвольте рассказать вам историю.
00:15
It goesидет back 200 millionмиллиона yearsлет.
1
3304
1799
Она началась 200 миллионов лет назад.
00:17
It's a storyистория of the neocortexнеокортекс,
2
5103
1984
Это история неокортекса,
00:19
whichкоторый meansозначает "newновый rindкожура."
3
7087
1974
что означает «новая кора».
00:21
So in these earlyрано mammalsмлекопитающих,
4
9061
2431
У ранних млекопитающих —
00:23
because only mammalsмлекопитающих have a neocortexнеокортекс,
5
11492
2055
а он есть только у млекопитающих,
00:25
rodent-likeгрызун, как creaturesсущества.
6
13547
1664
у этих существ, похожих на грызунов —
00:27
It was the sizeразмер of a postageпочтовые расходы stampпечать and just as thinтонкий,
7
15211
3579
он был размером с почтовую марку
и такой же тонкий.
00:30
and was a thinтонкий coveringпокрытие around
8
18790
1439
Это был тонкий покров
00:32
theirих walnut-sizedразмер с грецким орехом brainголовной мозг,
9
20229
2264
их мозга, размером с грецкий орех,
00:34
but it was capableспособный of a newновый typeтип of thinkingмышление.
10
22493
3701
но он имел способность
к новому типу мышления.
00:38
RatherСкорее than the fixedисправлено behaviorsповедения
11
26194
1567
Вместо фиксированного поведения,
00:39
that non-mammalianнемлекопитающего animalsживотные have,
12
27761
1992
присущего не млекопитающим,
00:41
it could inventвыдумывать newновый behaviorsповедения.
13
29753
2692
он мог придумывать
новые модели поведения.
00:44
So a mouseмышь is escapingпобег a predatorхищник,
14
32445
2553
Скажем, мышь убегает от хищника,
00:46
its pathдорожка is blockedблокированный,
15
34998
1540
её путь заблокирован,
00:48
it'llэто будет try to inventвыдумывать a newновый solutionрешение.
16
36538
2129
она попробует
придумать выход из ситуации.
00:50
That mayмай work, it mayмай not,
17
38667
1266
Это может сработать, а может и нет —
00:51
but if it does, it will rememberзапомнить that
18
39933
1910
но если да, то она запомнит это
00:53
and have a newновый behaviorповедение,
19
41843
1292
и будет поступать по-новому —
00:55
and that can actuallyна самом деле spreadраспространение virallyвирусно
20
43135
1457
и это может распространиться
00:56
throughчерез the restотдых of the communityсообщество.
21
44592
2195
в популяции очень быстро.
00:58
AnotherДругая mouseмышь watchingнаблюдение this could say,
22
46787
1609
Другая мышь, увидев это, подумает:
01:00
"Hey, that was prettyСимпатичная cleverумная, going around that rockкамень,"
23
48396
2704
«Хм, обойти этот булыжник
было довольно умно», —
01:03
and it could adoptпринять a newновый behaviorповедение as well.
24
51100
3725
и она может перенять такое поведение.
01:06
Non-mammalianНемлекопитающего animalsживотные
25
54825
1717
Не млекопитающие животные
01:08
couldn'tне может do any of those things.
26
56542
1713
этого не могут.
01:10
They had fixedисправлено behaviorsповедения.
27
58255
1215
Их поведение фиксировано.
01:11
Now they could learnучить a newновый behaviorповедение
28
59470
1331
Они могут научиться новому,
01:12
but not in the courseкурс of one lifetimeпродолжительность жизни.
29
60801
2576
но не за одно поколение.
01:15
In the courseкурс of maybe a thousandтысяча lifetimesвремя жизни,
30
63377
1767
Возможно, за тысячу поколений
01:17
it could evolveэволюционировать a newновый fixedисправлено behaviorповедение.
31
65144
3330
они смогут выработать новую
фиксированную модель поведения.
01:20
That was perfectlyв совершенстве okay 200 millionмиллиона yearsлет agoтому назад.
32
68474
3377
200 миллионов лет назад
с этим не было никаких проблем.
01:23
The environmentОкружающая среда changedизменено very slowlyмедленно.
33
71851
1981
Окружающая среда
менялась очень медленно.
01:25
It could take 10,000 yearsлет for there to be
34
73832
1554
Существенное изменение окружающей среды
01:27
a significantзначительное environmentalэкологическая changeизменение,
35
75386
2092
могло занять 10 000 лет.
01:29
and duringв течение that periodпериод of time
36
77478
1382
И в течение этого времени
01:30
it would evolveэволюционировать a newновый behaviorповедение.
37
78860
2929
вырабатывалось новое поведение.
01:33
Now that wentотправился alongвдоль fine,
38
81789
1521
Итак, всё шло своим чередом,
01:35
but then something happenedполучилось.
39
83310
1704
но потом кое-что случилось.
01:37
Sixty-fiveШестьдесят пять millionмиллиона yearsлет agoтому назад,
40
85014
2246
65 миллионов лет назад
01:39
there was a suddenвнезапно, violentнасильственный
changeизменение to the environmentОкружающая среда.
41
87260
2615
произошло внезапное резкое
изменение окружающей среды.
01:41
We call it the Cretaceousмеловой extinctionвымирание eventмероприятие.
42
89875
3505
Мы называем его
мел-палеогеновое вымирание.
01:45
That's when the dinosaursдинозавры wentотправился extinctпотухший,
43
93380
2293
Именно тогда вымерли динозавры,
01:47
that's when 75 percentпроцент of the
44
95673
3449
именно тогда вымерло 75%
01:51
animalживотное and plantрастение speciesвид wentотправился extinctпотухший,
45
99122
2746
всех видов животных и растений,
01:53
and that's when mammalsмлекопитающих
46
101868
1745
и именно тогда млекопитающие
01:55
overtookобогнала theirих ecologicalэкологический nicheниша,
47
103613
2152
заняли свою экологическую нишу.
01:57
and to anthropomorphizeантропоморфизировать, biologicalбиологический evolutionэволюция said,
48
105765
3654
И тогда эволюция подумала:
02:01
"HmmХмм, this neocortexнеокортекс is prettyСимпатичная good stuffматериал,"
49
109419
2025
«Хм, этот неокортекс штука хорошая», —
02:03
and it beganначал to growрасти it.
50
111444
1793
и начала увеличивать его.
02:05
And mammalsмлекопитающих got biggerбольше,
51
113237
1342
Млекопитающие увеличивались,
02:06
theirих brainsмозги got biggerбольше at an even fasterБыстрее paceтемп,
52
114579
2915
их мозг увеличивался ещё быстрее,
02:09
and the neocortexнеокортекс got biggerбольше even fasterБыстрее than that
53
117494
3807
и ещё быстрее увеличивался неокортекс,
02:13
and developedразвитая these distinctiveотличительный ridgesгребни and foldsскладки
54
121301
2929
сформировав характерные
борозды и складки,
02:16
basicallyв основном to increaseувеличение its surfaceповерхность areaплощадь.
55
124230
2881
по сути, чтобы увеличить
площадь поверхности.
02:19
If you tookвзял the humanчеловек neocortexнеокортекс
56
127111
1819
Если взять неокортекс человека
02:20
and stretchedрастянуты it out,
57
128930
1301
и растянуть его,
02:22
it's about the sizeразмер of a tableТаблица napkinсалфетка,
58
130231
1713
он будет размером с салфетку.
02:23
and it's still a thinтонкий structureсостав.
59
131944
1306
И он по-прежнему тонкий.
02:25
It's about the thicknessтолщина of a tableТаблица napkinсалфетка.
60
133250
1980
Примерно такой же тонкий,
как и салфетка.
02:27
But it has so manyмногие convolutionsизвилины and ridgesгребни
61
135230
2497
Но в нём так много извилин и борозд,
02:29
it's now 80 percentпроцент of our brainголовной мозг,
62
137727
3075
что он теперь занимает 80% нашего мозга.
02:32
and that's where we do our thinkingмышление,
63
140802
2461
Именно с его помощью мы думаем,
02:35
and it's the great sublimatorсублиматор.
64
143263
1761
он также потрясающий преобразователь.
02:37
We still have that oldстарый brainголовной мозг
65
145024
1114
Наша древняя часть мозга производит
02:38
that providesобеспечивает our basicосновной drivesдиски and motivationsмотивы,
66
146138
2764
основные побуждения и импульсы,
02:40
but I mayмай have a driveводить машину for conquestпокорение,
67
148902
2716
но моя тяга к завоеванию территорий
02:43
and that'llчто будет be sublimatedсублимированный by the neocortexнеокортекс
68
151618
2715
будет преобразована неокортексом
02:46
into writingписьмо a poemстих or inventingизобретая an appприложение
69
154333
2909
в написание поэмы
или создание программы,
02:49
or givingдающий a TEDТЕД Talk,
70
157242
1509
или в выступление на TED,
02:50
and it's really the neocortexнеокортекс that's where
71
158751
3622
и неокортекс — именно то место,
02:54
the actionдействие is.
72
162373
1968
где происходит вся работа.
02:56
Fifty50 yearsлет agoтому назад, I wroteписал a paperбумага
73
164341
1717
50 лет назад я написал статью,
02:58
describingописывающее how I thought the brainголовной мозг workedработал,
74
166058
1918
где описал свой взгляд на работу мозга,
02:59
and I describedописано it as a seriesсерии of modulesмодули.
75
167976
3199
и я описал её
как последовательность модулей.
03:03
Eachкаждый moduleмодуль could do things with a patternшаблон.
76
171175
2128
Каждый модуль мог работать по шаблону.
03:05
It could learnучить a patternшаблон. It could rememberзапомнить a patternшаблон.
77
173303
2746
Он мог выучить шаблон.
Он мог запомнить шаблон.
03:08
It could implementвоплощать в жизнь a patternшаблон.
78
176049
1407
Мог привести его в действие.
03:09
And these modulesмодули were organizedорганизованная in hierarchiesиерархий,
79
177456
2679
И эти модули
были организованы в иерархии,
03:12
and we createdсозданный that hierarchyиерархия with our ownсвоя thinkingмышление.
80
180135
2954
мы создали эти иерархии
своим собственным мышлением.
03:15
And there was actuallyна самом деле very little to go on
81
183089
3333
Но с этим нельзя было далеко уйти
03:18
50 yearsлет agoтому назад.
82
186422
1562
50 лет назад.
03:19
It led me to meetвстретить Presidentпрезидент JohnsonДжонсон.
83
187984
2115
И я тогда встретился
с президентом Джонсоном.
03:22
I've been thinkingмышление about this for 50 yearsлет,
84
190099
2173
Я думал над этим 50 лет,
03:24
and a yearгод and a halfполовина agoтому назад I cameпришел out with the bookкнига
85
192272
2828
и полтора года назад я издал книгу
03:27
"How To CreateСоздайте A MindРазум,"
86
195100
1265
«Как создать разум»,
03:28
whichкоторый has the sameодна и та же thesisТезис,
87
196365
1613
в которой изложил тот же тезис,
03:29
but now there's a plethoraполнокровие of evidenceдоказательства.
88
197978
2812
но уже с изобилием доказательств.
03:32
The amountколичество of dataданные we're gettingполучение about the brainголовной мозг
89
200790
1814
Количество данных,
получаемых нами о мозге
03:34
from neuroscienceневрология is doublingудвоение everyкаждый yearгод.
90
202604
2203
благодаря нейробиологии,
удваивается каждый год.
03:36
Spatialпространственная resolutionразрешающая способность of brainscanningbrainscanning of all typesтипы
91
204807
2654
Разрешение всех типов
сканирования мозга
03:39
is doublingудвоение everyкаждый yearгод.
92
207461
2285
увеличивается вдвое каждый год.
03:41
We can now see insideвнутри a livingживой brainголовной мозг
93
209746
1717
Мы уже можем заглянуть в живой мозг
03:43
and see individualиндивидуальный interneuralмежнейронных connectionsсвязи
94
211463
2870
и увидеть, как межнейронные связи
03:46
connectingсоединительный in realреальный time, firingобжиг in realреальный time.
95
214333
2703
взаимодействуют и испускают сигналы
в реальном времени.
03:49
We can see your brainголовной мозг createСоздайте your thoughtsмысли.
96
217036
2419
Мы можем увидеть, как ваш мозг
формирует мысли,
03:51
We can see your thoughtsмысли createСоздайте your brainголовной мозг,
97
219455
1575
и как ваши мысли формируют мозг,
03:53
whichкоторый is really keyключ to how it worksработает.
98
221030
1999
что по сути и есть то, как это работает.
03:55
So let me describeописывать brieflyкратко how it worksработает.
99
223029
2219
Позвольте кратко описать,
как это работает.
03:57
I've actuallyна самом деле countedподсчитаны these modulesмодули.
100
225248
2275
Эти модули я посчитал.
03:59
We have about 300 millionмиллиона of them,
101
227523
2046
У нас их около 300 миллионов,
04:01
and we createСоздайте them in these hierarchiesиерархий.
102
229569
2229
и мы формируем их в иерархии.
04:03
I'll give you a simpleпросто exampleпример.
103
231798
2082
Я приведу простой пример.
04:05
I've got a bunchгроздь of modulesмодули
104
233880
2805
У меня есть кипа модулей,
04:08
that can recognizeпризнать the crossbarперекладина to a capitalстолица A,
105
236685
3403
которые различают
поперечную черту в букве А,
04:12
and that's all they careзабота about.
106
240088
1914
и больше их ничего не интересует.
04:14
A beautifulкрасивая songпесня can playиграть,
107
242002
1578
Красивая песня,
04:15
a prettyСимпатичная girlдевушка could walkходить by,
108
243580
1434
проходящая мимо хорошенькая девушка —
04:17
they don't careзабота, but they see
a crossbarперекладина to a capitalстолица A,
109
245014
2846
им это неинтересно, но когда они видят
поперечную черту в букве А,
04:19
they get very excitedв восторге and they say "crossbarперекладина,"
110
247860
3021
они оживляются и говорят:
«Поперечная черта!» —
04:22
and they put out a highвысокая probabilityвероятность
111
250881
2112
и подаёт сигнал большей вероятности
04:24
on theirих outputвывод axonаксон.
112
252993
1634
на свой выводящий аксон.
04:26
That goesидет to the nextследующий levelуровень,
113
254627
1333
Это идёт на следующий уровень —
04:27
and these layersслои are organizedорганизованная in conceptualконцептуальный levelsуровни.
114
255960
2750
слои организованы
по уровням абстрактности,
04:30
Eachкаждый is more abstractАбстрактные than the nextследующий one,
115
258710
1856
каждый абстрактнее предыдущего.
04:32
so the nextследующий one mightмог бы say "capitalстолица A."
116
260566
2418
Поэтому следующий может сказать:
«Прописная А».
04:34
That goesидет up to a higherвыше
levelуровень that mightмог бы say "Appleяблоко."
117
262984
2891
Это идёт на уровень выше,
который может сказать: «Антоновка».
04:37
InformationИнформация flowsпотоки down alsoтакже.
118
265875
2167
Информация может передаваться и обратно.
04:40
If the appleяблоко recognizerраспознаватель has seenвидели A-P-P-LВ,
119
268042
2936
Если различитель антоновки увидел
А-Н-Т-О-Н-О-В-К,
04:42
it'llэто будет think to itselfсам, "HmmХмм, I
think an E is probablyвероятно likelyвероятно,"
120
270978
3219
он задумается: «Хм, я думаю А
здесь вполне вероятна»,—
04:46
and it'llэто будет sendОтправить a signalсигнал down to all the E recognizersраспознования
121
274197
2564
и он даст сигнал вниз всем
различителям буквы А:
04:48
sayingпоговорка, "Be on the lookoutбыть осторожным for an E,
122
276761
1619
«Будьте начеку,
04:50
I think one mightмог бы be comingприход."
123
278380
1556
думаю, А на подходе».
04:51
The E recognizersраспознования will lowerниже theirих thresholdпорог
124
279936
2843
Различители буквы А снизят
свой порог восприимчивости
04:54
and they see some sloppyнебрежный
thing, could be an E.
125
282779
1945
и, увидев какую-нибудь каракулю,
подумают об А.
04:56
Ordinarilyобычно you wouldn'tне будет think so,
126
284724
1490
Обычно вы бы так не подумали,
04:58
but we're expectingожидая an E, it's good enoughдостаточно,
127
286214
2009
но при ожидании А
это вполне подойдёт:
05:00
and yeah, I've seenвидели an E, and then appleяблоко saysговорит,
128
288223
1817
— Да, я увидел А.
И потом антоновка:
05:02
"Yeah, I've seenвидели an Appleяблоко."
129
290040
1728
— Да, я увидела Антоновку.
05:03
Go up anotherдругой five5 levelsуровни,
130
291768
1746
Поднимитесь на 5 уровней выше —
05:05
and you're now at a prettyСимпатичная highвысокая levelуровень
131
293514
1353
и вы уже довольно высоко
05:06
of this hierarchyиерархия,
132
294867
1569
в этой иерархии.
05:08
and stretchпротяжение down into the differentдругой sensesчувств,
133
296436
2353
Вовлеките разные чувства,
05:10
and you mayмай have a moduleмодуль
that seesвидит a certainопределенный fabricткань,
134
298789
2655
и, возможно, найдётся модуль,
различающий определённую ткань,
05:13
hearsслышит a certainопределенный voiceголос qualityкачественный,
smellsзапахи a certainопределенный perfumeдухи,
135
301444
2844
определённый голос
или определённый запах,
05:16
and will say, "My wifeжена has enteredвошел the roomкомната."
136
304288
2513
и тогда он скажет:
«Моя жена зашла в комнату».
05:18
Go up anotherдругой 10 levelsуровни, and now you're at
137
306801
1895
Поднимитесь ещё на 10 уровней —
05:20
a very highвысокая levelуровень.
138
308696
1160
и вы уже на очень высоком уровне.
05:21
You're probablyвероятно in the frontalлобовой cortexкора головного мозга,
139
309856
1937
Вероятно, уже в лобной коре.
05:23
and you'llВы будете have modulesмодули that say, "That was ironicиронический.
140
311793
3767
И там будут модули, которые скажут:
«Это было иронично.
05:27
That's funnyвеселая. She's prettyСимпатичная."
141
315560
2370
Это смешно. Она хорошенькая».
05:29
You mightмог бы think that those are more sophisticatedутонченный,
142
317930
2105
Вы можете подумать,
что они более сложные,
05:32
but actuallyна самом деле what's more complicatedсложно
143
320035
1506
но на самом деле
05:33
is the hierarchyиерархия beneathпод them.
144
321541
2669
более сложной является
иерархия, стоящая под ними.
05:36
There was a 16-year-old-лет girlдевушка, she had brainголовной мозг surgeryхирургия,
145
324210
2620
16-летней девочке делали
операцию на мозге.
05:38
and she was consciousсознательный because the surgeonsхирурги
146
326830
2051
Она была в сознании, потому что хирурги
05:40
wanted to talk to her.
147
328881
1537
хотели говорить с ней.
05:42
You can do that because there's no painболь receptorsрецепторы
148
330418
1822
Это возможно потому, что в мозге
05:44
in the brainголовной мозг.
149
332240
1038
нет болевых рецепторов.
05:45
And wheneverвсякий раз, когда they stimulatedстимулированный particularконкретный,
150
333278
1800
И всякий раз, когда они стимулировали
05:47
very smallмаленький pointsточки on her neocortexнеокортекс,
151
335078
2463
определённые очень маленькие
участки неокортекса,
05:49
shownпоказанный here in redкрасный, she would laughсмех.
152
337541
2665
отмеченные здесь красным,
она смеялась.
05:52
So at first they thought they were triggeringсрабатывание
153
340206
1440
Сначала они подумали,
05:53
some kindсвоего рода of laughсмех reflexрефлекс,
154
341646
1720
что вызывают рефлекс смеха,
05:55
but no, they quicklyбыстро realizedпонял they had foundнайденный
155
343366
2519
но вскоре они поняли, что нашли
05:57
the pointsточки in her neocortexнеокортекс that detectобнаружить humorюмор,
156
345885
3044
точки в неокортексе, распознающие юмор,
06:00
and she just foundнайденный everything hilariousвеселый
157
348929
1969
и ей просто всё казалось смешным,
06:02
wheneverвсякий раз, когда they stimulatedстимулированный these pointsточки.
158
350898
2437
когда они стимулировали эти точки.
06:05
"You guys are so funnyвеселая just standingпостоянный around,"
159
353335
1925
«Вы, ребята,
такие смешные, стоите тут», —
06:07
was the typicalтипичный commentкомментарий,
160
355260
1738
был её типичный комментарий,
06:08
and they weren'tне было funnyвеселая,
161
356998
2302
а они не были смешными —
06:11
not while doing surgeryхирургия.
162
359300
3247
не во время операции.
06:14
So how are we doing todayCегодня?
163
362547
4830
Так как с этим обстоит дело сейчас?
06:19
Well, computersкомпьютеры are actuallyна самом деле beginningначало to masterмастер
164
367377
3054
Что ж, компьютеры начинают овладевать
06:22
humanчеловек languageязык with techniquesметоды
165
370431
2001
человеческим языком с помощью методов,
06:24
that are similarаналогичный to the neocortexнеокортекс.
166
372432
2867
схожих по работе с неокортексом.
06:27
I actuallyна самом деле describedописано the algorithmалгоритм,
167
375299
1514
Я описал этот алгоритм,
06:28
whichкоторый is similarаналогичный to something calledназывается
168
376813
2054
который похож на то, что называется
06:30
a hierarchicalиерархическая hiddenскрытый MarkovМарков modelмодель,
169
378867
2233
иерархической скрытой
марковской моделью,
06:33
something I've workedработал on sinceпоскольку the '90s.
170
381100
3241
то, над чем я работаю с 90-х.
06:36
"Jeopardyподсудность" is a very broadширокий naturalнатуральный languageязык gameигра,
171
384341
3238
Jeopardy — это телевикторина
на большое количество разных тем,
06:39
and WatsonУотсон got a higherвыше scoreГол
172
387579
1892
и робот Ватсон набрал больше очков,
06:41
than the bestЛучший two playersигроки combinedкомбинированный.
173
389471
2000
чем два лучших игрока вместе взятых.
06:43
It got this queryзапрос correctверный:
174
391471
2499
Он ответил верно на следующий вопрос:
06:45
"A long, tiresomeутомительный speechречь
175
393970
2085
«Долгая, утомительная речь,
06:48
deliveredдоставлен by a frothyпенистый pieпирог toppingотбензинивание,"
176
396055
2152
произнесённая белком и желтком?»,
06:50
and it quicklyбыстро respondedответил,
"What is a meringueмеренга harangueразглагольствовать?"
177
398207
2796
и он сразу же ответил:
«Что такое яичница-болтунья?»
06:53
And JenningsДженнингс and the other guy didn't get that.
178
401003
2635
А Дженнингз и другой игрок
ответа не дали.
06:55
It's a prettyСимпатичная sophisticatedутонченный exampleпример of
179
403638
1926
Это довольно замысловатый пример того,
06:57
computersкомпьютеры actuallyна самом деле understandingпонимание humanчеловек languageязык,
180
405564
1914
как компьютеры
понимают человеческий язык,
06:59
and it actuallyна самом деле got its knowledgeзнание by readingчтение
181
407478
1652
и как они получают знания
07:01
WikipediaВикипедия and severalнесколько other encyclopediasэнциклопедий.
182
409130
3785
из Википедии
и некоторых других энциклопедий.
07:04
Five5 to 10 yearsлет from now,
183
412915
2133
Через пять-десять лет
07:07
searchпоиск enginesдвигатели will actuallyна самом деле be basedисходя из on
184
415048
2184
поисковые системы будут основаны
07:09
not just looking for combinationsкомбинации of wordsслова and linksсвязи
185
417232
2794
не просто на поиске
комбинаций слов и ссылок,
07:12
but actuallyна самом деле understandingпонимание,
186
420026
1914
но на осмыслении информации,
07:13
readingчтение for understandingпонимание the billionsмиллиарды of pagesстраницы
187
421940
2411
на чтении и понимании миллиардов страниц
07:16
on the webWeb and in booksкниги.
188
424351
2733
в интернете и в книгах.
07:19
So you'llВы будете be walkingгулять пешком alongвдоль, and GoogleGoogle will popпоп up
189
427084
2616
Гуляете вы где-нибудь,
и вдруг выскакивает окно Google
07:21
and say, "You know, MaryМэри, you expressedвыраженный concernбеспокойство
190
429700
3081
и говорит: «Помнишь, Маша, месяц назад
ты была обеспокоена,
07:24
to me a monthмесяц agoтому назад that your glutathioneглутатион supplementдополнение
191
432781
3019
что глутатионовые биологические добавки
07:27
wasn'tне было gettingполучение pastмимо the blood-brainгематоэнцефалический barrierбарьер.
192
435800
2231
не проходят через
гемато-энцефалический барьер?
07:30
Well, newновый researchисследование just cameпришел out 13 secondsсекунд agoтому назад
193
438031
2593
Так вот, 13 секунд назад
появилось новое исследование,
07:32
that showsшоу a wholeвсе newновый approachподход to that
194
440624
1711
предлагающее к этому новый подход
07:34
and a newновый way to take glutathioneглутатион.
195
442335
1993
и новые способы принятия глутатиона.
07:36
Let me summarizeподведем итог it for you."
196
444328
2562
Позволь озвучить главное».
07:38
Twenty20 yearsлет from now, we'llЧто ж have nanobotsнанороботы,
197
446890
3684
Через 20 лет у нас будут наноботы,
07:42
because anotherдругой exponentialэкспоненциальный trendтенденция
198
450574
1627
в связи со стремительной тенденцией
07:44
is the shrinkingсокращение of technologyтехнологии.
199
452201
1615
уменьшения размеров техники.
07:45
They'llОни будут go into our brainголовной мозг
200
453816
2370
Они будут циркулировать в мозге
07:48
throughчерез the capillariesкапилляры
201
456186
1703
по капиллярам
07:49
and basicallyв основном connectсоединять our neocortexнеокортекс
202
457889
2477
и, по сути, соединять наш неокортекс
07:52
to a syntheticсинтетический neocortexнеокортекс in the cloudоблако
203
460366
3185
с синтетическим неокортексом в облаке,
07:55
providingобеспечение an extensionрасширение of our neocortexнеокортекс.
204
463551
3591
предоставляя расширение
нашего неокортекса.
07:59
Now todayCегодня, I mean,
205
467142
1578
Сегодня
08:00
you have a computerкомпьютер in your phoneТелефон,
206
468720
1530
у вас есть компьютер в телефоне,
08:02
but if you need 10,000 computersкомпьютеры for a fewмало secondsсекунд
207
470250
2754
но если вам понадобится
10 000 компьютеров на пару секунд
08:05
to do a complexсложный searchпоиск,
208
473004
1495
для расширенного поиска,
08:06
you can accessдоступ that for a secondвторой or two in the cloudоблако.
209
474499
3396
вы сможете
воспользоваться этим в облаке.
08:09
In the 2030s, if you need some extraдополнительный neocortexнеокортекс,
210
477895
3095
В 2030-е, если вам понадобится
дополнительный неокортекс,
08:12
you'llВы будете be ableв состоянии to connectсоединять to that in the cloudоблако
211
480990
2273
вы сможете
подсоединиться к нему в облаке
08:15
directlyнепосредственно from your brainголовной мозг.
212
483263
1648
прямо из мозга.
08:16
So I'm walkingгулять пешком alongвдоль and I say,
213
484911
1543
Скажем, иду я и вижу:
08:18
"Oh, there's ChrisКрис AndersonАндерсон.
214
486454
1363
«О, Крис Андерсон.
08:19
He's comingприход my way.
215
487817
1525
Он идёт ко мне.
08:21
I'd better think of something cleverумная to say.
216
489342
2335
Хорошо бы сказать
что-нибудь умное.
08:23
I've got threeтри secondsсекунд.
217
491677
1524
У меня 3 секунды.
08:25
My 300 millionмиллиона modulesмодули in my neocortexнеокортекс
218
493201
3097
Моих 300 миллионов модулей в неокортексе
08:28
isn't going to cutпорез it.
219
496298
1240
не хватит.
08:29
I need a billionмиллиард more."
220
497538
1246
Мне нужен ещё миллиард».
08:30
I'll be ableв состоянии to accessдоступ that in the cloudоблако.
221
498784
3323
Я смогу получить его из облака.
08:34
And our thinkingмышление, then, will be a hybridгибридный
222
502107
2812
И наше мышление станет гибридом
08:36
of biologicalбиологический and non-biologicalнебиологический thinkingмышление,
223
504919
3522
Биологического
и небиологического мышления.
08:40
but the non-biologicalнебиологический portionчасть
224
508441
1898
Небиологическая часть —
08:42
is subjectпредмет to my lawзакон of acceleratingускоряющий returnsвозвращается.
225
510339
2682
это основа моего закона
ускоряющейся отдачи.
08:45
It will growрасти exponentiallyэкспоненциально.
226
513021
2239
Она будет ускоряться по экспоненте.
08:47
And rememberзапомнить what happensпроисходит
227
515260
2016
Помните, что случилось
08:49
the last time we expandedрасширенный our neocortexнеокортекс?
228
517276
2645
последний раз,
когда увеличился неокортекс?
08:51
That was two millionмиллиона yearsлет agoтому назад
229
519921
1426
Это было 2 миллиона лет назад,
08:53
when we becameстал humanoidsгуманоиды
230
521347
1236
когда мы стали людьми
08:54
and developedразвитая these largeбольшой foreheadsлбы.
231
522583
1594
и развили большой лобный отдел.
08:56
Other primatesприматы have a slantedнаклоненный browчело.
232
524177
2583
У других приматов лоб скошен.
08:58
They don't have the frontalлобовой cortexкора головного мозга.
233
526760
1745
У них нет лобной коры.
09:00
But the frontalлобовой cortexкора головного мозга is not
really qualitativelyкачественно differentдругой.
234
528505
3685
Но лобная кора не так уж и отличается
от неокортекса качественно.
09:04
It's a quantitativeколичественный expansionрасширение of neocortexнеокортекс,
235
532190
2743
Это лишь количественное увеличение
неокортекса —
09:06
but that additionalдополнительный quantityколичество of thinkingмышление
236
534933
2703
но это дополнительное количество
мыслительных процессов
09:09
was the enablingчто позволяет factorфактор for us to take
237
537636
1779
позволило нам совершить
09:11
a qualitativeкачественный leapпрыжок and inventвыдумывать languageязык
238
539415
3346
качественный скачок и придумать и язык,
09:14
and artИзобразительное искусство and scienceнаука and technologyтехнологии
239
542761
1967
и искусство, и науку, и технологии,
09:16
and TEDТЕД conferencesконференций.
240
544728
1454
и конференции TED.
09:18
No other speciesвид has doneсделанный that.
241
546182
2131
Ни один другой биологический вид
этого не достиг.
09:20
And so, over the nextследующий fewмало decadesдесятилетия,
242
548313
2075
Так что к концу следующего десятилетия
09:22
we're going to do it again.
243
550388
1760
мы это сделаем снова.
09:24
We're going to again expandрасширять our neocortexнеокортекс,
244
552148
2274
Мы снова увеличим свой неокортекс —
09:26
only this time we won'tне будет be limitedограниченное
245
554422
1756
только на этот раз он не будет ограничен
09:28
by a fixedисправлено architectureархитектура of enclosureограда.
246
556178
4280
никакими конкретными рамками.
09:32
It'llЭто будет be expandedрасширенный withoutбез limitпредел.
247
560458
3304
Предельной границы
его расширения не будет.
09:35
That additionalдополнительный quantityколичество will again
248
563762
2243
И это дополнительный объём
снова станет
09:38
be the enablingчто позволяет factorфактор for anotherдругой qualitativeкачественный leapпрыжок
249
566005
3005
определяющим фактором
для следующего качественного скачка
09:41
in cultureкультура and technologyтехнологии.
250
569010
1635
в культуре и технологиях.
09:42
Thank you very much.
251
570645
2054
Большое спасибо.
09:44
(ApplauseАплодисменты)
252
572699
3086
(Аплодисменты)
Translated by Arthur Manookian
Reviewed by Anna Kotova

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com