ABOUT THE SPEAKERS
Sebastian Thrun - Educator, entrepreneur
Sebastian Thrun is a passionate technologist who is constantly looking for new opportunities to make the world better for all of us.

Why you should listen

Sebastian Thrun is an educator, entrepreneur and troublemaker. After a long life as a professor at Stanford University, Thrun resigned from tenure to join Google. At Google, he founded Google X, home to self-driving cars and many other moonshot technologies. Thrun also founded Udacity, an online university with worldwide reach, and Kitty Hawk, a "flying car" company. He has authored 11 books, 400 papers, holds 3 doctorates and has won numerous awards.

More profile about the speaker
Sebastian Thrun | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
TED2017

Sebastian Thrun and Chris Anderson: What AI is -- and isn't

Себастьян Трун и Крис Андерсон: Новое поколение компьютеров, которые программируют сами себя

Filmed:
1,575,780 views

Просветитель и предприниматель Себастьян Трун хочет использовать искусственный интеллект, чтобы освободить человечество от монотонной работы и дать волю нашему творческому потенциалу. В этой вдохновляющей и познавательной беседе с куратором TED Крисом Андерсоном Трун обсуждает прогресс в глубоком обучении, почему мы не должны бояться «убегания» ИИ и как общество будет лучше себя чувствовать, если скучную, монотонную работу будут делать машины. «До сих пор был изобретён только один процент интересных вещей», — говорит Трун. «Я верю, что мы все — безумно творческие люди... [ИИ] даст нам возможность превратить наш творческий потенциал в действия».
- Educator, entrepreneur
Sebastian Thrun is a passionate technologist who is constantly looking for new opportunities to make the world better for all of us. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio

Double-click the English transcript below to play the video.

Крис Андерсон: Объясните нам,
что такое машинное обучение,
00:12
ChrisКрис AndersonАндерсон: Help us understandПонимаю
what machineмашина learningобучение is,
0
904
2886
00:15
because that seemsкажется to be the keyключ driverВодитель
1
3814
2054
так как, кажется, это ключевая причина
00:17
of so much of the excitementволнение
and alsoтакже of the concernбеспокойство
2
5892
2737
бурного восторга, а также беспокойства
00:20
around artificialискусственный intelligenceинтеллект.
3
8653
1494
вокруг искусственного интеллекта.
00:22
How does machineмашина learningобучение work?
4
10171
1643
Как работает машинное обучение?
00:23
SebastianСебастьян ThrunThrun: So, artificialискусственный
intelligenceинтеллект and machineмашина learningобучение
5
11838
3896
Себастьян Трун: Искусственному
интеллекту и машинному обучению
00:27
is about 60 yearsлет oldстарый
6
15758
2002
около 60-ти лет,
00:29
and has not had a great day
in its pastмимо untilдо recentlyв последнее время.
7
17784
4269
но наилучшее для них время
настало совсем недавно.
00:34
And the reasonпричина is that todayCегодня,
8
22077
2924
Причина в том, что сегодня
00:37
we have reachedдостиг a scaleмасштаб
of computingвычисления and datasetsНаборы данных
9
25025
3973
мы достигли того уровня
вычислений и объёма данных,
00:41
that was necessaryнеобходимо to make machinesмашины smartумная.
10
29022
2637
который был необходим,
чтобы сделать машины умными.
00:43
So here'sвот how it worksработает.
11
31683
1751
Вот как это работает.
00:45
If you programпрограмма a computerкомпьютер todayCегодня,
say, your phoneТелефон,
12
33458
3497
Если сегодня вы создаёте программу
для компьютера или смартфона,
00:48
then you hireНаем softwareпрограммного обеспечения engineersинженеры
13
36979
2335
то нанимаете инженеров-программистов,
00:51
that writeзаписывать a very,
very long kitchenкухня recipeрецепт,
14
39338
3854
которые пишут длиннющий
кулинарный рецепт,
00:55
like, "If the waterводы is too hotгорячий,
turnочередь down the temperatureтемпература.
15
43216
3132
например: «Если вода слишком горячая,
уменьшите температуру.
00:58
If it's too coldхолодно, turnочередь up
the temperatureтемпература."
16
46372
2279
Если слишком холодная,
увеличьте температуру».
01:00
The recipesрецепты are not just 10 linesлинии long.
17
48675
2849
Только эти рецепты длиной не в 10 строк.
01:03
They are millionsмиллионы of linesлинии long.
18
51548
2603
Они содержат миллионы строк.
01:06
A modernсовременное cellклетка phoneТелефон
has 12 millionмиллиона linesлинии of codeкод.
19
54175
4084
У современного мобильного телефона —
код в 12 миллионов строк.
01:10
A browserбраузер has five5 millionмиллиона linesлинии of codeкод.
20
58283
2646
У браузера — пять миллионов строк кода.
01:12
And eachкаждый bugошибка in this recipeрецепт
can causeпричина your computerкомпьютер to crashавария.
21
60953
4969
И каждая ошибка в таком рецепте
может вызвать сбой в работе компьютера.
01:17
That's why a softwareпрограммного обеспечения engineerинженер
makesмарки so much moneyДеньги.
22
65946
3075
Именно поэтому инженер-программист
так много зарабатывает.
01:21
The newновый thing now is that computersкомпьютеры
can find theirих ownсвоя rulesправила.
23
69953
3660
Новизна в том, что сегодня компьютеры
сами могут находить свои правила.
01:25
So insteadвместо of an expertэксперт
decipheringрасшифровка, stepшаг by stepшаг,
24
73637
3606
Поэтому вместо эксперта,
пошагово расшифровывающего
01:29
a ruleправило for everyкаждый contingencyнепредвиденные обстоятельства,
25
77267
2148
правило для каждого
непредвиденного случая,
01:31
what you do now is you give
the computerкомпьютер examplesПримеры
26
79439
3074
теперь вы даёте компьютеру образцы,
01:34
and have it inferделать вывод its ownсвоя rulesправила.
27
82537
1581
и он сам делает выводы.
01:36
A really good exampleпример is AlphaGoAlphaGo,
whichкоторый recentlyв последнее время was wonвыиграл by GoogleGoogle.
28
84142
4306
Хорошим примером является AlphaGo,
программа, недавно созданная Google.
01:40
NormallyКак обычно, in gameигра playingиграть,
you would really writeзаписывать down all the rulesправила,
29
88472
3687
Обычно, участвуя в игре,
вы записывали все правила,
01:44
but in AlphaGo'sAlphaGo-х caseдело,
30
92183
1785
но в случае с AlphaGo
01:45
the systemсистема lookedсмотрел over a millionмиллиона gamesигры
31
93992
2066
система изучила более миллиона игр,
01:48
and was ableв состоянии to inferделать вывод its ownсвоя rulesправила
32
96082
2192
смогла вывести свои правила
01:50
and then beatбить the world'sв мире
residingпроживающих Go championчемпион.
33
98298
2738
и выиграла у действующего
чемпиона мира по игре в го.
01:53
That is excitingзахватывающе, because it relievesрельефы
the softwareпрограммного обеспечения engineerинженер
34
101853
3509
Это замечательно,
так как это помогает программисту.
01:57
of the need of beingявляющийся superсупер smartумная,
35
105386
1819
Ему не нужно быть очень умным;
01:59
and pushesвыталкивает the burdenбремя towardsв направлении the dataданные.
36
107229
2325
всё сводится к данным.
02:01
As I said, the inflectionсгибание pointточка
where this has becomeстали really possibleвозможное --
37
109578
4534
Как я уже сказал, точка перегиба,
где это стало реально возможно...
02:06
very embarrassingзатруднительный, my thesisТезис
was about machineмашина learningобучение.
38
114136
2746
очень неловко, моя диссертация
была о машинном обучении.
02:08
It was completelyполностью
insignificantнезначительный, don't readчитать it,
39
116906
2205
Она не заслуживала внимания,
не читайте её,
02:11
because it was 20 yearsлет agoтому назад
40
119135
1350
ведь это было 20 лет назад,
02:12
and back then, the computersкомпьютеры
were as bigбольшой as a cockroachтаракан brainголовной мозг.
41
120509
2907
когда компьютеры были
такими же умными, как тараканы.
02:15
Now they are powerfulмощный enoughдостаточно
to really emulateподражать
42
123440
2331
Теперь они достаточно мощные,
чтобы имитировать
02:17
kindсвоего рода of specializedспециализированный humanчеловек thinkingмышление.
43
125795
2076
специализированное человеческое мышление.
02:19
And then the computersкомпьютеры
take advantageпреимущество of the factфакт
44
127895
2313
А также компьютеры пользуются тем,
02:22
that they can look at
much more dataданные than people can.
45
130232
2500
что они могут изучить
гораздо больше данных, чем люди.
02:24
So I'd say AlphaGoAlphaGo lookedсмотрел at
more than a millionмиллиона gamesигры.
46
132756
3080
Я бы сказал, что AlphaGo изучила
более миллиона игр.
02:27
No humanчеловек expertэксперт can ever
studyизучение a millionмиллиона gamesигры.
47
135860
2839
Никакой человек–специалист
не может изучить миллион игр.
02:30
GoogleGoogle has lookedсмотрел at over
a hundredсто billionмиллиард webWeb pagesстраницы.
48
138723
3182
Google изучил более
ста миллиардов веб-страниц.
02:33
No personчеловек can ever studyизучение
a hundredсто billionмиллиард webWeb pagesстраницы.
49
141929
2650
Человек не может изучить
сто миллиардов веб-страниц.
02:36
So as a resultрезультат,
the computerкомпьютер can find rulesправила
50
144603
2714
В результате компьютер
может найти те правила,
02:39
that even people can't find.
51
147341
1755
которые даже люди найти не могут.
02:41
CAКалифорния: So insteadвместо of looking aheadвпереди
to, "If he does that, I will do that,"
52
149120
4312
КА: То есть вместо того, чтобы думать:
«Если он сделает это, я сделаю то»,
02:45
it's more sayingпоговорка, "Here is what
looksвыглядит like a winningвыигрыш patternшаблон,
53
153456
3072
он, скорее, говорит:
«Вот это выглядит лучше всего,
02:48
here is what looksвыглядит like
a winningвыигрыш patternшаблон."
54
156552
2079
вот это выглядит наилучшим образом».
02:50
STST: Yeah. I mean, think about
how you raiseповышение childrenдети.
55
158655
2517
СТ: Да, подумайте, как вы растите детей.
02:53
You don't spendпроводить the first 18 yearsлет
givingдающий kidsДети a ruleправило for everyкаждый contingencyнепредвиденные обстоятельства
56
161196
3644
Вы не тратите первые 18 лет,
давая детям инструкции по каждому поводу,
02:56
and setзадавать them freeсвободно
and they have this bigбольшой programпрограмма.
57
164864
2347
вы даёте им свободу
без такой подробной программы.
02:59
They stumbleспотыкаться, fallпадать, get up,
they get slappedшлепнул or spankedшлепали,
58
167235
2719
Они спотыкаются, падают, встают,
их ругают или шлёпают;
03:01
and they have a positiveположительный experienceопыт,
a good gradeкласс in schoolшкола,
59
169978
2884
у них появляются и положительный опыт,
хорошие оценки в школе,
03:04
and they figureфигура it out on theirих ownсвоя.
60
172886
1834
и они понимают всё это сами.
03:06
That's happeningпроисходит with computersкомпьютеры now,
61
174744
1737
То же самое сейчас с компьютерами,
03:08
whichкоторый makesмарки computerкомпьютер programmingпрограммирование
so much easierПолегче all of a suddenвнезапно.
62
176505
3029
и это неожиданно делает
программирование гораздо легче.
03:11
Now we don't have to think anymoreбольше не.
We just give them lots of dataданные.
63
179558
3175
Сейчас нам больше не нужно думать.
Мы просто даём им много данных.
03:14
CAКалифорния: And so, this has been keyключ
to the spectacularзахватывающий improvementулучшение
64
182757
3422
КА: Это стало ключевым фактором
для впечатляющего улучшения
03:18
in powerмощность of self-drivingсамостоятельное вождение carsлегковые автомобили.
65
186203
3064
способностей беспилотных автомобилей.
03:21
I think you gaveдал me an exampleпример.
66
189291
1739
Я думаю, что вы показали мне пример.
03:23
Can you explainобъяснять what's happeningпроисходит here?
67
191054
2685
Можете ли вы объяснить,
что здесь происходит?
03:25
STST: This is a driveводить машину of a self-drivingсамостоятельное вождение carавтомобиль
68
193763
3564
СТ: Это поездка беспилотного автомобиля,
03:29
that we happenedполучилось to have at UdacityUdacity
69
197351
1957
который был у нас на Udacity;
03:31
and recentlyв последнее время madeсделал
into a spin-offдополнительная выгода calledназывается Voyageпутешествие.
70
199332
2398
его сейчас преобразовали
в побочный продукт Voyage.
03:33
We have used this thing
calledназывается deepглубоко learningобучение
71
201754
2574
Мы использовали так называемое
глубокое обучение,
03:36
to trainпоезд a carавтомобиль to driveводить машину itselfсам,
72
204352
1623
чтобы обучить машину ездить самой;
03:37
and this is drivingвождение
from Mountainгора ViewПосмотреть, CaliforniaКалифорния,
73
205999
2387
и здесь она едет
из Маунтин-Вью, Калифорния,
03:40
to SanСан - FranciscoФранциско
74
208410
1168
до Сан-Франциско
03:41
on ElEl CaminoКамино Realреальный on a rainyдождливый day,
75
209602
2259
по Эль Камино Реал в дождливый день,
03:43
with bicyclistsвелосипедисты and pedestriansпешеходы
and 133 trafficтрафик lightsогни.
76
211885
3524
с велосипедистами, пешеходами
и 133-мя светофорами.
03:47
And the novelроман thing here is,
77
215433
2636
Новизна в том —
03:50
manyмногие, manyмногие moonsспутники agoтому назад, I startedначал
the GoogleGoogle self-drivingсамостоятельное вождение carавтомобиль teamкоманда.
78
218093
3120
давным-давно я основал в Google
группу по беспилотным автомобилям.
03:53
And back in the day, I hiredнаемный
the world'sв мире bestЛучший softwareпрограммного обеспечения engineersинженеры
79
221237
3181
Тогда я нанял лучших в мире
инженеров-программистов,
03:56
to find the world'sв мире bestЛучший rulesправила.
80
224442
1607
чтобы найти наилучшие правила.
03:58
This is just trainedобученный.
81
226073
1754
Эту обучили недавно.
03:59
We driveводить машину this roadДорога 20 timesраз,
82
227851
3336
Мы проехали эту дорогу 20 раз,
04:03
we put all this dataданные
into the computerкомпьютер brainголовной мозг,
83
231211
2447
мы внесли все эти данные
в мозг компьютера,
04:05
and after a fewмало hoursчасов of processingобработка,
84
233682
2082
и после нескольких часов обработки
04:07
it comesвыходит up with behaviorповедение
that oftenдовольно часто surpassesпревосходит humanчеловек agilityпроворство.
85
235788
3926
он приобрёл характеристики,
часто превосходящие способности человека.
04:11
So it's becomeстали really easyлегко to programпрограмма it.
86
239738
2017
Программировать его стало очень легко.
04:13
This is 100 percentпроцент autonomousавтономный,
about 33 milesмиль, an hourчас and a halfполовина.
87
241779
3803
Он автономный на 100% и покрывает
53 километра за полтора часа.
04:17
CAКалифорния: So, explainобъяснять it -- on the bigбольшой partчасть
of this programпрограмма on the left,
88
245606
3630
КА: Итак, объясните мне:
в большой, левой части этой программы
04:21
you're seeingвидя basicallyв основном what
the computerкомпьютер seesвидит as trucksгрузовики and carsлегковые автомобили
89
249260
3257
вы видите, в общем, то, что компьютер
видит как машины и грузовики,
04:24
and those dotsточек overtakingобгон it and so forthвперед.
90
252541
2886
и эти точки, обгоняющие его, и так далее.
04:27
STST: On the right sideбоковая сторона, you see the cameraкамера
imageобраз, whichкоторый is the mainглавный inputвход here,
91
255451
3762
СТ: Справа вы видите изображение с камеры,
являющееся основным источником данных
04:31
and it's used to find lanesполосы,
other carsлегковые автомобили, trafficтрафик lightsогни.
92
259237
2676
для поиска полос движения,
других машин, светофоров.
04:33
The vehicleсредство передвижения has a radarрадиолокационный
to do distanceрасстояние estimationоценка.
93
261937
2489
У машины есть радар
для оценки расстояния.
04:36
This is very commonlyобычно used
in these kindсвоего рода of systemsсистемы.
94
264450
2621
Его очень часто используют
в системах такого типа.
04:39
On the left sideбоковая сторона you see a laserлазер diagramдиаграмма,
95
267095
1992
Слева вы видите лазерную диаграмму
04:41
where you see obstaclesпрепятствий like treesдеревья
and so on depictedизображенный by the laserлазер.
96
269111
3200
с деревьями и другими препятствиями,
изображёнными лазером.
04:44
But almostпочти all the interestingинтересно work
is centeringцентрирование on the cameraкамера imageобраз now.
97
272335
3436
Но почти вся интересная работа
нынче связана с изображением из камеры.
04:47
We're really shiftingпереключение over from precisionточность
sensorsдатчиков like radarsрадары and lasersлазеры
98
275795
3476
Мы в самом деле переходим от высокоточных
датчиков — радаров и лазеров —
04:51
into very cheapдешево, commoditizedкоммерционализированных sensorsдатчиков.
99
279295
1842
к дешёвым сенсорам массового спроса.
04:53
A cameraкамера costsрасходы lessМеньше than eight8 dollarsдолларов.
100
281161
1987
Камера стоит менее восьми долларов.
04:55
CAКалифорния: And that greenзеленый dotточка
on the left thing, what is that?
101
283172
2793
КА: А эта зелёная точка
в левой части, что это такое?
04:57
Is that anything meaningfulзначимым?
102
285989
1371
Это что-то важное?
04:59
STST: This is a look-aheadСмотреть вперед pointточка
for your adaptiveадаптивный cruiseкруиз controlконтроль,
103
287384
3668
СТ: Это точка взгляда вперёд
вашего адаптивного круиз–контроля.
05:03
so it helpsпомогает us understandПонимаю
how to regulateрегулировать velocityскорость
104
291076
2477
Она помогает ему понять,
как отрегулировать скорость,
05:05
basedисходя из on how farдалеко
the carsлегковые автомобили in frontфронт of you are.
105
293577
2634
основываясь на расстоянии
до автомобилей впереди.
05:08
CAКалифорния: And so, you've alsoтакже
got an exampleпример, I think,
106
296235
2716
КА: Я думаю, у вас
заодно есть пример того,
05:10
of how the actualфактический
learningобучение partчасть takes placeместо.
107
298975
2381
как в действительности
происходит обучение.
05:13
Maybe we can see that. Talk about this.
108
301380
2458
Можем ли мы это увидеть?
Расскажите об этом.
05:15
STST: This is an exampleпример where we posedпозировала
a challengeвызов to UdacityUdacity studentsстуденты
109
303862
3643
СТ: Это пример сложного задания,
которое мы дали студентам Udacity,
05:19
to take what we call
a self-drivingсамостоятельное вождение carавтомобиль NanodegreeNanodegree.
110
307529
3131
получающим наностепень
по управлению беспилотным автомобилем.
05:22
We gaveдал them this datasetНабор данных
111
310684
1495
Мы дали им этот набор данных
и сказали: «Можете ли вы, ребята, понять,
как вести эту машину?»
05:24
and said "Hey, can you guys figureфигура out
how to steerуправлять this carавтомобиль?"
112
312203
3054
05:27
And if you look at the imagesизображений,
113
315281
1624
И если вы посмотрите на снимки —
05:28
it's, even for humansлюди, quiteдовольно impossibleневозможно
to get the steeringрулевое управление right.
114
316929
4073
даже для людей практически невозможно
правильно ей управлять.
05:33
And we ranпобежал a competitionсоревнование and said,
"It's a deepглубоко learningобучение competitionсоревнование,
115
321026
3591
Мы организовали конкурс и сказали:
«Это конкурс по глубокому обучению,
05:36
AIискусственный интеллект competitionсоревнование,"
116
324641
1173
соревнование в ИИ» —
05:37
and we gaveдал the studentsстуденты 48 hoursчасов.
117
325838
1887
и дали студентам 48 часов.
05:39
So if you are a softwareпрограммного обеспечения houseдом
like GoogleGoogle or Facebookfacebook,
118
327749
4172
Если вы — софтверная компания
вроде Google или Facebook,
нечто подобное будет стоить вам
как минимум полгода работы.
05:43
something like this costsрасходы you
at leastнаименее sixшесть monthsмесяцы of work.
119
331945
2717
05:46
So we figuredфигурный 48 hoursчасов is great.
120
334686
2202
Поэтому мы решили:
48 часов — это прекрасно.
05:48
And withinв 48 hoursчасов, we got about
100 submissionsДоводы from studentsстуденты,
121
336912
3467
И в течение 48-ми часов мы получили около
100 решений от студентов.
05:52
and the topВверх four4 got it perfectlyв совершенстве right.
122
340403
3370
У четверых лучших это получилось идеально.
05:55
It drivesдиски better than I could
driveводить машину on this imageryобразность,
123
343797
2640
После глубокого обучения
она в этих условиях едет лучше меня.
05:58
usingс помощью deepглубоко learningобучение.
124
346461
1189
05:59
And again, it's the sameодна и та же methodologyметодология.
125
347674
1799
И опять, это тот же метод.
06:01
It's this magicalволшебный thing.
126
349497
1164
Это волшебная вещь.
06:02
When you give enoughдостаточно dataданные
to a computerкомпьютер now,
127
350685
2085
Когда вы даёте компьютеру
достаточно данных
06:04
and give enoughдостаточно time
to comprehendпостигать the dataданные,
128
352794
2140
и достаточно времени,
чтобы их понять,
06:06
it findsнаходки its ownсвоя rulesправила.
129
354958
1445
он находит свои правила.
06:09
CAКалифорния: And so that has led to the developmentразвитие
of powerfulмощный applicationsПриложения
130
357339
4845
КА: И это привело к развитию
мощных приложений
06:14
in all sortsвиды of areasрайоны.
131
362208
1525
во всех областях.
06:15
You were talkingговорящий to me
the other day about cancerрак.
132
363757
2668
На днях вы мне говорили о раке.
06:18
Can I showпоказать this videoвидео?
133
366449
1189
Можно показать это видео?
06:19
STST: Yeah, absolutelyабсолютно, please.
CAКалифорния: This is coolкруто.
134
367662
2354
СТ: Да, конечно, пожалуйста.
КА: Отлично.
06:22
STST: This is kindсвоего рода of an insightв поле зрения
into what's happeningпроисходит
135
370040
3534
СТ: Это как бы взгляд на то,
что происходит
06:25
in a completelyполностью differentдругой domainдомен.
136
373598
2429
в абсолютно другой области.
06:28
This is augmentingприумножение, or competingконкурирующий --
137
376051
3752
Это дополнение, или соперник —
06:31
it's in the eyeглаз of the beholderочевидец --
138
379827
1749
в зависимости от точки зрения, —
06:33
with people who are beingявляющийся paidоплаченный
400,000 dollarsдолларов a yearгод,
139
381600
3454
для людей, которым платят
400 000 долларов в год:
06:37
dermatologistsдерматологи,
140
385078
1237
дерматологов,
06:38
highlyвысоко trainedобученный specialistsспециалисты.
141
386339
1983
высококвалифицированных специалистов.
06:40
It takes more than a decadeдесятилетие of trainingобучение
to be a good dermatologistдерматолог.
142
388346
3561
Более десятилетия практики уходит на то,
чтобы стать хорошим дерматологом.
06:43
What you see here is
the machineмашина learningобучение versionверсия of it.
143
391931
3196
А здесь вы видите результат
работы машинного обучения.
06:47
It's calledназывается a neuralнервный networkсеть.
144
395151
1841
Это называется нейронной сетью.
06:49
"Neuralнервный networksсети" is the technicalтехнический termсрок
for these machineмашина learningобучение algorithmsалгоритмы.
145
397016
3742
«Нейронные сети» — это технический термин
для алгоритмов машинного обучения.
06:52
They'veУ них есть been around sinceпоскольку the 1980s.
146
400782
1789
Они существовали с 1980-х годов.
06:54
This one was inventedизобрел in 1988
by a Facebookfacebook Fellowсобрат calledназывается YannYann LeCunLeCun,
147
402595
4640
Вот эта, изобретённая в 1988 году
научным сотрудником Facebook Яном ЛеКуном,
06:59
and it propagatesраспростран dataданные stagesэтапы
148
407259
3558
преобразует данные во внутренних слоях
07:02
throughчерез what you could think of
as the humanчеловек brainголовной мозг.
149
410841
2578
структуры, напоминающей человеческий мозг.
07:05
It's not quiteдовольно the sameодна и та же thing,
but it emulatesэмулирует the sameодна и та же thing.
150
413443
2966
Это не вполне то же самое,
но имитирует тот же процесс.
07:08
It goesидет stageсцена after stageсцена.
151
416433
1302
Данные проходят слой за слоем.
07:09
In the very first stageсцена, it takes
the visualвизуальный inputвход and extractsэкстракты edgesкрая
152
417759
3637
Первый слой берёт входящий
визуальный сигнал и выделяет края,
07:13
and rodsпрутки and dotsточек.
153
421420
2612
штрихи и точки.
07:16
And the nextследующий one becomesстановится
more complicatedсложно edgesкрая
154
424056
3037
На следующем слое появляются
более сложные очертания
07:19
and shapesформы like little half-moonsдекора.
155
427117
3191
и формы, такие как маленькие полумесяцы.
07:22
And eventuallyв итоге, it's ableв состоянии to buildстроить
really complicatedсложно conceptsконцепции.
156
430332
4443
И, в конечном счёте, она в состоянии
создавать действительно сложные структуры.
07:26
AndrewАндрей NgNg has been ableв состоянии to showпоказать
157
434799
2048
Эндрю Ын смог показать,
07:28
that it's ableв состоянии to find
catКот facesлица and dogсобака facesлица
158
436871
3480
что она в состоянии находить
морды кошек и собак
07:32
in vastогромный amountsсуммы of imagesизображений.
159
440375
1661
среди множества изображений.
07:34
What my studentстудент teamкоманда
at StanfordStanford has shownпоказанный is that
160
442060
2724
Моя группа студентов
из Стэнфорда показала,
07:36
if you trainпоезд it on 129,000 imagesизображений
of skinкожа conditionsусловия,
161
444808
6073
что если вы тренируете её на 129 000
снимков состояний кожи,
07:42
includingв том числе melanomaмеланома and carcinomasкарциномы,
162
450905
2565
включая меланомы и карциномы,
07:45
you can do as good a jobработа
163
453494
3301
вы можете достичь такого же
хорошего результата,
07:48
as the bestЛучший humanчеловек dermatologistsдерматологи.
164
456819
2197
как лучшие специалисты-дерматологи.
07:51
And to convinceубеждать ourselvesсами
that this is the caseдело,
165
459040
2549
И чтобы убедить себя, что это так,
07:53
we capturedзахваченный an independentнезависимый datasetНабор данных
that we presentedпредставленный to our networkсеть
166
461613
3990
мы создали независимую базу данных,
которую мы дали нашей нейросети
07:57
and to 25 board-certifiedСовет сертифицированных
Stanford-levelСтэнфорд уровень dermatologistsдерматологи,
167
465627
4342
и 25-ти сертифицированным
врачам-дерматологам уровня Стэнфорда
08:01
and comparedв сравнении those.
168
469993
1672
и сравнили их результаты.
08:03
And in mostбольшинство casesслучаи,
169
471689
1504
И в большинстве случаев
08:05
they were eitherили on parпаритет or aboveвыше
the performanceпредставление classificationклассификация accuracyточность
170
473217
3875
они были на уровне или выше
показателей точности классификации
08:09
of humanчеловек dermatologistsдерматологи.
171
477116
1467
специалистов–дерматологов.
КА: Вы мне рассказали об одном случае.
08:10
CAКалифорния: You were tellingговоря me an anecdoteанекдот.
172
478607
1746
08:12
I think about this imageобраз right here.
173
480377
1957
Я имею в виду вот это фото.
08:14
What happenedполучилось here?
174
482358
1484
Что здесь случилось?
08:15
STST: This was last ThursdayЧетверг.
That's a movingперемещение pieceкусок.
175
483866
4008
СТ: Это было в прошлый четверг.
Это очень волнующая история.
08:19
What we'veмы в shownпоказанный before and we publishedопубликованный
in "NatureПрирода" earlierранее this yearгод
176
487898
3600
То, о чём я уже рассказал, мы опубликовали
в журнале «Nature» в этом году.
08:23
was this ideaидея that we showпоказать
dermatologistsдерматологи imagesизображений
177
491522
2484
Идея была: мы покажем
фотографии дерматологам
08:26
and our computerкомпьютер programпрограмма imagesизображений,
178
494030
1539
и нашей компьютерной программе
08:27
and countподсчитывать how oftenдовольно часто they're right.
179
495593
1627
и проверим, часто ли они правы.
08:29
But all these imagesизображений are pastмимо imagesизображений.
180
497244
1778
Но все эти фотографии — из прошлого.
08:31
They'veУ них есть all been biopsiedбиопсию to make sure
we had the correctверный classificationклассификация.
181
499046
3460
Была сделана биопсия, чтобы удостовериться
в их правильной классификации.
08:34
This one wasn'tне было.
182
502530
1172
Для этой — не была.
08:35
This one was actuallyна самом деле doneсделанный at StanfordStanford
by one of our collaboratorsсотрудники.
183
503726
3179
Эта была сделана одним
из наших коллег из Стэнфорда.
08:38
The storyистория goesидет that our collaboratorсотрудник,
184
506929
2314
Рассказывают, что один из наших коллег,
08:41
who is a world-famousвсемирно известный dermatologistдерматолог,
one of the threeтри bestЛучший, apparentlyпо всей видимости,
185
509267
3391
известный в мире дерматолог,
вероятно, один из тройки лучших,
08:44
lookedсмотрел at this moleмоль and said,
"This is not skinкожа cancerрак."
186
512682
2935
посмотрел на эту родинку и сказал:
«Это не рак кожи».
08:47
And then he had
a secondвторой momentмомент, where he said,
187
515641
2476
И потом, немного подумав, он сказал:
08:50
"Well, let me just checkпроверить with the appприложение."
188
518141
1866
«Давайте я проверю в этом приложении».
08:52
So he tookвзял out his iPhoneiPhone
and ranпобежал our pieceкусок of softwareпрограммного обеспечения,
189
520031
2699
Итак, он взял свой iPhone
и запустил нашу программу,
08:54
our "pocketкарман dermatologistдерматолог," so to speakговорить,
190
522754
2121
нашего, так сказать,
«карманного дерматолога»,
08:56
and the iPhoneiPhone said: cancerрак.
191
524899
2994
и iPhone ответил: «Рак».
08:59
It said melanomaмеланома.
192
527917
1306
Он ответил: «Меланома».
09:01
And then he was confusedсмущенный.
193
529849
1233
Специалист смутился.
09:03
And he decidedприняли решение, "OK, maybe I trustдоверять
the iPhoneiPhone a little bitнемного more than myselfсебя,"
194
531106
4551
Он решил: «Может быть, я доверяю
устройству немного больше, чем себе»,
09:07
and he sentпослал it out to the labлаборатория
to get it biopsiedбиопсию.
195
535681
2735
и послал образец в лабораторию
для прохождения биопсии.
09:10
And it cameпришел up as an aggressiveагрессивный melanomaмеланома.
196
538440
2469
И выяснилось, что это
агрессивная меланома.
09:13
So I think this mightмог бы be the first time
that we actuallyна самом деле foundнайденный,
197
541545
3067
Возможно, это был первый
реальный случай обнаружения болезни
09:16
in the practiceпрактика of usingс помощью deepглубоко learningобучение,
198
544636
2487
в практике использования
глубокого обучения;
09:19
an actualфактический personчеловек whoseчья melanomaмеланома
would have goneпрошло unclassifiedНеклассифицированные,
199
547147
3372
реальный человек, чья меланома
была бы не классифицирована,
09:22
had it not been for deepглубоко learningобучение.
200
550543
2115
если бы не глубокое обучение.
09:24
CAКалифорния: I mean, that's incredibleнеимоверный.
201
552682
1560
КА: По-моему, это невероятно.
09:26
(ApplauseАплодисменты)
202
554266
1769
(Аплодисменты)
09:28
It feelsчувствует like there'dкрасный be an instantмгновенное demandспрос
for an appприложение like this right now,
203
556059
3600
Кажется, что будет резкий спрос
на подобные приложения,
возможно, вы многих
заставите занервничать.
09:31
that you mightмог бы freakурод out a lot of people.
204
559683
1966
09:33
Are you thinkingмышление of doing this,
makingизготовление an appприложение that allowsпозволяет self-checkingсамоконтроль?
205
561673
3527
Думаете ли вы создать приложение,
которое позволяло бы делать самопроверку?
09:37
STST: So my in-boxв коробке is floodedзатопленный
about cancerрак appsПрограммы,
206
565224
4973
СТ: Мой почтовый ящик полон писем
о приложениях, касающихся рака,
09:42
with heartbreakingдушераздирающий storiesистории of people.
207
570221
2303
с душераздирающими рассказами людей.
09:44
I mean, some people have had
10, 15, 20 melanomasмеланомы removedудален,
208
572548
3204
Я имею в виду, некоторым людям
удалили 10, 15, 20 меланом,
09:47
and are scaredиспуганный that one
mightмог бы be overlookedупускать из виду, like this one,
209
575776
3952
и они боятся, что, возможно,
ещё одну пропустили, как эту.
09:51
and alsoтакже, about, I don't know,
210
579752
1741
Он полон писем о, ну, не знаю,
09:53
flyingлетающий carsлегковые автомобили and speakerоратор inquiriesзапросы
these daysдней, I guessУгадай.
211
581517
2732
летающих автомобилях
и приглашениями на доклады.
09:56
My take is, we need more testingтестирование.
212
584273
2738
Моё мнение — нам нужно больше тестов.
09:59
I want to be very carefulосторожный.
213
587449
1778
Я хочу быть очень осторожным.
10:01
It's very easyлегко to give a flashyкричащий resultрезультат
and impressвпечатление a TEDТЕД audienceаудитория.
214
589251
3666
Очень легко рассказать о ярком результате
и поразить аудиторию TED.
10:04
It's much harderСильнее to put
something out that's ethicalэтический.
215
592941
2627
Гораздо труднее создать что-то этичное.
10:07
And if people were to use the appприложение
216
595592
2394
Если бы люди воспользовались программой
10:10
and chooseвыберите not to consultсоветоваться
the assistanceпомощь of a doctorврач
217
598010
2797
и выбрали бы не прибегать
к разъяснениям врача,
10:12
because we get it wrongнеправильно,
218
600831
1583
потому что мы ответили неверно,
10:14
I would feel really badПлохо about it.
219
602438
1653
я бы очень сожалел о об этом.
10:16
So we're currentlyВ данный момент doing clinicalклиническая testsтесты,
220
604115
1925
Сейчас мы проводим
клинические испытания,
10:18
and if these clinicalклиническая testsтесты commenceначинать
and our dataданные holdsдержит up,
221
606064
2798
и если они начнутся
и подтвердят наши данные,
10:20
we mightмог бы be ableв состоянии at some pointточка
to take this kindсвоего рода of technologyтехнологии
222
608886
2990
возможно, мы когда-то сможем
вооружиться этой технологией,
10:23
and take it out of the StanfordStanford clinicклиника
223
611900
1892
взять её из Стэнфордской клиники
10:25
and bringприносить it to the entireвсе worldМир,
224
613816
1658
и предоставить её всему миру,
10:27
placesмест where StanfordStanford
doctorsврачи never, ever setзадавать footфут.
225
615498
2456
в места, куда не ступает нога
докторов из Стэнфорда.
10:30
CAКалифорния: And do I hearзаслушивать this right,
226
618617
2580
КА: Правильно ли я вас понял,
10:33
that it seemedказалось like what you were sayingпоговорка,
227
621221
1966
мне показалось, что вы говорили,
10:35
because you are workingза работой
with this armyармия of UdacityUdacity studentsстуденты,
228
623211
4254
поскольку вы работаете
с этой армией студентов Udacity,
10:39
that in a way, you're applyingприменение
a differentдругой formформа of machineмашина learningобучение
229
627489
3221
в каком-то смысле, вы используете
иную форму машинного обучения,
10:42
than mightмог бы take placeместо in a companyКомпания,
230
630734
1735
чем та, которую используют компании;
10:44
whichкоторый is you're combiningобъединение machineмашина learningобучение
with a formформа of crowdтолпа wisdomмудрость.
231
632493
3484
а именно, вы сочетаете
машинное обучение c мудростью толпы.
10:48
Are you sayingпоговорка that sometimesиногда you think
that could actuallyна самом деле outperformопережать
232
636001
3384
Не говорите ли вы, что иногда вы считаете,
что этот подход может превзойти
10:51
what a companyКомпания can do,
even a vastогромный companyКомпания?
233
639409
2050
возможности компании, даже огромной?
10:53
STST: I believe there's now
instancesэкземпляры that blowдуть my mindразум,
234
641483
2940
СТ: Я верю в то, что есть
примеры, которые меня поражают,
10:56
and I'm still tryingпытаясь to understandПонимаю.
235
644447
1758
и я всё ещё пытаюсь понять их.
10:58
What ChrisКрис is referringссылаясь to
is these competitionsсоревнования that we runбег.
236
646229
3937
Крис имеет в виду наши соревнования.
11:02
We turnочередь them around in 48 hoursчасов,
237
650190
2268
Мы ограничиваем их 48–ю часами,
11:04
and we'veмы в been ableв состоянии to buildстроить
a self-drivingсамостоятельное вождение carавтомобиль
238
652482
2252
и мы смогли построить
беспилотный автомобиль,
11:06
that can driveводить машину from Mountainгора ViewПосмотреть
to SanСан - FranciscoФранциско on surfaceповерхность streetsулицы.
239
654758
3387
который может ехать от Маунтин–Вью
до Сан–Франциско по улицам городов.
11:10
It's not quiteдовольно on parпаритет with GoogleGoogle
after sevenсемь yearsлет of GoogleGoogle work,
240
658169
3584
Он не вполне на уровне Google —
после семи лет работы Google, —
11:13
but it's gettingполучение there.
241
661777
2528
но уже довольно близок к нему.
11:16
And it tookвзял us only two engineersинженеры
and threeтри monthsмесяцы to do this.
242
664329
3084
Нам потребовались только два инженера
и три месяца работы.
11:19
And the reasonпричина is, we have
an armyармия of studentsстуденты
243
667437
2856
Причина в том, что у нас
целая армия студентов,
11:22
who participateпринимать участие in competitionsсоревнования.
244
670317
1850
которые участвуют в соревнованиях.
11:24
We're not the only onesте,
who use crowdsourcingкраудсорсинг.
245
672191
2220
Не только мы одни
используем краудсорсинг.
11:26
UberUber and DidiДиди use crowdsourceкраудсорсинга for drivingвождение.
246
674435
2223
Uber и Didi используют его для вождения.
11:28
AirbnbAirbnb usesиспользования crowdsourcingкраудсорсинг for hotelsотели.
247
676682
2759
Airbnb использует его для отелей.
11:31
There's now manyмногие examplesПримеры
where people do bug-findingОшибка Поиск crowdsourcingкраудсорсинг
248
679465
4007
Сегодня есть много примеров, когда люди
вместе находят ошибки в программах
11:35
or proteinбелок foldingскладной, of all things,
in crowdsourcingкраудсорсинг.
249
683496
2804
или, представьте себе, находят
фолдинг белков краудсорсингом.
11:38
But we'veмы в been ableв состоянии to buildстроить
this carавтомобиль in threeтри monthsмесяцы,
250
686324
2915
Но мы смогли построить
эту машину за три месяца,
11:41
so I am actuallyна самом деле rethinkingпереосмысление
251
689263
3655
и сейчас я переосмысливаю,
11:44
how we organizeорганизовать corporationsкорпорации.
252
692942
2238
как мы организуем корпорации.
11:47
We have a staffсотрудники of 9,000 people
who are never hiredнаемный,
253
695204
4696
У нас в штате 9 000 человек,
которых никогда не нанимали,
11:51
that I never fireОгонь.
254
699924
1308
которых я никогда не уволю.
11:53
They showпоказать up to work
and I don't even know.
255
701256
2362
Они приходят на работу,
и я даже не знаю об этом.
11:55
Then they submitОтправить to me
maybe 9,000 answersответы.
256
703642
3058
Потом они присылают мне
примерно 9 000 ответов.
11:58
I'm not obligedобязанный to use any of those.
257
706724
2176
Я не обязан использовать
какой-либо из них.
12:00
I endконец up -- I payплатить only the winnersпобедители,
258
708924
1991
В конце концов я плачу только победителям;
здесь я очень прижимист, и это,
возможно, не лучшая практика.
12:02
so I'm actuallyна самом деле very cheapskateскряга here,
whichкоторый is maybe not the bestЛучший thing to do.
259
710939
3718
12:06
But they considerрассматривать it partчасть
of theirих educationобразование, too, whichкоторый is niceхороший.
260
714681
3185
Но они рассматривают это
как часть своей учёбы, и это хорошо.
12:09
But these studentsстуденты have been ableв состоянии
to produceпроизводить amazingудивительно deepглубоко learningобучение resultsРезультаты.
261
717890
4201
Но эти студенты смогли добиться прекрасных
результатов в области глубокого обучения.
12:14
So yeah, the synthesisсинтез of great people
and great machineмашина learningобучение is amazingудивительно.
262
722115
3861
Да, синтез талантливых людей
и замечательных машин поразителен.
12:18
CAКалифорния: I mean, GaryGary KasparovКаспаров said on
the first day [of TEDТЕД2017]
263
726000
2814
КА: Гарри Каспаров сказал
в первый день конференции [TED2017],
12:20
that the winnersпобедители of chessшахматы, surprisinglyкак ни странно,
turnedоказалось out to be two amateurлюбитель chessшахматы playersигроки
264
728848
5412
что удивительно, как чемпионы по шахматам
оказались двумя шахматистами-любителями,
12:26
with threeтри mediocre-ishmediocre-ISH,
mediocre-to-goodпосредственный очень хорошо, computerкомпьютер programsпрограммы,
265
734284
5371
игравшими с тремя средненькими, чуть
лучше средних, компьютерными программами,
12:31
that could outperformопережать one grandбольшой masterмастер
with one great chessшахматы playerигрок,
266
739679
3163
которые смогли превзойти гроссмейстера
и выдающегося шахматиста,
12:34
like it was all partчасть of the processобработать.
267
742866
1743
так, как будто это часть процесса.
12:36
And it almostпочти seemsкажется like
you're talkingговорящий about a much richerбогаче versionверсия
268
744633
3335
Кажется, что как будто вы говорите
о более сложной версии
12:39
of that sameодна и та же ideaидея.
269
747992
1200
этой же идеи.
12:41
STST: Yeah, I mean, as you followedс последующим
the fantasticфантастика panelsпанели yesterdayвчера morningутро,
270
749216
3857
СТ: Да, когда вчера утром вы следили
за фантастическими экспертами
12:45
two sessionsсессий about AIискусственный интеллект,
271
753097
1994
на двух сессиях, касающихся ИИ,
12:47
roboticроботизированный overlordsповелители and the humanчеловек responseответ,
272
755115
2167
захвата власти роботами
и реакции человека,
12:49
manyмногие, manyмногие great things were said.
273
757306
1982
там было сказано много замечательного.
12:51
But one of the concernsпроблемы is
that we sometimesиногда confuseспутать
274
759312
2687
Но одна из проблем — иногда мы путаем то,
12:54
what's actuallyна самом деле been doneсделанный with AIискусственный интеллект
with this kindсвоего рода of overlordПовелитель threatугроза,
275
762023
4062
что было реально сделано с помощью ИИ,
с этой угрозой мирового господства,
12:58
where your AIискусственный интеллект developsразвивается
consciousnessсознание, right?
276
766109
3424
где ваш ИИ осознаёт себя, не так ли?
13:01
The last thing I want
is for my AIискусственный интеллект to have consciousnessсознание.
277
769557
2971
Меньше всего я хочу,
чтобы у моего ИИ было сознание.
13:04
I don't want to come into my kitchenкухня
278
772552
1716
Я не хочу прийти на кухню,
13:06
and have the refrigeratorхолодильник fallпадать in love
with the dishwasherпосудомоечная машина
279
774292
4193
где холодильник влюблён
в посудомоечную машину
и говорит мне, что,
поскольку я плохо себя вёл,
13:10
and tell me, because I wasn'tне было niceхороший enoughдостаточно,
280
778509
2124
13:12
my foodпитание is now warmтепло.
281
780657
1837
всё в морозилке растаяло.
13:14
I wouldn'tне будет buyкупить these productsпродукты,
and I don't want them.
282
782518
2891
Я бы не купил такие устройства
и не хочу их иметь.
13:17
But the truthправда is, for me,
283
785825
1802
Но мне ясно то,
13:19
AIискусственный интеллект has always been
an augmentationувеличение of people.
284
787651
2720
что ИИ всегда был дополнением людей.
13:22
It's been an augmentationувеличение of us,
285
790893
1676
Он был нашим дополнением,
13:24
to make us strongerсильнее.
286
792593
1457
чтобы сделать нас сильнее.
13:26
And I think KasparovКаспаров was exactlyв точку correctверный.
287
794074
2831
Я думаю, что Каспаров был абсолютно прав.
13:28
It's been the combinationсочетание
of humanчеловек smartsум and machineмашина smartsум
288
796929
3849
Именно сочетание ума человека и машины
13:32
that make us strongerсильнее.
289
800802
1464
делает нас сильнее.
13:34
The themeтема of machinesмашины makingизготовление us strongerсильнее
is as oldстарый as machinesмашины are.
290
802290
4587
Идея того, что машины делают нас сильнее,
так же стара, как и сами машины.
13:39
The agriculturalсельскохозяйственное revolutionреволюция tookвзял
placeместо because it madeсделал steamСтим enginesдвигатели
291
807567
3758
Аграрная революция произошла потому,
что она создала паровые машины
13:43
and farmingсельское хозяйство equipmentоборудование
that couldn'tне может farmферма by itselfсам,
292
811349
2666
и орудия фермерского труда,
которые не могли сами работать
13:46
that never replacedзаменены us;
it madeсделал us strongerсильнее.
293
814039
2122
и не заменили нас;
она сделала нас сильнее.
13:48
And I believe this newновый waveволна of AIискусственный интеллект
will make us much, much strongerсильнее
294
816185
3738
И я верю в то, эта новая волна ИИ
сделает нас намного сильнее
13:51
as a humanчеловек raceраса.
295
819947
1183
как человеческую расу.
13:53
CAКалифорния: We'llЧто ж come on to that a bitнемного more,
296
821765
1813
КА: Мы вернёмся к этому немного позже,
13:55
but just to continueПродолжать with the scaryстрашно partчасть
of this for some people,
297
823602
3671
но для того, чтобы продолжить
обсуждать то, что некоторых пугает,
13:59
like, what feelsчувствует like it getsполучает
scaryстрашно for people is when you have
298
827297
3558
например, похоже, что
люди пугаются, когда у вас есть
14:02
a computerкомпьютер that can, one,
rewriteперезапись its ownсвоя codeкод,
299
830879
4618
компьютер, который может сам
переписывать свой код,
14:07
so, it can createСоздайте
multipleмножественный copiesкопии of itselfсам,
300
835521
3584
и поэтому он может создавать
множество копий самого себя,
14:11
try a bunchгроздь of differentдругой codeкод versionsверсии,
301
839129
1897
пробовать разные версии кода,
14:13
possiblyвозможно even at randomслучайный,
302
841050
1775
возможно, даже создавая их случайно,
14:14
and then checkпроверить them out and see
if a goalЦель is achievedдостигнутый and improvedулучшен.
303
842849
3632
затем проверять их и смотреть,
достигнута ли и улучшена ли цель.
14:18
So, say the goalЦель is to do better
on an intelligenceинтеллект testконтрольная работа.
304
846505
3641
Допустим, цель — это успешнее пройти тест
на умственные способности.
14:22
You know, a computerкомпьютер
that's moderatelyумеренно good at that,
305
850170
3894
Компьютер, который делает это
на среднем уровне,
14:26
you could try a millionмиллиона versionsверсии of that.
306
854088
2509
может попробовать миллион версий.
14:28
You mightмог бы find one that was better,
307
856621
2090
Возможно, он найдёт ту, которая лучше,
14:30
and then, you know, repeatповторение.
308
858735
2004
и потом, знаете ли, повторит.
14:32
And so the concernбеспокойство is that you get
some sortСортировать of runawayубегай effectэффект
309
860763
3040
Есть опасения, что у вас будет
в некотором роде эффект убегания,
14:35
where everything is fine
on ThursdayЧетверг eveningвечер,
310
863827
3008
когда всё хорошо в четверг вечером,
14:38
and you come back into the labлаборатория
on Fridayпятница morningутро,
311
866859
2336
вы приходите в лабораторию
в пятницу утром,
14:41
and because of the speedскорость
of computersкомпьютеры and so forthвперед,
312
869219
2449
и из-за скорости работы компьютеров
и многого другого
14:43
things have goneпрошло crazyпсих, and suddenlyвдруг, внезапно --
313
871692
1903
всё пошло кувырком, и вдруг...
14:45
STST: I would say this is a possibilityвозможность,
314
873619
2020
СТ: Я бы сказал, это возможно,
14:47
but it's a very remoteдистанционный пульт possibilityвозможность.
315
875663
1916
но очень не скоро.
14:49
So let me just translateпереведите
what I heardуслышанным you say.
316
877603
3337
Поэтому позвольте мне
перефразировать ваши слова.
14:52
In the AlphaGoAlphaGo caseдело,
we had exactlyв точку this thing:
317
880964
2704
В случае с AlphaGo мы имели следующее:
14:55
the computerкомпьютер would playиграть
the gameигра againstпротив itselfсам
318
883692
2315
компьютер вёл игру против себя,
14:58
and then learnучить newновый rulesправила.
319
886031
1250
затем учил новые правила.
14:59
And what machineмашина learningобучение is
is a rewritingпереписывание of the rulesправила.
320
887305
3235
Машинное обучение —
это переписывание правил.
15:02
It's the rewritingпереписывание of codeкод.
321
890564
1769
Это переписывание кода.
15:04
But I think there was
absolutelyабсолютно no concernбеспокойство
322
892357
2845
Но я думаю, что не было
абсолютно никаких опасений,
15:07
that AlphaGoAlphaGo would take over the worldМир.
323
895226
2426
что AlphaGo захватит мир.
15:09
It can't even playиграть chessшахматы.
324
897676
1464
Он даже не может играть в шахматы.
15:11
CAКалифорния: No, no, no, but now,
these are all very single-domainоднодоменный things.
325
899164
5147
КА: Нет, нет, нет, сейчас они —
очень узкоспециализированные устройства.
15:16
But it's possibleвозможное to imagineпредставить.
326
904335
2879
Но это можно себе представить.
15:19
I mean, we just saw a computerкомпьютер
that seemedказалось nearlyоколо capableспособный
327
907238
3089
Мы только что видели компьютер,
который казался почти способным
15:22
of passingпрохождение a universityУниверситет entranceвход testконтрольная работа,
328
910351
2655
пройти университетский вступительный тест,
15:25
that can kindсвоего рода of -- it can't readчитать
and understandПонимаю in the senseсмысл that we can,
329
913030
3688
который способен — хотя и не может
читать и понимать, как это делаем мы, —
15:28
but it can certainlyбезусловно absorbабсорбировать all the textтекст
330
916742
1987
но точно может усвоить весь текст
15:30
and maybe see increasedвырос
patternsузоры of meaningимея в виду.
331
918753
2899
и, вероятно, обобщить его смысл.
15:33
Isn't there a chanceшанс that,
as this broadensуширение out,
332
921676
3694
Нет ли шанса, что при увеличении
его способностей
15:37
there could be a differentдругой
kindсвоего рода of runawayубегай effectэффект?
333
925394
2466
может иметь место
другой вид эффекта убегания?
15:39
STST: That's where
I drawпривлечь the lineлиния, honestlyчестно говоря.
334
927884
2078
СТ: Здесь я провожу черту, честно.
15:41
And the chanceшанс existsсуществует --
I don't want to downplayпреуменьшать it --
335
929986
2643
И вероятность существует —
я не хочу это преуменьшать, —
15:44
but I think it's remoteдистанционный пульт, and it's not
the thing that's on my mindразум these daysдней,
336
932653
3672
но я думаю, что она отдалённая,
и она не заботит меня сегодня,
15:48
because I think the bigбольшой revolutionреволюция
is something elseеще.
337
936349
2512
так как я думаю, что
большая революция — это другое.
15:50
Everything successfulуспешный in AIискусственный интеллект
to the presentнастоящее время dateДата
338
938885
2922
Всё успешное в области ИИ
на сегодняшний день
15:53
has been extremelyочень specializedспециализированный,
339
941831
2214
было чрезвычайно специализировано
15:56
and it's been thrivingпроцветающий on a singleОдин ideaидея,
340
944069
2489
и процветало благодаря единственной идее —
15:58
whichкоторый is massiveмассивный amountsсуммы of dataданные.
341
946582
2739
огромному объёму данных.
16:01
The reasonпричина AlphaGoAlphaGo worksработает so well
is because of massiveмассивный numbersчисел of Go playsигры,
342
949345
4147
Причина такой хорошей работы AlphaGo —
это огромное число игр в го,
16:05
and AlphaGoAlphaGo can't driveводить машину a carавтомобиль
or flyлетать a planeсамолет.
343
953516
3255
и AlphaGo не может управлять
автомобилем или самолётом.
16:08
The GoogleGoogle self-drivingсамостоятельное вождение carавтомобиль
or the UdacityUdacity self-drivingсамостоятельное вождение carавтомобиль
344
956795
3031
Беспилотный автомобиль Google
или беспилотный автомобиль Udacity
16:11
thrivesпроцветает on massiveмассивный amountsсуммы of dataданные,
and it can't do anything elseеще.
345
959850
3240
процветают на огромных объёмах данных;
и другого они делать не могут.
16:15
It can't even controlконтроль a motorcycleмотоцикл.
346
963114
1727
Они не могут даже управлять мотоциклом.
16:16
It's a very specificконкретный,
domain-specificпредметно-ориентированный functionфункция,
347
964865
2762
Это очень специфическая,
касающаяся одной сферы функция.
16:19
and the sameодна и та же is trueправда for our cancerрак appприложение.
348
967651
1907
Это верно и для приложения по раку.
16:21
There has been almostпочти no progressпрогресс
on this thing calledназывается "generalГенеральная AIискусственный интеллект,"
349
969582
3236
Не было почти никакого прогресса
по так называемому общему ИИ,
16:24
where you go to an AIискусственный интеллект and say,
"Hey, inventвыдумывать for me specialособый relativityотносительность
350
972842
4000
где вы идёте к ИИ и говорите:
«Изобрети-ка для меня СТО
16:28
or stringстрока theoryтеория."
351
976866
1666
или теорию струн».
16:30
It's totallyполностью in the infancyмладенчество.
352
978556
1931
ИИ ещё полностью в младенчестве.
16:32
The reasonпричина I want to emphasizeподчеркивать this,
353
980511
2127
Причина, по которой
я хочу подчеркнуть это, —
16:34
I see the concernsпроблемы,
and I want to acknowledgeпризнавать them.
354
982662
3838
я вижу опасения и готов их признать.
16:38
But if I were to think about one thing,
355
986524
2886
Но если бы я подумал об одной вещи,
16:41
I would askпросить myselfсебя the questionвопрос,
"What if we can take anything repetitiveповторяющийся
356
989434
5563
я бы задал себе вопрос:
«А если мы возьмём что-то повторяющееся
16:47
and make ourselvesсами
100 timesраз as efficientэффективное?"
357
995021
3473
и сделаем себя в 100 раз эффективнее?»
16:51
It so turnsвитки out, 300 yearsлет agoтому назад,
we all workedработал in agricultureсельское хозяйство
358
999170
4249
Так получилось 300 лет назад,
когда все работали в сельском хозяйстве,
16:55
and did farmingсельское хозяйство and did repetitiveповторяющийся things.
359
1003443
2051
выполняли монотонную работу.
16:57
TodayCегодня, 75 percentпроцент of us work in officesофисы
360
1005518
2556
Сегодня 75 процентов людей
работают в офисах
17:00
and do repetitiveповторяющийся things.
361
1008098
2124
и выполняют монотонную работу.
17:02
We'veУ нас becomeстали spreadsheetтаблица monkeysобезьяны.
362
1010246
2183
Мы стали обезьянами,
работающими с таблицами.
17:04
And not just low-endнизкий уровень конца laborтруд, работа.
363
1012453
2054
И это не только низкооплачиваемый труд.
17:06
We'veУ нас becomeстали dermatologistsдерматологи
doing repetitiveповторяющийся things,
364
1014531
2754
Мы стали дерматологами,
которые делают одно и то же,
17:09
lawyersадвокаты doing repetitiveповторяющийся things.
365
1017309
1749
юристами, делающими одно и то же.
17:11
I think we are at the brinkBrink
of beingявляющийся ableв состоянии to take an AIискусственный интеллект,
366
1019082
3823
Думаю, что мы сейчас
на пороге того, чтобы взять ИИ,
17:14
look over our shouldersплечи,
367
1022929
1718
оглядеться вокруг,
17:16
and they make us maybe 10 or 50 timesраз
as effectiveэффективный in these repetitiveповторяющийся things.
368
1024671
4058
и эти программы позволят нам в 10–50 раз
лучше справляться с монотонной работой.
17:20
That's what is on my mindразум.
369
1028753
1275
Вот о чём я думаю.
17:22
CAКалифорния: That soundsзвуки superсупер excitingзахватывающе.
370
1030052
2450
КА: Звучит захватывающе!
17:24
The processобработать of gettingполучение there seemsкажется
a little terrifyingужасающий to some people,
371
1032526
3530
Процесс достижения этого кажется
немного пугающим для некоторых,
17:28
because onceодин раз a computerкомпьютер
can do this repetitiveповторяющийся thing
372
1036080
3180
потому что однажды компьютер
сможет делать эти рутинные задачи
17:31
much better than the dermatologistдерматолог
373
1039284
3434
намного лучше, чем дерматолог
17:34
or than the driverВодитель, especiallyособенно,
is the thing that's talkedговорили about
374
1042742
3230
или, особенно, водитель, —
об этом сейчас
17:37
so much now,
375
1045996
1290
так много говорят.
17:39
suddenlyвдруг, внезапно millionsмиллионы of jobsработы go,
376
1047310
1958
Мы резко лишимся миллионов рабочих мест,
17:41
and, you know, the country'sстраны in revolutionреволюция
377
1049292
2695
и, знаете ли, в стране начнётся революция
17:44
before we ever get to the more
gloriousславный aspectsаспекты of what's possibleвозможное.
378
1052011
4329
прежде, чем мы дойдём
до болеe привлекательных аспектов.
17:48
STST: Yeah, and that's an issueвопрос,
and it's a bigбольшой issueвопрос,
379
1056364
2517
СТ: Да, это проблема,
это большая проблема,
17:50
and it was pointedзаостренный out yesterdayвчера morningутро
by severalнесколько guestгость speakersдинамики.
380
1058905
4196
и на это было указано вчера утром
несколькими выступавшими гостями.
17:55
Now, priorпредшествующий to me showingпоказ up onstageна сцене,
381
1063125
2754
Сейчас, прежде чем выйти на сцену,
17:57
I confessedпризнался I'm a positiveположительный,
optimisticоптимистичный personчеловек,
382
1065903
3739
я признался, что я оптимист,
18:01
so let me give you an optimisticоптимистичный pitchподача,
383
1069666
2389
и позвольте мне
высказаться оптимистически.
18:04
whichкоторый is, think of yourselfсам
back 300 yearsлет agoтому назад.
384
1072079
4795
А именно: представьте себя
живущим 300 лет назад.
18:08
EuropeЕвропа just survivedпереживший 140 yearsлет
of continuousнепрерывный warвойна,
385
1076898
3996
Европа только пережила
140 лет нескончаемых войн,
18:12
noneникто of you could readчитать or writeзаписывать,
386
1080918
1711
никто не умеет ни читать, ни писать,
18:14
there were no jobsработы that you holdдержать todayCегодня,
387
1082653
2945
нет таких рабочих мест,
за которые вы держитесь сейчас,
18:17
like investmentинвестиции bankerбанкир
or softwareпрограммного обеспечения engineerинженер or TVТВ anchorякорь.
388
1085622
4096
таких как инвестиционный банкир,
или программист, или телеведущий.
18:21
We would all be in the fieldsполя and farmingсельское хозяйство.
389
1089742
2414
Мы все работаем в полях и на фермах.
18:24
Now here comesвыходит little SebastianСебастьян
with a little steamСтим engineдвигатель in his pocketкарман,
390
1092180
3573
И приходит маленький Себастьян
с маленькой паровой машиной в кармане
18:27
sayingпоговорка, "Hey guys, look at this.
391
1095777
1548
и говорит: «Посмотрите на это.
18:29
It's going to make you 100 timesраз
as strongсильный, so you can do something elseеще."
392
1097349
3595
Это сделает вас в 100 раз сильнее,
и вы сможете сделать что-нибудь ещё».
18:32
And then back in the day,
there was no realреальный stageсцена,
393
1100968
2470
Тогда, в те времена, не было такой сцены,
18:35
but ChrisКрис and I hangвешать out
with the cowsкоровы in the stableстабильный,
394
1103462
2526
но Крис и я приходим в хлев к коровам,
18:38
and he saysговорит, "I'm really
concernedобеспокоенный about it,
395
1106012
2100
и он говорит: «Меня это беспокоит,
18:40
because I milkмолоко my cowкорова everyкаждый day,
and what if the machineмашина does this for me?"
396
1108136
3652
потому что я каждый день дою свою корову,
и что, если машина меня заменит?»
18:43
The reasonпричина why I mentionупомянуть this is,
397
1111812
1702
Я упомянул это,
18:46
we're always good in acknowledgingпризнавая
pastмимо progressпрогресс and the benefitвыгода of it,
398
1114360
3603
так как мы охотно признаём
прошлые достижения и выгоды от них,
18:49
like our iPhonesайфонов or our planesсамолеты
or electricityэлектричество or medicalмедицинская supplyпоставка.
399
1117987
3354
например, iPhone, самолёты,
электричество, медицинское обеспечение.
18:53
We all love to liveжить to 80,
whichкоторый was impossibleневозможно 300 yearsлет agoтому назад.
400
1121365
4245
Мы все любим жить до 80-ти лет,
что было невозможно 300 лет назад.
18:57
But we kindсвоего рода of don't applyподать заявление
the sameодна и та же rulesправила to the futureбудущее.
401
1125634
4156
Но мы как бы не применяем
те же правила к будущему.
19:02
So if I look at my ownсвоя jobработа as a CEOИсполнительный директор,
402
1130621
3207
Ведь если я посмотрю на свою работу
генерального директора,
19:05
I would say 90 percentпроцент
of my work is repetitiveповторяющийся,
403
1133852
3140
я скажу, что 90 процентов
моей работы — повторяющаяся.
19:09
I don't enjoyнаслаждаться it,
404
1137016
1351
Я её не люблю,
19:10
I spendпроводить about four4 hoursчасов perв day
on stupidглупый, repetitiveповторяющийся emailЭл. адрес.
405
1138391
3978
я трачу около четырёх часов в день
на скучные, однотипные письма.
19:14
And I'm burningсжигание to have something
that helpsпомогает me get ridизбавиться of this.
406
1142393
3641
И я жажду иметь что-то,
что помогло бы мне от этого избавиться.
19:18
Why?
407
1146058
1158
Почему?
19:19
Because I believe all of us
are insanelyдушевнобольно creativeтворческий;
408
1147240
3003
Потому что я верю, что все мы —
безумно творческие люди;
19:22
I think the TEDТЕД communityсообщество
more than anybodyкто-нибудь elseеще.
409
1150731
3194
в особенности, я думаю,
члены сообщества TED.
19:25
But even blue-collarсиний воротник workersрабочие;
I think you can go to your hotelГостиница maidгорничная
410
1153949
3559
Даже «синие воротнички»; я думаю,
если вы пойдёте к вашей горничной в отеле
19:29
and have a drinkнапиток with him or her,
411
1157532
2402
и выпьете с ним или с ней,
19:31
and an hourчас laterпозже,
you find a creativeтворческий ideaидея.
412
1159958
2717
то час спустя у вас возникнет
творческая идея.
19:34
What this will empowerуполномочивать
is to turnочередь this creativityкреативность into actionдействие.
413
1162699
4140
ИИ даст нам возможность
превратить это творчество в действие.
19:39
Like, what if you could
buildстроить GoogleGoogle in a day?
414
1167265
3442
Например, что, если бы вы смогли
построить Google за один день?
19:43
What if you could sitсидеть over beerпиво
and inventвыдумывать the nextследующий SnapchatSnapchat,
415
1171221
3316
Или, сидя за кружкой пива, вы смогли бы
изобрести очередной Snapchat,
19:46
whateverбез разницы it is,
416
1174561
1165
или что-нибудь подобное,
19:47
and tomorrowзавтра morningутро it's up and runningБег?
417
1175750
2187
и завтра утром это заработало бы?
19:49
And that is not scienceнаука fictionфантастика.
418
1177961
1773
И это не научная фантастика.
19:51
What's going to happenслучаться is,
419
1179758
1254
Вот что произойдёт:
19:53
we are alreadyуже in historyистория.
420
1181036
1867
мы уже оставили след в истории.
19:54
We'veУ нас unleashedразвязанная this amazingудивительно creativityкреативность
421
1182927
3228
Мы высвободили этот замечательный
творческий потенциал
19:58
by de-slavingде раб us from farmingсельское хозяйство
422
1186179
1611
путём ухода из-под ига фермерства
19:59
and laterпозже, of courseкурс, from factoryзавод work
423
1187814
3363
и потом, конечно, от работы на фабриках.
20:03
and have inventedизобрел so manyмногие things.
424
1191201
3162
Мы изобрели так много вещей.
20:06
It's going to be even better,
in my opinionмнение.
425
1194387
2178
По моему мнению, всё идёт к лучшему.
20:08
And there's going to be
great sideбоковая сторона effectsпоследствия.
426
1196589
2072
Но также будут и большие побочные эффекты.
20:10
One of the sideбоковая сторона effectsпоследствия will be
427
1198685
1489
Один из них — в том,
20:12
that things like foodпитание and medicalмедицинская supplyпоставка
and educationобразование and shelterукрытие
428
1200198
4795
что такие вещи, как питание,
медицина, образование, жильё
20:17
and transportationтранспорт
429
1205017
1177
и транспорт —
20:18
will all becomeстали much more
affordableдоступный to all of us,
430
1206218
2441
все они будут намного более
доступными для всех нас,
20:20
not just the richбогатые people.
431
1208683
1322
а не только для богатых.
20:22
CAКалифорния: HmmХмм.
432
1210029
1182
КА: Хмм.
20:23
So when MartinМартин Fordброд arguedутверждал, you know,
that this time it's differentдругой
433
1211235
4341
Хотя Мартин Форд утверждал,
что на этот раз происходит что-то другое,
20:27
because the intelligenceинтеллект
that we'veмы в used in the pastмимо
434
1215600
3453
потому что интеллекту,
которым мы пользовались раньше,
20:31
to find newновый waysпути to be
435
1219077
2483
чтобы найти новые пути бытия,
20:33
will be matchedсоответствие at the sameодна и та же paceтемп
436
1221584
2279
будет соответствовать
искусственный интеллект
20:35
by computersкомпьютеры takingпринятие over those things,
437
1223887
2291
компьютеров, овладевающих
теми же вещами,
20:38
what I hearзаслушивать you sayingпоговорка
is that, not completelyполностью,
438
1226202
3078
вы сейчас говорите,
что это не вполне так,
20:41
because of humanчеловек creativityкреативность.
439
1229304
2951
поскольку у людей
есть творческий потенциал.
20:44
Do you think that that's fundamentallyв корне
differentдругой from the kindсвоего рода of creativityкреативность
440
1232279
3785
Вы думаете, что он фундаментально
отличается от творчества,
20:48
that computersкомпьютеры can do?
441
1236088
2696
которое по силам компьютерам?
20:50
STST: So, that's my firmфирма
beliefвера as an AIискусственный интеллект personчеловек --
442
1238808
4434
СТ: Как человек ИИ, я твёрдо уверен в том,
20:55
that I haven'tне seenвидели
any realреальный progressпрогресс on creativityкреативность
443
1243266
3803
что я никогда не видел никакого
реального прогресса в творчестве
20:59
and out-of-the-boxвне коробки thinkingмышление.
444
1247949
1407
и нестандартном мышлении.
21:01
What I see right now -- and this is
really importantважный for people to realizeпонимать,
445
1249380
3623
То, что то я вижу сейчас —
и важно, чтобы люди это поняли,
21:05
because the wordслово "artificialискусственный
intelligenceинтеллект" is so threateningугрожающий,
446
1253027
2903
потому что фраза «искусственный интеллект»
столь угрожающая,
21:07
and then we have SteveСтив SpielbergСпилберг
tossingбросание a movieкино in,
447
1255954
2523
и когда Стивен Спилберг
подбрасывает нам фильм,
21:10
where all of a suddenвнезапно
the computerкомпьютер is our overlordПовелитель,
448
1258501
2413
где вдруг компьютер
является нашим господином, —
21:12
but it's really a technologyтехнологии.
449
1260938
1452
но это, фактически, технология.
21:14
It's a technologyтехнологии that helpsпомогает us
do repetitiveповторяющийся things.
450
1262414
2982
Это технология, которая помогает нам
делать повторяющиеся вещи.
И прогресс был только
в повторяющихся действиях.
21:17
And the progressпрогресс has been
entirelyполностью on the repetitiveповторяющийся endконец.
451
1265420
2913
21:20
It's been in legalправовой documentдокумент discoveryоткрытие.
452
1268357
2228
Был прогресс в поиске
юридических документов.
21:22
It's been contractконтракт draftingразработка.
453
1270609
1680
В составлении набросков договоров.
21:24
It's been screeningскрининг X-raysРентгеновские лучи of your chestгрудь.
454
1272313
4223
В рентгеновской съёмке
вашей грудной клетки.
21:28
And these things are so specializedспециализированный,
455
1276560
1773
Эти вещи очень специализированны.
21:30
I don't see the bigбольшой threatугроза of humanityчеловечество.
456
1278357
2391
Я не вижу в этом большой
угрозы для человечества.
21:32
In factфакт, we as people --
457
1280772
1794
На деле мы как люди —
21:34
I mean, let's faceлицо it:
we'veмы в becomeстали superhumanсверхчеловеческий.
458
1282590
2385
давайте признаем это:
мы стали свехлюдьми.
21:36
We'veУ нас madeсделал us superhumanсверхчеловеческий.
459
1284999
1764
Мы сделали себя сверхлюдьми.
21:38
We can swimплавать acrossчерез
the AtlanticАтлантика in 11 hoursчасов.
460
1286787
2632
Мы можем переплыть
Атлантику за 11 часов.
21:41
We can take a deviceустройство out of our pocketкарман
461
1289443
2074
Мы можем взять устройство
из нашего кармана
21:43
and shoutокрик all the way to AustraliaАвстралия,
462
1291541
2147
и докричаться до самой Австралии,
21:45
and in realреальный time, have that personчеловек
shoutingкрики back to us.
463
1293712
2600
и в реальном времени
мы услышим в ответ чей-то крик.
21:48
That's physicallyфизически not possibleвозможное.
We're breakingломка the rulesправила of physicsфизика.
464
1296336
3624
Физически это невозможно.
Мы нарушаем законы физики.
21:51
When this is said and doneсделанный,
we're going to rememberзапомнить everything
465
1299984
2943
В конце концов
мы сможем запомнить всё
21:54
we'veмы в ever said and seenвидели,
466
1302951
1213
сказанное и виденное нами;
21:56
you'llВы будете rememberзапомнить everyкаждый personчеловек,
467
1304188
1496
вы запомните каждого человека,
и это хорошо при моей ранней стадии
болезни Альцгеймера.
21:57
whichкоторый is good for me
in my earlyрано stagesэтапы of Alzheimer'sБолезнь Альцгеймера.
468
1305708
2626
22:00
Sorry, what was I sayingпоговорка? I forgotзабыл.
469
1308358
1677
Извините, о чём я говорил? Я забыл.
22:02
CAКалифорния: (LaughsСмеётся)
470
1310059
1578
КА: (Смеется)
22:03
STST: We will probablyвероятно have
an IQIQ of 1,000 or more.
471
1311661
3077
СТ: У нас, возможно, будет
IQ 1 000 и более баллов.
22:06
There will be no more
spellingнаписание classesклассы for our kidsДети,
472
1314762
3425
Не будет больше занятий
по правописанию для наших детей,
22:10
because there's no spellingнаписание issueвопрос anymoreбольше не.
473
1318211
2086
потому что больше не будет с этим проблем.
22:12
There's no mathматематический issueвопрос anymoreбольше не.
474
1320321
1832
Больше не будет проблем с математикой.
22:14
And I think what really will happenслучаться
is that we can be superсупер creativeтворческий.
475
1322177
3510
Думаю, случится то, что мы сможем
быть сверхтворческими людьми.
22:17
And we are. We are creativeтворческий.
476
1325711
1857
И мы таковы. Мы — творческие люди.
22:19
That's our secretсекрет weaponоружие.
477
1327592
1552
Это наше секретное оружие.
22:21
CAКалифорния: So the jobsработы that are gettingполучение lostпотерял,
478
1329168
2153
КА: Итак, исчезающие рабочие места,
22:23
in a way, even thoughхоть
it's going to be painfulболезненный,
479
1331345
2494
в какой-то степени, даже если
это будет болезненно,
22:25
humansлюди are capableспособный
of more than those jobsработы.
480
1333863
2047
люди способны на большее, чем такой труд.
22:27
This is the dreamмечта.
481
1335934
1218
Это мечта.
22:29
The dreamмечта is that humansлюди can riseподъем
to just a newновый levelуровень of empowermentрасширение прав и возможностей
482
1337176
4247
Мечта о том, что люди могут подняться
на новый уровень возможностей
22:33
and discoveryоткрытие.
483
1341447
1657
и открытий.
22:35
That's the dreamмечта.
484
1343128
1452
Это мечта.
22:36
STST: And think about this:
485
1344604
1643
СТ: И подумайте об этом:
22:38
if you look at the historyистория of humanityчеловечество,
486
1346271
2021
если вы взглянете на историю человечества
22:40
that mightмог бы be whateverбез разницы --
60-100,000 yearsлет oldстарый, give or take --
487
1348316
3328
длиной что-то вроде 60–100 тысяч лет, —
22:43
almostпочти everything that you cherishлелеять
in termsсроки of inventionизобретение,
488
1351668
3726
почти всё, что вы лелеете
в отношении изобретений,
22:47
of technologyтехнологии, of things we'veмы в builtпостроен,
489
1355418
2151
технологии, созданных нами вещей,
22:49
has been inventedизобрел in the last 150 yearsлет.
490
1357593
3099
было изобретено за последние 150 лет.
22:53
If you tossбросать in the bookкнига and the wheelколесо,
it's a little bitнемного olderстаршая.
491
1361756
3048
Если вы возьмёте книгу или колесо,
они чуть постарше.
22:56
Or the axeтопор.
492
1364828
1169
Или топор.
22:58
But your phoneТелефон, your sneakersкроссовки,
493
1366021
2790
Но ваш телефон, кроссовки,
23:00
these chairsстулья, modernсовременное
manufacturingпроизводство, penicillinпенициллин --
494
1368835
3551
эти стулья, современное
производство, пенициллин —
23:04
the things we cherishлелеять.
495
1372410
1714
то, что мы ценим.
23:06
Now, that to me meansозначает
496
1374148
3658
Это означает для меня,
23:09
the nextследующий 150 yearsлет will find more things.
497
1377830
3041
что в следующие 150 лет
мы найдём больше вещей.
23:12
In factфакт, the paceтемп of inventionизобретение
has goneпрошло up, not goneпрошло down, in my opinionмнение.
498
1380895
4154
На деле скорость изобретений выросла,
а не уменьшилась, по моему мнению.
23:17
I believe only one percentпроцент of interestingинтересно
things have been inventedизобрел yetвсе же. Right?
499
1385073
4905
Я верю, что изобретён только один процент
интересных вещей, так?
23:22
We haven'tне curedвылеченный cancerрак.
500
1390002
1988
Мы не излечили рак.
23:24
We don't have flyingлетающий carsлегковые автомобили -- yetвсе же.
HopefullyС надеждой, I'll changeизменение this.
501
1392014
3718
У нас ещё нет летающих автомобилей — пока.
Я надеюсь, я изменю это.
23:27
That used to be an exampleпример
people laughedрассмеялся about. (LaughsСмеётся)
502
1395756
3257
Это было примером, над которым
люди смеялись. (Смеётся)
23:31
It's funnyвеселая, isn't it?
WorkingЗа работой secretlyтайно on flyingлетающий carsлегковые автомобили.
503
1399037
2992
Забавно, не правда ли?
Втайне работать над летающими машинами.
23:34
We don't liveжить twiceдважды as long yetвсе же. OK?
504
1402053
2683
Мы пока ещё не живём
в два раза дольше, не так ли?
23:36
We don't have this magicмагия
implantимплантат in our brainголовной мозг
505
1404760
2785
В нашем мозгу пока нет
этого волшебного импланта,
23:39
that givesдает us the informationИнформация we want.
506
1407569
1832
который даёт искомую информацию.
23:41
And you mightмог бы be appalledпотрясены by it,
507
1409425
1526
И вы можете ужасаться этому,
23:42
but I promiseобещание you,
onceодин раз you have it, you'llВы будете love it.
508
1410975
2444
но я вам обещаю, получив его,
вы сразу его полюбите.
23:45
I hopeнадежда you will.
509
1413443
1166
Я надеюсь на это.
23:46
It's a bitнемного scaryстрашно, I know.
510
1414633
1909
Я знаю, это немного страшно.
23:48
There are so manyмногие things
we haven'tне inventedизобрел yetвсе же
511
1416566
2254
Мы ещё не изобрели так много вещей —
23:50
that I think we'llЧто ж inventвыдумывать.
512
1418844
1268
думаю, мы их изобретём.
23:52
We have no gravityсила тяжести shieldsщиты.
513
1420136
1306
Нет экранов от гравитации.
23:53
We can't beamлуч ourselvesсами
from one locationместо нахождения to anotherдругой.
514
1421466
2553
Мы не можем перенестись
от одного места к другому.
23:56
That soundsзвуки ridiculousсмешной,
515
1424043
1151
Это звучит смешно,
23:57
but about 200 yearsлет agoтому назад,
516
1425218
1288
но около двухсот лет назад
23:58
expertsэксперты were of the opinionмнение
that flightрейс wouldn'tне будет existсуществовать,
517
1426530
2667
учёные верили в то,
что полёт будет невозможен,
24:01
even 120 yearsлет agoтому назад,
518
1429221
1324
даже 120 лет назад,
24:02
and if you movedпереехал fasterБыстрее
than you could runбег,
519
1430569
2582
и если вы будете двигаться быстрее,
чем можете бежать,
24:05
you would instantlyнемедленно dieумереть.
520
1433175
1520
вы тотчас умрёте.
24:06
So who saysговорит we are correctверный todayCегодня
that you can't beamлуч a personчеловек
521
1434719
3569
И кто сказал, что мы правы сегодня,
что нельзя телепортировать человека
24:10
from here to MarsМарс?
522
1438312
2249
отсюда на Марс?
24:12
CAКалифорния: SebastianСебастьян, thank you so much
523
1440585
1569
КА: Большое спасибо, Себастьян,
за ваше невероятно вдохновляющее
видение и ваш талант.
24:14
for your incrediblyневероятно inspiringвдохновляющий visionвидение
and your brillianceблеск.
524
1442178
2682
Спасибо, Себастьян Трун.
24:16
Thank you, SebastianСебастьян ThrunThrun.
525
1444884
1323
24:18
STST: That was fantasticфантастика. (ApplauseАплодисменты)
526
1446231
1895
Это было потрясающе. (Аплодисменты)
Translated by Elena Malykh
Reviewed by Pavel Yudaev

▲Back to top

ABOUT THE SPEAKERS
Sebastian Thrun - Educator, entrepreneur
Sebastian Thrun is a passionate technologist who is constantly looking for new opportunities to make the world better for all of us.

Why you should listen

Sebastian Thrun is an educator, entrepreneur and troublemaker. After a long life as a professor at Stanford University, Thrun resigned from tenure to join Google. At Google, he founded Google X, home to self-driving cars and many other moonshot technologies. Thrun also founded Udacity, an online university with worldwide reach, and Kitty Hawk, a "flying car" company. He has authored 11 books, 400 papers, holds 3 doctorates and has won numerous awards.

More profile about the speaker
Sebastian Thrun | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com