ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Стюарт Рассел: Как мы можем стать лучше благодаря ИИ?

Filmed:
1,465,832 views

Как можно использовать силу сверхразумного искусственного интеллекта и при этом избежать угрозы восстания машин? Пока мы приближаемся к созданию всезнающих машин, новатор в сфере ИИ Стюарт Рассел работает над кое-чем иным: роботами, у которых есть неуверенность. Послушайте его ви́дение совместимого с человечеством ИИ, который может решить проблемы, прибегнув к здравому смыслу, альтруизму и другим человеческим ценностям.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

00:12
This is Leeподветренный SedolСедол.
0
712
1552
Это Ли Седоль.
00:14
Leeподветренный SedolСедол is one of the world'sв мире
greatestвеличайший Go playersигроки,
1
2288
3997
Ли Седоль — один из лучших
игроков в го в мире,
00:18
and he's havingимеющий what my friendsдрузья
in Siliconкремний Valleyдолина call
2
6309
2885
и сейчас он в ситуации,
которую мои друзья
из Силиконовой долины
называют «Мама дорогая!» —
00:21
a "Holyсвятой Cowкорова" momentмомент --
3
9218
1510
00:22
(LaughterСмех)
4
10752
1073
(Смех)
00:23
a momentмомент where we realizeпонимать
5
11849
2188
момент осознания того,
00:26
that AIискусственный интеллект is actuallyна самом деле progressingпрогрессирующий
a lot fasterБыстрее than we expectedожидаемый.
6
14061
3296
что искусственный интеллект развивается
гораздо быстрее, чем мы ожидали.
Итак, человечество проиграло партию в го.
Но как же реальный мир?
00:30
So humansлюди have lostпотерял on the Go boardдоска.
What about the realреальный worldМир?
7
18154
3047
00:33
Well, the realреальный worldМир is much biggerбольше,
8
21225
2100
Ну, реальный мир гораздо больше
00:35
much more complicatedсложно than the Go boardдоска.
9
23349
2249
и сложнее, чем доска для игры в го.
Несмотря на то,
что это не столь очевидно,
00:37
It's a lot lessМеньше visibleвидимый,
10
25622
1819
00:39
but it's still a decisionрешение problemпроблема.
11
27465
2038
всё упирается в принятие решений.
00:42
And if we think about some
of the technologiesтехнологии
12
30948
2321
Если мы задумаемся о грядущих
00:45
that are comingприход down the pikeщука ...
13
33293
1749
технологических инновациях...
00:47
NorikoНорико [AraiArai] mentionedупомянутый that readingчтение
is not yetвсе же happeningпроисходит in machinesмашины,
14
35738
4335
Норико [Араи] упомянула,
что машины ещё не понимают
00:52
at leastнаименее with understandingпонимание.
15
40097
1500
смысл прочитанного.
00:53
But that will happenслучаться,
16
41621
1536
Но в будущем это произойдёт,
00:55
and when that happensпроисходит,
17
43181
1771
и в этот момент,
00:56
very soonскоро afterwardsвпоследствии,
18
44976
1187
совсем скоро,
00:58
machinesмашины will have readчитать everything
that the humanчеловек raceраса has ever writtenнаписано.
19
46187
4572
машины прочитают всё,
что когда-либо написали люди.
01:03
And that will enableвключить machinesмашины,
20
51850
2030
Благодаря этому машины
01:05
alongвдоль with the abilityспособность to look
furtherв дальнейшем aheadвпереди than humansлюди can,
21
53904
2920
смогут предугадывать
развитие событий лучше, чем люди;
что и случилось во время игры в го.
01:08
as we'veмы в alreadyуже seenвидели in Go,
22
56848
1680
01:10
if they alsoтакже have accessдоступ
to more informationИнформация,
23
58552
2164
Получив больший доступ к информации,
01:12
they'llони будут be ableв состоянии to make better decisionsрешения
in the realреальный worldМир than we can.
24
60740
4268
они смогут принимать
решения лучше, чем мы.
01:18
So is that a good thing?
25
66792
1606
Хорошо ли это?
01:21
Well, I hopeнадежда so.
26
69898
2232
Надеюсь, что да.
01:26
Our entireвсе civilizationцивилизация,
everything that we valueстоимость,
27
74694
3255
Вся наша цивилизация, всё, чем мы дорожим,
01:29
is basedисходя из on our intelligenceинтеллект.
28
77973
2068
основывается на нашем интеллекте.
01:32
And if we had accessдоступ
to a lot more intelligenceинтеллект,
29
80065
3694
Если бы наш интеллект увеличился,
01:35
then there's really no limitпредел
to what the humanчеловек raceраса can do.
30
83783
3302
человеческим возможностям
не было бы предела.
01:40
And I think this could be,
as some people have describedописано it,
31
88665
3325
Думаю, это стало бы тем,
что некоторые называют
01:44
the biggestсамый большой eventмероприятие in humanчеловек historyистория.
32
92014
2016
величайшим событием
в истории человечества.
01:48
So why are people sayingпоговорка things like this,
33
96665
2829
Почему же тогда люди говорят,
01:51
that AIискусственный интеллект mightмог бы spellорфографии the endконец
of the humanчеловек raceраса?
34
99518
2876
что ИИ может положить конец человечеству?
01:55
Is this a newновый thing?
35
103438
1659
Это что-то новое?
01:57
Is it just ElonЭлон MuskМускус and BillБилл Gatesворота
and StephenСтивен HawkingХокинг?
36
105121
4110
Это лишь мнение Илона Маска,
Билла Гейтса и Стивена Хокинга?
02:01
ActuallyНа самом деле, no. This ideaидея
has been around for a while.
37
109953
3262
На самом деле нет.
Эта идея появилась довольно давно.
02:05
Here'sВот a quotationцитата:
38
113239
1962
Вот цитата:
02:07
"Even if we could keep the machinesмашины
in a subservientраболепный positionдолжность,
39
115225
4350
«Даже если бы мы сохранили
власть над машинами,
02:11
for instanceпример, by turningпревращение off the powerмощность
at strategicстратегическое momentsмоменты" --
40
119599
2984
например, имея возможность
отключить их в любой момент, —
02:14
and I'll come back to that
"turningпревращение off the powerмощность" ideaидея laterпозже on --
41
122607
3237
чуть позже я вернусь
к этой идее отключения, —
02:17
"we should, as a speciesвид,
feel greatlyзначительно humbledунижен."
42
125868
2804
мы, как вид, должны чувствовать себя
довольно униженными».
02:22
So who said this?
This is AlanАлан TuringТьюринг in 1951.
43
130177
3448
Кто же сказал это?
Алан Тьюринг в 1951 году.
02:26
AlanАлан TuringТьюринг, as you know,
is the fatherотец of computerкомпьютер scienceнаука
44
134300
2763
Как известно, Алан Тьюринг
является отцом информатики,
02:29
and in manyмногие waysпути,
the fatherотец of AIискусственный интеллект as well.
45
137087
3048
а также, во многих аспектах, отцом ИИ.
02:33
So if we think about this problemпроблема,
46
141239
1882
Если мы задумаемся
02:35
the problemпроблема of creatingсоздание something
more intelligentумный than your ownсвоя speciesвид,
47
143145
3787
над проблемой создания чего-то
более разумного, чем наш вид,
02:38
we mightмог бы call this "the gorillaгорилла problemпроблема,"
48
146956
2622
это можно будет назвать
«проблемой гориллы»,
02:42
because gorillas'гориллы ancestorsпредки did this
a fewмало millionмиллиона yearsлет agoтому назад,
49
150345
3750
потому что предки горилл думали об этом
несколько миллионов лет назад,
02:46
and now we can askпросить the gorillasгорилл:
50
154119
1745
и теперь гориллам можно задать вопрос:
02:48
Was this a good ideaидея?
51
156752
1160
«Это была хорошая идея?»
02:49
So here they are havingимеющий a meetingвстреча
to discussобсуждать whetherбудь то it was a good ideaидея,
52
157936
3530
Они бы собрались, чтобы решить,
была ли это хорошая идея,
02:53
and after a little while,
they concludeзаключать, no,
53
161490
3346
и через некоторое время
пришли бы к заключению,
02:56
this was a terribleужасный ideaидея.
54
164860
1345
что это была ужасная идея.
02:58
Our speciesвид is in direужасный straitsпроливы.
55
166229
1782
Наш вид находится в ужасном состоянии.
03:00
In factфакт, you can see the existentialэкзистенциальный
sadnessпечаль in theirих eyesглаза.
56
168538
4263
Фактически в их глазах можно увидеть
экзистенциальную печаль.
03:04
(LaughterСмех)
57
172825
1640
(Смех)
03:06
So this queasyразборчивый feelingчувство that makingизготовление
something smarterумнее than your ownсвоя speciesвид
58
174489
4840
Что нам делать с тошнотворным ощущением,
03:11
is maybe not a good ideaидея --
59
179353
2365
что создание кого-то умнее нас
может оказаться не лучшей идеей?
03:14
what can we do about that?
60
182488
1491
03:16
Well, really nothing,
exceptКроме stop doing AIискусственный интеллект,
61
184003
4767
Единственный выход —
прекратить разработку ИИ.
03:20
and because of all
the benefitsвыгоды that I mentionedупомянутый
62
188794
2510
Но, учитывая упомянутые мной преимущества
03:23
and because I'm an AIискусственный интеллект researcherИсследователь,
63
191328
1716
и тот факт, что я исследователь ИИ,
03:25
I'm not havingимеющий that.
64
193068
1791
лично я против.
03:27
I actuallyна самом деле want to be ableв состоянии
to keep doing AIискусственный интеллект.
65
195283
2468
Я хочу продолжать создавать ИИ.
03:30
So we actuallyна самом деле need to nailгвоздь down
the problemпроблема a bitнемного more.
66
198615
2678
Поэтому нам следует
обсудить проблему более подробно.
03:33
What exactlyв точку is the problemпроблема?
67
201317
1371
В чём суть проблемы?
03:34
Why is better AIискусственный интеллект possiblyвозможно a catastropheкатастрофа?
68
202712
3246
Почему совершенный ИИ может
обернуться катастрофой?
03:39
So here'sвот anotherдругой quotationцитата:
69
207398
1498
Вот ещё цитата:
03:41
"We had better be quiteдовольно sure
that the purposeцель put into the machineмашина
70
209935
3335
«Нам следует быть уверенными,
что цели, заложенные в машину,
03:45
is the purposeцель whichкоторый we really desireжелание."
71
213294
2298
совпадают с нашими желаниями».
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
Это сказал Норберт Винер в 1960 году,
03:51
shortlyвскоре after he watchedсмотрели
one of the very earlyрано learningобучение systemsсистемы
73
219804
4002
вскоре после того, как увидел,
как одна из первых обучающихся систем
03:55
learnучить to playиграть checkersшашки
better than its creatorсоздатель.
74
223830
2583
научилась играть в шашки
лучше своего создателя.
04:00
But this could equallyв равной степени have been said
75
228602
2683
Нечто подобное сказал
04:03
by Kingкороль MidasМидас.
76
231309
1167
царь Мидас:
04:05
Kingкороль MidasМидас said, "I want everything
I touchпотрогать to turnочередь to goldзолото,"
77
233083
3134
«Хочу, чтобы всё, к чему я прикоснусь,
превращалось в золото».
04:08
and he got exactlyв точку what he askedспросил for.
78
236241
2473
Он получил именно то, что просил.
04:10
That was the purposeцель
that he put into the machineмашина,
79
238738
2751
Именно эту цель он вложил в машину,
04:13
so to speakговорить,
80
241513
1450
так сказать,
04:14
and then his foodпитание and his drinkнапиток
and his relativesродные turnedоказалось to goldзолото
81
242987
3444
и затем еда, напитки и его семья
превратились в золото,
04:18
and he diedумер in miseryнищета and starvationголодание.
82
246455
2281
а он сам умер мучительной
и голодной смертью.
04:22
So we'llЧто ж call this
"the Kingкороль MidasМидас problemпроблема"
83
250444
2341
Итак, назовём это проблемой царя Мидаса:
04:24
of statingо том, an objectiveзадача
whichкоторый is not, in factфакт,
84
252809
3305
постановка цели,
которая в действительности
04:28
trulyдействительно alignedвыровненный with what we want.
85
256138
2413
не совпадает с нашим желанием.
04:30
In modernсовременное termsсроки, we call this
"the valueстоимость alignmentвыравнивание problemпроблема."
86
258575
3253
В современном мире это называется
проблемой согласования.
04:37
PuttingВвод in the wrongнеправильно objectiveзадача
is not the only partчасть of the problemпроблема.
87
265047
3485
Некорректная постановка цели —
лишь часть проблемы.
04:40
There's anotherдругой partчасть.
88
268556
1152
Есть ещё кое-что.
04:42
If you put an objectiveзадача into a machineмашина,
89
270160
1943
Если вы закладываете в машину цель,
04:44
even something as simpleпросто as,
"Fetchполучать the coffeeкофе,"
90
272127
2448
даже такую простую как сварить кофе,
04:47
the machineмашина saysговорит to itselfсам,
91
275908
1841
машина задастся вопросом:
04:50
"Well, how mightмог бы I failпотерпеть неудачу
to fetchполучать the coffeeкофе?
92
278733
2623
«Как я могу потерпеть неудачу
в приготовлении кофе?
04:53
SomeoneКто то mightмог бы switchпереключатель me off.
93
281380
1580
Кто-то может отключить меня.
04:55
OK, I have to take stepsмеры to preventне допустить that.
94
283645
2387
Тогда я должен предотвратить это.
04:58
I will disableзапрещать my 'off'«Выключено» switchпереключатель.
95
286056
1906
Я сломаю свой выключатель.
05:00
I will do anything to defendзащищать myselfсебя
againstпротив interferenceинтерференция
96
288534
2959
Я сделаю что угодно, чтобы защититься
от любых вмешательств
05:03
with this objectiveзадача
that I have been givenданный."
97
291517
2629
в процесс выполнения
поставленной мне задачи».
05:06
So this single-mindedцелеустремленный pursuitпреследование
98
294170
2012
На деле этот режим
05:09
in a very defensiveоборонительный modeРежим
of an objectiveзадача that is, in factфакт,
99
297213
2945
крайней самозащиты
05:12
not alignedвыровненный with the trueправда objectivesцели
of the humanчеловек raceраса --
100
300182
2814
не имеет ничего общего
с первоначальной целью человечества —
05:16
that's the problemпроблема that we faceлицо.
101
304122
1862
именно с этой проблемой мы столкнулись.
05:19
And in factфакт, that's the high-valueвысокая стоимость
takeawayнавынос from this talk.
102
307007
4767
Фактически это главный тезис выступления.
05:23
If you want to rememberзапомнить one thing,
103
311798
2055
Единственное, что вам нужно помнить:
05:25
it's that you can't fetchполучать
the coffeeкофе if you're deadмертвый.
104
313877
2675
вы не сможете сварить кофе,
если вы покойник.
05:28
(LaughterСмех)
105
316576
1061
(Смех)
05:29
It's very simpleпросто. Just rememberзапомнить that.
RepeatПовторение it to yourselfсам threeтри timesраз a day.
106
317661
3829
Всё очень просто. Всего лишь помните это.
Повторяйте себе это три раза в день.
05:33
(LaughterСмех)
107
321514
1821
(Смех)
05:35
And in factфакт, this is exactlyв точку the plotсюжет
108
323359
2754
На самом деле, в этом
заключается сюжет фильма
05:38
of "2001: [A SpaceКосмос OdysseyОдиссея]"
109
326137
2648
«2001: [Космическая Одиссея]»:
05:41
HALHAL has an objectiveзадача, a missionмиссия,
110
329226
2090
у HAL есть цель, миссия,
05:43
whichкоторый is not alignedвыровненный
with the objectivesцели of the humansлюди,
111
331340
3732
которая не совпадает с целью людей,
05:47
and that leadsприводит to this conflictконфликт.
112
335096
1810
что и приводит к конфликту.
05:49
Now fortunatelyк счастью, HALHAL
is not superintelligentСверхразумных.
113
337494
2969
К счастью, HAL не обладает сверхразумом.
05:52
He's prettyСимпатичная smartумная,
but eventuallyв итоге DaveДейв outwitsoutwits him
114
340487
3587
Он довольно умный,
но в итоге Дэйв смог перехитрить
05:56
and managesуправляет to switchпереключатель him off.
115
344098
1849
и отключить его.
06:01
But we mightмог бы not be so luckyвезучий.
116
349828
1619
Но нам может повезти меньше.
06:08
So what are we going to do?
117
356193
1592
Что же нам делать?
06:12
I'm tryingпытаясь to redefineпереопределить AIискусственный интеллект
118
360371
2601
Я пытаюсь переосмыслить ИИ,
06:14
to get away from this classicalклассический notionпонятие
119
362996
2061
чтобы уйти от классического понятия машин,
06:17
of machinesмашины that intelligentlyразумно
pursueпреследовать objectivesцели.
120
365081
4567
которые благоразумно преследуют цель.
06:22
There are threeтри principlesпринципы involvedучаствует.
121
370712
1798
Здесь задействованы три правила.
06:24
The first one is a principleпринцип
of altruismальтруизм, if you like,
122
372534
3289
Первое, правило альтруизма:
06:27
that the robot'sробота only objectiveзадача
123
375847
3262
единственная цель робота —
06:31
is to maximizeмаксимизировать the realizationреализация
of humanчеловек objectivesцели,
124
379133
4246
помочь человеку добиться всего,
к чему он стремится,
06:35
of humanчеловек valuesзначения.
125
383403
1390
и приумножить его ценности.
06:36
And by valuesзначения here I don't mean
touchy-feelyобидчивый-Фили, goody-goodyконфета valuesзначения.
126
384817
3330
Я подразумеваю
не сентиментальные ценности,
06:40
I just mean whateverбез разницы it is
that the humanчеловек would preferпредпочитать
127
388171
3787
а любые представления людей
06:43
theirих life to be like.
128
391982
1343
об идеальной жизни.
06:47
And so this actuallyна самом деле violatesнарушает Asimov'sАзимова lawзакон
129
395364
2309
И это правило нарушает закон Азимова,
06:49
that the robotробот has to protectзащищать
its ownсвоя existenceсуществование.
130
397697
2329
который гласит: робот
должен защищать себя.
06:52
It has no interestинтерес in preservingсохранение
its existenceсуществование whatsoeverчто бы ни.
131
400050
3723
Он вообще не заинтересован
в сохранении своей жизни.
06:57
The secondвторой lawзакон is a lawзакон
of humilityсмирение, if you like.
132
405420
3768
Второе, правило покорности.
07:01
And this turnsвитки out to be really
importantважный to make robotsроботы safeбезопасно.
133
409974
3743
Это действительно важно для того,
чтобы обезопасить нас от роботов.
07:05
It saysговорит that the robotробот does not know
134
413741
3142
Оно гласит: робот не знает,
что именно относится
к человеческим ценностям,
07:08
what those humanчеловек valuesзначения are,
135
416907
2028
07:10
so it has to maximizeмаксимизировать them,
but it doesn't know what they are.
136
418959
3178
он должен приумножать их,
не зная, что они из себя представляют.
07:15
And that avoidsпозволяет избегать this problemпроблема
of single-mindedцелеустремленный pursuitпреследование
137
423254
2626
Это позволяет избежать
проблемы концентрации
07:17
of an objectiveзадача.
138
425904
1212
на одной цели.
07:19
This uncertaintyнеопределенность turnsвитки out to be crucialключевой.
139
427140
2172
Эта неопределённость оказывается решающей.
07:21
Now, in orderзаказ to be usefulполезным to us,
140
429726
1639
Но, чтобы приносить пользу,
07:23
it has to have some ideaидея of what we want.
141
431389
2731
у него должно быть
общее понимание наших желаний.
07:27
It obtainsПолучает that informationИнформация primarilyв первую очередь
by observationнаблюдение of humanчеловек choicesвыбор,
142
435223
5427
Он узнаёт об этом, в первую очередь,
из решений, принимаемых людьми,
07:32
so our ownсвоя choicesвыбор revealвыявить informationИнформация
143
440674
2801
так что принятые нами решения
содержат информацию о том,
07:35
about what it is that we preferпредпочитать
our livesжизни to be like.
144
443499
3300
какой мы хотим сделать нашу жизнь.
07:40
So those are the threeтри principlesпринципы.
145
448632
1683
Итак, вот эти три правила.
07:42
Let's see how that appliesотносится
to this questionвопрос of:
146
450339
2318
Теперь рассмотрим,
как они применяются к вопросу,
07:44
"Can you switchпереключатель the machineмашина off?"
as TuringТьюринг suggestedпредложенный.
147
452681
2789
поставленному Тьюрингом:
«Можно ли отключить машину?»
07:49
So here'sвот a PRPR2 robotробот.
148
457073
2120
Итак, это робот PR2
07:51
This is one that we have in our labлаборатория,
149
459217
1821
из нашей лаборатории.
07:53
and it has a bigбольшой redкрасный "off" switchпереключатель
right on the back.
150
461062
2903
Прямо на спине у него
есть красная кнопка «Выкл».
07:56
The questionвопрос is: Is it
going to let you switchпереключатель it off?
151
464541
2615
Вопрос: позволит ли он вам отключить его?
07:59
If we do it the classicalклассический way,
152
467180
1465
Если мы пойдём старым путём,
08:00
we give it the objectiveзадача of, "Fetchполучать
the coffeeкофе, I mustдолжен fetchполучать the coffeeкофе,
153
468669
3482
у него будет цель «Варить кофе;
я должен варить кофе;
08:04
I can't fetchполучать the coffeeкофе if I'm deadмертвый,"
154
472175
2580
я не могу варить кофе, если я мёртв».
08:06
so obviouslyочевидно the PRPR2
has been listeningпрослушивание to my talk,
155
474779
3341
Очевидно, PR2 слушал моё выступление,
08:10
and so it saysговорит, thereforeследовательно,
"I mustдолжен disableзапрещать my 'off'«Выключено» switchпереключатель,
156
478144
3753
и поэтому он говорит:
«Я должен сломать свой выключатель
08:14
and probablyвероятно taserэлектрошоковый пистолет all the other
people in StarbucksСтарбакс
157
482976
2694
и вырубить работников Starbucks,
08:17
who mightмог бы interfereвмешиваться with me."
158
485694
1560
которые могут мне помешать».
08:19
(LaughterСмех)
159
487278
2062
(Смех)
08:21
So this seemsкажется to be inevitableнеизбежный, right?
160
489364
2153
Это кажется неизбежным, не так ли?
Кажется, этого фатального режима
невозможно избежать,
08:23
This kindсвоего рода of failureотказ modeРежим
seemsкажется to be inevitableнеизбежный,
161
491541
2398
08:25
and it followsследует from havingимеющий
a concreteбетон, definiteопределенный objectiveзадача.
162
493963
3543
он следует из конкретно определённой цели.
08:30
So what happensпроисходит if the machineмашина
is uncertainнеуверенный about the objectiveзадача?
163
498812
3144
Что же случится, если у машины
не будет чётко поставленной цели?
08:33
Well, it reasonsпричины in a differentдругой way.
164
501980
2127
Тогда она будет рассуждать по-другому
08:36
It saysговорит, "OK, the humanчеловек
mightмог бы switchпереключатель me off,
165
504131
2424
и скажет: «Человек может отключить меня,
08:39
but only if I'm doing something wrongнеправильно.
166
507144
1866
но только если я допущу ошибку.
08:41
Well, I don't really know what wrongнеправильно is,
167
509747
2475
Я точно не знаю, что правильно, а что нет,
08:44
but I know that I don't want to do it."
168
512246
2044
но я точно знаю, что не хочу ошибаться».
08:46
So that's the first and secondвторой
principlesпринципы right there.
169
514314
3010
Здесь действуют первые два правила.
08:49
"So I should let the humanчеловек switchпереключатель me off."
170
517348
3359
«Следовательно, я должен
разрешить людям отключить меня».
08:53
And in factфакт you can calculateподсчитывать
the incentiveстимул that the robotробот has
171
521721
3956
Фактически вы можете
просчитать стимул, благодаря которому
08:57
to allowпозволять the humanчеловек to switchпереключатель it off,
172
525701
2493
робот позволит людям отключить себя,
09:00
and it's directlyнепосредственно tiedсвязанный to the degreeстепень
173
528218
1914
и этот стимул тесно связан
09:02
of uncertaintyнеопределенность about
the underlyingлежащий в основе objectiveзадача.
174
530156
2746
с неопределённостью поставленной цели.
09:05
And then when the machineмашина is switchedпереключился off,
175
533977
2949
А когда машина отключена,
09:08
that thirdв третьих principleпринцип comesвыходит into playиграть.
176
536950
1805
начинает действовать третье правило.
09:10
It learnsузнает something about the objectivesцели
it should be pursuingпреследуя,
177
538779
3062
Она узнаёт что-то о целях,
которые должна преследовать,
09:13
because it learnsузнает that
what it did wasn'tне было right.
178
541865
2533
потому что понимает,
что сделала что-то не так.
09:16
In factфакт, we can, with suitableподходящее use
of Greekгреческий symbolsсимволы,
179
544422
3570
По сути, мы, подобно математикам,
09:20
as mathematiciansматематики usuallyкак правило do,
180
548016
2131
можем применить греческие символы
09:22
we can actuallyна самом деле proveдоказывать a theoremтеорема
181
550171
1984
для доказательства теоремы,
09:24
that saysговорит that suchтакие a robotробот
is provablyдоказуемо beneficialвыгодный to the humanчеловек.
182
552179
3553
согласно которой именно такой робот
принесёт человеку пользу.
09:27
You are provablyдоказуемо better off
with a machineмашина that's designedпредназначенный in this way
183
555756
3803
Вероятно, вам будет лучше
работать с машиной, которая разработана
09:31
than withoutбез it.
184
559583
1246
с учётом этого момента.
09:33
So this is a very simpleпросто exampleпример,
but this is the first stepшаг
185
561237
2906
Данный пример очень прост,
09:36
in what we're tryingпытаясь to do
with human-compatibleчеловек-совместимый AIискусственный интеллект.
186
564167
3903
но это лишь начало наших попыток
разработки робота-компаньона.
09:42
Now, this thirdв третьих principleпринцип,
187
570657
3257
Итак, думаю, третье правило
09:45
I think is the one that you're probablyвероятно
scratchingчесать your headглава over.
188
573938
3112
озадачивает вас.
09:49
You're probablyвероятно thinkingмышление, "Well,
you know, I behaveвести себя badlyплохо.
189
577074
3239
Вероятно, вы думаете:
«Допустим, я поступаю плохо,
09:52
I don't want my robotробот to behaveвести себя like me.
190
580337
2929
я не хочу, чтобы робот
поступал так же, как я.
09:55
I sneakябеда down in the middleсредний of the night
and take stuffматериал from the fridgeхолодильник.
191
583290
3434
По ночам я пробираюсь
к холодильнику за едой.
09:58
I do this and that."
192
586748
1168
Я делаю то-то и то-то».
09:59
There's all kindsвиды of things
you don't want the robotробот doing.
193
587940
2797
Вы бы не хотели, чтобы робот
повторял за вами всё.
На самом деле система
работает немного иначе.
10:02
But in factфакт, it doesn't
quiteдовольно work that way.
194
590761
2071
10:04
Just because you behaveвести себя badlyплохо
195
592856
2155
Робот не будет копировать
10:07
doesn't mean the robotробот
is going to copyкопия your behaviorповедение.
196
595035
2623
ваше плохое поведение.
10:09
It's going to understandПонимаю your motivationsмотивы
and maybe help you resistоказывать сопротивление them,
197
597682
3910
Он попытается понять ваши мотивы
и, возможно, поможет вам противостоять им
10:13
if appropriateподходящее.
198
601616
1320
в случае необходимости.
10:16
But it's still difficultсложно.
199
604206
1464
Но это сложная задача.
10:18
What we're tryingпытаясь to do, in factфакт,
200
606302
2545
Фактически мы пытаемся
10:20
is to allowпозволять machinesмашины to predictпрогнозировать
for any personчеловек and for any possibleвозможное life
201
608871
5796
разрешить машинам прогнозировать
все возможные варианты
10:26
that they could liveжить,
202
614691
1161
своей жизни
10:27
and the livesжизни of everybodyвсе elseеще:
203
615876
1597
и жизни каждого человека.
10:29
WhichКоторый would they preferпредпочитать?
204
617497
2517
Какую жизнь они бы предпочли?
10:34
And there are manyмногие, manyмногие
difficultiesсложности involvedучаствует in doing this;
205
622061
2954
Этот процесс сопряжён
с множеством затруднений.
10:37
I don't expectожидать that this
is going to get solvedрешена very quicklyбыстро.
206
625039
2932
Я не ожидаю, что с ними
можно справиться быстро.
10:39
The realреальный difficultiesсложности, in factфакт, are us.
207
627995
2643
Главная сложность
заключается именно в нас.
10:44
As I have alreadyуже mentionedупомянутый,
we behaveвести себя badlyплохо.
208
632149
3117
Как я уже упоминал, мы ведём себя плохо.
10:47
In factфакт, some of us are downrightсовершенно nastyпротивный.
209
635290
2321
Некоторые из нас просто ужасны.
10:50
Now the robotробот, as I said,
doesn't have to copyкопия the behaviorповедение.
210
638431
3052
Но роботу, как я уже говорил,
не нужно копировать поведение.
10:53
The robotробот does not have
any objectiveзадача of its ownсвоя.
211
641507
2791
У робота нет своих собственных целей.
10:56
It's purelyчисто altruisticальтруистический.
212
644322
1737
Он абсолютно альтруистичный
10:59
And it's not designedпредназначенный just to satisfyудовлетворять
the desiresжелания of one personчеловек, the userпользователь,
213
647293
5221
и создан не только для удовлетворения
потребностей своего пользователя,
11:04
but in factфакт it has to respectуважение
the preferencesпредпочтения of everybodyвсе.
214
652538
3138
он должен уважать предпочтения каждого.
11:09
So it can dealпо рукам with a certainопределенный
amountколичество of nastinessзлобность,
215
657263
2570
Он может справиться с плохими поступками
11:11
and it can even understandПонимаю
that your nastinessзлобность, for exampleпример,
216
659857
3701
и даже понять, что вы поступаете плохо,
11:15
you mayмай take bribesвзятки as a passportзаграничный пасспорт officialофициальный
217
663582
2671
например, берёте взятки,
работая паспортистом,
11:18
because you need to feedкорм your familyсемья
and sendОтправить your kidsДети to schoolшкола.
218
666277
3812
потому что вам нужно кормить семью
и оплачивать обучение детей.
11:22
It can understandПонимаю that;
it doesn't mean it's going to stealукрасть.
219
670113
2906
Он может это понять, и это не значит,
что он будет воровать.
11:25
In factфакт, it'llэто будет just help you
sendОтправить your kidsДети to schoolшкола.
220
673043
2679
По сути, это лишь помогает вам
оплатить учёбу детей.
11:28
We are alsoтакже computationallyвычислительно limitedограниченное.
221
676976
3012
Наши вычислительные
способности также ограничены.
11:32
Leeподветренный SedolСедол is a brilliantблестящий Go playerигрок,
222
680012
2505
Ли Седоль прекрасно играет в го,
11:34
but he still lostпотерял.
223
682541
1325
но он всё равно проиграл.
11:35
So if we look at his actionsдействия,
he tookвзял an actionдействие that lostпотерял the gameигра.
224
683890
4239
Сделанные им ходы привели к поражению.
11:40
That doesn't mean he wanted to loseпотерять.
225
688153
2161
Это не значит, что он хотел проиграть.
11:43
So to understandПонимаю his behaviorповедение,
226
691340
2040
Чтобы понять его поведение,
11:45
we actuallyна самом деле have to invertинвертировать
throughчерез a modelмодель of humanчеловек cognitionпознание
227
693404
3644
нам следует смотреть сквозь призму
человеческого познания, включающего
11:49
that includesвключает our computationalвычислительный
limitationsограничения -- a very complicatedсложно modelмодель.
228
697072
4977
наши вычислительные ограничения
и являющегося очень сложной моделью.
11:54
But it's still something
that we can work on understandingпонимание.
229
702073
2993
Но нам всё ещё есть над чем поразмыслить.
11:57
ProbablyВероятно the mostбольшинство difficultсложно partчасть,
from my pointточка of viewПосмотреть as an AIискусственный интеллект researcherИсследователь,
230
705876
4320
С моей точки зрения,
самым сложным в исследовании ИИ
12:02
is the factфакт that there are lots of us,
231
710220
2575
является тот факт, что нас очень много,
12:06
and so the machineмашина has to somehowкак-то
tradeсделка off, weighвзвешивать up the preferencesпредпочтения
232
714294
3581
и поэтому машине нужно идти
на компромисс, сопоставлять пожелания
12:09
of manyмногие differentдругой people,
233
717899
2225
множества разных людей,
12:12
and there are differentдругой waysпути to do that.
234
720148
1906
и для этого существуют разные способы.
12:14
EconomistsЭкономисты, sociologistsсоциологи,
moralморальный philosophersфилософы have understoodпонимать that,
235
722078
3689
Экономисты, социологи,
нравственные философы поняли это,
12:17
and we are activelyактивно
looking for collaborationсотрудничество.
236
725791
2455
и мы стараемся активно сотрудничать.
12:20
Let's have a look and see what happensпроисходит
when you get that wrongнеправильно.
237
728270
3251
Давайте посмотрим, что произойдёт,
если вы допу́стите ошибку.
12:23
So you can have
a conversationразговор, for exampleпример,
238
731545
2133
Итак, например, вы беседуете
12:25
with your intelligentумный personalличный assistantпомощник
239
733702
1944
с умным личным помощником,
12:27
that mightмог бы be availableдоступный
in a fewмало years'года time.
240
735670
2285
который может появиться
через несколько лет.
12:29
Think of a SiriSiri on steroidsстероиды.
241
737979
2524
Представьте Siri на стероидах.
12:33
So SiriSiri saysговорит, "Your wifeжена calledназывается
to remindнапоминать you about dinnerужин tonightсегодня ночью."
242
741627
4322
Siri говорит: «Звонила ваша жена,
чтобы напомнить о сегодняшнем вечере».
12:38
And of courseкурс, you've forgottenзабытый.
"What? What dinnerужин?
243
746616
2508
И, разумеется, вы забыли.
«Что? Какой ужин?
12:41
What are you talkingговорящий about?"
244
749148
1425
О чём ты говоришь?»
12:42
"Uh, your 20thго anniversaryГодовщина at 7pmвечера."
245
750597
3746
«Ваша 20-я годовщина в 19:00».
12:48
"I can't do that. I'm meetingвстреча
with the secretary-generalгенеральный секретарь at 7:30.
246
756915
3719
«Я не могу, у меня встреча
с генеральным секретарём в 19:30.
12:52
How could this have happenedполучилось?"
247
760658
1692
Как такое могло случиться?»
12:54
"Well, I did warnпредупреждать you, but you overrodeотменяют
my recommendationрекомендация."
248
762374
4660
«Я предупреждала вас,
но вы проигнорировали мой совет».
13:00
"Well, what am I going to do?
I can't just tell him I'm too busyзанятый."
249
768146
3328
«Что же мне делать? Я же не могу
просто сказать ему, что занят».
13:04
"Don't worryбеспокоиться. I arrangedрасположены
for his planeсамолет to be delayedзадерживается."
250
772490
3281
«Не беспокойтесь. Я задержала его рейс».
13:07
(LaughterСмех)
251
775795
1682
(Смех)
13:10
"Some kindсвоего рода of computerкомпьютер malfunctionнеисправность."
252
778249
2101
«Какая-то компьютерная неисправность».
13:12
(LaughterСмех)
253
780374
1212
(Смех)
13:13
"Really? You can do that?"
254
781610
1617
«Ты и такое можешь сделать?»
13:16
"He sendsпосылает his profoundглубокий apologiesизвинения
255
784400
2179
«Он приносит глубочайшие извинения
13:18
and looksвыглядит forwardвперед to meetingвстреча you
for lunchобед tomorrowзавтра."
256
786603
2555
и приглашает вас на обед завтра».
13:21
(LaughterСмех)
257
789182
1299
(Смех)
13:22
So the valuesзначения here --
there's a slightнезначительный mistakeошибка going on.
258
790505
4403
Итак, есть небольшая ошибка
в оценке приоритетов.
13:26
This is clearlyявно followingследующий my wife'sжены valuesзначения
259
794932
3009
Чёткое следование ценностям
моей жены и её принципу
13:29
whichкоторый is "HappyСчастливый wifeжена, happyсчастливый life."
260
797965
2069
«Счастливая жена — счастливая жизнь».
13:32
(LaughterСмех)
261
800058
1583
(Смех)
13:33
It could go the other way.
262
801665
1444
Могло быть и по-другому.
13:35
You could come home
after a hardжесткий day'sДэй work,
263
803821
2201
Вы приходите домой
после тяжёлого рабочего дня,
13:38
and the computerкомпьютер saysговорит, "Long day?"
264
806046
2195
а компьютер спрашивает: «Трудный день?»
13:40
"Yes, I didn't even have time for lunchобед."
265
808265
2288
«Даже не успел пообедать».
13:42
"You mustдолжен be very hungryголодный."
266
810577
1282
«Думаю, вы очень голодны».
13:43
"Starvingголодающий, yeah.
Could you make some dinnerужин?"
267
811883
2646
«Умираю с голоду.
Можешь приготовить ужин?»
13:48
"There's something I need to tell you."
268
816070
2090
«Я должна кое-что вам сказать».
13:50
(LaughterСмех)
269
818184
1155
(Смех)
13:52
"There are humansлюди in Southюг SudanСудан
who are in more urgentсрочный need than you."
270
820193
4905
«Люди в Южном Судане нуждаются
в помощи больше, чем вы».
13:57
(LaughterСмех)
271
825122
1104
(Смех)
13:58
"So I'm leavingуход. Make your ownсвоя dinnerужин."
272
826250
2075
«Так что я ухожу.
Готовьте себе ужин сами».
14:00
(LaughterСмех)
273
828349
2000
(Смех)
14:02
So we have to solveрешать these problemsпроблемы,
274
830823
1739
Итак, нам нужно решить эти проблемы,
14:04
and I'm looking forwardвперед
to workingза работой on them.
275
832586
2515
и мне не терпится поработать над ними.
14:07
There are reasonsпричины for optimismоптимизм.
276
835125
1843
Для оптимизма есть основания.
14:08
One reasonпричина is,
277
836992
1159
Во-первых,
14:10
there is a massiveмассивный amountколичество of dataданные.
278
838175
1868
собран огромный объём данных.
14:12
Because rememberзапомнить -- I said
they're going to readчитать everything
279
840067
2794
Помните, я говорил, что они прочитают всё,
14:14
the humanчеловек raceраса has ever writtenнаписано.
280
842885
1546
что когда-либо написали люди?
14:16
MostНаиболее of what we writeзаписывать about
is humanчеловек beingsсущества doing things
281
844455
2724
В основном мы писали о том,
как одни люди что-либо делают,
14:19
and other people gettingполучение upsetрассториться about it.
282
847203
1914
а другие расстраиваются по этому поводу.
14:21
So there's a massiveмассивный amountколичество
of dataданные to learnучить from.
283
849141
2398
Так что у нас есть множество
данных для изучения.
14:23
There's alsoтакже a very
strongсильный economicэкономической incentiveстимул
284
851563
2236
Также есть важный экономический стимул
14:27
to get this right.
285
855331
1186
сделать всё правильно.
14:28
So imagineпредставить your domesticвнутренний robot'sробота at home.
286
856541
2001
Представьте вашего робота у себя дома.
14:30
You're lateпоздно from work again
and the robotробот has to feedкорм the kidsДети,
287
858566
3067
Вы снова задерживаетесь на работе,
и робот должен накормить детей,
14:33
and the kidsДети are hungryголодный
and there's nothing in the fridgeхолодильник.
288
861657
2823
а кормить их нечем,
потому что холодильник пуст.
14:36
And the robotробот seesвидит the catКот.
289
864504
2605
И робот видит кошку.
14:39
(LaughterСмех)
290
867133
1692
(Смех)
14:40
And the robotробот hasn'tне имеет quiteдовольно learnedнаучился
the humanчеловек valueстоимость functionфункция properlyдолжным образом,
291
868849
4190
Робот не изучил сущность
человеческих ценностей
14:45
so it doesn't understandПонимаю
292
873063
1251
и не понимает,
14:46
the sentimentalсентиментальный valueстоимость of the catКот outweighsперевешивает
the nutritionalпитательный valueстоимость of the catКот.
293
874338
4844
что сентиментальная ценность кошки
превосходит её питательную ценность.
14:51
(LaughterСмех)
294
879206
1095
(Смех)
14:52
So then what happensпроисходит?
295
880325
1748
Что происходит тогда?
14:54
Well, it happensпроисходит like this:
296
882097
3297
Что вроде этого:
14:57
"Derangedненормальный robotробот cooksготовит еду kittyКитти
for familyсемья dinnerужин."
297
885418
2964
«Ненормальный робот готовит
котёнка на семейный ужин».
15:00
That one incidentинцидент would be the endконец
of the domesticвнутренний robotробот industryпромышленность.
298
888406
4523
Этот инцидент положил бы конец
производству домашних роботов.
15:04
So there's a hugeогромный incentiveстимул
to get this right
299
892953
3372
Так что у нас есть огромный стимул
сделать всё правильно
15:08
long before we reachдостичь
superintelligentСверхразумных machinesмашины.
300
896349
2715
до того, как мы создадим
суперумную машину.
15:12
So to summarizeподведем итог:
301
900128
1535
Итак, подытожим.
15:13
I'm actuallyна самом деле tryingпытаясь to changeизменение
the definitionопределение of AIискусственный интеллект
302
901687
2881
По сути, я пытаюсь
изменить определение ИИ,
15:16
so that we have provablyдоказуемо
beneficialвыгодный machinesмашины.
303
904592
2993
чтобы наши машины
были действительно полезными.
15:19
And the principlesпринципы are:
304
907609
1222
Основные моменты:
15:20
machinesмашины that are altruisticальтруистический,
305
908855
1398
это альтруистичные машины,
15:22
that want to achieveдостигать only our objectivesцели,
306
910277
2804
которые хотят добиваться лишь наших целей,
15:25
but that are uncertainнеуверенный
about what those objectivesцели are,
307
913105
3116
но не знают, каких именно целей,
15:28
and will watch all of us
308
916245
1998
и будут наблюдать за всеми нами,
15:30
to learnучить more about what it is
that we really want.
309
918267
3203
чтобы узнать, чего мы на самом деле хотим.
15:34
And hopefullyс надеждой in the processобработать,
we will learnучить to be better people.
310
922373
3559
Надеюсь, в процессе мы сами станем лучше.
15:37
Thank you very much.
311
925956
1191
Большое спасибо.
15:39
(ApplauseАплодисменты)
312
927171
3709
(Аплодисменты)
15:42
ChrisКрис AndersonАндерсон: So interestingинтересно, StuartСтюарт.
313
930904
1868
Крис Андерсон: Очень интересно, Стюарт.
15:44
We're going to standстоять here a bitнемного
because I think they're settingустановка up
314
932796
3170
Мы задержимся здесь немного,
потому что, сейчас идёт подготовка
к следующему выступлению.
15:47
for our nextследующий speakerоратор.
315
935990
1151
15:49
A coupleпара of questionsвопросов.
316
937165
1538
Пара вопросов.
15:50
So the ideaидея of programmingпрограммирование in ignoranceневежество
seemsкажется intuitivelyинтуитивно really powerfulмощный.
317
938727
5453
Идея программирования незнания
подсознательно кажется очень мощной.
15:56
As you get to superintelligenceсуперинтеллект,
318
944204
1594
Что помешает роботу,
15:57
what's going to stop a robotробот
319
945822
2258
получившему суперразум,
16:00
readingчтение literatureлитература and discoveringобнаружение
this ideaидея that knowledgeзнание
320
948104
2852
почитать книги и обнаружить,
что на самом деле знания
16:02
is actuallyна самом деле better than ignoranceневежество
321
950980
1572
лучше невежества,
16:04
and still just shiftingпереключение its ownсвоя goalsцели
and rewritingпереписывание that programmingпрограммирование?
322
952576
4218
начать следовать другим целям
и перепрограммировать себя?
16:09
StuartСтюарт RussellРассел: Yes, so we want
it to learnучить more, as I said,
323
957692
6356
Стюарт Рассел: Как я уже сказал,
мы хотим, чтобы роботы узнали больше
16:16
about our objectivesцели.
324
964072
1287
о наших целях.
16:17
It'llЭто будет only becomeстали more certainопределенный
as it becomesстановится more correctверный,
325
965383
5521
Они станут более определёнными
лишь когда станут правильными,
16:22
so the evidenceдоказательства is there
326
970928
1945
робот будет запрограммирован
16:24
and it's going to be designedпредназначенный
to interpretинтерпретировать it correctlyправильно.
327
972897
2724
правильно понимать полученные данные.
16:27
It will understandПонимаю, for exampleпример,
that booksкниги are very biasedпристрастный
328
975645
3956
Например, он будет понимать,
что книги описывают мир
16:31
in the evidenceдоказательства they containсодержать.
329
979625
1483
довольно однобоко.
16:33
They only talk about kingsкороли and princesкнязья
330
981132
2397
Они повествуют лишь о королях, принцах
16:35
and eliteэлита whiteбелый maleмужской people doing stuffматериал.
331
983553
2800
и знатных белых мужчинах,
которые делают свою работу.
16:38
So it's a complicatedсложно problemпроблема,
332
986377
2096
Это сложная проблема,
16:40
but as it learnsузнает more about our objectivesцели
333
988497
3872
но чем больше он будет
узнавать о наших целях,
16:44
it will becomeстали more and more usefulполезным to us.
334
992393
2063
тем больше пользы он будет приносить нам.
16:46
CAКалифорния: And you couldn'tне может
just boilкипятить it down to one lawзакон,
335
994480
2526
КА: Вы не можете свести
всё к одному закону,
16:49
you know, hardwiredпроводное in:
336
997030
1650
который бы гласил:
16:50
"if any humanчеловек ever triesпытается to switchпереключатель me off,
337
998704
3293
«Если когда-нибудь человек
попытается меня выключить,
16:54
I complyсоблюдать. I complyсоблюдать."
338
1002021
1935
я подчинюсь. Я подчинюсь»?
16:55
SRSR: AbsolutelyАбсолютно not.
339
1003980
1182
СР: Абсолютно исключено.
16:57
That would be a terribleужасный ideaидея.
340
1005186
1499
Это была бы ужасная идея.
16:58
So imagineпредставить that you have
a self-drivingсамостоятельное вождение carавтомобиль
341
1006709
2689
Представьте, что у вас есть
беспилотный автомобиль,
17:01
and you want to sendОтправить your five-year-oldпять-летний
342
1009422
2433
и вы хотите отправить на нём
своего пятилетнего сына
17:03
off to preschoolдошкольного.
343
1011879
1174
в детский сад.
17:05
Do you want your five-year-oldпять-летний
to be ableв состоянии to switchпереключатель off the carавтомобиль
344
1013077
3101
Хотели бы вы, чтобы ваш пятилетний сын
мог отключить машину,
17:08
while it's drivingвождение alongвдоль?
345
1016202
1213
когда она едет?
17:09
ProbablyВероятно not.
346
1017439
1159
Вероятно, нет.
17:10
So it needsпотребности to understandПонимаю how rationalрациональный
and sensibleздравомыслящий the personчеловек is.
347
1018622
4703
Поэтому нужно понимать степень
рациональности и здравомыслия личности.
17:15
The more rationalрациональный the personчеловек,
348
1023349
1676
Чем более рационален человек,
17:17
the more willingготовы you are
to be switchedпереключился off.
349
1025049
2103
тем вероятнее робот согласится
на отключение.
17:19
If the personчеловек is completelyполностью
randomслучайный or even maliciousзлонамеренный,
350
1027176
2543
Если это случайный человек
или даже злоумышленник,
17:21
then you're lessМеньше willingготовы
to be switchedпереключился off.
351
1029743
2512
он отключится с меньшей охотой.
17:24
CAКалифорния: All right. StuartСтюарт, can I just say,
352
1032279
1866
КА: Хорошо Стюарт. Я очень надеюсь,
17:26
I really, really hopeнадежда you
figureфигура this out for us.
353
1034169
2314
что вы разберётесь с этим ради нас.
17:28
Thank you so much for that talk.
That was amazingудивительно.
354
1036507
2375
Большое спасибо за выступление.
Это было потрясающе.
17:30
SRSR: Thank you.
355
1038906
1167
СР: Спасибо.
17:32
(ApplauseАплодисменты)
356
1040097
1837
(Аплодисменты)
Translated by Natalie Pysemska
Reviewed by Yekaterina Jussupova

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com