ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Маргарет Митчелл: Как создать ИИ, который будет помогать, а не вредить людям

Filmed:
1,154,210 views

Как учёный-исследователь Google Маргарет Митчелл помогает разрабатывать компьютеры, которые могут сообщать о том, что они видят и понимают. Она рассказывает предостерегающую историю о пробелах, слепых пятнах и предубеждениях, которые мы неосознанно программируем в ИИ, и просит нас подумать над тем, что технология, которую мы создаём сегодня, будет означать для будущего. «Всё, что мы видим сейчас, это лишь один кадр из эволюции искусственного интеллекта», —говорит Митчелл. «Если мы хотим, чтобы ИИ развивался для помощи человеку, значит, мы должны определить цели и стратегии, которые зададут этот путь уже сейчас».
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingпомощь computersкомпьютеры
communicateобщаться about the worldМир around us.
0
1381
4015
Моя работа — помогать компьютерам
делать сообщения об окружающем мире.
00:17
There are a lot of waysпути to do this,
1
5754
1793
Есть много способов сделать это,
00:19
and I like to focusфокус on helpingпомощь computersкомпьютеры
2
7571
2592
но мне нравится помогать компьютерам
00:22
to talk about what they see
and understandПонимаю.
3
10187
2874
рассказывать о том,
что они видят и понимают.
00:25
GivenДанный a sceneместо действия like this,
4
13514
1571
Например, на этой картинке
00:27
a modernсовременное computer-visionКомпьютерное зрение algorithmалгоритм
5
15109
1905
современный алгоритм
компьютерного видения
00:29
can tell you that there's a womanженщина
and there's a dogсобака.
6
17038
3095
может распознать,
что это — женщина, а это — собака.
00:32
It can tell you that the womanженщина is smilingулыбается.
7
20157
2706
Он может сказать, что женщина улыбается.
00:34
It mightмог бы even be ableв состоянии to tell you
that the dogсобака is incrediblyневероятно cuteмилый.
8
22887
3873
Он даже способен сказать,
что собака необыкновенно милая.
00:38
I work on this problemпроблема
9
26784
1349
Я работаю над этим,
00:40
thinkingмышление about how humansлюди
understandПонимаю and processобработать the worldМир.
10
28157
4212
думая о том, как люди понимают
и обрабатывают данные о мире.
00:45
The thoughtsмысли, memoriesвоспоминания and storiesистории
11
33577
2952
Какие мысли, воспоминания и истории
00:48
that a sceneместо действия like this
mightмог бы evokeвызывать for humansлюди.
12
36553
2818
может пробуждать в людях
такая вот картинка.
00:51
All the interconnectionsмежсоединения
of relatedСвязанный situationsситуации.
13
39395
4285
Всё, что связано с подобными ситуациями.
00:55
Maybe you've seenвидели
a dogсобака like this one before,
14
43704
3126
Возможно, вы видели похожую собаку раньше
00:58
or you've spentпотраченный time
runningБег on a beachпляж like this one,
15
46854
2969
или проводили время,
так же бегая по пляжу,
01:01
and that furtherв дальнейшем evokesвызывает thoughtsмысли
and memoriesвоспоминания of a pastмимо vacationотпуск,
16
49847
4778
и это, в свою очередь, вызывает мысли
и воспоминания о прошедшем отпуске,
01:06
pastмимо timesраз to the beachпляж,
17
54649
1920
о времени, проведённом на пляже,
01:08
timesраз spentпотраченный runningБег around
with other dogsсобаки.
18
56593
2603
или времени, когда вы бегали
где-то с другой собакой.
01:11
One of my guidingнаправляющий principlesпринципы
is that by helpingпомощь computersкомпьютеры to understandПонимаю
19
59688
5207
Один из моих главных принципов —
это помочь компьютерам понять,
01:16
what it's like to have these experiencesопыт,
20
64919
2896
что значит иметь подобный опыт,
01:19
to understandПонимаю what we shareдоля
and believe and feel,
21
67839
5176
понять, чем мы делимся,
во что верим и что чувствуем,
01:26
then we're in a great positionдолжность
to startНачало evolvingэволюционирует computerкомпьютер technologyтехнологии
22
74094
4310
потому что тогда мы будем готовы
начать вовлекать компьютерные технологии
01:30
in a way that's complementaryдополнительный
with our ownсвоя experiencesопыт.
23
78428
4587
в процессы, дополняющие
наш собственный опыт.
01:35
So, diggingрытье more deeplyглубоко into this,
24
83539
3387
Если копнуть глубже,
01:38
a fewмало yearsлет agoтому назад I beganначал workingза работой on helpingпомощь
computersкомпьютеры to generateгенерировать human-likeчеловек, как storiesистории
25
86950
5905
несколько лет назад я начала помогать
компьютерам писать рассказы
01:44
from sequencesпоследовательности of imagesизображений.
26
92879
1666
на основе цепочки изображений.
01:47
So, one day,
27
95427
1904
И однажды
01:49
I was workingза работой with my computerкомпьютер to askпросить it
what it thought about a tripпоездка to AustraliaАвстралия.
28
97355
4622
в ходе работы я спросила компьютер,
что он думает о поездке в Австралию.
01:54
It tookвзял a look at the picturesкартинки,
and it saw a koalaкоала.
29
102768
2920
Он взглянул на картинки и увидел коалу.
01:58
It didn't know what the koalaкоала was,
30
106236
1643
Он не знал, что такое коала,
01:59
but it said it thought
it was an interesting-lookingинтересно смотреть creatureсущество.
31
107903
2999
но сказал, что считает её
любопытным созданием.
02:04
Then I sharedобщий with it a sequenceпоследовательность of imagesизображений
about a houseдом burningсжигание down.
32
112053
4004
Затем я поделилась с ним цепочкой
изображений о горящих домах.
02:09
It tookвзял a look at the imagesизображений and it said,
33
117704
3285
Он посмотрел на картинки и сказал:
02:13
"This is an amazingудивительно viewПосмотреть!
This is spectacularзахватывающий!"
34
121013
3500
«Удивительный вид! Потрясающе!»
02:17
It sentпослал chillsозноб down my spineпозвоночник.
35
125450
2095
У меня по спине побежали мурашки.
02:20
It saw a horribleкакой ужас, life-changingизменяющая жизнь
and life-destroyingжизнь уничтожение eventмероприятие
36
128983
4572
Он смотрел на ужасное,
разрушающее жизни событие
02:25
and thought it was something positiveположительный.
37
133579
2382
и думал, что это нечто положительное.
02:27
I realizedпонял that it recognizedпризнанное
the contrastконтрастировать,
38
135985
3441
Я поняла, что он распознал контрасты,
02:31
the redsкраснота, the yellowsжелтеет,
39
139450
2699
оттенки красного и жёлтого
02:34
and thought it was something
worthстоимость remarkingЗаметив on positivelyположительно.
40
142173
3078
и подумал, что это заслуживает
позитивной оценки.
02:37
And partчасть of why it was doing this
41
145928
1615
Отчасти он сделал это,
02:39
was because mostбольшинство
of the imagesизображений I had givenданный it
42
147577
2945
потому что большинство изображений,
которые я давала ему,
02:42
were positiveположительный imagesизображений.
43
150546
1840
были позитивными.
02:44
That's because people
tendиметь тенденцию to shareдоля positiveположительный imagesизображений
44
152903
3658
Потому что люди склонны делиться
позитивными изображениями,
02:48
when they talk about theirих experiencesопыт.
45
156585
2190
когда рассказывают о своём опыте.
02:51
When was the last time
you saw a selfieселфи at a funeralпохороны?
46
159267
2541
Когда вы в последний раз
видели селфи на похоронах?
02:55
I realizedпонял that,
as I workedработал on improvingулучшение AIискусственный интеллект
47
163434
3095
Я осознала, что, совершенствуя
искусственный интеллект,
02:58
taskзадача by taskзадача, datasetНабор данных by datasetНабор данных,
48
166553
3714
задачу за задачей,
массив данных за массивом,
03:02
that I was creatingсоздание massiveмассивный gapsпробелы,
49
170291
2897
я создала огромные бреши,
03:05
holesотверстия and blindслепой spotsпятна
in what it could understandПонимаю.
50
173212
3999
дыры и слепые пятна в том,
что он мог понимать.
03:10
And while doing so,
51
178307
1334
И делая это,
03:11
I was encodingкодирование all kindsвиды of biasesуклоны.
52
179665
2483
я закодировала все
возможные виды предубеждений.
03:15
BiasesПредубеждения that reflectотражать a limitedограниченное viewpointсмотровая площадка,
53
183029
3318
Предубеждений, отражающих
ограниченное видение,
03:18
limitedограниченное to a singleОдин datasetНабор данных --
54
186371
2261
ограниченное единым набором данных.
03:21
biasesуклоны that can reflectотражать
humanчеловек biasesуклоны foundнайденный in the dataданные,
55
189283
3858
Пробелы, которые отражают человеческие
предубеждения, закодированные в данных,
03:25
suchтакие as prejudiceпредубеждение and stereotypingстереотипирование.
56
193165
3104
такие как предвзятость и стереотипы.
03:29
I thought back to the evolutionэволюция
of the technologyтехнологии
57
197554
3057
Я подумала об эволюции технологий,
03:32
that broughtпривел me to where I was that day --
58
200635
2502
которая привела меня к тому,
где я оказалась тогда, —
03:35
how the first colorцвет imagesизображений
59
203966
2233
как первые цветные фотографии
03:38
were calibratedкалиброванный againstпротив
a whiteбелый woman'sбабий skinкожа,
60
206223
3048
были откалиброваны по коже белых женщин,
03:41
meaningимея в виду that colorцвет photographyфотография
was biasedпристрастный againstпротив blackчерный facesлица.
61
209665
4145
а значит, цветные фотографии были
не приспособлены к тёмным лицам.
03:46
And that sameодна и та же biasсмещение, that sameодна и та же blindслепой spotместо
62
214514
2925
И это же предубеждение,
это же слепое пятно
03:49
continuedпродолжение well into the '90s.
63
217463
1867
продолжалось и в 90-е.
03:51
And the sameодна и та же blindслепой spotместо
continuesпродолжается even todayCегодня
64
219701
3154
И это же слепое пятно
мы имеем и сегодня
03:54
in how well we can recognizeпризнать
differentдругой people'sнародный facesлица
65
222879
3698
в том, насколько хорошо мы можем
узнавать разнообразные человеческие лица
03:58
in facialлицевой recognitionпризнание technologyтехнологии.
66
226601
2200
в технологии распознавания лиц.
04:01
I thoughхоть about the stateгосударство of the artИзобразительное искусство
in researchисследование todayCегодня,
67
229323
3143
Я думала о новейших исследованиях,
04:04
where we tendиметь тенденцию to limitпредел our thinkingмышление
to one datasetНабор данных and one problemпроблема.
68
232490
4514
где мы склонны ограничивать свое мышление
одним набором данных и одной проблемой.
04:09
And that in doing so, we were creatingсоздание
more blindслепой spotsпятна and biasesуклоны
69
237688
4881
И делая это, мы создавали всё больше
слепых пятен и предубеждений,
04:14
that the AIискусственный интеллект could furtherв дальнейшем amplifyусиливать.
70
242593
2277
которые ИИ смог развить дальше.
04:17
I realizedпонял then
that we had to think deeplyглубоко
71
245712
2079
Я поняла, что нужно больше думать о том,
04:19
about how the technologyтехнологии we work on todayCегодня
looksвыглядит in five5 yearsлет, in 10 yearsлет.
72
247815
5519
как технологии, с которыми мы работаем
сегодня, будут выглядеть через 5 и 10 лет.
Человечество эволюционирует медленно,
со временем исправляя проблемы
04:25
HumansЛюди evolveэволюционировать slowlyмедленно,
with time to correctверный for issuesвопросы
73
253990
3142
04:29
in the interactionвзаимодействие of humansлюди
and theirих environmentОкружающая среда.
74
257156
3534
во взаимодействии людей
и окружающей среды.
04:33
In contrastконтрастировать, artificialискусственный intelligenceинтеллект
is evolvingэволюционирует at an incrediblyневероятно fastбыстро rateставка.
75
261276
5429
Искусственный интеллект, напротив,
эволюционирует с невероятной скоростью.
04:39
And that meansозначает that it really mattersвопросы
76
267013
1773
И значит, действительно важно
04:40
that we think about this
carefullyвнимательно right now --
77
268810
2317
внимательно подумать прямо сейчас,
04:44
that we reflectотражать on our ownсвоя blindслепой spotsпятна,
78
272180
3008
что мы прячем в своих слепых пятнах,
04:47
our ownсвоя biasesуклоны,
79
275212
2317
в своих предубеждениях,
04:49
and think about how that's informingинформирование
the technologyтехнологии we're creatingсоздание
80
277553
3857
как это отражается на технологиях,
которые мы создаём,
04:53
and discussобсуждать what the technologyтехнологии of todayCегодня
will mean for tomorrowзавтра.
81
281434
3902
и обсудить, что технологии настоящего
будут значить для будущего.
04:58
CEOsСЕО and scientistsученые have weighedвзвешенный in
on what they think
82
286593
3191
Топ-менеджеры и учёные
всего мира говорят о том,
05:01
the artificialискусственный intelligenceинтеллект technologyтехнологии
of the futureбудущее will be.
83
289808
3325
каким по их мнению будет
искусственный интеллект в будущем.
05:05
StephenСтивен HawkingХокинг warnsпредупреждает that
84
293157
1618
Стивен Хокинг предостерегает:
05:06
"Artificialискусственный intelligenceинтеллект
could endконец mankindчеловечество."
85
294799
3007
«ИИ может положить конец человечеству».
05:10
ElonЭлон MuskМускус warnsпредупреждает
that it's an existentialэкзистенциальный riskриск
86
298307
2683
Илон Маск предупреждает,
что это один из величайших
05:13
and one of the greatestвеличайший risksриски
that we faceлицо as a civilizationцивилизация.
87
301014
3574
экзистенциальных рисков, с которым
когда-либо сталкивалась наша цивилизация.
05:17
BillБилл Gatesворота has madeсделал the pointточка,
88
305665
1452
Билл Гейтс недоумевает:
05:19
"I don't understandПонимаю
why people aren'tне more concernedобеспокоенный."
89
307141
3185
«Я не понимаю, почему
люди не обеспокоены».
05:23
But these viewsПросмотры --
90
311412
1318
Но эти мнения —
05:25
they're partчасть of the storyистория.
91
313618
1734
это только часть истории.
05:28
The mathматематический, the modelsмодели,
92
316079
2420
Математика, модели,
05:30
the basicосновной buildingздание blocksблоки
of artificialискусственный intelligenceинтеллект
93
318523
3070
основополагающие кирпичики
искусственного интеллекта —
05:33
are something that we call accessдоступ
and all work with.
94
321617
3135
это то, что мы зовём доступом
и с чем работаем.
05:36
We have open-sourceОткрытый исходный код toolsинструменты
for machineмашина learningобучение and intelligenceинтеллект
95
324776
3785
У нас есть инструменты с открытым кодом
для машинного обучения и интеллекта,
05:40
that we can contributeделать вклад to.
96
328585
1734
которыми мы готовы делиться.
05:42
And beyondза that,
we can shareдоля our experienceопыт.
97
330919
3340
И кроме того, мы можем
делиться своим опытом.
05:46
We can shareдоля our experiencesопыт
with technologyтехнологии and how it concernsпроблемы us
98
334760
3468
Делиться своими знаниями
о технологиях, и как это нас беспокоит,
05:50
and how it excitesпьянит us.
99
338252
1467
и как это нас волнует.
05:52
We can discussобсуждать what we love.
100
340251
1867
Мы можем обсуждать, что мы любим.
05:55
We can communicateобщаться with foresightпредвидение
101
343244
2031
Мы можем общаться, предугадывая,
05:57
about the aspectsаспекты of technologyтехнологии
that could be more beneficialвыгодный
102
345299
4857
какие аспекты технологий могут стать
со временем самыми полезными,
06:02
or could be more problematicпроблематичный over time.
103
350180
2600
а какие — наиболее сомнительными.
06:05
If we all focusфокус on openingоткрытие up
the discussionобсуждение on AIискусственный интеллект
104
353799
4143
Если мы все сосредоточимся
на открытом диалоге об ИИ
06:09
with foresightпредвидение towardsв направлении the futureбудущее,
105
357966
1809
в перспективе будущего,
06:13
this will help createСоздайте a generalГенеральная
conversationразговор and awarenessосознание
106
361093
4270
это поможет создать атмосферу
общей осведомлённости
06:17
about what AIискусственный интеллект is now,
107
365387
2513
о том, что ИИ представляет собой сейчас,
06:21
what it can becomeстали
108
369212
2001
чем может стать
06:23
and all the things that we need to do
109
371237
1785
и обо всём, что мы должны сделать,
06:25
in orderзаказ to enableвключить that outcomeисход
that bestЛучший suitsкостюмы us.
110
373046
3753
чтобы результат лучше всего нам подходил.
06:29
We alreadyуже see and know this
in the technologyтехнологии that we use todayCегодня.
111
377490
3674
Мы уже видим и знаем всё это
о технологиях, используемых сегодня.
06:33
We use smartумная phonesтелефоны
and digitalцифровой assistantsассистенты and RoombasRoombas.
112
381767
3880
Мы используем смартфоны,
электронные помощники, роботы-пылесосы.
06:38
Are they evilзло?
113
386457
1150
Разве они — зло?
06:40
Maybe sometimesиногда.
114
388268
1547
Может быть, иногда.
06:42
Are they beneficialвыгодный?
115
390664
1333
Они полезны?
06:45
Yes, they're that, too.
116
393005
1533
Безусловно.
06:48
And they're not all the sameодна и та же.
117
396236
1761
И все они разные.
06:50
And there you alreadyуже see
a lightлегкий shiningблестящий on what the futureбудущее holdsдержит.
118
398489
3540
И в них вы уже видите луч света,
освещающий наше будущее.
06:54
The futureбудущее continuesпродолжается on
from what we buildстроить and createСоздайте right now.
119
402942
3619
Будущее начинается в том, что
мы создаём и строим прямо сейчас.
06:59
We setзадавать into motionдвижение that dominoдомино effectэффект
120
407165
2642
Мы запускаем тот эффект домино,
07:01
that carvesвырезает out AI'sAI evolutionaryэволюционный pathдорожка.
121
409831
2600
который определит путь развития ИИ.
07:05
In our time right now,
we shapeформа the AIискусственный интеллект of tomorrowзавтра.
122
413173
2871
В нашем настоящем мы
задаем форму ИИ будущего.
07:08
TechnologyТехнологии that immersesпогружает us
in augmentedдополненная realitiesреалии
123
416566
3699
Технологии, которые погружают
нас в дополненные реальности,
07:12
bringingприведение to life pastмимо worldsмиры.
124
420289
2566
возвращают к жизни прошлые миры.
07:15
TechnologyТехнологии that helpsпомогает people
to shareдоля theirих experiencesопыт
125
423844
4312
Технологии, которые помогают
людям делиться опытом,
07:20
when they have difficultyтрудность communicatingсвязь.
126
428180
2262
когда они испытывают
трудности в общении.
07:23
TechnologyТехнологии builtпостроен on understandingпонимание
the streamingпотоковый visualвизуальный worldsмиры
127
431323
4532
Технологии, основанные на понимании
потоковых визуальных миров,
07:27
used as technologyтехнологии for self-drivingсамостоятельное вождение carsлегковые автомобили.
128
435879
3079
используются для самоуправляемых машин.
07:32
TechnologyТехнологии builtпостроен on understandingпонимание imagesизображений
and generatingпорождающий languageязык,
129
440490
3413
Технологии, основанные на понимании
изображений и искусственных языков,
07:35
evolvingэволюционирует into technologyтехнологии that helpsпомогает people
who are visuallyвизуально impairedослабленный
130
443927
4063
превращаются в технологии, которые
помогают слабовидящим людям
07:40
be better ableв состоянии to accessдоступ the visualвизуальный worldМир.
131
448014
2800
получать доступ к визуальному миру.
07:42
And we alsoтакже see how technologyтехнологии
can leadвести to problemsпроблемы.
132
450838
3261
Но мы также видим, как технологии
могут привести к проблемам.
07:46
We have technologyтехнологии todayCегодня
133
454885
1428
Сегодня у нас есть технологии,
07:48
that analyzesанализы physicalфизическое
characteristicsхарактеристики we're bornРодился with --
134
456337
3835
которые анализируют наши
врождённые физические характеристики —
07:52
suchтакие as the colorцвет of our skinкожа
or the look of our faceлицо --
135
460196
3272
такие как цвет кожи или черты лица —
07:55
in orderзаказ to determineопределить whetherбудь то or not
we mightмог бы be criminalsпреступники or terroristsтеррористы.
136
463492
3804
чтобы определить, можем ли мы
быть преступниками или террористами.
07:59
We have technologyтехнологии
that crunchesсухарики throughчерез our dataданные,
137
467688
2905
У нас есть технологии,
анализирующие данные о нас,
08:02
even dataданные relatingотносящийся
to our genderПол or our raceраса,
138
470617
2896
даже такие данные как пол или раса,
08:05
in orderзаказ to determineопределить whetherбудь то or not
we mightмог бы get a loanссуда.
139
473537
2865
чтобы определить, можем
ли мы получить кредит.
08:09
All that we see now
140
477494
1579
Всё, что мы видим сейчас,
08:11
is a snapshotснимок in the evolutionэволюция
of artificialискусственный intelligenceинтеллект.
141
479097
3617
это лишь один кадр из эволюции
искусственного интеллекта.
08:15
Because where we are right now,
142
483763
1778
Потому что то, где мы сейчас, —
08:17
is withinв a momentмомент of that evolutionэволюция.
143
485565
2238
это всего лишь момент этой эволюции.
08:20
That meansозначает that what we do now
will affectаффект what happensпроисходит down the lineлиния
144
488690
3802
Это означает, что всё, что мы
делаем сегодня, окажет влияние
08:24
and in the futureбудущее.
145
492516
1200
на наше будущее.
08:26
If we want AIискусственный интеллект to evolveэволюционировать
in a way that helpsпомогает humansлюди,
146
494063
3951
Если мы хотим, чтобы ИИ развивался
для помощи человеку,
08:30
then we need to defineопределять
the goalsцели and strategiesстратегии
147
498038
2801
значит, мы должны
определить цели и стратегии,
08:32
that enableвключить that pathдорожка now.
148
500863
1733
которые зададут этот путь сейчас.
08:35
What I'd like to see is something
that fitsприпадки well with humansлюди,
149
503680
3738
Я бы хотела видеть что-то,
что хорошо подходит людям,
08:39
with our cultureкультура and with the environmentОкружающая среда.
150
507442
2800
соотносится с нашей
культурой и окружением.
08:43
TechnologyТехнологии that aidsвспомогательные средства and assistsпомогает
those of us with neurologicalневрологический conditionsусловия
151
511435
4484
Технологии, которые помогают тем из нас,
кто страдает неврологическими
08:47
or other disabilitiesинвалидов
152
515943
1721
или другими заболеваниями,
08:49
in orderзаказ to make life
equallyв равной степени challengingиспытывающий for everyoneвсе.
153
517688
3216
чтобы сделать жизнь
одинаково трудной для всех.
08:54
TechnologyТехнологии that worksработает
154
522097
1421
Технологии, работающие
08:55
regardlessнесмотря на of your demographicsдемографические
or the colorцвет of your skinкожа.
155
523542
3933
независимо от вашего цвета кожи
или демографических характеристик.
09:00
And so todayCегодня, what I focusфокус on
is the technologyтехнологии for tomorrowзавтра
156
528383
4742
Сегодня я сосредоточена на технологиях,
которые будут с нами завтра
09:05
and for 10 yearsлет from now.
157
533149
1733
и через 10 лет.
09:08
AIискусственный интеллект can turnочередь out in manyмногие differentдругой waysпути.
158
536530
2634
ИИ может стать чем угодно.
09:11
But in this caseдело,
159
539688
1225
Но в данном случае
09:12
it isn't a self-drivingсамостоятельное вождение carавтомобиль
withoutбез any destinationместо назначения.
160
540937
3328
это не самоуправляемая машина
без конечного пункта назначения.
09:16
This is the carавтомобиль that we are drivingвождение.
161
544884
2400
Этой машиной управляем мы.
09:19
We chooseвыберите when to speedскорость up
and when to slowмедленный down.
162
547953
3595
Мы выбираем, когда следует
ускориться, а когда замедлиться.
09:23
We chooseвыберите if we need to make a turnочередь.
163
551572
2400
Мы выбираем, когда нам нужно повернуть.
09:26
We chooseвыберите what the AIискусственный интеллект
of the futureбудущее will be.
164
554868
3000
Мы выбираем, каким будет ИИ будущего.
09:31
There's a vastогромный playingиграть fieldполе
165
559186
1337
Есть бесчисленное множество
09:32
of all the things that artificialискусственный
intelligenceинтеллект can becomeстали.
166
560547
2965
вещей, которыми может стать
искусственный интеллект.
09:36
It will becomeстали manyмногие things.
167
564064
1800
И он станет множеством вещей.
09:39
And it's up to us now,
168
567694
1732
И наша задача сегодня —
09:41
in orderзаказ to figureфигура out
what we need to put in placeместо
169
569450
3061
выяснить, что именно
мы должны вложить в ИИ,
09:44
to make sure the outcomesрезультаты
of artificialискусственный intelligenceинтеллект
170
572535
3807
чтобы полученные результаты
09:48
are the onesте, that will be
better for all of us.
171
576366
3066
стали самыми лучшими для всех нас.
09:51
Thank you.
172
579456
1150
Спасибо.
09:52
(ApplauseАплодисменты)
173
580630
2187
(Аплодисменты)
Translated by Maria Rigert
Reviewed by Yulia Kallistratova

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com