ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Марґарет Мітчелл: Як створити штучний інтелект, який допомагатиме людям, а не шкодитиме

Filmed:
1,154,210 views

Науковий співробітник Google Марґарет Мітчелл допомагає розробляти комп'ютери, які можуть розповідати про те, що вони бачать і розуміють. Вона попереджає про пробіли, "мертві зони" й упередження, які ми підсвідомо закодовуємо в ШІ. І просить задуматися про значення нинішніх технологій в майбутньому. "Все, що ми бачимо зараз, це лише мить в еволюції штучного інтелекту. Аби ШІ розвивався для допомоги людям, треба визначити цілі й стратегії, щоб нині розпочати цей шлях".
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingдопомагає computersкомп'ютери
communicateспілкуватися about the worldсвіт around us.
0
1381
4015
Я допомагаю комп'ютерам
розповідати про світ навколо.
00:17
There are a lot of waysшляхи to do this,
1
5754
1793
Є багато способів зробити це.
00:19
and I like to focusфокус on helpingдопомагає computersкомп'ютери
2
7571
2592
Я розповім, як допомогти їм
00:22
to talk about what they see
and understandзрозуміти.
3
10187
2874
говорити про те, що вони бачать
і розуміють.
00:25
GivenВраховуючи a sceneсцени like this,
4
13514
1571
Отримавши таке зображення,
00:27
a modernсучасний computer-visionкомп'ютери бачення algorithmалгоритм
5
15109
1905
сучасний алгоритм комп'ютерного бачення
00:29
can tell you that there's a womanжінка
and there's a dogпес.
6
17038
3095
скаже, що це жінка й собака.
00:32
It can tell you that the womanжінка is smilingпосміхається.
7
20157
2706
Може сказати, що жінка посміхається.
00:34
It mightможе even be ableздатний to tell you
that the dogпес is incrediblyнеймовірно cuteСимпатичний.
8
22887
3873
І, можливо, навіть -
що собака неймовірно милий.
00:38
I work on this problemпроблема
9
26784
1349
Працюючи над цим,
00:40
thinkingмислення about how humansлюди
understandзрозуміти and processпроцес the worldсвіт.
10
28157
4212
я думаю, як люди
розуміють і сприймають світ.
00:45
The thoughtsдумки, memoriesспогади and storiesоповідання
11
33577
2952
Думки, спогади й історії,
00:48
that a sceneсцени like this
mightможе evokeвикликати for humansлюди.
12
36553
2818
які ця картина
викликає в людей.
00:51
All the interconnectionsвзаємозв'язки
of relatedпов'язаний situationsситуації.
13
39395
4285
Усі взаємозв'язки
в подібних ситуаціях.
00:55
Maybe you've seenбачив
a dogпес like this one before,
14
43704
3126
Можливо, ви вже бачили
схожого собаку раніше,
00:58
or you've spentвитрачений time
runningбіг on a beachПляжний like this one,
15
46854
2969
чи вже бували на такому пляжі,
01:01
and that furtherдалі evokesвикликає thoughtsдумки
and memoriesспогади of a pastминуле vacationвідпочинок,
16
49847
4778
тоді ви згадаєте про минулу відпустку,
01:06
pastминуле timesразів to the beachПляжний,
17
54649
1920
пляж
01:08
timesразів spentвитрачений runningбіг around
with other dogsсобаки.
18
56593
2603
та як ви бігали
з іншими собаками.
01:11
One of my guidingкерівництво principlesпринципи
is that by helpingдопомагає computersкомп'ютери to understandзрозуміти
19
59688
5207
Один з моїх принципів:
допомагаючи комп'ютерам зрозуміти,
01:16
what it's like to have these experiencesдосвід,
20
64919
2896
як це - мати такий досвід,
01:19
to understandзрозуміти what we shareподілитися
and believe and feel,
21
67839
5176
зрозуміти, чим ми схожі,
у що віримо і що відчуваємо.
01:26
then we're in a great positionпозиція
to startпочати evolvingрозвивається computerкомп'ютер technologyтехнологія
22
74094
4310
Тоді ми розвиватимемо
комп'ютерні технології
01:30
in a way that's complementaryкомплементарний
with our ownвласний experiencesдосвід.
23
78428
4587
в такий спосіб, що доповнює
наш власний досвід.
Глибоку роботу над цим я почала
кілька років тому,
01:35
So, diggingкопання more deeplyглибоко into this,
24
83539
3387
01:38
a fewмало хто yearsроків agoтому назад I beganпочався workingпрацює on helpingдопомагає
computersкомп'ютери to generateгенерувати human-likeлюб'язний storiesоповідання
25
86950
5905
коли допомагала комп'ютерам
розповідати справжні історії
на основі послідовних зображень.
01:44
from sequencesпослідовності of imagesзображення.
26
92879
1666
Одного дня
01:47
So, one day,
27
95427
1904
01:49
I was workingпрацює with my computerкомп'ютер to askзапитай it
what it thought about a tripпоїздка to AustraliaАвстралія.
28
97355
4622
я спитала у свого комп'ютера, що
він думає про подорож до Австралії.
Він проглянув зображення й побачив коалу.
01:54
It tookвзяв a look at the picturesмалюнки,
and it saw a koalaКоала.
29
102768
2920
Він не знав, що то коала,
01:58
It didn't know what the koalaКоала was,
30
106236
1643
01:59
but it said it thought
it was an interesting-lookingзацікавило creatureстворіння.
31
107903
2999
але вважає її цікавим створінням.
Потім я показала йому низку зображень,
на яких горить будинок.
02:04
Then I sharedподілився with it a sequenceпослідовність of imagesзображення
about a houseбудинок burningгоріння down.
32
112053
4004
Він подивився на картинки й сказав:
02:09
It tookвзяв a look at the imagesзображення and it said,
33
117704
3285
"Це неймовірне видовище.
Це вражаюче!"
02:13
"This is an amazingдивовижний viewвид!
This is spectacularвражаючий!"
34
121013
3500
Мені стало моторошно.
02:17
It sentнадісланий chillsозноб down my spineхребет.
35
125450
2095
Він побачив жахливу,
руйнівну подію,
02:20
It saw a horribleжахливо, life-changingзмінити життя
and life-destroyingзнищення життя eventподія
36
128983
4572
і подумав, що це добре.
02:25
and thought it was something positiveпозитивний.
37
133579
2382
02:27
I realizedусвідомлено that it recognizedвизнаний
the contrastконтраст,
38
135985
3441
Певно, контраст
червоного й жовтого
02:31
the redsчервоні, the yellowsжовті,
39
139450
2699
здався йому чимось гарним.
02:34
and thought it was something
worthварто remarkingзауваживши on positivelyпозитивно.
40
142173
3078
02:37
And partчастина of why it was doing this
41
145928
1615
Почасти, він відреагував так,
02:39
was because mostнайбільше
of the imagesзображення I had givenдано it
42
147577
2945
тому що більшість
зображень до цього
були позитивними.
02:42
were positiveпозитивний imagesзображення.
43
150546
1840
Адже зазвичай люди діляться позитивом,
02:44
That's because people
tendсхильні to shareподілитися positiveпозитивний imagesзображення
44
152903
3658
02:48
when they talk about theirїх experiencesдосвід.
45
156585
2190
коли розповідають про себе.
02:51
When was the last time
you saw a selfieselfie at a funeralпохорон?
46
159267
2541
Чи ви колись бачили селфі на похороні?
Я зрозуміла, що вдосконалюючи ШІ,
02:55
I realizedусвідомлено that,
as I workedпрацював on improvingполіпшення AIАЙ
47
163434
3095
крок за кроком
02:58
taskзавдання by taskзавдання, datasetнабір даних by datasetнабір даних,
48
166553
3714
я лишала вeличезні пробіли,
03:02
that I was creatingстворення massiveмасивний gapsпрогалини,
49
170291
2897
дірки й "мертві зони" в його знаннях.
03:05
holesотвори and blindсліпий spotsплями
in what it could understandзрозуміти.
50
173212
3999
03:10
And while doing so,
51
178307
1334
Тим часом
03:11
I was encodingкодування all kindsвидів of biasesупередження.
52
179665
2483
я закодовувала чимало суб'єктивного.
Вузький погляд,
03:15
BiasesУпередження that reflectвідбити a limitedобмежений viewpointточка зору,
53
183029
3318
обмежений одиничним набором даних.
03:18
limitedобмежений to a singleсингл datasetнабір даних --
54
186371
2261
03:21
biasesупередження that can reflectвідбити
humanлюдина biasesупередження foundзнайдено in the dataдані,
55
189283
3858
Людські упередження,
знайдені в даних,
03:25
suchтакий as prejudiceупередження and stereotypingстереотипів.
56
193165
3104
як-от необ'єктивність і шаблонність.
03:29
I thought back to the evolutionеволюція
of the technologyтехнологія
57
197554
3057
Я згадала про еволюцію технологій,
03:32
that broughtприніс me to where I was that day --
58
200635
2502
яка мене того дня наштовхнула на це --
і з чого все починалось.
03:35
how the first colorколір imagesзображення
59
203966
2233
Як перші кольорові знімки
перевіряли на фоні
білошкірої жінки.
03:38
were calibratedкалібровані againstпроти
a whiteбілий woman'sжінка skinшкіра,
60
206223
3048
А значить, кольорова фотографія
була упереджена щодо темношкірих облич.
03:41
meaningсенс that colorколір photographyфотографія
was biasedупереджений againstпроти blackчорний facesобличчя.
61
209665
4145
І це упередження, "мертва зона"
03:46
And that sameтой же biasупередження, that sameтой же blindсліпий spotмісце
62
214514
2925
тягнулася аж до 90-х.
03:49
continuedпродовжується well into the '90s.
63
217463
1867
Таке упередження існує і нині,
03:51
And the sameтой же blindсліпий spotмісце
continuesпродовжується even todayсьогодні
64
219701
3154
03:54
in how well we can recognizeрозпізнати
differentінший people'sнародний facesобличчя
65
222879
3698
адже з технологією розпізнавання облич
ми легко розпізнаємо різні обличчя.
03:58
in facialДогляд за шкірою обличчя recognitionвизнання technologyтехнологія.
66
226601
2200
04:01
I thoughхоча about the stateдержава of the artмистецтво
in researchдослідження todayсьогодні,
67
229323
3143
Я згадала про новітні наукові дослідження,
де ми прагнемо обмежувати думки
одним набором даних й однією задачею.
04:04
where we tendсхильні to limitліміт our thinkingмислення
to one datasetнабір даних and one problemпроблема.
68
232490
4514
Тим самим створюючи
більше "мертвих зон" й упереджень,
04:09
And that in doing so, we were creatingстворення
more blindсліпий spotsплями and biasesупередження
69
237688
4881
04:14
that the AIАЙ could furtherдалі amplifyпосилити.
70
242593
2277
які ШІ надалі розвиватиме.
04:17
I realizedусвідомлено then
that we had to think deeplyглибоко
71
245712
2079
Я зрозуміла,
що нам треба задуматися,
04:19
about how the technologyтехнологія we work on todayсьогодні
looksвиглядає in fiveп'ять yearsроків, in 10 yearsроків.
72
247815
5519
як сучасні технології
виглядатимуть через 5-10 років.
Люди еволюціонують поволі,
маючи час корегування
04:25
HumansЛюди evolveрозвиватися slowlyповільно,
with time to correctправильно for issuesвипуски
73
253990
3142
04:29
in the interactionвзаємодія of humansлюди
and theirїх environmentнавколишнє середовище.
74
257156
3534
взаємодій між собою й довкіллям.
Проте штучний інтелект
розвивається напрочуд швидко.
04:33
In contrastконтраст, artificialштучний intelligenceрозвідка
is evolvingрозвивається at an incrediblyнеймовірно fastшвидко rateкурс.
75
261276
5429
Тому дійсно важливо
04:39
And that meansзасоби that it really mattersмає значення
76
267013
1773
04:40
that we think about this
carefullyобережно right now --
77
268810
2317
подумати про це зараз,
04:44
that we reflectвідбити on our ownвласний blindсліпий spotsплями,
78
272180
3008
про власні "мертві зони"
й упередження.
04:47
our ownвласний biasesупередження,
79
275212
2317
Як вони впливають на
технології, що ми створюємо.
04:49
and think about how that's informingінформування
the technologyтехнологія we're creatingстворення
80
277553
3857
04:53
and discussобговорюй what the technologyтехнологія of todayсьогодні
will mean for tomorrowзавтра.
81
281434
3902
Варто обговорити, яке значення
сучасні технології матимуть в майбутньому.
Керівники й науковці
висловились щодо того,
04:58
CEOsКерівники компаній and scientistsвчені have weighedважив in
on what they think
82
286593
3191
як технологія штучного інтелекту
виглядатиме в майбутньому.
05:01
the artificialштучний intelligenceрозвідка technologyтехнологія
of the futureмайбутнє will be.
83
289808
3325
05:05
StephenСтівен HawkingГокінг warnsпопереджає that
84
293157
1618
Стівен Гокінг застерігає:
05:06
"ArtificialШтучні intelligenceрозвідка
could endкінець mankindлюдство."
85
294799
3007
"Штучний інтелект
може знищити людство".
05:10
ElonElon MuskМускус warnsпопереджає
that it's an existentialекзистенціальний riskризик
86
298307
2683
Ілон Маск попереджає, що
це екзистенційна небезпека,
05:13
and one of the greatestнайбільший risksризики
that we faceобличчя as a civilizationцивілізація.
87
301014
3574
одна з найбільших,
з якими зіткнулась людська цивілізація.
05:17
BillБілл GatesВорота has madeзроблений the pointточка,
88
305665
1452
Біл Гейтс зазначив:
05:19
"I don't understandзрозуміти
why people aren'tні more concernedзацікавлений."
89
307141
3185
"Не розумію,
чому люди не стурбовані більше".
05:23
But these viewsпогляди --
90
311412
1318
Але ці погляди
05:25
they're partчастина of the storyісторія.
91
313618
1734
є частиною історії.
05:28
The mathматематика, the modelsмоделі,
92
316079
2420
Підрахунки, моделі,
05:30
the basicосновний buildingбудівля blocksблоки
of artificialштучний intelligenceрозвідка
93
318523
3070
основні структурні блоки
штучного інтелекту -
05:33
are something that we call accessдоступ
and all work with.
94
321617
3135
це те, що ми маємо й над чим працюємо.
05:36
We have open-sourceвідкрите джерело toolsінструменти
for machineмашина learningнавчання and intelligenceрозвідка
95
324776
3785
Ми маємо інструменти з відкритим кодом
для машинного навчання й інтелекту,
05:40
that we can contributeвнесок to.
96
328585
1734
куди можемо зробити свій внесок
05:42
And beyondдалі that,
we can shareподілитися our experienceдосвід.
97
330919
3340
і поділитися досвідом.
05:46
We can shareподілитися our experiencesдосвід
with technologyтехнологія and how it concernsстурбованість us
98
334760
3468
Ми можемо дати технологіям
наш досвід, наші хвилювання,
05:50
and how it excitesхвилює us.
99
338252
1467
наші захоплення.
05:52
We can discussобговорюй what we love.
100
340251
1867
Ми можемо обговорювати те, що любимо.
05:55
We can communicateспілкуватися with foresightпередбачення
101
343244
2031
Говорити наперед
05:57
about the aspectsаспекти of technologyтехнологія
that could be more beneficialвигідно
102
345299
4857
про аспекти технологій,
які можуть бути вигіднішими
06:02
or could be more problematicпроблематичний over time.
103
350180
2600
чи стати більш
проблематичними з часом.
06:05
If we all focusфокус on openingвідкриття up
the discussionдискусія on AIАЙ
104
353799
4143
Якщо ми обговорюватимемо ШІ
06:09
with foresightпередбачення towardsназустріч the futureмайбутнє,
105
357966
1809
із завбачливістю щодо майбутнього,
06:13
this will help createстворити a generalзагальний
conversationрозмова and awarenessусвідомлення
106
361093
4270
це переросте в спільну
розмову й усвідомлення того,
06:17
about what AIАЙ is now,
107
365387
2513
чим є ШІ нині,
06:21
what it can becomeстати
108
369212
2001
й чим він може стати,
06:23
and all the things that we need to do
109
371237
1785
і що слід зробити
06:25
in orderзамовлення to enableувімкнути that outcomeрезультат
that bestнайкраще suitsкостюми us.
110
373046
3753
для найкращого результату.
06:29
We alreadyвже see and know this
in the technologyтехнологія that we use todayсьогодні.
111
377490
3674
Це вже є в технологіях сьогодення.
06:33
We use smartрозумний phonesтелефони
and digitalцифровий assistantsпомічники and RoombasRoombas.
112
381767
3880
Ми використовуємо смартфони, цифрових
помічників і пилососи-роботи Roomba.
06:38
Are they evilзло?
113
386457
1150
Чи вони лихі?
06:40
Maybe sometimesіноді.
114
388268
1547
Можливо інколи.
06:42
Are they beneficialвигідно?
115
390664
1333
Чи вони корисні?
06:45
Yes, they're that, too.
116
393005
1533
Авжеж.
06:48
And they're not all the sameтой же.
117
396236
1761
І всі вони різні.
06:50
And there you alreadyвже see
a lightсвітло shiningсвітиться on what the futureмайбутнє holdsтримає.
118
398489
3540
Ви вже бачите, як проливається
світло на те, що нас чекає в майбутньому.
06:54
The futureмайбутнє continuesпродовжується on
from what we buildбудувати and createстворити right now.
119
402942
3619
Майбутнє твориться з того,
що ми будуємо і створюємо в цю мить.
06:59
We setвстановити into motionрух that dominoдоміно effectефект
120
407165
2642
Ми запускаємо в дію принцип доміно,
07:01
that carvesвирізає out AI'sШІ evolutionaryеволюційний pathшлях.
121
409831
2600
який прокладає еволюційний шлях ШІ.
07:05
In our time right now,
we shapeформа the AIАЙ of tomorrowзавтра.
122
413173
2871
Сьогодні ми формуємо
ШІ завтрашнього дня.
07:08
TechnologyТехнологія that immersesзанурює us
in augmentedзбільшено realitiesреалії
123
416566
3699
Технологія, яка занурює нас
в доповнені реальності,
07:12
bringingприведення to life pastминуле worldsсвіти.
124
420289
2566
пробуджуючи до життя світи минулого.
07:15
TechnologyТехнологія that helpsдопомагає people
to shareподілитися theirїх experiencesдосвід
125
423844
4312
Технологія, яка допомагає людям
ділитися враженнями,
07:20
when they have difficultyтруднощі communicatingспілкування.
126
428180
2262
коли виникають труднощі в спілкуванні.
07:23
TechnologyТехнологія builtпобудований on understandingрозуміння
the streamingпотокове visualвізуальний worldsсвіти
127
431323
4532
Технологія, побудована на розумінні
рухливих навколишніх світів,
07:27
used as technologyтехнологія for self-drivingіндивідуальної їзді carsавтомобілі.
128
435879
3079
яку використовують для безпілотних авто.
07:32
TechnologyТехнологія builtпобудований on understandingрозуміння imagesзображення
and generatingгенеруючи languageмова,
129
440490
3413
Технологія, побудована на розумінні
зображень і підборі мовних засобів,
07:35
evolvingрозвивається into technologyтехнологія that helpsдопомагає people
who are visuallyвізуально impairedпорушено
130
443927
4063
що еволюціонує в технологію,
яка допомагає людям з вадами зору
07:40
be better ableздатний to accessдоступ the visualвізуальний worldсвіт.
131
448014
2800
мати кращий доступ до візуального світу.
07:42
And we alsoтакож see how technologyтехнологія
can leadвести to problemsпроблеми.
132
450838
3261
І ми також бачимо, що технології
можуть спричинити проблеми.
07:46
We have technologyтехнологія todayсьогодні
133
454885
1428
Нині ми маємо технологію,
07:48
that analyzesаналізи physicalфізичний
characteristicsхарактеристики we're bornнародився with --
134
456337
3835
яка аналізує фізичні характеристики,
з якими ми народжуємося --
07:52
suchтакий as the colorколір of our skinшкіра
or the look of our faceобличчя --
135
460196
3272
колір шкіри чи зовнішній вигляд --
07:55
in orderзамовлення to determineвизначити whetherчи то or not
we mightможе be criminalsзлочинців or terroristsтерористи.
136
463492
3804
щоб визначити чи можемо ми бути
злочинцями або терористами.
07:59
We have technologyтехнологія
that crunchesхрумтить throughчерез our dataдані,
137
467688
2905
В нас є технологія,
яка опрацьовує наші дані,
08:02
even dataдані relatingщо стосується
to our genderСтать or our raceгонка,
138
470617
2896
навіть дані щодо
нашої статі чи раси,
08:05
in orderзамовлення to determineвизначити whetherчи то or not
we mightможе get a loanпозика.
139
473537
2865
щоб визначити чи можна нам
отримати позику.
08:09
All that we see now
140
477494
1579
Все, що ми бачимо зараз, -
08:11
is a snapshotзнімок in the evolutionеволюція
of artificialштучний intelligenceрозвідка.
141
479097
3617
це мить в процесі еволюції
штучного інтелекту.
08:15
Because where we are right now,
142
483763
1778
Тому, що зараз ми знаходимося
08:17
is withinв межах a momentмомент of that evolutionеволюція.
143
485565
2238
за крок до цієї еволюції.
08:20
That meansзасоби that what we do now
will affectвпливати what happensбуває down the lineлінія
144
488690
3802
Це означає, що те, що ми робимо зараз
впливатиме як на процес,
08:24
and in the futureмайбутнє.
145
492516
1200
так і на майбутнє.
08:26
If we want AIАЙ to evolveрозвиватися
in a way that helpsдопомагає humansлюди,
146
494063
3951
Якщо ми хочемо, щоб ШІ розвивався,
щоб допомагати людям,
08:30
then we need to defineвизначити
the goalsцілі and strategiesстратегії
147
498038
2801
нам треба визначити
цілі й стратегії,
08:32
that enableувімкнути that pathшлях now.
148
500863
1733
щоб розпочати цей шлях вже зараз.
08:35
What I'd like to see is something
that fitsпідходить well with humansлюди,
149
503680
3738
Я б хотіла побачити щось,
що добре впишеться в людське життя,
08:39
with our cultureкультура and with the environmentнавколишнє середовище.
150
507442
2800
культуру й довкілля.
08:43
TechnologyТехнологія that aidsдопоміжні засоби and assistsсприяє
those of us with neurologicalневрологічний conditionsумови
151
511435
4484
Технологію, яка допомагає
тим, в кого неврологічні захворювання
08:47
or other disabilitiesобмеженими можливостями
152
515943
1721
або інші обмеження,
08:49
in orderзамовлення to make life
equallyоднаково challengingскладний for everyoneкожен.
153
517688
3216
щоб зробити життя
рівним для всіх.
08:54
TechnologyТехнологія that worksпрацює
154
522097
1421
Технологію, яка працює,
08:55
regardlessнезалежно of your demographicsдемографічні показники
or the colorколір of your skinшкіра.
155
523542
3933
попри демографічні показники
чи колір шкіри.
09:00
And so todayсьогодні, what I focusфокус on
is the technologyтехнологія for tomorrowзавтра
156
528383
4742
Тому сьогодні, я зосереджуюсь на
технології, що працюватиме завтра
09:05
and for 10 yearsроків from now.
157
533149
1733
і через 10 років.
09:08
AIАЙ can turnповорот out in manyбагато хто differentінший waysшляхи.
158
536530
2634
ШІ може бути різним.
09:11
But in this caseсправа,
159
539688
1225
Але в цьому випадку -
09:12
it isn't a self-drivingіндивідуальної їзді carмашина
withoutбез any destinationпризначення.
160
540937
3328
це не безпілотне авто
без пункту призначення.
09:16
This is the carмашина that we are drivingводіння.
161
544884
2400
Це авто, яким керуємо ми.
09:19
We chooseвибирай when to speedшвидкість up
and when to slowповільний down.
162
547953
3595
Ми обираємо, коли дати газу
і коли пригальмувати.
09:23
We chooseвибирай if we need to make a turnповорот.
163
551572
2400
Ми вирішуємо, коли необхідно повернути.
09:26
We chooseвибирай what the AIАЙ
of the futureмайбутнє will be.
164
554868
3000
Ми обираємо, яким ШІ
буде в майбутньому.
09:31
There's a vastвеличезний playingграє fieldполе
165
559186
1337
Існує величезний спектр
09:32
of all the things that artificialштучний
intelligenceрозвідка can becomeстати.
166
560547
2965
того, чим штучний інтелект
може стати.
09:36
It will becomeстати manyбагато хто things.
167
564064
1800
Він може стати багато чим.
09:39
And it's up to us now,
168
567694
1732
І наше завдання -
09:41
in orderзамовлення to figureфігура out
what we need to put in placeмісце
169
569450
3061
вирішити, що задіяти,
09:44
to make sure the outcomesнаслідки
of artificialштучний intelligenceрозвідка
170
572535
3807
аби наслідки
штучного інтелекту
09:48
are the onesті, хто that will be
better for all of us.
171
576366
3066
були якомога
кращими для всіх.
09:51
Thank you.
172
579456
1150
Дякую.
09:52
(ApplauseОплески)
173
580630
2187
(Оплески)
Translated by Anita Pokydanets
Reviewed by Olga Krykun

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com