ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

瑪格莉特.米契爾: 如何建立人工智慧來協助,而不是傷害人類

Filmed:
1,154,210 views

身為 Google 的研究科學家,瑪格莉特.米契爾協助開發能夠溝通看見什麼、了解什麼的電腦。她說了一個警惕的故事,談到我們下意識編碼到人工智慧中的隔閡、盲點、偏見,並請大家思考我們現今所創造的科技在未來的意義是什麼。她說:「我們現在所看見的一切,都是人工智慧演進的約略寫照。如果我們想讓人工智慧以對人類有助益的方式演進,那麼現在就得要定義目標和策略,來讓那條路成為可能。」
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helping幫助 computers電腦
communicate通信 about the world世界 around us.
0
1381
4015
我的工作是在協助電腦
和我們周遭的世界交流。
00:17
There are a lot of ways方法 to do this,
1
5754
1793
要這麼做,有很多方式,
00:19
and I like to focus焦點 on helping幫助 computers電腦
2
7571
2592
我喜歡聚焦在協助電腦
00:22
to talk about what they see
and understand理解.
3
10187
2874
來談它們看見什麼、了解什麼。
00:25
Given特定 a scene現場 like this,
4
13514
1571
給予一個這樣的情景,
00:27
a modern現代 computer-vision電腦視覺 algorithm算法
5
15109
1905
一個現代電腦視覺演算法
00:29
can tell you that there's a woman女人
and there's a dog.
6
17038
3095
就能告訴你情景中
有一個女子和一隻狗。
00:32
It can tell you that the woman女人 is smiling微笑.
7
20157
2706
它能告訴你,女子在微笑。
00:34
It might威力 even be able能夠 to tell you
that the dog is incredibly令人難以置信 cute可愛.
8
22887
3873
它甚至可能可以告訴你,
那隻狗相當可愛。
00:38
I work on this problem問題
9
26784
1349
我處理這個問題時
00:40
thinking思維 about how humans人類
understand理解 and process處理 the world世界.
10
28157
4212
腦中想的是人類如何
了解和處理這個世界。
00:45
The thoughts思念, memories回憶 and stories故事
11
33577
2952
對人類而言,這樣的情景有可能會
00:48
that a scene現場 like this
might威力 evoke喚起 for humans人類.
12
36553
2818
喚起什麼樣的思想、記憶、故事。
00:51
All the interconnections互連
of related有關 situations情況.
13
39395
4285
相關情況的所有相互連結。
00:55
Maybe you've seen看到
a dog like this one before,
14
43704
3126
也許你以前看過像這樣的狗,
00:58
or you've spent花費 time
running賽跑 on a beach海灘 like this one,
15
46854
2969
或者你曾花時間在
像這樣的海灘上跑步,
01:01
and that further進一步 evokes喚起 thoughts思念
and memories回憶 of a past過去 vacation假期,
16
49847
4778
那就會進一步喚起一個
過去假期的思想和記憶,
01:06
past過去 times to the beach海灘,
17
54649
1920
過去在海灘的時光,
01:08
times spent花費 running賽跑 around
with other dogs小狗.
18
56593
2603
花在和其他狗兒到處奔跑的時間。
01:11
One of my guiding主導 principles原則
is that by helping幫助 computers電腦 to understand理解
19
59688
5207
我的指導原則之一,
是要協助電腦了解
01:16
what it's like to have these experiences經驗,
20
64919
2896
有這些經驗是什麼樣的感覺,
01:19
to understand理解 what we share分享
and believe and feel,
21
67839
5176
去了解我們共有什麼、
相信什麼、感受到什麼,
01:26
then we're in a great position位置
to start開始 evolving進化 computer電腦 technology技術
22
74094
4310
那麼,我們就有很好的機會
可以開始讓電腦科技
01:30
in a way that's complementary補充
with our own擁有 experiences經驗.
23
78428
4587
以一種和我們自身經驗
互補的方式來演化。
01:35
So, digging挖掘 more deeply into this,
24
83539
3387
所以,我更深入研究這主題,
01:38
a few少數 years年份 ago I began開始 working加工 on helping幫助
computers電腦 to generate生成 human-like類人 stories故事
25
86950
5905
幾年前,我開始努力協助
電腦產生出像人類一樣的故事,
01:44
from sequences序列 of images圖片.
26
92879
1666
從一連串的影像來產生。
01:47
So, one day,
27
95427
1904
有一天,
01:49
I was working加工 with my computer電腦 to ask it
what it thought about a trip to Australia澳大利亞.
28
97355
4622
我在問我的電腦,它對於
去澳洲旅行有什麼想法。
01:54
It took a look at the pictures圖片,
and it saw a koala考拉.
29
102768
2920
它看了照片,看見一隻無尾熊。
01:58
It didn't know what the koala考拉 was,
30
106236
1643
它不知道無尾熊是什麼,
01:59
but it said it thought
it was an interesting-looking有趣的前瞻 creature生物.
31
107903
2999
但它說它認為這是一隻
看起來很有趣的生物。
02:04
Then I shared共享 with it a sequence序列 of images圖片
about a house burning燃燒 down.
32
112053
4004
我和它分享了一系列的圖片,
都和房子被燒毀有關。
02:09
It took a look at the images圖片 and it said,
33
117704
3285
它看了那些圖片,說:
02:13
"This is an amazing驚人 view視圖!
This is spectacular壯觀!"
34
121013
3500
「這是好棒的景色!這好壯觀!」
02:17
It sent發送 chills畏寒 down my spine脊柱.
35
125450
2095
它讓我背脊發涼。
02:20
It saw a horrible可怕, life-changing改變生活
and life-destroying毀滅生命 event事件
36
128983
4572
它看著一個會改變人生、
摧毀生命的可怕事件,
02:25
and thought it was something positive.
37
133579
2382
卻以為它是很正面的東西。
02:27
I realized實現 that it recognized認可
the contrast對比,
38
135985
3441
我了解到,它能認出對比反差、
02:31
the reds紅魔, the yellows,
39
139450
2699
紅色、黃色,
02:34
and thought it was something
worth價值 remarking陳述 on positively積極.
40
142173
3078
然後就認為它是
值得正面評論的東西。
02:37
And part部分 of why it was doing this
41
145928
1615
它這麼做的部分原因,
02:39
was because most
of the images圖片 I had given特定 it
42
147577
2945
是因為我給它的大多數圖片
02:42
were positive images圖片.
43
150546
1840
都是正面的圖片。
02:44
That's because people
tend趨向 to share分享 positive images圖片
44
152903
3658
那是因為人在談論他們的經驗時,
02:48
when they talk about their experiences經驗.
45
156585
2190
本來就傾向會分享正面的圖片。
02:51
When was the last time
you saw a selfie自拍 at a funeral葬禮?
46
159267
2541
你上次看到在葬禮上的
自拍照是何時?
02:55
I realized實現 that,
as I worked工作 on improving提高 AIAI
47
163434
3095
我了解到,當我努力
在改善人工智慧,
02:58
task任務 by task任務, dataset數據集 by dataset數據集,
48
166553
3714
一個任務一個任務、一個資料集
一個資料集地改善,
03:02
that I was creating創建 massive大規模的 gaps空白,
49
170291
2897
結果我卻在「它能了解什麼」上
03:05
holes and blind spots斑點
in what it could understand理解.
50
173212
3999
創造出了大量的隔閡、
漏洞,以及盲點。
03:10
And while doing so,
51
178307
1334
這麼做的時候,
03:11
I was encoding編碼 all kinds of biases偏見.
52
179665
2483
我是在把各種偏見做編碼。
03:15
Biases偏見 that reflect反映 a limited有限 viewpoint觀點,
53
183029
3318
這些偏見反映出受限的觀點,
03:18
limited有限 to a single dataset數據集 --
54
186371
2261
受限於單一資料集──
03:21
biases偏見 that can reflect反映
human人的 biases偏見 found發現 in the data數據,
55
189283
3858
這些偏見能反應出
在資料中的人類偏見,
03:25
such這樣 as prejudice偏見 and stereotyping定型.
56
193165
3104
比如偏袒以及刻板印象。
03:29
I thought back to the evolution演化
of the technology技術
57
197554
3057
我回頭去想一路帶我走到
03:32
that brought me to where I was that day --
58
200635
2502
那個時點的科技演化──
03:35
how the first color顏色 images圖片
59
203966
2233
第一批彩色影像如何
03:38
were calibrated校準 against反對
a white白色 woman's女人的 skin皮膚,
60
206223
3048
根據一個白種女子的皮膚來做校準,
03:41
meaning含義 that color顏色 photography攝影
was biased against反對 black黑色 faces面孔.
61
209665
4145
這表示,彩色照片對於
黑皮膚臉孔是有偏見的。
03:46
And that same相同 bias偏壓, that same相同 blind spot
62
214514
2925
同樣的偏見,同樣的盲點,
03:49
continued繼續 well into the '90s.
63
217463
1867
持續湧入了九○年代。
03:51
And the same相同 blind spot
continues繼續 even today今天
64
219701
3154
而同樣的盲點甚至持續到現今,
03:54
in how well we can recognize認識
different不同 people's人們 faces面孔
65
222879
3698
出現在我們對於不同人的
臉部辨識能力中,
03:58
in facial面部 recognition承認 technology技術.
66
226601
2200
在人臉辨識技術中。
04:01
I though雖然 about the state of the art藝術
in research研究 today今天,
67
229323
3143
我思考了現今在研究上發展水平,
04:04
where we tend趨向 to limit限制 our thinking思維
to one dataset數據集 and one problem問題.
68
232490
4514
我們傾向會把我們的思路限制
在一個資料集或一個問題上。
04:09
And that in doing so, we were creating創建
more blind spots斑點 and biases偏見
69
237688
4881
這麼做時,我們就會
創造出更多盲點和偏見,
04:14
that the AIAI could further進一步 amplify放大.
70
242593
2277
它們可能會被人工智慧給放大。
04:17
I realized實現 then
that we had to think deeply
71
245712
2079
那時,我了解到,我們必須要
04:19
about how the technology技術 we work on today今天
looks容貌 in five years年份, in 10 years年份.
72
247815
5519
深入思考我們現今努力發展的科技,
在五年、十年後會是什麼樣子。
04:25
Humans人類 evolve發展 slowly慢慢地,
with time to correct正確 for issues問題
73
253990
3142
人類演進很慢,有時間可以去修正
04:29
in the interaction相互作用 of humans人類
and their environment環境.
74
257156
3534
在人類互動以及其環境中的議題。
04:33
In contrast對比, artificial人造 intelligence情報
is evolving進化 at an incredibly令人難以置信 fast快速 rate.
75
261276
5429
相對的,人工智慧的
演進速度非常快。
04:39
And that means手段 that it really matters事項
76
267013
1773
那就意味著,很重要的是
04:40
that we think about this
carefully小心 right now --
77
268810
2317
我們現在要如何仔細思考這件事──
04:44
that we reflect反映 on our own擁有 blind spots斑點,
78
272180
3008
我們要反省我們自己的盲點,
04:47
our own擁有 biases偏見,
79
275212
2317
我們自己的偏見,
04:49
and think about how that's informing通知
the technology技術 we're creating創建
80
277553
3857
並想想它們帶給我們所
創造出的科技什麼樣的資訊,
04:53
and discuss討論 what the technology技術 of today今天
will mean for tomorrow明天.
81
281434
3902
並討論現今的科技在
將來代表的是什麼意涵。
04:58
CEOs老總 and scientists科學家們 have weighed稱重 in
on what they think
82
286593
3191
對於未來的人工智慧
應該是什麼樣子,
05:01
the artificial人造 intelligence情報 technology技術
of the future未來 will be.
83
289808
3325
執行長和科學家的意見
是很有份量的。
05:05
Stephen斯蒂芬 Hawking霍金 warns警告 that
84
293157
1618
史蒂芬霍金警告過:
05:06
"Artificial人造 intelligence情報
could end結束 mankind人類."
85
294799
3007
「人工智慧可能終結人類。」
05:10
Elon伊隆 Musk warns警告
that it's an existential存在 risk風險
86
298307
2683
伊隆馬斯克警告過,
它是個生存風險,
05:13
and one of the greatest最大 risks風險
that we face面對 as a civilization文明.
87
301014
3574
也是我們人類文明所
面臨最大的風險之一。
05:17
Bill法案 Gates蓋茨 has made製作 the point,
88
305665
1452
比爾蓋茲有個論點:
05:19
"I don't understand理解
why people aren't more concerned關心."
89
307141
3185
「我不了解為什麼
人們不更關心一點。」
05:23
But these views意見 --
90
311412
1318
但,這些看法──
05:25
they're part部分 of the story故事.
91
313618
1734
它們是故事的一部分。
05:28
The math數學, the models楷模,
92
316079
2420
數學、模型,
05:30
the basic基本 building建造 blocks
of artificial人造 intelligence情報
93
318523
3070
人工智慧的基礎材料
05:33
are something that we call access訪問
and all work with.
94
321617
3135
是我們所有人都能夠取得並使用的。
05:36
We have open-source開源 tools工具
for machine learning學習 and intelligence情報
95
324776
3785
我們有機器學習和智慧用的
開放原始碼工具,
05:40
that we can contribute有助於 to.
96
328585
1734
我們都能對其做出貢獻。
05:42
And beyond that,
we can share分享 our experience經驗.
97
330919
3340
在那之外,我們可以
分享我們的經驗。
05:46
We can share分享 our experiences經驗
with technology技術 and how it concerns關注 us
98
334760
3468
分享關於科技、它如何影響我們、
05:50
and how it excites的激勵 us.
99
338252
1467
它如何讓我們興奮的經驗。
05:52
We can discuss討論 what we love.
100
340251
1867
我們可以討論我們所愛的。
05:55
We can communicate通信 with foresight先見之明
101
343244
2031
我們能帶著遠見來交流,
05:57
about the aspects方面 of technology技術
that could be more beneficial有利
102
345299
4857
談談關於科技有哪些面向,
隨著時間發展可能可以更有助益,
或可能產生問題。
06:02
or could be more problematic問題 over time.
103
350180
2600
06:05
If we all focus焦點 on opening開盤 up
the discussion討論 on AIAI
104
353799
4143
若我們都能把焦點放在
開放地帶著對未來的遠見
來討論人工智慧,
06:09
with foresight先見之明 towards the future未來,
105
357966
1809
06:13
this will help create創建 a general一般
conversation會話 and awareness意識
106
361093
4270
這就能創造出一般性的談話和意識,
06:17
about what AIAI is now,
107
365387
2513
關於人工智慧現在是什麼樣子、
06:21
what it can become成為
108
369212
2001
它未來可以變成什麼樣子,
06:23
and all the things that we need to do
109
371237
1785
以及所有我們需要做的事,
06:25
in order訂購 to enable啟用 that outcome結果
that best最好 suits西裝 us.
110
373046
3753
以產生出最適合我們的結果。
06:29
We already已經 see and know this
in the technology技術 that we use today今天.
111
377490
3674
我們已經在現今我們所使用的
科技中看見這一點了。
06:33
We use smart聰明 phones手機
and digital數字 assistants助理 and RoombasRoombas.
112
381767
3880
我們用智慧手機、數位助理,
以及掃地機器人。
06:38
Are they evil邪惡?
113
386457
1150
它們邪惡嗎?
06:40
Maybe sometimes有時.
114
388268
1547
也許有時候。
06:42
Are they beneficial有利?
115
390664
1333
它們有助益嗎?
06:45
Yes, they're that, too.
116
393005
1533
是的,這也是事實。
06:48
And they're not all the same相同.
117
396236
1761
且它們並非全都一樣的。
06:50
And there you already已經 see
a light shining閃亮的 on what the future未來 holds持有.
118
398489
3540
你們已經看到未來
可能性的一絲光芒。
06:54
The future未來 continues繼續 on
from what we build建立 and create創建 right now.
119
402942
3619
未來延續的基礎,是我們
現在所建立和創造的。
06:59
We set into motion運動 that domino骨牌 effect影響
120
407165
2642
我們開始了骨牌效應,
07:01
that carves out AI'sAI 的 evolutionary發展的 path路徑.
121
409831
2600
刻劃出了人工智慧的演進路徑。
07:05
In our time right now,
we shape形狀 the AIAI of tomorrow明天.
122
413173
2871
我們在現在這時代
形塑未來的人工智慧。
07:08
Technology技術 that immerses沉浸 us
in augmented增強 realities現實
123
416566
3699
讓我們能沉浸入擴增實境中的科技,
07:12
bringing使 to life past過去 worlds世界.
124
420289
2566
讓過去的世界又活了過來。
07:15
Technology技術 that helps幫助 people
to share分享 their experiences經驗
125
423844
4312
協助人們在溝通困難時
07:20
when they have difficulty困難 communicating通信.
126
428180
2262
還能分享經驗的科技。
07:23
Technology技術 built內置 on understanding理解
the streaming visual視覺 worlds世界
127
431323
4532
立基在了解串流
視覺世界之上的科技,
07:27
used as technology技術 for self-driving自駕車 cars汽車.
128
435879
3079
被用來當作自動駕駛汽車的科技。
07:32
Technology技術 built內置 on understanding理解 images圖片
and generating發電 language語言,
129
440490
3413
立基在了解圖像和產生語言的科技,
07:35
evolving進化 into technology技術 that helps幫助 people
who are visually視覺 impaired受損
130
443927
4063
演進成協助視覺損傷者的科技,
07:40
be better able能夠 to access訪問 the visual視覺 world世界.
131
448014
2800
讓他們更能進入視覺的世界。
07:42
And we also see how technology技術
can lead to problems問題.
132
450838
3261
我們也看到了科技如何導致問題。
07:46
We have technology技術 today今天
133
454885
1428
現今,我們有科技
07:48
that analyzes分析 physical物理
characteristics特點 we're born天生 with --
134
456337
3835
能夠分析我們天生的身體特徵──
07:52
such這樣 as the color顏色 of our skin皮膚
or the look of our face面對 --
135
460196
3272
比如膚色或面部的外觀──
07:55
in order訂購 to determine確定 whether是否 or not
we might威力 be criminals罪犯 or terrorists恐怖分子.
136
463492
3804
可以用來判斷我們是否
有可能是罪犯或恐怖份子。
07:59
We have technology技術
that crunches仰臥起坐 through通過 our data數據,
137
467688
2905
我們有科技能夠分析我們的資料,
08:02
even data數據 relating有關
to our gender性別 or our race種族,
138
470617
2896
甚至和我們的性別
或種族相關的資料,
08:05
in order訂購 to determine確定 whether是否 or not
we might威力 get a loan貸款.
139
473537
2865
來決定我們的貸款是否能被核准。
08:09
All that we see now
140
477494
1579
我們現在所看見的一切,
08:11
is a snapshot快照 in the evolution演化
of artificial人造 intelligence情報.
141
479097
3617
都是人工智慧演進的約略寫照。
08:15
Because where we are right now,
142
483763
1778
因為我們現在所處的位置,
08:17
is within a moment時刻 of that evolution演化.
143
485565
2238
是在那演進的一個時刻當中。
08:20
That means手段 that what we do now
will affect影響 what happens發生 down the line
144
488690
3802
那表示,我們現在
所做的,會影響到後續
08:24
and in the future未來.
145
492516
1200
未來發生的事。
08:26
If we want AIAI to evolve發展
in a way that helps幫助 humans人類,
146
494063
3951
如果我們想讓人工智慧的
演進方式是對人類有助益的,
08:30
then we need to define確定
the goals目標 and strategies策略
147
498038
2801
那麼我們現在就得要
定義目標和策略,
08:32
that enable啟用 that path路徑 now.
148
500863
1733
來讓那條路成為可能。
08:35
What I'd like to see is something
that fits適合 well with humans人類,
149
503680
3738
我想要看見的東西是要能夠
和人類、我們的文化,
08:39
with our culture文化 and with the environment環境.
150
507442
2800
及我們的環境能非常符合的東西。
08:43
Technology技術 that aids艾滋病 and assists助攻
those of us with neurological神經 conditions條件
151
511435
4484
這種科技要能夠幫助和協助
有神經系統疾病
08:47
or other disabilities殘疾人
152
515943
1721
或其他殘疾者的人,
08:49
in order訂購 to make life
equally一樣 challenging具有挑戰性的 for everyone大家.
153
517688
3216
讓人生對於每個人的
挑戰程度是平等的。
08:54
Technology技術 that works作品
154
522097
1421
這種科技的運作
08:55
regardless而不管 of your demographics人口統計學
or the color顏色 of your skin皮膚.
155
523542
3933
不會考量你的
人口統計資料或你的膚色。
09:00
And so today今天, what I focus焦點 on
is the technology技術 for tomorrow明天
156
528383
4742
所以,現今我著重的是明日的科技
09:05
and for 10 years年份 from now.
157
533149
1733
和十年後的科技。
09:08
AIAI can turn out in many許多 different不同 ways方法.
158
536530
2634
產生人工智慧的方式相當多。
09:11
But in this case案件,
159
539688
1225
但在這個情況中,
09:12
it isn't a self-driving自駕車 car汽車
without any destination目的地.
160
540937
3328
它並不是沒有目的地的
自動駕駛汽車。
09:16
This is the car汽車 that we are driving主動.
161
544884
2400
它是我們在開的汽車。
09:19
We choose選擇 when to speed速度 up
and when to slow down.
162
547953
3595
我們選擇何時要加速何時要減速。
09:23
We choose選擇 if we need to make a turn.
163
551572
2400
我們選擇是否要轉彎。
09:26
We choose選擇 what the AIAI
of the future未來 will be.
164
554868
3000
我們選擇將來的
人工智慧會是哪一種。
09:31
There's a vast廣大 playing播放 field領域
165
559186
1337
人工智慧能夠
09:32
of all the things that artificial人造
intelligence情報 can become成為.
166
560547
2965
變成各式各樣的東西。
09:36
It will become成為 many許多 things.
167
564064
1800
它會變成許多東西。
09:39
And it's up to us now,
168
567694
1732
現在,決定權在我們,
09:41
in order訂購 to figure數字 out
what we need to put in place地點
169
569450
3061
我們要想清楚我們得要準備什麼,
09:44
to make sure the outcomes結果
of artificial人造 intelligence情報
170
572535
3807
來確保人工智慧的結果
09:48
are the ones那些 that will be
better for all of us.
171
576366
3066
會是對所有人都更好的結果。
09:51
Thank you.
172
579456
1150
謝謝。
09:52
(Applause掌聲)
173
580630
2187
(掌聲)
Translated by Lilian Chiu
Reviewed by Nan-Kun Wu

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com