ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

マーガレット・ミッチェル: 人間の役に立ち、傷つけないAIはどうしたら作れるか?

Filmed:
1,154,210 views

Googleのリサーチ・サイエンティストとして、マーガレット・ミッチェルは、見たものや理解したことを人間とコミュニケートできるコンピュータの開発に従事しています。彼女は、私たちが無意識のうちにAIに埋め込んでしまっている「論理の飛躍」や「盲点」、「先入観」の危険性について語り、私たちが今日築き上げた技術が明日にどのような意味を持つのかを考えてほしいと訴えます。「現在私たちが見ているものは、進化し続けるAIの一瞬をとらえたものにすぎません」と彼女は言います。「もし人間に役立つようにAIを進化させたいなら、今ゴールと戦略を明確にして道筋をつけなければなりません」
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helping助ける computersコンピュータ
communicate通信する about the world世界 around us.
0
1381
4015
コンピュータが 私たちの周りの世界について
情報交換する研究をしています
00:17
There are a lot of ways方法 to do this,
1
5754
1793
やり方はたくさんありますが
00:19
and I like to focusフォーカス on helping助ける computersコンピュータ
2
7571
2592
中でも私が力を入れているのは
00:22
to talk about what they see
and understandわかる.
3
10187
2874
コンピュータが見て 理解したものを
語らせることです
00:25
Given与えられた a sceneシーン like this,
4
13514
1571
こんなシーンがあると
00:27
a modernモダン computer-visionコンピュータビジョン algorithmアルゴリズム
5
15109
1905
最近のコンピュータビジョンの
アルゴリズムは
00:29
can tell you that there's a woman女性
and there's a dog.
6
17038
3095
女性と犬が映っていて
00:32
It can tell you that the woman女性 is smiling笑う.
7
20157
2706
女性が笑顔だ と教えてくれます
00:34
It mightかもしれない even be ableできる to tell you
that the dog is incredibly信じられないほど cute可愛い.
8
22887
3873
またその犬がとてもかわいいとも
教えてくれるかもしれません
00:38
I work on this problem問題
9
26784
1349
私はこの研究にあたって
00:40
thinking考え about how humans人間
understandわかる and processプロセス the world世界.
10
28157
4212
人間がどのように世界を理解し
処理するのか考えます
00:45
The thoughts思考, memories思い出 and stories物語
11
33577
2952
このようなシーンを見た時に
00:48
that a sceneシーン like this
mightかもしれない evoke喚起する for humans人間.
12
36553
2818
人間が引き起こす
思考や記憶、物語などです
00:51
All the interconnections相互接続
of related関連する situations状況.
13
39395
4285
関係するシチュエーションのすべてを
お互いにつなぎ合わせることです
00:55
Maybe you've seen見た
a dog like this one before,
14
43704
3126
みなさんもこれまでに
こんな犬を見たことがあるでしょう
00:58
or you've spent過ごした time
runningランニング on a beachビーチ like this one,
15
46854
2969
こんなビーチで
走ったことがあるかもしれません
01:01
and that furtherさらに evokes呼び覚ます thoughts思考
and memories思い出 of a past過去 vacation休暇,
16
49847
4778
休暇のときに考えたことや記憶
01:06
past過去 times to the beachビーチ,
17
54649
1920
ビーチで過ごした時間
01:08
times spent過ごした runningランニング around
with other dogs.
18
56593
2603
別の犬と走り回った思い出なども
思い起こしたかもしれません
01:11
One of my guidingガイド principles原則
is that by helping助ける computersコンピュータ to understandわかる
19
59688
5207
私の基本理念の一つは
01:16
what it's like to have these experiences経験,
20
64919
2896
このような経験の意味を
コンピュータに理解させたり
01:19
to understandわかる what we shareシェア
and believe and feel,
21
67839
5176
私たちが共有し 信じ 感じたものを
理解させたりすることで
01:26
then we're in a great positionポジション
to start開始 evolving進化する computerコンピューター technology技術
22
74094
4310
私たち自身の経験を補完する方向に
コンピュータ技術を進化させるという
01:30
in a way that's complementary相補的な
with our own自分の experiences経験.
23
78428
4587
重要な役割を担うということです
01:35
So, digging掘削 more deeply深く into this,
24
83539
3387
さらに深堀りしていきましょう
01:38
a few少数 years ago I began始まった workingワーキング on helping助ける
computersコンピュータ to generate生成する human-like人間のような stories物語
25
86950
5905
数年前 私はある研究を始めました
一連の画像からコンピュータに
01:44
from sequencesシーケンス of imagesイメージ.
26
92879
1666
人間らしい物語を作らせる試みです
01:47
So, one day,
27
95427
1904
ある日のこと
01:49
I was workingワーキング with my computerコンピューター to ask尋ねる it
what it thought about a trip旅行 to Australiaオーストラリア.
28
97355
4622
オーストラリア旅行のことを考えるよう
コンピュータに尋ねました
01:54
It took取った a look at the picturesピクチャー,
and it saw a koalaコアラ.
29
102768
2920
画像の中から コアラを見つけました
01:58
It didn't know what the koalaコアラ was,
30
106236
1643
コアラが何なのか
コンピュータは知りません
01:59
but it said it thought
it was an interesting-looking面白そうに見える creature生き物.
31
107903
2999
でも「コアラが 面白い外見の動物だ」
と言ったのです
02:04
Then I shared共有 with it a sequenceシーケンス of imagesイメージ
about a house burning燃焼 down.
32
112053
4004
また 家が焼け落ちる一連の画像を
見せたこともありました
02:09
It took取った a look at the imagesイメージ and it said,
33
117704
3285
それを見てコンピュータはこう言いました
02:13
"This is an amazing素晴らしい view見る!
This is spectacular素晴らしい!"
34
121013
3500
「これはすごい光景だ!壮観だ!」
02:17
It sent送られた chills寒気 down my spine脊椎.
35
125450
2095
私の背筋が凍りました
02:20
It saw a horrible恐ろしい, life-changing生活変化
and life-destroying生命を破壊する eventイベント
36
128983
4572
コンピュータが見たものは 命の危険を
伴うような恐ろしい出来事ですが
02:25
and thought it was something positiveポジティブ.
37
133579
2382
何か良いことのように
解釈しているのです
02:27
I realized実現した that it recognized認識された
the contrastコントラスト,
38
135985
3441
画像からコントラストや
02:31
the redsレッズ, the yellows黄色,
39
139450
2699
赤や黄色を認識し
02:34
and thought it was something
worth価値 remarkingマーキング on positively積極的に.
40
142173
3078
なにか良いことと解釈するに値すると
思ったのです
02:37
And part of why it was doing this
41
145928
1615
そしてコンピュータがそう思ったのは
02:39
was because most最も
of the imagesイメージ I had given与えられた it
42
147577
2945
与えた画像のほとんどが
肯定的なものだったせいもあるでしょう
02:42
were positiveポジティブ imagesイメージ.
43
150546
1840
02:44
That's because people
tend傾向がある to shareシェア positiveポジティブ imagesイメージ
44
152903
3658
実際 私たちが自分の経験を
人に話すときは
02:48
when they talk about their彼らの experiences経験.
45
156585
2190
肯定的な画像を共有しようとしますよね
02:51
When was the last time
you saw a selfieセルフ at a funeral葬儀?
46
159267
2541
お葬式での自撮り写真なんか
見たことがありますか?
02:55
I realized実現した that,
as I worked働いた on improving改善する AIAI
47
163434
3095
AIの研究をしていて
気づいたことがあります
02:58
task仕事 by task仕事, datasetデータセット by datasetデータセット,
48
166553
3714
数々の課題やデータセットを扱う中で
03:02
that I was creating作成 massive大規模 gaps隙間,
49
170291
2897
コンピュータが理解できるものの中に
03:05
holes and blindブラインド spotsスポット
in what it could understandわかる.
50
173212
3999
大きな飛躍 欠落 盲点を
生み出していました
03:10
And while doing so,
51
178307
1334
またその過程で
03:11
I was encodingエンコーディング all kinds種類 of biasesバイアス.
52
179665
2483
あらゆる種類の先入観を
埋め込んでいました
03:15
Biasesバイアス that reflect反映する a limited限られた viewpoint観点,
53
183029
3318
限定された観点による先入観
03:18
limited限られた to a singleシングル datasetデータセット --
54
186371
2261
単一のデータセットによる先入観
03:21
biasesバイアス that can reflect反映する
human人間 biasesバイアス found見つけた in the dataデータ,
55
189283
3858
データ中の 人間の先入観を
反映することもあります
03:25
suchそのような as prejudice偏見 and stereotypingステレオタイピング.
56
193165
3104
偏見や固定観念などです
03:29
I thought back to the evolution進化
of the technology技術
57
197554
3057
私をその日まで導いた
03:32
that brought持ってきた me to where I was that day --
58
200635
2502
テクノロジーの進化を振り返ってみました
03:35
how the first color imagesイメージ
59
203966
2233
初めての カラー画像の色合いは
03:38
were calibrated較正された againstに対して
a white woman's女性の skin,
60
206223
3048
白人女性の皮膚の色を基準に
調整されていました
03:41
meaning意味 that color photography写真
was biased偏った againstに対して black faces.
61
209665
4145
黒人の顔は
基準から外れるという意味です
03:46
And that same同じ biasバイアス, that same同じ blindブラインド spotスポット
62
214514
2925
また 同様の先入観や盲点が
03:49
continued続ける well into the '90s.
63
217463
1867
90年代に入ってもずっと続きました
03:51
And the same同じ blindブラインド spotスポット
continues続ける even today今日
64
219701
3154
同じような盲点が今日までも
続いていて
03:54
in how well we can recognize認識する
different異なる people's人々の faces
65
222879
3698
異なる人間の顔を いかに区別して
認識するかを研究する
03:58
in facialフェイシャル recognition認識 technology技術.
66
226601
2200
顔認識技術の分野に見られます
04:01
I thoughしかし about the state状態 of the artアート
in research研究 today今日,
67
229323
3143
今日の研究の最先端について思うのは
04:04
where we tend傾向がある to limit限界 our thinking考え
to one datasetデータセット and one problem問題.
68
232490
4514
1つのデータセット 1つの課題に
考えを限定しがちで
04:09
And that in doing so, we were creating作成
more blindブラインド spotsスポット and biasesバイアス
69
237688
4881
そのせいで さらに盲点や
先入観を生み出し
04:14
that the AIAI could furtherさらに amplify増幅する.
70
242593
2277
AIがさらにそれを
増幅する可能性があることです
04:17
I realized実現した then
that we had to think deeply深く
71
245712
2079
だから当時私たちは
今研究しているテクノロジーが
04:19
about how the technology技術 we work on today今日
looks外見 in five years, in 10 years.
72
247815
5519
5年後 10年後にどう見えているかを
深く考えなければならないと思いました
04:25
Humans人間 evolve進化する slowlyゆっくり,
with time to correct正しい for issues問題
73
253990
3142
人間はゆっくり進化し その間に
人間同士の関係や
04:29
in the interactionインタラクション of humans人間
and their彼らの environment環境.
74
257156
3534
周囲の環境について
問題を是正する時間があります
04:33
In contrastコントラスト, artificial人工的な intelligenceインテリジェンス
is evolving進化する at an incredibly信じられないほど fast速い rateレート.
75
261276
5429
一方 人工知能は 信じられないほどの速さで
進化しています
04:39
And that means手段 that it really matters問題
76
267013
1773
だから私たちは なおさら
04:40
that we think about this
carefully慎重に right now --
77
268810
2317
今すぐ このことを慎重に検討し
04:44
that we reflect反映する on our own自分の blindブラインド spotsスポット,
78
272180
3008
私たち自身の盲点や先入観について
04:47
our own自分の biasesバイアス,
79
275212
2317
よく考えなければなりません
04:49
and think about how that's informing通知する
the technology技術 we're creating作成
80
277553
3857
また それらが私たちのテクノロジーに
どのように情報を供与するかを考え
04:53
and discuss話し合います what the technology技術 of today今日
will mean for tomorrow明日.
81
281434
3902
今日のテクノロジーが 明日どのような
意味を持つのか議論しなければなりません
04:58
CEOsCEO and scientists科学者 have weighed体重 in
on what they think
82
286593
3191
企業のトップや科学者は
自分たちの考えた
05:01
the artificial人工的な intelligenceインテリジェンス technology技術
of the future未来 will be.
83
289808
3325
来るべき未来の人工知能技術に
力を注いできました
05:05
Stephenスティーヴン Hawkingホーキング warns警告する that
84
293157
1618
スティーブン・ホーキングは
05:06
"Artificial人工的な intelligenceインテリジェンス
could end終わり mankind人類."
85
294799
3007
「人工知能が人類を滅ぼす可能性がある」と
警鐘を鳴らしています
05:10
Elonエロン Muskムスク warns警告する
that it's an existential存在 riskリスク
86
298307
2683
イーロン・マスクは 人工知能を
05:13
and one of the greatest最大 risksリスク
that we face as a civilization文明.
87
301014
3574
私たちの文明が直面する
存亡に関わる 最大級の脅威だと警告します
05:17
Billビル Gatesゲイツ has made the pointポイント,
88
305665
1452
ビル・ゲイツも
05:19
"I don't understandわかる
why people aren'tない more concerned心配している."
89
307141
3185
「なぜ皆が心配しないのか
理解できない」と指摘しています
05:23
But these views再生回数 --
90
311412
1318
しかしそれらの見方は
05:25
they're part of the storyストーリー.
91
313618
1734
ほんの一部の意見です
05:28
The math数学, the modelsモデル,
92
316079
2420
数学やモデルなど
05:30
the basic基本的な building建物 blocksブロック
of artificial人工的な intelligenceインテリジェンス
93
318523
3070
人工知能の基本的な構成要素は
05:33
are something that we call accessアクセス
and all work with.
94
321617
3135
誰でもアクセスして
利用できるものです
05:36
We have open-sourceオープンソース toolsツール
for machine機械 learning学習 and intelligenceインテリジェンス
95
324776
3785
機械学習・人工知能向けの
オープンソース・ツールがあり
05:40
that we can contribute貢献する to.
96
328585
1734
私たちが貢献することもできます
05:42
And beyond超えて that,
we can shareシェア our experience経験.
97
330919
3340
さらに個人の経験も共有できます
05:46
We can shareシェア our experiences経験
with technology技術 and how it concerns心配 us
98
334760
3468
技術についての経験や
それがどのように自分たちに関係し
05:50
and how it excites興奮する us.
99
338252
1467
興奮させるかを共有できます
05:52
We can discuss話し合います what we love.
100
340251
1867
大好きなものについて
意見交換ができます
05:55
We can communicate通信する with foresight先見の明
101
343244
2031
技術的な側面のうち
05:57
about the aspects側面 of technology技術
that could be more beneficial有益
102
345299
4857
時間が経つにつれて 次第に有益になる面や
問題を生み出す面について
06:02
or could be more problematic問題がある over time.
103
350180
2600
私たちは展望を持って
話し合うことができます
06:05
If we all focusフォーカス on opening開ける up
the discussion討論 on AIAI
104
353799
4143
もし私たち皆が未来への展望をもって
AIに関する議論の輪を
06:09
with foresight先見の明 towards方向 the future未来,
105
357966
1809
広げることに注目すれば
06:13
this will help create作成する a general一般
conversation会話 and awareness意識
106
361093
4270
現在のAIはどのようなものか
06:17
about what AIAI is now,
107
365387
2513
これからどのようになりえるのか
06:21
what it can become〜になる
108
369212
2001
そして自分たちに最適な
最終結果を得るために
06:23
and all the things that we need to do
109
371237
1785
しなければならないことについて
06:25
in order注文 to enable有効にする that outcome結果
that bestベスト suitsスーツ us.
110
373046
3753
一般的な議論や認識が高まるでしょう
06:29
We already既に see and know this
in the technology技術 that we use today今日.
111
377490
3674
私たちは このことを
現在のテクノロジーを見て知っています
06:33
We use smartスマート phones電話機
and digitalデジタル assistantsアシスタント and Roombas開始.
112
381767
3880
スマートフォン、デジタルアシスタント
そして「ルンバ」などです
06:38
Are they evil悪の?
113
386457
1150
それらは悪でしょうか?
06:40
Maybe sometimes時々.
114
388268
1547
時にはそうかもしれません
06:42
Are they beneficial有益?
115
390664
1333
では有益なものでしょうか?
06:45
Yes, they're that, too.
116
393005
1533
そうともいえます
06:48
And they're not all the same同じ.
117
396236
1761
そして すべてが同じではありません
06:50
And there you already既に see
a light shiningシャイニング on what the future未来 holds保持.
118
398489
3540
また 未来に輝くものが
すでに見えます
06:54
The future未来 continues続ける on
from what we buildビルドする and create作成する right now.
119
402942
3619
私たちが今作り上げているものが
未来へと続きます
06:59
We setセット into motionモーション that dominoドミノ effect効果
120
407165
2642
AIの進化の道すじを切り開く
07:01
that carves彫刻 out AI'sAI の evolutionary進化的 pathパス.
121
409831
2600
ドミノ効果を作動させます
07:05
In our time right now,
we shape形状 the AIAI of tomorrow明日.
122
413173
2871
今この時 私たちは明日のAIを
形作っているのです
07:08
Technology技術 that immerses浸る us
in augmented増強された realities現実
123
416566
3699
過去の世界を 拡張現実として蘇らせ
07:12
bringing持参 to life past過去 worlds世界.
124
420289
2566
人間を夢中にさせる技術
07:15
Technology技術 that helps助けて people
to shareシェア their彼らの experiences経験
125
423844
4312
また コミュニケーションが難しい時でも
07:20
when they have difficulty困難 communicatingコミュニケーション.
126
428180
2262
経験を共有するのに役立つ技術もあります
07:23
Technology技術 built建てられた on understanding理解
the streamingストリーミング visualビジュアル worlds世界
127
431323
4532
常に変化する「ストリーミング」の性質を持つ
視覚世界の理解を基礎にした技術は
07:27
used as technology技術 for self-driving自己運転 cars.
128
435879
3079
自動運転車に使われます
07:32
Technology技術 built建てられた on understanding理解 imagesイメージ
and generating生成する language言語,
129
440490
3413
画像を理解し 言葉を生み出す技術は
07:35
evolving進化する into technology技術 that helps助けて people
who are visually視覚的に impaired障害者
130
443927
4063
視覚障害者が
視覚世界にアクセスすることを
07:40
be better ableできる to accessアクセス the visualビジュアル world世界.
131
448014
2800
支援する技術へと進化しています
07:42
And we alsoまた、 see how technology技術
can lead to problems問題.
132
450838
3261
同時に そうした技術が引き起こす
問題もあります
07:46
We have technology技術 today今日
133
454885
1428
現在 ヒト生来の身体的な特徴
07:48
that analyzes分析 physical物理的
characteristics特性 we're bornうまれた with --
134
456337
3835
たとえば 皮膚の色や
顔の外見などを
07:52
suchそのような as the color of our skin
or the look of our face --
135
460196
3272
解析する技術があり
07:55
in order注文 to determine決定する whetherかどうか or not
we mightかもしれない be criminals犯罪者 or terroristsテロリスト.
136
463492
3804
それで 犯罪者やテロリストかどうかを
識別しようとします
07:59
We have technology技術
that crunchesクランチ throughを通して our dataデータ,
137
467688
2905
ローンの承認審査のために
08:02
even dataデータ relating関連する
to our gender性別 or our raceレース,
138
470617
2896
性別や人種に関わるデータまで含めて
08:05
in order注文 to determine決定する whetherかどうか or not
we mightかもしれない get a loanローン.
139
473537
2865
大量のデータを処理する技術があります
08:09
All that we see now
140
477494
1579
現在私たちが見ているものは
08:11
is a snapshotスナップショット in the evolution進化
of artificial人工的な intelligenceインテリジェンス.
141
479097
3617
進化し続けるAIの
一瞬をとらえたものにすぎません
08:15
Because where we are right now,
142
483763
1778
なぜなら 私たちは 今まさに
08:17
is within以内 a moment瞬間 of that evolution進化.
143
485565
2238
AI進化の途上にあるからです
08:20
That means手段 that what we do now
will affect影響を与える what happens起こる down the lineライン
144
488690
3802
つまり 私たちが今やったことが
将来起こることに
08:24
and in the future未来.
145
492516
1200
影響するということです
08:26
If we want AIAI to evolve進化する
in a way that helps助けて humans人間,
146
494063
3951
もし人間に役立つよう
AIを進化させたいなら
08:30
then we need to define定義する
the goalsゴール and strategies戦略
147
498038
2801
今 ゴールと戦略を明確にして
08:32
that enable有効にする that pathパス now.
148
500863
1733
道筋をつけなければなりません
08:35
What I'd like to see is something
that fitsフィット well with humans人間,
149
503680
3738
私が期待するのは
08:39
with our culture文化 and with the environment環境.
150
507442
2800
人間やその文化 そして環境に
よくなじむAIです
08:43
Technology技術 that aidsエイズ and assistsアシスト
those of us with neurological神経学 conditions条件
151
511435
4484
神経疾患などの障害を抱えていても
誰もが同じように
08:47
or other disabilities障害
152
515943
1721
やりがいを感じて生きることを
08:49
in order注文 to make life
equally均等に challenging挑戦 for everyoneみんな.
153
517688
3216
補助してくれる技術です
08:54
Technology技術 that works作品
154
522097
1421
その人の属性や 皮膚の色によらず
08:55
regardless関係なく of your demographics人口統計
or the color of your skin.
155
523542
3933
うまく機能する技術です
09:00
And so today今日, what I focusフォーカス on
is the technology技術 for tomorrow明日
156
528383
4742
そして今日 私がお話ししてきたのは
明日へ そして10年後へと
09:05
and for 10 years from now.
157
533149
1733
つながる技術です
09:08
AIAI can turn順番 out in manyたくさんの different異なる ways方法.
158
536530
2634
AIは 様々な方向に進む可能性がありますが
09:11
But in this case場合,
159
539688
1225
それらは 目的地のない
09:12
it isn't a self-driving自己運転 car
withoutなし any destination.
160
540937
3328
自動運転車ではありません
09:16
This is the car that we are driving運転.
161
544884
2400
まさに私たちが運転している車なのです
09:19
We choose選択する when to speed速度 up
and when to slowスロー down.
162
547953
3595
いつ加速するか ブレーキを踏むか
09:23
We choose選択する if we need to make a turn順番.
163
551572
2400
いつ曲がるか
それを私たちが選ぶのです
09:26
We choose選択する what the AIAI
of the future未来 will be.
164
554868
3000
そして 未来のAIがどうなるかについても
私たちが選ぶのです
09:31
There's a vast広大 playing遊ぶ fieldフィールド
165
559186
1337
AIがなれるものの可能性は広大です
09:32
of all the things that artificial人工的な
intelligenceインテリジェンス can become〜になる.
166
560547
2965
09:36
It will become〜になる manyたくさんの things.
167
564064
1800
いろいろなものに発展するでしょう
09:39
And it's up to us now,
168
567694
1732
どうなるかは私たち次第です
09:41
in order注文 to figure数字 out
what we need to put in place場所
169
569450
3061
どうか考えてみてください
AIのもたらすものが
09:44
to make sure the outcomes結果
of artificial人工的な intelligenceインテリジェンス
170
572535
3807
私たちすべてにとって
よりよいものになるよう
09:48
are the onesもの that will be
better for all of us.
171
576366
3066
今何をすべきかを
09:51
Thank you.
172
579456
1150
ありがとうございました
09:52
(Applause拍手)
173
580630
2187
(拍手)
Reviewed by Masaki Yanagishita

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com