ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

克里蒂沙馬: 如何防止人工智慧學到人類偏見

Filmed:
2,050,106 views

人工智慧演算法隨時都在做和你有關的決策——比如你的汽車保險保費應該要多高,或你是否能參加工作面試。但,如果這些機器的系統中內建有人類偏見的程式碼,會如何?科技專家克里蒂沙馬在這場演說中帶大家探究,技術界缺乏多樣性的現象如何偷偷進入了人工智慧,並提供三種方式,來協助我們開始開發更有倫理的演算法。
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How many許多 decisions決定
have been made製作 about you today今天,
0
875
3768
今天,有多少與你有關的決策,
00:16
or this week or this year,
1
4667
2601
或這週,或今年,
00:19
by artificial人造 intelligence情報?
2
7292
1958
是由人工智慧所做的?
00:22
I build建立 AIAI for a living活的
3
10958
1685
我的工作是建造人工智慧,
00:24
so, full充分 disclosure洩露, I'm kind of a nerd書呆子.
4
12667
3017
所以,不隱瞞大家,我是個怪胎。
00:27
And because I'm kind of a nerd書呆子,
5
15708
2393
因為我是個怪胎,
00:30
wherever哪裡 some new news新聞 story故事 comes out
6
18125
2351
每當有新的新聞報導出來,
00:32
about artificial人造 intelligence情報
stealing偷竊行為 all our jobs工作,
7
20500
3434
內容有談到人工智慧
偷走我們所有的工作,
00:35
or robots機器人 getting得到 citizenship國籍
of an actual實際 country國家,
8
23958
4185
或是機器人取得
實際國家的公民權,
00:40
I'm the person my friends朋友
and followers追隨者 message信息
9
28167
3142
我的朋友和追隨者
就會發訊息給我,
00:43
freaking再用 out about the future未來.
10
31333
1542
表示對於未來的擔憂。
00:45
We see this everywhere到處.
11
33833
2101
這種狀況處處可見。
00:47
This media媒體 panic恐慌 that
our robot機器人 overlords霸主 are taking服用 over.
12
35958
4893
這種認為機器人統治者
會接管世界的媒體恐慌。
00:52
We could blame Hollywood好萊塢 for that.
13
40875
1917
我們可以怪罪於好萊塢。
00:56
But in reality現實, that's not the problem問題
we should be focusing調焦 on.
14
44125
4125
但,在現實中,我們不該
把焦點放在那個問題上。
01:01
There is a more pressing緊迫 danger危險,
a bigger risk風險 with AIAI,
15
49250
3643
還有更迫切的危機,
人工智慧有個更大的風險,
01:04
that we need to fix固定 first.
16
52917
1583
我們應該要先解決它。
01:07
So we are back to this question:
17
55417
2309
所以,回到這個問題:
01:09
How many許多 decisions決定
have been made製作 about you today今天 by AIAI?
18
57750
4708
今天,人工智慧做了
多少關於你的決策?
01:15
And how many許多 of these
19
63792
1976
這些決策中,有多少
01:17
were based基於 on your gender性別,
your race種族 or your background背景?
20
65792
4500
是根據你的性別、你的種族,
或你的背景所做出來的?
01:24
Algorithms算法 are being存在 used all the time
21
72500
2768
演算法常常被拿來使用,
01:27
to make decisions決定 about who we are
and what we want.
22
75292
3833
做出關於我們是什麼人、
我們想要什麼的相關決策。
01:32
Some of the women婦女 in this room房間
will know what I'm talking about
23
80208
3643
這間房間中有一些女性
知道我在說什麼,
01:35
if you've been made製作 to sit through通過
those pregnancy懷孕 test測試 adverts廣告 on YouTubeYouTube的
24
83875
3768
如果你曾經坐在電腦前
看 YouTube 時,
被迫看完驗孕測試的廣告,
且發生過約一千次的話。
01:39
like 1,000 times.
25
87667
2059
01:41
Or you've scrolled滾動 past過去 adverts廣告
of fertility生育能力 clinics診所
26
89750
2851
或者,你曾經在滑手機
看臉書動態時報時
01:44
on your FacebookFacebook的 feed飼料.
27
92625
2042
一直看到不孕症診所的廣告。
01:47
Or in my case案件, Indian印度人 marriage婚姻 bureaus.
28
95625
2393
或者,我的例子則是看到
印度婚姻介紹所的廣告。
01:50
(Laughter笑聲)
29
98042
1267
(笑聲)
01:51
But AIAI isn't just being存在 used
to make decisions決定
30
99333
2976
但,人工智慧不只是被用來判定
01:54
about what products製品 we want to buy購買
31
102333
2601
我們想要買什麼產品,
01:56
or which哪一個 show顯示 we want to binge狂歡 watch next下一個.
32
104958
2500
或是我們接下來想要看追哪齣劇。
02:01
I wonder奇蹟 how you'd feel about someone有人
who thought things like this:
33
109042
5184
我很好奇,對於這樣想的人,
你們有何感覺:
02:06
"A black黑色 or Latino拉丁美洲人 person
34
114250
1934
「黑人或拉丁裔的人
02:08
is less likely容易 than a white白色 person
to pay工資 off their loan貸款 on time."
35
116208
4125
準時還清貸款的可能性
沒有白人高。」
02:13
"A person called John約翰
makes品牌 a better programmer程序員
36
121542
2809
「名字叫做約翰的人,
和名叫瑪莉的人相比,
02:16
than a person called Mary瑪麗."
37
124375
1667
會是比較好的程式設計師。」
02:19
"A black黑色 man is more likely容易 to be
a repeat重複 offender犯罪分子 than a white白色 man."
38
127250
5083
「比起白人,黑人比較
有可能會再次犯罪。」
02:26
You're probably大概 thinking思維,
39
134958
1268
你們可能在想:
02:28
"Wow, that sounds聲音 like a pretty漂亮 sexist性別歧視,
racist種族主義者 person," right?
40
136250
3750
「哇,那聽起來是性別主義
和種族主義的人會說的話」對吧?
02:33
These are some real真實 decisions決定
that AIAI has made製作 very recently最近,
41
141000
4851
上述這些是人工智慧
近期所做出的一些決策,
02:37
based基於 on the biases偏見
it has learned學到了 from us,
42
145875
2934
決策依據是它向我們學來的偏見,
02:40
from the humans人類.
43
148833
1250
向人類學來的。
02:43
AIAI is being存在 used to help decide決定
whether是否 or not you get that job工作 interview訪問;
44
151750
4809
人工智慧被用來協助判斷
你是否能參加工作面試;
02:48
how much you pay工資 for your car汽車 insurance保險;
45
156583
2393
你的汽車保險保費是多少錢;
02:51
how good your credit信用 score得分了 is;
46
159000
1893
你的信用評等有多好;
02:52
and even what rating評分 you get
in your annual全年 performance性能 review評論.
47
160917
3125
甚至你在年度考績中
得到的評級是多少。
02:57
But these decisions決定
are all being存在 filtered過濾 through通過
48
165083
3143
但這些決策都會先被過濾過,
03:00
its assumptions假設 about our identity身分,
our race種族, our gender性別, our age年齡.
49
168250
5875
過濾依據就是關於我們的身分、
種族、性別、年齡等的假設。
03:08
How is that happening事件?
50
176250
2268
為什麼會發生這種事?
03:10
Now, imagine想像 an AIAI is helping幫助
a hiring招聘 manager經理
51
178542
3517
想像一下,人工智慧在協助
一位有人才需求的經理
03:14
find the next下一個 tech高科技 leader領導 in the company公司.
52
182083
2851
尋找該公司的下一位技術主管。
03:16
So far, the manager經理
has been hiring招聘 mostly大多 men男人.
53
184958
3101
目前,這位經理僱用的人
大部分都是男性。
03:20
So the AIAI learns獲悉 men男人 are more likely容易
to be programmers程序員 than women婦女.
54
188083
4750
所以人工智慧學到的是,男性
比女性更有可能成為程式設計師。
03:25
And it's a very short leap飛躍 from there to:
55
193542
2892
很容易就會從
這個現象直接下結論:
03:28
men男人 make better programmers程序員 than women婦女.
56
196458
2042
男性程式設計師比女性好。
03:31
We have reinforced加強
our own擁有 bias偏壓 into the AIAI.
57
199417
3726
我們把我們自己的偏見
灌輸給人工智慧。
03:35
And now, it's screening篩查 out
female candidates候選人.
58
203167
3625
現在,它就會把
女性候選人給篩掉。
03:40
Hang on, if a human人的
hiring招聘 manager經理 did that,
59
208917
3017
等等,如果人類的經理這樣做,
03:43
we'd星期三 be outraged憤怒, we wouldn't不會 allow允許 it.
60
211958
2351
我們會很火大,
我們不會容忍這種事。
03:46
This kind of gender性別
discrimination區別 is not OK.
61
214333
3476
這種性別歧視是不對的。
03:49
And yet然而 somehow不知何故,
AIAI has become成為 above以上 the law,
62
217833
4518
但,人工智慧卻以
某種方式超越了法律,
03:54
because a machine made製作 the decision決定.
63
222375
2083
因為那個決策是機器做出來的。
03:57
That's not it.
64
225833
1518
不只如此。
03:59
We are also reinforcing加強 our bias偏壓
in how we interact相互作用 with AIAI.
65
227375
4875
我們和人工智慧的互動,
也加強了我們自己的偏見。
04:04
How often經常 do you use a voice語音 assistant助理
like SiriSiri的, AlexaAlexa的 or even Cortana科爾塔納?
66
232917
5976
你們有多常使用語音助手,比如
Siri、Alexa,或甚至 Cortana?
04:10
They all have two things in common共同:
67
238917
2559
它們全都有兩項共通點:
04:13
one, they can never get my name名稱 right,
68
241500
3101
第一,它們總是把我的名字弄錯,
04:16
and second第二, they are all female.
69
244625
2667
第二,它們都是女性。
04:20
They are designed設計 to be
our obedient聽話 servants公務員,
70
248417
2767
它們被設計為順從我們的僕人,
04:23
turning車削 your lights燈火 on and off,
ordering排序 your shopping購物.
71
251208
3250
幫你開燈、關燈,幫你下單購物。
04:27
You get male AIs認可 too,
but they tend趨向 to be more high-powered高功率,
72
255125
3309
也會有男性的人工智慧,
但通常它們的功能比較強,
04:30
like IBMIBM Watson沃森,
making製造 business商業 decisions決定,
73
258458
3059
比如 IBM 的 Watson,
做的是商業決策,
04:33
Salesforce銷售力量 Einstein愛因斯坦
or ROSS羅斯, the robot機器人 lawyer律師.
74
261541
3792
又如 Salesforce Einstein,
或是機器律師 ROSS 。
04:38
So poor較差的 robots機器人, even they suffer遭受
from sexism性別歧視 in the workplace職場.
75
266208
4060
可憐的機器人,連它們也會
遇到工作場所的性別主義。
04:42
(Laughter笑聲)
76
270292
1125
(笑聲)
04:44
Think about how these two things combine結合
77
272542
2851
想想看,當這兩點結合起來時,
04:47
and affect影響 a kid孩子 growing生長 up
in today's今天的 world世界 around AIAI.
78
275417
5309
會如何影響現今世界中與人工智慧
一同生活的孩子成長。
04:52
So they're doing some research研究
for a school學校 project項目
79
280750
2934
所以,他們為了一項學校
專案計畫做了些研究,
04:55
and they Google谷歌 images圖片 of CEOCEO.
80
283708
3018
他們用 Google 搜尋了
執行長的形象。
04:58
The algorithm算法 shows節目 them
results結果 of mostly大多 men男人.
81
286750
2893
演算法呈現給他們看的搜尋結果,
大部分都是男性。
05:01
And now, they Google谷歌 personal個人 assistant助理.
82
289667
2559
他們又搜尋了個人助理。
05:04
As you can guess猜測,
it shows節目 them mostly大多 females女性.
83
292250
3434
你們可以猜到,呈現出來的
搜尋結果大部分是女性。
05:07
And then they want to put on some music音樂,
and maybe order訂購 some food餐飲,
84
295708
3601
接著,他們想要播放音樂,
也許再點一些食物來吃,
05:11
and now, they are barking叫聲 orders命令
at an obedient聽話 female voice語音 assistant助理.
85
299333
6584
現在,他們便大聲喊出命令,
要順從的女性語音助手去做。
05:19
Some of our brightest minds頭腦
are creating創建 this technology技術 today今天.
86
307542
5309
一些最聰明的天才們
創造出現今的這種技術。
05:24
Technology技術 that they could have created創建
in any way they wanted.
87
312875
4184
他們可以依他們想要的
任何方式來創造這種技術。
05:29
And yet然而, they have chosen選擇 to create創建 it
in the style樣式 of 1950s "Mad Man" secretary秘書.
88
317083
5685
但,他們選擇採用五〇年代
《廣告狂人》中的秘書風格。
05:34
Yay好極了!
89
322792
1500
好呀!
05:36
But OK, don't worry擔心,
90
324958
1310
但,好,別擔心,
05:38
this is not going to end結束
with me telling告訴 you
91
326292
2059
演說的結尾不會是我告訴各位
05:40
that we are all heading標題 towards
sexist性別歧視, racist種族主義者 machines running賽跑 the world世界.
92
328375
3477
我們正在邁向一個由性別主義、
種族主義的機器所統治的世界。
05:44
The good news新聞 about AIAI
is that it is entirely完全 within our control控制.
93
332792
5791
關於人工智慧的好消息是,
它完全在我們的掌控當中。
05:51
We get to teach the right values,
the right ethics倫理 to AIAI.
94
339333
4000
我們可以教導人工智慧
正確的價值觀、正確的倫理。
05:56
So there are three things we can do.
95
344167
2184
有三件事是我們可以做的。
05:58
One, we can be aware知道的 of our own擁有 biases偏見
96
346375
3351
第一,我們可以意識到
我們自己有偏見存在,
06:01
and the bias偏壓 in machines around us.
97
349750
2726
以及我們身邊的機器也有偏見。
06:04
Two, we can make sure that diverse多種 teams球隊
are building建造 this technology技術.
98
352500
4518
第二,我們可以確保這項技術
是由多樣化的團隊來建造。
06:09
And three, we have to give it
diverse多種 experiences經驗 to learn學習 from.
99
357042
4916
第三,我們要提供多樣化的經驗,
讓這項技術從中學習。
06:14
I can talk about the first two
from personal個人 experience經驗.
100
362875
3309
我可以從個人經歷來談前兩點。
06:18
When you work in technology技術
101
366208
1435
當你在科技業工作,
06:19
and you don't look like
a Mark標記 Zuckerberg扎克伯格 or Elon伊隆 Musk,
102
367667
3392
且你看起來並不像是
馬克祖克柏或伊隆馬斯克,
06:23
your life is a little bit difficult,
your ability能力 gets得到 questioned質疑.
103
371083
3750
你的生活就會有一點辛苦,
你的能力會被質疑。
06:27
Here's這裡的 just one example.
104
375875
1393
這只是一個例子。
06:29
Like most developers開發商,
I often經常 join加入 online線上 tech高科技 forums論壇
105
377292
3726
和大部分的開發者一樣,
我通常會加入線上技術討論區,
06:33
and share分享 my knowledge知識 to help others其他.
106
381042
3226
分享我的知識來協助他人。
06:36
And I've found發現,
107
384292
1309
而我發現,
06:37
when I log日誌 on as myself,
with my own擁有 photo照片, my own擁有 name名稱,
108
385625
3976
當我用自己登入,放我自己的
照片,用我自己的名字,
06:41
I tend趨向 to get questions問題
or comments註釋 like this:
109
389625
4601
我常常會得到這樣的問題或意見:
06:46
"What makes品牌 you think
you're qualified合格 to talk about AIAI?"
110
394250
3000
「你怎麼會認為
你有資格談論人工智慧?」
06:50
"What makes品牌 you think
you know about machine learning學習?"
111
398458
3476
「你怎麼會認為
你了解機器學習?」
06:53
So, as you do, I made製作 a new profile輪廓,
112
401958
3435
所以,跟大家一樣,
我會做個新的個人檔案,
06:57
and this time, instead代替 of my own擁有 picture圖片,
I chose選擇 a cat with a jet噴射 pack on it.
113
405417
4851
這次,我不放自己的照片,
我選的照片是一隻背著
噴氣飛行器的貓。
07:02
And I chose選擇 a name名稱
that did not reveal揭示 my gender性別.
114
410292
2458
我選用的名字看不出性別。
07:05
You can probably大概 guess猜測
where this is going, right?
115
413917
2726
你們應該猜得出後續發展,對吧?
07:08
So, this time, I didn't get any of those
patronizing光顧 comments註釋 about my ability能力
116
416667
6392
所以,這次,那些高人一等的人
完全沒有對我的能力提出意見,
07:15
and I was able能夠 to actually其實
get some work doneDONE.
117
423083
3334
我還真的能完成一些事。
07:19
And it sucks, guys.
118
427500
1851
各位,這真的很鳥。
07:21
I've been building建造 robots機器人 since以來 I was 15,
119
429375
2476
我從十五歲時就在建造機器人了,
07:23
I have a few少數 degrees in computer電腦 science科學,
120
431875
2268
我有幾個資訊科學的學位,
07:26
and yet然而, I had to hide隱藏 my gender性別
121
434167
2434
但,我還是得隱瞞我的性別,
07:28
in order訂購 for my work
to be taken採取 seriously認真地.
122
436625
2250
我所做的事才會被認真看待。
07:31
So, what's going on here?
123
439875
1893
這是怎麼回事?
07:33
Are men男人 just better
at technology技術 than women婦女?
124
441792
3208
在科技上,男人就是
比女人厲害嗎?
07:37
Another另一個 study研究 found發現
125
445917
1559
另一項研究發現,
07:39
that when women婦女 coders編碼器 on one platform平台
hid their gender性別, like myself,
126
447500
4934
在平台上,當女性編碼者
像我這樣隱瞞自己的性別時,
07:44
their code was accepted公認
four percent百分 more than men男人.
127
452458
3250
她們的程式碼被接受的
比率比男性高 4%。
07:48
So this is not about the talent天賦.
128
456542
2916
重點並不是才華。
07:51
This is about an elitism精英 in AIAI
129
459958
2893
重點是人工智慧領域的精英主義,
07:54
that says a programmer程序員
needs需求 to look like a certain某些 person.
130
462875
2792
它說,程式設計師必須要
看起來像是某種人。
07:59
What we really need to do
to make AIAI better
131
467375
3101
若想要讓人工智慧更好,
我們需要做的事情
08:02
is bring帶來 people
from all kinds of backgrounds背景.
132
470500
3042
是集合各種背景的人。
08:06
We need people who can
write and tell stories故事
133
474542
2559
我們需要能夠寫故事、說故事的人
08:09
to help us create創建 personalities個性 of AIAI.
134
477125
2167
來協助我們創造出
人工智慧的人格。
08:12
We need people who can solve解決 problems問題.
135
480208
2042
我們需要能夠解決問題的人。
08:15
We need people
who face面對 different不同 challenges挑戰
136
483125
3768
我們需要能夠面對不同挑戰的人,
08:18
and we need people who can tell us
what are the real真實 issues問題 that need fixing定影
137
486917
5351
我們需要能夠告訴我們
真正需要修正的問題是什麼,
08:24
and help us find ways方法
that technology技術 can actually其實 fix固定 it.
138
492292
3041
且協助我們想辦法
用科技來修正它的人。
08:29
Because, when people
from diverse多種 backgrounds背景 come together一起,
139
497833
3726
因為,當來自多樣化
背景的人集結在一起,
08:33
when we build建立 things in the right way,
140
501583
2143
當我們用對的方式建造新東西時,
08:35
the possibilities可能性 are limitless無限.
141
503750
2042
就會有無限的可能性。
08:38
And that's what I want to end結束
by talking to you about.
142
506750
3309
我希望用這一點
來結束今天的演說。
08:42
Less racist種族主義者 robots機器人, less machines
that are going to take our jobs工作 --
143
510083
4225
少談種族主義的機器人、
少談機器會搶走我們的工作——
08:46
and more about what technology技術
can actually其實 achieve實現.
144
514332
3125
多談科技能夠達成什麼。
08:50
So, yes, some of the energy能源
in the world世界 of AIAI,
145
518292
3434
所以,是的,在人工智慧
世界中的某些能量,
08:53
in the world世界 of technology技術
146
521750
1393
在科技世界中的某些能量,
08:55
is going to be about
what ads廣告 you see on your stream.
147
523167
4267
會被用來決定放什麼廣告
到你的串流中。
08:59
But a lot of it is going towards
making製造 the world世界 so much better.
148
527458
5209
但有很大一部分的目的
會是要讓世界變得更好。
09:05
Think about a pregnant woman女人
in the Democratic民主的 Republic共和國 of Congo剛果,
149
533500
3768
想想看,在剛果民主
共和國的懷孕女子,
09:09
who has to walk步行 17 hours小時
to her nearest最近的 rural鄉村 prenatal產前 clinic診所
150
537292
4184
她得要走十七小時的路,
才能到達最近的鄉村婦產科診所,
09:13
to get a checkup檢查.
151
541500
1851
去做一次檢查。
09:15
What if she could get diagnosis診斷
on her phone電話, instead代替?
152
543375
2917
如果她能夠改用她的手機
來取得診斷呢?
09:19
Or think about what AIAI could do
153
547750
1809
或者,想想人工智慧能做什麼,
09:21
for those one in three women婦女
in South Africa非洲
154
549583
2726
來協助解決南非有三分之一女性
09:24
who face面對 domestic國內 violence暴力.
155
552333
2125
要面對家暴的問題。
09:27
If it wasn't safe安全 to talk out loud,
156
555083
2726
如果大聲談論並不安全,
09:29
they could get an AIAI service服務
to raise提高 alarm報警,
157
557833
2476
她們可以透過人工智慧服務來求援,
09:32
get financial金融 and legal法律 advice忠告.
158
560333
2459
取得財務和法律建議。
09:35
These are all real真實 examples例子 of projects項目
that people, including包含 myself,
159
563958
5018
這些例子都是目前
有人在利用人工智慧
09:41
are working加工 on right now, using運用 AIAI.
160
569000
2500
進行的專案計畫,包括我在內。
09:45
So, I'm sure in the next下一個 couple一對 of days
there will be yet然而 another另一個 news新聞 story故事
161
573542
3601
我相信,在接下來幾天,
還會有另一則新聞報導,
09:49
about the existential存在 risk風險,
162
577167
2684
談及生存危機、
09:51
robots機器人 taking服用 over
and coming未來 for your jobs工作.
163
579875
2434
機器人即將來搶走你的工作。
09:54
(Laughter笑聲)
164
582333
1018
(笑聲)
09:55
And when something like that happens發生,
165
583375
2309
當發生這樣的狀況時,
09:57
I know I'll get the same相同 messages消息
worrying令人擔憂 about the future未來.
166
585708
3601
我知道我又會收到
關於擔心未來的訊息。
10:01
But I feel incredibly令人難以置信 positive
about this technology技術.
167
589333
3667
但我對這項技術的感受
是非常正面的。
10:07
This is our chance機會 to remake翻拍 the world世界
into a much more equal等於 place地點.
168
595458
5959
這是一個機會,
我們可以把世界重建,
成為更平等的地方。
10:14
But to do that, we need to build建立 it
the right way from the get go.
169
602458
4000
但,若想做到這個目標,
打從一開始就要用對方式。
10:19
We need people of different不同 genders性別,
races比賽, sexualities性行為 and backgrounds背景.
170
607667
5083
我們需要不同性別、
種族、性向,和背景的人。
10:26
We need women婦女 to be the makers製造商
171
614458
2476
我們需要女性來當創造者,
10:28
and not just the machines
who do the makers'製造商 ' bidding投標.
172
616958
3000
不只是會照著創造者的
命令做事的機器。
10:33
We need to think very carefully小心
what we teach machines,
173
621875
3768
我們得要非常小心地思考
我們要教導機器什麼,
10:37
what data數據 we give them,
174
625667
1642
要給它們什麼資料,
10:39
so they don't just repeat重複
our own擁有 past過去 mistakes錯誤.
175
627333
3125
以免它們重蹈我們過去的覆轍。
10:44
So I hope希望 I leave離開 you
thinking思維 about two things.
176
632125
3542
我希望留下兩件事讓各位思考。
10:48
First, I hope希望 you leave離開
thinking思維 about bias偏壓 today今天.
177
636542
4559
第一,我希望大家離開這裡之後,
能想想現今的偏見。
10:53
And that the next下一個 time
you scroll滾動 past過去 an advert廣告
178
641125
3184
下次當你滑手機看到廣告時,
10:56
that assumes假設 you are interested有興趣
in fertility生育能力 clinics診所
179
644333
2810
且廣告內容是假設
你想了解不孕症診所
10:59
or online線上 betting博彩 websites網站,
180
647167
2851
或線上賭博網站,
11:02
that you think and remember記得
181
650042
2017
你就要思考一下並想起來,
11:04
that the same相同 technology技術 is assuming假設
that a black黑色 man will reoffend重犯.
182
652083
4625
這項技術也同樣會假設
黑人會再犯罪。
11:09
Or that a woman女人 is more likely容易
to be a personal個人 assistant助理 than a CEOCEO.
183
657833
4167
或者女性比較有可能
成為個人助理而非執行長。
11:14
And I hope希望 that reminds提醒 you
that we need to do something about it.
184
662958
3709
我希望那能夠提醒各位,
我們得要採取行動。
11:20
And second第二,
185
668917
1851
第二,
11:22
I hope希望 you think about the fact事實
186
670792
1892
我希望大家能想想,
11:24
that you don't need to look a certain某些 way
187
672708
1976
你並不需要有某種外表
11:26
or have a certain某些 background背景
in engineering工程 or technology技術
188
674708
3851
或某種工程或科技背景,
11:30
to create創建 AIAI,
189
678583
1268
才能創造人工智慧,
11:31
which哪一個 is going to be
a phenomenal非凡的 force for our future未來.
190
679875
2875
它將會是我們未來的
一股驚人力量。
11:36
You don't need to look
like a Mark標記 Zuckerberg扎克伯格,
191
684166
2143
你不需要看起來像馬克祖克柏,
11:38
you can look like me.
192
686333
1250
你可以看起來像我。
11:41
And it is up to all of us in this room房間
193
689250
2893
要靠我們這間房間的所有人,
11:44
to convince說服 the governments政府
and the corporations公司
194
692167
2726
來說服政府和企業,
11:46
to build建立 AIAI technology技術 for everyone大家,
195
694917
2892
為每個人建造人工智慧技術,
11:49
including包含 the edge邊緣 cases.
196
697833
2393
包括邊緣的個案。
11:52
And for us all to get education教育
197
700250
2059
而我們所有人將來都應該要
接受關於這項重大技術的教育。
11:54
about this phenomenal非凡的
technology技術 in the future未來.
198
702333
2375
11:58
Because if we do that,
199
706167
2017
因為,如果能這麼做,
12:00
then we've我們已經 only just scratched劃傷 the surface表面
of what we can achieve實現 with AIAI.
200
708208
4893
那麼我們還能夠用人工智慧
做出更多了不起的事。
12:05
Thank you.
201
713125
1268
謝謝。
12:06
(Applause掌聲)
202
714417
2708
(掌聲)
Translated by Lilian Chiu
Reviewed by Bruce Sung

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com