ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

크리티 샤마(Kriti Sharma): 인공지능에서 인간적 편향을 피하는 법

Filmed:
2,050,106 views

인공지능 알고리즘은 자동차 보험에 얼마를 지불해야 하는지, 또는 구직 면접을 받을지 여부와 같이 항상 중요한 결정을 내립니다. 그러나 시스템에 인간적 편향을 코딩하여 구축되면 어떻게 될까요? 과학 기술자인 크리티 샤마(Kriti Sharma)는 기술의 다양성 부족이 어떻게 인공 지능에 침투하는지 탐구하고, 더 윤리적인 알고리즘을 만들 수 있는 세 가지 방법을 제시합니다.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How many많은 decisions결정들
have been made만든 about you today오늘,
0
875
3768
여러분은 인공지능의 도움을 받아서
00:16
or this week or this year,
1
4667
2601
오늘이나 이번 주 혹은 올해
00:19
by artificial인공의 intelligence지성?
2
7292
1958
얼마나 많은 결정을 내리셨나요?
00:22
I build짓다 AIAI for a living생활
3
10958
1685
제 직업은 인공지능을
구축하는 것입니다.
00:24
so, full완전한 disclosure폭로, I'm kind종류 of a nerd얼간이.
4
12667
3017
그러니까 밝히자면 좀 범생이에요.
00:27
And because I'm kind종류 of a nerd얼간이,
5
15708
2393
제가 범생이라서
00:30
wherever대체 어디에 some new새로운 news뉴스 story이야기 comes온다 out
6
18125
2351
새로운 뉴스에서 인공지능이
일자리를 뺏는다거나
00:32
about artificial인공의 intelligence지성
stealing훔침 all our jobs일자리,
7
20500
3434
00:35
or robots로봇 getting점점 citizenship시민권
of an actual실제의 country국가,
8
23958
4185
실제 국가의 시민권을 획득한다거나 하는
00:40
I'm the person사람 my friends친구
and followers추종자 message메시지
9
28167
3142
뉴스가 나오면 친구들과 주변인들이
00:43
freaking마약 중독자 out about the future미래.
10
31333
1542
그렇게 될까 봐 기겁해서
저에게 메시지를 보내요.
00:45
We see this everywhere어디에나.
11
33833
2101
로봇 과다 현상이 세상을 점령한다는
00:47
This media미디어 panic공포 that
our robot기계 인간 overlords군주 are taking취득 over.
12
35958
4893
미디어 공포 현상은
여기저기에 만연해 있어요.
00:52
We could blame비난 Hollywood할리우드 for that.
13
40875
1917
할리우드로 비난의 화살을
돌리기도 합니다.
00:56
But in reality현실, that's not the problem문제
we should be focusing집중 on.
14
44125
4125
하지만 현실은 그걸
걱정할 때가 아닙니다.
01:01
There is a more pressing누르는 danger위험,
a bigger더 큰 risk위험 with AIAI,
15
49250
3643
인공지능에는 더 큰
위험이 도사리고 있는데
01:04
that we need to fix고치다 first.
16
52917
1583
이것부터 고쳐야 합니다.
01:07
So we are back to this question문제:
17
55417
2309
이 질문으로 돌아가 볼게요.
01:09
How many많은 decisions결정들
have been made만든 about you today오늘 by AIAI?
18
57750
4708
여러분은 오늘 인공지능 도움으로
얼마나 많은 결정을 내렸나요?
01:15
And how many많은 of these
19
63792
1976
얼마나 많은 결정이
01:17
were based기반 on your gender성별,
your race경주 or your background배경?
20
65792
4500
성별, 인종, 배경에 기반해서
이루어졌나요?
01:24
Algorithms알고리즘 are being존재 used all the time
21
72500
2768
알고리즘은 항상 우리가 누구이고
01:27
to make decisions결정들 about who we are
and what we want.
22
75292
3833
무엇을 원하는지 결정을
내리는데 이용됩니다.
01:32
Some of the women여자들 in this room
will know what I'm talking말하는 about
23
80208
3643
여기 계신 몇몇 여성분들은
무슨 말인지 아실 거예요.
01:35
if you've been made만든 to sit앉다 through...을 통하여
those pregnancy임신 test테스트 adverts광고 on YouTubeYouTube
24
83875
3768
유튜브로 임신 테스트를
01:39
like 1,000 times타임스.
25
87667
2059
한 1,000번 정도 했는지
01:41
Or you've scrolled스크롤 한 past과거 adverts광고
of fertility비옥 clinics클리닉
26
89750
2851
또는 페이스북에서
가임 클리닉 광고를 보고
01:44
on your Facebook페이스 북 feed먹이.
27
92625
2042
스크롤을 내리며 지나쳤는지와
같은 것들 말입니다.
01:47
Or in my case케이스, Indian옥수수 marriage결혼 bureaus.
28
95625
2393
아니면 제 경우에는
인도 결혼 상담소가 있어요.
01:50
(Laughter웃음)
29
98042
1267
(웃음)
01:51
But AIAI isn't just being존재 used
to make decisions결정들
30
99333
2976
인공지능은 단지 무엇을 살지 또는
01:54
about what products제작품 we want to buy사다
31
102333
2601
무슨 티브이 프로그램을
돌려가며 볼지에 대해
결정을 내리는 데에만
활용되는 것이 아닙니다.
01:56
or which어느 show보여 주다 we want to binge파티 watch next다음 것.
32
104958
2500
누가 이런 생각을 한다면
어떨지 한 번 생각해보세요.
02:01
I wonder경이 how you'd당신은 feel about someone어떤 사람
who thought things like this:
33
109042
5184
"흑인이나 라틴계 사람이
02:06
"A black검은 or Latino라티노 person사람
34
114250
1934
02:08
is less적게 likely아마도 than a white화이트 person사람
to pay지불 off their그들의 loan차관 on time."
35
116208
4125
백인보다 대출금을
제때 잘 갚지 않는다."
"존이라는 사람이 메리라는 사람보다
02:13
"A person사람 called전화 한 John남자
makes~을 만든다 a better programmer프로그램 제작자
36
121542
2809
더 나은 프로그래머다."
02:16
than a person사람 called전화 한 Mary메리."
37
124375
1667
"흑인 남성은 백인 남성보다
더 자주 범죄를 되풀이한다."
02:19
"A black검은 man is more likely아마도 to be
a repeat반복 offender범죄자 than a white화이트 man."
38
127250
5083
그러면 여러분은 아마
이렇게 생각하실 겁니다.
02:26
You're probably아마 thinking생각,
39
134958
1268
"와, 그건 성차별적이고
인종차별적인 발언이야."라고요.
02:28
"Wow와우, that sounds소리 like a pretty예쁜 sexist성 차별 주의자,
racist인종 차별 주의자 person사람," right?
40
136250
3750
02:33
These are some real레알 decisions결정들
that AIAI has made만든 very recently요새,
41
141000
4851
최근에 인공지능이 내린
결정 중에서는
우리 인간에게 배운 편향에
02:37
based기반 on the biases편향
it has learned배운 from us,
42
145875
2934
의한 것이었습니다.
02:40
from the humans인간.
43
148833
1250
인공지능은 구직 면접을 받을지 여부와
02:43
AIAI is being존재 used to help decide결정하다
whether인지 어떤지 or not you get that job interview회견;
44
151750
4809
자동차 보험에 얼마를 지불할지,
02:48
how much you pay지불 for your car insurance보험;
45
156583
2393
신용 점수는 얼마나 좋은지
02:51
how good your credit신용 score점수 is;
46
159000
1893
심지어 연례 실적 평가로 몇 점을
주어야 할 지도 결정합니다.
02:52
and even what rating평가 you get
in your annual일년생 식물 performance공연 review리뷰.
47
160917
3125
하지만 이러한 결정들이
우리의 정체성, 인종, 성별, 나이에
02:57
But these decisions결정들
are all being존재 filtered거르는 through...을 통하여
48
165083
3143
근거한 추측을 거쳐서 만들어집니다.
03:00
its assumptions가정 about our identity정체,
our race경주, our gender성별, our age나이.
49
168250
5875
어떻게 이런 일이 일어나는 걸까요?
03:08
How is that happening사고?
50
176250
2268
이제 한 채용 담당자가
회사의 차기 기술 선도자를
03:10
Now, imagine상상하다 an AIAI is helping거들기
a hiring고용 manager매니저
51
178542
3517
03:14
find the next다음 것 tech기술 leader리더 in the company회사.
52
182083
2851
뽑는데 인공지능이
관여한다고 상상해보세요.
지금까지 채용 담당자는
대부분 남자였습니다.
03:16
So far멀리, the manager매니저
has been hiring고용 mostly대개 men남자.
53
184958
3101
03:20
So the AIAI learns배우다 men남자 are more likely아마도
to be programmers프로그래머 than women여자들.
54
188083
4750
그래서 인공지능은 프로그래머가
대부분 여자가 아닌 남자라고 배웁니다.
여기서 매우 짧은 도약으로 인공지능은
03:25
And it's a very short짧은 leap뛰기 from there to:
55
193542
2892
03:28
men남자 make better programmers프로그래머 than women여자들.
56
196458
2042
남자가 여자보다 더 나은
프로그래머라는 결정을 내립니다.
03:31
We have reinforced강화 된
our own개인적인 bias바이어스 into the AIAI.
57
199417
3726
우리의 편향을 인공지능에
보강하고 있었던 겁니다.
이제, 여성 후보자들을 선별합니다.
03:35
And now, it's screening상영 out
female여자 candidates후보자.
58
203167
3625
잠시만요, 만약
인간 채용 담당자가 그랬다면
03:40
Hang다루는 법 on, if a human인간의
hiring고용 manager매니저 did that,
59
208917
3017
03:43
we'd우리는 be outraged격분한, we wouldn't~ 않을거야. allow허용하다 it.
60
211958
2351
우리는 분노하며
허용하지 않을 것입니다.
이러한 성차별은 옳지 않습니다.
03:46
This kind종류 of gender성별
discrimination차별 is not OK.
61
214333
3476
히지만 어쩐 일인지 인공지능이
법 우위에 서게 되었습니다.
03:49
And yet아직 somehow어쩐지,
AIAI has become지다 above위에 the law,
62
217833
4518
왜냐하면 기계가 결정을 내리니까요.
03:54
because a machine기계 made만든 the decision결정.
63
222375
2083
이게 다가 아닙니다.
03:57
That's not it.
64
225833
1518
우리는 또한 인공지능과 상호 작용
하는데 편향을 강화하고 있습니다.
03:59
We are also또한 reinforcing강화 our bias바이어스
in how we interact상호 작용하다 with AIAI.
65
227375
4875
시리, 알렉사, 코타나와 같은
음성 비서를 얼마나 자주 사용하나요?
04:04
How often자주 do you use a voice목소리 assistant조수
like Siri시리, Alexa알렉사 or even CortanaCortana?
66
232917
5976
이러한 음성 보조 장치에는
전부 두 가지 공통점이 있습니다.
04:10
They all have two things in common공유지:
67
238917
2559
첫째, 내 이름을 전혀 올바르게
발음하지 못합니다.
04:13
one, they can never get my name이름 right,
68
241500
3101
둘째, 모두 여자입니다.
04:16
and second둘째, they are all female여자.
69
244625
2667
우리에게 순종하는 하인이
되도록 설계되어
04:20
They are designed디자인 된 to be
our obedient순종하는 servants하인,
70
248417
2767
명령에 따라 전등을 켜고 끄고,
장을 대신 보기도 합니다.
04:23
turning선회 your lights on and off,
ordering주문 your shopping쇼핑.
71
251208
3250
남성 인공지능도 있지만
더 책임이 막중한 일을 맡습니다.
04:27
You get male남성 AIs인공 지능 too,
but they tend지키다 to be more high-powered고성능,
72
255125
3309
IBM 왓슨처럼
사업 의사 결정을 내리거나
04:30
like IBMIBM Watson왓슨,
making만들기 business사업 decisions결정들,
73
258458
3059
04:33
Salesforce세일즈 포스 Einstein아인슈타인
or ROSS로스, the robot기계 인간 lawyer변호사.
74
261541
3792
판매 담당자 아인슈타인이나
로봇 변호사 로스가 됩니다.
불쌍한 로봇들, 직장에서도
성차별로 고통받는군요.
04:38
So poor가난한 robots로봇, even they suffer참다
from sexism성 차별주의 in the workplace직장.
75
266208
4060
(웃음)
04:42
(Laughter웃음)
76
270292
1125
이 두 가지가 결합해서
인공지능이 존재하는 오늘날
04:44
Think about how these two things combine콤바인
77
272542
2851
자라나는 어린이에게
어떤 영향을 미칠지 생각해보세요.
04:47
and affect감정 a kid아이 growing성장하는 up
in today's오늘의 world세계 around AIAI.
78
275417
5309
아이들은 학교 프로젝트를 위해
조사를 합니다.
04:52
So they're doing some research연구
for a school학교 project계획
79
280750
2934
최고경영자 이미지를 구글링합니다.
04:55
and they GoogleGoogle images이미지들 of CEO최고 경영자.
80
283708
3018
알고리즘은 대부분 남성을 보여줍니다.
04:58
The algorithm연산 shows them
results결과들 of mostly대개 men남자.
81
286750
2893
그리고 이제 아이들은
개인 비서를 구글링합니다.
05:01
And now, they GoogleGoogle personal개인적인 assistant조수.
82
289667
2559
예상하신 대로
대부분 여성을 보여줍니다.
05:04
As you can guess추측,
it shows them mostly대개 females.
83
292250
3434
그리고 아이들은 음악도 넣고
음식도 주문하고 싶을 거예요.
05:07
And then they want to put on some music음악,
and maybe order주문 some food식품,
84
295708
3601
순종적인 여성 음성 비서에게
아이들은 소리쳐 주문합니다.
05:11
and now, they are barking짖는 orders명령
at an obedient순종하는 female여자 voice목소리 assistant조수.
85
299333
6584
몇몇의 뛰어난 지성인들이
오늘날 이 기술을 창조합니다.
05:19
Some of our brightest가장 밝은 minds마음
are creating창조 this technology과학 기술 today오늘.
86
307542
5309
05:24
Technology과학 기술 that they could have created만들어진
in any way they wanted.
87
312875
4184
그들이 원하는 대로
기술을 창조할 수 있습니다.
05:29
And yet아직, they have chosen선택된 to create몹시 떠들어 대다 it
in the style스타일 of 1950s "Mad미친 Man" secretary비서.
88
317083
5685
그런데도 굳이 1950년대 "매드 맨"
비서 스타일로 만들기로 선택했네요.
만세!
05:34
Yay예이!
89
322792
1500
하지만 괜찮아요, 걱정 마세요
05:36
But OK, don't worry걱정,
90
324958
1310
제가 말씀드리려는 것은
이게 끝이 아닙니다.
05:38
this is not going to end종료
with me telling말함 you
91
326292
2059
05:40
that we are all heading표제 towards...쪽으로
sexist성 차별 주의자, racist인종 차별 주의자 machines기계들 running달리는 the world세계.
92
328375
3477
성차별적이고 인종차별적인 기계가
세상을 움직인다고 말씀드렸지만
인공지능에 대한 좋은 소식은 우리가
전적으로 통제할 수 있다는 것입니다.
05:44
The good news뉴스 about AIAI
is that it is entirely전적으로 within이내에 our control제어.
93
332792
5791
인공지능에게 올바른 가치와 윤리관을
가르칠 수 있습니다.
05:51
We get to teach가르치다 the right values,
the right ethics윤리학 to AIAI.
94
339333
4000
05:56
So there are three things we can do.
95
344167
2184
여기에 우리가 할 수 있는
세 가지가 있습니다.
첫째, 우리 고유의 편향을 인지하고
05:58
One, we can be aware알고있는 of our own개인적인 biases편향
96
346375
3351
06:01
and the bias바이어스 in machines기계들 around us.
97
349750
2726
우리 주변에 있는 기계가 가진
편향을 인지할 수 있습니다.
06:04
Two, we can make sure that diverse다양한 teams
are building건물 this technology과학 기술.
98
352500
4518
둘째, 다양한 팀이 이러한 기술을
구축하도록 할 수 있습니다.
06:09
And three, we have to give it
diverse다양한 experiences경험담 to learn배우다 from.
99
357042
4916
셋째, 기계가 배울 수 있도록
다양한 경험을 제공해야 합니다.
제 개인적인 경험을 통해
첫 번째와 두 번째에 대해 말씀드릴게요.
06:14
I can talk about the first two
from personal개인적인 experience경험.
100
362875
3309
06:18
When you work in technology과학 기술
101
366208
1435
기술 분야에서 일을 할 때
06:19
and you don't look like
a Mark Zuckerberg주커 버그 or Elon엘론 Musk사향,
102
367667
3392
여러분은 마크 주커버그나
엘론 머스크처럼 생기지 않았다면
삶은 조금 더 어렵고
능력도 의심받습니다.
06:23
your life is a little bit비트 difficult어려운,
your ability능력 gets도착 questioned의문을 가진.
103
371083
3750
하나의 예를 들어볼게요.
06:27
Here's여기에 just one example.
104
375875
1393
06:29
Like most가장 developers개발자,
I often자주 join어울리다 online온라인 tech기술 forums포럼
105
377292
3726
대부분의 개발자처럼 저도
온라인 기술 포럼에 참여해서
06:33
and share my knowledge지식 to help others다른 사람.
106
381042
3226
타인을 돕기 위해 지식을 공유합니다.
그리고 제가 발견한 것은
06:36
And I've found녹이다,
107
384292
1309
제 사진과 이름을 공개하고
로그인할 때
06:37
when I log로그 on as myself자기,
with my own개인적인 photo사진, my own개인적인 name이름,
108
385625
3976
다음과 같은 질문이나
말을 듣는다는 것입니다.
06:41
I tend지키다 to get questions질문들
or comments의견 like this:
109
389625
4601
"어떻게 당신이 인공지능에 대해
말할 자격이 있다고 생각하는 거죠?"
06:46
"What makes~을 만든다 you think
you're qualified자격 있는 to talk about AIAI?"
110
394250
3000
"어떻게 당신이 기계 학습에 대해
안다고 생각하는 거죠?"
06:50
"What makes~을 만든다 you think
you know about machine기계 learning배우기?"
111
398458
3476
그래서 여러분처럼 저도
새로운 프로필을 만들었습니다.
06:53
So, as you do, I made만든 a new새로운 profile윤곽,
112
401958
3435
이번에는 제 사진 대신 제트 팩을
메고 있는 고양이 사진을 선택했어요.
06:57
and this time, instead대신에 of my own개인적인 picture그림,
I chose선택한 a cat고양이 with a jet제트기 pack on it.
113
405417
4851
그리고 제 성별을 알 수 없는
이름을 선택했어요.
07:02
And I chose선택한 a name이름
that did not reveal창틀 my gender성별.
114
410292
2458
무슨 일이 벌어질지 예상되시죠?
07:05
You can probably아마 guess추측
where this is going, right?
115
413917
2726
이번에는 제 능력을 깔보는 말을
하는 사람이 없었어요.
07:08
So, this time, I didn't get any of those
patronizing우호적 인 comments의견 about my ability능력
116
416667
6392
07:15
and I was able할 수 있는 to actually사실은
get some work done끝난.
117
423083
3334
그리고 실제로 몇 가지 일도
완수할 수 있었고요.
이건 정말 짜증 나는 일이에요.
07:19
And it sucks짜증 난다., guys.
118
427500
1851
전 15살 때부터 로봇을 만들어 왔고
07:21
I've been building건물 robots로봇 since이후 I was 15,
119
429375
2476
컴퓨터 과학 분야에
학위도 몇 개 갖고 있어요.
07:23
I have a few조금 degrees in computer컴퓨터 science과학,
120
431875
2268
그럼에도 제 성별을 숨겨야만 했어요.
07:26
and yet아직, I had to hide숨는 장소 my gender성별
121
434167
2434
07:28
in order주문 for my work
to be taken취한 seriously진지하게.
122
436625
2250
그래야 제 일이 진지하게
받아들여지니까요.
여기에 무슨 일이
일어나고 있는 건가요?
07:31
So, what's going on here?
123
439875
1893
기술 면에서 남자가 여자보다
더 뛰어나나요?
07:33
Are men남자 just better
at technology과학 기술 than women여자들?
124
441792
3208
07:37
Another다른 study연구 found녹이다
125
445917
1559
다른 연구에서 발견한 사실은
07:39
that when women여자들 coders코더 on one platform플랫폼
hid숨은 their그들의 gender성별, like myself자기,
126
447500
4934
플랫폼에서 여성 프로그래머들이
저처럼 자기 성별을 숨길 때
코딩이 남자보다 4%
더 많이 받아들여졌어요.
07:44
their그들의 code암호 was accepted받아 들인
four percent퍼센트 more than men남자.
127
452458
3250
그러니까 이건 재능에
관한 게 아니에요.
07:48
So this is not about the talent재능.
128
456542
2916
이것은 인공지능에 있는
엘리트 의식에 관한 거예요.
07:51
This is about an elitism엘리트주의 in AIAI
129
459958
2893
그건 프로그래머가 특정한 사람처럼
보여야 한다는 것을 의미하죠.
07:54
that says말한다 a programmer프로그램 제작자
needs필요 to look like a certain어떤 person사람.
130
462875
2792
더 나은 인공지능을 만들기 위해
우리가 해야 할 일은
07:59
What we really need to do
to make AIAI better
131
467375
3101
각기 다른 배경에서 자란
모든 사람들을 데려오는 겁니다.
08:02
is bring가져오다 people
from all kinds종류 of backgrounds배경.
132
470500
3042
인공지능의 개성을 만들도록 도와줄
08:06
We need people who can
write쓰다 and tell stories이야기
133
474542
2559
글을 쓰고 이야기를 할 수 있는
사람을 필요로 합니다.
08:09
to help us create몹시 떠들어 대다 personalities성격 of AIAI.
134
477125
2167
문제를 해결할 수 있는
사람을 필요로 합니다.
08:12
We need people who can solve풀다 problems문제들.
135
480208
2042
다른 도전을 마주하고
08:15
We need people
who face얼굴 different다른 challenges도전
136
483125
3768
고쳐야 하는 진짜 문제에 대해
말해줄 수 있고,
08:18
and we need people who can tell us
what are the real레알 issues문제 that need fixing고정
137
486917
5351
08:24
and help us find ways
that technology과학 기술 can actually사실은 fix고치다 it.
138
492292
3041
그걸 고칠 수 있는 기술을 찾도록
도와줄 사람을 필요로 합니다.
왜냐하면 다양한 배경을 가진
사람들이 모일 때,
08:29
Because, when people
from diverse다양한 backgrounds배경 come together함께,
139
497833
3726
우리가 올바른 것들을
만들 수 있을 때,
08:33
when we build짓다 things in the right way,
140
501583
2143
가능성은 무궁무진하기 때문입니다.
08:35
the possibilities가능성 are limitless무한의.
141
503750
2042
이것이 여러분에게 말씀드리며
끝맺고 싶은 이야기입니다.
08:38
And that's what I want to end종료
by talking말하는 to you about.
142
506750
3309
08:42
Less적게 racist인종 차별 주의자 robots로봇, less적게 machines기계들
that are going to take our jobs일자리 --
143
510083
4225
덜 인종차별적인 로봇,
우리 일자리를 덜 빼앗아 갈 기계
그리고 우리가 실제로 성취할 수 있는
더 많은 기술에 대한 것입니다.
08:46
and more about what technology과학 기술
can actually사실은 achieve이루다.
144
514332
3125
맞아요, 인공지능의 세계와
기술의 세계에서
08:50
So, yes, some of the energy에너지
in the world세계 of AIAI,
145
518292
3434
일부 에너지는
08:53
in the world세계 of technology과학 기술
146
521750
1393
여러분이 스트림에서 볼 수 있는
광고에 쓰일 것입니다.
08:55
is going to be about
what ads광고들 you see on your stream흐름.
147
523167
4267
하지만 그중 많은 에너지는
더 나은 세상을 만드는데 쓰입니다.
08:59
But a lot of it is going towards...쪽으로
making만들기 the world세계 so much better.
148
527458
5209
콩고 민주 공화국에 있는
임산부를 생각해보세요.
09:05
Think about a pregnant충만한 woman여자
in the Democratic민주당 Republic공화국 of Congo콩고,
149
533500
3768
가장 가까운 시골 산전 클리닉에
가려면 17시간을 걸어야 합니다.
09:09
who has to walk산책 17 hours시간
to her nearest가장 가까운 rural시골의 prenatal태아의 clinic진료소
150
537292
4184
검진받기 위해서요.
09:13
to get a checkup건강 진단.
151
541500
1851
만약 임산부가 그 대신 전화로
진단받을 수 있다면 어떨까요?
09:15
What if she could get diagnosis진단
on her phone전화, instead대신에?
152
543375
2917
아니면 인공지능이 할 수 있는
일을 생각해 보세요.
09:19
Or think about what AIAI could do
153
547750
1809
09:21
for those one in three women여자들
in South남쪽 Africa아프리카
154
549583
2726
남아프리카 여성 3명 중 1명은
가정 폭력에 노출되어 있습니다.
09:24
who face얼굴 domestic하인 violence폭력.
155
552333
2125
09:27
If it wasn't아니었다. safe안전한 to talk out loud화려한,
156
555083
2726
만약 크게 소리 내어 말하는 것이
안전하지 않다면
인공지능 서비스를 이용해 경보를 울려
09:29
they could get an AIAI service서비스
to raise증가 alarm경보,
157
557833
2476
재정과 법률 상담을 받을 수 있습니다.
09:32
get financial재정적 인 and legal적법한 advice조언.
158
560333
2459
이것은 현재 저를 포함해
사람들이 인공지능을 이용해
09:35
These are all real레알 examples예제들 of projects프로젝트들
that people, including포함 myself자기,
159
563958
5018
작업하고 있는
프로젝트의 실제 사례입니다.
09:41
are working on right now, using~을 사용하여 AIAI.
160
569000
2500
09:45
So, I'm sure in the next다음 것 couple of days
there will be yet아직 another다른 news뉴스 story이야기
161
573542
3601
며칠 뒤에 또 다른 보도 기사가
있을 거라 확신합니다.
09:49
about the existential실존 적 risk위험,
162
577167
2684
로봇이 여러분의 일자리를
점령하러 오는 것에 대한
실존적인 위험에 대해서요.
09:51
robots로봇 taking취득 over
and coming오는 for your jobs일자리.
163
579875
2434
(웃음)
09:54
(Laughter웃음)
164
582333
1018
그런 일이 일어날 때,
09:55
And when something like that happens일이,
165
583375
2309
미래에 대해 걱정하는 똑같은
메시지를 받게 될 것도 압니다.
09:57
I know I'll get the same같은 messages메시지
worrying걱정하는 about the future미래.
166
585708
3601
하지만 저는 이 기술에 대해
매우 긍정적입니다.
10:01
But I feel incredibly엄청나게 positive
about this technology과학 기술.
167
589333
3667
이것이야말로 세상을 더 평등한
곳으로 만들 기회입니다.
10:07
This is our chance기회 to remake다시 만들다 the world세계
into a much more equal같은 place장소.
168
595458
5959
하지만 그러기 위해서는 처음부터
올바른 방법으로 만들어야 합니다.
10:14
But to do that, we need to build짓다 it
the right way from the get go.
169
602458
4000
다른 성별, 인종, 성적 취향, 배경
출신의 사람들을 필요로 합니다.
10:19
We need people of different다른 genders성별,
races경마 대회, sexualities성애 and backgrounds배경.
170
607667
5083
여성이 제작자가 되어야 합니다.
10:26
We need women여자들 to be the makers제조사
171
614458
2476
10:28
and not just the machines기계들
who do the makers'메이커 bidding입찰.
172
616958
3000
단지 제작자 입찰을 하는
기계뿐만이 아니라 말이죠.
우리는 기계에게 무엇을 가르치고
어떤 데이터를 제공할지에 대해
10:33
We need to think very carefully면밀히
what we teach가르치다 machines기계들,
173
621875
3768
매우 신중하게 생각해야 합니다.
10:37
what data데이터 we give them,
174
625667
1642
10:39
so they don't just repeat반복
our own개인적인 past과거 mistakes실수.
175
627333
3125
과거와 같은 실수를
하지 않기 위해서 말이죠.
10:44
So I hope기대 I leave휴가 you
thinking생각 about two things.
176
632125
3542
여러분에게 생각할 거리
두 가지를 드릴게요.
첫째, 오늘날 편향에 대해
생각해보시길 바랍니다.
10:48
First, I hope기대 you leave휴가
thinking생각 about bias바이어스 today오늘.
177
636542
4559
10:53
And that the next다음 것 time
you scroll스크롤 past과거 an advert광고하다
178
641125
3184
그리고 다음번에 여러분이
관심 있어 할 거라 가정하는
10:56
that assumes가정하다 you are interested관심있는
in fertility비옥 clinics클리닉
179
644333
2810
불임 클리닉 광고나
10:59
or online온라인 betting도박 websites웹 사이트,
180
647167
2851
온라인 도박 웹사이트 광고를
스크롤 하며 지나칠 때
11:02
that you think and remember생각해 내다
181
650042
2017
생각하고 기억해주세요.
11:04
that the same같은 technology과학 기술 is assuming가정
that a black검은 man will reoffend재계약하다.
182
652083
4625
같은 기술이 흑인은 다시 법을
위반할 것이라고 가정한다는 것을,
또는 최고경영자의 개인 비서는 여성일
가능성이 많다고 가정한다는 것을요.
11:09
Or that a woman여자 is more likely아마도
to be a personal개인적인 assistant조수 than a CEO최고 경영자.
183
657833
4167
이것에 대해 우리는 무언가를
해야 한다는 것도 기억해주세요.
11:14
And I hope기대 that reminds생각 나다 you
that we need to do something about it.
184
662958
3709
두 번째로,
11:20
And second둘째,
185
668917
1851
다음과 같은 사실을
기억해 주시길 바랍니다.
11:22
I hope기대 you think about the fact
186
670792
1892
여러분은 어떤 특정한
사람처럼 보여야 하거나
11:24
that you don't need to look a certain어떤 way
187
672708
1976
11:26
or have a certain어떤 background배경
in engineering공학 or technology과학 기술
188
674708
3851
특정한 공학이나 기술 배경을 가져야만
미래를 위한 놀랄 만한
세력이 될 인공지능을
11:30
to create몹시 떠들어 대다 AIAI,
189
678583
1268
만들 수 있는 것이
아니라는 것을 말입니다.
11:31
which어느 is going to be
a phenomenal경이로운 force for our future미래.
190
679875
2875
마크 주커버그처럼 생기지 않아도 되고
11:36
You don't need to look
like a Mark Zuckerberg주커 버그,
191
684166
2143
그냥 저처럼 생겨도 됩니다.
11:38
you can look like me.
192
686333
1250
이 공간에 있는 모두에게 달렸습니다.
11:41
And it is up to all of us in this room
193
689250
2893
정부와 기업을 설득해서
11:44
to convince납득시키다 the governments정부
and the corporations기업
194
692167
2726
11:46
to build짓다 AIAI technology과학 기술 for everyone각자 모두,
195
694917
2892
모두를 위한 인공지능 기술을
구축하도록 하는 것 말입니다.
11:49
including포함 the edge가장자리 cases사례.
196
697833
2393
엣지 케이스를 포함해서요.
11:52
And for us all to get education교육
197
700250
2059
그리고 우리는 이런 놀라운
미래 기술에 대해 교육받아야 합니다.
11:54
about this phenomenal경이로운
technology과학 기술 in the future미래.
198
702333
2375
왜냐하면 우리가
그렇게 할 경우, 그것은
11:58
Because if we do that,
199
706167
2017
12:00
then we've우리는 only just scratched긁힌 the surface표면
of what we can achieve이루다 with AIAI.
200
708208
4893
우리가 인공지능으로 성취할 수
있는 것에 대한 시작이기 때문입니다.
감사합니다.
12:05
Thank you.
201
713125
1268
12:06
(Applause박수 갈채)
202
714417
2708
(박수)
Translated by Minji Kim
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com