ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

조이 부오라뮈니 (Joy Buolamwini): 제가 알고리즘의 편견과 싸우는 방법

Filmed:
1,223,943 views

MIT 대학원생인 조이 부오라뮈니는 얼굴 인식 소프트웨어에 대해서 연구하다가 문제를 발견했습니다. 소프트웨어가 그녀의 얼굴을 인식하지 못했던 것이죠. 알고리즘을 작성했던 사람들이 여러 피부 색상과 안면 구조를 인식하는 것을 알려주지 않았기 때문이었습니다. 이제 그녀는 그녀가 '코드화된 시선'이라 부르는 머신러닝의 편견에 대항하고 있습니다. 이는 알고리즘이 우리 삶에서 점점 많은 부분을 차지하게 됨에 따라 중요해지는 코딩의 책임에 대한 놀라운 강연입니다. 이 강연은 TED 컨퍼런스와 별도로 개최된 지역 TEDx 행사에서 발표된 것입니다. 자세한 사항은 http://ted.com/tedx 를 참조하세요.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Hello여보세요, I'm Joy즐거움, a poet시인 of code암호,
0
1041
3134
안녕하세요.
코드의 시인, 조이입니다.
00:16
on a mission사명 to stop
an unseen보이지 않는 것 force that's rising상승,
1
4199
4993
저는 보이지 않는 힘이 일어나는 것을
막기 위한 사명을 띠고 있어요.
00:21
a force that I called전화 한 "the coded코드화 된 gaze응시하다,"
2
9216
2856
제가 '코드화된 시선'이라
부르는 힘인데요.
00:24
my term기간 for algorithmic알고리즘의 bias바이어스.
3
12096
3309
다른 사람은
알고리즘의 편견이라 부르죠.
00:27
Algorithmic알고리즘 bias바이어스, like human인간의 bias바이어스,
results결과들 in unfairness불공평.
4
15429
4300
알고리즘의 편견은 인간의 편견처럼
불평등을 초래하지만
00:31
However하나, algorithms알고리즘, like viruses바이러스,
can spread전파 bias바이어스 on a massive거대한 scale규모
5
19753
6022
알고리즘은 바이러스처럼 대규모의
편견을 빠른 속도로 퍼뜨릴 수 있어요.
00:37
at a rapid빠른 pace속도.
6
25799
1582
00:39
Algorithmic알고리즘 bias바이어스 can also또한 lead리드
to exclusionary배타적 인 experiences경험담
7
27943
4387
또한, 알고리즘의 편견은
자신이 배제되는 경험이나
차별적인 대우로 이어질 수 있어요.
00:44
and discriminatory차별적 인 practices관행.
8
32354
2128
00:46
Let me show보여 주다 you what I mean.
9
34506
2061
자세히 설명해 드리죠.
00:48
(Video비디오) Joy즐거움 Buolamwini부 올람 위니: Hi안녕, camera카메라.
I've got a face얼굴.
10
36980
2436
(비디오) 안녕, 카메라야.
이게 내 얼굴이야.
내 얼굴이 보이니?
00:52
Can you see my face얼굴?
11
40162
1864
00:54
No-glasses무 안경 face얼굴?
12
42051
1625
안경을 벗으면 보이니?
00:55
You can see her face얼굴.
13
43701
2214
이 친구의 얼굴은 보이잖아.
00:58
What about my face얼굴?
14
46237
2245
내 얼굴은 보여?
01:03
I've got a mask마스크. Can you see my mask마스크?
15
51890
3750
그럼 가면을 쓸게.
내 가면이 보이니?
01:08
Joy즐거움 Buolamwini부 올람 위니: So how did this happen우연히 있다?
16
56474
2365
이런 일이 왜 일어난 걸까요?
01:10
Why am I sitting좌석 in front of a computer컴퓨터
17
58863
3141
제가 왜 컴퓨터 앞에 앉아서
01:14
in a white화이트 mask마스크,
18
62028
1424
하얀 가면을 쓰고
01:15
trying견딜 수 없는 to be detected탐지 된 by a cheap webcam웹캠?
19
63476
3650
싸구려 웹캠에 인식이 되도록
노력하고 있을까요?
01:19
Well, when I'm not fighting싸움 the coded코드화 된 gaze응시하다
20
67150
2291
제가 코드의 시인으로서
'코드화된 시선'과 싸우기 전에
01:21
as a poet시인 of code암호,
21
69465
1520
01:23
I'm a graduate졸업하다 student학생
at the MITMIT Media미디어 Lab,
22
71009
3272
저는 MIT 미디어랩의
대학원생이었어요.
01:26
and there I have the opportunity기회 to work
on all sorts종류 of whimsical이상한 projects프로젝트들,
23
74305
4917
그곳에서 많은 기발한 프로젝트에
참여할 수 있었는데
01:31
including포함 the Aspire열망 Mirror거울,
24
79246
2027
염원의 거울도 있었습니다.
01:33
a project계획 I did so I could project계획
digital디지털 masks가면 onto~에 my reflection반사.
25
81297
5134
제가 참여한 프로젝트로, 거울에 비친 제
모습에 디지털 가면을 씌우는 것이죠.
01:38
So in the morning아침, if I wanted
to feel powerful강한,
26
86455
2350
아침에 힘찬 느낌을 원하면
01:40
I could put on a lion사자.
27
88829
1434
사자 가면을 씌울 수 있고
01:42
If I wanted to be uplifted들어 올리는,
I might have a quote인용문.
28
90287
3496
희망찬 느낌을 받고 싶다면
명언을 띄울 수 있었죠.
01:45
So I used generic일반적인
facial얼굴 마사지 recognition인식 software소프트웨어
29
93807
2989
저는 일반적인 얼굴 인식
소프트웨어를 사용하여
01:48
to build짓다 the system체계,
30
96820
1351
시스템을 만들었지만
01:50
but found녹이다 it was really hard단단한 to test테스트 it
unless~ 않는 한 I wore입었다 a white화이트 mask마스크.
31
98195
5103
제가 흰 가면을 쓰지 않으면
굉장히 테스트하기 어려웠어요.
01:56
Unfortunately운수 나쁘게, I've run운영
into this issue발행물 before.
32
104282
4346
불행하게도, 저는 전에도
이런 문제에 부딪힌 적이 있어요.
02:00
When I was an undergraduate대학 재학생
at Georgia그루지야 Tech기술 studying공부하는 computer컴퓨터 science과학,
33
108652
4303
제가 조지아 공대에서
컴퓨터 공학 전공생이었을 때
02:04
I used to work on social사회적인 robots로봇,
34
112979
2055
저는 사회적 로봇을 연구했어요.
02:07
and one of my tasks과제 was to get a robot기계 인간
to play놀이 peek-a-boo까꿍,
35
115058
3777
과제들 중 하나는 까꿍놀이하는
로봇을 만들기였죠.
02:10
a simple단순한 turn-taking차례 차례 복용 game경기
36
118859
1683
간단한 순서 교대 게임으로,
02:12
where partners파트너 cover덮개 their그들의 face얼굴
and then uncover폭로하다 it saying속담, "Peek-a-boo까꿍!"
37
120566
4321
얼굴을 가렸다가 보이며
"까꿍!"이라고 말하는 게임이죠.
02:16
The problem문제 is, peek-a-boo까꿍
doesn't really work if I can't see you,
38
124911
4429
문제는, 까꿍 놀이는 제가 여러분의
얼굴을 볼 수 있어야 하는데
02:21
and my robot기계 인간 couldn't할 수 없었다 see me.
39
129364
2499
로봇이 저를 보지 못했어요.
02:23
But I borrowed빌린 my roommate's룸메이트 face얼굴
to get the project계획 done끝난,
40
131887
3950
하지만 저는 룸메이트의 얼굴을
빌려서 프로젝트를 끝냈고
02:27
submitted제출 된 the assignment할당,
41
135861
1380
과제를 제출한 다음
02:29
and figured문채 있는, you know what,
somebody어떤 사람 else그밖에 will solve풀다 this problem문제.
42
137265
3753
다른 누군가가 이 문제를 해결하겠지
라고 생각했어요.
02:33
Not too long after,
43
141669
2003
그로부터 오래 지나지 않아
02:35
I was in Hong Kong
for an entrepreneurship기업가 정신 competition경쟁.
44
143696
4159
창업 대회 참가를 위해 홍콩에 갔어요.
02:40
The organizers주최자 decided결정적인
to take participants참가자
45
148339
2694
주최 측은 참여자들이
그 지역의 스타트업 기업들을
방문하도록 했어요.
02:43
on a tour근무 기간 of local노동 조합 지부 start-ups신생 기업.
46
151057
2372
02:45
One of the start-ups신생 기업 had a social사회적인 robot기계 인간,
47
153453
2715
한 스타트업에 사회적 로봇이 있었고
02:48
and they decided결정적인 to do a demo데모.
48
156192
1912
시범을 보여주기로 했어요.
02:50
The demo데모 worked일한 on everybody각자 모두
until...까지 it got to me,
49
158128
2980
로봇은 모두에게 잘 작동했죠.
저만 빼고요.
02:53
and you can probably아마 guess추측 it.
50
161132
1923
아마 짐작하셨을 거예요.
02:55
It couldn't할 수 없었다 detect탐지하다 my face얼굴.
51
163079
2965
제 얼굴을 인식하지 못했어요.
02:58
I asked물었다 the developers개발자 what was going on,
52
166068
2511
저는 개발자들에게
무슨 일이냐고 물었고
03:00
and it turned돌린 out we had used the same같은
generic일반적인 facial얼굴 마사지 recognition인식 software소프트웨어.
53
168603
5533
제가 썼던 그 얼굴 인식
소프트웨어를 쓴 게 문제였어요.
03:06
Halfway중도 around the world세계,
54
174160
1650
지구 반대편에서
03:07
I learned배운 that algorithmic알고리즘의 bias바이어스
can travel여행 as quickly빨리
55
175834
3852
저는 알고리즘의 편견이 인터넷에서
파일을 다운로드받는 것처럼
03:11
as it takes to download다운로드
some files파일들 off of the internet인터넷.
56
179710
3170
빠르게 퍼질 수
있다는 걸 알았어요.
03:15
So what's going on?
Why isn't my face얼굴 being존재 detected탐지 된?
57
183745
3076
어떻게 된 걸까요?
왜 제 얼굴은 인식되지 않죠?
03:18
Well, we have to look
at how we give machines기계들 sight시각.
58
186845
3356
자, 우리가 어떻게 기계가 볼 수
있게 하는지 알아보세요.
03:22
Computer컴퓨터 vision시력 uses용도
machine기계 learning배우기 techniques기법
59
190225
3409
컴퓨터의 시야는
머신 러닝 기술을 사용해
03:25
to do facial얼굴 마사지 recognition인식.
60
193658
1880
얼굴을 인식해요.
03:27
So how this works공장 is, you create몹시 떠들어 대다
a training훈련 set세트 with examples예제들 of faces얼굴들.
61
195562
3897
우리는 여러 예시 얼굴들로 이루어진
연습 세트를 만들어 놓죠.
03:31
This is a face얼굴. This is a face얼굴.
This is not a face얼굴.
62
199483
2818
이건 얼굴이다. 이건 얼굴이다.
이건 얼굴이 아니다.
03:34
And over time, you can teach가르치다 a computer컴퓨터
how to recognize인정하다 other faces얼굴들.
63
202325
4519
그리고 시간이 지나면, 컴퓨터에게
얼굴 인식을 가르칠 수 있어요.
03:38
However하나, if the training훈련 sets세트
aren't있지 않다. really that diverse다양한,
64
206868
3989
하지만, 연습 세트가
그렇게 다양하지 않다면
03:42
any face얼굴 that deviates이탈하다 too much
from the established설립 된 norm표준
65
210881
3349
규정된 표준에서 너무 벗어나는 얼굴들은
03:46
will be harder열심히 to detect탐지하다,
66
214254
1649
인식하기 어려울 거예요.
03:47
which어느 is what was happening사고 to me.
67
215927
1963
저한테 일어났던 일과 같죠.
03:49
But don't worry걱정 -- there's some good news뉴스.
68
217914
2382
하지만 걱정하지 마세요.
좋은 소식도 있어요.
03:52
Training훈련 sets세트 don't just
materialize구체화하다 out of nowhere아무데도.
69
220320
2771
연습 세트는 하늘에서
뚝 떨어지지 않아요.
03:55
We actually사실은 can create몹시 떠들어 대다 them.
70
223115
1788
우리가 직접 만들 수 있죠.
03:56
So there's an opportunity기회 to create몹시 떠들어 대다
full-spectrum전 스펙트럼 training훈련 sets세트
71
224927
4176
따라서 전 영역을 아울러
다양한 인류의 얼굴을 반영하는
04:01
that reflect비추다 a richer더 부자 인
portrait초상화 of humanity인류.
72
229127
3824
연습 세트를 만들 기회가 있어요.
04:04
Now you've seen in my examples예제들
73
232975
2221
여러분은 방금
04:07
how social사회적인 robots로봇
74
235220
1768
사회적 로봇이 어떤지
04:09
was how I found녹이다 out about exclusion제외
with algorithmic알고리즘의 bias바이어스.
75
237012
4611
제가 어떻게 알고리즘의 편견에 의한
배제에 대해 알게되었는지 보셨어요.
04:13
But algorithmic알고리즘의 bias바이어스 can also또한 lead리드
to discriminatory차별적 인 practices관행.
76
241647
4815
하지만 알고리즘의 편견은 차별적
관행으로 이어질 수도 있습니다.
04:19
Across건너서 the US,
77
247437
1453
미국 전역에서
04:20
police경찰 departments부서 are starting출발 to use
facial얼굴 마사지 recognition인식 software소프트웨어
78
248914
4198
경찰서들이 범죄 근절의 무기로
04:25
in their그들의 crime-fighting범죄와 싸우는 arsenal병기고.
79
253136
2459
얼굴 인식 소프트웨어를
사용하기 시작했어요.
04:27
Georgetown조지 타운 Law published출판 된 a report보고서
80
255619
2013
조지타운대 법학센터에 따르면
04:29
showing전시 that one in two adults성인
in the US -- that's 117 million백만 people --
81
257656
6763
총 1억1천7백만명에 달하는
미국 성인 둘 중 한 명의 얼굴이
04:36
have their그들의 faces얼굴들
in facial얼굴 마사지 recognition인식 networks네트워크.
82
264443
3534
얼굴 인식 네트워크에
올려져 있어요.
04:40
Police경찰 departments부서 can currently현재 look
at these networks네트워크 unregulated규제가없는,
83
268001
4552
경찰은 현재 이 네트워크를
제한 없이 살펴볼 수 있어요.
04:44
using~을 사용하여 algorithms알고리즘 that have not
been audited감사 한 for accuracy정확성.
84
272577
4286
정확성이 검증되지 않은
알고리즘을 사용하면서요.
04:48
Yet아직 we know facial얼굴 마사지 recognition인식
is not fail실패 proof증명,
85
276887
3864
우리는 얼굴 인식이 잘못될 수
있다는 것을 알고 있고
04:52
and labeling라벨링 faces얼굴들 consistently일관되게
remains유적 a challenge도전.
86
280775
4179
얼굴을 일관되게 표시하는 것은
과제로 남아있어요.
04:56
You might have seen this on Facebook페이스 북.
87
284978
1762
아마 페이스북에서 보셨을 거예요.
04:58
My friends친구 and I laugh웃음 all the time
when we see other people
88
286764
2988
저와 제 친구들은 다른 사람의 이름이
05:01
mislabeled틀린 in our photos사진들.
89
289776
2458
우리 사진에 표시된 것을
보고 매번 웃어요.
05:04
But misidentifying잘못 식별하는 a suspected의심스러운 criminal범죄자
is no laughing웃음 matter문제,
90
292258
5591
하지만 범죄 용의자를
잘못 파악하는 것은
웃을 일이 아니며
시민의 자유를 침해하죠.
05:09
nor...도 아니다 is breaching위배 civil예의 바른 liberties특권.
91
297873
2827
05:12
Machine기계 learning배우기 is being존재 used
for facial얼굴 마사지 recognition인식,
92
300724
3205
머신러닝은 현재
얼굴인식에 사용되지만
05:15
but it's also또한 extending확장 beyond...을 넘어서 the realm왕국
of computer컴퓨터 vision시력.
93
303953
4505
컴퓨터 시각을 넘어선 곳까지
확장되고 있어요.
05:21
In her book도서, "Weapons무기
of Math수학 Destruction파괴,"
94
309266
4016
'대량살상무기 (WMD)'라는 책에서
05:25
data데이터 scientist과학자 Cathy캐시 O'Neil오닐
talks회담 about the rising상승 new새로운 WMDs대량 살상 무기 --
95
313306
6681
데이터 과학자 캐시 오닐은
새로운 대량살상무기에 대해서 말해요.
05:32
widespread펼친, mysterious신비한
and destructive파괴적인 algorithms알고리즘
96
320011
4353
널리 퍼진, 알 수 없는
파괴적인 알고리즘이죠.
05:36
that are increasingly더욱 더 being존재 used
to make decisions결정들
97
324388
2964
이들은 우리 삶에
큰 영향을 미치는 선택에
05:39
that impact충격 more aspects상들 of our lives.
98
327376
3177
점점 많이 사용되고 있어요.
05:42
So who gets도착 hired고용 된 or fired해고당한?
99
330577
1870
누가 고용되고 누가 해고되는가?
05:44
Do you get that loan차관?
Do you get insurance보험?
100
332471
2112
빚을 질까?
보험에 가입할까?
05:46
Are you admitted인정 된 into the college칼리지
you wanted to get into?
101
334607
3503
원하는 대학에 합격하는가?
05:50
Do you and I pay지불 the same같은 price가격
for the same같은 product생성물
102
338134
3509
여러분과 당신이 같은 상품에 대해서
05:53
purchased구매 한 on the same같은 platform플랫폼?
103
341667
2442
같은 가격을 지불하는가?
05:56
Law enforcement시행 is also또한 starting출발
to use machine기계 learning배우기
104
344133
3759
법 집행에서도 예방적 치안을 위해
05:59
for predictive예측적인 policing치안.
105
347916
2289
머신 러닝 사용을 시작했어요.
06:02
Some judges심사 위원 use machine-generated기계가 생성 한
risk위험 scores점수 to determine결정
106
350229
3494
몇몇 판사들은 기계가 만든
위험 점수를 사용하여
06:05
how long an individual개인
is going to spend보내 in prison감옥.
107
353747
4402
사람들의 형량을 결정하기도 해요.
그래서 우린 이런 선택에
대해 생각해 봐야 해요.
06:10
So we really have to think
about these decisions결정들.
108
358173
2454
06:12
Are they fair공정한?
109
360651
1182
이 선택이 공정한가?
06:13
And we've우리는 seen that algorithmic알고리즘의 bias바이어스
110
361857
2890
게다가 우리는 알고리즘의 선택이
06:16
doesn't necessarily필연적으로 always
lead리드 to fair공정한 outcomes결과.
111
364771
3374
매번 공정하지는 않다는 걸 봤어요.
06:20
So what can we do about it?
112
368169
1964
그럼 어떻게 해야 할까요?
06:22
Well, we can start스타트 thinking생각 about
how we create몹시 떠들어 대다 more inclusive포함한 code암호
113
370157
3680
우리는 포괄적인 코드를 만들고
06:25
and employ고용 inclusive포함한 coding코딩 practices관행.
114
373861
2990
포괄적인 코딩 선례를 도입해야 해요.
06:28
It really starts시작하다 with people.
115
376875
2309
이것은 사람들로부터 시작됩니다.
따라서, 누가 코딩을
하는지가 중요하죠.
06:31
So who codes코드들 matters사안.
116
379708
1961
06:33
Are we creating창조 full-spectrum전 스펙트럼 teams
with diverse다양한 individuals개인
117
381693
4119
우리는 지금 다양한 개인들로 이루어져
서로의 맹점을 볼 수 있는
팀을 만들고 있나요?
06:37
who can check검사 each마다 other's다른 blind블라인드 spots반점?
118
385836
2411
06:40
On the technical전문인 side측면,
how we code암호 matters사안.
119
388271
3545
기술적인 면에서 우리가 어떻게
코딩을 하는지가 중요해요.
06:43
Are we factoring인수 분해 in fairness공평
as we're developing개발 중 systems시스템?
120
391840
3651
지금 우리는 시스템을 개발하면서
공정함을 염두에 두고 있나요?
06:47
And finally마침내, why we code암호 matters사안.
121
395515
2913
마지막으로, 우리가 왜 코딩을
하는지가 중요해요.
06:50
We've우리는 used tools도구들 of computational전산의 creation창조
to unlock터놓다 immense거대한 wealth.
122
398785
5083
우리는 엄청난 부를 위하여
컴퓨터를 도구로 사용했어요.
06:55
We now have the opportunity기회
to unlock터놓다 even greater더 큰 equality평등
123
403892
4447
이제 우리에겐 더 큰 평등을
얻을 기회가 있어요.
07:00
if we make social사회적인 change변화 a priority우선 순위
124
408363
2930
우리가 사회적 변화를 미루지 않고
07:03
and not an afterthought보적.
125
411317
2170
우선순위에 둔다면요.
07:06
And so these are the three tenets교리
that will make up the "incoding코딩" movement운동.
126
414008
4522
이 세 가지 요소가
'인코딩' 운동을 구성합니다.
07:10
Who codes코드들 matters사안,
127
418554
1652
누가 코딩을 하는지
07:12
how we code암호 matters사안
128
420230
1543
어떻게 코딩을 하는지
07:13
and why we code암호 matters사안.
129
421797
2023
왜 코딩을 하는지가 중요해요.
07:15
So to go towards...쪽으로 incoding코딩,
we can start스타트 thinking생각 about
130
423844
3099
그리고 인코딩을 향해 가며
우리는 편견을 분별하는 플랫폼을
07:18
building건물 platforms플랫폼 that can identify식별하다 bias바이어스
131
426967
3164
구축할 수 있어요.
07:22
by collecting수집 people's사람들의 experiences경험담
like the ones그들 I shared공유 된,
132
430155
3078
제가 공유한 것과 같은
다른 사람들의 경험을 모으고
07:25
but also또한 auditing감사 existing기존의 software소프트웨어.
133
433257
3070
현존하는 소프트웨어를
검사하면서 말이죠.
07:28
We can also또한 start스타트 to create몹시 떠들어 대다
more inclusive포함한 training훈련 sets세트.
134
436351
3765
우리는 또한 더욱 포용적인 연습 세트를
만들기 시작할 수 있어요.
07:32
Imagine상상해 보라. a "Selfies셀카 for Inclusion포함" campaign운동
135
440140
2803
"포괄적인 셀카" 캠페인을
상상해 보세요.
07:34
where you and I can help
developers개발자 test테스트 and create몹시 떠들어 대다
136
442967
3655
여러분과 제가 더욱 포용적인
연습 세트를 만드는 데
07:38
more inclusive포함한 training훈련 sets세트.
137
446646
2093
셀카를 보내면서
도움을 줄 수 있는 거예요.
07:41
And we can also또한 start스타트 thinking생각
more conscientiously양심적으로
138
449302
2828
그리고 우리가 개발하는 기술의
사회적 영향에 대해
07:44
about the social사회적인 impact충격
of the technology과학 기술 that we're developing개발 중.
139
452154
5391
보다 양심적으로 생각할 수 있어요.
07:49
To get the incoding코딩 movement운동 started시작한,
140
457569
2393
인코딩 운동을 시작하기 위해서
07:51
I've launched시작한 the Algorithmic알고리즘
Justice정의 League리그,
141
459986
2847
저는 알고리즘 정의 연합을 창설했어요.
07:54
where anyone누군가 who cares걱정하다 about fairness공평
can help fight싸움 the coded코드화 된 gaze응시하다.
142
462857
5872
공정함을 중요시 여기는 사람 누구든
'코딩된 시선'에 맞서 싸우는 걸 도와줍니다.
codedgaze.com에서
편견을 보고하거나
08:00
On codedgaze코딩 된 유령.comcom, you can report보고서 bias바이어스,
143
468753
3296
검사를 요청하거나
테스터가 될 수 있으며
08:04
request의뢰 audits감사, become지다 a tester시험 장치
144
472073
2445
08:06
and join어울리다 the ongoing전진 conversation대화,
145
474542
2771
진행되는 대화에 참여할 수도 있어요.
08:09
#codedgaze코딩 된 유령.
146
477337
2287
해시태그 codedgaze입니다.
08:12
So I invite초대 you to join어울리다 me
147
480742
2487
그래서 저는 여러분이 저와 함께
08:15
in creating창조 a world세계 where technology과학 기술
works공장 for all of us,
148
483253
3719
기술이 일부만이 아닌
모두를 위해 쓰이는 세상을
08:18
not just some of us,
149
486996
1897
08:20
a world세계 where we value inclusion포함
and center센터 social사회적인 change변화.
150
488917
4588
포용성을 중요시여기고 사회적 변화를
중시하는 세상을 만드는데 동참하셨으면 합니다.
08:25
Thank you.
151
493529
1175
감사합니다.
08:26
(Applause박수 갈채)
152
494728
4271
(박수)
08:32
But I have one question문제:
153
500873
2854
하지만 여러분에게 질문이 하나 있어요.
08:35
Will you join어울리다 me in the fight싸움?
154
503751
2059
여러분은 이 싸움에 동참하실 건가요?
08:37
(Laughter웃음)
155
505834
1285
(웃음)
08:39
(Applause박수 갈채)
156
507143
3687
(박수)
Translated by HASTSanggyu Lee
Reviewed by Gichung Lee

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com