ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Džoj Bulamvini (Joy Buolamwini): Kako se borim protiv pristrasnosti u algoritmima

Filmed:
1,223,943 views

Postdiplomac MIT-a, Džoj Bulamvini, je radila sa softverom za prepoznavanje lica kada je primetila problem. Softver nije prepoznavao njeno lice, jer ljudi koji su kodirali algoritam ga nisu naučili da identifikuje širok spektar boja kože i struktura lica. Sada je na misiji da se bori protiv pristrasnosti u mašinskom učenju, pojave koju naziva „kodirani pogled“. Radi se o govoru koji širi vidike, o potrebi za odgovornošću u kodiranju dok algoritmi ovladavaju sve većim brojem aspekata u našem životu.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloZdravo, I'm JoyRadost, a poetpesnik of codeкод,
0
1041
3134
Zdravo, ja sam Džoj, pesnikinja kodova,
na misiji da zaustavim
neviđenu silu u usponu,
00:16
on a missionмисија to stop
an unseennevidljiva forceсила that's risingу порасту,
1
4199
4993
00:21
a forceсила that I calledпозвани "the codedkodiran gazepogled,"
2
9216
2856
silu koju nazivam „kodirani pogled“,
00:24
my termтермина for algorithmicAlgoritamski biasсклоност.
3
12096
3309
što je moj termin
za algoritamsku pristrasnost.
Algoritamska pristrasnost, kao i ljudska,
ima za posledicu nepravednost.
00:27
AlgorithmicAlgoritamski biasсклоност, like humanљудско biasсклоност,
resultsрезултате in unfairnessnepravde.
4
15429
4300
00:31
HoweverMeđutim, algorithmsалгоритми, like virusesвируси,
can spreadширити biasсклоност on a massiveмасивни scaleСкала
5
19753
6022
Međutim, algoritmi, poput virusa,
mogu raširiti pristrasnost u ogromnoj meri
00:37
at a rapidбрзо paceтемпо.
6
25799
1582
velikom brzinom.
00:39
AlgorithmicAlgoritamski biasсклоност can alsoтакође leadолово
to exclusionaryurođene experiencesискуства
7
27943
4387
Algoritamska pristrasnost može dovesti
i do izloženosti isključivanju
00:44
and discriminatorydiskriminatoran practicesprakse.
8
32354
2128
i prakse diskriminacije.
00:46
Let me showсхов you what I mean.
9
34506
2061
Dozvolite da vam pokažem
šta hoću da kažem.
00:48
(VideoVideo zapis) JoyRadost BuolamwiniBuolamwini: HiZdravo, cameraКамера.
I've got a faceлице.
10
36980
2436
(Video) Džoj Buolamvini:
Zdravo, kamero. Imam lice.
00:52
Can you see my faceлице?
11
40162
1864
Možeš li da vidiš moje lice?
00:54
No-glassesNe-naočare faceлице?
12
42051
1625
Lice bez naočara?
00:55
You can see her faceлице.
13
43701
2214
Možeš videti njeno lice.
A moje?
00:58
What about my faceлице?
14
46237
2245
01:03
I've got a maskмаска. Can you see my maskмаска?
15
51890
3750
Imam masku. Možeš li da vidiš moju masku?
01:08
JoyRadost BuolamwiniBuolamwini: So how did this happenдесити се?
16
56474
2365
Džoj Buolamvini: Pa, kako se ovo dogodilo?
01:10
Why am I sittingседење in frontфронт of a computerрачунар
17
58863
3141
Zašto sedim ispred kompjutera
01:14
in a whiteбео maskмаска,
18
62028
1424
sa belom maskom,
01:15
tryingпокушавајући to be detectedotkriven je by a cheapјефтино webcamWeb kamera?
19
63476
3650
pokušavajući da me prepozna
jeftina kamera?
01:19
Well, when I'm not fightingборбе the codedkodiran gazepogled
20
67150
2291
Kada se ne borim protiv kodiranog pogleda
01:21
as a poetpesnik of codeкод,
21
69465
1520
kao pesnikinja kodova,
01:23
I'm a graduateдипломирани studentученик
at the MITMIT-A MediaMediji LabLaboratorija,
22
71009
3272
postdiplomac sam
medijske laboratorije MIT-a
01:26
and there I have the opportunityприлика to work
on all sortsсортс of whimsicalneobične projectsпројеката,
23
74305
4917
i tamo imam priliku da radim
na raznim neobičnim projektima,
01:31
includingукључујући the AspireTeže MirrorOgledalo,
24
79246
2027
uključujući „Ogledalo aspiracije“,
projekat koji sam sprovela
01:33
a projectпројекат I did so I could projectпројекат
digitalдигитални masksmaske ontoна my reflectionрефлексија.
25
81297
5134
tako da mogu da projektujem
digitalne maske na svoj odraz.
Tako bih ujutru,
ako želim da se osećam snažno,
01:38
So in the morningјутро, if I wanted
to feel powerfulмоћан,
26
86455
2350
mogla da stavim lava.
01:40
I could put on a lionLav.
27
88829
1434
Ako bih htela da podignem raspoloženje,
možda bih dobila citat.
01:42
If I wanted to be uplifteduzdignuto,
I mightМожда have a quoteкуоте.
28
90287
3496
Koristila sam generički softver
za prepoznavanje lica
01:45
So I used genericопшти
facialtretman lica recognitionпризнање softwareсофтвер
29
93807
2989
da bih napravila sistem,
01:48
to buildизградити the systemсистем,
30
96820
1351
ali sam otkrila da ga je teško testirati
ukoliko ne nosim belu masku.
01:50
but foundнашао it was really hardтешко to testтест it
unlessосим ако не I woreносио a whiteбео maskмаска.
31
98195
5103
01:56
UnfortunatelyNa žalost, I've runтрцати
into this issueпитање before.
32
104282
4346
Nažalost, već sam ranije nailazila
na ovaj problem.
Kada sam bila na osnovnim studijama
na Tehnološkom institutu u Džordžiji,
02:00
When I was an undergraduateosnovne
at GeorgiaGruzija TechTehnički studyingстудирање computerрачунар scienceНаука,
33
108652
4303
gde sam studirala informatiku,
02:04
I used to work on socialсоцијално robotsроботи,
34
112979
2055
radila sam na društvenim robotima,
02:07
and one of my tasksзадатке was to get a robotробот
to playигра peek-a-booa pogodi,
35
115058
3777
a jedan od mojih zadataka je bio
da navedem robota da se igra skrivanja,
02:10
a simpleједноставно turn-takingred i polaganja gameигра
36
118859
1683
jednostavne igre menjanja uloga
02:12
where partnersпартнери coverпоклопац theirњихова faceлице
and then uncoverOtkrijte it sayingговорећи, "Peek-a-booA pogodi!"
37
120566
4321
u kojoj partneri pokrivaju lice,
a zatim ga otkriju i kažu: „Uja!“
02:16
The problemпроблем is, peek-a-booa pogodi
doesn't really work if I can't see you,
38
124911
4429
Problem je što igra skrivanja
ne funkcioniše ako ne mogu da vas vidim,
02:21
and my robotробот couldn'tније могао see me.
39
129364
2499
a moj robot nije mogao da me vidi.
02:23
But I borrowedPosudio my roommate'scimer je faceлице
to get the projectпројекат doneГотово,
40
131887
3950
No, pozajmila sam lice svoje cimerke
da bih završila projekat,
02:27
submittedpredao the assignmentдодељивање,
41
135861
1380
predala sam zadatak,
02:29
and figuredфигуред, you know what,
somebodyнеко elseдруго will solveреши this problemпроблем.
42
137265
3753
i mislila sam: „Znate šta,
neko drugi će rešiti ovaj problem.“
02:33
Not too long after,
43
141669
2003
Nedugo potom,
02:35
I was in HongHong KongKong
for an entrepreneurshippreduzetništvo competitionконкуренција.
44
143696
4159
bila sam u Hongkongu
na takmičenju preduzetnika.
02:40
The organizersOrganizatori decidedодлучио
to take participantsучесника
45
148339
2694
Organizatori su rešili da povedu učesnike
02:43
on a tourтурнеја of localлокално start-upsizgredima.
46
151057
2372
u obilazak lokalnih startapova.
Jedan od startapova
imao je društvenog robota
02:45
One of the start-upsizgredima had a socialсоцијално robotробот,
47
153453
2715
02:48
and they decidedодлучио to do a demodemo.
48
156192
1912
i rešili su da naprave demonstraciju.
02:50
The demodemo workedрадио је on everybodyсвима
untilсве док it got to me,
49
158128
2980
Demonstracija je radila kod svih
dok nisu stigli do mene
i možete verovatno pretpostaviti
šta se dogodilo.
02:53
and you can probablyвероватно guessпретпостављам it.
50
161132
1923
02:55
It couldn'tније могао detectоткрити my faceлице.
51
163079
2965
Nije mogao da prepozna moje lice.
02:58
I askedпитао the developersпрограмери what was going on,
52
166068
2511
Pitala sam programere šta se dešava
i ispostavilo se da smo koristili
isti generički softver prepoznavanja lica.
03:00
and it turnedокренуо се out we had used the sameисти
genericопшти facialtretman lica recognitionпризнање softwareсофтвер.
53
168603
5533
03:06
HalfwayNa pola puta around the worldсвет,
54
174160
1650
Preko pola sveta,
03:07
I learnedнаучио that algorithmicAlgoritamski biasсклоност
can travelпутовање as quicklyбрзо
55
175834
3852
saznala sam da algoritamska pristrasnost
može putovati toliko brzo
03:11
as it takes to downloadпреузимање
some filesdatoteka off of the internetинтернет.
56
179710
3170
koliko treba da se skine
nešto fajlova sa interneta.
Pa, šta se dešava?
Zašto se moje lice ne prepoznaje?
03:15
So what's going on?
Why isn't my faceлице beingбиће detectedotkriven je?
57
183745
3076
Pa, moramo pogledati
kako mašini dajemo vid.
03:18
Well, we have to look
at how we give machinesмашине sightвид.
58
186845
3356
Kompjuterski vid koristi
tehnike mašinskog učenja
03:22
ComputerKompjuter visionвизија usesкористи
machineмашина learningучење techniquesтехнике
59
190225
3409
da bi prepoznao lica.
03:25
to do facialtretman lica recognitionпризнање.
60
193658
1880
To funkcioniše tako što napravite
komplet za vežbanje sa primerima lica.
03:27
So how this worksИзвођење радова is, you createстворити
a trainingобука setкомплет with examplesпримери of facesлица.
61
195562
3897
Ovo je lice. Ovo je lice. Ovo nije lice.
03:31
This is a faceлице. This is a faceлице.
This is not a faceлице.
62
199483
2818
Vremenom možete naučiti kompjuter
kako da prepoznaje druga lica.
03:34
And over time, you can teachнаучити a computerрачунар
how to recognizeпрепознати other facesлица.
63
202325
4519
Međutim, ako kompleti za vežbanje
baš i nisu tako raznovrsni,
03:38
HoweverMeđutim, if the trainingобука setsсетови
aren'tнису really that diverseразнолика,
64
206868
3989
svako lice koje previše odstupa
od uspostavljene norme
03:42
any faceлице that deviatesodstupa too much
from the establishedуспостављен normнорма
65
210881
3349
biće teže da se prepozna,
03:46
will be harderтеже to detectоткрити,
66
214254
1649
a to je ono što se događa sa mnom.
03:47
whichкоја is what was happeningдогађај to me.
67
215927
1963
Ali ne brinite, ima dobrih vesti.
03:49
But don't worryзабринути -- there's some good newsвести.
68
217914
2382
Kompleti za vežbanje
ne dolaze tek tako niotkuda.
03:52
TrainingObuka setsсетови don't just
materializematerijalizuju out of nowhereНигде.
69
220320
2771
Možemo ih stvoriti.
03:55
We actuallyзаправо can createстворити them.
70
223115
1788
Postoji mogućnost za stvaranje
kompleta za vežbu celokupnog spektra
03:56
So there's an opportunityприлика to createстворити
full-spectrumpunog spektra trainingобука setsсетови
71
224927
4176
koji odražavaju
bogatiji portret čovečanstva.
04:01
that reflectодразити a richerбогатији
portraitпортрет of humanityчовечанство.
72
229127
3824
Videli ste u mojim primerima
04:04
Now you've seenвиђено in my examplesпримери
73
232975
2221
da sam preko društvenih robota
04:07
how socialсоцијално robotsроботи
74
235220
1768
04:09
was how I foundнашао out about exclusionискључивање
with algorithmicAlgoritamski biasсклоност.
75
237012
4611
saznala za isključivanje
kroz algoritamsku pristrasnost.
04:13
But algorithmicAlgoritamski biasсклоност can alsoтакође leadолово
to discriminatorydiskriminatoran practicesprakse.
76
241647
4815
Ali algoritamska pristrasnost
može dovesti i do prakse diskriminacije.
04:19
AcrossPreko the US,
77
247437
1453
Širom SAD-a,
04:20
policeполиција departmentsодељења are startingпочевши to use
facialtretman lica recognitionпризнање softwareсофтвер
78
248914
4198
policijske uprave počinju da koriste
softver za prepoznavanje lica
04:25
in theirњихова crime-fightingborbu protiv kriminala arsenalArsenal.
79
253136
2459
u svom arsenalu za borbu protiv kriminala.
04:27
GeorgetownGeorgetown LawZakon publishedобјављен a reportизвештај
80
255619
2013
Zakon Džordžtauna je objavio izveštaj
04:29
showingпоказивање that one in two adultsодрасли
in the US -- that's 117 millionмилиона people --
81
257656
6763
koji pokazuje da se jednoj
od dve odrasle osobe u SAD-u -
to je 117 miliona ljudi -
04:36
have theirњихова facesлица
in facialtretman lica recognitionпризнање networksмреже.
82
264443
3534
lice nalazi u mrežama
za prepoznavanje lica.
04:40
PolicePolicija departmentsодељења can currentlyтренутно look
at these networksмреже unregulatedneregulisana,
83
268001
4552
Odeljenja policije trenutno mogu
da neregulisano pregledaju ove mreže,
04:44
usingКористећи algorithmsалгоритми that have not
been auditedrevizije for accuracyтачност.
84
272577
4286
pomoću algoritama
kojima nije proverena tačnost.
04:48
YetJoš we know facialtretman lica recognitionпризнање
is not failпропасти proofдоказ,
85
276887
3864
Znamo da prepoznavanje lica nije bez mane,
04:52
and labelingoznačavanju facesлица consistentlykonstantno
remainsостаје a challengeизазов.
86
280775
4179
a naznačavanje lica stalno ostaje izazov.
04:56
You mightМожда have seenвиђено this on FacebookFacebook.
87
284978
1762
Možda ste to videli na Fejsbuku.
04:58
My friendsпријатељи and I laughсмех all the time
when we see other people
88
286764
2988
Moji prijatelji i ja se uvek smejemo
kad vidimo druge ljude
05:01
mislabeledpogrešno piše in our photosфотографије.
89
289776
2458
koji su pogrešno označeni
na našim fotografijama.
05:04
But misidentifyingmisidentifying a suspectedсумњиво criminalкриминал
is no laughingсмејати се matterматерија,
90
292258
5591
Ali pogrešno identifikovanje
osumnjičenog zločinca nije za smejanje,
05:09
norнити is breachingkršenje civilцивилно libertiesslobode.
91
297873
2827
kao ni kršenje građanskih sloboda.
05:12
MachineMašina learningучење is beingбиће used
for facialtretman lica recognitionпризнање,
92
300724
3205
Mašinsko učenje se koristi
za prepoznavanje lica,
05:15
but it's alsoтакође extendingпродужава се beyondизван the realmреалм
of computerрачунар visionвизија.
93
303953
4505
ali se takođe proteže
i van dometa kompjuterskog vida.
05:21
In her bookкњига, "WeaponsOružje
of MathMatematika DestructionUništenje,"
94
309266
4016
U svojoj knjizi „Oružja
za matematičko uništenje“,
05:25
dataподаци scientistнаучник CathyKeti O'NeilO'Nil
talksразговоре about the risingу порасту newново WMDsMasovno uništenje --
95
313306
6681
naučnica u oblasti podataka Keti O'Nil
govori o usponu novih RMD-a,
05:32
widespreadшироко распрострањен, mysteriousмистериозно
and destructivedestruktivni algorithmsалгоритми
96
320011
4353
rasprostranjenih, misterioznih
i destruktivnih algoritama
koji se sve više koriste
za donošenje odluka
05:36
that are increasinglyсве више beingбиће used
to make decisionsОдлуке
97
324388
2964
koje utiču na sve više aspekata
našeg života.
05:39
that impactутицај more aspectsаспекти of our livesживи.
98
327376
3177
Koga će zaposliti ili otpustiti?
05:42
So who getsдобива hiredангажован or firedотпуштен?
99
330577
1870
Da li ćete dobiti taj kredit?
Da li ćete dobiti osiguranje?
05:44
Do you get that loanзајам?
Do you get insuranceосигурање?
100
332471
2112
05:46
Are you admittedпризнао into the collegeколеџ
you wanted to get into?
101
334607
3503
Da li ste primljeni na fakultet
u koji ste želeli da upadnete?
05:50
Do you and I payплатите the sameисти priceЦена
for the sameисти productпроизвод
102
338134
3509
Da li vi i ja plaćamo istu cenu
za isti proizvod
05:53
purchasedкупио on the sameисти platformплатформа?
103
341667
2442
kupljen na istoj platformi?
05:56
LawZakon enforcementизвршење is alsoтакође startingпочевши
to use machineмашина learningучење
104
344133
3759
Sprovođenje zakona takođe počinje
da koristi mašinsko učenje
05:59
for predictivePREDIKTIVNA policingrad policije.
105
347916
2289
za prediktivni rad policije.
06:02
Some judgesсудије use machine-generatedGenerisano mašina
riskризик scoresрезултати to determineодредити
106
350229
3494
Neke sudije koriste
mašinski generisane procene rizika
da bi odredile koliko vremena
će neki pojedinac provesti u zatvoru.
06:05
how long an individualпојединац
is going to spendпотрошити in prisonзатвор.
107
353747
4402
Zato zaista treba da razmislimo
o ovim odlukama.
06:10
So we really have to think
about these decisionsОдлуке.
108
358173
2454
Jesu li pravedne?
06:12
Are they fairфер?
109
360651
1182
A videli smo da algoritamske predrasude
06:13
And we'veми смо seenвиђено that algorithmicAlgoritamski biasсклоност
110
361857
2890
ne dovode nužno uvek do pravednih ishoda.
06:16
doesn't necessarilyнужно always
leadолово to fairфер outcomesисходи.
111
364771
3374
Šta možemo da uradimo u vezi sa time?
06:20
So what can we do about it?
112
368169
1964
Pa, možemo početi da razmišljamo
o tome kako da stvorimo inkluzivniji kod
06:22
Well, we can startпочетак thinkingразмишљање about
how we createстворити more inclusiveинцлусиве codeкод
113
370157
3680
i da upotrebimo inkluzivne
postupke kodiranja.
06:25
and employзапослити inclusiveинцлусиве codingкодирање practicesprakse.
114
373861
2990
To zapravo počinje od ljudi.
06:28
It really startsпочиње with people.
115
376875
2309
Zato je bitno ko kodira.
06:31
So who codesšifre mattersпитања.
116
379708
1961
Da li kreiramo timove celokupnog spektra
sa različitim pojedincima
06:33
Are we creatingстварање full-spectrumpunog spektra teamsтимови
with diverseразнолика individualsпојединци
117
381693
4119
koji mogu da jedno drugome ispitaju
stvari za koje su slepi?
06:37
who can checkпровери eachсваки other'sдруги blindслеп spotsспотови?
118
385836
2411
06:40
On the technicalтехнички sideстрана,
how we codeкод mattersпитања.
119
388271
3545
Sa tehničke strane,
bitno je kako kodiramo.
Da li uzimamo u obzir pravičnost
dok razvijamo sisteme?
06:43
Are we factoringфакторинг in fairnesspravednost
as we're developingразвој systemsсистема?
120
391840
3651
I najzad, bitno je zašto kodiramo.
06:47
And finallyконачно, why we codeкод mattersпитања.
121
395515
2913
Koristili smo alate računarskog stvaranja
da bismo otključali ogromno bogatstvo.
06:50
We'veMoramo used toolsалати of computationalрачунарски creationстварање
to unlockotključavanje immenseогромно wealthбогатство.
122
398785
5083
Sada imamo priliku da otključamo
još veću ravnopravnost
06:55
We now have the opportunityприлика
to unlockotključavanje even greaterвеће equalityједнакост
123
403892
4447
ako učinimo društvene promene prioritetom,
07:00
if we make socialсоцијално changeпромена a priorityприоритет
124
408363
2930
a ne da ih naknadno promišljamo.
07:03
and not an afterthoughtpreostala misao.
125
411317
2170
07:06
And so these are the threeтри tenetsnaиela
that will make up the "incodingincoding" movementпокрет.
126
414008
4522
Dakle, ovo su tri principa
koji će sačinjavati pokret „inkodiranja“.
07:10
Who codesšifre mattersпитања,
127
418554
1652
Bitno je ko kodira,
07:12
how we codeкод mattersпитања
128
420230
1543
kako kodiramo
07:13
and why we codeкод mattersпитања.
129
421797
2023
i zašto kodiramo.
Stoga, da bismo išli u pravcu inkodiranja,
možemo početi da razmišljamo
07:15
So to go towardsка incodingincoding,
we can startпочетак thinkingразмишљање about
130
423844
3099
07:18
buildingзграде platformsплатформе that can identifyидентификовати biasсклоност
131
426967
3164
o izgradnji platforma
koje mogu da identifikuju pristrasnost
07:22
by collectingприкупљање people'sљуди experiencesискуства
like the onesоне I sharedдељени,
132
430155
3078
prikupljanjem iskustava ljudi
poput onih koje sam podelila,
07:25
but alsoтакође auditingnadzor existingпостојећи softwareсофтвер.
133
433257
3070
ali i pregledom postojećeg softvera.
07:28
We can alsoтакође startпочетак to createстворити
more inclusiveинцлусиве trainingобука setsсетови.
134
436351
3765
Takođe možemo početi da stvaramo
inkluzivnije komplete za vežbanje.
07:32
ImagineZamislite a "SelfiesAutoportreta for InclusionUključivanje" campaignкампању
135
440140
2803
Zamislite kampanju „Selfiji za inkluziju“
07:34
where you and I can help
developersпрограмери testтест and createстворити
136
442967
3655
u kojoj vi i ja možemo pomoći
programerima da testiraju i naprave
inkluzivnije komplete za vežbanje.
07:38
more inclusiveинцлусиве trainingобука setsсетови.
137
446646
2093
07:41
And we can alsoтакође startпочетак thinkingразмишљање
more conscientiouslysavesno
138
449302
2828
Takođe možemo početi
da savesnije razmišljamo
07:44
about the socialсоцијално impactутицај
of the technologyтехнологија that we're developingразвој.
139
452154
5391
o društvenom uticaju
tehnologije koju razvijamo.
07:49
To get the incodingincoding movementпокрет startedпочела,
140
457569
2393
Da bih otpočela pokret inkodiranja,
07:51
I've launchedлансиран the AlgorithmicAlgoritamski
JusticePravda LeagueLiga,
141
459986
2847
pokrenula sam Ligu za algoritamsku pravdu,
07:54
where anyoneбило ко who caresбрине about fairnesspravednost
can help fightборба the codedkodiran gazepogled.
142
462857
5872
gde svako ko se brine o pravičnosti
može pomoći u borbi
protiv kodiranog pogleda.
08:00
On codedgazecodedgaze.comцом, you can reportизвештај biasсклоност,
143
468753
3296
Na codedgaze.com
možete prijaviti pristrasnost,
08:04
requestzahtev auditsrevizije, becomeпостати a testerтестер
144
472073
2445
zatražiti proveru, postati tester
08:06
and joinпридружити the ongoingу току, сталан conversationразговор,
145
474542
2771
i pridružiti se aktuelnom razgovoru,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I inviteпозовите you to joinпридружити me
147
480742
2487
Pozivam vas da mi se pridružite
u stvaranju sveta
u kome tehnologija radi za sve nas,
08:15
in creatingстварање a worldсвет where technologyтехнологија
worksИзвођење радова for all of us,
148
483253
3719
a ne samo za neke od nas,
08:18
not just some of us,
149
486996
1897
sveta u kome cenimo inkluziju
i stavljamo u središte društvene promene.
08:20
a worldсвет where we valueвредност inclusionукључивање
and centerцентар socialсоцијално changeпромена.
150
488917
4588
Hvala.
08:25
Thank you.
151
493529
1175
(Aplauz)
08:26
(ApplauseAplauz)
152
494728
4271
08:32
But I have one questionпитање:
153
500873
2854
Ali imam jedno pitanje.
08:35
Will you joinпридружити me in the fightборба?
154
503751
2059
Hoćete li mi se pridružiti u borbi?
08:37
(LaughterSmeh)
155
505834
1285
(Smeh)
08:39
(ApplauseAplauz)
156
507143
3687
(Aplauz)
Translated by Ivana Krivokuća
Reviewed by Tijana Mihajlović

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com