ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Så kämpar jag mot partiska algoritmer

Filmed:
1,223,943 views

MIT-doktoranden Joy Buolamwini jobbade med mjukvara för ansiktsigenkänning när hon upptäckte ett problem: mjukvaran upptäckte inte hennes ansikte - eftersom de personer som kodade algoritmerna inte hade tänkt på att de behövde upptäcka olika hudtoner och ansiktsstrukturer. Nu är hon på ett uppdrag för att slåss mot fördomar i maskininlärning, ett fenomen hon kallar "den kodade blicken." Det här är ett ögonöppnande föredrag kring nödvändigheten av att koden är tillförlitlig ... eftersom algoritmerna tar över fler och fler aspekter av våra liv.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloHej, I'm JoyJoy, a poetpoeten of codekoda,
0
1041
3134
Hej, jag är Joy, jag är poet i kod,
00:16
on a missionuppdrag to stop
an unseenosedda forcetvinga that's risingstigande,
1
4199
4993
med uppdrag att stoppa
en osynlig kraft som vaknat,
00:21
a forcetvinga that I calledkallad "the codedkodade gazeblicken,"
2
9216
2856
en kraft som jag kallar
"den kodade blicken,"
00:24
my termtermin for algorithmicalgoritmisk biaspartiskhet.
3
12096
3309
min term för fördomar i algoritmer.
00:27
AlgorithmicAlgoritmisk biaspartiskhet, like humanmänsklig biaspartiskhet,
resultsresultat in unfairnessunfairness.
4
15429
4300
Algoritmiska fördomar, precis som
mänskliga, resulterar i orättvisa.
00:31
HoweverEmellertid, algorithmsalgoritmer, like virusesvirus,
can spreadspridning biaspartiskhet on a massivemassiv scaleskala
5
19753
6022
Men, algoritmer kan, precis som virus,
sprida fördomar i stor skala
00:37
at a rapidsnabb pacetakt.
6
25799
1582
och i snabb takt.
00:39
AlgorithmicAlgoritmisk biaspartiskhet can alsoockså leadleda
to exclusionaryutestängande experiencesupplevelser
7
27943
4387
Fördomar i algoritmer kan också
leda till att människor sållas bort
00:44
and discriminatorydiskriminerande practicesmetoder.
8
32354
2128
och till diskriminerande praxis.
00:46
Let me showshow you what I mean.
9
34506
2061
Låt mig visa vad jag menar.
00:48
(VideoVideo) JoyJoy BuolamwiniBuolamwini: HiHej, camerakamera.
I've got a faceansikte.
10
36980
2436
(Video) Joy Buolamwini: Hej, kamera.
Jag har ett ansikte.
00:52
Can you see my faceansikte?
11
40162
1864
Kan du se mitt ansikte?
00:54
No-glassesNr-glasögon faceansikte?
12
42051
1625
Utan glasögon?
00:55
You can see her faceansikte.
13
43701
2214
Du kan se hennes ansikte.
00:58
What about my faceansikte?
14
46237
2245
Mitt ansikte då?
01:03
I've got a maskmask. Can you see my maskmask?
15
51890
3750
Jag har en mask. Kan du se min mask?
01:08
JoyJoy BuolamwiniBuolamwini: So how did this happenhända?
16
56474
2365
Joy Buolamwini: Hur hände det här?
01:10
Why am I sittingSammanträde in frontfrämre of a computerdator
17
58863
3141
Varför sitter jag framför en dator
01:14
in a whitevit maskmask,
18
62028
1424
med en vit mask,
01:15
tryingpåfrestande to be detectedupptäckt by a cheapbillig webcamWebbkamera?
19
63476
3650
och försöker få en billig webbkamera
att upptäcka mig?
01:19
Well, when I'm not fightingstridande the codedkodade gazeblicken
20
67150
2291
Jo, när jag inte slåss
mot den kodade blicken,
01:21
as a poetpoeten of codekoda,
21
69465
1520
som en poet i kod,
01:23
I'm a graduateexamen studentstuderande
at the MITMIT MediaMedia LabLab,
22
71009
3272
är jag doktorand på MIT Media Lab,
01:26
and there I have the opportunitymöjlighet to work
on all sortssorterar of whimsicalnyckfull projectsprojekt,
23
74305
4917
och där har jag möjlighet att arbeta
i en massa egendomliga projekt,
01:31
includingInklusive the AspireAspire MirrorSpegel,
24
79246
2027
inklusive Aspire Mirror,
01:33
a projectprojekt I did so I could projectprojekt
digitaldigital masksmasker ontotill my reflectionreflexion.
25
81297
5134
ett projekt jag startade för att projicera
digitala masker på min spegelbild.
01:38
So in the morningmorgon-, if I wanted
to feel powerfulkraftfull,
26
86455
2350
Så på morgonen,
när jag ville känna mig stark,
01:40
I could put on a lionlejon.
27
88829
1434
kunde jag projicera ett lejon,
01:42
If I wanted to be upliftedupplyft,
I mightmakt have a quoteCitat.
28
90287
3496
Om jag ville peppa mig själv,
projicerade jag kanske ett citat.
01:45
So I used genericgenerisk
facialansiktsbehandling recognitionerkännande softwareprogramvara
29
93807
2989
Jag använde mjukvara för
generisk ansiktsigenkänning
01:48
to buildbygga the systemsystemet,
30
96820
1351
för att bygga systemet,
01:50
but foundhittades it was really hardhård to testtesta it
unlesssåvida inte I worebar a whitevit maskmask.
31
98195
5103
men upptäckte att det var väldigt svårt
att testa om jag inte bar en vit mask.
01:56
UnfortunatelyTyvärr, I've runspringa
into this issueproblem before.
32
104282
4346
Tyvärr har jag upplevt
det här bekymret tidigare.
02:00
When I was an undergraduategrundutbildning
at GeorgiaGeorgien TechTech studyingstuderar computerdator sciencevetenskap,
33
108652
4303
När jag studerade datavetenskap på
Georgia Institute of Technology,
02:04
I used to work on socialsocial robotsrobotar,
34
112979
2055
brukade jag arbeta med mänskliga robotar,
02:07
and one of my tasksuppgifter was to get a robotrobot
to playspela peek-a-booPeek-a-boo,
35
115058
3777
och en av mina uppgifter var
att få roboten att leka tittut,
02:10
a simpleenkel turn-takingtur-ta gamespel
36
118859
1683
en enkel lek mellan två personer
02:12
where partnerspartners coveromslag theirderas faceansikte
and then uncoveravslöja it sayingsäger, "Peek-a-booPeek-a-boo!"
37
120566
4321
där man täcker sina ansikten och
sedan visar dem och säger "Tittut!"
02:16
The problemproblem is, peek-a-booPeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
Problemet är att tittut inte fungerar
om man inte ser varandra,
02:21
and my robotrobot couldn'tkunde inte see me.
39
129364
2499
och min robot kunde inte se mig.
02:23
But I borrowedlånade my roommate'skamrats faceansikte
to get the projectprojekt doneGjort,
40
131887
3950
Men jag lånade min rumskamrats ansikte
för att göra klart projektet,
02:27
submittedläggs upp the assignmentuppdrag,
41
135861
1380
lämnade in uppgiften,
02:29
and figuredfigured, you know what,
somebodynågon elseannan will solvelösa this problemproblem.
42
137265
3753
och tänkte, vet ni vad,
någon annan kommer att lösa problemet.
02:33
Not too long after,
43
141669
2003
Inte så långt därefter,
02:35
I was in HongHong KongKong
for an entrepreneurshipentreprenörskap competitionkonkurrens.
44
143696
4159
var jag i Hong Kong och deltog i
en tävling för entreprenörer.
02:40
The organizersarrangörer decidedbestämt
to take participantsdeltagare
45
148339
2694
Organisatörerna tog med deltagarna
02:43
on a tourtur of locallokal start-upsnystartade företag.
46
151057
2372
på en rundtur bland
lokala startup-företag.
02:45
One of the start-upsnystartade företag had a socialsocial robotrobot,
47
153453
2715
Ett av dessa hade en mänsklig robot,
02:48
and they decidedbestämt to do a demodemo.
48
156192
1912
och de ville köra en demo.
02:50
The demodemo workedarbetade on everybodyalla
untilfram tills it got to me,
49
158128
2980
Demon fungerade på alla
tills den kom till mig,
02:53
and you can probablyförmodligen guessgissa it.
50
161132
1923
och ni kan säkert gissa varför.
02:55
It couldn'tkunde inte detectupptäcka, detektera my faceansikte.
51
163079
2965
Den kunde inte upptäcka mitt ansikte.
02:58
I askedfrågade the developersutvecklare what was going on,
52
166068
2511
Jag frågade utvecklarna vad som hänt,
03:00
and it turnedvände out we had used the samesamma
genericgenerisk facialansiktsbehandling recognitionerkännande softwareprogramvara.
53
168603
5533
och det visade sig att de använt samma
mjukvara för ansiktsigenkänning som jag.
03:06
HalfwayHalvvägs around the worldvärld,
54
174160
1650
På andra sidan jordklotet,
03:07
I learnedlärt mig that algorithmicalgoritmisk biaspartiskhet
can travelresa as quicklysnabbt
55
175834
3852
lärde jag mig att fördomsfulla algoritmer
kan färdas lika snabbt
03:11
as it takes to downloadladda ner
some filesfiler off of the internetinternet.
56
179710
3170
som det tar att ladda ner
några filer från internet.
03:15
So what's going on?
Why isn't my faceansikte beingvarelse detectedupptäckt?
57
183745
3076
Vad är det som pågår?
Varför upptäcks inte mitt ansikte?
03:18
Well, we have to look
at how we give machinesmaskiner sightsyn.
58
186845
3356
Jo, vi måste titta på hur
vi ger maskinerna syn.
03:22
ComputerDator visionsyn usesanvändningar
machinemaskin learninginlärning techniquestekniker
59
190225
3409
Datorigenkänning använder
maskininlärningsteknik
03:25
to do facialansiktsbehandling recognitionerkännande.
60
193658
1880
för att känna igen ansikten.
03:27
So how this worksArbetar is, you createskapa
a trainingutbildning setuppsättning with examplesexempel of facesansikten.
61
195562
3897
Så här fungerar det, du skapar en modell
med exempel på olika ansikten.
03:31
This is a faceansikte. This is a faceansikte.
This is not a faceansikte.
62
199483
2818
Här är ett ansikte, och ett till.
Detta är inte ett ansikte.
03:34
And over time, you can teachlära a computerdator
how to recognizeerkänna other facesansikten.
63
202325
4519
Över tid, kan du lära datorn
att upptäcka andra ansikten.
03:38
HoweverEmellertid, if the trainingutbildning setsuppsättningar
aren'tinte really that diverseolika,
64
206868
3989
Men, om modellen inte speglar
mångfalden tillräckligt mycket,
03:42
any faceansikte that deviatesavviker too much
from the establishedEtablerade normnorm
65
210881
3349
kommer ansikten som skiljer sig för mycket
från den fastställda normen
03:46
will be harderhårdare to detectupptäcka, detektera,
66
214254
1649
bli svårare att upptäcka,
03:47
whichsom is what was happeninghappening to me.
67
215927
1963
vilket var det som hände mig.
03:49
But don't worryoroa -- there's some good newsNyheter.
68
217914
2382
Men oroa er inte -
det finns något gott i det.
03:52
TrainingUtbildning setsuppsättningar don't just
materializeMaterialisera out of nowhereingenstans.
69
220320
2771
Träningsmodellerna kommer inte
från ingenstans.
03:55
We actuallyfaktiskt can createskapa them.
70
223115
1788
Vi kan faktiskt skapa dem.
03:56
So there's an opportunitymöjlighet to createskapa
full-spectrumFull-spektrum trainingutbildning setsuppsättningar
71
224927
4176
Det finns möjligheter
att skapa heltäckande modeller
04:01
that reflectreflektera a richerrikare
portraitporträtt of humanitymänskligheten.
72
229127
3824
som skapar en djupare bild
av mänskligheten.
04:04
Now you've seensett in my examplesexempel
73
232975
2221
Som ni sett i mina exempel
04:07
how socialsocial robotsrobotar
74
235220
1768
var mänskliga robotar anledningen
04:09
was how I foundhittades out about exclusionuteslutning
with algorithmicalgoritmisk biaspartiskhet.
75
237012
4611
till att jag upptäckte exkluderingen
med fördomsfulla algoritmer.
04:13
But algorithmicalgoritmisk biaspartiskhet can alsoockså leadleda
to discriminatorydiskriminerande practicesmetoder.
76
241647
4815
Men fördomar i algoritmer kan också
leda till diskriminerande normer.
04:19
AcrossÖver the US,
77
247437
1453
Över hela USA,
04:20
policepolis departmentsavdelningar are startingstartande to use
facialansiktsbehandling recognitionerkännande softwareprogramvara
78
248914
4198
har polismyndigheterna börjat använda
mjukvara för ansiktsigenkänning
04:25
in theirderas crime-fightingbrottsbekämpning arsenalArsenal.
79
253136
2459
som ett bland andra redskap
för brottsbekämpning.
04:27
GeorgetownGeorgetown LawLag publishedpublicerat a reportrapportera
80
255619
2013
Georgetown Law publicerade en rapport
04:29
showingsom visar that one in two adultsvuxna
in the US -- that's 117 millionmiljon people --
81
257656
6763
som visade att varannan vuxen i USA -
det är 117 miljoner människor -
04:36
have theirderas facesansikten
in facialansiktsbehandling recognitionerkännande networksnät.
82
264443
3534
har sina ansikten registrerade
i nätverk för ansiktsigenkänning.
04:40
PolicePolisen departmentsavdelningar can currentlyför närvarande look
at these networksnät unregulatedoreglerade,
83
268001
4552
Polisyndigheterna kan använda
de här nätverken helt oreglerat,
04:44
usinganvänder sig av algorithmsalgoritmer that have not
been auditedgranskade for accuracynoggrannhet.
84
272577
4286
genom att använda algoritmer
vars tillförlitlighet inte granskats.
04:48
YetÄnnu we know facialansiktsbehandling recognitionerkännande
is not failmisslyckas proofbevis,
85
276887
3864
Trots att vi vet att ansiktsigenkänning
inte är tillförlitlig,
04:52
and labelingmärkning facesansikten consistentlykonsekvent
remainsresterna a challengeutmaning.
86
280775
4179
och att kunna kategorisera ansikten
fortfarande är en utmaning.
04:56
You mightmakt have seensett this on FacebookFacebook.
87
284978
1762
Du har kanske sett det på Facebook.
04:58
My friendsvänner and I laughskratt all the time
when we see other people
88
286764
2988
Mina vänner och jag
skrattar varje gång vi ser andra
05:01
mislabeledfelmÀrkta in our photosfoton.
89
289776
2458
som blivit felaktigt taggade
i våra bilder.
05:04
But misidentifyingatt felaktigt tolkas a suspectedmisstänkt criminalkriminell
is no laughingskrattande mattermateria,
90
292258
5591
Men att felaktigt identifiera en misstänkt
kriminell är inget att skratta åt,
05:09
norinte heller is breachingbryter mot civilcivil libertiesfri-och rättigheter.
91
297873
2827
inte heller att åsidosätta
de mänskliga rättigheterna.
05:12
MachineMaskin learninginlärning is beingvarelse used
for facialansiktsbehandling recognitionerkännande,
92
300724
3205
Maskininlärning används
för ansiktsigenkänning,
05:15
but it's alsoockså extendingsträcker beyondbortom the realmrike
of computerdator visionsyn.
93
303953
4505
men den används också inom andra områden.
05:21
In her bookbok, "WeaponsVapen
of MathMatematik DestructionFörstörelse,"
94
309266
4016
I boken "Weapons of Math Destruction,"
05:25
datadata scientistforskare CathyCathy O'NeilO'Neil
talkssamtal about the risingstigande newny WMDsMassförstörelsevapen --
95
313306
6681
skriver forskaren Cathy O´Neil
om de framväxande UMD:na -
05:32
widespreadutbredd, mysteriousmystisk
and destructivedestruktiva algorithmsalgoritmer
96
320011
4353
utbredda, mystiska och
destruktiva algoritmer
05:36
that are increasinglyalltmer beingvarelse used
to make decisionsbeslut
97
324388
2964
som i ökande utsträckning
används för att ta beslut
05:39
that impactinverkan more aspectsaspekter of our livesliv.
98
327376
3177
som påverkar fler och fler
aspekter i våra liv.
05:42
So who getsblir hiredanlitade or firedsparken?
99
330577
1870
Vem blir anställd eller sparkad?
05:44
Do you get that loanlån?
Do you get insuranceförsäkring?
100
332471
2112
Får du ta lån?
Får du teckna försäkringar?
05:46
Are you admittedmedgav into the collegehögskola
you wanted to get into?
101
334607
3503
Kommer du in på det universitet du vill?
05:50
Do you and I paybetala the samesamma pricepris
for the samesamma productprodukt
102
338134
3509
Betalar du och jag samma pris
för samma produkt
05:53
purchasedköpt on the samesamma platformplattform?
103
341667
2442
köpt på samma sätt?
05:56
LawLag enforcementtillämpning is alsoockså startingstartande
to use machinemaskin learninginlärning
104
344133
3759
Lagstiftningen börjar också
använda maskininlärning
05:59
for predictiveprediktiva policingpolisarbete.
105
347916
2289
i förebyggande polisarbete.
06:02
Some judgesdomare use machine-generatedmaskingenererade
riskrisk scorespoäng to determinebestämma
106
350229
3494
Vissa domare använder maskingenererade
riskbedömningar för att besluta
06:05
how long an individualenskild
is going to spendspendera in prisonfängelse.
107
353747
4402
hur långa fängelsestraff som ska utdömas.
06:10
So we really have to think
about these decisionsbeslut.
108
358173
2454
Vi behöver verkligen fundera
över de här besluten.
06:12
Are they fairrättvis?
109
360651
1182
Är de rättvisa?
06:13
And we'vevi har seensett that algorithmicalgoritmisk biaspartiskhet
110
361857
2890
Vi har sett att fördomarna i algoritmerna
06:16
doesn't necessarilynödvändigtvis always
leadleda to fairrättvis outcomesutfall.
111
364771
3374
inte nödvändigtvis
leder till rättvisa resultat.
06:20
So what can we do about it?
112
368169
1964
Så vad kan vi göra?
06:22
Well, we can startStart thinkingtänkande about
how we createskapa more inclusiveinclusive codekoda
113
370157
3680
Tja, vi kan börja fundera på
hur vi skapar en mer inkluderande kod
06:25
and employanvända inclusiveinclusive codingkodning practicesmetoder.
114
373861
2990
och använda en mer inkluderande praxis.
06:28
It really startsbörjar with people.
115
376875
2309
Det börjar med människor.
06:31
So who codeskoder mattersfrågor.
116
379708
1961
Så vem som programmerar har betydelse.
06:33
Are we creatingskapande full-spectrumFull-spektrum teamslag
with diverseolika individualsindivider
117
381693
4119
Bygger vi arbetsgrupper
med individer olika erfarenheter
06:37
who can checkkolla upp eachvarje other'sdras blindblind spotsfläckar?
118
385836
2411
som kan se utanför varandras skygglappar?
06:40
On the technicalteknisk sidesida,
how we codekoda mattersfrågor.
119
388271
3545
På den tekniska sidan har det betydelse
hur vi programmerar.
06:43
Are we factoringfacto in fairnessrättvisa
as we're developingutvecklande systemssystem?
120
391840
3651
Har vi med rättviseperspektivet
när vi utvecklar system?
06:47
And finallytill sist, why we codekoda mattersfrågor.
121
395515
2913
Slutligen, varför vi programmerar
har betydelse.
06:50
We'veVi har used toolsverktyg of computationalberäknings creationskapande
to unlocklåsa upp immenseenorma wealthrikedom.
122
398785
5083
Vi har använt datorkraft för beräkningar
som skapat enorma rikedomar.
06:55
We now have the opportunitymöjlighet
to unlocklåsa upp even greaterstörre equalityjämlikhet
123
403892
4447
Nu har vi möjlighet
att skapa ännu större jämlikhet
07:00
if we make socialsocial changeByta a priorityprioritet
124
408363
2930
om vi prioriterar sociala förändringar
07:03
and not an afterthoughteftertanke.
125
411317
2170
och inte tar dem i efterhand.
07:06
And so these are the threetre tenetsgrundsatser
that will make up the "incodingincoding" movementrörelse.
126
414008
4522
De här tre principerna
kommer att utgöra "inkodnings"-rörelsen.
07:10
Who codeskoder mattersfrågor,
127
418554
1652
Vem som kodar har betydelse,
07:12
how we codekoda mattersfrågor
128
420230
1543
hur vi kodar har betydelse
07:13
and why we codekoda mattersfrågor.
129
421797
2023
och varför vi kodar har betydelse.
07:15
So to go towardsmot incodingincoding,
we can startStart thinkingtänkande about
130
423844
3099
Så för att komma närmare inkodning
kan vi börja fundera på
07:18
buildingbyggnad platformsplattformar that can identifyidentifiera biaspartiskhet
131
426967
3164
att bygga plattformar
som kan identifiera fördomar
07:22
by collectingsamlar people'smänniskors experiencesupplevelser
like the onesettor I shareddelad,
132
430155
3078
genom att samla in folks erfarenheter
som den jag pratade om,
07:25
but alsoockså auditinggranskning existingexisterande softwareprogramvara.
133
433257
3070
men också genom att
granska existerande mjukvara.
07:28
We can alsoockså startStart to createskapa
more inclusiveinclusive trainingutbildning setsuppsättningar.
134
436351
3765
Vi kan också börja skapa mer
inkluderande modeller.
07:32
ImagineFöreställ dig a "SelfiesSelfies for InclusionInkludering" campaignkampanj
135
440140
2803
Tänk er en kampanj
för "Selfies för inkludering"
07:34
where you and I can help
developersutvecklare testtesta and createskapa
136
442967
3655
där du och jag kan hjälpa
utvecklarna testa och skapa
07:38
more inclusiveinclusive trainingutbildning setsuppsättningar.
137
446646
2093
mer inkluderande modeller.
07:41
And we can alsoockså startStart thinkingtänkande
more conscientiouslysamvetsgrant
138
449302
2828
Vi kan också börja tänka mer samvetsgrant
07:44
about the socialsocial impactinverkan
of the technologyteknologi that we're developingutvecklande.
139
452154
5391
kring de sociala effekterna
av tekniken som vi utvecklar.
07:49
To get the incodingincoding movementrörelse startedsatte igång,
140
457569
2393
För att få fart på "inkodnings"-rörelsen,
07:51
I've launchedlanserade the AlgorithmicAlgoritmisk
JusticeRättvisa LeagueLigan,
141
459986
2847
har jag lanserat
Algorithmic Justice League,
07:54
where anyonenågon who caresbekymmer about fairnessrättvisa
can help fightbekämpa the codedkodade gazeblicken.
142
462857
5872
där alla som bryr sig om rättvisa kan
hjälpa till att kämpa mot fördomsfull kod.
08:00
On codedgazecodedgaze.comcom, you can reportrapportera biaspartiskhet,
143
468753
3296
På www.codegaze.com,
kan du rapportera partisk kod,
08:04
requestbegäran auditsrevisioner, becomebli a testertestare
144
472073
2445
begära granskningar, bli testare
08:06
and joinansluta sig the ongoingpågående conversationkonversation,
145
474542
2771
och delta i den pågående diskussionen,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze
Jag bjuder in er till
att ansluta er till mig
08:12
So I inviteinbjudan you to joinansluta sig me
147
480742
2487
08:15
in creatingskapande a worldvärld where technologyteknologi
worksArbetar for all of us,
148
483253
3719
i skapandet av en värld
där tekniken fungerar för oss alla,
08:18
not just some of us,
149
486996
1897
inte bara för några av oss,
08:20
a worldvärld where we valuevärde inclusionintegration
and centerCentrum socialsocial changeByta.
150
488917
4588
en värld där vi värdesätter inkludering
och fokuserar på social förändring.
08:25
Thank you.
151
493529
1175
Tack.
08:26
(ApplauseApplåder)
152
494728
4271
(Applåder)
08:32
But I have one questionfråga:
153
500873
2854
Men jag har en fråga:
08:35
Will you joinansluta sig me in the fightbekämpa?
154
503751
2059
Kommer ni att ansluta er till kampen?
08:37
(LaughterSkratt)
155
505834
1285
(Skratt)
08:39
(ApplauseApplåder)
156
507143
3687
(Applåder)
Translated by Anette Smedberg
Reviewed by Lisbeth Pekkari

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com