ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Wie ich Vorurteile in Algorithmen bekämpfe

Filmed:
1,223,943 views

Joy Buolamwini, Master-Stundentin am MIT, arbeitete gerade mit einer Gesichtserkennungssoftware, als sie ein Problem entdeckte: Die Software erkannte ihr Gesicht nicht. Denn die Menschen, die den Algorithmus programmiert hatten, hatten diesem nicht beigebracht, eine breite Palette an Hauttönen und Gesichtszügen zu erkennen. Jetzt ist Joy auf einer Mission mit dem Ziel, algorithmische Vorurteile im Bereich des maschinellen Lernens zu bekämpfen – ein Phänomen, das sie "den programmierten Blick" nennt. Ihr Vortrag öffnet den Zuschauern die Augen im Hinblick auf die Notwendigkeit, Verantwortung bei der Programmierung zu übernehmen ... vor allem da Algorithmen immer mehr Teile unseres Lebens beeinflussen.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloHallo, I'm JoyFreude, a poetDichter of codeCode,
0
1041
3134
Hallo, ich bin Joy, eine Poetin des Codes,
00:16
on a missionMission to stop
an unseenunsichtbare forceKraft that's risingsteigend,
1
4199
4993
auf einer Mission, eine unbemerkte,
aufstrebende Macht aufzuhalten.
00:21
a forceKraft that I callednamens "the codedcodiert gazeBlick,"
2
9216
2856
Diese Macht nannte ich
den "programmierten Blick".
00:24
my termBegriff for algorithmicalgorithmische biasvorspannen.
3
12096
3309
Das ist mein Begriff
für algorithmische Vorurteile.
Algorithmische sowie menschliche
Vorurteile führen zu Ungerechtigkeit.
00:27
AlgorithmicAlgorithmische biasvorspannen, like humanMensch biasvorspannen,
resultsErgebnisse in unfairnessungerechte Behandlung.
4
15429
4300
Trotzdem können Algorithmen,
wie Viren, Vorurteile massiv verbreiten,
00:31
HoweverJedoch, algorithmsAlgorithmen, like virusesViren,
can spreadVerbreitung biasvorspannen on a massivemassiv scaleRahmen
5
19753
6022
mit rasanter Geschwindigkeit.
00:37
at a rapidschnell paceTempo.
6
25799
1582
00:39
AlgorithmicAlgorithmische biasvorspannen can alsoebenfalls leadführen
to exclusionaryausschließenden experiencesErfahrungen
7
27943
4387
Algorithmische Vorurteile können
auch zu Erfahrungen des Ausschlusses
00:44
and discriminatorydiskriminierende practicesPraktiken.
8
32354
2128
und diskriminierendem Verhalten führen.
00:46
Let me showShow you what I mean.
9
34506
2061
Ich zeige Ihnen, was ich meine.
00:48
(VideoVideo) JoyFreude BuolamwiniBuolamwini: HiHallo, cameraKamera.
I've got a faceGesicht.
10
36980
2436
(Video) Joy Buolamwini:
Hi, Kamera. Ich habe ein Gesicht.
00:52
Can you see my faceGesicht?
11
40162
1864
Kannst du mein Gesicht sehen?
00:54
No-glassesNo-Gläser faceGesicht?
12
42051
1625
Mein Gesicht ohne Brille?
00:55
You can see her faceGesicht.
13
43701
2214
Du kannst ihr Gesicht sehen.
00:58
What about my faceGesicht?
14
46237
2245
Was ist mit meinem Gesicht?
01:03
I've got a maskMaske. Can you see my maskMaske?
15
51890
3750
Ich habe eine Maske.
Kannst du meine Maske sehen?
01:08
JoyFreude BuolamwiniBuolamwini: So how did this happengeschehen?
16
56474
2365
JB: Wie konnte das passieren?
01:10
Why am I sittingSitzung in frontVorderseite of a computerComputer
17
58863
3141
Wieso sitze ich vor einem Computer,
trage eine weiße Maske und versuche,
01:14
in a whiteWeiß maskMaske,
18
62028
1424
01:15
tryingversuchen to be detectederkannt by a cheapbillig webcamWebcam?
19
63476
3650
von einer billigen Webcam
erkannt zu werden?
01:19
Well, when I'm not fightingKampf the codedcodiert gazeBlick
20
67150
2291
Wenn ich nicht gerade
den programmierten Blick
01:21
as a poetDichter of codeCode,
21
69465
1520
als Poetin des Codes bekämpfe,
01:23
I'm a graduateAbsolvent studentSchüler
at the MITMIT MediaMedien LabLab,
22
71009
3272
dann bin ich Masterstudentin
am MIT Media Lab
01:26
and there I have the opportunityGelegenheit to work
on all sortssortiert of whimsicalSkurril projectsProjekte,
23
74305
4917
und habe dort die Möglichkeit, an
verschiedensten, wunderlichen Projekten,
u. a. dem "Aspire Mirror", zu arbeiten,
01:31
includingeinschließlich the AspireAspire MirrorSpiegel,
24
79246
2027
01:33
a projectProjekt I did so I could projectProjekt
digitaldigital masksMasken ontoauf zu my reflectionBetrachtung.
25
81297
5134
einem Projekt, das digitale Masken
auf mein Spiegelbild projiziert.
Wenn ich mich in der Früh
mächtig fühlen wollte,
01:38
So in the morningMorgen, if I wanted
to feel powerfulmächtig,
26
86455
2350
01:40
I could put on a lionLöwe.
27
88829
1434
projizierte ich einen Löwen.
01:42
If I wanted to be upliftedgehoben,
I mightMacht have a quoteZitat.
28
90287
3496
Wenn ich aufgemuntert werden wollte,
erschien vielleicht ein Zitat.
Deshalb verwendete ich eine gewöhnliche
Software für Gesichtserkennung,
01:45
So I used genericgenerisch
facialGesichtsbehandlung recognitionAnerkennung softwareSoftware
29
93807
2989
01:48
to buildbauen the systemSystem,
30
96820
1351
um das System zu erstellen.
01:50
but foundgefunden it was really hardhart to testTest it
unlesses sei denn I woretrug a whiteWeiß maskMaske.
31
98195
5103
Es war aber sehr schwierig zu testen,
außer wenn ich eine weiße Maske trug.
01:56
UnfortunatelyLeider, I've runLauf
into this issueProblem before.
32
104282
4346
Unglücklicherweise ist mir
dieses Problem schon einmal begegnet.
02:00
When I was an undergraduateBachelor
at GeorgiaGeorgien TechTech studyingstudieren computerComputer scienceWissenschaft,
33
108652
4303
Als ich Informatik im Bachelor
an der Georgia Tech studierte,
02:04
I used to work on socialSozial robotsRoboter,
34
112979
2055
arbeitete ich mit sozialen Robotern.
02:07
and one of my tasksAufgaben was to get a robotRoboter
to playspielen peek-a-booPeek-a-boo,
35
115058
3777
Eine meiner Aufgaben war es,
mit einem Roboter Kuckuck zu spielen.
02:10
a simpleeinfach turn-takingWende-Einnahme gameSpiel
36
118859
1683
Das ist ein einfaches Wechselspiel,
02:12
where partnersPartner coverAbdeckung theirihr faceGesicht
and then uncoverEntdecken Sie it sayingSprichwort, "Peek-a-booPeek-a-boo!"
37
120566
4321
bei dem man das Gesicht zudeckt
und beim Aufdecken "Kuckuck!" sagt.
02:16
The problemProblem is, peek-a-booPeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
Allerdings funktioniert das Kuckuckspiel
nicht, wenn man sich nicht sieht,
02:21
and my robotRoboter couldn'tkonnte nicht see me.
39
129364
2499
und mein Roboter konnte mich nicht sehen.
02:23
But I borrowedausgeliehen my roommate'sMitbewohner faceGesicht
to get the projectProjekt doneerledigt,
40
131887
3950
Um das Projekt abzuschließen, verwendete
ich das Gesicht meines Mitbewohners,
02:27
submittedeingereicht the assignmentZuordnung,
41
135861
1380
schickte die Aufgabe ab
02:29
and figuredabgebildet, you know what,
somebodyjemand elsesonst will solvelösen this problemProblem.
42
137265
3753
und dachte mir: "Weißt du was,
jemand anderes wird das Problem lösen."
02:33
Not too long after,
43
141669
2003
Relativ kurz danach
02:35
I was in HongHong KongKong
for an entrepreneurshipUnternehmertum competitionWettbewerb.
44
143696
4159
war ich in Hongkong für einen
Unternehmer-Wettbewerb.
02:40
The organizersOrganisatoren decidedbeschlossen
to take participantsTeilnehmer
45
148339
2694
Die Organisatoren beschlossen,
den Teilnehmenden
örtliche Start-ups zu zeigen.
02:43
on a tourTour of locallokal start-upsStart-ups.
46
151057
2372
02:45
One of the start-upsStart-ups had a socialSozial robotRoboter,
47
153453
2715
Eines dieser Start-ups
hatte einen sozialen Roboter,
02:48
and they decidedbeschlossen to do a demoDemo.
48
156192
1912
den sie demonstrieren wollten.
02:50
The demoDemo workedhat funktioniert on everybodyjeder
untilbis it got to me,
49
158128
2980
Die Demonstration funktionierte
bei jedem bis auf mich.
02:53
and you can probablywahrscheinlich guessvermuten it.
50
161132
1923
Sie können wahrscheinlich erraten wieso.
02:55
It couldn'tkonnte nicht detecterkennen my faceGesicht.
51
163079
2965
Er konnte mein Gesicht nicht erkennen.
02:58
I askedaufgefordert the developersEntwickler what was going on,
52
166068
2511
Ich fragte die Entwickler, was los sei.
03:00
and it turnedgedreht out we had used the samegleich
genericgenerisch facialGesichtsbehandlung recognitionAnerkennung softwareSoftware.
53
168603
5533
Es zeigte sich, dass wir dieselbe Software
zur Gesichtserkennung benutzt hatten.
03:06
HalfwayAuf halbem Weg around the worldWelt,
54
174160
1650
Auf der anderen Seite
der Welt erkannte ich,
03:07
I learnedgelernt that algorithmicalgorithmische biasvorspannen
can travelReise as quicklyschnell
55
175834
3852
dass sich algorithmische
Voreingenommenheit
03:11
as it takes to downloadherunterladen
some filesDateien off of the internetInternet.
56
179710
3170
bereits während eines simplen
Downloads verbreiten kann.
03:15
So what's going on?
Why isn't my faceGesicht beingSein detectederkannt?
57
183745
3076
Also was ist da los?
Warum wird mein Gesicht nicht erkannt?
03:18
Well, we have to look
at how we give machinesMaschinen sightSicht.
58
186845
3356
Wir müssen uns anschauen,
wie wir Maschinen das Sehen beibringen.
03:22
ComputerComputer visionVision usesVerwendungen
machineMaschine learningLernen techniquesTechniken
59
190225
3409
Computergestütztes Sehen
verwendet maschinelles Lernen,
03:25
to do facialGesichtsbehandlung recognitionAnerkennung.
60
193658
1880
um Gesichter zu erkennen.
03:27
So how this worksWerke is, you createerstellen
a trainingAusbildung setSet with examplesBeispiele of facesGesichter.
61
195562
3897
Dabei erstellt man ein Trainingsset
mit Gesichterbeispielen.
03:31
This is a faceGesicht. This is a faceGesicht.
This is not a faceGesicht.
62
199483
2818
Das ist ein Gesicht. Das auch.
Das ist kein Gesicht.
03:34
And over time, you can teachlehren a computerComputer
how to recognizeerkenne other facesGesichter.
63
202325
4519
Im Laufe der Zeit kann man einem Computer
beibringen, andere Gesichter zu erkennen.
03:38
HoweverJedoch, if the trainingAusbildung setssetzt
aren'tsind nicht really that diversevielfältig,
64
206868
3989
Wenn die Trainingssets allerdings
nicht sehr diversifiziert sind,
03:42
any faceGesicht that deviatesweicht too much
from the establishedetabliert normNorm
65
210881
3349
dann sind Gesichter, die zu stark
von der erstellten Norm abweichen,
03:46
will be harderSchwerer to detecterkennen,
66
214254
1649
schwieriger zu erkennen.
03:47
whichwelche is what was happeningHappening to me.
67
215927
1963
Das ist genau das, was mir passiert ist.
Aber machen Sie sich keine Sorgen --
es gibt gute Nachrichten.
03:49
But don't worrySorge -- there's some good newsNachrichten.
68
217914
2382
03:52
TrainingAusbildung setssetzt don't just
materializematerialisieren out of nowherenirgends.
69
220320
2771
Trainingssets tauchen nicht
aus dem Nichts auf.
03:55
We actuallytatsächlich can createerstellen them.
70
223115
1788
Wir erstellen sie.
03:56
So there's an opportunityGelegenheit to createerstellen
full-spectrumVollspektrum- trainingAusbildung setssetzt
71
224927
4176
Also gibt es die Möglichkeit,
inklusive Trainingssets zu erstellen,
04:01
that reflectreflektieren a richerreicher
portraitPorträt of humanityMenschheit.
72
229127
3824
die ein breitgefächerteres Bild
der Menschheit widerspiegeln.
Jetzt haben Sie anhand
meiner Beispiele gesehen,
04:04
Now you've seengesehen in my examplesBeispiele
73
232975
2221
wie soziale Roboter dazu geführt haben,
04:07
how socialSozial robotsRoboter
74
235220
1768
04:09
was how I foundgefunden out about exclusionAusschluss
with algorithmicalgorithmische biasvorspannen.
75
237012
4611
dass ich von der Exklusion
durch algorithmische Vorurteile erfuhr.
04:13
But algorithmicalgorithmische biasvorspannen can alsoebenfalls leadführen
to discriminatorydiskriminierende practicesPraktiken.
76
241647
4815
Algorithmische Vorurteile können
zu diskriminierendem Verhalten führen.
04:19
AcrossÜber the US,
77
247437
1453
Überall in den USA beginnt die Polizei,
als Teil ihrer Kriminalitätsbekäpfung
04:20
policePolizei departmentsAbteilungen are startingbeginnend to use
facialGesichtsbehandlung recognitionAnerkennung softwareSoftware
78
248914
4198
04:25
in theirihr crime-fightingBekämpfung der Kriminalität arsenalArsenal.
79
253136
2459
Software zur Gesichtserkennung
zu verwenden.
04:27
GeorgetownGeorgetown LawGesetz publishedveröffentlicht a reportBericht
80
255619
2013
Georgetown Law zeigte in einem Bericht,
04:29
showingzeigt that one in two adultsErwachsene
in the US -- that's 117 millionMillion people --
81
257656
6763
dass einer von zwei erwachsenen US-Bürgern
-- das sind 117 Mio. Menschen --
04:36
have theirihr facesGesichter
in facialGesichtsbehandlung recognitionAnerkennung networksNetzwerke.
82
264443
3534
bereits in Datenbanken
zur Gesichtserkennung erfasst ist.
04:40
PolicePolizei departmentsAbteilungen can currentlyzur Zeit look
at these networksNetzwerke unregulatedungeregelt,
83
268001
4552
Polizeikommissariate können zurzeit
uneingeschränkt auf diese zugreifen
04:44
usingmit algorithmsAlgorithmen that have not
been auditedgeprüften for accuracyGenauigkeit.
84
272577
4286
und benutzen dabei Algorithmen, die
nicht auf Genauigkeit überprüft wurden.
04:48
YetNoch we know facialGesichtsbehandlung recognitionAnerkennung
is not failScheitern proofBeweis,
85
276887
3864
Dennoch wissen wir, dass
Gesichtserkennung nicht fehlerfrei ist
04:52
and labelingKennzeichnung facesGesichter consistentlykonsequent
remainsbleibt bestehen a challengeHerausforderung.
86
280775
4179
und dass Gesichter zuzuordnen
immer noch eine Herausforderung ist.
Vielleicht haben Sie das
auf Facebook gesehen.
04:56
You mightMacht have seengesehen this on FacebookFacebook.
87
284978
1762
04:58
My friendsFreunde and I laughLachen all the time
when we see other people
88
286764
2988
Meine Freund und ich lachen immer,
wenn andere Leute
05:01
mislabeledfalsch beschriftet in our photosFotos.
89
289776
2458
fälschlicherweise auf unseren
Fotos markiert werden.
05:04
But misidentifyingfalsch a suspectedvermutlich criminalKriminelle
is no laughingLachen matterAngelegenheit,
90
292258
5591
Aber jemanden fälschlicherweise
zu verdächtigen, ist nicht zum Lachen,
05:09
nornoch is breachingVerstoß gegen civilbürgerlich libertiesFreiheiten.
91
297873
2827
sondern verstößt gegen Bürgerrechte.
05:12
MachineMaschine learningLernen is beingSein used
for facialGesichtsbehandlung recognitionAnerkennung,
92
300724
3205
Maschinelles Lernen
wird für Gesichtserkennung,
05:15
but it's alsoebenfalls extendingErweiterung beyonddarüber hinaus the realmReich
of computerComputer visionVision.
93
303953
4505
aber auch über den Bereich von
computergestütztem Sehen hinaus verwendet.
05:21
In her bookBuch, "WeaponsWaffen
of MathMathematik DestructionZerstörung,"
94
309266
4016
In ihrem Buch "Waffen der Mathezerstörung"
05:25
dataDaten scientistWissenschaftler CathyCathy O'NeilO' Neil
talksGespräche about the risingsteigend newneu WMDsMassenvernichtungswaffen --
95
313306
6681
schreibt Datenforscherin Cathy O'Neil
über neue Massenvernichtungswaffen --
05:32
widespreadweit verbreitet, mysteriousgeheimnisvoll
and destructivedestruktive algorithmsAlgorithmen
96
320011
4353
verbreitete, mysteriöse
und zerstörerische Algorithmen,
05:36
that are increasinglyzunehmend beingSein used
to make decisionsEntscheidungen
97
324388
2964
die zunehmend dazu verwendet werden,
Entscheidungen zu treffen,
05:39
that impactEinfluss more aspectsAspekte of our livesLeben.
98
327376
3177
die viele Teile unseres Lebens betreffen.
Etwa wer eingestellt oder gefeuert wird.
05:42
So who getsbekommt hiredgemietet or firedgebrannt?
99
330577
1870
05:44
Do you get that loanDarlehen?
Do you get insuranceVersicherung?
100
332471
2112
Bekommen Sie einen Kredit?
Oder eine Versicherung?
05:46
Are you admittedzugelassen into the collegeHochschule
you wanted to get into?
101
334607
3503
Werden Sie an der Uni, an der Sie
studieren wollen, angenommen?
05:50
Do you and I payZahlen the samegleich pricePreis
for the samegleich productProdukt
102
338134
3509
Bezahlen Sie und ich denselben Preis
für dasselbe Produkt,
05:53
purchasedgekauft on the samegleich platformPlattform?
103
341667
2442
das wir auf derselben Website
gekauft haben?
05:56
LawGesetz enforcementDurchsetzung is alsoebenfalls startingbeginnend
to use machineMaschine learningLernen
104
344133
3759
Die Strafverfolgung beginnt auch,
maschinelles Lernen
für Predictive Policing einzusetzen.
05:59
for predictiveprädiktive policingPolizeiarbeit.
105
347916
2289
Manche Richter benutzen maschinell
generierte Risikoraten, um festzusetzen,
06:02
Some judgesRichter use machine-generatedmaschinengenerierte
riskRisiko scoresNoten to determinebestimmen
106
350229
3494
06:05
how long an individualPerson
is going to spendverbringen in prisonGefängnis.
107
353747
4402
wie lange eine bestimmte Person
im Gefängnis bleiben wird.
Deshalb müssen wir wirklich
über diese Entscheidungen nachdenken.
06:10
So we really have to think
about these decisionsEntscheidungen.
108
358173
2454
06:12
Are they fairMesse?
109
360651
1182
Sind sie fair?
06:13
And we'vewir haben seengesehen that algorithmicalgorithmische biasvorspannen
110
361857
2890
Wir haben gesehen,
dass algorithmische Vorurteile
06:16
doesn't necessarilyNotwendig always
leadführen to fairMesse outcomesErgebnisse.
111
364771
3374
nicht unbedingt
zu fairen Ergebnissen führen.
06:20
So what can we do about it?
112
368169
1964
Was können wir dagegen tun?
06:22
Well, we can startAnfang thinkingDenken about
how we createerstellen more inclusiveinklusive codeCode
113
370157
3680
Wir können darüber nachdenken,
wie man inklusiveren Code schreibt
und Programmiertechniken nutzt,
die inklusiver sind.
06:25
and employbeschäftigen inclusiveinklusive codingCodierung practicesPraktiken.
114
373861
2990
06:28
It really startsbeginnt with people.
115
376875
2309
Es fängt bei den Menschen an.
06:31
So who codesCodes mattersAngelegenheiten.
116
379708
1961
Es spielt eine Rolle, wer programmiert.
06:33
Are we creatingErstellen full-spectrumVollspektrum- teamsTeams
with diversevielfältig individualsIndividuen
117
381693
4119
Erstellen wir inklusive Teams
aus diversifizierten Individuen,
die gegenseitig ihre toten Winkel
überprüfen können?
06:37
who can checkprüfen eachjede einzelne other'sAndere blindblind spotsFlecken?
118
385836
2411
06:40
On the technicaltechnisch sideSeite,
how we codeCode mattersAngelegenheiten.
119
388271
3545
In Hinblick auf die Technik spielt es
eine Rolle, wie programmiert wird.
06:43
Are we factoringFaktorisierung in fairnessFairness
as we're developingEntwicklung systemsSysteme?
120
391840
3651
Berücksichtigen wir Fairness
beim Entwickeln von Systemen?
06:47
And finallyendlich, why we codeCode mattersAngelegenheiten.
121
395515
2913
"Warum" wir programmieren,
spielt auch eine Rolle.
06:50
We'veWir haben used toolsWerkzeuge of computationalrechnerisch creationSchaffung
to unlockEntsperren immenseimmens wealthReichtum.
122
398785
5083
Wir haben durch computergestütztes Design
enormen Wohlstand geschaffen.
06:55
We now have the opportunityGelegenheit
to unlockEntsperren even greatergrößer equalityGleichberechtigung
123
403892
4447
Nun haben wir die Möglichkeit,
noch größere Gleichheit zu schaffen,
07:00
if we make socialSozial changeVeränderung a priorityPriorität
124
408363
2930
wenn wir sozialen Wandel als Priorität
und nicht als Nachtrag behandeln.
07:03
and not an afterthoughtnachträglicher Einfall.
125
411317
2170
07:06
And so these are the threedrei tenetsGrundsätze
that will make up the "incodingNeukodierung" movementBewegung.
126
414008
4522
Das sind also die drei Grundsätze
der "Incoding"-Bewegung.
07:10
Who codesCodes mattersAngelegenheiten,
127
418554
1652
Es ist wichtig, wer programmiert,
07:12
how we codeCode mattersAngelegenheiten
128
420230
1543
wie programmiert wird,
07:13
and why we codeCode mattersAngelegenheiten.
129
421797
2023
und warum wir programmieren.
07:15
So to go towardsin Richtung incodingNeukodierung,
we can startAnfang thinkingDenken about
130
423844
3099
Auf dem Weg zu "Incoding"
müssen wir darüber nachdenken,
07:18
buildingGebäude platformsPlattformen that can identifyidentifizieren biasvorspannen
131
426967
3164
Plattformen, die Vorurteile
erkennen können, zu schaffen,
mit Hilfe von Erfahrungen,
wie z. B. meinen,
07:22
by collectingSammeln people'sMenschen experiencesErfahrungen
like the onesEinsen I sharedgeteilt,
132
430155
3078
07:25
but alsoebenfalls auditingWirtschaftsprüfung existingbestehende softwareSoftware.
133
433257
3070
aber auch bereits existierende
Software zu überprüfen.
07:28
We can alsoebenfalls startAnfang to createerstellen
more inclusiveinklusive trainingAusbildung setssetzt.
134
436351
3765
Wir können auch damit beginnen,
inklusivere Trainingssets zu erstellen.
Stellen Sie sich etwa eine Kampagne
"Selfies für Inklusion" vor,
07:32
ImagineStellen Sie sich vor a "SelfiesSelfies for InclusionAufnahme" campaignKampagne
135
440140
2803
07:34
where you and I can help
developersEntwickler testTest and createerstellen
136
442967
3655
bei der Sie und ich den Entwicklern
beim Testen und Entwickeln
inklusiverer Trainingssets helfen können.
07:38
more inclusiveinklusive trainingAusbildung setssetzt.
137
446646
2093
07:41
And we can alsoebenfalls startAnfang thinkingDenken
more conscientiouslygewissenhaft
138
449302
2828
Wir können auch bewusster
über die sozialen Auswirkungen
07:44
about the socialSozial impactEinfluss
of the technologyTechnologie that we're developingEntwicklung.
139
452154
5391
der Technologien, die wir
entwickeln, nachdenken.
Um die "Incoding"-Bewegung zu starten,
07:49
To get the incodingNeukodierung movementBewegung startedhat angefangen,
140
457569
2393
07:51
I've launchedgestartet the AlgorithmicAlgorithmische
JusticeJustiz LeagueLiga,
141
459986
2847
gründete ich die
"Algorithmic Justice Leage".
07:54
where anyonejemand who careskümmert sich about fairnessFairness
can help fightKampf the codedcodiert gazeBlick.
142
462857
5872
Jeder kann dabei helfen,
den programmierten Blick zu bekämpfen.
08:00
On codedgazecodedgaze.comcom, you can reportBericht biasvorspannen,
143
468753
3296
Auf codedgaze.com können Sie
über Voreingenommenheit berichten,
Überprüfungen verlangen, zum Tester werden
08:04
requestAnfrage auditsPrüfungen, becomewerden a testerPrüfer
144
472073
2445
08:06
and joinbeitreten the ongoinglaufend conversationKonversation,
145
474542
2771
und bei laufenden Debatten mitreden,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I inviteeinladen you to joinbeitreten me
147
480742
2487
Ich lade Sie dazu ein,
sich mir anzuschließen
08:15
in creatingErstellen a worldWelt where technologyTechnologie
worksWerke for all of us,
148
483253
3719
und eine Welt zu schaffen,
in der Technologie für uns alle,
08:18
not just some of us,
149
486996
1897
und nicht nur für manche, funktioniert,
08:20
a worldWelt where we valueWert inclusionAufnahme
and centerCenter socialSozial changeVeränderung.
150
488917
4588
eine Welt, in der Inklusion wertgeschätzt
und soziale Veränderung im Zentrum steht.
08:25
Thank you.
151
493529
1175
Danke.
08:26
(ApplauseApplaus)
152
494728
4271
(Applaus)
08:32
But I have one questionFrage:
153
500873
2854
Ich habe eine Frage:
08:35
Will you joinbeitreten me in the fightKampf?
154
503751
2059
Werden Sie sich mir anschließen?
08:37
(LaughterLachen)
155
505834
1285
(Gelächter)
08:39
(ApplauseApplaus)
156
507143
3687
(Applaus)

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com