ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: İnsanların ön yargısı yapay zekâdan nasıl uzak tutulabilir

Filmed:
2,050,106 views

Yapay zekâ algoritmaları her an sizin için önemli kararlar alıyor; trafik sigortasına ne kadar ödeyeceğiniz veya iş görüşmenizin başarılı olup olmayacağı gibi. Peki bu makineler sistemlerine kodlanmış insan ön yargılarıyla geliştirilirse ne olur? Teknoloji uzmanı Kriti Sharma teknolojide çeşitliliğin olmamasının yapay zekâya nasıl sızdığını anlatıyor ve daha etik algoritmalar üretmemiz için üç yöntem sunuyor.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manyçok decisionskararlar
have been madeyapılmış about you todaybugün,
0
875
3768
Sizce sizin hakkınızda
kaç karar alınmıştır,
bugün, bu hafta veya bu yıl içinde,
00:16
or this weekhafta or this yearyıl,
1
4667
2601
yapay zekâ tarafından?
00:19
by artificialyapay intelligencezeka?
2
7292
1958
00:22
I buildinşa etmek AIAI for a livingyaşam
3
10958
1685
Benim işim yapay zekâ oluşturmak.
00:24
so, fulltam disclosureaçığa çıkması, I'm kindtür of a nerdinek öğrenci.
4
12667
3017
Yani, daha da açmak gerekirse
bir inek öğrenciyim.
00:27
And because I'm kindtür of a nerdinek öğrenci,
5
15708
2393
Bir inek öğrenci olduğum için de
ne zaman yapay zekânın
iş imkânlarımızı çalması
00:30
whereverher nerede some newyeni newshaber storyÖykü comesgeliyor out
6
18125
2351
00:32
about artificialyapay intelligencezeka
stealingçalmak all our jobsMeslekler,
7
20500
3434
veya robotların gerçek ülkelerden
vatandaşlık alması gibi bir haber çıksa
00:35
or robotsrobotlar gettingalma citizenshipvatandaşlık
of an actualgerçek countryülke,
8
23958
4185
arkadaşlarımın ve takipçilerimin
gelecek kaygısıyla mesaj attığı kişiyim.
00:40
I'm the personkişi my friendsarkadaşlar
and followerstakipçileri messagemesaj
9
28167
3142
00:43
freakinglanet out about the futuregelecek.
10
31333
1542
00:45
We see this everywhereher yerde.
11
33833
2101
Bunu her yerde görüyoruz.
00:47
This mediamedya panicPanik that
our robotrobot overlordsOverlords are takingalma over.
12
35958
4893
Medya, robotlar yönetimi
ele geçiriyor diye panik hâlinde.
00:52
We could blamesuçlama HollywoodHollywood for that.
13
40875
1917
Bunun için Hollywood'u suçlayabiliriz.
00:56
But in realitygerçeklik, that's not the problemsorun
we should be focusingodaklanma on.
14
44125
4125
Fakat gerçek şu ki
odaklanmamız gereken sorun bu değil.
01:01
There is a more pressingbasma dangerTehlike,
a biggerDaha büyük riskrisk with AIAI,
15
49250
3643
Yapay zekâyla ilgili düzeltmemiz gereken
daha büyük bir tehlike var.
01:04
that we need to fixdüzeltmek first.
16
52917
1583
01:07
So we are back to this questionsoru:
17
55417
2309
Bu yüzden yine şu soruya dönüyoruz:
01:09
How manyçok decisionskararlar
have been madeyapılmış about you todaybugün by AIAI?
18
57750
4708
Yapay zekâ bugün
sizin hakkınızda kaç karar aldı
ve bunlardan kaç tanesinde cinsiyetiniz,
milliyetiniz veya geçmişiniz baz alındı?
01:15
And how manyçok of these
19
63792
1976
01:17
were basedmerkezli on your genderCinsiyet,
your raceyarış or your backgroundarka fon?
20
65792
4500
01:24
AlgorithmsAlgoritmalar are beingolmak used all the time
21
72500
2768
Kim olduğumuz ve ne istediğimizle ilgili
kararlar vermek için
01:27
to make decisionskararlar about who we are
and what we want.
22
75292
3833
algoritmalar her zaman kullanılıyor.
01:32
Some of the womenkadınlar in this roomoda
will know what I'm talkingkonuşma about
23
80208
3643
Buradaki kadınların bir kısmı
ne demek istediğimi anlıyorlardır.
YouTube'da hamilelik testi reklamlarını
bin kere sonuna kadar izlediyseniz,
01:35
if you've been madeyapılmış to sitoturmak throughvasitasiyla
those pregnancygebelik testÖlçek advertsreklam on YouTubeYouTube
24
83875
3768
01:39
like 1,000 timeszamanlar.
25
87667
2059
Facebook'ta doğum kliniği
reklamlarıyla karşılaştıysanız
01:41
Or you've scrolledtomar pastgeçmiş advertsreklam
of fertilitydoğurganlık clinicsklinikler
26
89750
2851
01:44
on your FacebookFacebook feedbesleme.
27
92625
2042
veya benim gibi
Hint izdivaç servisi reklamlarıyla,
01:47
Or in my casedurum, IndianHint marriageevlilik bureausBüroları.
28
95625
2393
ne dediğimi alıyorsunuzdur.
01:50
(LaughterKahkaha)
29
98042
1267
(Gülüşmeler)
01:51
But AIAI isn't just beingolmak used
to make decisionskararlar
30
99333
2976
Fakat yapay zekâ sadece
hangi ürünleri almak istediğimize
01:54
about what productsÜrünler we want to buysatın almak
31
102333
2601
veya hangi diziyi izlemek istediğimize
karar vermek için kullanılmıyor.
01:56
or whichhangi showgöstermek we want to bingealem watch nextSonraki.
32
104958
2500
02:01
I wondermerak etmek how you'dşimdi etsen feel about someonebirisi
who thought things like this:
33
109042
5184
Şöyle düşünen biriyle ilgili
ne düşünürdünüz merak ediyorum:
"Siyahi veya Latin birinin,
borcunu zamanında ödeme ihtimali
02:06
"A blacksiyah or LatinoLatino personkişi
34
114250
1934
02:08
is lessaz likelymuhtemelen than a whitebeyaz personkişi
to payödeme off theironların loanborç on time."
35
116208
4125
beyaz birine göre daha düşük."
02:13
"A personkişi calleddenilen JohnJohn
makesmarkaları a better programmerprogramcı
36
121542
2809
"John isimli biri, Mary isimli birinden
daha iyi programcılık yapar."
02:16
than a personkişi calleddenilen MaryMary."
37
124375
1667
02:19
"A blacksiyah man is more likelymuhtemelen to be
a repeattekrar et offendersuçlu than a whitebeyaz man."
38
127250
5083
"Siyahi bir adamın suçlu olma olasılığı
beyaz bir adamdan daha fazla."
02:26
You're probablymuhtemelen thinkingdüşünme,
39
134958
1268
"Ne kadar da cinsiyetçi ve ırkçı biri."
diye düşünüyorsunuz, değil mi?
02:28
"WowVay canına, that soundssesleri like a prettygüzel sexistcinsiyet ayrımı,
racistırkçı personkişi," right?
40
136250
3750
02:33
These are some realgerçek decisionskararlar
that AIAI has madeyapılmış very recentlyson günlerde,
41
141000
4851
Bunlar, yakın bir zamanda yapay zekânın
ulaştığı gerçek kararlar.
Kararların dayanağı ise
biz insanlardan öğrendiği ön yargı.
02:37
basedmerkezli on the biasesönyargıların
it has learnedbilgili from us,
42
145875
2934
02:40
from the humansinsanlar.
43
148833
1250
02:43
AIAI is beingolmak used to help decidekarar ver
whetherolup olmadığını or not you get that job interviewröportaj;
44
151750
4809
Yapay zekâ; iş görüşmenizin
başarılı olup olmayacağına,
02:48
how much you payödeme for your cararaba insurancesigorta;
45
156583
2393
trafik sigortasına ne kadar ödeyeceğinize,
kredi puanınızın ne kadar iyi olacağına
02:51
how good your creditkredi scoreGol is;
46
159000
1893
02:52
and even what ratingderecelendirme you get
in your annualyıllık performanceperformans reviewgözden geçirmek.
47
160917
3125
ve yıllık performans değerlendirmenizdeki
puana karar vermeye yardımcı olur.
02:57
But these decisionskararlar
are all beingolmak filteredFiltre throughvasitasiyla
48
165083
3143
Fakat tüm bu kararlar, yapay zekânın
kimliğimiz, ırkımız, cinsiyetimiz
03:00
its assumptionsvarsayımlar about our identityKimlik,
our raceyarış, our genderCinsiyet, our ageyaş.
49
168250
5875
ve yaşımız hakkındaki
varsayım filtrelerinden geçiyor.
03:08
How is that happeningolay?
50
176250
2268
Peki bu nasıl gerçekleşiyor?
03:10
Now, imaginehayal etmek an AIAI is helpingyardım ediyor
a hiringişe alıyor managermüdür
51
178542
3517
Yapay zekânın, bir işe alım müdürünün
şirketin gelecek liderini bulmasına
yardım ettiğini düşünün.
03:14
find the nextSonraki techteknoloji leaderlider in the companyşirket.
52
182083
2851
Şimdiye kadar müdür,
çoğunlukla erkekleri işe almış.
03:16
So faruzak, the managermüdür
has been hiringişe alıyor mostlyçoğunlukla menerkekler.
53
184958
3101
Böylece yapay zekâ,
erkeklerin programcı olmalarının
03:20
So the AIAI learnsöğrenir menerkekler are more likelymuhtemelen
to be programmersprogramcılar than womenkadınlar.
54
188083
4750
kadınlara göre
daha olası olduğunu öğrenir
03:25
And it's a very shortkısa leapsıçrama from there to:
55
193542
2892
ve şu sonuca ulaşması uzun sürmez:
"Erkek, kadından daha iyi programcı olur."
03:28
menerkekler make better programmersprogramcılar than womenkadınlar.
56
196458
2042
03:31
We have reinforcedtakviyeli
our ownkendi biasönyargı into the AIAI.
57
199417
3726
Kendi ön yargılarımızı
yapay zekâya dayatıyoruz
ve artık yapay zekâ kadın adayları eliyor.
03:35
And now, it's screeningtarama out
femalekadın candidatesadaylar.
58
203167
3625
Bir dakika, eğer işe alım müdürü
kadın adayları eleseydi
03:40
HangAsmak on, if a humaninsan
hiringişe alıyor managermüdür did that,
59
208917
3017
haksızlığa uğramış olurduk,
buna izin vermezdik.
03:43
we'devlenmek be outragedçileden, we wouldn'tolmaz allowizin vermek it.
60
211958
2351
Böyle cinsiyet ayrımcılığı kabul edilemez.
03:46
This kindtür of genderCinsiyet
discriminationayrımcılık is not OK.
61
214333
3476
03:49
And yethenüz somehowbir şekilde,
AIAI has becomeolmak aboveyukarıdaki the lawhukuk,
62
217833
4518
Ama bir şekilde yapay zekâ,
yasaların önüne geçti
çünkü kararı bir makine aldı.
03:54
because a machinemakine madeyapılmış the decisionkarar.
63
222375
2083
03:57
That's not it.
64
225833
1518
Hayır, öyle değil.
Yapay zekâyla etkileşimimizde
ön yargılarımızı güçlendiriyoruz.
03:59
We are alsoAyrıca reinforcingtakviye our biasönyargı
in how we interactetkileşim with AIAI.
65
227375
4875
04:04
How oftensık sık do you use a voiceses assistantYardımcısı
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
Siri, Alexa veya Cortana gibi asistanları
ne sıklıkta kullanıyorsunuz?
Hepsinin iki ortak özelliği var.
04:10
They all have two things in commonortak:
67
238917
2559
Birincisi, ismimi hiçbir zaman
doğru söyleyemiyorlar.
04:13
one, they can never get my nameisim right,
68
241500
3101
04:16
and secondikinci, they are all femalekadın.
69
244625
2667
İkincisi, hepsi kadın.
04:20
They are designedtasarlanmış to be
our obedientitaatkar servantsHizmetçiler,
70
248417
2767
Bizim itaatkâr hizmetçimiz olmak için
tasarlanmışlar;
ışığınızı açıp kapatıyor,
alışveriş siparişlerinizi veriyorlar.
04:23
turningdöndürme your lightsışıklar on and off,
orderingsipariş your shoppingalışveriş yapmak.
71
251208
3250
Tabii erkek yapay zekâlar da var.
04:27
You get maleerkek AIsAIS too,
but they tendeğiliminde to be more high-poweredyüksek güçlü,
72
255125
3309
Fakat onlar daha güçlüler,
örneğin IBM Watson;
04:30
like IBMIBM WatsonWatson,
makingyapma business decisionskararlar,
73
258458
3059
şirketler için kararlar veriyorlar,
örneğin Satış Kadrosu Einstein;
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobot lawyeravukat.
74
261541
3792
veya avukatlık yapıyorlar,
mesela ROSS.
04:38
So poorfakir robotsrobotlar, even they sufferacı çekmek
from sexismcinsiyetçilik in the workplaceiş yeri.
75
266208
4060
Yani zavallı robotlar, onlar bile
iş yerinde cinsiyetçilikle karşılaşıyor.
04:42
(LaughterKahkaha)
76
270292
1125
(Gülüşmeler)
04:44
Think about how these two things combinebirleştirmek
77
272542
2851
Bu ikisinin birleşip
günümüz yapay zekâ dünyasında büyüyen
çocukları nasıl etkilediğini bir düşünün.
04:47
and affectetkilemek a kidçocuk growingbüyüyen up
in today'sbugünkü worldDünya around AIAI.
78
275417
5309
04:52
So they're doing some researchAraştırma
for a schoolokul projectproje
79
280750
2934
Mesela bir okul ödevi için
araştırma yapıyorlar,
Google'da CEO görsellerine bakıyorlar
04:55
and they GoogleGoogle imagesGörüntüler of CEOCEO.
80
283708
3018
ve algoritma onlara
çoğunlukla erkekleri gösteriyor.
04:58
The algorithmalgoritma showsgösterileri them
resultsSonuçlar of mostlyçoğunlukla menerkekler.
81
286750
2893
Sonra, kişisel asistan
görsellerine bakıyorlar
05:01
And now, they GoogleGoogle personalkişisel assistantYardımcısı.
82
289667
2559
ve tahmin ettiğiniz gibi algoritma
çoğunlukla kadınları gösteriyor.
05:04
As you can guesstahmin,
it showsgösterileri them mostlyçoğunlukla femaleskadın.
83
292250
3434
Daha sonra biraz müzik dinlemek
veya yiyecek sipariş etmek istiyorlar
05:07
And then they want to put on some musicmüzik,
and maybe ordersipariş some foodGıda,
84
295708
3601
ve itaatkâr kadın kişisel asistanlarına
siparişlerini emrediyorlar.
05:11
and now, they are barkingkabuk ordersemirler
at an obedientitaatkar femalekadın voiceses assistantYardımcısı.
85
299333
6584
05:19
Some of our brightestparlak mindszihinler
are creatingoluşturma this technologyteknoloji todaybugün.
86
307542
5309
En parlak zekâlarımızın bazıları
günümüzde bu teknolojiyi üretiyor.
05:24
TechnologyTeknoloji that they could have createdoluşturulan
in any way they wanted.
87
312875
4184
İstedikleri her türde
üretebilecekleri teknolojiyi,
1960'ların "Mad Man"daki
asistanlar tarzında üretmeyi seçiyorlar.
05:29
And yethenüz, they have chosenseçilmiş to createyaratmak it
in the stylestil of 1950s "MadDeli Man" secretarySekreter.
88
317083
5685
05:34
YayYay!
89
322792
1500
Yaşasın!
05:36
But OK, don't worryendişelenmek,
90
324958
1310
Ama endişelenmeyin,
konuşmamı, cinsiyetçi ve ırkçı makinelerin
yönettiği bir dünyaya doğru
05:38
this is not going to endson
with me tellingsöylüyorum you
91
326292
2059
05:40
that we are all headingbaşlık towardskarşı
sexistcinsiyet ayrımı, racistırkçı machinesmakineler runningkoşu the worldDünya.
92
328375
3477
ilerlediğimizi söyleyerek bitirmeyeceğim.
05:44
The good newshaber about AIAI
is that it is entirelyBaştan sona withiniçinde our controlkontrol.
93
332792
5791
İyi haber şu ki
yapay zekâ tümüyle bizim kontrolümüzde.
05:51
We get to teachöğretmek the right valuesdeğerler,
the right ethicsetik to AIAI.
94
339333
4000
Ona, doğru etik değerleri öğretebiliriz.
05:56
So there are threeüç things we can do.
95
344167
2184
Bu konuda yapabileceğimiz üç şey var.
05:58
One, we can be awarefarkında of our ownkendi biasesönyargıların
96
346375
3351
Birincisi, kendi ön yargılarımızın
ve makinelerin ön yargılarının
06:01
and the biasönyargı in machinesmakineler around us.
97
349750
2726
farkında olabiliriz.
06:04
Two, we can make sure that diverseçeşitli teamstakımlar
are buildingbina this technologyteknoloji.
98
352500
4518
İkincisi, bu teknolojiyi çeşitli grupların
ürettiğinden emin olabiliriz.
Üçüncüsü, yapay zekânın öğrenmesi için
ona çeşitli tecrübeler sunabiliriz.
06:09
And threeüç, we have to give it
diverseçeşitli experiencesdeneyimler to learnöğrenmek from.
99
357042
4916
06:14
I can talk about the first two
from personalkişisel experiencedeneyim.
100
362875
3309
Kişisel tecrübelerime dayanarak
ilk ikisi hakkında konuşabilirim.
06:18
When you work in technologyteknoloji
101
366208
1435
Teknolojiyle çalışıyorsanız
ve bir Mark Zuckerberg
ya da Elon Musk gibi görünmüyorsanız
06:19
and you don't look like
a MarkMark ZuckerbergZuckerberg or ElonElon MuskMisk,
102
367667
3392
06:23
your life is a little bitbit difficultzor,
your abilitykabiliyet getsalır questionedsorguya.
103
371083
3750
hayatınız biraz zor olur,
yetenekleriniz sorgulanır.
06:27
Here'sİşte just one exampleörnek.
104
375875
1393
Bir örnek vereyim.
06:29
Like mostçoğu developersgeliştiriciler,
I oftensık sık joinkatılmak onlineinternet üzerinden techteknoloji forumsforumlar
105
377292
3726
Çoğu geliştirici gibi ben de sık sık
çevrim içi teknoloji forumlarına katılıp
06:33
and sharepay my knowledgebilgi to help othersdiğerleri.
106
381042
3226
başkalarına yardımcı olmak için
bildiklerimi paylaşırım.
06:36
And I've foundbulunan,
107
384292
1309
Şunu anladım ki kendi fotoğrafım
ve kendi ismimle oturum açtığımda
06:37
when I logkütük on as myselfkendim,
with my ownkendi photoFotoğraf, my ownkendi nameisim,
108
385625
3976
06:41
I tendeğiliminde to get questionssorular
or commentsyorumlar like this:
109
389625
4601
şu tarz sorular ve yorumlar alıyorum:
06:46
"What makesmarkaları you think
you're qualifiednitelikli to talk about AIAI?"
110
394250
3000
"Yapay zekâyla ilgili konuşacak
vasıfta olduğunu düşündüren şey ne?"
"Makine öğrenimi hakkında bilgili
olduğunu düşünmeni sağlayan ne?"
06:50
"What makesmarkaları you think
you know about machinemakine learningöğrenme?"
111
398458
3476
06:53
So, as you do, I madeyapılmış a newyeni profileprofil,
112
401958
3435
Sonra, kendime yeni bir profil oluşturdum,
kendi fotoğrafım yerine
06:57
and this time, insteadyerine of my ownkendi pictureresim,
I choseseçti a catkedi with a jetjet packpaket on it.
113
405417
4851
sırtında roket olan bir kedi
fotoğrafı koydum
07:02
And I choseseçti a nameisim
that did not revealortaya çıkartmak my genderCinsiyet.
114
410292
2458
ve cinsiyetimi belli etmeyen
bir isim seçtim.
07:05
You can probablymuhtemelen guesstahmin
where this is going, right?
115
413917
2726
Bu işin nereye gittiğini
tahmin ettiniz değil mi?
07:08
So, this time, I didn't get any of those
patronizingtepeden commentsyorumlar about my abilitykabiliyet
116
416667
6392
Bu sefer yeteneğim hakkında
küçümseyici yorumlar almadım
07:15
and I was ableyapabilmek to actuallyaslında
get some work donetamam.
117
423083
3334
ve işe yarar bir şeyler yapabildim.
07:19
And it sucksberbat bir şey, guys.
118
427500
1851
Bu berbat bir durum.
07:21
I've been buildingbina robotsrobotlar sincedan beri I was 15,
119
429375
2476
15 yaşından beri robot yapıyorum,
birkaç bilgisayar bilimi derecem var
07:23
I have a fewaz degreesderece in computerbilgisayar scienceBilim,
120
431875
2268
ama yine de işimin ciddiye alınması için
cinsiyetimi gizlemek zorundayım.
07:26
and yethenüz, I had to hidesaklamak my genderCinsiyet
121
434167
2434
07:28
in ordersipariş for my work
to be takenalınmış seriouslycidden mi.
122
436625
2250
07:31
So, what's going on here?
123
439875
1893
Bu ne demek oluyor?
07:33
Are menerkekler just better
at technologyteknoloji than womenkadınlar?
124
441792
3208
Teknolojide erkekler
kadınlardan daha mı iyi?
07:37
AnotherBaşka bir studyders çalışma foundbulunan
125
445917
1559
Bir araştırmada, kadın kodlayıcılar
benim gibi cinsiyetlerini gizlediklerinde
07:39
that when womenkadınlar coderskodlama on one platformplatform
hidsakladı theironların genderCinsiyet, like myselfkendim,
126
447500
4934
kodlarının erkeklere oranla yüzde dört
daha fazla kabul edildiği bulunmuş.
07:44
theironların codekod was acceptedkabul edilmiş
fourdört percentyüzde more than menerkekler.
127
452458
3250
07:48
So this is not about the talentyetenek.
128
456542
2916
Yani bunun yetenekle ilgisi yok.
07:51
This is about an elitismelitizm in AIAI
129
459958
2893
Bu, bir programcının belirli bir kişi gibi
görünmesi gerektiğini söyleyen
07:54
that saysdiyor a programmerprogramcı
needsihtiyaçlar to look like a certainbelli personkişi.
130
462875
2792
yapay zekânın elitliği.
07:59
What we really need to do
to make AIAI better
131
467375
3101
Yapay zekâyı geliştirmek için
yapmamız gereken şey
08:02
is bringgetirmek people
from all kindsçeşit of backgroundsarka.
132
470500
3042
her türden geçmişe sahip
insanları bir araya getirmek.
08:06
We need people who can
writeyazmak and tell storieshikayeleri
133
474542
2559
Yapay zekâ kişilikleri oluşturmamıza
yardım edecek hikâyeler yazıp anlatabilen,
08:09
to help us createyaratmak personalitieskişilikleri of AIAI.
134
477125
2167
08:12
We need people who can solveçözmek problemssorunlar.
135
480208
2042
problem çözebilen,
farklı zorluklarla yüzleşebilen,
08:15
We need people
who faceyüz differentfarklı challengeszorluklar
136
483125
3768
çözülmesi gereken gerçek sorunların
neler olduğunu söyleyebilen
08:18
and we need people who can tell us
what are the realgerçek issuessorunlar that need fixingsabitleme
137
486917
5351
ve bu sorunları teknolojinin çözmesi için
yöntemler öneren kişilere ihtiyacımız var.
08:24
and help us find waysyolları
that technologyteknoloji can actuallyaslında fixdüzeltmek it.
138
492292
3041
08:29
Because, when people
from diverseçeşitli backgroundsarka come togetherbirlikte,
139
497833
3726
Çünkü çeşitli geçmişe sahip insanlar
bir araya geldiğine,
yapılanı olması gerektiği gibi yaptığında
imkânlar sınırsız olur.
08:33
when we buildinşa etmek things in the right way,
140
501583
2143
08:35
the possibilitiesolasılıklar are limitlesssınırsız.
141
503750
2042
İşte bunun hakkında konuşmak istiyorum.
08:38
And that's what I want to endson
by talkingkonuşma to you about.
142
506750
3309
Daha az ırkçı robotlar,
işimizi elimizden alacak daha az makine
08:42
LessDaha az racistırkçı robotsrobotlar, lessaz machinesmakineler
that are going to take our jobsMeslekler --
143
510083
4225
ve teknolojinin aslında neler
başarabileceği hakkında daha fazla şey.
08:46
and more about what technologyteknoloji
can actuallyaslında achievebaşarmak.
144
514332
3125
08:50
So, yes, some of the energyenerji
in the worldDünya of AIAI,
145
518292
3434
Yani evet, yapay zekâ dünyasında,
teknoloji dünyasında enerjinin bir kısmı
08:53
in the worldDünya of technologyteknoloji
146
521750
1393
yayın akışınızda hangi reklamları
gördüğünüzle ilgili olacak.
08:55
is going to be about
what adsreklamlar you see on your streamakım.
147
523167
4267
Ama birçoğu, dünyayı daha iyi
bir yer yapmak için harcanacak.
08:59
But a lot of it is going towardskarşı
makingyapma the worldDünya so much better.
148
527458
5209
Demokratik Kongo Cumhuriyeti'nde
hamile bir kadın düşünün.
09:05
Think about a pregnanthamile womankadın
in the DemocraticDemokratik RepublicCumhuriyeti of CongoKongo Cumhuriyeti,
149
533500
3768
09:09
who has to walkyürümek 17 hourssaatler
to her nearesten yakın ruralkırsal prenatalDoğum öncesi clinicklinik
150
537292
4184
Kontrole gitmek için en yakın
doğum kliniğine 17 saat yürümek zorunda.
09:13
to get a checkupcheck-up.
151
541500
1851
Bunun yerine telefonundan
tanı konulabilseydi?
09:15
What if she could get diagnosisTanı
on her phonetelefon, insteadyerine?
152
543375
2917
09:19
Or think about what AIAI could do
153
547750
1809
Her üç kadından birinin aile içi şiddete
maruz kaldığı Güney Afrika'yı
09:21
for those one in threeüç womenkadınlar
in SouthGüney AfricaAfrika
154
549583
2726
ve yapay zekânın bu kadınlar için
yapabileceklerini bir düşünün.
09:24
who faceyüz domesticyerli violenceşiddet.
155
552333
2125
Buna karşı ses çıkarmaları güvenli değilse
09:27
If it wasn'tdeğildi safekasa to talk out loudyüksek sesle,
156
555083
2726
tehlikeye dikkat çekmek
ve finansal ve hukuki destek almak için
09:29
they could get an AIAI servicehizmet
to raiseyükseltmek alarmalarm,
157
557833
2476
09:32
get financialmali and legalyasal advicetavsiye.
158
560333
2459
bir yapay zekâ hizmeti edinebilirler.
09:35
These are all realgerçek examplesörnekler of projectsprojeler
that people, includingdahil olmak üzere myselfkendim,
159
563958
5018
Bunların hepsi ben de dahil insanların,
üzerinde çalıştığı gerçek projeler.
09:41
are workingçalışma on right now, usingkullanma AIAI.
160
569000
2500
09:45
So, I'm sure in the nextSonraki coupleçift of daysgünler
there will be yethenüz anotherbir diğeri newshaber storyÖykü
161
573542
3601
Eminim ki birkaç gün içinde
varoluşsal tehlikeyle ilgili
09:49
about the existentialvaroluşsal riskrisk,
162
577167
2684
veya robotların işlerinizi elinizden
alacağı hakkında yeni haberler çıkacak.
09:51
robotsrobotlar takingalma over
and cominggelecek for your jobsMeslekler.
163
579875
2434
(Gülüşmeler)
09:54
(LaughterKahkaha)
164
582333
1018
Böyle bir şey olduğunda
09:55
And when something like that happensolur,
165
583375
2309
gelecekle ilgili endişelenenlerden
yine aynı mesajları alacağım.
09:57
I know I'll get the sameaynı messagesmesajları
worryingendişe verici about the futuregelecek.
166
585708
3601
10:01
But I feel incrediblyinanılmaz positivepozitif
about this technologyteknoloji.
167
589333
3667
Ama ben teknoloji hakkında
son derece olumlu hissediyorum.
10:07
This is our chanceşans to remakeremake the worldDünya
into a much more equaleşit placeyer.
168
595458
5959
Bu, dünyayı çok daha eşit bir yer
yapabilmemiz için bir şans.
10:14
But to do that, we need to buildinşa etmek it
the right way from the get go.
169
602458
4000
Fakat bunu yapabilmek için en temelden
itibaren doğru inşa etmemiz gerekiyor.
10:19
We need people of differentfarklı genderscinsiyet,
racesyarışları, sexualitiesAfric and backgroundsarka.
170
607667
5083
Farklı cinsiyet, ırk, cinsel yönelim
ve geçmişlerden insana ihtiyacımız var.
Sadece sahibinin emrini yerine getiren
kadın makinelere değil
10:26
We need womenkadınlar to be the makersvericiler
171
614458
2476
10:28
and not just the machinesmakineler
who do the makers'yapımcıların biddingteklif verme.
172
616958
3000
üretici olan kadınlara ihtiyacımız var.
Makinelere ne öğrettiğimize
ve hangi verileri verdiğimize
10:33
We need to think very carefullydikkatlice
what we teachöğretmek machinesmakineler,
173
621875
3768
10:37
what dataveri we give them,
174
625667
1642
çok dikkat etmeliyiz ki
geçmiş hatalarımızı tekrarlamasınlar.
10:39
so they don't just repeattekrar et
our ownkendi pastgeçmiş mistakeshatalar.
175
627333
3125
10:44
So I hopeumut I leaveayrılmak you
thinkingdüşünme about two things.
176
632125
3542
Umarım iki şey hakkında
düşünerek buradan ayrılırsınız.
Birincisi, ön yargılar.
10:48
First, I hopeumut you leaveayrılmak
thinkingdüşünme about biasönyargı todaybugün.
177
636542
4559
Doğum kliniklerine veya bahis sitelerine
ilgi duyduğunuzu varsayan
10:53
And that the nextSonraki time
you scrollkaydırma pastgeçmiş an advertreklam
178
641125
3184
10:56
that assumesvarsayar you are interestedilgili
in fertilitydoğurganlık clinicsklinikler
179
644333
2810
bir reklamla karşılaştığınızda
umarım düşünüp hatırlarsınız ki
10:59
or onlineinternet üzerinden bettingbahis websitesweb siteleri,
180
647167
2851
11:02
that you think and rememberhatırlamak
181
650042
2017
11:04
that the sameaynı technologyteknoloji is assumingvarsayarak
that a blacksiyah man will reoffendreoffend.
182
652083
4625
aynı teknoloji, siyahi bir adamın
tekrar suç işleyeceğini varsayıyor,
bir kadının, kişisel asistan olmasının,
CEO olmasından olası olduğunu varsayıyor.
11:09
Or that a womankadın is more likelymuhtemelen
to be a personalkişisel assistantYardımcısı than a CEOCEO.
183
657833
4167
Umarım bu, size bir şeyler
yapmamız gerektiğini hatırlatır.
11:14
And I hopeumut that remindshatırlatır you
that we need to do something about it.
184
662958
3709
İkincisi,
11:20
And secondikinci,
185
668917
1851
geleceğimiz için olağanüstü
bir güç olacak yapay zekâ oluşturmak için
11:22
I hopeumut you think about the factgerçek
186
670792
1892
11:24
that you don't need to look a certainbelli way
187
672708
1976
belli bir şekilde görünmenize
11:26
or have a certainbelli backgroundarka fon
in engineeringmühendislik or technologyteknoloji
188
674708
3851
veya mühendislik ya da teknoloji
geçmişinizin olmasına gerek yok.
11:30
to createyaratmak AIAI,
189
678583
1268
11:31
whichhangi is going to be
a phenomenalolağanüstü forcekuvvet for our futuregelecek.
190
679875
2875
11:36
You don't need to look
like a MarkMark ZuckerbergZuckerberg,
191
684166
2143
Mark Zuckerberg gibi
görünmenize gerek yok,
11:38
you can look like me.
192
686333
1250
benim gibi görünebilirsiniz.
En uç durumlar da dahil herkes için
yapay zekâ oluşturması için
11:41
And it is up to all of us in this roomoda
193
689250
2893
11:44
to convinceikna etmek the governmentshükümetler
and the corporationsşirketler
194
692167
2726
devleti ve şirketleri iknâ etmek
11:46
to buildinşa etmek AIAI technologyteknoloji for everyoneherkes,
195
694917
2892
11:49
includingdahil olmak üzere the edgekenar casesvakalar.
196
697833
2393
ve geleceğin olağanüstü teknolojisiyle
ilgili eğitim almak hepimizin görevi.
11:52
And for us all to get educationEğitim
197
700250
2059
11:54
about this phenomenalolağanüstü
technologyteknoloji in the futuregelecek.
198
702333
2375
Çünkü bunu yaptığımızda
11:58
Because if we do that,
199
706167
2017
yapay zekâyla yapabileceklerimizin için
ilk adımı atmış olacağız.
12:00
then we'vebiz ettik only just scratchedçizik the surfaceyüzey
of what we can achievebaşarmak with AIAI.
200
708208
4893
Teşekkürler.
12:05
Thank you.
201
713125
1268
(Alkışlar)
12:06
(ApplauseAlkış)
202
714417
2708
Translated by Nevaz Mescioğlu
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com