ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mitchell: İnsanlara yardım eden, onlara zarar vermeyen yapay zekâyı nasıl inşa edebiliriz

Filmed:
1,154,210 views

Google'da araştırma bilim insanı olan Margaret Mitchell, ne gördüğü ve anladığı hakkında iletişime geçebilecek bilgisayarların geliştirilmesine yardım etmektedir. Boşluklar, kör noktalar ve bilinç altında bilgisayarlara kodladığımız ön yargılar hakkında ikaz edici bir hikâye anlatmaktadır -- ve bugün yarattığımız teknolojinin yarın ne anlama geleceğini düşünmemizi istemektedir." Şimdi tüm gördüğümüz şey yapay zekanın sadece anlık görüntüsüdür." demektedir Margaret Mitchell. "Eğer yapay zekânın insanlara yardım edecek şekilde evrimleşmesini istiyorsak, bize bu yolu sağlayacak hedef ve stratejileri belirlemeye ihtiyacımız var."
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingyardım ediyor computersbilgisayarlar
communicateiletişim kurmak about the worldDünya around us.
0
1381
4015
Bilgisayarların çevremizdeki dünya ile
iletişim kurmasına yardım etmek
üzerine çalışıyorum ve bunu yapmanın
birçok yolu var
00:17
There are a lot of waysyolları to do this,
1
5754
1793
00:19
and I like to focusodak on helpingyardım ediyor computersbilgisayarlar
2
7571
2592
ben bilgisayarlara gördükleri ve
anladıkları hakkında konuşmaları için
00:22
to talk about what they see
and understandanlama.
3
10187
2874
yardım etme üzerine odaklanmayı
tercih ettim.
00:25
GivenVerilen a scenefaliyet alani, sahne like this,
4
13514
1571
Böyle bir sahneyi göz önüne alın,
00:27
a modernmodern computer-visionbilgisayar-vizyon algorithmalgoritma
5
15109
1905
modern bilgisayar-vizyonu algoritması
00:29
can tell you that there's a womankadın
and there's a dogköpek.
6
17038
3095
burada bir kadın var
ve bir köpek var diyebilir.
00:32
It can tell you that the womankadın is smilinggülümseyen.
7
20157
2706
Kadının gülümsediğini size söyleyebilir.
00:34
It mightbelki even be ableyapabilmek to tell you
that the dogköpek is incrediblyinanılmaz cuteşirin.
8
22887
3873
Hatta köpeğin inanılmaz bir şekilde
sevimli olduğunu söyleyebilir.
00:38
I work on this problemsorun
9
26784
1349
Benim üzerinde çalıştığım problem
yapay zekânın insanların dünyayı
00:40
thinkingdüşünme about how humansinsanlar
understandanlama and processsüreç the worldDünya.
10
28157
4212
nasıl anladığını ve
nasıl değerlendirdiğini düşünmesi.
00:45
The thoughtsdüşünceler, memorieshatıralar and storieshikayeleri
11
33577
2952
Düşünceler, anılar ve hikâyeler.
00:48
that a scenefaliyet alani, sahne like this
mightbelki evokeuyandırmak for humansinsanlar.
12
36553
2818
bu gibi sahneler insanlara
hatırlatılabilir.
00:51
All the interconnectionsbağlantıları
of relatedilgili situationsdurumlar.
13
39395
4285
İlgili durumların tüm bağlantıları.
00:55
Maybe you've seengörüldü
a dogköpek like this one before,
14
43704
3126
Belki de daha önce bunun gibi bir
köpek görmüşsünüzdür
00:58
or you've spentharcanmış time
runningkoşu on a beachplaj like this one,
15
46854
2969
veya bunun gibi sahilde koşarak
zaman geçirmişsinizdir
01:01
and that furtherayrıca evokesçağrıştıran thoughtsdüşünceler
and memorieshatıralar of a pastgeçmiş vacationtatil,
16
49847
4778
ve ayrıca eski bir tatile ait
anı ve düşünceleri anımsatmaktadır,
01:06
pastgeçmiş timeszamanlar to the beachplaj,
17
54649
1920
sahildeki geçmiş zamanlar,
01:08
timeszamanlar spentharcanmış runningkoşu around
with other dogsköpekler.
18
56593
2603
başka köpeklerle beraber etrafta beraber
koşarak geçen zamanlar.
01:11
One of my guidingrehberlik principlesprensipler
is that by helpingyardım ediyor computersbilgisayarlar to understandanlama
19
59688
5207
Bana ışık tutan prensiplerimden
bir tanesi de bu tecrübeye sahip olmanın
nasıl bir şey olduğunu
bilgisayarın anlamasını sağlarsak
01:16
what it's like to have these experiencesdeneyimler,
20
64919
2896
01:19
to understandanlama what we sharepay
and believe and feel,
21
67839
5176
ne paylaştığımızı, neye inandığımızı ve
ne hissettiğimizi anlamasını sağlarsak
01:26
then we're in a great positionpozisyon
to startbaşlama evolvinggelişen computerbilgisayar technologyteknoloji
22
74094
4310
bilgisayar teknolojisini
bizim tecrübelerimizle uyumlu bir şekilde
01:30
in a way that's complementarytamamlayıcı
with our ownkendi experiencesdeneyimler.
23
78428
4587
geliştirmeye başlamak için
harika bir yerdeyiz demektir.
01:35
So, diggingkazma more deeplyderinden into this,
24
83539
3387
Bu nedenle, bunu daha derinlemesine
araştırırken,
01:38
a fewaz yearsyıl agoönce I beganbaşladı workingçalışma on helpingyardım ediyor
computersbilgisayarlar to generateüretmek human-likeİnsan gibi storieshikayeleri
25
86950
5905
birkaç yıl önce bir dizi fotoğraftan
bilgisayarların insan benzeri hikâyeler
üretmesine yardımcı olmak üzere
çalışmaya başladım.
01:44
from sequencesdizileri of imagesGörüntüler.
26
92879
1666
01:47
So, one day,
27
95427
1904
Ve bir gün,
01:49
I was workingçalışma with my computerbilgisayar to asksormak it
what it thought about a tripgezi to AustraliaAvustralya.
28
97355
4622
bilgisayarımla Avustralya gezisi hakkında
ne düşündüğünü sormak için çalışıyordum.
01:54
It tookaldı a look at the picturesresimler,
and it saw a koalaKoala.
29
102768
2920
Resme baktı ve bir koala gördü.
01:58
It didn't know what the koalaKoala was,
30
106236
1643
Koala'nın ne olduğunu bilmiyor
01:59
but it said it thought
it was an interesting-lookingilginç görünümlü creatureyaratık.
31
107903
2999
fakat ilginç görünümlü bir
yaratık olduğunu düşündüğünü söyledi.
02:04
Then I sharedpaylaşılan with it a sequencesıra of imagesGörüntüler
about a houseev burningyanan down.
32
112053
4004
Ardından onunla bir dizi yanan ev
resmi paylaştım.
02:09
It tookaldı a look at the imagesGörüntüler and it said,
33
117704
3285
Resimlere baktı ve dedi ki,
02:13
"This is an amazingşaşırtıcı viewgörünüm!
This is spectacularmuhteşem!"
34
121013
3500
" Bu hayret verici bir görüntü,
bu olağanüstü."
02:17
It sentgönderilen chillstitreme down my spineomurga.
35
125450
2095
Ürperdim.
02:20
It saw a horriblekorkunç, life-changingdeğişen yaşam
and life-destroyinghayat yok eventolay
36
128983
4572
O korkunç, hayatı değiştiren ve hayatı yok
eden olay gördü
02:25
and thought it was something positivepozitif.
37
133579
2382
ve bir şeylerin olumlu olduğunu düşündü.
02:27
I realizedgerçekleştirilen that it recognizedtanınan
the contrastkontrast,
38
135985
3441
Bence, kırmızı sarı zıtlığını
02:31
the redsKızıllar, the yellowsSarı,
39
139450
2699
algıladı
02:34
and thought it was something
worthdeğer remarkingyatacak on positivelypozitif olarak.
40
142173
3078
ve olumlu bakmaya değer
bir şey olarak düşündü.
02:37
And partBölüm of why it was doing this
41
145928
1615
Ve kısmen bunu yapmasının nedeni
02:39
was because mostçoğu
of the imagesGörüntüler I had givenverilmiş it
42
147577
2945
ona vermiş olduğum resimlerin
çoğunluğunun
02:42
were positivepozitif imagesGörüntüler.
43
150546
1840
olumlu görüntüler olmasıydı.
02:44
That's because people
tendeğiliminde to sharepay positivepozitif imagesGörüntüler
44
152903
3658
Bunun nedeni insanlar kendi
tecrübelerinden bahsederken
02:48
when they talk about theironların experiencesdeneyimler.
45
156585
2190
olumlu resimleri paylaşmaya
meyillidirler.
02:51
When was the last time
you saw a selfieselfie at a funeralcenaze?
46
159267
2541
En son ne zaman cenaze töreninde
paylaşılan bir selfie gödünüz?
02:55
I realizedgerçekleştirilen that,
as I workedişlenmiş on improvinggeliştirme AIAI
47
163434
3095
Anladım ki yapay zekâyı geliştirmek
üzere çalışıyorken
02:58
taskgörev by taskgörev, datasetveri kümesi by datasetveri kümesi,
48
166553
3714
görevden göreve,
veri setinden veri setine,
03:02
that I was creatingoluşturma massivemasif gapsboşluklar,
49
170291
2897
çok büyük boşluklar,
03:05
holesdelikler and blindkör spotsnoktalar
in what it could understandanlama.
50
173212
3999
delikler ve onun anlayabileceği
kör noktalar yaratıyordum.
03:10
And while doing so,
51
178307
1334
Ve bunu yaparken,
03:11
I was encodingkodlama all kindsçeşit of biasesönyargıların.
52
179665
2483
her türlü ön yargıyı kodluyordum.
03:15
BiasesÖnyargıları that reflectyansıtmak a limitedsınırlı viewpointbakış açısı,
53
183029
3318
Kısıtlı bir bakış açısını yansıtan
ön yargılar,
03:18
limitedsınırlı to a singletek datasetveri kümesi --
54
186371
2261
tek veri seti ile sınırlanmış--
03:21
biasesönyargıların that can reflectyansıtmak
humaninsan biasesönyargıların foundbulunan in the dataveri,
55
189283
3858
insan ön yargılarını yansıtabilen
ön yargılar verilerde de bulunur,
03:25
suchböyle as prejudiceönyargı and stereotypingsterotipleme.
56
193165
3104
ön yargı ve basma kalıp düşünceler gibi.
03:29
I thought back to the evolutionevrim
of the technologyteknoloji
57
197554
3057
Beni o gün olduğum yere
getiren teknolojinin
03:32
that broughtgetirdi me to where I was that day --
58
200635
2502
evrimini düşündüm--
03:35
how the first colorrenk imagesGörüntüler
59
203966
2233
ilk renkli resmin nasıl
03:38
were calibratedkalibre againstkarşısında
a whitebeyaz woman'skadının skincilt,
60
206223
3048
beyaz kadının tenine uyarlandığını
03:41
meaninganlam that colorrenk photographyfotoğrafçılık
was biasedönyargılı againstkarşısında blacksiyah facesyüzleri.
61
209665
4145
renkli fotoğrafçılığın siyah yüzlere karşı
ön yargılı olduğu anlamına geliyordu.
03:46
And that sameaynı biasönyargı, that sameaynı blindkör spotyer
62
214514
2925
Ve bu benzer ön yargı,
bu aynı kör nokta
03:49
continueddevam etti well into the '90s.
63
217463
1867
90'larda da devam etti.
03:51
And the sameaynı blindkör spotyer
continuesdevam ediyor even todaybugün
64
219701
3154
Hatta aynı kör nokta yüz tanıma
teknolojisinde farklı insanların
03:54
in how well we can recognizetanımak
differentfarklı people'sinsanların facesyüzleri
65
222879
3698
yüzlerini ne kadar iyi
tanıdığımız konusunda
03:58
in facialYüz Bakımı recognitiontanıma technologyteknoloji.
66
226601
2200
bugün de devam etmektedir.
04:01
I thoughgerçi about the statebelirtmek, bildirmek of the artSanat
in researchAraştırma todaybugün,
67
229323
3143
Bugünkü araştırmalardaki gelişmişlik
seviyesini düşündüm, kendi düşüncemizi
04:04
where we tendeğiliminde to limitsınır our thinkingdüşünme
to one datasetveri kümesi and one problemsorun.
68
232490
4514
bir veri setinde ve bir problemde
sınırlamaya meyilli olduğumuz yerde.
04:09
And that in doing so, we were creatingoluşturma
more blindkör spotsnoktalar and biasesönyargıların
69
237688
4881
Ve bunu yaparken, yapay zekânın
daha fazla büyüteceği
birçok kör nokta
ve ön yargı yarattım.
04:14
that the AIAI could furtherayrıca amplifyyükseltmek.
70
242593
2277
04:17
I realizedgerçekleştirilen then
that we had to think deeplyderinden
71
245712
2079
Ardından anladım ki, bugün üzerinde
çalıştığımız teknolojinin
04:19
about how the technologyteknoloji we work on todaybugün
looksgörünüyor in fivebeş yearsyıl, in 10 yearsyıl.
72
247815
5519
beş yıl içresinde, 10 yıl içerisinde nasıl
görüneceğini derinlemesine düşünmeliydik.
04:25
Humansİnsanlar evolvegelişmek slowlyyavaşça,
with time to correctdoğru for issuessorunlar
73
253990
3142
İnsan zamanla insanlarla ve
çevresiyle etkileşimindeki
04:29
in the interactionetkileşim of humansinsanlar
and theironların environmentçevre.
74
257156
3534
meseleleri düzelterek
yavaş yavaş evrimleşir.
04:33
In contrastkontrast, artificialyapay intelligencezeka
is evolvinggelişen at an incrediblyinanılmaz fasthızlı rateoran.
75
261276
5429
Aksine, yapay zekâ inanılmaz bir
hızla evrimleşmektedir.
04:39
And that meansanlamına geliyor that it really mattershususlar
76
267013
1773
Ve bu şu anlama gelir,
bu hemen şimdi
04:40
that we think about this
carefullydikkatlice right now --
77
268810
2317
dikkatli bir şekilde
düşünmemiz gereken bir konudur --
04:44
that we reflectyansıtmak on our ownkendi blindkör spotsnoktalar,
78
272180
3008
ki biz bunun üzerine kendi
kör noktamızı
04:47
our ownkendi biasesönyargıların,
79
275212
2317
kendi ön yargılarımızı yansıtıyoruz
04:49
and think about how that's informingihbar
the technologyteknoloji we're creatingoluşturma
80
277553
3857
ve bu bilgi teknolojilerini nasıl
yarattığımız hakkında düşünmeliyiz
04:53
and discusstartışmak what the technologyteknoloji of todaybugün
will mean for tomorrowyarın.
81
281434
3902
ve bugünün teknolojisinin yarın
için ne ifade edeceğini tartışmalıyız.
04:58
CEOsCEO'ları and scientistsBilim adamları have weighedtartılır in
on what they think
82
286593
3191
CEO'lar ve bilim insanları geleceğin
yapay zekâ teknolojilerinin
05:01
the artificialyapay intelligencezeka technologyteknoloji
of the futuregelecek will be.
83
289808
3325
ne olacağını düşünmek üzerine
ağırlıklarını koydular.
05:05
StephenStephen HawkingHawking warnsuyardı that
84
293157
1618
Stephen Hawking,
05:06
"ArtificialYapay intelligencezeka
could endson mankindinsanlık."
85
294799
3007
"Yapay zekâ insanların sonu olabilir"
uyarısını yaptı.
05:10
ElonElon MuskMisk warnsuyardı
that it's an existentialvaroluşsal riskrisk
86
298307
2683
Elon Musk, bunun bir varoluşsal
risk olduğu ve toplum olarak
05:13
and one of the greatestEn büyük risksriskler
that we faceyüz as a civilizationmedeniyet.
87
301014
3574
karşı karşıya olduğumuz en büyük
risklerden biri olduğu konusunda uyardı.
Bill Gates
bir noktaya işaret etti;
05:17
BillBill GatesGates has madeyapılmış the pointpuan,
88
305665
1452
05:19
"I don't understandanlama
why people aren'tdeğil more concernedilgili."
89
307141
3185
"İnsanların niçin daha fazla alakadar
olmadığını anlamıyorum."
05:23
But these viewsgörünümler --
90
311412
1318
Fakat bu görüşler--
05:25
they're partBölüm of the storyÖykü.
91
313618
1734
hikâyenin sadece bir bölümü.
05:28
The mathmatematik, the modelsmodeller,
92
316079
2420
Matematik, modeller
05:30
the basictemel buildingbina blocksbloklar
of artificialyapay intelligencezeka
93
318523
3070
yapay zekânın temel yapı taşları
05:33
are something that we call accesserişim
and all work with.
94
321617
3135
erişim olarak tanımladığımız ve
bununla alakadar şeylerdir.
05:36
We have open-sourceaçık kaynak toolsaraçlar
for machinemakine learningöğrenme and intelligencezeka
95
324776
3785
Machine Learning ve katkıda
bulunduğumuz zekâ için
açık kaynak araçlarına sahibiz.
05:40
that we can contributekatkıda bulunmak to.
96
328585
1734
05:42
And beyondötesinde that,
we can sharepay our experiencedeneyim.
97
330919
3340
Ve bunun ötesinde, tecrübelerimizi
paylaşabiliyoruz.
05:46
We can sharepay our experiencesdeneyimler
with technologyteknoloji and how it concernsendişeler us
98
334760
3468
Tecrübelerimizi teknolojiyle
paylaşabiliyoruz ve bizi nasıl
05:50
and how it excitesheyecanlandıran us.
99
338252
1467
alakadar ettiği
bizi nasıl cezbettiği
05:52
We can discusstartışmak what we love.
100
340251
1867
Neyi sevdiğimizi tartışabiliriz.
05:55
We can communicateiletişim kurmak with foresightöngörü
101
343244
2031
Daha faydalı olabilecek veya zamanla
05:57
about the aspectsyönleri of technologyteknoloji
that could be more beneficialfaydalı
102
345299
4857
daha sorunlu olabilecek teknolojinin
görünümleri hakkında
06:02
or could be more problematicsorunsal over time.
103
350180
2600
ön görü ile iletişim kurabiliriz.
06:05
If we all focusodak on openingaçılış up
the discussiontartışma on AIAI
104
353799
4143
Eğer geleceğe yönelik öngörü ile beraber
yapay zekâ üzerine tartışma
06:09
with foresightöngörü towardskarşı the futuregelecek,
105
357966
1809
açmak üzerine odaklanırsak
06:13
this will help createyaratmak a generalgenel
conversationkonuşma and awarenessfarkında olma
106
361093
4270
bu şimdi yapay zekânın ne olduğu,
06:17
about what AIAI is now,
107
365387
2513
ne olabileceği
ve bize en uygun sonucu
mümkün kılması için
06:21
what it can becomeolmak
108
369212
2001
06:23
and all the things that we need to do
109
371237
1785
yapmamız gereken her şey hakkında
06:25
in ordersipariş to enableetkinleştirmek that outcomesonuç
that besten iyi suitstakım elbise us.
110
373046
3753
genel bir tartışma ve farkındalık
yaratmamıza yardım edecektir.
06:29
We alreadyzaten see and know this
in the technologyteknoloji that we use todaybugün.
111
377490
3674
Bunu bugün kullandığımız teknolojide
zaten gördük ve anladık.
06:33
We use smartakıllı phonestelefonlar
and digitaldijital assistantsyardımcıları and RoombasRoombas.
112
381767
3880
Akıllı telefon, dijital asistan ve
Roombas kullanıyoruz.
06:38
Are they evilkötülük?
113
386457
1150
Bunlar kötü mü?
06:40
Maybe sometimesara sıra.
114
388268
1547
Belki bazen.
06:42
Are they beneficialfaydalı?
115
390664
1333
Faydalı mı?
06:45
Yes, they're that, too.
116
393005
1533
Evet, ayrıca faydalı.
06:48
And they're not all the sameaynı.
117
396236
1761
Ve bunların hepsi aynı değil.
06:50
And there you alreadyzaten see
a lightışık shiningparlıyor on what the futuregelecek holdstutar.
118
398489
3540
Ve burada geleceğin getireceklerinin
ışığını şimdiden görüyorsun.
06:54
The futuregelecek continuesdevam ediyor on
from what we buildinşa etmek and createyaratmak right now.
119
402942
3619
Gelecek şimdi yarattığımız ve inşa
ettiğimiz şeyden devam ediyor.
06:59
We setset into motionhareket that dominoDomino effectEfekt
120
407165
2642
Yapay zekânın evrimsel yolunu açan
07:01
that carvesaçmaktadır out AI'sAI'ın evolutionaryevrimsel pathyol.
121
409831
2600
domino etkisi yaratan hareketi başlattık.
07:05
In our time right now,
we shapeşekil the AIAI of tomorrowyarın.
122
413173
2871
Bizim zamanımızda şimdi,
yarının yapay zekâsını şekillendiriyoruz.
07:08
TechnologyTeknoloji that immersesimmerses us
in augmentedartar realitiesgerçekler
123
416566
3699
Bizi artırılmış gerçekliğin
içine daldıran teknoloji
07:12
bringinggetiren to life pastgeçmiş worldsdünyalar.
124
420289
2566
geçmiş dünyaları canlandırıyor.
07:15
TechnologyTeknoloji that helpsyardım eder people
to sharepay theironların experiencesdeneyimler
125
423844
4312
İrtibat kurmakta zorluk çektiklerinde
kendi tecrübelerini paylaşmalarında
07:20
when they have difficultyzorluk communicatingiletişim.
126
428180
2262
insanlara yardımcı olan teknoloji.
07:23
TechnologyTeknoloji builtinşa edilmiş on understandinganlayış
the streamingyayın Akışı visualgörsel worldsdünyalar
127
431323
4532
Akan görsel dünyaları anlamak üzerine
inşa edilmiş olan teknoloji
sürücüsüz arabalarda kullanıyor.
07:27
used as technologyteknoloji for self-drivingkendi kendine sürüş carsarabalar.
128
435879
3079
07:32
TechnologyTeknoloji builtinşa edilmiş on understandinganlayış imagesGörüntüler
and generatingüretme languagedil,
129
440490
3413
Resimleri anlama ve dil üretmeyi anlama
üzerine inşa edilmiş olan teknoloji
07:35
evolvinggelişen into technologyteknoloji that helpsyardım eder people
who are visuallygörsel impairedayrılmış
130
443927
4063
görme engelli insanların
görsel dünyaya daha iyi ulaşmalarına
07:40
be better ableyapabilmek to accesserişim the visualgörsel worldDünya.
131
448014
2800
yardım eden teknolojiye evriliyor.
07:42
And we alsoAyrıca see how technologyteknoloji
can leadöncülük etmek to problemssorunlar.
132
450838
3261
Aynı zamanda teknolojinin nasıl
sorunlara yol açabileceğini de görüyoruz.
Bugün, ten rengimiz veya yüzümüzün
görüntüsü gibi doğuştan gelen
07:46
We have technologyteknoloji todaybugün
133
454885
1428
07:48
that analyzesanalizleri physicalfiziksel
characteristicskarakteristikleri we're borndoğmuş with --
134
456337
3835
fiziksel özelliklerimizi analiz ederek
07:52
suchböyle as the colorrenk of our skincilt
or the look of our faceyüz --
135
460196
3272
bizim suçlu veya terörist olma ya da
olmama ihtimalimizi belirlemek için
07:55
in ordersipariş to determinebelirlemek whetherolup olmadığını or not
we mightbelki be criminalssuçlular or terroriststeröristler.
136
463492
3804
kullanan teknolojilere sahibiz.
07:59
We have technologyteknoloji
that crunchesegzersizi throughvasitasiyla our dataveri,
137
467688
2905
Kredi alıp alamayacağımıza karar
vermek için verilerimizi
08:02
even dataveri relatingilgili
to our genderCinsiyet or our raceyarış,
138
470617
2896
hatta cinsiyetimiz veya ırkımızla
ilgili verileri kullanarak
08:05
in ordersipariş to determinebelirlemek whetherolup olmadığını or not
we mightbelki get a loanborç.
139
473537
2865
hesaplamalar yapan
bir teknolojiye sahibiz.
08:09
All that we see now
140
477494
1579
Şimdi gördüğümüz her şey
08:11
is a snapshotenstantane fotoğraf in the evolutionevrim
of artificialyapay intelligencezeka.
141
479097
3617
yapay zekânın evriminde anlık bir
görüntüdür.
08:15
Because where we are right now,
142
483763
1778
Çünkü şimdi olduğumuz yer
08:17
is withiniçinde a momentan of that evolutionevrim.
143
485565
2238
bu evrimin içinde kısa bir an.
08:20
That meansanlamına geliyor that what we do now
will affectetkilemek what happensolur down the linehat
144
488690
3802
Bunun anlamı, şu anda yaptığımız şey
gelecekte olacak
08:24
and in the futuregelecek.
145
492516
1200
şeyleri etkileyecektir.
08:26
If we want AIAI to evolvegelişmek
in a way that helpsyardım eder humansinsanlar,
146
494063
3951
Eğer yapay zekânın insanlığa yardım etme
yolunda evrimleşmesini istiyorsak
08:30
then we need to definetanımlamak
the goalshedefleri and strategiesstratejiler
147
498038
2801
bize bu yolu sağlayacak hedef ve
stratejileri belirlemeye
08:32
that enableetkinleştirmek that pathyol now.
148
500863
1733
ihtiyacımız var.
08:35
What I'd like to see is something
that fitsnöbetleri well with humansinsanlar,
149
503680
3738
Görmek istediğim şey
insanlar ile, bizim kültürümüz ve
çevremiz ile uyumlu bir şeylerdir.
08:39
with our culturekültür and with the environmentçevre.
150
507442
2800
08:43
TechnologyTeknoloji that aidsAIDS and assistsasist
those of us with neurologicalnörolojik conditionskoşullar
151
511435
4484
Hayatı herkes için eşit derecede
zorlayıcı yapmak için
nörolojik hastalıkları olanlar
08:47
or other disabilitiesEngelli
152
515943
1721
ya da diğer engelli olanlarımıza
yardımcı ve destekleyici olacak teknoloji.
08:49
in ordersipariş to make life
equallyaynı derecede challengingmeydan okuma for everyoneherkes.
153
517688
3216
08:54
TechnologyTeknoloji that worksEserleri
154
522097
1421
Demografik yapı veya
08:55
regardlessne olursa olsun of your demographicsdemografisi
or the colorrenk of your skincilt.
155
523542
3933
ten rengine bakmaksızın çalışan teknoloji.
09:00
And so todaybugün, what I focusodak on
is the technologyteknoloji for tomorrowyarın
156
528383
4742
Ve bugün, odaklandığım şey gelecek
için, bundan 10 yıl sonrası için
09:05
and for 10 yearsyıl from now.
157
533149
1733
teknoloji.
09:08
AIAI can turndönüş out in manyçok differentfarklı waysyolları.
158
536530
2634
Yapay zekâ farklı şekillerde
ortaya çıkabilir.
09:11
But in this casedurum,
159
539688
1225
Fakat bu durumda,
09:12
it isn't a self-drivingkendi kendine sürüş cararaba
withoutolmadan any destinationhedef.
160
540937
3328
varış noktası olmayan bir sürücüsüz
araba değildir.
09:16
This is the cararaba that we are drivingsürme.
161
544884
2400
Burada bizim sürdüğümüz
bir araba vardır.
09:19
We chooseseçmek when to speedhız up
and when to slowyavaş down.
162
547953
3595
Ne zaman hızlanacağını veya
yavaşlayacağını biz seçeriz.
09:23
We chooseseçmek if we need to make a turndönüş.
163
551572
2400
Dönüş yapmamız gerekiyorsa biz seçeriz.
09:26
We chooseseçmek what the AIAI
of the futuregelecek will be.
164
554868
3000
Gelecekteki yapay zekânın ne olacağını
biz belirleriz.
09:31
There's a vastgeniş playingoynama fieldalan
165
559186
1337
Yapay zekânın olabileceği
09:32
of all the things that artificialyapay
intelligencezeka can becomeolmak.
166
560547
2965
her şeyin geniş
oyun alanları vardır.
09:36
It will becomeolmak manyçok things.
167
564064
1800
Birçok şey olacaktır.
09:39
And it's up to us now,
168
567694
1732
Ve şimdi bu bize kaldı,
09:41
in ordersipariş to figureşekil out
what we need to put in placeyer
169
569450
3061
bunu halletmek adına
yapay zekanın sonuçlarından
emin olmak için
09:44
to make sure the outcomesçıktıları
of artificialyapay intelligencezeka
170
572535
3807
09:48
are the onesolanlar that will be
better for all of us.
171
576366
3066
yerine koymamız gereken şey
hepimiz için daha iyi olanlardır.
09:51
Thank you.
172
579456
1150
Teşekkür ederim.
09:52
(ApplauseAlkış)
173
580630
2187
(Alkış)
Translated by fatih Yürekli
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com