ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tüfekçi: İnsanların reklamlara tıklaması için bir distopya yaratıyoruz

Filmed:
2,866,905 views

Tekno-sosyolog Zeynep Tüfekçi; her tıklamayla beraber, yapay zeka kaynaklı bir distopya inşa ettiğimizi anlatıyor. Ufuk açan bu konuşmasında Tüfekçi; Facebook, Google ve Amazon gibi şirketlerin, reklamlara tıklamamız için kullandıkları algoritmaların, aynı zamanda siyasi ve sosyal bilgiye erişimimizin organize edilmesi için de kullandığını ayrıntılı bir şekilde ortaya koyuyor. Ve asıl tehdit unsuru, makineler değil. Anlamamız gereken şey; gücü elinde tutanların, bizi kontrol etmek için yapay zekayı ne şekilde kullanabileceği -ve bizim bu durum karşısında ne yapabileceğimiz.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceses fearsendişe
of artificialyapay intelligencezeka,
0
760
3536
İnsanlar yapay zekayla ilgili
korkularını dile getirdiğinde,
00:16
very oftensık sık, they invokeçağırmak imagesGörüntüler
of humanoidinsanımsı robotsrobotlar runkoş amokamok.
1
4320
3976
genellikle kontrolden çıkmış
insansı robotları hayal ederler.
00:20
You know? TerminatorSonlandırıcı?
2
8320
1240
Terminatör gibi.
00:22
You know, that mightbelki be
something to considerdüşünmek,
3
10400
2336
Düşünmeye değer olsa da
00:24
but that's a distantuzak threattehdit.
4
12760
1856
uzak bir tehdit bu.
00:26
Or, we fretperde about digitaldijital surveillancegözetim
5
14640
3456
Bazen de geçmişe özgü benzetmelerle
00:30
with metaphorsmetaforlar from the pastgeçmiş.
6
18120
1776
dijital gözetlenme kaygısı taşıyoruz.
00:31
"1984," GeorgeGeorge Orwell'sOrwell'ın "1984,"
7
19920
2656
George Orwell'ın ''1984'' adlı eseri
00:34
it's hittingisabet the bestsellerEn çok satanlar listslisteleri again.
8
22600
2280
şu an yine en çok satanlar listesinde.
00:37
It's a great bookkitap,
9
25960
1416
Harika bir kitap
00:39
but it's not the correctdoğru dystopiadistopya
for the 21stst centuryyüzyıl.
10
27400
3880
ama 21. yüzyıl için doğru distopya değil.
00:44
What we need to fearkorku mostçoğu
11
32080
1416
En çok korkmamız gereken şey
00:45
is not what artificialyapay intelligencezeka
will do to us on its ownkendi,
12
33520
4776
yapay zekanın kendi başına
bize ne yapacağı değil,
00:50
but how the people in powergüç
will use artificialyapay intelligencezeka
13
38320
4736
güç sahibi insanların
bizi kontrol ve manipüle etmek adına
00:55
to controlkontrol us and to manipulateidare us
14
43080
2816
yeni, bazen saklı
00:57
in novelyeni, sometimesara sıra hiddengizli,
15
45920
3136
bazen belirsiz ve beklenmeyen şekilde
01:01
subtleince and unexpectedbeklenmedik waysyolları.
16
49080
3016
bunu nasıl kullanacakları.
01:04
Much of the technologyteknoloji
17
52120
1856
Yakın gelecekteki bağımsızlığımızı
01:06
that threatenstehdit our freedomözgürlük
and our dignityhaysiyet in the near-termyakın dönemde futuregelecek
18
54000
4336
ve itibarımızı tehdit eden
teknolojinin büyük kısmı
01:10
is beingolmak developedgelişmiş by companiesşirketler
19
58360
1856
veri ve dikkatimizi toplayıp
01:12
in the business of capturingyakalama
and sellingsatış our dataveri and our attentionDikkat
20
60240
4936
reklamcı ve benzerlerine satan
01:17
to advertisersreklamverenler and othersdiğerleri:
21
65200
2256
şirketler tarafından geliştiriliyor:
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialyapay intelligencezeka has startedbaşladı
bolsteringdestekleme theironların business as well.
24
74040
5496
Şimdi yapay zeka da onların işlerine
katkıda bulunmaya başladı.
01:31
And it mayMayıs ayı seemgörünmek
like artificialyapay intelligencezeka
25
79560
2096
Yapay zeka,
internet reklamcılığından sonra gelen
01:33
is just the nextSonraki thing after onlineinternet üzerinden adsreklamlar.
26
81680
2856
yeni bir teknoloji gibi görünse de
01:36
It's not.
27
84560
1216
durum farklı.
01:37
It's a jumpatlama in categorykategori.
28
85800
2456
Söz konusu olan,
ilgili alanda yepyeni bir açılım.
01:40
It's a wholebütün differentfarklı worldDünya,
29
88280
2576
Tamamen farklı bir dünya
01:42
and it has great potentialpotansiyel.
30
90880
2616
ve büyük potansiyeli var.
01:45
It could acceleratehızlandırmak our understandinganlayış
of manyçok areasalanlar of studyders çalışma and researchAraştırma.
31
93520
6920
Araştırma ve inceleme alanlarındaki
kavrayışımızı hızlandırabilir.
Ancak ünlü bir Hollywood filozofundan
alıntı yapacak olursam,
01:53
But to paraphrasetefsir
a famousünlü HollywoodHollywood philosopherfilozof,
32
101120
3496
01:56
"With prodigiousMüthiş potentialpotansiyel
comesgeliyor prodigiousMüthiş riskrisk."
33
104640
3640
''Muhteşem potansiyel
muhteşem riskler barındırır.''
02:01
Now let's look at a basictemel factgerçek
of our digitaldijital liveshayatları, onlineinternet üzerinden adsreklamlar.
34
109120
3936
Gelin, dijital hayatımızdaki temel bir gerçeğe bakalım...
İnternet reklamları. Öyle değil mi?
Onları yok sayıyoruz.
02:05
Right? We kindtür of dismissgörevden them.
35
113080
2896
02:08
They seemgörünmek crudeham, ineffectiveetkisiz.
36
116000
1976
Basit ve dikkat dağıtıcı görünüyorlar.
02:10
We'veBiz ettik all had the experiencedeneyim
of beingolmak followedtakip etti on the web
37
118000
4256
Okuduğumuz veya arattığımız
bir konuyla ilgili reklamlar tarafından
internette takip edilme tecrübesini
hepimiz yaşadık.
02:14
by an adilan basedmerkezli on something
we searchedarandı or readokumak.
38
122280
2776
02:17
You know, you look up a pairçift of bootsbot ayakkabı
39
125080
1856
Hani bir çift botun fiyatına bakarsınız
02:18
and for a weekhafta, those bootsbot ayakkabı are followingtakip etme
you around everywhereher yerde you go.
40
126960
3376
ve sonra, bütün hafta, girdiğiniz
her sayfada botlar sizi takip eder.
02:22
Even after you succumbyenik and buysatın almak them,
they're still followingtakip etme you around.
41
130360
3656
Karşı koyamayıp satın aldıktan sonra bile
sizi takip ederler.
02:26
We're kindtür of inuredinured to that kindtür
of basictemel, cheapucuz manipulationhile.
42
134040
3016
Bu basit ve ucuz manipülasyonu
adeta kanıksamış durumdayız.
02:29
We rollrulo our eyesgözleri and we think,
"You know what? These things don't work."
43
137080
3400
Göz devirip kendi kendimize
''İşe yaramıyor bunlar.'' diyoruz.
02:33
ExceptHariç, onlineinternet üzerinden,
44
141720
2096
Ne var ki internet ortamında,
02:35
the digitaldijital technologiesteknolojiler are not just adsreklamlar.
45
143840
3600
dijital teknolojiler
reklamlardan ibaret değil.
02:40
Now, to understandanlama that,
let's think of a physicalfiziksel worldDünya exampleörnek.
46
148240
3120
Bunu anlamak için
fiziksel bir dünya örneği ele alalım.
02:43
You know how, at the checkoutkullanıma alma counterssayaçları
at supermarketssüpermarketler, nearyakın the cashierKasiyer,
47
151840
4656
Süpermarketlerde
kasaların hemen yanında
02:48
there's candyŞeker and gumsakız
at the eyegöz levelseviye of kidsçocuklar?
48
156520
3480
çocukların göz hizasında
şekerleme ve sakız olur.
02:52
That's designedtasarlanmış to make them
whineşarap at theironların parentsebeveyn
49
160800
3496
İlgili düzenek, aileler tam marketten çıkmak üzereyken
02:56
just as the parentsebeveyn
are about to sortçeşit of checkKontrol out.
50
164320
3080
çocuklarının bunları ısrarla istemeleri
için tasarlanmıştır.
03:00
Now, that's a persuasionikna architecturemimari.
51
168040
2640
Bu bir ikna mimarisi.
03:03
It's not niceGüzel, but it kindtür of worksEserleri.
52
171160
3096
Pek hoş değil ama işe yarıyor.
03:06
That's why you see it
in everyher supermarketsüpermarket.
53
174280
2040
Bu yüzden de her süpermarkette görüyoruz.
03:08
Now, in the physicalfiziksel worldDünya,
54
176720
1696
Fiziksel dünyada,
03:10
suchböyle persuasionikna architecturesmimarileri
are kindtür of limitedsınırlı,
55
178440
2496
bu ikna mimarileri sınırlıdır,
03:12
because you can only put
so manyçok things by the cashierKasiyer. Right?
56
180960
4816
çünkü kasiyerin yanına koyabileceğiniz
şeylerin bir sınırı var, değil mi?
03:17
And the candyŞeker and gumsakız,
it's the sameaynı for everyoneherkes,
57
185800
4296
Şeker ve sakız herkes için aynı,
03:22
even thoughgerçi it mostlyçoğunlukla worksEserleri
58
190120
1456
her ne kadar yanında
03:23
only for people who have
whinyMızmız little humansinsanlar besideyanında them.
59
191600
4040
sızlanan çocuklar olan
aileler için işe yarasa da.
03:29
In the physicalfiziksel worldDünya,
we livecanlı with those limitationssınırlamaları.
60
197160
3920
Fiziksel dünyada bu sınırlarla yaşıyoruz.
03:34
In the digitaldijital worldDünya, thoughgerçi,
61
202280
1936
Ancak dijital dünyada,
03:36
persuasionikna architecturesmimarileri
can be builtinşa edilmiş at the scaleölçek of billionsmilyarlarca
62
204240
4320
ikna mimarisi, milyarlara erişecek şekilde inşa edilebilir
ve aynı zamanda bireyleri
03:41
and they can targethedef, infersonucuna, understandanlama
63
209840
3856
03:45
and be deployedkonuşlandırılmış at individualsbireyler
64
213720
2896
teker teker hedef alarak, anlayabilir
03:48
one by one
65
216640
1216
onların zayıf noktalarını tespit ederek
03:49
by figuringendam out your weaknesseszayıf yönleri,
66
217880
2136
kişisel seviyede nüfuz edebilir.
03:52
and they can be sentgönderilen
to everyone'sherkesin var phonetelefon privateözel screenekran,
67
220040
5616
hatta herkesin kişisel telefon ekranına
bile gönderilebilir,
03:57
so it's not visiblegözle görülür to us.
68
225680
2256
böylelikle bizler görmeyiz.
03:59
And that's differentfarklı.
69
227960
1256
Ve bu oldukça farklı.
04:01
And that's just one of the basictemel things
that artificialyapay intelligencezeka can do.
70
229240
3576
Bu, yapay zekanın yapabileceği
temel şeylerden yalnızca biri.
04:04
Now, let's take an exampleörnek.
71
232840
1336
Bir örnek verelim.
04:06
Let's say you want to sellsatmak
planeuçak ticketsbiletler to VegasVegas. Right?
72
234200
2696
Diyelim ki Las Vegas'a uçak bileti
satmak istiyorsunuz.
04:08
So in the oldeski worldDünya, you could think
of some demographicsdemografisi to targethedef
73
236920
3496
Eski düzende,
deneyim ve öngörülerinize dayanarak
04:12
basedmerkezli on experiencedeneyim
and what you can guesstahmin.
74
240440
2520
hedef bir demografik kesim belirlersiniz.
04:15
You mightbelki try to advertisereklam to, oh,
75
243560
2816
Reklam yapmayı da deneyebilirsiniz,
04:18
menerkekler betweenarasında the agesyaşlar of 25 and 35,
76
246400
2496
25 - 35 yaş aralığındaki erkekler,
04:20
or people who have
a highyüksek limitsınır on theironların creditkredi cardkart,
77
248920
3936
veya kredi kartı limiti
yüksek olan insanlar
04:24
or retiredemekli couplesçiftler. Right?
78
252880
1376
veya emekli çiftler, değil mi?
04:26
That's what you would do in the pastgeçmiş.
79
254280
1816
Geçmişte böyle yapardınız.
04:28
With bigbüyük dataveri and machinemakine learningöğrenme,
80
256120
2896
Şimdi büyük veri (ing. big data)
ve makine öğrenimi (ing. machine learning) ile
04:31
that's not how it worksEserleri anymoreartık.
81
259040
1524
işler artık farklı yürüyor.
04:33
So to imaginehayal etmek that,
82
261320
2176
Bunu anlamak için,
04:35
think of all the dataveri
that FacebookFacebook has on you:
83
263520
3856
Facebook'un sizinle ilgili
sahip olduğu tüm verileri düşünün:
04:39
everyher statusdurum updategüncelleştirme you ever typedyazılan,
84
267400
2536
Yazdığınız her durum bildirisi,
04:41
everyher MessengerMessenger conversationkonuşma,
85
269960
2016
her bir Messenger sohbeti,
04:44
everyher placeyer you loggedoturum in from,
86
272000
1880
oturum açtığınız her konum,
04:48
all your photographsfotoğraflar
that you uploadedyüklenen there.
87
276400
3176
yüklediğiniz tüm fotoğraflar.
04:51
If you startbaşlama typingyazarak something
and changedeğişiklik your mindus and deletesilmek it,
88
279600
3776
Bir şey yazmaya başlayıp
sonra vazgeçip silerseniz,
04:55
FacebookFacebook keepstutar those
and analyzesanalizleri them, too.
89
283400
3200
Facebook bu silinenleri de
saklayıp analiz ediyor.
04:59
IncreasinglyGiderek, it triesçalışır
to matchmaç you with your offlineçevrimdışı dataveri.
90
287160
3936
Çevrimdışı verilerinizle sizi
gitgide eşleştirmeye çalışıyor.
05:03
It alsoAyrıca purchasesalımları
a lot of dataveri from dataveri brokersBrokerları.
91
291120
3176
Ayrıca veri acentalarından da
çok fazla veri satın alıyor.
05:06
It could be everything
from your financialmali recordskayıtlar
92
294320
3416
Finansal kayıtlarınızdan
tarama geçmişinize kadar
05:09
to a good chunkyığın of your browsingTarama historytarih.
93
297760
2120
her şey bu veri setinde olabilir.
05:12
Right? In the US,
suchböyle dataveri is routinelyrutin collectedtoplanmış,
94
300360
5416
ABD'de bu tür veriler
rutin olarak toplanıyor,
05:17
collatedharmanlanmış and soldsatıldı.
95
305800
1960
karşılaştırılıyor ve satılıyor.
05:20
In EuropeEurope, they have toughersert ruleskurallar.
96
308320
2440
Avrupa'da daha sıkı kurallar var.
05:23
So what happensolur then is,
97
311680
2200
Yani aslında olan şey,
05:26
by churningçalkalama throughvasitasiyla all that dataveri,
these machine-learningMakine öğrenimi algorithmsalgoritmalar --
98
314920
4016
tüm bu veriler harmanlanarak,
bu makine öğrenimli algoritmalar -
05:30
that's why they're calleddenilen
learningöğrenme algorithmsalgoritmalar --
99
318960
2896
onlara bu yüzden öğrenen algoritmalar deniyor -
05:33
they learnöğrenmek to understandanlama
the characteristicskarakteristikleri of people
100
321880
4096
Daha önce Las Vegas'a gitmek için uçak bileti alan insanların
05:38
who purchasedsatın alındı ticketsbiletler to VegasVegas before.
101
326000
2520
özelliklerini nasıl ayrıştıracaklarını
öğreniyorlar.
05:41
When they learnöğrenmek this from existingmevcut dataveri,
102
329760
3536
Var olan verilerden bunu öğrendiklerinde,
05:45
they alsoAyrıca learnöğrenmek
how to applyuygulamak this to newyeni people.
103
333320
3816
bunu yeni insanlara
uygulamayı da öğreniyorlar.
05:49
So if they're presentedsunulan with a newyeni personkişi,
104
337160
3056
Böylece, yeni bir bireyle karşılaştıklarında
05:52
they can classifysınıflandırmak whetherolup olmadığını that personkişi
is likelymuhtemelen to buysatın almak a ticketbilet to VegasVegas or not.
105
340240
4640
onun Vegas'a bilet alıp almayacağını
sınıflandırabiliyorlar.
05:57
Fine. You're thinkingdüşünme,
an offerteklif to buysatın almak ticketsbiletler to VegasVegas.
106
345720
5456
Olsun, diye düşünüyorsunuz,
alt tarafı Vegas'a uçak bileti teklifi.
06:03
I can ignorealdırmamak that.
107
351200
1456
Görmezden gelebilirim.
06:04
But the problemsorun isn't that.
108
352680
2216
Ancak asıl sorun bu değil.
06:06
The problemsorun is,
109
354920
1576
Asıl sorun şu ki
06:08
we no longeruzun really understandanlama
how these complexkarmaşık algorithmsalgoritmalar work.
110
356520
4136
biz bu karmaşık algoritmaların
nasıl çalıştığını artık anlamıyoruz.
06:12
We don't understandanlama
how they're doing this categorizationKategori.
111
360680
3456
Bu sınıflandırmayı nasıl yaptıklarını
artık anlamıyoruz.
06:16
It's giantdev matricesmatrisler,
thousandsbinlerce of rowssatır and columnssütunlar,
112
364160
4416
Dev matematik matrisleri,
binlerce sıra ve sütun,
06:20
maybe millionsmilyonlarca of rowssatır and columnssütunlar,
113
368600
1960
belki de milyonlarcası...
06:23
and not the programmersprogramcılar
114
371320
2640
Ve -tüm verilere sahip olsalar bile-
06:26
and not anybodykimse who looksgörünüyor at it,
115
374760
1680
ne programcılar
06:29
even if you have all the dataveri,
116
377440
1496
ne bunları inceleyen herhangi biri
06:30
understandsanlar anymoreartık
how exactlykesinlikle it's operatingişletme
117
378960
4616
bunun tam olarak nasıl işlediğini anlayabiliyor.
06:35
any more than you'dşimdi etsen know
what I was thinkingdüşünme right now
118
383600
3776
Tıpkı size beynimden bir kesit göstersem
06:39
if you were showngösterilen
a crossçapraz sectionBölüm of my brainbeyin.
119
387400
3960
ne düşündüğümü anlayamayacağınız gibi.
06:44
It's like we're not programmingprogramlama anymoreartık,
120
392360
2576
Sanki artık programlama yapmıyoruz,
06:46
we're growingbüyüyen intelligencezeka
that we don't trulygerçekten understandanlama.
121
394960
4400
tam olarak anlayamadığımız
bir zeka/bilinç geliştiriyoruz.
06:52
And these things only work
if there's an enormousmuazzam amounttutar of dataveri,
122
400520
3976
Ve bu mekanizmalar yalnızca
müthiş miktarda veri varsa çalışıyor,
06:56
so they alsoAyrıca encourageteşvik etmek
deepderin surveillancegözetim on all of us
123
404520
5096
dolayısı ile hepimizin üzerinde
kapsamlı bir gözetleme de teşvik ediliyor ki
07:01
so that the machinemakine learningöğrenme
algorithmsalgoritmalar can work.
124
409640
2336
makine öğrenimli algoritmalar
işini yapabilsin.
07:04
That's why FacebookFacebook wants
to collecttoplamak all the dataveri it can about you.
125
412000
3176
Bu yüzden Facebook, hakkınızda
toplayabildiği tüm veriyi istiyor.
07:07
The algorithmsalgoritmalar work better.
126
415200
1576
Algoritmalar daha iyi çalışıyor.
07:08
So let's pushit that VegasVegas exampleörnek a bitbit.
127
416800
2696
Şu Vegas örneğinin biraz üstüne gidelim.
07:11
What if the systemsistem
that we do not understandanlama
128
419520
3680
Ya anlamadığımız bu sistem
07:16
was pickingtoplama up that it's easierDaha kolay
to sellsatmak VegasVegas ticketsbiletler
129
424200
5136
mani döneme geçmek üzere olan
bipolar insanlara
07:21
to people who are bipolariki kutuplu
and about to entergirmek the manicmanik phaseAşama.
130
429360
3760
Vegas bileti satmanın
daha kolay olduğunu anlarsa?
07:25
SuchBöyle people tendeğiliminde to becomeolmak
overspendersoverspenders, compulsivekompulsif gamblerskumarbaz.
131
433640
4920
Bu insanlar çok para harcamaya
ve dürtüsel kumarbazlığa meyilli oluyor.
07:31
They could do this, and you'dşimdi etsen have no clueipucu
that's what they were pickingtoplama up on.
132
439280
4456
Bunu yapabilirler
ve söz konusu kriteri seçtiklerinden haberiniz bile olmaz.
07:35
I gaveverdi this exampleörnek
to a bunchDemet of computerbilgisayar scientistsBilim adamları oncebir Zamanlar
133
443760
3616
Bu örneği,
bir grup bilgisayar bilimcisine verdim
07:39
and afterwardssonradan, one of them camegeldi up to me.
134
447400
2056
sonra içlerinden biri yanıma geldi.
07:41
He was troubledsıkıntılı and he said,
"That's why I couldn'tcould publishyayınlamak it."
135
449480
3520
Rahatsız olmuştu ve şöyle dedi:
''İşte bu yüzden yayınlayamadım.''
07:45
I was like, "Couldn'tOlamaz publishyayınlamak what?"
136
453600
1715
''Neyi yayınlayamadın?'' dedim.
07:47
He had trieddenenmiş to see whetherolup olmadığını you can indeedaslında
figureşekil out the onsetbaşlangıçlı of maniaMania
137
455800
5856
Mani halinin ön belirtilerinin
klinik semptomlardan önce
07:53
from socialsosyal mediamedya postsMesaj
before clinicalklinik symptomssemptomlar,
138
461680
3216
sosyal medya paylaşımlarından
anlaşılabilirliğini incelemişti
07:56
and it had workedişlenmiş,
139
464920
1776
ve işe yaramıştı,
07:58
and it had workedişlenmiş very well,
140
466720
2056
gerçekten işe yaramıştı
08:00
and he had no ideaFikir how it workedişlenmiş
or what it was pickingtoplama up on.
141
468800
4880
ama nasıl işe yaradığı veya ne tür
bilgi topladığını o da bilmiyordu.
08:06
Now, the problemsorun isn't solvedçözülmüş
if he doesn't publishyayınlamak it,
142
474840
4416
Yayınlamadığı zaman problem çözülmüyor,
08:11
because there are alreadyzaten companiesşirketler
143
479280
1896
çünkü zaten bu teknolojiyi geliştiren
08:13
that are developinggelişen
this kindtür of technologyteknoloji,
144
481200
2536
şirketler var.
08:15
and a lot of the stuffşey
is just off the shelfraf.
145
483760
2800
Bunun pek çoğu satışa hazır.
08:19
This is not very difficultzor anymoreartık.
146
487240
2576
Artık bunu yapmak çok zor değil.
08:21
Do you ever go on YouTubeYouTube
meaninganlam to watch one videovideo
147
489840
3456
Tek bir video izlemek için YouTube'a girip
08:25
and an hoursaat latersonra you've watchedizledi 27?
148
493320
2360
bir saat sonra 27 video izlediğiniz
oluyor mu hiç?
08:28
You know how YouTubeYouTube
has this columnkolon on the right
149
496760
2496
YouTube'ta sağ tarafta
08:31
that saysdiyor, "Up nextSonraki"
150
499280
2216
''Sıradaki'' diye bir sütun var
08:33
and it autoplaysautoplays something?
151
501520
1816
ve otomatik yeni video başlatıyor.
08:35
It's an algorithmalgoritma
152
503360
1216
Bu bir algoritma,
08:36
pickingtoplama what it thinksdüşünüyor
that you mightbelki be interestedilgili in
153
504600
3616
ilgilendiğinizi ve kendi başınıza
bulamayacağınızı düşündüğü
08:40
and maybe not find on your ownkendi.
154
508240
1536
videoları seçiyor.
08:41
It's not a humaninsan editoreditör.
155
509800
1256
Editör bir insan değil.
08:43
It's what algorithmsalgoritmalar do.
156
511080
1416
Algoritmaların işi bu.
08:44
It picksseçtikleri up on what you have watchedizledi
and what people like you have watchedizledi,
157
512520
4736
Sizin ve sizin gibi insanların
izlediklerini derliyor
08:49
and infersalgılar that that mustşart be
what you're interestedilgili in,
158
517280
4216
ve ilgi alanlarınızın bunlar olduğu
ve daha fazlasını görmek istediğiniz
08:53
what you want more of,
159
521520
1255
çıkarımını yapıyor,
08:54
and just showsgösterileri you more.
160
522799
1336
daha fazlasını gösteriyor.
08:56
It soundssesleri like a benigniyi huylu
and usefulişe yarar featureözellik,
161
524159
2201
İyi, faydalı bir özelllik gibi görünüyor
08:59
exceptdışında when it isn't.
162
527280
1200
ama öyle değil.
09:01
So in 2016, I attendedkatıldı ralliesmitingler
of then-candidateo-aday DonaldDonald TrumpKoz
163
529640
6960
2016'da o zaman aday olan
Trump'ın toplantılarına
09:09
to studyders çalışma as a scholarbilim adamı
the movementhareket supportingDestek him.
164
537840
3336
destekçilerini araştırmak üzere
akademisyen olarak katıldım.
09:13
I studyders çalışma socialsosyal movementshareketler,
so I was studyingders çalışıyor it, too.
165
541200
3456
İşim gereği sosyal akımları inceliyorum,
yani araştırıyordum da.
09:16
And then I wanted to writeyazmak something
about one of his ralliesmitingler,
166
544680
3336
Sonra toplantılarından biri hakkında
yazmak istedim,
09:20
so I watchedizledi it a fewaz timeszamanlar on YouTubeYouTube.
167
548040
1960
o yüzden de toplantıyı
YouTube'da birkaç kez izledim.
09:23
YouTubeYouTube startedbaşladı recommendingtavsiye to me
168
551240
3096
YouTube, beyaz ırk üstünlüğü ile ilgili
09:26
and autoplayingAutoplaying to me
whitebeyaz supremacistüstünlükçü videosvideolar
169
554360
4256
radikallik seviyesi giderek artan
videolar önermeye
09:30
in increasingartan ordersipariş of extremismaşırılık.
170
558640
2656
ve onları otomatik oynatmaya başladı.
09:33
If I watchedizledi one,
171
561320
1816
Eğer bir tane izlediysem,
09:35
it servedhizmet up one even more extremeaşırı
172
563160
2976
YouTube daha marjinal bir tanesini buldu
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
ve onu da otomatik yürüttü.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersZımpara makineleri contentiçerik,
174
568320
4536
Hillary Clinton veya Bernie Sanders
ile ilgili içerikler izlerseniz,
09:44
YouTubeYouTube recommendsönerir
and autoplaysautoplays conspiracykomplo left,
175
572880
4696
YouTube komplocu solcuları
öneriyor ve oynatıyor,
09:49
and it goesgider downhillyokuş aşağı from there.
176
577600
1760
ondan sonra da gittikçe kötüleşiyor.
09:52
Well, you mightbelki be thinkingdüşünme,
this is politicssiyaset, but it's not.
177
580480
3056
Bunun yalnızca siyaset olduğunu
düşünebilirsiniz ama değil.
09:55
This isn't about politicssiyaset.
178
583560
1256
Bu siyasetle ilgili değil.
09:56
This is just the algorithmalgoritma
figuringendam out humaninsan behaviordavranış.
179
584840
3096
Bu sadece insan davranışını
anlayan algoritma.
09:59
I oncebir Zamanlar watchedizledi a videovideo
about vegetarianismvejetaryenlik on YouTubeYouTube
180
587960
4776
Bir kez YouTube'ta vejetaryenlikle ilgili
bir video izledim
10:04
and YouTubeYouTube recommendedÖnerilen
and autoplayedautoplayed a videovideo about beingolmak veganvegan.
181
592760
4936
ve YouTube vegan olmak hakkında
bir video önerip oynattı.
10:09
It's like you're never
hardcoreHardcore enoughyeterli for YouTubeYouTube.
182
597720
3016
YouTube için hiçbir zaman
yeteri kadar cüretkar olamıyoruz.
10:12
(LaughterKahkaha)
183
600760
1576
(Laughter)
10:14
So what's going on?
184
602360
1560
Peki aslında ne oluyor?
10:16
Now, YouTube'sYouTube'un algorithmalgoritma is proprietaryÖzel,
185
604520
3536
YouTube algoritması patentli,
10:20
but here'sburada what I think is going on.
186
608080
2360
yine de şöyle olduğunu düşünüyorum.
10:23
The algorithmalgoritma has figuredanladım out
187
611360
2096
Algoritma şunu fark etti ki
10:25
that if you can enticeikna people
188
613480
3696
insanları etkilemek için
10:29
into thinkingdüşünme that you can
showgöstermek them something more hardcoreHardcore,
189
617200
3736
onlara daha cüretkar videolar sunarsan,
10:32
they're more likelymuhtemelen to staykalmak on the siteyer
190
620960
2416
muhtemelen sitede daha fazla kalacak,
10:35
watchingseyretme videovideo after videovideo
going down that rabbittavşan holedelik
191
623400
4416
o anlaşılmaz yola girerek
ardı ardına video izleyecek,
10:39
while GoogleGoogle servesvermektedir them adsreklamlar.
192
627840
1680
bu esnada Google da
reklam sunacak.
10:43
Now, with nobodykimse mindingbakım
the ethicsetik of the storemağaza,
193
631760
3120
Hazır, işin etik kısmını önemseyen kimse de yokken,
10:47
these sitesSiteler can profileprofil people
194
635720
4240
bu siteler,
Yahudiler aleyhine paylaşım yapan
10:53
who are JewYahudi hatershaters,
195
641680
1920
10:56
who think that JewsYahudiler are parasitesparazitler
196
644360
2480
ve onların parazit olduğunu düşünen
11:00
and who have suchböyle explicitaçık
anti-Semiticanti-semitik contentiçerik,
197
648320
4920
radikal Yahudi düşmanları özelinde
profilleme yapabiliyor
11:06
and let you targethedef them with adsreklamlar.
198
654080
2000
ve reklamlarla onları
hedeflemenizi sağlıyor.
11:09
They can alsoAyrıca mobilizeseferber etmek algorithmsalgoritmalar
199
657200
3536
Ayrıca algoritmaları genişleterek,
11:12
to find for you look-alikeLook-benzer audiencesizleyiciler,
200
660760
3136
sizin için benzer kitleler bulup;
11:15
people who do not have suchböyle explicitaçık
anti-Semiticanti-semitik contentiçerik on theironların profileprofil
201
663920
5576
profillerinde bu tip, Yahudi karşıtı, marjinal içerik bulunmayan
11:21
but who the algorithmalgoritma detectsalgılar
mayMayıs ayı be susceptibleduyarlı to suchböyle messagesmesajları,
202
669520
6176
fakat algoritmanın bu tür mesajlara karşı
duyarlı olabileceğini belirlediği kişileri yakalıyor
11:27
and letsHaydi you targethedef them with adsreklamlar, too.
203
675720
1920
ve onları da reklamlarla
hedeflemenize izin veriyor.
11:30
Now, this mayMayıs ayı soundses
like an implausiblemantıksız exampleörnek,
204
678680
2736
İnanılmaz bir örnek gibi gelebilir
11:33
but this is realgerçek.
205
681440
1320
ama bu gerçek.
11:35
ProPublicaProPublica investigatedaraştırılmıştır this
206
683480
2136
*ProPublica bunu soruşturdu
(
*Araştırmacı gazetecilik üzerine bir STK)
11:37
and foundbulunan that you can indeedaslında
do this on FacebookFacebook,
207
685640
3616
ve Facebook'ta bunu gerçekten
yapabileceğinizi ortaya koydu,
11:41
and FacebookFacebook helpfullyyardımsever
offeredsunulan up suggestionsöneriler
208
689280
2416
Facebook ilgili kitleyi genişletmede
11:43
on how to broadengenişletmek that audienceseyirci.
209
691720
1600
öneriler sunarak yardımcı oldu.
11:46
BuzzFeedBuzzFeed trieddenenmiş it for GoogleGoogle,
and very quicklyhızlı bir şekilde they foundbulunan,
210
694720
3016
BuzzFeed bunu Google için denedi
ve hızla anladılar ki
11:49
yepEvet, you can do it on GoogleGoogle, too.
211
697760
1736
bunu Google'da da yapabiliyoruz.
11:51
And it wasn'tdeğildi even expensivepahalı.
212
699520
1696
Pahalı bile değildi.
11:53
The ProPublicaProPublica reportermuhabir
spentharcanmış about 30 dollarsdolar
213
701240
4416
ProPublica habercisi
bu kategoriyi hedeflemek için
11:57
to targethedef this categorykategori.
214
705680
2240
30 dolar kadar harcadı.
12:02
So last yearyıl, DonaldDonald Trump'sTrump'ın
socialsosyal mediamedya managermüdür disclosedaçıklanması
215
710600
5296
Geçen sene Trump'ın sosyal medya yetkilisi
kargaşayı sona erdirmek için
12:07
that they were usingkullanma FacebookFacebook darkkaranlık postsMesaj
to demobilizeterhis people,
216
715920
5336
gizli Facebook paylaşımları
kullandıklarını açıkladı,
12:13
not to persuadeikna etmek them,
217
721280
1376
insanları ikna için değil,
12:14
but to convinceikna etmek them not to voteoy at all.
218
722680
2800
hiç oy vermemelerini sağlamak için.
12:18
And to do that,
they targetedHedeflenen specificallyözellikle,
219
726520
3576
Bunu yapmak için
özel olarak hedef belirlediler,
12:22
for exampleörnek, African-AmericanAfrikalı-Amerikalı menerkekler
in keyanahtar citiesşehirler like PhiladelphiaPhiladelphia,
220
730120
3896
mesela önemli Philadelphia kentlerindeki
Afro Amerikalı erkekler,
12:26
and I'm going to readokumak
exactlykesinlikle what he said.
221
734040
2456
hatta tam olarak ne dediğini okuyacağım.
12:28
I'm quotingalıntı yapmak.
222
736520
1216
Alıntı yapıyorum.
12:29
They were usingkullanma "nonpublicNonpublic postsMesaj
223
737760
3016
''Görülebilirliğini siyasi kampanyanın
kontrol ettiği
12:32
whosekimin viewershipizleyici the campaignkampanya controlskontroller
224
740800
2176
12:35
so that only the people
we want to see it see it.
225
743000
3776
böylelikle yalnızca görmesini istediğimiz
insanların görebileceği
herkese açık olmayan paylaşımlar,
12:38
We modeledmodellenmiştir this.
226
746800
1216
Bunu biz tasarladık.
12:40
It will dramaticallydramatik affectetkilemek her abilitykabiliyet
to turndönüş these people out."
227
748040
4720
Bu, onun (H.Clinton) söz konusu insanları kazanma yetisini
önemli ölçüde etkileyecektir.''
12:45
What's in those darkkaranlık postsMesaj?
228
753720
2280
Bu gizli paylaşımlarda ne var peki?
12:48
We have no ideaFikir.
229
756480
1656
Hiçbir fikrimiz yok.
12:50
FacebookFacebook won'talışkanlık tell us.
230
758160
1200
Facebook bize açıklamıyor.
12:52
So FacebookFacebook alsoAyrıca algorithmicallyalgoritmik
arrangesdüzenler the postsMesaj
231
760480
4376
Facebook ayrıca algoritmik bir şekilde
arkadaşlarınızın paylaşımlarını
12:56
that your friendsarkadaşlar put on FacebookFacebook,
or the pagessayfalar you followtakip et.
232
764880
3736
ve takip ettiğiniz sayfaları düzenliyor.
13:00
It doesn't showgöstermek you
everything chronologicallykronolojik olarak.
233
768640
2216
Size her şeyi
kronolojik olarak göstermiyor.
13:02
It putskoyar the ordersipariş in the way
that the algorithmalgoritma thinksdüşünüyor will enticeikna you
234
770880
4816
Algoritmanın,
sitede daha fazla kalmanızı sağlayacak şekilde
13:07
to staykalmak on the siteyer longeruzun.
235
775720
1840
kurduğu düzeni uyguluyor.
13:11
Now, so this has a lot of consequencessonuçları.
236
779040
3376
Bunun pek çok sonucu var.
13:14
You mayMayıs ayı be thinkingdüşünme
somebodybirisi is snubbingsnubbing you on FacebookFacebook.
237
782440
3800
Facebook'ta birinin takipçiniz olduğunu
düşünüyor olabiliirsiniz.
13:18
The algorithmalgoritma mayMayıs ayı never
be showinggösterme your postposta to them.
238
786800
3256
Oysa algoritma sizin paylaşımınızı
asla onlara göstermiyor olabilir.
13:22
The algorithmalgoritma is prioritizingöncelik
some of them and buryinggömme the othersdiğerleri.
239
790080
5960
Algoritma kimini öne çıkarırken
kimini ortadan kaldırıyor.
13:29
ExperimentsDeneyler showgöstermek
240
797320
1296
Deneyler gösteriyor ki
13:30
that what the algorithmalgoritma picksseçtikleri to showgöstermek you
can affectetkilemek your emotionsduygular.
241
798640
4520
algoritmanın sizin için seçtikleri
duygularınızı etkileyebilir.
13:36
But that's not all.
242
804600
1200
Bununla da bitmiyor.
13:38
It alsoAyrıca affectsetkiler politicalsiyasi behaviordavranış.
243
806280
2360
Siyasi davranışınızı da etkiliyor.
13:41
So in 2010, in the midtermara sınav electionsseçimleri,
244
809360
4656
2010 yılı orta dönem seçimlerinde,
13:46
FacebookFacebook did an experimentdeney
on 61 millionmilyon people in the US
245
814040
5896
Facebook,
ABD'deki 61 milyon insan üstünde
13:51
that was disclosedaçıklanması after the factgerçek.
246
819960
1896
daha sonra açıklanan bir deney yaptı.
13:53
So some people were showngösterilen,
"TodayBugün is electionseçim day,"
247
821880
3416
Bir grup insana
''Bugün seçim günü'' yazısı gösterildi,
13:57
the simplerdaha basit one,
248
825320
1376
bu daha basit olandı,
13:58
and some people were showngösterilen
the one with that tinyminik tweakTweak
249
826720
3896
diğer bir gruba ise aynı şey, küçük bir farkla gösterildi:
14:02
with those little thumbnailsküçük resimler
250
830640
2096
''Oy verdim'' butonuna tıklayan arkadaşlarının
14:04
of your friendsarkadaşlar who clickedtıklandığında on "I votedolarak."
251
832760
2840
küçük fotoğraflarının bulunduğu versiyon.
14:09
This simplebasit tweakTweak.
252
837000
1400
Bu kadar basit bir nüans.
14:11
OK? So the picturesresimler were the only changedeğişiklik,
253
839520
4296
Değişen tek şey fotoğraflardı
14:15
and that postposta showngösterilen just oncebir Zamanlar
254
843840
3256
ve seçmen kütüğünce de onaylandığı üzere,
bu araştırmaya istinaden
14:19
turneddönük out an additionalek 340,000 votersSeçmenler
255
847120
6056
yalnızca bir kez gösterilen bu paylaşım
o seçimde
14:25
in that electionseçim,
256
853200
1696
340.000 ek seçmen olarak sonuçlandı.
14:26
accordinggöre to this researchAraştırma
257
854920
1696
14:28
as confirmedonaylı by the voterseçmen rollsRulo.
258
856640
2520
14:32
A flukeşans eseri? No.
259
860920
1656
Şans eseri mi? Hayır.
14:34
Because in 2012,
they repeatedtekrarlanan the sameaynı experimentdeney.
260
862600
5360
Çünkü 2012'de aynı deneyi tekrarladılar.
14:40
And that time,
261
868840
1736
O zaman,
14:42
that civickent messagemesaj showngösterilen just oncebir Zamanlar
262
870600
3296
yalnızca bir kez gösterilen sivil mesaj
14:45
turneddönük out an additionalek 270,000 votersSeçmenler.
263
873920
4440
270.000 ek seçmen olarak geri döndü.
14:51
For referencereferans, the 2016
US presidentialCumhurbaşkanlığı electionseçim
264
879160
5216
Hatırlatayım, 2016 ABD
başkanlık seçimleri
14:56
was decidedkarar by about 100,000 votesoy.
265
884400
3520
yaklaşık 100.000 oy farkıyla belirlendi.
15:01
Now, FacebookFacebook can alsoAyrıca
very easilykolayca infersonucuna what your politicssiyaset are,
266
889360
4736
Yani Facebook kolaylıkla
politikanız hakkında çıkarım yapabiliyor,
15:06
even if you've never
disclosedaçıklanması them on the siteyer.
267
894120
2256
siz bunu sitede
hiç açıklamamış olsanız bile.
15:08
Right? These algorithmsalgoritmalar
can do that quiteoldukça easilykolayca.
268
896400
2520
Bu algoritmalar bunu
oldukça kolay başarabiliyorlar.
15:11
What if a platformplatform with that kindtür of powergüç
269
899960
3896
Peki ya bu güce sahip bir platform
15:15
decideskarar to turndönüş out supportersdestekçileri
of one candidateaday over the other?
270
903880
5040
bunu adaylardan birinin
destekçilerini arttırmak için kullanırsa?
15:21
How would we even know about it?
271
909680
2440
Bundan haberimiz olur mu?
15:25
Now, we startedbaşladı from someplacebir yere
seeminglygörünüşte innocuouszararsız --
272
913560
4136
Masum gibi görünen bir yerden başladık:
15:29
onlineinternet üzerinden addsekler followingtakip etme us around --
273
917720
2216
bizi takip eden reklamlardan...
15:31
and we'vebiz ettik landedindi someplacebir yere elsebaşka.
274
919960
1840
şimdiyse çok farklı bir yerdeyiz.
15:35
As a publichalka açık and as citizensvatandaşlar,
275
923480
2456
Hem halk hem de vatandaş olarak,
15:37
we no longeruzun know
if we're seeinggörme the sameaynı informationbilgi
276
925960
3416
artık aynı bilgileri görüp görmediğimizi
15:41
or what anybodykimse elsebaşka is seeinggörme,
277
929400
1480
ve başkalarının ne gördüğünü bilmiyoruz.
15:43
and withoutolmadan a commonortak basistemel of informationbilgi,
278
931680
2576
ve ortak bir bilgi tabanı olmadan,
15:46
little by little,
279
934280
1616
adım adım,
15:47
publichalka açık debatetartışma is becomingolma impossibleimkansız,
280
935920
3216
toplumsal tartışma imkansız hale geliyor,
15:51
and we're just at
the beginningbaşlangıç stagesaşamaları of this.
281
939160
2976
biz bunun sadece başlangıç aşamasındayız.
15:54
These algorithmsalgoritmalar can quiteoldukça easilykolayca infersonucuna
282
942160
3456
Bu algoritmalar kolaylıkla
15:57
things like your people'sinsanların ethnicityEtnik Yapı,
283
945640
3256
insanların etnik özelliklerini,
16:00
religiousdini and politicalsiyasi viewsgörünümler,
personalitykişilik traitsözellikleri,
284
948920
2336
dini ve siyasi görüşlerini,
kişilik özelliklerini,
16:03
intelligencezeka, happinessmutluluk,
use of addictivebağımlılık yapan substancesmaddeler,
285
951280
3376
zekasını, mutluluğunu,
madde kullanıp kullanmadığını,
16:06
parentalebeveyn separationayırma, ageyaş and genderscinsiyet,
286
954680
3136
ailesinin durumunu, yaş ve cinsiyetini
16:09
just from FacebookFacebook likesseviyor.
287
957840
1960
sadece Facebook beğenilerinden
tahmin edebilir.
16:13
These algorithmsalgoritmalar can identifybelirlemek protestersprotestocular
288
961440
4056
Bu algoritmalar, yüzleri kısmen gizlenmiş olsa da
16:17
even if theironların facesyüzleri
are partiallykısmen concealedgizli.
289
965520
2760
protestocuların kimliğini belirleyebilir.
16:21
These algorithmsalgoritmalar mayMayıs ayı be ableyapabilmek
to detectbelirlemek people'sinsanların sexualcinsel orientationYönlendirme
290
969720
6616
Bu algoritmalar
insanların cinsel yönelimini
16:28
just from theironların datingescort profileprofil picturesresimler.
291
976360
3200
flört uygulamalarında kullandığı
profil fotoğraflarından anlayabilir.
16:33
Now, these are probabilisticolasılıkçı guessestahmin,
292
981560
2616
Tabii bunlar olasılıksal tahminler,
16:36
so they're not going
to be 100 percentyüzde right,
293
984200
2896
%100 doğru olamazlar
16:39
but I don't see the powerfulgüçlü resistingdirençli
the temptationgünaha to use these technologiesteknolojiler
294
987120
4896
ama insanlar sadece bazı sonuçlar yanlış olduğu için
16:44
just because there are
some falseyanlış positivespozitifler,
295
992040
2176
bu teknolojileri kullanma arzularına direnmeyecekler
16:46
whichhangi will of coursekurs createyaratmak
a wholebütün other layertabaka of problemssorunlar.
296
994240
3256
bu da beraberinde
bir yığın farklı sorun getirecek.
16:49
ImagineHayal what a statebelirtmek, bildirmek can do
297
997520
2936
Devletlerin
vatandaşları hakkında sahip oldukları
16:52
with the immenseengin amounttutar of dataveri
it has on its citizensvatandaşlar.
298
1000480
3560
müthiş miktarda veriyle
neler yapabileceklerini düşünün.
16:56
ChinaÇin is alreadyzaten usingkullanma
faceyüz detectionbulma technologyteknoloji
299
1004680
4776
Çin, insanları tespit etmek ve tutuklamak için
17:01
to identifybelirlemek and arresttutuklamak people.
300
1009480
2880
yüz tanıma teknolojisini kullanıyor bile.
17:05
And here'sburada the tragedytrajedi:
301
1013280
2136
İşin acı kısmı şu ki biz,
17:07
we're buildingbina this infrastructurealtyapı
of surveillancegözetim authoritarianismotoriter
302
1015440
5536
gözetlemeye dayalı bu otoriter altyapıyı
17:13
merelysadece to get people to clicktık on adsreklamlar.
303
1021000
2960
yalnızca insanların
reklamlara tıklaması için geliştiriyoruz.
17:17
And this won'talışkanlık be
Orwell'sOrwell'ın authoritarianismotoriter.
304
1025240
2576
Bu Orwell'in otoriter rejimi olmayacak.
17:19
This isn't "1984."
305
1027839
1897
Bu ''1984'' değil.
17:21
Now, if authoritarianismotoriter
is usingkullanma overtaçık fearkorku to terrorizeterörize us,
306
1029760
4576
Eğer otoriterlik bizi paniğe sürüklemek için
aleni korku kullanacaksa
17:26
we'lliyi all be scaredkorkmuş, but we'lliyi know it,
307
1034359
2897
hepimiz korkacağız
ama bundan haberimiz olacak,
17:29
we'lliyi hatenefret it and we'lliyi resistdirenmek it.
308
1037280
2200
nefret duyacağız ve karşı koyacağız.
17:32
But if the people in powergüç
are usingkullanma these algorithmsalgoritmalar
309
1040880
4416
Ancak mevki sahibi insanlar
bu algoritmaları
17:37
to quietlysessizce watch us,
310
1045319
3377
bizi sessizce izlemek,
17:40
to judgehakim us and to nudgedirsekle dürtmek us,
311
1048720
2080
yargılamak ve dürtmek,
17:43
to predicttahmin and identifybelirlemek
the troublemakerssorun çıkaranları and the rebelsİsyancılar,
312
1051720
4176
sorun çıkaranlar ve asileri
önceden tahmin etmek ve kimliğini belirlemek,
17:47
to deploydağıtmak persuasionikna
architecturesmimarileri at scaleölçek
313
1055920
3896
üzerimizde ikna mimarisi oluşturmak
17:51
and to manipulateidare individualsbireyler one by one
314
1059840
4136
ve tek tek bireyleri manipüle etmek için
17:56
usingkullanma theironların personalkişisel, individualbireysel
weaknesseszayıf yönleri and vulnerabilitiesgüvenlik açıkları,
315
1064000
5440
-kişisel zayıf ve hassas noktalarımızdan
yararlanarak- kullanırlarsa,
18:02
and if they're doing it at scaleölçek
316
1070720
2200
dahası bunu ölçeklendirip
18:06
throughvasitasiyla our privateözel screensekranlar
317
1074080
1736
özel ekranlarımızdan
18:07
so that we don't even know
318
1075840
1656
çevremizdeki insanların
18:09
what our fellowadam citizensvatandaşlar
and neighborsKomşular are seeinggörme,
319
1077520
2760
ne gördüklerini bilemeyeceğimiz
bir şekilde yaparlarsa,
18:13
that authoritarianismotoriter
will envelopörtmek us like a spider'sörümcek web
320
1081560
4816
bu otoriter rejim
bizi bir örümcek ağı gibi kıstırır
18:18
and we mayMayıs ayı not even know we're in it.
321
1086400
2480
ve biz yakalandığımızı bile anlamayız.
18:22
So Facebook'sFacebook'un marketpazar capitalizationbüyük/küçük harf
322
1090440
2936
Facebook'un piyasa değeri
18:25
is approachingyaklaşıyor halfyarım a trilliontrilyon dollarsdolar.
323
1093400
3296
yarım trilyon dolara yaklaşıyor.
18:28
It's because it worksEserleri great
as a persuasionikna architecturemimari.
324
1096720
3120
Bunun sebebi ikna mimarisi olarak
harika çalışıyor olması.
18:33
But the structureyapı of that architecturemimari
325
1101760
2816
Ancak bu mimari yapı
18:36
is the sameaynı whetherolup olmadığını you're sellingsatış shoesayakkabı
326
1104600
3216
ayakkabı satıyor olsanız da aynı
18:39
or whetherolup olmadığını you're sellingsatış politicssiyaset.
327
1107840
2496
siyaset satıyor olsanız da.
18:42
The algorithmsalgoritmalar do not know the differencefark.
328
1110360
3120
Algoritmalar farkı anlamıyor.
18:46
The sameaynı algorithmsalgoritmalar setset loosegevşek uponüzerine us
329
1114240
3296
Reklamlara karşı bizi sabırlı kılmak için
18:49
to make us more pliablebükülebilir for adsreklamlar
330
1117560
3176
üzerimize salınan bu algoritmalar,
18:52
are alsoAyrıca organizingdüzenleme our politicalsiyasi,
personalkişisel and socialsosyal informationbilgi flowsakar,
331
1120760
6736
aynı zamanda siyasi, kişisel ve sosyal
bilgi akışımızı da düzenliyor
18:59
and that's what's got to changedeğişiklik.
332
1127520
1840
ve bu değişmek zorunda.
19:02
Now, don't get me wrongyanlış,
333
1130240
2296
Beni yanlış anlamayın,
19:04
we use digitaldijital platformsplatformlar
because they providesağlamak us with great valuedeğer.
334
1132560
3680
bize büyük fayda sağladıkları için
dijital platformları kullanıyoruz.
19:09
I use FacebookFacebook to keep in touchdokunma
with friendsarkadaşlar and familyaile around the worldDünya.
335
1137120
3560
Facebook ile dünyanın her yerinden
aile ve arkadaşlarımla görüşebiliyorum,
19:14
I've writtenyazılı about how crucialçok önemli
socialsosyal mediamedya is for socialsosyal movementshareketler.
336
1142000
5776
Sosyal medyanın, sosyal hareketler için
ne kadar önemli olduğu hakkında yazdım.
19:19
I have studiedokudu how
these technologiesteknolojiler can be used
337
1147800
3016
Bu teknolojilerin
dünyadaki sansür uygulamalarının üstesinden gelmek için
19:22
to circumventaşmak censorshipsansür around the worldDünya.
338
1150840
2480
nasıl kullanılabileceği üzerine çalıştım.
19:27
But it's not that the people who runkoş,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Facebook ve Google yöneticilerinin
19:33
are maliciouslykötü niyetle and deliberatelykasten tryingçalışıyor
340
1161720
2696
kasten ve kötü niyetli bir şekilde
19:36
to make the countryülke
or the worldDünya more polarizedpolarize
341
1164440
4456
ülkeyi ve dünyayı kutuplaştırmaya
19:40
and encourageteşvik etmek extremismaşırılık.
342
1168920
1680
veya radikalliği teşvik etmeye çalıştığını söylemiyorum.
19:43
I readokumak the manyçok
well-intentionediyi niyetli statementsifadeleri
343
1171440
3976
Bu insanların yayınladığı
19:47
that these people put out.
344
1175440
3320
pek çok iyi niyetli yazı okudum.
19:51
But it's not the intentniyet or the statementsifadeleri
people in technologyteknoloji make that mattermadde,
345
1179600
6056
Ancak bu konuda
niyet veya ifadelerin bir önemi yok.
19:57
it's the structuresyapıları
and business modelsmodeller they're buildingbina.
346
1185680
3560
Sorun, inşa ettikleri bu yapı
ve iş modelleri.
20:02
And that's the coreçekirdek of the problemsorun.
347
1190360
2096
Sorunun kökeninde bu var.
20:04
EitherHer iki FacebookFacebook is a giantdev con
of halfyarım a trilliontrilyon dollarsdolar
348
1192480
4720
Ya Facebook yarım trilyon değerinde
dev bir yapı
20:10
and adsreklamlar don't work on the siteyer,
349
1198200
1896
ve reklamlar bu sitede çalışmıyor,
20:12
it doesn't work
as a persuasionikna architecturemimari,
350
1200120
2696
ikna mimarisi olarak faaliyet göstermiyor
20:14
or its powergüç of influenceetki
is of great concernilgilendirmek.
351
1202840
4120
ya da etki gücü dehşet verici.
20:20
It's eitherya one or the other.
352
1208560
1776
İkisinden biri.
20:22
It's similarbenzer for GoogleGoogle, too.
353
1210360
1600
Google için de aynısı söz konusu.
20:24
So what can we do?
354
1212880
2456
Peki ne yapabiliriz?
20:27
This needsihtiyaçlar to changedeğişiklik.
355
1215360
1936
Bunun değişmesi gerekiyor.
20:29
Now, I can't offerteklif a simplebasit recipeyemek tarifi,
356
1217320
2576
Basit bir formül öneremem
20:31
because we need to restructureyeniden yapılandırma
357
1219920
2256
çünkü dijital teknolojimizin
çalışma şeklini
20:34
the wholebütün way our
digitaldijital technologyteknoloji operatesfaaliyet.
358
1222200
3016
yeniden inşa etmemiz gerekiyor.
20:37
Everything from the way
technologyteknoloji is developedgelişmiş
359
1225240
4096
Teknolojinin geliştirilme biçiminden,
20:41
to the way the incentivesteşvikler,
economicekonomik and otherwiseaksi takdirde,
360
1229360
3856
Ekonomik veya diğer alanlardaki teşviklerin
20:45
are builtinşa edilmiş into the systemsistem.
361
1233240
2280
sisteme taşınmasına kadar her şey...
20:48
We have to faceyüz and try to dealanlaştık mı with
362
1236480
3456
Tescilli algoritmalar tarafından yaratılan
şeffaflık noksanlığı,
20:51
the lackeksiklik of transparencyşeffaflık
createdoluşturulan by the proprietaryÖzel algorithmsalgoritmalar,
363
1239960
4656
makine öğrenimi anlaşılmazlığının
yapısal zorluğu,
20:56
the structuralyapısal challengemeydan okuma
of machinemakine learning'söğrenme opacityOpaklık,
364
1244640
3816
ve hakkımızda toplanmakta olan
tüm bu gelişigüzel veri
21:00
all this indiscriminategelişigüzel dataveri
that's beingolmak collectedtoplanmış about us.
365
1248480
3400
gibi meselelerle yüzleşmek
ve bunların üstesinden gelmeye çalışmak zorundayız.
21:05
We have a bigbüyük taskgörev in frontön of us.
366
1253000
2520
Bize büyük bir görev düşüyor.
21:08
We have to mobilizeseferber etmek our technologyteknoloji,
367
1256160
2680
Teknolojimizi, yaratıcılığımızı,
21:11
our creativityyaratıcılık
368
1259760
1576
ve evet, siyasetimizi
21:13
and yes, our politicssiyaset
369
1261360
1880
harekete geçirmemiz lazım,
21:16
so that we can buildinşa etmek
artificialyapay intelligencezeka
370
1264240
2656
böylece kişisel amaçlarımızda bizi destekleyen
21:18
that supportsdestekler us in our humaninsan goalshedefleri
371
1266920
3120
fakat insani değerlere de bağlı
21:22
but that is alsoAyrıca constrainedzoraki
by our humaninsan valuesdeğerler.
372
1270800
3920
yapay zekayı inşa edebiliriz.
21:27
And I understandanlama this won'talışkanlık be easykolay.
373
1275600
2160
Bunun kolay olmayacağını biliyorum.
21:30
We mightbelki not even easilykolayca agreeanlaşmak
on what those termsşartlar mean.
374
1278360
3600
Bu terimlerin ne anlama geldiği
konusunda bile kolayca anlaşamayabiliriz.
21:34
But if we take seriouslycidden mi
375
1282920
2400
Ancak sürekli ihtiyaç duyduğumuz
21:38
how these systemssistemler that we
dependbağımlı on for so much operateişletmek,
376
1286240
5976
bu sistemlerin nasıl çalıştığını
ciddiye alırsak,
21:44
I don't see how we can postponeertelemek
this conversationkonuşma anymoreartık.
377
1292240
4120
Bu konuşmayı ertelemek için
hiçbir sebep göremiyorum.
21:49
These structuresyapıları
378
1297200
2536
Bu yapılar,
21:51
are organizingdüzenleme how we functionfonksiyon
379
1299760
4096
bizim işleyişimizi düzenliyor
21:55
and they're controllingkontrol
380
1303880
2296
ve ne yapıp ne yapamayacağımızı
21:58
what we can and we cannotyapamam do.
381
1306200
2616
kontrol ediyor.
Reklamla finanse edilen
bu platformların çoğu
22:00
And manyçok of these ad-financedreklam tarafından finanse edilen platformsplatformlar,
382
1308840
2456
22:03
they boastövünme that they're freeücretsiz.
383
1311320
1576
ücretsiz olmakla övünüyorlar.
22:04
In this contextbağlam, it meansanlamına geliyor
that we are the productürün that's beingolmak soldsatıldı.
384
1312920
4560
Bu bağlamda, bunun anlamı şu:
satılmakta olan ürün biziz.
22:10
We need a digitaldijital economyekonomi
385
1318840
2736
Veri ve dikkatimizin
22:13
where our dataveri and our attentionDikkat
386
1321600
3496
en yüksek ücreti veren
otoriter veya demagoga satılmadığı
22:17
is not for saleSatılık to the highest-biddingen yüksek teklif
authoritarianotoriter or demagoguedemagog.
387
1325120
5080
bir dijital ekonomiye ihtiyacımız var.
22:23
(ApplauseAlkış)
388
1331160
3800
(Alkış)
22:30
So to go back to
that HollywoodHollywood paraphrasetefsir,
389
1338480
3256
Şu Hollywood sözüne
geri dönmek gerekirse,
22:33
we do want the prodigiousMüthiş potentialpotansiyel
390
1341760
3736
yapay zeka ve dijital teknolojinin müthiş potansiyelinin
22:37
of artificialyapay intelligencezeka
and digitaldijital technologyteknoloji to blossomçiçeği,
391
1345520
3200
çiçek açmasını elbette istiyoruz,
22:41
but for that, we mustşart faceyüz
this prodigiousMüthiş menacetehdit,
392
1349400
4936
fakat bunun olması için
bu müthiş tehditle yüzleşmemiz lazım,
22:46
open-eyedOpen-Eyed and now.
393
1354360
1936
gözlerimiz tamamen açık ve şimdi.
22:48
Thank you.
394
1356320
1216
Teşekkür ederim.
22:49
(ApplauseAlkış)
395
1357560
4640
(Alkış)
Translated by Cihan Ekmekçi
Reviewed by Gizem Dumlu

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com