ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

James Bridle: Youtube'daki çocuk videoları kabusu ve günümüzde internetin sorunu

Filmed:
5,404,429 views

Yazar ve sanatçı James Bridle Youtube'da bilinmeyen insan veya grupların reklam geliri karşılığında küçük çocukların beyinlerini ele geçirdiği, internetin karanlık ve garip köşesini açığa çıkarıyor. "Sürpriz yumurta" açılışları ve "Parmak Ailesi Şarkısı"ndan algoritmik olarak yaratılan tanınmış çizgi film karakterleri karışımlarının şiddetli hallerine, bu videolar genç beyinleri sömürüyor ve dehşete düşürüyor--ve bize giderek veri ile işleyen dünyamızın nereye gittiğiyle ilgili bir şeyler söylüyor. "Teknolojiyi bütün problemlerimize bir çözüm olarak düşünmek yerine, onu bu problemlerin aslında ne olduğunu gösteren bir rehber olarak görmeliyiz ki onlar hakkında düzgünce düşünüp çözüm bulabilelim." diyor Bridle.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm JamesJames.
0
777
1183
Benim adım James.
00:13
I'm a writeryazar and artistsanatçı,
1
1984
1686
Yazar ve sanatçıyım
00:15
and I make work about technologyteknoloji.
2
3694
2341
ve teknoloji alanında çalışıyorum.
00:18
I do things like drawçekmek life-sizeyaşam boyutu outlinesanahatlar
of militaryaskeri droneserkek arı
3
6454
3911
Dünyanın farklı şehirlerinde
askeri dronların tam boyutlu taslaklarını
çizmek gibi işler yapıyorum;
00:22
in cityŞehir streetssokaklar around the worldDünya,
4
10389
1828
00:24
so that people can startbaşlama to think
and get theironların headskafalar around
5
12241
2950
görmesi ve düşünmesi
oldukça zor olan bu teknolojileri
00:27
these really quiteoldukça hard-to-seegörmek için zor
and hard-to-think-aboutsabit-için-think-hakkında technologiesteknolojiler.
6
15215
3440
insanlar düşünmeye
ve anlamaya başlasın diye.
00:31
I make things like neuralsinirsel networksağlar
that predicttahmin the resultsSonuçlar of electionsseçimleri
7
19494
3836
Seçim sonuçlarını hava durumuna
dayanarak tahmin eden
nöronal devreler gibi şeyler yapıyorum,
00:35
basedmerkezli on weatherhava reportsraporlar,
8
23354
1737
00:37
because I'm intriguedilgisini about
9
25115
1314
çünkü bu garip yeni teknolojilerin
00:38
what the actualgerçek possibilitiesolasılıklar
of these weirdtuhaf newyeni technologiesteknolojiler are.
10
26453
3924
asıl potansiyellerinin ne olduğu
konusuna çok merak duyuyorum.
00:43
Last yearyıl, I builtinşa edilmiş
my ownkendi self-drivingkendi kendine sürüş cararaba.
11
31405
2426
Geçen yıl, kendi kendine
giden arabamı yaptım.
00:45
But because I don't
really trustgüven technologyteknoloji,
12
33855
2526
Ama teknolojiye pek güvenmediğim için
00:48
I alsoAyrıca designedtasarlanmış a traptuzak for it.
13
36405
1928
ona bir tuzak da hazırladım.
00:50
(LaughterKahkaha)
14
38777
1086
(Kahkaha)
00:51
And I do these things mostlyçoğunlukla because
I find them completelytamamen fascinatingbüyüleyici,
15
39887
4298
Bu şeyleri yapmamın asıl nedeni
onları fazlasıyla ilginç bulmam
00:56
but alsoAyrıca because I think
when we talk about technologyteknoloji,
16
44209
2602
ama öyle düşünüyorum ki
teknolojiden bahsettiğimizde
00:58
we're largelybüyük oranda talkingkonuşma about ourselveskendimizi
17
46835
2619
büyük oranda kendimizden
01:01
and the way that we understandanlama the worldDünya.
18
49478
2299
ve dünyayı anlayış
şeklimizden bahsediyoruz.
01:03
So here'sburada a storyÖykü about technologyteknoloji.
19
51801
2442
İşte teknolojiyle ilgili bir hikaye.
01:07
This is a "surprisesürpriz eggYumurta" videovideo.
20
55520
2830
Bu bir "sürpriz yumurta" videosu.
01:10
It's basicallytemel olarak a videovideo of someonebirisi
openingaçılış up loadsyükler of chocolateçikolata eggsyumurta
21
58374
3348
Birisinin bir sürü
çikolotadan yumurtayı açıp
içlerindeki oyuncakları
izleyiciye gösterdiği bir video.
01:13
and showinggösterme the toysoyuncaklar insideiçeride to the viewerizleyici.
22
61746
2126
01:16
That's it. That's all it does
for sevenYedi long minutesdakika.
23
64461
2649
Bu kadar. Yedi uzun dakika
boyunca olan tek şey bu.
01:19
And I want you to noticeihbar
two things about this.
24
67428
3051
Bununla ilgili iki şeyi
fark etmenizi istiyorum.
01:22
First of all, this videovideo
has 30 millionmilyon viewsgörünümler.
25
70503
4074
İlk olarak, bu videonun
30 milyon görüntülenmesi var.
01:26
(LaughterKahkaha)
26
74601
1275
(Kahkaha)
01:28
And the other thing is,
27
76376
1166
Diğer şey şu,
01:29
it comesgeliyor from a channelkanal
that has 6.3 millionmilyon subscribersaboneler,
28
77566
3869
6,3 milyon abonesi, toplamda sekiz
milyar görüntülenmesi olan
01:33
that has a totalGenel Toplam of eightsekiz billionmilyar viewsgörünümler,
29
81459
2680
bir kanaldan geliyor
01:36
and it's all just more videosvideolar like this --
30
84163
3106
ve kanaldaki bütün videolar böyle --
01:40
30 millionmilyon people watchingseyretme a guy
openingaçılış up these eggsyumurta.
31
88256
3908
adamın birinin bu yumurtaları açmasını
izleyen 30 milyon insan.
01:44
It soundssesleri prettygüzel weirdtuhaf, but if you searcharama
for "surprisesürpriz eggsyumurta" on YouTubeYouTube,
32
92188
4481
Kulağa garip geliyor ama Youtube'da
"sürpriz yumurta"yı aratırsanız
01:48
it'llolacak tell you there's
10 millionmilyon of these videosvideolar,
33
96693
3523
size bu videolardan
10 milyon tane olduğunu söyler
01:52
and I think that's an undercountundercount.
34
100240
1657
ve bence bu sayı düşük.
01:53
I think there's way, way more of these.
35
101921
1897
Bence bu videolardan çok daha fazla var.
01:55
If you keep searchingArama, they're endlesssonsuz.
36
103842
2242
Eğer aramaya devam ederseniz sonu gelmez.
01:58
There's millionsmilyonlarca and millionsmilyonlarca
of these videosvideolar
37
106108
2159
Marka ve ürünlere ilişkin giderek artan
abartı kombinasyonlarda
02:00
in increasinglygiderek baroquebarok combinationskombinasyonlar
of brandsmarkalar and materialsmalzemeler,
38
108291
3454
bu videolardan milyonlarca var
02:03
and there's more and more of them
beingolmak uploadedyüklenen everyher singletek day.
39
111769
3846
ve her geçen gün
daha da fazlası yükleniyor.
02:07
Like, this is a strangegarip worldDünya. Right?
40
115639
3511
Garip bir dünya.
02:11
But the thing is, it's not adultsyetişkinler
who are watchingseyretme these videosvideolar.
41
119174
3383
Ama asıl önemli kısım şu,
bu videoları izleyenler yetişkinler değil.
02:14
It's kidsçocuklar, smallküçük childrençocuklar.
42
122581
2921
Çocuklar, küçük çocuklar.
02:17
These videosvideolar are
like crackçatlak for little kidsçocuklar.
43
125526
2154
Bu videolar sanki çocuklara
özel uyuşturucu.
02:19
There's something about the repetitiontekrarlama,
44
127704
2075
Tekrarlanma ile ilgili bir şey var,
02:21
the constantsabit little
dopaminedopamin hitvurmak of the revealortaya çıkartmak,
45
129803
2468
onları tamamen bağımlı yapan,
yumurtadan çıkanın
02:24
that completelytamamen hookskancalar them in.
46
132295
1866
sabit küçük dopamin vuruşlarıyla ilgili.
02:26
And little kidsçocuklar watch these videosvideolar
over and over and over again,
47
134185
4809
Küçük çocuklar bu videoları
tekrar tekrar izliyorlar
02:31
and they do it for hourssaatler
and hourssaatler and hourssaatler.
48
139018
2327
ve bunu saatlerce yapıyorlar.
02:33
And if you try and take
the screenekran away from them,
49
141369
2356
Ekranı onlardan
uzaklaştırmaya çalışırsanız
02:35
they'llacaklar screamçığlık and screamçığlık and screamçığlık.
50
143749
1782
durmadan bağıracaklardır.
02:37
If you don't believe me --
51
145555
1262
Eğer bana inanmıyorsanız
02:38
and I've alreadyzaten seengörüldü people
in the audienceseyirci noddingbaş sallama --
52
146841
2607
-ki seyircilerden
başıyla onaylayanları gördüm-
02:41
if you don't believe me, find someonebirisi
with smallküçük childrençocuklar and asksormak them,
53
149472
3391
inanmıyorsanız küçük çocuğu
olan birini bulup sorun,
02:44
and they'llacaklar know about
the surprisesürpriz eggYumurta videosvideolar.
54
152887
2340
sürpriz yumurta videolarını bileceklerdir.
02:47
So this is where we startbaşlama.
55
155251
2070
İşte burada başlıyoruz.
02:49
It's 2018, and someonebirisi, or lots of people,
56
157345
3642
Yıl 2018, birisi veya birçok kişi,
Facebook ve Instagram'ın kullandığı,
02:53
are usingkullanma the sameaynı mechanismmekanizma that, like,
FacebookFacebook and InstagramInstagram are usingkullanma
57
161011
3941
sizde bu uygulamaları sürekli
kontrol etme ihtiyacı uyandıran
02:56
to get you to keep checkingkontrol etme that appUygulamanın,
58
164976
1989
o mekanizmanın aynısını kullanıyor.
02:58
and they're usingkullanma it on YouTubeYouTube
to hackkesmek the brainsbeyin of very smallküçük childrençocuklar
59
166989
3985
Bunu çok küçük çocukların
beyinlerini ele geçirmek için
Youtube'da reklam geliri
karşılığında kullanıyorlar.
03:02
in returndönüş for advertisingreklâm revenuegelir.
60
170998
1958
03:06
At leasten az, I hopeumut
that's what they're doing.
61
174346
2001
En azından, umarım yaptıkları budur.
03:08
I hopeumut that's what they're doing it for,
62
176371
1955
Umarım bunun için yapıyorlardır
03:10
because there's easierDaha kolay waysyolları
of makingyapma adilan revenuegelir on YouTubeYouTube.
63
178350
5308
çünkü Youtube'da reklamdan gelir
elde etmenin daha kolay yolları var.
03:15
You can just make stuffşey up or stealçalmak stuffşey.
64
183682
2332
Bir şeyler uydurabilir
ya da çalabilirsiniz.
03:18
So if you searcharama for really
popularpopüler kids'çocukların cartoonsçizgi filmler
65
186038
2635
Eğer "Pegga Pig" veya "Paw Petrol" gibi
03:20
like "PeppaPeppa PigDomuz" or "PawPençe PatrolDevriye,"
66
188697
1654
popüler çizgi filmleri ararsanız
03:22
you'llEğer olacak find there's millionsmilyonlarca and millionsmilyonlarca
of these onlineinternet üzerinden as well.
67
190375
3147
internet üzerinde bunlardan
milyonlarcasını bulabilirsiniz.
03:25
Of coursekurs, mostçoğu of them aren'tdeğil postedgönderildi
by the originalorijinal contentiçerik creatorsyaratıcıları.
68
193546
3352
Tabii ki bunların çoğu orjinal içerik
yaratıcıları tarafından konulmaz.
03:28
They come from loadsyükler and loadsyükler
of differentfarklı randomrasgele accountshesapları,
69
196922
2999
Rastgele birçok farklı hesap
tarafından konuluyorlar
03:31
and it's impossibleimkansız to know
who'skim postinggönderme them
70
199945
2240
ve bunları kimin koyduğunu
veya amaçlarının ne olduğunu
bilmek imkânsız.
03:34
or what theironların motivesmotifleri mightbelki be.
71
202209
1822
03:36
Does that soundses kindtür of familiartanıdık?
72
204428
1930
Tanıdık geldi mi?
03:38
Because it's exactlykesinlikle the sameaynı mechanismmekanizma
73
206382
1980
Çünkü dijital hizmetlerin çoğunda var olan
03:40
that's happeningolay acrosskarşısında mostçoğu
of our digitaldijital servicesHizmetler,
74
208386
2600
mekanizmanın tamamen aynısı bu,
03:43
where it's impossibleimkansız to know
where this informationbilgi is cominggelecek from.
75
211010
3207
bilginin nereden geldiğini
bilmek imkânsız.
03:46
It's basicallytemel olarak fakesahte newshaber for kidsçocuklar,
76
214241
1829
Bu resmen çocuklar için sahte haber
03:48
and we're trainingEğitim them from birthdoğum
77
216094
2161
ve onları doğduklarından itibaren
03:50
to clicktık on the very first linkbağlantı
that comesgeliyor alonguzun bir,
78
218279
2506
önlerine gelen ilk linke
tıklamaları için eğitiyoruz,
03:52
regardlessne olursa olsun of what the sourcekaynak is.
79
220809
1953
kaynağının ne olduğunu
bile umursamadan.
03:54
That's doesn't seemgörünmek like
a terriblyson derece good ideaFikir.
80
222786
2603
Bu çok da iyi bir fikir gibi durmuyor.
03:58
Here'sİşte anotherbir diğeri thing
that's really bigbüyük on kids'çocukların YouTubeYouTube.
81
226399
2710
YouTube'da gerçekten sevilen
bir diğer şey daha var.
04:01
This is calleddenilen the "FingerParmak FamilyAile SongŞarkı."
82
229133
1928
İsmi "Parmak Ailesi Şarkısı."
04:03
I just heardduymuş someonebirisi groaninilti
in the audienceseyirci.
83
231085
2018
Seyircilerden birinin sızlandığını duydum.
04:05
This is the "FingerParmak FamilyAile SongŞarkı."
84
233127
1624
Bu "Parmak Ailesi Şarkısı."
04:06
This is the very first one I could find.
85
234775
1930
Bu bulabildiklerim arasında en eskisi.
04:08
It's from 2007, and it only has
200,000 viewsgörünümler,
86
236729
2829
2007 yılında yüklenmiş
ve sadece 200.000 kez izlenmiş,
04:11
whichhangi is, like, nothing in this gameoyun.
87
239582
1976
ki bu, nerdeyse bu platformda hiç demek.
04:13
But it has this insanelydelicesine earwormyearwormy tunenağme,
88
241582
2852
Ama insanı deli eden
ve diline dolanan bir melodisi var,
04:16
whichhangi I'm not going to playoyun to you,
89
244458
1682
bunu size dinletmeyeceğim
04:18
because it will searkurutmak itselfkendisi
into your brainbeyin
90
246164
2008
çünkü şarkı beyninize kazınacak,
04:20
in the sameaynı way that
it searedkatılaşmış itselfkendisi into mineMayın,
91
248196
2395
tıpkı benim beynime kazındığı gibi
04:22
and I'm not going to do that to you.
92
250615
1770
ve sizi buna maruz bırakmayacağım.
04:24
But like the surprisesürpriz eggsyumurta,
93
252409
1344
Aynı sürpriz yumurtalar gibi
04:25
it's got insideiçeride kids'çocukların headskafalar
94
253777
2164
çocukların aklına girerek
04:27
and addictedbağımlı them to it.
95
255965
1607
onları buna bağımlı yaptılar.
04:29
So withiniçinde a fewaz yearsyıl,
these fingerparmak familyaile videosvideolar
96
257596
2531
Böylece birkaç yıl içinde,
bu parmak ailesi videoları
04:32
startbaşlama appearinggörünen everywhereher yerde,
97
260151
1303
her yerde görünmeye başladı
04:33
and you get versionsversiyonları
in differentfarklı languagesdiller
98
261478
2029
ve farklı dillerde
04:35
with popularpopüler kids'çocukların cartoonsçizgi filmler usingkullanma foodGıda
99
263531
2121
popüler çizgi filmlerin yiyecek
04:37
or, franklyaçıkçası, usingkullanma whateverher neyse kindtür
of animationanimasyon elementselementler
100
265676
2550
hatta her çeşit animasyon
malzemesini kullandıkları
04:40
you seemgörünmek to have lyingyalan söyleme around.
101
268250
2252
versiyonları etrafa yayıldı.
04:43
And oncebir Zamanlar again, there are millionsmilyonlarca
and millionsmilyonlarca and millionsmilyonlarca of these videosvideolar
102
271002
5197
Yine aynı şekilde, bu tür çılgınca
kombinasyonlardan oluşan
04:48
availablemevcut onlineinternet üzerinden in all of these
kindtür of insanedeli combinationskombinasyonlar.
103
276223
3435
milyonlarca video internette mevcut.
04:51
And the more time
you startbaşlama to spendharcamak with them,
104
279682
2228
Onlarla ne kadar vakit geçirirseniz
04:53
the crazierçılgın and crazierçılgın
you startbaşlama to feel that you mightbelki be.
105
281934
3694
delirdiğinize dair inancınız
o kadar artar.
04:57
And that's where I
kindtür of launchedbaşlattı into this,
106
285652
3333
Ben de bu noktada bu konuya yöneldim,
05:01
that feelingduygu of deepderin strangenessacayiplik
and deepderin lackeksiklik of understandinganlayış
107
289009
3666
çevremde sunuluyor gibi görünen bu şeyin
05:04
of how this thing was constructedinşa
that seemsgörünüyor to be presentedsunulan around me.
108
292699
4175
nasıl inşa edildiğini asla anlayamama
ve derin yabancılaşma hissi.
05:08
Because it's impossibleimkansız to know
where these things are cominggelecek from.
109
296898
3167
Çünkü bu şeylerin nereden
geldiğini bilmek imkânsız.
05:12
Like, who is makingyapma them?
110
300089
1241
Yani, kim yapıyor bunları?
05:13
Some of them appeargörünmek to be madeyapılmış
of teamstakımlar of professionalprofesyonel animatorsanimatörler.
111
301354
3143
Bazıları profesyonel animatör
ekiplerle yapılmış gibi duruyor.
05:16
Some of them are just randomlyrasgele
assembledbirleştirilmiş by softwareyazılım.
112
304521
2882
Bazıları sadece yazılım tarafından
rastgele birleştirilmiş.
05:19
Some of them are quiteoldukça wholesome-lookingsağlıklı görünümlü
younggenç kids'çocukların entertainerseğlence.
113
307427
4253
Bazıları oldukça sağlıklı görünen
küçük çocuk şovmenleri.
05:23
And some of them are from people
114
311704
1552
Ve bazıları da...
05:25
who really clearlyAçıkça
shouldn'tolmamalı be around childrençocuklar at all.
115
313280
3007
kesinlikle çocukların etrafında
bulunmaması gereken insanlardan.
05:28
(LaughterKahkaha)
116
316311
1615
(Gülme sesleri)
05:30
And oncebir Zamanlar again, this impossibilityimkansızlık
of figuringendam out who'skim makingyapma this stuffşey --
117
318987
4640
Bir kez daha, bu şeyleri yapanın
kim olduğunu çözmenin imkansızlığı--
05:35
like, this is a botbot?
118
323651
1156
Bu bir robot mu?
05:36
Is this a personkişi? Is this a trollTrol?
119
324831
2647
Bu bir insan mı? Bir trol mü?
05:39
What does it mean
that we can't tell the differencefark
120
327502
2382
Artık bu şeylerin farkını
söyleyemiyor olmamız
05:41
betweenarasında these things anymoreartık?
121
329908
1583
ne anlama gelir?
05:43
And again, doesn't that uncertaintybelirsizlik
feel kindtür of familiartanıdık right now?
122
331515
4848
Peki bu belirsizlik tanıdık geliyor mu?
05:50
So the mainana way people get viewsgörünümler
on theironların videosvideolar --
123
338145
2580
Yani, insanların videolarını
izletmelerinin tek yolu
05:52
and rememberhatırlamak, viewsgörünümler mean moneypara --
124
340749
1707
-ki izlenme sayısı para demek-
05:54
is that they stuffşey the titlesbaşlıklar
of these videosvideolar with these popularpopüler termsşartlar.
125
342480
4742
bu tür popüler terimleri
videolarının başlığına sıkıştırmak.
05:59
So you take, like, "surprisesürpriz eggsyumurta"
126
347246
1687
Mesela "sürpriz yumurta"yı alır,
06:00
and then you addeklemek
"PawPençe PatrolDevriye," "EasterPaskalya eggYumurta,"
127
348957
2066
"Paw Patrol" veya
"Easter egg"i eklersiniz,
06:03
or whateverher neyse these things are,
128
351047
1393
ya da bu şeyler her neyse,
06:04
all of these wordskelimeler from other
popularpopüler videosvideolar into your titleBaşlık,
129
352464
2893
popüler videolardaki bu kelimeleri
alır ve başlığına eklersiniz,
06:07
untila kadar you endson up with this kindtür of
meaninglessanlamsız mashMash of languagedil
130
355381
2968
ta ki insanlara hiçbir anlam ifade etmeyen
06:10
that doesn't make senseduyu to humansinsanlar at all.
131
358373
2498
bu tür anlamsız bir karma dil
elde edene dek.
06:12
Because of coursekurs it's only really
tinyminik kidsçocuklar who are watchingseyretme your videovideo,
132
360895
3546
Çünkü tabii ki sizin videonuzu
izleyenler sadece ufacık çocuklar,
06:16
and what the hellcehennem do they know?
133
364465
1827
onlar ne biliyorlar ki?
06:18
Your realgerçek audienceseyirci
for this stuffşey is softwareyazılım.
134
366316
3007
Sizin bu şey için asıl seyirciniz yazılım.
06:21
It's the algorithmsalgoritmalar.
135
369347
1156
Algoritmalar.
06:22
It's the softwareyazılım that YouTubeYouTube useskullanımları
136
370527
1855
Youtube'un hangi videoların
06:24
to selectseçmek whichhangi videosvideolar
are like other videosvideolar,
137
372406
2483
diğerleri gibi olduğunu seçmek için
onları popüler ve önerilen
video yapmak için kullandığı yazılım.
06:26
to make them popularpopüler,
to make them recommendedÖnerilen.
138
374913
2243
06:29
And that's why you endson up with this
kindtür of completelytamamen meaninglessanlamsız mashMash,
139
377180
3461
Tamamıyla anlamsız olan bu karışımla
sonuçlanmanızın nedeni de bu,
06:32
bothher ikisi de of titleBaşlık and of contentiçerik.
140
380665
2071
hem başlık hem içerik olarak.
06:35
But the thing is, you have to rememberhatırlamak,
141
383792
1894
Ama önemli olan, hatırlamalısınız ki
06:37
there really are still people withiniçinde
this algorithmicallyalgoritmik optimizedoptimize systemsistem,
142
385710
4478
algoritmik olarak en iyi hâle getirilen
bu sistemin içinde gerçekten insanlar var.
06:42
people who are kindtür
of increasinglygiderek forcedzorunlu to actdavranmak out
143
390212
2790
Giderek garipleşen bu kelime
kombinasyonlarını
06:45
these increasinglygiderek bizarretuhaf
combinationskombinasyonlar of wordskelimeler,
144
393026
3066
canlandırmaya zorlanan insanlar,
06:48
like a desperateumutsuz improvisationdoğaçlama artistsanatçı
respondingtepki vermek to the combinedkombine screamsçığlıklar
145
396116
5173
tıpkı yürümeye yeni başlayan milyonlarca
bebeğin çığlığına karşılık veren
06:53
of a millionmilyon toddlersküçük çocuklar at oncebir Zamanlar.
146
401313
2203
umutsuz bir doğaçlama sanatçısı gibi.
06:57
There are realgerçek people
trappedhapsolmuş withiniçinde these systemssistemler,
147
405168
2468
Bu sistemlerde sıkışıp kalmış
gerçek insanlar var
06:59
and that's the other deeplyderinden strangegarip thing
about this algorithmicallyalgoritmik driventahrik culturekültür,
148
407660
4055
ve bu da algoritmik işleyen bu kültürdeki
son derece garip bir diğer şey
07:03
because even if you're humaninsan,
149
411739
1381
çünkü insansan bile,
07:05
you have to endson up behavingdavranışlar like a machinemakine
150
413144
2145
bir makine gibi davranmak zorundasın,
07:07
just to survivehayatta kalmak.
151
415313
1800
hayatta kalabilmek için.
07:09
And alsoAyrıca, on the other sideyan of the screenekran,
152
417137
2100
Bir de ekranın diğer tarafında
07:11
there still are these little kidsçocuklar
watchingseyretme this stuffşey,
153
419261
2947
bu tür şeyleri hâlâ izleyen, sıkışmış,
07:14
stucksıkışmış, theironların fulltam attentionDikkat grabbedyakaladı
by these weirdtuhaf mechanismsmekanizmalar.
154
422232
4206
tüm dikkati bu garip mekanizmalar
tarafından yakalanmış çocuklar var.
07:18
And mostçoğu of these kidsçocuklar are too smallküçük
to even use a websiteWeb sitesi.
155
426768
2798
Bu çocukların çoğu,
internete girmek için bile çok küçük.
07:21
They're just kindtür of hammeringçekiç
on the screenekran with theironların little handseller.
156
429590
3276
Sadece küçük elleriyle ekrana
çekiçle vurur gibi vuruyorlar.
07:24
And so there's autoplayOtomatik Kullan,
157
432890
1217
Bir de otomatik oynatma var,
07:26
where it just keepstutar playingoynama these videosvideolar
over and over and over in a loopdöngü,
158
434131
3579
bu videoları bir döngü içinde
sonsuz bir şekilde
07:29
endlesslySonsuz bir şekilde for hourssaatler and hourssaatler at a time.
159
437734
2059
saatlerce tekrar tekrar oynatan.
07:31
And there's so much weirdnesstuhaflık
in the systemsistem now
160
439817
2843
Sistemde şu an çok fazla gariplik var,
07:34
that autoplayOtomatik Kullan takes you
to some prettygüzel strangegarip placesyerler.
161
442684
3009
bu otomatik oynatma
sizi çok garip yerlere götürüyor.
07:37
This is how, withiniçinde a dozendüzine stepsadımlar,
162
445717
2488
İşte bu şekilde on iki adımda,
07:40
you can go from a cuteşirin videovideo
of a countingsayma traintren
163
448229
3158
sayı sayan sevimli trenin videosundan
07:43
to masturbatingmastürbasyon MickeyMickey MouseFare.
164
451411
2442
mastürbasyon yapan
Mickey Mouse'a gidebilirsiniz.
07:46
Yeah. I'm sorry about that.
165
454529
2288
Evet, bu konuda üzgünüm.
07:48
This does get worsedaha da kötüsü.
166
456841
1700
Bu daha da kötüye gidiyor.
07:50
This is what happensolur
167
458565
1282
Tüm bu farklı anahtar kelimeler,
07:51
when all of these differentfarklı keywordsanahtar kelimeler,
168
459871
3086
farklı dikkat parçaları,
07:54
all these differentfarklı piecesparçalar of attentionDikkat,
169
462981
2461
umutsuz içerik jenerasyonu,
07:57
this desperateumutsuz generationnesil of contentiçerik,
170
465466
2807
tüm bunların hepsi
08:00
all comesgeliyor togetherbirlikte into a singletek placeyer.
171
468297
2582
tek bir yerde bir araya gelince
ortaya çıkan bu.
08:03
This is where all those deeplyderinden weirdtuhaf
keywordsanahtar kelimeler come home to roosttünek.
172
471871
4472
Burası tüm bu son derece garip
anahtar kelimelerin geri teptiği yer.
08:08
You cross-breedçapraz-doğurmak the fingerparmak familyaile videovideo
173
476367
2391
Parmak ailesi videosunu alıp
08:10
with some live-actionCanlı Aksiyon superherosüper kahraman stuffşey,
174
478782
2088
süper kahramanlarla çiftleştirirsiniz,
08:12
you addeklemek in some weirdtuhaf,
trollishtrollish in-jokesin-Jokes or something,
175
480894
3256
birkaç garip, trol şaka eklersiniz
08:16
and suddenlyaniden, you come
to a very weirdtuhaf placeyer indeedaslında.
176
484174
3366
ve birdenbire cidden de
garip bir yere gelirsiniz.
08:19
The stuffşey that tendseğilimi to upsetüzgün parentsebeveyn
177
487564
2113
Ebeveynleri endişelendirebilecek şeyler
08:21
is the stuffşey that has kindtür of violentşiddetli
or sexualcinsel contentiçerik, right?
178
489701
3331
şiddet veya cinsellik
içeren şeyler, değil mi?
08:25
Children'sÇocuk cartoonsçizgi filmler gettingalma assaultedsaldırıya,
179
493056
2822
Çocuk çizgi kahramanlar saldırıya uğruyor,
08:27
gettingalma killedöldürdü,
180
495902
2018
öldürülüyor,
08:29
weirdtuhaf pranksŞakalar that actuallyaslında
genuinelygerçekten terrifyKorkut childrençocuklar.
181
497944
3343
çocukları aslında gerçekten
korkutan garip şakalar.
08:33
What you have is softwareyazılım pullingçeken in
all of these differentfarklı influencesetkiler
182
501311
3675
Yazılımlar tüm bu farklı etkileri,
çocukların en kötü kâbuslarını
08:37
to automaticallyotomatik olarak generateüretmek
kids'çocukların worsten kötü nightmareskabuslar.
183
505010
2961
otomatik olarak üretmek
için kullanıyorlar.
08:39
And this stuffşey really, really
does affectetkilemek smallküçük childrençocuklar.
184
507995
2701
Bu tür şeyler gerçekten de
küçük çocukları etkiliyor.
08:42
ParentsAnne reportrapor theironların childrençocuklar
beingolmak traumatizedTravma,
185
510720
2866
Ebeveynler çocuklarının
travma geçirdiğini,
08:45
becomingolma afraidkorkmuş of the darkkaranlık,
186
513610
1392
karanlıktan korkar olduğunu,
08:47
becomingolma afraidkorkmuş of theironların favoritesevdiğim
cartoonkarikatür characterskarakterler.
187
515026
3050
sevdikleri çizgi film karakterlerinden
korktuğunu bildiriyor.
08:50
If you take one thing away from this,
it's that if you have smallküçük childrençocuklar,
188
518524
3611
Bundan bir çıkarım yaparsanız şu olsun:
eğer küçük çocuklarınız varsa
08:54
keep them the hellcehennem away from YouTubeYouTube.
189
522159
1996
onları YouTube'dan uzak tutun.
08:56
(ApplauseAlkış)
190
524743
3949
(Alkışlar)
09:02
But the other thing, the thing
that really getsalır to me about this,
191
530504
3096
Fakat diğer bir şey ise, bu konuda
beni gerçekten üzen şey şu ki
09:05
is that I'm not sure we even really
understandanlama how we got to this pointpuan.
192
533624
4629
bu noktaya nasıl geldiğimizi
cidden anladığımızdan emin değilim.
09:10
We'veBiz ettik takenalınmış all of this influenceetki,
all of these things,
193
538951
2931
Tüm bu etkileri, tüm bu şeyleri aldık
09:13
and mungedMunged them togetherbirlikte in a way
that no one really intendedistenilen.
194
541906
2953
ve kimsenin pek niyetlenmediği
bir şekilde birleştirdik.
09:16
And yethenüz, this is alsoAyrıca the way
that we're buildingbina the entiretüm worldDünya.
195
544883
3156
Ancak dünyayı inşa etme
şeklimiz günümüzde bu.
09:20
We're takingalma all of this dataveri,
196
548063
1773
Bütün bu verileri alıyoruz,
09:21
a lot of it badkötü dataveri,
197
549860
1447
ki çoğu kötü veriler,
09:23
a lot of historicaltarihi dataveri
fulltam of prejudiceönyargı,
198
551331
3029
önyargılarla dolu bir sürü tarihi veri,
09:26
fulltam of all of our worsten kötü
impulsesdarbeleri of historytarih,
199
554384
2837
tarihin en kötü dürtüleriyle dolu,
bunlardan devasa veri setleri yaratıyoruz,
09:29
and we're buildingbina that
into hugeKocaman dataveri setskümeler
200
557245
2049
09:31
and then we're automatingotomatikleştirme it.
201
559318
1423
sonra da otomatikleştiriyoruz.
09:32
And we're mungingmunging it togetherbirlikte
into things like creditkredi reportsraporlar,
202
560765
3502
Bunların hepsini birlikte
kredi raporlarına,
09:36
into insurancesigorta premiumsprim,
203
564291
1634
sigorta primlerine,
09:37
into things like predictiveAkıllı
policingPolislik systemssistemler,
204
565949
2693
tahmini polislik sistemi gibi şeylere,
09:40
into sentencingceza guidelineskılavuzlar.
205
568666
1762
hüküm rehberlerine dönüştürüyoruz.
09:42
This is the way we're actuallyaslında
constructinginşa the worldDünya todaybugün
206
570452
2821
Bu aslında, bugün bu dünyayı
bu verileri kullanarak
09:45
out of this dataveri.
207
573297
1151
inşa etme şeklimizdir.
09:46
And I don't know what's worsedaha da kötüsü,
208
574472
1698
Hangisi daha kötü bilmiyorum,
09:48
that we builtinşa edilmiş a systemsistem
that seemsgörünüyor to be entirelyBaştan sona optimizedoptimize
209
576194
3228
İnsan davranışlarının en kötü yanları için
09:51
for the absolutekesin worsten kötü aspectsyönleri
of humaninsan behaviordavranış,
210
579446
2808
en uygun hâle getirilmiş gibi
görünen bir sistem kurmamız mı
09:54
or that we seemgörünmek
to have donetamam it by accidentkaza,
211
582278
2425
yoksa bunu yapıyor olduğumuzun
bile farkına varmadan
09:56
withoutolmadan even realizingfark
that we were doing it,
212
584727
2207
kazara yapmış gibi
görünüyor olmamız mı?
09:58
because we didn't really understandanlama
the systemssistemler that we were buildingbina,
213
586958
3382
Çünkü yapmakta olduğumuz
bu sistemleri gerçekten anlayamadık,
10:02
and we didn't really understandanlama
how to do anything differentlyfarklı olarak with it.
214
590364
3683
onlarla nasıl daha farklı bir şey
yapılacağını da gerçekten anlamadık.
10:06
There's a coupleçift of things I think
that really seemgörünmek to be drivingsürme this
215
594769
3365
Birkaç şeyin buna
yön verdiğini düşünüyorum,
10:10
mostçoğu fullytamamen on YouTubeYouTube,
216
598158
1189
çoğu Youtube üzerinde
10:11
and the first of those is advertisingreklâm,
217
599371
1827
ve bunlardan ilki reklamcılık,
10:13
whichhangi is the monetizationpara kazanma of attentionDikkat
218
601222
2837
ki bu da, ilginin paraya
dönüştürülmesi demek,
10:16
withoutolmadan any realgerçek other variablesdeğişkenler at work,
219
604083
3136
işin içinde başka gerçek değişken olmadan,
10:19
any carebakım for the people who are
actuallyaslında developinggelişen this contentiçerik,
220
607243
3885
bu içeriği gerçekten geliştiren
insanları umursamadan,
10:23
the centralizationmerkeziyetçilik of the powergüç,
the separationayırma of those things.
221
611152
3636
gücün merkezileştirilmesi,
bu şeylerin birbirinden ayrılması.
10:26
And I think howeverancak you feel
about the use of advertisingreklâm
222
614812
3144
Bence bazı şeyleri desteklemek için
reklam kullanımı konusunda
her ne düşünüyorsanız
10:29
to kindtür of supportdestek stuffşey,
223
617980
1238
10:31
the sightgörme of grownyetişkin menerkekler in diapersçocuk bezi
rollingyuvarlanan around in the sandkum
224
619242
3067
hiç anlamadıkları bir algoritmanın
onlara para vereceği umuduyla
10:34
in the hopeumut that an algorithmalgoritma
that they don't really understandanlama
225
622333
2983
bebek beziyle kumda yuvarlanan
10:37
will give them moneypara for it
226
625340
1315
olgun adamların görüntüsü,
10:38
suggestsanlaşılacağı that this
probablymuhtemelen isn't the thing
227
626679
2037
toplum ve kültürümüzü
dayandırmamız gereken şeyin
10:40
that we should be basingdayandırarak
our societytoplum and culturekültür uponüzerine,
228
628740
2563
muhtemelen bu şey olmadığını
ve buna para yatırmamamız
gerektiğini gösteriyor.
10:43
and the way in whichhangi
we should be fundingfinansman it.
229
631327
2160
10:45
And the other thing that's kindtür of
the majormajör driversürücü of this is automationOtomasyon,
230
633511
3519
Buna yön veren diğer
büyük şey de otomatikleşme,
10:49
whichhangi is the deploymentDağıtım
of all of this technologyteknoloji
231
637054
2329
ulaşır ulaşmaz hiç gözden kaçmaksızın
10:51
as soonyakında as it arrivesgeldiğinde,
withoutolmadan any kindtür of oversightgözetim,
232
639407
2521
tüm bu teknolojinin kulanılmaya başlanması
10:53
and then oncebir Zamanlar it's out there,
233
641952
1412
ve teknoloji kendini gösterdiğinde
10:55
kindtür of throwingatma up our handseller and going,
"Hey, it's not us, it's the technologyteknoloji."
234
643388
3843
ellerimizi kaldırıp "Ama biz yapmadık,
teknoloji yaptı" demek.
10:59
Like, "We're not involvedilgili in it."
235
647255
1642
"Bizim bir suçumuz yok."
11:00
That's not really good enoughyeterli,
236
648921
1767
Bu gerçekten yeterli değil.
11:02
because this stuffşey isn't
just algorithmicallyalgoritmik governedyönetilir,
237
650712
2710
Çünkü bu şey sadece
algoritmik olarak yönetilmiyor,
11:05
it's alsoAyrıca algorithmicallyalgoritmik policedetkilendiğine.
238
653446
2498
aynı zamanda algoritmik
olarak denetleniyor.
11:07
When YouTubeYouTube first startedbaşladı
to payödeme attentionDikkat to this,
239
655968
2848
YouTube buna ilk kulak
verdiği zamanlarda
11:10
the first thing they said
they'dgittiklerini do about it
240
658840
2087
bununla ilgili söyledikleri ilk şey
11:12
was that they'dgittiklerini deploydağıtmak
better machinemakine learningöğrenme algorithmsalgoritmalar
241
660951
2695
daha iyi makine öğrenimli
algoritmalar kullanacaklarıydı,
11:15
to moderateılımlı the contentiçerik.
242
663670
1329
içeriği ılımlı yapmak için.
11:17
Well, machinemakine learningöğrenme,
as any expertuzman in it will tell you,
243
665023
3485
Bu alandaki her uzmanın size
söyleyeceği gibi, "makine öğrenmesi"
11:20
is basicallytemel olarak what we'vebiz ettik startedbaşladı to call
244
668532
1896
nasıl çalıştığını aslında
anlamadığımız yazılımlara
11:22
softwareyazılım that we don't really
understandanlama how it worksEserleri.
245
670452
2588
vermiş olduğumuz isim.
11:25
And I think we have
enoughyeterli of that alreadyzaten.
246
673064
3983
Bence bunlardan elimizde yeterince var.
11:29
We shouldn'tolmamalı be leavingayrılma
this stuffşey up to AIAI to decidekarar ver
247
677071
3166
Neyin uygun olduğunu belirlemeyi
yapay zekâya bırakmamalıyız
11:32
what's appropriateuygun or not,
248
680261
1251
çünkü ne olacağını biliyoruz.
11:33
because we know what happensolur.
249
681536
1436
Başka şeyleri sansürleyecek.
11:34
It'llİtll ' startbaşlama censoringsansür other things.
250
682996
1688
Eşcinsel içerikleri sansürleyecek.
11:36
It'llİtll ' startbaşlama censoringsansür queerqueer contentiçerik.
251
684708
1783
Yasal kamu konuşmalarını
sansürlemeye başlayacak.
11:38
It'llİtll ' startbaşlama censoringsansür
legitimatemeşru publichalka açık speechkonuşma.
252
686515
2237
Bu söylemlerde izin verilen,
11:40
What's allowedizin in these discoursessöylemler,
253
688776
1925
sorumsuz sistemlere bırakılan
bir şey olmamalı.
11:42
it shouldn'tolmamalı be something
that's left up to unaccountablesorumsuz systemssistemler.
254
690725
3097
Bu hepimizin yapması gereken
bir tartışmanın parçası.
11:45
It's partBölüm of a discussiontartışma
all of us should be havingsahip olan.
255
693846
2947
11:48
But I'd leaveayrılmak a reminderuyarı mektubu
256
696817
1308
Ama bir hatırlatma yapayım,
11:50
that the alternativealternatif isn't
very pleasanthoş, eitherya.
257
698149
2753
alternatif de pek hoş değil.
Buna ek olarak YouTube yakın zamanda
11:52
YouTubeYouTube alsoAyrıca announcedaçıkladı recentlyson günlerde
258
700926
1535
11:54
that they're going to releaseserbest bırakmak
a versionversiyon of theironların kids'çocukların appUygulamanın
259
702485
2767
çocuk uygulamalarının tamamen
insanlar tarafından yönetildiği
11:57
that would be entirelyBaştan sona
moderatedyönetilir by humansinsanlar.
260
705276
2407
bir versiyon çıkaracaklarını duyurdu.
12:00
FacebookFacebook -- ZuckerbergZuckerberg said
much the sameaynı thing at CongressKongre,
261
708134
3618
Facebook-- Zuckerberg de uygulamasını
nasıl yöneteceği sorulduğunda
12:03
when pressedpreslenmiş about how they
were going to moderateılımlı theironların stuffşey.
262
711776
2987
kongrede neredeyse aynı şeyi söylemişti.
12:06
He said they'dgittiklerini have humansinsanlar doing it.
263
714787
1747
Bunu insanlara yaptıracağız demişti.
12:08
And what that really meansanlamına geliyor is,
264
716558
1459
Bunun asıl anlamı şu;
12:10
insteadyerine of havingsahip olan toddlersküçük çocuklar beingolmak
the first personkişi to see this stuffşey,
265
718041
3223
bu şeyleri ilk görenler, çocuklar yerine
12:13
you're going to have underpaidaz maaş,
precarioustehlikeli contractsözleşme workersişçiler
266
721288
2788
düşük maaşlı, güvencesiz
sözleşmeli işçileriniz olacak,
12:16
withoutolmadan properuygun mentalzihinsel healthsağlık supportdestek
267
724100
1726
düzgün akıl sağlığı sigortası olmayan
12:17
beingolmak damagedhasarlı by it as well.
268
725850
1376
ve bundan hasar gören insanlar.
12:19
(LaughterKahkaha)
269
727250
1096
(Kahkahalar)
12:20
And I think we can all do
quiteoldukça a lot better than that.
270
728370
2601
Bence hepimiz bundan
çok daha iyisini yapabiliriz.
12:22
(ApplauseAlkış)
271
730995
2499
(Alkışlar)
12:26
The thought, I think, that bringsgetiriyor those
two things togetherbirlikte, really, for me,
272
734068
4613
Bu iki şeyi bir araya getiren düşünce de
bana göre gerçekten aracı kurum.
12:30
is agencyAjans.
273
738705
1420
12:32
It's like, how much do we really
understandanlama -- by agencyAjans, I mean:
274
740149
3157
Aracı kurumdan aslında
ne anladığımızı kastediyorum:
12:35
how we know how to actdavranmak
in our ownkendi besten iyi interestsilgi.
275
743330
4390
Nasıl en iyi menfaatlerimize göre
hareket etmeyi bilmemiz,
12:39
WhichHangi -- it's almostneredeyse impossibleimkansız to do
276
747744
1787
ki bunu yapmak neredeyse imkânsız,
12:41
in these systemssistemler that we don't
really fullytamamen understandanlama.
277
749555
3485
gerçekten tam anlamıyla anlamadığımız
bu sistemlerin içinde.
12:45
InequalityEşitsizlik of powergüç
always leadspotansiyel müşteriler to violenceşiddet.
278
753064
3071
Güç eşitsizliği her zaman
şiddete yol açar.
12:48
And we can see insideiçeride these systemssistemler
279
756159
1685
Bu sistemlerin içerisinde
12:49
that inequalityeşitsizlik of understandinganlayış
does the sameaynı thing.
280
757868
2611
kavrayış eşitsizliğinin de
aynını yaptığını görüyoruz.
12:52
If there's one thing that we can do
to startbaşlama to improveiyileştirmek these systemssistemler,
281
760503
3779
Bu sistemleri geliştirmek için
yapabileceğimiz bir şey varsa
12:56
it's to make them more legibleokunaklı
to the people who use them,
282
764306
2718
o da bunları kullanan insanlar için
daha okunaklı yapmak,
12:59
so that all of us have
a commonortak understandinganlayış
283
767048
2196
böylece burada neler döndüğü ile ilgili
13:01
of what's actuallyaslında going on here.
284
769268
1851
hepimizin ortak bir kanısı olur.
13:03
The thing, thoughgerçi, I think
mostçoğu about these systemssistemler
285
771970
2968
Gerçi bu sistemlerle ilgili
en çok düşündüğüm şey de şu ki
13:06
is that this isn't, as I hopeumut
I've explainedaçıkladı, really about YouTubeYouTube.
286
774962
3857
umarım anlatabilmişimdir,
bu olay YouTube ile ilgili değil.
13:10
It's about everything.
287
778843
1312
Her şeyle ilgili.
13:12
These issuessorunlar of accountabilityHesap verebilirlik and agencyAjans,
288
780179
2444
Bu sorumluluk ve aracılık,
13:14
of opacityOpaklık and complexitykarmaşa,
289
782647
2225
anlaşılmazlık ve karmaşa,
13:16
of the violenceşiddet and exploitationistismar
that inherentlydoğal olarak resultsSonuçlar
290
784896
3177
gücün birkaç kişinin elinde
toplanmış olmasından kaynaklanan
13:20
from the concentrationkonsantrasyon
of powergüç in a fewaz handseller --
291
788097
2794
şiddet ve istismar konuları--
13:22
these are much, much largerdaha büyük issuessorunlar.
292
790915
2579
bunlar çok, çok daha geniş konular.
13:26
And they're issuessorunlar not just of YouTubeYouTube
and not just of technologyteknoloji in generalgenel,
293
794395
3687
Üstelik bunlar sadece Youtube'un
veya teknolojinin genel sorunları değil,
13:30
and they're not even newyeni.
294
798106
1265
bunlar yeni bile değil.
13:31
They'veOnlar ettik been with us for agesyaşlar.
295
799395
1461
Bunlar senelerdir bizimleydi.
13:32
But we finallyen sonunda builtinşa edilmiş this systemsistem,
this globalglobal systemsistem, the internetInternet,
296
800880
4390
Ama biz en sonunda, bize bunları
sıradışı bir şekilde gösteren,
13:37
that's actuallyaslında showinggösterme them to us
in this extraordinaryolağanüstü way,
297
805294
3019
bunları inkâr edilemez
yapan global sistemi,
13:40
makingyapma them undeniableinkar edilemez.
298
808337
1547
interneti yarattık.
13:41
TechnologyTeknoloji has this extraordinaryolağanüstü capacitykapasite
299
809908
2820
Teknolojinin öyle sıradışı
bir kapasitesi var ki
13:44
to bothher ikisi de instantiateörneğini oluşturmak and continuedevam et
300
812752
3973
en sıradışı ve gizli kalmış
tutku ve önyargılarımızı
13:48
all of our mostçoğu extraordinaryolağanüstü,
oftensık sık hiddengizli desiresarzuları and biasesönyargıların
301
816749
4248
örneklemek ve sürdürmekle kalmıyor,
13:53
and encodingkodlama them into the worldDünya,
302
821021
1866
onları gerçek dünyaya çözümlüyor
13:54
but it alsoAyrıca writesyazıyor them down
so that we can see them,
303
822911
3474
ama aynı zamanda bunları
görmemiz için not ediyor,
13:58
so that we can't pretendtaklit
they don't existvar olmak anymoreartık.
304
826409
3330
böylece yokmuş gibi davranamıyoruz.
14:01
We need to stop thinkingdüşünme about technologyteknoloji
as a solutionçözüm to all of our problemssorunlar,
305
829763
4319
Teknolojiyi tüm problemlerimizin
çözümü olarak görmek yerine,
14:06
but think of it as a guidekılavuz
to what those problemssorunlar actuallyaslında are,
306
834106
3757
bu problemlerin aslında ne olduğunu
gösteren bir rehber olarak görmeliyiz ki
14:09
so we can startbaşlama thinkingdüşünme
about them properlyuygun şekilde
307
837887
2144
böylece onlar hakkında düzgünce düşünüp
14:12
and startbaşlama to addressadres them.
308
840055
1766
çözüm bulabilelim.
14:13
Thank you very much.
309
841845
1335
Çok teşekkür ederim.
14:15
(ApplauseAlkış)
310
843204
5192
(Alkışlar)
14:21
Thank you.
311
849733
1188
Teşekkür ederim.
14:22
(ApplauseAlkış)
312
850945
2869
(Alkışlar)
14:28
HelenHelen WaltersWalters: JamesJames, thank you
for cominggelecek and givingvererek us that talk.
313
856839
3178
Helen Walters: James, bize bu konuşmayı
yaptığın için teşekkürler.
14:32
So it's interestingilginç:
314
860041
1189
Öylesine ilginç ki
14:33
when you think about the filmsfilmler where
the roboticrobotik overlordsOverlords take over,
315
861254
3495
robotik otoritelerin yönetimi
ele geçirdiği filmleri düşününce
14:36
it's all a bitbit more glamorousgöz alıcı
than what you're describingaçıklayan.
316
864773
3279
her şey senin tanımladığından
biraz daha göz alıcı.
14:40
But I wondermerak etmek -- in those filmsfilmler,
you have the resistancedirenç mountingMontaj.
317
868076
3749
Ama merak ettiğim şu--
bu fimlerde bir direniş var.
14:43
Is there a resistancedirenç mountingMontaj
towardskarşı this stuffşey?
318
871849
3216
Bu şeylere karşı da bir direniş var mı?
14:47
Do you see any positivepozitif signsişaretler,
greenyeşil shootssürgünler of resistancedirenç?
319
875089
3796
Hiç pozitif bir işaret,
yeşeren bir direniş görüyor musun?
14:52
JamesJames BridleAt başlığı: I don't know
about directdirekt resistancedirenç,
320
880507
2416
James Bridle: Direkt bir direnişi bilemem
14:54
because I think this stuffşey
is superSüper long-termuzun vadeli.
321
882947
2264
çünkü bu şey çok uzun vadeli.
14:57
I think it's bakedpişmiş into culturekültür
in really deepderin waysyolları.
322
885235
2510
Bence çok derin şekilde
kültürün içine işledi.
14:59
A friendarkadaş of mineMayın,
EleanorEleanor SaittaSaitta, always saysdiyor
323
887769
2132
Bir arkadaşım, Eleanor Saitta,
her zaman der ki
15:01
that any technologicalteknolojik problemssorunlar
of sufficientyeterli scaleölçek and scopekapsam
324
889935
3609
yeterli ölçüde ve kapsamda
her teknolojik problem
15:05
are politicalsiyasi problemssorunlar first of all.
325
893568
2267
öncellikle politik bir problemdir.
15:07
So all of these things we're workingçalışma
to addressadres withiniçinde this
326
895859
2785
Yani bunun içinde çözmeye
çalıştığımız her şey
15:10
are not going to be addressedele
just by buildingbina the technologyteknoloji better,
327
898668
3274
sadece teknolojiyi daha iyi
inşa etmekle değil,
15:13
but actuallyaslında by changingdeğiştirme the societytoplum
that's producingüreten these technologiesteknolojiler.
328
901966
3464
bu teknolojileri üreten toplumu
değiştirmekle çözülecek.
15:17
So no, right now, I think we'vebiz ettik got
a hellcehennem of a long way to go.
329
905454
3027
Yani hayır, şu an, bence gidecek
daha çok yolumuz var.
15:20
But as I said, I think by unpackingaçma them,
330
908505
1986
Ama dediğim gibi, bunları açığa
çıkartıp açıklayarak,
15:22
by explainingaçıklayan them, by talkingkonuşma
about them superSüper honestlydürüstçe,
331
910515
2697
bunlar hakkında dürüstçe konuşarak
15:25
we can actuallyaslında startbaşlama
to at leasten az beginbaşla that processsüreç.
332
913236
2505
bence en azından bu süreci başlatabiliriz.
15:27
HWHW: And so when you talk about
legibilityokunabilirliği and digitaldijital literacyokur yazarlık,
333
915765
3562
HW: Sen okunabilirlik ve dijital
okuryazarlık hakkında konuşunca
15:31
I find it difficultzor to imaginehayal etmek
334
919351
1591
dijital okuryazarlık yükünü
15:32
that we need to placeyer the burdenyük
of digitaldijital literacyokur yazarlık on userskullanıcılar themselveskendilerini.
335
920966
3680
kullanıcılara yüklememizin gerekliliğini
hayal etmesi zor buluyorum.
15:36
But whosekimin responsibilitysorumluluk
is educationEğitim in this newyeni worldDünya?
336
924670
4562
Ama bu yeni dünyada
eğitimden kim sorumlu?
15:41
JBJB: Again, I think this responsibilitysorumluluk
is kindtür of up to all of us,
337
929256
3612
JB: Bence, bu sorumluluk
biraz da hepimizde,
15:44
that everything we do,
everything we buildinşa etmek, everything we make,
338
932892
2984
yaptığımız, inşa ettiğimiz her şey
15:47
needsihtiyaçlar to be madeyapılmış
in a consensualkabul edilemez discussiontartışma
339
935900
3692
karşılıklı tartışma ile yapılmalı,
15:51
with everyoneherkes who'skim avoidingkaçınma it;
340
939616
1940
bundan kaçınan insanlarla birlikte;
15:53
that we're not buildingbina systemssistemler
intendedistenilen to trickhile and surprisesürpriz people
341
941580
4341
insanların doğru şeyi yapması için
aklını çelme amacı taşıyan
15:57
into doing the right thing,
342
945945
2300
sistemler tasarlamıyoruz
16:00
but that they're actuallyaslında involvedilgili
in everyher stepadım in educatingyetiştirmek them,
343
948269
3236
ama bunlar onları eğitmenin
her adımına dâhiller
16:03
because eachher of these systemssistemler
is educationaleğitici.
344
951529
2278
çünkü bu sistemlerin her biri eğitici.
16:05
That's what I'm hopefulumutlu about,
about even this really grimgaddar stuffşey,
345
953831
3102
Umutlu olduğum şey de bu,
bu son derece acımasızca şeylerde bile,
16:08
that if you can take it
and look at it properlyuygun şekilde,
346
956957
2262
eğer onu alıp düzgünce incelerseniz
16:11
it's actuallyaslında in itselfkendisi
a pieceparça of educationEğitim
347
959243
2089
aslında o, kendi içinde eğitim parçası,
16:13
that allowsverir you to startbaşlama seeinggörme
how complexkarmaşık systemssistemler come togetherbirlikte and work
348
961356
3762
karmaşık sistemlerin nasıl bir araya gelip
işlediğini görmeye başlamamızı
16:17
and maybe be ableyapabilmek to applyuygulamak
that knowledgebilgi elsewherebaşka yerde in the worldDünya.
349
965142
3501
ve belki de bu bilgiyi dünyanın
başka bir yerinde kullanmamızı sağlayacak.
16:20
HWHW: JamesJames, it's suchböyle
an importantönemli discussiontartışma,
350
968667
2115
HW: James, bu çok önemli bir tartışmaydı
16:22
and I know manyçok people here
are really openaçık and preparedhazırlanmış to have it,
351
970806
3227
ve biliyorum ki buradaki çoğu insan
bu tartışmaya açık ve hazırlar,
16:26
so thanksTeşekkürler for startingbaşlangıç off our morningsabah.
352
974057
1859
güne seninle başlamak çok güzeldi.
16:27
JBJB: Thanksteşekkürler very much. CheersAlkış.
353
975940
1400
JB: Çok teşekkürler.
16:29
(ApplauseAlkış)
354
977364
1651
(Alkışlar)
Translated by Dilan Bayındır
Reviewed by Cihan Ekmekçi

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com