ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

Douglas Rushkoff: Dijital gelecekte nasıl "İnsan Ekibi" olunur

Filmed:
1,652,468 views

Medya teorisyeni Douglas Rushkoff; dijital teknolojinin hakim olduğu bir dünyada artık yaratıcılığımızın kafi derecede yeterli olmadığını olmadığını söylüyor. Bir konuşmasında Rushkoff, insanları pazara en uygun hale getirmek amacıyla teknolojiyi kullanmayı bırakmaya ve bizi bu teknolojiyi ileride dijitallik öncesi iletişim, yaratıcılık ve saygı değerlerimize odaklanan bir gelecek inşa etmek için kullanmaya teşvik ediyor. "İnsan Ekibine Katılın. Diğerlerini dahil edin," diyor. "Hep birlikte daima istediğimiz geleceği oluşturalım."
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got inviteddavet to an exclusiveözel resortçare
0
1520
3880
Dijital gelecek hakkında
teknoloji liderlerine yapacağımı sandığım
00:17
to deliverteslim etmek a talk about the digitaldijital futuregelecek
1
5440
2456
00:19
to what I assumedkabul would be
a coupleçift of hundredyüz techteknoloji executivesYöneticiler.
2
7920
3576
bir konuşma için
özel bir otele davet edildim.
00:23
And I was there in the greenyeşil roomoda,
waitingbekleme to go on,
3
11520
2696
Kuliste sıramın gelmesini beklerken
00:26
and insteadyerine of bringinggetiren me to the stageevre,
they broughtgetirdi fivebeş menerkekler into the greenyeşil roomoda
4
14240
5176
beni sahneye çıkarmak yerine
beş tane adamı kulise getirdiler
00:31
who satoturdu around this little tabletablo with me.
5
19440
2056
ve hepsi oradaki sehpanın etrafına oturdu.
00:33
They were techteknoloji billionairesmilyarderler.
6
21520
2096
Adamlar teknoloji milyarderleriydi.
00:35
And they startedbaşladı pepperingbiber me
with these really binaryikili questionssorular,
7
23640
4536
Bir anda beni soru yağmuruna tuttular:
00:40
like: BitcoinBitcoin or EtheriumEteyum?
8
28200
2000
"Bitcoin mi? Etheryum mu?"
00:43
VirtualSanal realitygerçeklik or augmentedartar realitygerçeklik?
9
31120
2656
"Sanal gerçeklik mi?
Artırılmış gerçeklik mi?"
00:45
I don't know if they were
takingalma betsBahisler or what.
10
33800
2496
Bahis mi oynuyorlardı, anlayamadım.
00:48
And as they got more comfortablerahat with me,
11
36320
2816
Daha sonra benimle
daha rahat olmaya başladıklarında
00:51
they edgedkenarlı towardskarşı
theironların realgerçek questionsoru of concernilgilendirmek.
12
39160
3216
asıl meseleleri olan soruya geldiler:
00:54
AlaskaAlaska or NewYeni ZealandZelanda?
13
42400
2240
"Alaska mı yoksa Yeni Zelanda mı?"
Doğru duydunuz.
00:57
That's right.
14
45760
1216
Bu teknoloji milyarderleri,
bir medya kuramcısından
00:59
These techteknoloji billionairesmilyarderler
were askingsormak a mediamedya theoristkuramcı for advicetavsiye
15
47000
2976
kıyamet günü sığınaklarının
yeri için tavsiye istiyorlardı.
01:02
on where to put theironların doomsdayKıyamet bunkerssığınaklar.
16
50000
1880
01:04
We spentharcanmış the restdinlenme of the hoursaat
on the singletek questionsoru:
17
52600
3136
Geri kalan zamanda
tek bir soru üzerinde durduk:
''O hadiseden sonra güvenlik personelimin
kontrolünü nasıl sağlayacağım?''
01:07
"How do I maintainsürdürmek controlkontrol
of my securitygüvenlik staffpersonel
18
55760
3616
01:11
after the eventolay?"
19
59400
1320
01:13
By "the eventolay" they mean
the thermonucleartermonükleer warsavaş
20
61920
2736
''O hadiseden'' kasıt ise
dünyanın sonunu getirecek olan
01:16
or climateiklim catastropheafet or socialsosyal unresthuzursuzluk
that endsuçları the worldDünya as we know it,
21
64680
4656
termonükleer savaş, iklim felaketi
ya da toplumsal huzursuzluk.
01:21
and more importantlyönemlisi,
makesmarkaları theironların moneypara obsoleteeski.
22
69360
3280
En önemlisi de bu durumda
paraları geçersiz olacak.
01:26
And I couldn'tcould help but think:
23
74200
2216
Şunu düşünmeden edemedim:
01:28
these are the wealthiesten zengin,
mostçoğu powerfulgüçlü menerkekler in the worldDünya,
24
76440
4736
Bunlar dünyanın en zengin,
en güçlü insanları olmalarına rağmen
01:33
yethenüz they see themselveskendilerini as utterlytamamen
powerlessgüçsüz to influenceetki the futuregelecek.
25
81200
4656
kendilerini geleceği değiştirmek için
tamamen güçsüz görüyorlar.
01:37
The besten iyi they can do is hangasmak on
for the inevitablekaçınılmaz catastropheafet
26
85880
4456
Yapabilecekleri en iyi şey,
kaçınılmaz felaketi bekleyip
01:42
and then use theironların technologyteknoloji and moneypara
to get away from the restdinlenme of us.
27
90360
3680
teknoloji ve paralarını kullanarak
geri kalanımızdan uzaklaşmak.
01:47
And these are the winnerskazananlar
of the digitaldijital economyekonomi.
28
95520
2536
Üstelik bu insanlar
dijital ekonominin kazananları.
01:50
(LaughterKahkaha)
29
98080
3416
(Kahkahalar)
01:53
The digitaldijital renaissanceRönesans
30
101520
2776
Dijital rönesans,
01:56
was about the unbridleddizginsiz potentialpotansiyel
31
104320
4256
insan hayal gücünün
dizginlenemeyen potansiyeliyle ilgiliydi.
02:00
of the collectivetoplu humaninsan imaginationhayal gücü.
32
108600
2416
02:03
It spannedyayılmış everything
from chaoskaos mathmatematik and quantumkuantum physicsfizik
33
111040
5136
Kaos matematiği ve kuantum fiziğinden,
fantezi oyunları ve Gaia hipotezine kadar
02:08
to fantasyfantezi role-playingrol yapma
and the GaiaGaia hypothesishipotez, right?
34
116200
4176
her şeyi kapsıyordu.
02:12
We believedinanılır that humaninsan beingsvarlıklar connectedbağlı
could createyaratmak any futuregelecek we could imaginehayal etmek.
35
120400
6720
İnsanların birlikte hayal edebileceğimiz
her geleceği yaratabileceğine inanıyorduk.
02:20
And then camegeldi the dotnokta comcom boomBoom.
36
128840
2199
Ama sonra dot com balonu meydana çıktı.
02:24
And the digitaldijital futuregelecek
becameoldu stockStok futuresvadeli işlem.
37
132600
3616
Böylece dijital gelecek
hisse senetlerine dönüştü.
02:28
And we used all that energyenerji
of the digitaldijital ageyaş
38
136240
3016
Bununla birlikte dijital çağın
bütün o enerjisini,
02:31
to pumppompa steroidssteroidler into the alreadyzaten dyingölen
NASDAQNASDAQ stockStok exchangedeğiş tokuş.
39
139280
4256
çoktan ölmeye başlayan NASDAQ borsasına
steroit basarak harcadık.
02:35
The techteknoloji magazinesdergiler told us
a tsunamitsunami was cominggelecek.
40
143560
3616
Teknoloji yayınları
bir tsunaminin geldiğini söyledi bize.
02:39
And only the investorsyatırımcılar who hiredkiralanmış
the besten iyi scenario-plannerssenaryo planlayıcıları and futuristsfütüristler
41
147200
4456
Üstelik sadece en iyi senaryo planlamacı
ve fütüristleri işe alan yatırımcılar
02:43
would be ableyapabilmek to survivehayatta kalmak the wavedalga.
42
151680
2520
bu dalgadan sağ çıkabilecekti.
02:47
And so the futuregelecek changeddeğişmiş from this thing
we createyaratmak togetherbirlikte in the presentmevcut
43
155160
5896
Böylece gelecek,
bugün bizim birlikte yarattığımız şeyden
02:53
to something we betbahis on
44
161080
1496
üzerine bahis oynadığımız,
02:54
in some kindtür of a zero-sumsıfır toplamı
winner-takes-allkazanan-alır-tüm competitionyarışma.
45
162600
3200
bir tür kazanan hepsini alır
rekabetine dönüştü.
03:00
And when things get that competitiverekabetçi
about the futuregelecek,
46
168120
3136
Gelecekle ilgili şeyler bu kadar
rekabete dayandığında ise
03:03
humansinsanlar are no longeruzun valueddeğerli
for our creativityyaratıcılık.
47
171280
3296
insanlar artık yaratıcılıklarıyla
değerlendirilmiyorlar.
03:06
No, now we're just valueddeğerli for our dataveri.
48
174600
3136
Hayır, şu an bizler sadece
verilerimizle değerlendiriliyoruz.
03:09
Because they can use the dataveri
to make predictionstahminler.
49
177760
2376
Çünkü verileri tahmin
yapmak için kullanabilirler.
03:12
CreativityYaratıcılık, if anything,
that createsyaratır noisegürültü.
50
180160
2576
Yaratıcılık onun aksine kuru gürültü,
03:14
That makesmarkaları it harderDaha güçlü to predicttahmin.
51
182760
2216
tahmin etmeyi zorlaştıran bir şey.
03:17
So we endedbitti up with a digitaldijital landscapepeyzaj
52
185000
2416
Böylece elimizde yaratacılığı,
03:19
that really repressedbaskı altında creativityyaratıcılık,
repressedbaskı altında noveltyyenilik,
53
187440
3256
yeniliği baskılayan
dijital bir manzara ile kaldık;
03:22
it repressedbaskı altında what makesmarkaları us mostçoğu humaninsan.
54
190720
2840
bu bizi insan yapan asıl şeyi baskıladı.
Sonuç: sosyal medya.
03:26
We endedbitti up with socialsosyal mediamedya.
55
194760
1456
Sosyal medya gerçekten insanları yeni
ilginç yollarla birbirine bağlıyor mu?
03:28
Does socialsosyal mediamedya really connectbağlamak people
in newyeni, interestingilginç waysyolları?
56
196240
3456
03:31
No, socialsosyal mediamedya is about usingkullanma our dataveri
to predicttahmin our futuregelecek behaviordavranış.
57
199720
5016
Hayır, sosyal medya davranışlarımızı
tahmin etmek için verilerimizi kullanıyor
03:36
Or when necessarygerekli,
to influenceetki our futuregelecek behaviordavranış
58
204760
2896
veya gerekirse istatiksel profillerimize
daha uygun hareket edelim diye
03:39
so that we actdavranmak more in accordanceuygun olarak
with our statisticalistatistiksel profilesprofilleri.
59
207680
4040
davranışlarımızı
etkilemek için kullanıyor.
03:45
The digitaldijital economyekonomi --
does it like people?
60
213200
2216
Dijital ekonomi.
İnsanları seviyor mu?
Hayır, eğer bir iş planınız varsa
ne yapmanız gerekiyor?
03:47
No, if you have a business planplan,
what are you supposedsözde to do?
61
215440
2896
İnsanlardan kurtulun.
03:50
Get ridkurtulmuş of all the people.
62
218360
1256
İnsan bu, sağlık hizmeyi ister,
para ister, amaç ister.
03:51
Humanİnsan beingsvarlıklar, they want healthsağlık carebakım,
they want moneypara, they want meaninganlam.
63
219640
3400
03:56
You can't scaleölçek with people.
64
224360
1880
İnsanlarla yükselemezsin.
03:59
(LaughterKahkaha)
65
227360
1456
(Kahkahalar)
Dijital uygulamalarımız bile
04:00
Even our digitaldijital appsuygulamaların --
66
228840
1216
04:02
they don't help us
formform any rapportuyum or solidarityDayanışma.
67
230080
3216
birlik beraberlik kurmak için
bize yardım etmiyorlar.
04:05
I mean, where'snerede the buttondüğme
on the ridebinmek hailingSelamlama appUygulamanın
68
233320
2416
Taksi uygulamasındaki şoförlerin
çalışma koşulları hakkında tartışmalarını
04:07
for the driverssürücüleri to talk to one anotherbir diğeri
about theironların workingçalışma conditionskoşullar
69
235760
3496
veya birlik olmalarını
sağlayan düğme nerede?
04:11
or to unionizesendikalaşma?
70
239280
1200
04:13
Even our videoconferencingKonferans toolsaraçlar,
71
241600
2016
Görüntülü konuşma cihazlarımız bile
04:15
they don't allowizin vermek us
to establishkurmak realgerçek rapportuyum.
72
243640
2376
gerçek bir ilişki kurmamıza
yardımcı olmuyor.
04:18
HoweverAncak good the resolutionçözüm of the videovideo,
73
246040
3336
Videonun çözünürlüğü
ne kadar iyi olursa olsun,
04:21
you still can't see if somebody'sbiri var irisesSüsen
are openingaçılış to really take you in.
74
249400
4016
karşındakinin seni iyice anlamak için
göz bebeklerini nasıl açtığını göremezsin.
04:25
All of the things that we'vebiz ettik donetamam
to establishkurmak rapportuyum
75
253440
2576
Bir ilişki kurabilmek için yüz binlerce
yıllık evrimle geliştirdiğimiz şeyler
04:28
that we'vebiz ettik developedgelişmiş over hundredsyüzlerce
of thousandsbinlerce of yearsyıl of evolutionevrim,
76
256040
3335
artık işe yaramıyor.
04:31
they don't work,
77
259399
1217
Karşındakinin nefesi seninkiyle
senkronize oluyor mu göremiyorsun.
04:32
you can't see if someone'sbirisi var breathnefes
is syncingSenkronizasyonu up with yoursseninki.
78
260640
3016
04:35
So the mirrorayna neuronsnöronlar never fireateş,
the oxytocinoksitosinin never goesgider throughvasitasiyla your bodyvücut,
79
263680
3656
Bu yüzden ayna nöronlar asla canlanmıyor,
hiç vücudunda oksitosin dolaşmıyor,
04:39
you never have that experiencedeneyim
of bondingbağ with the other humaninsan beingolmak.
80
267360
3240
diğer bir insanla bağ kurma
deneyimini hiç yaşamıyorsun.
04:43
And insteadyerine, you're left like,
81
271360
1456
Bunların yerine böyle olduk:
''Yani, benimle aynı fikirdeler
04:44
"Well, they agreedkabul with me,
but did they really,
82
272840
2256
ama gerçekten beni anladılar mı?''
04:47
did they really get me?"
83
275120
1696
04:48
And we don't blamesuçlama the technologyteknoloji
for that lackeksiklik of fidelitysadakat.
84
276840
3376
Bu vefasızlık için de
teknolojiyi suçlamıyoruz.
04:52
We blamesuçlama the other personkişi.
85
280240
1480
Hep diğer kişiyi suçluyoruz.
04:55
You know, even the technologiesteknolojiler
and the digitaldijital initiativesgirişimler that we have
86
283320
4056
İnsanları destekleyen
teknoloji ve dijital girişimler bile
04:59
to promotedesteklemek humansinsanlar,
87
287400
2176
özünde son derece insanlık düşmanı.
05:01
are intenselyyoğun bir şekilde anti-humanAnti-insan at the coreçekirdek.
88
289600
2760
05:05
Think about the blockchainblockchain.
89
293600
2000
Blok zinciri örneğin:
05:08
The blockchainblockchain is here to help us
have a great humanizedinsanlaşmış economyekonomi? No.
90
296520
3616
Medenileştirilmiş bir ekonomiye
sahip olmamıza mı yardımcı oluyor?
Hayır. Blok Zinciri kullanıcılar
arasında güven doğurmuyor;
05:12
The blockchainblockchain does not engenderdoğurmak
trustgüven betweenarasında userskullanıcılar,
91
300160
2696
05:14
the blockchainblockchain simplybasitçe
substitutesile değiştirir for trustgüven in a newyeni,
92
302880
3536
sadece güvenin daha yeni, hatta
daha az şeffaf bir şekilde yerini alıyor.
05:18
even lessaz transparentşeffaf way.
93
306440
2000
05:21
Or the codekod movementhareket.
94
309600
1816
Kodlama hareketi mesela.
05:23
I mean, educationEğitim is great,
we love educationEğitim,
95
311440
2176
Yani, eğitim harika bir şey;
eğitimi seviyoruz
ve çocukların dijital gelecekte
iş sahibi olabilmesi fikri mükemmel
05:25
and it's a wonderfulolağanüstü ideaFikir
96
313640
1456
05:27
that we want kidsçocuklar to be ableyapabilmek
to get jobsMeslekler in the digitaldijital futuregelecek,
97
315120
3136
05:30
so we'lliyi teachöğretmek them codekod now.
98
318280
1600
bu yüzden onlara kodlama öğreteceğiz.
05:32
But sincedan beri when is educationEğitim
about gettingalma jobsMeslekler?
99
320640
2480
Ama ne zamandan beri eğitim
iş sahibi olmaktan ibaret oldu?
05:35
EducationEğitim wasn'tdeğildi about gettingalma jobsMeslekler.
100
323920
1736
Eğitimin amacı iş bulmak değildi.
05:37
EducationEğitim was compensationtazminat
for a job well donetamam.
101
325680
3976
Eğitim bir işi iyi yapmak için
verilen bir ödündü.
05:41
The ideaFikir of publichalka açık educationEğitim
102
329680
1576
Toplumsal eğitimin amacı,
05:43
was for coalkömür minersmadenciler,
who would work in the coalkömür minesmayınlar all day,
103
331280
3376
bütün gün kömür madenlerinde
çalışan madencilerin
05:46
then they'dgittiklerini come home
and they should have the dignityhaysiyet
104
334680
2576
eve gelip bir roman okuyabilecek
ve anlayabilecek kapasiteye
sahip olmasını sağlamak
05:49
to be ableyapabilmek to readokumak a novelyeni
and understandanlama it.
105
337280
2136
05:51
Or the intelligencezeka to be ableyapabilmek
to participatekatılmak in democracydemokrasi.
106
339440
2960
veya demokrasiye katılabilmek için
gereken bilgiye sahip olmasını sağlamaktı.
05:55
When we make it an extensionuzantı of the job,
what are we really doing?
107
343200
3216
Eğitimi işin bir uzantısı haline
getirdiğimizde ne yapmış oluyoruz?
Şirketlerin sadece çalışanların eğitim
bedelini maddileştirmesine izin veriyoruz.
05:58
We're just lettingicar corporationsşirketler really
108
346440
2536
06:01
externalizeyansıtmak the costmaliyet
of trainingEğitim theironların workersişçiler.
109
349000
3120
06:05
And the worsten kötü of all really
is the humaneinsancıl technologyteknoloji movementhareket.
110
353520
4096
Aralarından en kötüsü ise
insancıl teknoloji hareketi.
06:09
I mean, I love these guys,
the formereski guys who used to take
111
357640
2816
Bu çocukları seviyorum,
hani şu bağımlı olalım diye
06:12
the algorithmsalgoritmalar from
LasLas VegasVegas slotyuvası machinesmakineler
112
360480
2936
Las Vegas kumar makinelerinden
algoritmaları alıp
06:15
and put them in our socialsosyal mediamedya feedbesleme
so that we get addictedbağımlı.
113
363440
2936
sosyal medya akışımıza
koyan çocuklar vardı.
06:18
Now they'veonlar ettik seengörüldü the errorhata of theironların waysyolları
114
366400
1936
Şimdi yöntemlerindeki hatayı gördüler
06:20
and they want to make
technologyteknoloji more humaneinsancıl.
115
368360
2456
ve teknolojiyi daha insancıl
yapmak istiyorlar.
06:22
But when I hearduymak the expressionifade
"humaneinsancıl technologyteknoloji,"
116
370840
2416
Fakat ben ''insancıl teknoloji''
ifadesini duyunca
06:25
I think about cage-freekafessiz
chickenstavuklar or something.
117
373280
2856
aklıma gezen tavuk gibi şeyler geliyor.
06:28
We're going to be as humaneinsancıl
as possiblemümkün to them,
118
376160
2256
Onlara karşı olabildiğimizce
insancıl olacağız
06:30
untila kadar we take them to the slaughterkatliam.
119
378440
1720
ta ki kesmeye götürene kadar.
06:33
So now they're going to let these
technologiesteknolojiler be as humaneinsancıl as possiblemümkün,
120
381200
3416
Sonuçta, ortaklarını memnun etmek için
bizden yeterli veri
ve para elde ettikleri sürece
06:36
as long as they extractözüt enoughyeterli dataveri
and extractözüt enoughyeterli moneypara from us
121
384640
3216
bu teknolojileri olabildiğince
insancıl yapacaklar.
06:39
to please theironların shareholderspay sahipleri.
122
387880
1400
06:42
MeanwhileBu arada, the shareholderspay sahipleri,
for theironların partBölüm, they're just thinkingdüşünme,
123
390520
3176
Bu sırada ortaklar kendine düşen
kısımda sadece düşünüyorlar:
06:45
"I need to earnkazanmak enoughyeterli moneypara now,
so I can insulateizole myselfkendim
124
393720
2976
''Para kazanmam gerekiyor
böylece bu şekilde para kazanarak
06:48
from the worldDünya I'm creatingoluşturma
by earningkazanma moneypara in this way."
125
396720
3056
yarattığım dünyadan
kendimi izole edebilirim.''
06:51
(LaughterKahkaha)
126
399800
2376
(Kahkahalar)
06:54
No mattermadde how manyçok VRVR gogglesgözlük
they slaptokat on theironların facesyüzleri
127
402200
4056
Yüzlerine kaç tane sanal VR gözlüğü
yapıştırırlarsa yapıştırsınlar
06:58
and whateverher neyse fantasyfantezi worldDünya they go into,
128
406280
2256
ve hangi fantezi dünyasına
girerlerse girsinler
07:00
they can't externalizeyansıtmak the slaverykölelik
and pollutionkirlilik that was causedneden oldu
129
408560
3536
tam da o cihazın üretiminin neden olduğu
07:04
throughvasitasiyla the manufactureüretim
of the very devicecihaz.
130
412120
2976
köleliği ve kirliliği yansıtamazlar.
07:07
It remindshatırlatır me of
ThomasThomas Jefferson'sJefferson'ın dumbwaiterdumbwaiter.
131
415120
3176
Bu bana Thomas Jefferson'un
yemek asansörünü hatırlatıyor.
07:10
Now, we like to think
that he madeyapılmış the dumbwaiterdumbwaiter
132
418320
2336
Biz yemek asansörünü, kölelerini yemekleri
yemek odasına taşıma zahmetinden
07:12
in ordersipariş to spareyedek his slavesköle
all that laboremek of carryingtaşıma the foodGıda
133
420680
3656
kurtarmak için yaptığını
düşünmek istiyoruz.
07:16
up to the diningyemek roomoda
for the people to eatyemek.
134
424360
2776
Fakat amacı bu değildi.
Asansör köleler için değil,
07:19
That's not what it was for,
it wasn'tdeğildi for the slavesköle,
135
427160
2496
Thomas Jefferson ve misafirleri içindi;
07:21
it was for ThomasThomas JeffersonJefferson
and his dinnerakşam yemegi guestsmisafir,
136
429680
2336
böylece kölenin yemeği yukarı getirmesini
görmek zorunda kalmıyorlardı.
07:24
so they didn't have to see the slaveköle
bringinggetiren the foodGıda up.
137
432040
3096
Yemek sihirli bir şekilde geliveriyordu;
07:27
The foodGıda just arrivedgeldi magicallysihirle,
138
435160
1576
07:28
like it was cominggelecek out
of a "StartBaşlat TrekTrek" replicatorÇoğalıcı.
139
436760
3000
''Star Trek'' çoğaltıcısından çıkar gibi.
07:32
It's partBölüm of an ethosEthos that saysdiyor,
140
440720
2096
Bir inanışa göre,
07:34
humaninsan beingsvarlıklar are the problemsorun
and technologyteknoloji is the solutionçözüm.
141
442840
4280
sorun insanlar, çözüm ise teknoloji.
07:40
We can't think that way anymoreartık.
142
448680
2056
Artık bu şekilde düşünemeyiz.
07:42
We have to stop usingkullanma technologyteknoloji
to optimizeoptimize humaninsan beingsvarlıklar for the marketpazar
143
450760
5296
Teknolojiyi kullanarak insanları piyasaya
uygun hale getirmeyi bırakmalıyız
07:48
and startbaşlama optimizingEn iyi duruma getirme technologyteknoloji
for the humaninsan futuregelecek.
144
456080
5040
ve teknolojiyi insan geleceğine
uygun hale getirmeye başlamalıyız.
07:55
But that's a really hardzor argumenttartışma
to make these daysgünler,
145
463080
2656
Fakat bu gerçekleşmesi
çok zor bir argüman bu günlerde.
07:57
because humansinsanlar are not popularpopüler beingsvarlıklar.
146
465760
4056
Çünkü insanlar popüler varlıklar değiller.
08:01
I talkedkonuştuk about this in frontön
of an environmentalistçevreci just the other day,
147
469840
3376
Geçen gün bununla ilgili
bir çevrecinin önünde konuştum.
Şöyle dedi: ''Neden
insanları savunuyorsun?
08:05
and she said, "Why are you
defendingsavunmak humansinsanlar?
148
473240
2096
İnsanlar gezegeni mahvettiler.
Neslinin tükenmesini hak ediyorlar."
08:07
Humansİnsanlar destroyedyerlebir edilmiş the planetgezegen.
They deservehak etmek to go extinctsoyu tükenmiş."
149
475360
2696
08:10
(LaughterKahkaha)
150
478080
3456
(Kahkahalar)
08:13
Even our popularpopüler mediamedya hateskinler humansinsanlar.
151
481560
2576
Popüler medyamız bile
insanlardan nefret ediyor.
08:16
Watch televisiontelevizyon,
152
484160
1256
Televizyon izleyin mesela,
tüm bilim kurgular robotların insanlardan
nasıl daha iyi ve güzel olduğuyla ilgili.
08:17
all the sci-fibilim-kurgu showsgösterileri are about how robotsrobotlar
are better and nicerdaha güzel than people.
153
485440
3736
08:21
Even zombiezombi showsgösterileri --
what is everyher zombiezombi showgöstermek about?
154
489200
2976
Zombi dizileri bile,
bütün zombi dizilerinde ne vardır?
08:24
Some personkişi, looking at the horizonufuk
at some zombiezombi going by,
155
492200
3256
Bir kişi ufuğa doğru bakar,
bir zombi görür.
08:27
and they zoomyakınlaştırma in on the personkişi
and you see the person'skişiler faceyüz,
156
495480
2896
Kamera o kişiye yaklaşır
ve yüzünü görürsünüz
08:30
and you know what they're thinkingdüşünme:
157
498400
1736
ve ne düşündüklerini bilirsiniz:
08:32
"What's really the differencefark
betweenarasında that zombiezombi and me?
158
500160
2736
''Zombiyle benim aramdaki
fark gerçekten ne?
08:34
He walksyürüyüşleri, I walkyürümek.
159
502920
1536
O yürüyor, ben de yürüyorum.
08:36
He eatsyiyor, I eatyemek.
160
504480
2016
O yemek yiyor, ben de yiyorum.
08:38
He killsöldürür, I killöldürmek."
161
506520
2280
O öldürüyor, ben de öldürüyorum.''
08:42
But he's a zombiezombi.
162
510360
1536
Ama o bir zombi.
08:43
At leasten az you're awarefarkında of it.
163
511920
1416
En azından bunun farkındasınız.
08:45
If we are actuallyaslında havingsahip olan troublesorun
distinguishingayrım yapma ourselveskendimizi from zombieszombiler,
164
513360
3696
Eğer gerçekten kendimizi zombilerden
ayırt etmekte zorlanıyorsak
08:49
we have a prettygüzel bigbüyük problemsorun going on.
165
517080
2176
oldukça büyük bir sorunumuz var demektir.
08:51
(LaughterKahkaha)
166
519280
1216
(Kahkahalar)
08:52
And don't even get me startedbaşladı
on the transhumaniststranshumanists.
167
520520
2936
Hele bir de transhümanistlere
başlatmayın şimdi beni.
08:55
I was on a panelpanel with a transhumanisttranshumanist,
and he's going on about the singularityeşsizlik.
168
523480
3816
Bir panelde bir transhümanistleydim,
sürekli tekillik hakkında konuşup durdu.
08:59
"Oh, the day is going to come really soonyakında
when computersbilgisayarlar are smarterdaha akıllı than people.
169
527320
3856
''Yakında o gün gelecek ve bilgisayarlar
insanlardan daha zeki olacaklar.
09:03
And the only optionseçenek
for people at that pointpuan
170
531200
2136
O noktada insanlar için tek seçenek,
09:05
is to passpas the evolutionaryevrimsel torchmeşale
to our successorhalef
171
533360
3336
evrimsel bayrağı varislerimize teslim edip
09:08
and fadekarartmak into the backgroundarka fon.
172
536720
1616
arka plana geçmek olacak.
09:10
Maybe at besten iyi, uploadyüklemek
your consciousnessbilinç to a siliconsilikon chipyonga.
173
538360
3456
En iyi ihtimalle, bilincini
silikon bir çipe aktarır,
09:13
And acceptkabul etmek your extinctionsönme."
174
541840
1840
neslinin tükenişini kabul edersiniz.''
09:16
(LaughterKahkaha)
175
544640
1456
(Kahkahalar)
09:18
And I said, "No, humaninsan beingsvarlıklar are specialözel.
176
546120
3376
Ben de dedim ki:
''Hayır, insanlar özeldir.
09:21
We can embracekucaklamak ambiguitybelirsizlik,
we understandanlama paradoxparadoks,
177
549520
3536
Biz belirsizliği kabullenebiliyoruz,
paradoksu anlıyoruz,
09:25
we're consciousbilinçli,
we're weirdtuhaf, we're quirkyilginç.
178
553080
2616
bilincimiz var, tuhafız, ilginciz.
09:27
There should be a placeyer for humansinsanlar
in the digitaldijital futuregelecek."
179
555720
3336
Dijital gelecekte
insanların bir yeri olmalı.''
09:31
And he said, "Oh, RushkoffRushkoff,
180
559080
1536
O da dedi ki: ''Rushkoff, sen insan
olduğun için böyle söylüyorsun.''
09:32
you're just sayingsöz that
because you're a humaninsan."
181
560640
2296
09:34
(LaughterKahkaha)
182
562960
1776
(Kahkahalar)
09:36
As if it's hubriskibir.
183
564760
1600
Kibirmiş gibi sanki.
09:39
OK, I'm on "TeamTakım Humanİnsan."
184
567280
2800
Tamam, ben ''İnsan Ekibi''ndeyim.
09:43
That was the originalorijinal insightIçgörü
of the digitaldijital ageyaş.
185
571200
3856
Bu, dijital çağın asıl iç yüzüydü;
09:47
That beingolmak humaninsan is a teamtakım sportspor,
186
575080
2216
insan olmanın bir takım oyunu olması,
09:49
evolution'sEvolution'ın a collaborativeişbirlikçi actdavranmak.
187
577320
2736
evrimin ortak bir eylem olması.
09:52
Even the treesağaçlar in the forestorman,
188
580080
1416
Ormandaki ağaçlar bile birbirleriyle
rekabet içerisinde değiller,
09:53
they're not all in competitionyarışma
with eachher other,
189
581520
2216
birbirlerine aralarındaki
iletişimi sağlayan
09:55
they're connectedbağlı with the vastgeniş
network of rootskökleri and mushroomsmantarlar
190
583760
3216
09:59
that let them communicateiletişim kurmak with one anotherbir diğeri
and passpas nutrientsbesinler back and forthileri.
191
587000
4536
ve besin alışverişine yardımcı olan
büyük bir kök ağı ve mantarlarla bağlılar.
10:03
If humaninsan beingsvarlıklar
are the mostçoğu evolvedgelişti speciesTürler,
192
591560
2136
Eğer insanlar en gelişmiş tür ise
10:05
it's because we have the mostçoğu evolvedgelişti
waysyolları of collaboratingişbirliği and communicatingiletişim.
193
593720
4136
bunun nedeni bizin en gelişmiş işbirliği
ve iletişim yollarına sahip olmamızdır.
10:09
We have languagedil.
194
597880
1496
Dilimiz var.
10:11
We have technologyteknoloji.
195
599400
1240
Teknolojimiz var.
10:14
It's funnykomik, I used to be the guy
who talkedkonuştuk about the digitaldijital futuregelecek
196
602120
4576
Çok tuhaf, daha önce
hiç dijital bir şey görmemiş insanlarla
10:18
for people who hadn'tolmasaydı yethenüz
experienceddeneyimli anything digitaldijital.
197
606720
2680
dijital gelecek hakkında konuşan
bir adamdım ben.
Şimdiyse dijital teknolojiden önce
10:22
And now I feel like I'm the last guy
198
610200
1816
10:24
who remembershatırlar what life was like
before digitaldijital technologyteknoloji.
199
612040
2920
hayatın nasıl olduğunu hatırlayan
tek insan benmişim gibi hissediyorum.
10:28
It's not a mattermadde of rejectingreddetmeden the digitaldijital
or rejectingreddetmeden the technologicalteknolojik.
200
616680
4216
Mesele dijitali veya teknolojik
olanı reddetmek değil.
10:32
It's a mattermadde of retrievingAlma the valuesdeğerler
that we're in dangerTehlike of leavingayrılma behindarkasında
201
620920
4096
Mesele, geride kalma tehlikesinde
olan değerlerimizi kurtarmak
10:37
and then embeddingkatıştırma them in the digitaldijital
infrastructurealtyapı for the futuregelecek.
202
625040
3600
ve sonra onları gelecek için
dijital altyapıya yerleştirmek.
10:41
And that's not rocketroket scienceBilim.
203
629880
2296
Üstelik bu roket bilimi değil.
10:44
It's as simplebasit as makingyapma a socialsosyal network
204
632200
2096
Bir sosyal ağ kurmak kadar kolay.
10:46
that insteadyerine of teachingöğretim us
to see people as adversariesdüşmanlar,
205
634320
3536
Bu, insanları rakip olarak
görmeyi öğretmek yerine,
10:49
it teachesöğretir us to see
our adversariesdüşmanlar as people.
206
637880
3000
rakiplerimizi insan
olarak görmeyi öğretiyor.
10:54
It meansanlamına geliyor creatingoluşturma an economyekonomi
that doesn't favoriyilik a platformplatform monopolyTekel
207
642240
4296
İnsanların ve yerlerin tüm değerlerini
ortaya çıkarmak isteyen
10:58
that wants to extractözüt all the valuedeğer
out of people and placesyerler,
208
646560
3336
fakat bu değerin topluluk aracılığıyla
yayılmasına katkıda bulunan
11:01
but one that promotesteşvik the circulationdolaşım
of valuedeğer throughvasitasiyla a communitytoplum
209
649920
3936
ve mülkiyeti geniş bir şekilde dağıtan
altyapı kooperatiflerini mümkün olduğunca
11:05
and allowsverir us to establishkurmak
platformplatform cooperativesKooperatifler
210
653880
2416
kurmamızı sağlayan bir altyapı tekelini
desteklemeyen ekonomi yaratmak demektir.
11:08
that distributedağıtmak ownershipsahiplik
as widegeniş as possiblemümkün.
211
656320
3816
Öngörü adı altında yaratıcılığımızı
ve yenilikçiliğimizi engellemeden
11:12
It meansanlamına geliyor buildingbina platformsplatformlar
212
660160
1656
11:13
that don't repressbasınç our creativityyaratıcılık
and noveltyyenilik in the nameisim of predictiontahmin
213
661840
4656
11:18
but actuallyaslında promotedesteklemek
creativityyaratıcılık and noveltyyenilik,
214
666520
2576
ama aslında yaratıcılığa ve yenilikçiliğe
katkıda bulunan platformlar oluşturmaktır.
11:21
so that we can come up
with some of the solutionsçözeltiler
215
669120
2336
11:23
to actuallyaslında get ourselveskendimizi
out of the messdağınıklık that we're in.
216
671480
2680
Hayır, kendimizi yarattığımız
dünyadan izole etmek için
11:27
No, insteadyerine of tryingçalışıyor to earnkazanmak
enoughyeterli moneypara to insulateizole ourselveskendimizi
217
675440
3056
yeterli para kazanmaya çalışmak yerine
11:30
from the worldDünya we're creatingoluşturma,
218
678520
1496
11:32
why don't we spendharcamak that time and energyenerji
makingyapma the worldDünya a placeyer
219
680040
3056
neden bu zamanı ve enerjiyi dünyayı
kurtarmak zorunda kalmayacağımızı
11:35
that we don't feel
the need to escapekaçış from.
220
683120
2040
hissetmediğimiz bir yer
haline getirmiyoruz.
11:38
There is no escapekaçış,
there is only one thing going on here.
221
686000
3200
Kaçış yok, burada
devam eden tek bir şey var.
11:42
Please, don't leaveayrılmak.
222
690680
2120
Lütfen gitmeyin.
Bize katılın.
11:45
JoinKatılmak us.
223
693640
1360
11:47
We mayMayıs ayı not be perfectmükemmel,
224
695800
1296
Mükemmel olmayabiliriz
11:49
but whateverher neyse happensolur,
at leasten az you won'talışkanlık be aloneyalnız.
225
697120
2440
ama ne olursa olsun
en azından yalnız olmayacaksınız.
İnsan Ekibine katılın.
11:52
JoinKatılmak "TeamTakım Humanİnsan."
226
700640
1520
Diğerlerini bulun.
11:55
Find the othersdiğerleri.
227
703160
2096
Hep birlikte, her zaman
istediğimiz geleceği yapalım.
11:57
TogetherBirlikte, let's make the futuregelecek
that we always wanted.
228
705280
2960
12:01
Oh, and those techteknoloji billionairesmilyarderler
who wanted to know
229
709560
2496
Bir de kıyamet sonrası
güvenlik güçlerinin kontrolünü
12:04
how to maintainsürdürmek controlkontrol of theironların
securitygüvenlik forcekuvvet after the apocalypsevahiy,
230
712080
3256
nasıl koruyacaklarını bilmek
isteyen teknoloji milyarderleri vardı ya,
12:07
you know what I told them?
231
715360
1896
onlara ne söylediğimi biliyor musunuz?
"Şu an bu insanlara sevgi
ve saygıyla davranmaya başlayın.
12:09
"StartBaşlat treatingtedavi those people
with love and respectsaygı right now.
232
717280
4216
Belki endişelenecek
bir felaketiniz olmaz."
12:13
Maybe you won'talışkanlık have
an apocalypsevahiy to worryendişelenmek about."
233
721520
2440
Teşekkürler.
12:16
Thank you.
234
724840
1216
(Alkışlar)
12:18
(ApplauseAlkış)
235
726080
4440
Translated by Sevgül Demir
Reviewed by Gözde Alpçetin

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com