ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

Douglas Rushkoff: Bagaimana menjadi "Tim Manusia" di masa depan digital

Filmed:
1,652,468 views

Manusia tak lagi dihargai akan kreativitasnya, kata ahli teori media Douglas Rushkoff -- di dunia yang sudah didominasi oleh teknologi digital, hanya data kitalah yang dihargai sekarang. Dalam pembicaraan yang penuh semangat ini, Rushkoff mendorong kita untuk berhenti menggunakan teknologi untuk mengoptimalkan manusia untuk pasar dan mulai menggunakan manusia untuk membangun masa depan yang berpusat pada hubungan nilai-nilai pra-digital, kreatifitas, dan kehormatan. "Bergabunglah di 'Tim Manusia.' Ajak orang lain," dia berkata. "Bersama, mari ciptakan masa depan yang selalu kita impi-impikan."
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got inviteddiundang to an exclusiveeksklusif resortresor
0
1520
3880
Saya diundang di resor eksklusif
00:17
to deliverKirim a talk about the digitaldigital futuremasa depan
1
5440
2456
sebagai pembicara tentang
masa depan digital
00:19
to what I assumeddiasumsikan would be
a couplepasangan of hundredratus techtech executivesEksekutif.
2
7920
3576
untuk ratusan eksekutif teknologi,
saya pikir.
00:23
And I was there in the greenhijau roomkamar,
waitingmenunggu to go on,
3
11520
2696
Dan saya di ruangan hijau,
menunggu acara dimulai,
00:26
and insteadsebagai gantinya of bringingmembawa me to the stagetahap,
they broughtdibawa fivelima menpria into the greenhijau roomkamar
4
14240
5176
bukannya diajak ke panggung,
saya malah didatangi lima pria
00:31
who satduduk around this little tablemeja with me.
5
19440
2056
yang duduk mengelilingi meja
kecil ini.
00:33
They were techtech billionairesmilyarder.
6
21520
2096
Mereka miliarder teknologi.
00:35
And they starteddimulai pepperingmenghujani me
with these really binarybiner questionspertanyaan,
7
23640
4536
Dan mereka mulai melontarkan
pertanyaan biner,
00:40
like: BitcoinBitcoin or EtheriumEtherium?
8
28200
2000
seperti: Bitcoin atau Etherium?
00:43
VirtualVirtual realityrealitas or augmentedditambah realityrealitas?
9
31120
2656
Realita virtual atau realita tertambah?
00:45
I don't know if they were
takingpengambilan betstaruhan or what.
10
33800
2496
Saya tidak tahu mereka
sedang taruhan atau apa.
00:48
And as they got more comfortablenyaman with me,
11
36320
2816
Dan ketika mereka semakin nyaman
dengan saya,
00:51
they edgedbermata towardsmenuju
theirmereka realnyata questionpertanyaan of concernperhatian.
12
39160
3216
mereka mulai memberi
pertanyaan yang sesungguhnya.
00:54
AlaskaAlaska or NewBaru ZealandZealand?
13
42400
2240
Alaska atau Selandia Baru?
00:57
That's right.
14
45760
1216
Benar.
00:59
These techtech billionairesmilyarder
were askingmeminta a mediamedia theoristteori for advicenasihat
15
47000
2976
Para miliarder ini sedang
meminta saran teoritikus media
01:02
on where to put theirmereka doomsdayhari kiamat bunkersBunker.
16
50000
1880
tentang penempatan
bungker kiamat mereka.
Kami menghabiskan sisa jam
untuk satu pertanyaan:
01:04
We spentmenghabiskan the restberistirahat of the hourjam
on the singletunggal questionpertanyaan:
17
52600
3136
01:07
"How do I maintainmempertahankan controlkontrol
of my securitykeamanan staffstaf
18
55760
3616
"Bagaimana saya mempertahankan
kendali staf keamanan saya
01:11
after the eventperistiwa?"
19
59400
1320
setelah peristiwa itu?"
01:13
By "the eventperistiwa" they mean
the thermonucleartermonuklir warperang
20
61920
2736
Peristiwa di sini maksudnya
perang termonuklir,
01:16
or climateiklim catastrophemalapetaka or socialsosial unrestkerusuhan
that endsberakhir the worlddunia as we know it,
21
64680
4656
bencana iklim, atau kerusuhan sosial
yang mengakhiri dunia
01:21
and more importantlypenting,
makesmembuat theirmereka moneyuang obsoleteusang.
22
69360
3280
dan yang terpenting, membuat
uang mereka usang.
01:26
And I couldn'ttidak bisa help but think:
23
74200
2216
Dan ini membuat saya berpikir:
01:28
these are the wealthiestterkaya,
mostpaling powerfulkuat menpria in the worlddunia,
24
76440
4736
Mereka ini orang terkaya dan terkuat
di dunia,
01:33
yetnamun they see themselvesdiri as utterlysama sekali
powerlesstidak berdaya to influencemempengaruhi the futuremasa depan.
25
81200
4656
tapi mereka melihat diri mereka sendiri
tak berdaya untuk memengaruhi masa depan.
01:37
The bestterbaik they can do is hangmenggantung on
for the inevitabletak terelakkan catastrophemalapetaka
26
85880
4456
Hal terbaik yang dapat mereka lakukan:
bertahan dari bencana yang tak terelakkan
01:42
and then use theirmereka technologyteknologi and moneyuang
to get away from the restberistirahat of us.
27
90360
3680
lalu menggunakan teknologi dan uang untuk
memisahkan diri dari kita semua.
01:47
And these are the winnerspemenang
of the digitaldigital economyekonomi.
28
95520
2536
Dan merekalah pemenang ekonomi digital.
01:50
(LaughterTawa)
29
98080
3416
(Tawa)
01:53
The digitaldigital renaissanceRenaisans
30
101520
2776
Kebangkitan digital
01:56
was about the unbridledtak terkekang potentialpotensi
31
104320
4256
adalah tentang potensi tak terkendali
02:00
of the collectivekolektif humanmanusia imaginationimajinasi.
32
108600
2416
dari imajinasi kolektif manusia.
02:03
It spannedmembentang everything
from chaoskekacauan mathmatematika and quantumkuantum physicsfisika
33
111040
5136
Itu menjangkau semua dari matematika kacau
dan fisika kuantum
02:08
to fantasyfantasi role-playingbermain peran
and the GaiaGaia hypothesishipotesa, right?
34
116200
4176
hingga permainan peran fantasi dan
hipotesa Gaia, benar?
02:12
We believedpercaya that humanmanusia beingsmakhluk connectedterhubung
could createmembuat any futuremasa depan we could imaginemembayangkan.
35
120400
6720
Kita yakin manusia terhubung bisa ciptakan
masa depan apapun yang terbayangkan.
02:20
And then camedatang the dotdot comcom boomledakan.
36
128840
2199
Lalu meledaklah dot com.
02:24
And the digitaldigital futuremasa depan
becamemenjadi stockpersediaan futuresberjangka.
37
132600
3616
Dan masa depan digital menjadi
masa depan saham.
02:28
And we used all that energyenergi
of the digitaldigital ageusia
38
136240
3016
Dan kita gunakan segenap energi
di era digital
02:31
to pumppompa steroidssteroid into the alreadysudah dyingsekarat
NASDAQNASDAQ stockpersediaan exchangebertukar.
39
139280
4256
untuk memompa steroid ke bursa efek
NASDAQ yang telah sekarat.
02:35
The techtech magazinesmajalah told us
a tsunamitsunami was comingkedatangan.
40
143560
3616
Majalah teknologi memberi tahu kita
tsunami akan datang.
02:39
And only the investorsinvestor who hireddisewa
the bestterbaik scenario-plannersperencana-skenario and futuristsfuturis
41
147200
4456
Dan hanya investor yang mempekerjakan
perancang dan penggagas masa depan terbaik
02:43
would be ablesanggup to survivebertahan the wavegelombang.
42
151680
2520
yang bisa bertahan dari gelombang.
02:47
And so the futuremasa depan changedberubah from this thing
we createmembuat togetherbersama in the presentmenyajikan
43
155160
5896
Dan masa depan berubah dari yang
kita ciptakan bersama sekarang ini
02:53
to something we betbertaruh on
44
161080
1496
menjadi yang kita taruhkan
02:54
in some kindjenis of a zero-sumnol-sum
winner-takes-allpemenang-mengambil-semua competitionkompetisi.
45
162600
3200
dalam sejenis kompetisi total-nol
pemenang mengambil semua.
03:00
And when things get that competitivekompetitif
about the futuremasa depan,
46
168120
3136
Dan ketika segalanya menjadi sekompetitif
itu tentang masa depan,
03:03
humansmanusia are no longerlebih lama valuedbernilai
for our creativitykreativitas.
47
171280
3296
manusia tak lagi dihargai
karena kreativitas kita.
03:06
No, now we're just valuedbernilai for our datadata.
48
174600
3136
Tidak, sekarang hanya data kitalah
yang dihargai.
03:09
Because they can use the datadata
to make predictionsPrediksi.
49
177760
2376
Karena mereka bisa gunakan data
untuk memprediksi.
03:12
CreativityKreativitas, if anything,
that createsmenciptakan noisekebisingan.
50
180160
2576
Jikalaupun ada, kreativitas hanyalah
sumber kegaduhan.
03:14
That makesmembuat it harderlebih keras to predictmeramalkan.
51
182760
2216
Yang semakin susah untuk diprediksi.
03:17
So we endedberakhir up with a digitaldigital landscapepemandangan
52
185000
2416
Sehingga kita berakhir
dalam lanskap digital
03:19
that really repressedditekan creativitykreativitas,
repressedditekan noveltykebaruan,
53
187440
3256
yang sangat mengekang
kreativitas dan kebaruan,
03:22
it repressedditekan what makesmembuat us mostpaling humanmanusia.
54
190720
2840
mengekang apa yang membuat kita manusiawi.
03:26
We endedberakhir up with socialsosial mediamedia.
55
194760
1456
Kita mendarat di media sosial.
03:28
Does socialsosial mediamedia really connectmenghubungkan people
in newbaru, interestingmenarik wayscara?
56
196240
3456
Apakah medsos benar-benar menghubungkan
manusia secara baru dan menarik?
03:31
No, socialsosial mediamedia is about usingmenggunakan our datadata
to predictmeramalkan our futuremasa depan behaviortingkah laku.
57
199720
5016
Tidak, medsos hanya menggunakan data kita
untuk memprediksi perilaku kita.
03:36
Or when necessaryperlu,
to influencemempengaruhi our futuremasa depan behaviortingkah laku
58
204760
2896
Atau saat dibutuhkan, untuk memengaruhi
perilaku kita
03:39
so that we actbertindak more in accordancesesuai
with our statisticalstatistik profilesProfil.
59
207680
4040
agar kita berperilaku sesuai dengan
profil statistikal kita.
03:45
The digitaldigital economyekonomi --
does it like people?
60
213200
2216
Apakah ekonomi digital
berpihak pada manusia?
03:47
No, if you have a businessbisnis planrencana,
what are you supposedseharusnya to do?
61
215440
2896
Tidak, jika punya rencana bisnis,
apa yang harus dilakukan?
03:50
Get ridmembersihkan of all the people.
62
218360
1256
Singkirkan semua manusia.
03:51
HumanManusia beingsmakhluk, they want healthkesehatan carepeduli,
they want moneyuang, they want meaningberarti.
63
219640
3400
Manusia ingin kesehatan, uang, makna.
03:56
You can't scaleskala with people.
64
224360
1880
Anda tidak bisa berkembang dengan
manusia.
03:59
(LaughterTawa)
65
227360
1456
(Tawa)
04:00
Even our digitaldigital appsaplikasi --
66
228840
1216
Bahkan aplikasi digital
04:02
they don't help us
formbentuk any rapporthubungan or solidaritysolidaritas.
67
230080
3216
tidak membantu kita dalam
hubungan dan solidaritas.
04:05
I mean, where'sdimana the buttontombol
on the ridemengendarai hailingBerasal appaplikasi
68
233320
2416
Di mana letak tombol di aplikasi
transportasi
04:07
for the driversdriver to talk to one anotherlain
about theirmereka workingkerja conditionskondisi
69
235760
3496
bagi sopir untuk saling bicara
tentang pekerjaan mereka
04:11
or to unionizeunionize?
70
239280
1200
atau membuat serikat kerja?
04:13
Even our videoconferencingVideoconference toolsalat,
71
241600
2016
Pun alat konferensi video kita
04:15
they don't allowmengizinkan us
to establishmendirikan realnyata rapporthubungan.
72
243640
2376
tidak mengizinkan kita
membangun hubungan nyata.
04:18
HoweverNamun good the resolutionresolusi of the videovideo,
73
246040
3336
Sebagus apapun resolusi video,
04:21
you still can't see if somebody'sseseorang irisesIris
are openingpembukaan to really take you in.
74
249400
4016
Anda tak bisa melihat jika iris mata
itu terbuka untuk mengenali Anda.
Semua yang telah kita lakukan
untuk membangun hubungan
04:25
All of the things that we'vekita sudah doneselesai
to establishmendirikan rapporthubungan
75
253440
2576
yang kita kembangkan selama lebih
dari ratusan ribu tahun evolusi,
04:28
that we'vekita sudah developeddikembangkan over hundredsratusan
of thousandsribuan of yearstahun of evolutionevolusi,
76
256040
3335
tidaklah berguna,
04:31
they don't work,
77
259399
1217
Anda tak bisa melihat jika napas
seseorang mengiringi napas Anda.
04:32
you can't see if someone'sseseorang breathnafas
is syncingSinkronisasi up with yoursmilikmu.
78
260640
3016
04:35
So the mirrorcermin neuronsneuron never fireapi,
the oxytocinoksitosin never goespergi throughmelalui your bodytubuh,
79
263680
3656
Cermin neuron tak pernah menembak,
oksitoksin tak pernah menjalar ke tubuh,
04:39
you never have that experiencepengalaman
of bondingikatan with the other humanmanusia beingmakhluk.
80
267360
3240
Anda tak pernah mengalami ikatan dengan
manusia secara nyata.
04:43
And insteadsebagai gantinya, you're left like,
81
271360
1456
Melainkan, Anda berpikir,
04:44
"Well, they agreedsepakat with me,
but did they really,
82
272840
2256
"Oke, mereka setuju dengan saya,
tapi apa benar,
04:47
did they really get me?"
83
275120
1696
apa mereka sungguh mengerti saya?"
04:48
And we don't blamemenyalahkan the technologyteknologi
for that lackkekurangan of fidelitykesetiaan.
84
276840
3376
Kita tidak menyalahkan teknologi
atas kekurangannya.
04:52
We blamemenyalahkan the other personorang.
85
280240
1480
Kita menyalahkan orang lain.
04:55
You know, even the technologiesteknologi
and the digitaldigital initiativesinisiatif that we have
86
283320
4056
Anda tahu, bahkan teknologi dan inisiatif
digital yang kita punya
04:59
to promotememajukan humansmanusia,
87
287400
2176
untuk mendukung manusia,
05:01
are intenselyintens anti-humananti manusia at the coreinti.
88
289600
2760
pada dasarnya, sangatlah anti manusia.
05:05
Think about the blockchainblockchain.
89
293600
2000
Pikirkan tentang teknologi
blockchain.
05:08
The blockchainblockchain is here to help us
have a great humanizedkarya economyekonomi? No.
90
296520
3616
Apakah benar blockchain mendukung kita
menuju ekonomi manusiawi? Tidak.
05:12
The blockchainblockchain does not engendermenimbulkan
trustkepercayaan betweenantara userspengguna,
91
300160
2696
Blockchain tak menimbulkan kepercayaan
antar pengguna,
05:14
the blockchainblockchain simplysecara sederhana
substitutespengganti for trustkepercayaan in a newbaru,
92
302880
3536
blockchain hanyalah menggantikan
kepercayaan dengan cara baru,
05:18
even lesskurang transparenttransparan way.
93
306440
2000
yang bahkan kurang transparan.
05:21
Or the codekode movementgerakan.
94
309600
1816
Atau pergerakan kode.
05:23
I mean, educationpendidikan is great,
we love educationpendidikan,
95
311440
2176
Maksudnya, pendidikan itu bagus,
kita suka itu
05:25
and it's a wonderfulhebat ideaide
96
313640
1456
dan merupakan ide cemerlang
05:27
that we want kidsanak-anak to be ablesanggup
to get jobspekerjaan in the digitaldigital futuremasa depan,
97
315120
3136
jika kita ingin anak kita bisa dapat kerja
di masa depan digital,
05:30
so we'llbaik teachmengajar them codekode now.
98
318280
1600
jadi kita ajari mereka 'coding'.
05:32
But sincesejak when is educationpendidikan
about gettingmendapatkan jobspekerjaan?
99
320640
2480
Tapi sejak kapan pendidikan itu tentang
cari kerja?
05:35
EducationPendidikan wasn'ttidak about gettingmendapatkan jobspekerjaan.
100
323920
1736
Pendidikan bukan tentang cari kerja.
05:37
EducationPendidikan was compensationkompensasi
for a jobpekerjaan well doneselesai.
101
325680
3976
Pendidikan itu kompensasi atas kerja
yang bagus.
Ide tentang pendidikan umum
05:41
The ideaide of publicpublik educationpendidikan
102
329680
1576
05:43
was for coalbatu bara minerspenambang,
who would work in the coalbatu bara minestambang all day,
103
331280
3376
diperuntukkan penambang batu bara,
yang kerja di tambang sepanjang hari,
05:46
then they'dmereka akan come home
and they should have the dignitymartabat
104
334680
2576
lalu mereka pulang
dan harus punya martabat
05:49
to be ablesanggup to readBaca baca a novelnovel
and understandmemahami it.
105
337280
2136
untuk bisa baca novel dan
memahaminya.
05:51
Or the intelligenceintelijen to be ablesanggup
to participateikut in democracydemokrasi.
106
339440
2960
Atau kecerdasan untuk bisa
ikut berdemokrasi.
05:55
When we make it an extensionperpanjangan of the jobpekerjaan,
what are we really doing?
107
343200
3216
Jika pendidikan dianggap tambahan kerjaan,
apa yang kita lakukan?
05:58
We're just lettingmembiarkan corporationsperusahaan really
108
346440
2536
Kita hanya membiarkan perusahaan
06:01
externalizemengeksternalisasi the costbiaya
of traininglatihan theirmereka workerspekerja.
109
349000
3120
mengeksternalkan biaya pelatihan
pekerjanya.
06:05
And the worstterburuk of all really
is the humanemanusiawi technologyteknologi movementgerakan.
110
353520
4096
Dan yang terburuk adalah
gerakan teknologi manusiawi.
06:09
I mean, I love these guys,
the formerbekas guys who used to take
111
357640
2816
Maksud saya, saya suka mereka
yang dulu biasa mengambil
06:12
the algorithmsalgoritma from
LasLas VegasVegas slotslot machinesmesin
112
360480
2936
algoritma dari mesin slot
Las Vegas
06:15
and put them in our socialsosial mediamedia feedmakan
so that we get addictedkecanduan.
113
363440
2936
dan menaruhnya di umpan media sosial
agar kita kecanduan.
06:18
Now they'vemereka sudah seenterlihat the errorkesalahan of theirmereka wayscara
114
366400
1936
Sekarang mereka melihat
kesalahan mereka
06:20
and they want to make
technologyteknologi more humanemanusiawi.
115
368360
2456
dan ingin mengubah teknologi
jadi lebih manusiawi.
06:22
But when I hearmendengar the expressionekspresi
"humanemanusiawi technologyteknologi,"
116
370840
2416
Tapi saat saya dengar kata
"teknologi manusiawi."
06:25
I think about cage-freeBebas kandang
chickensayam or something.
117
373280
2856
saya bayangkan ayam tanpa kandang
atau semacam itu.
06:28
We're going to be as humanemanusiawi
as possiblemungkin to them,
118
376160
2256
Kita akan jadi semanusiawi mungkin
untuk mereka,
06:30
untilsampai we take them to the slaughterpembantaian.
119
378440
1720
sampai kita bawa ke pembantaian.
06:33
So now they're going to let these
technologiesteknologi be as humanemanusiawi as possiblemungkin,
120
381200
3416
Jadi sekarang mereka akan buat
teknologi semanusiawi mungkin,
06:36
as long as they extractekstrak enoughcukup datadata
and extractekstrak enoughcukup moneyuang from us
121
384640
3216
selagi mereka bisa meraup
cukup data dan uang dari kita
06:39
to please theirmereka shareholderspemegang saham.
122
387880
1400
supaya pemegang saham senang.
06:42
MeanwhileSementara itu, the shareholderspemegang saham,
for theirmereka partbagian, they're just thinkingberpikir,
123
390520
3176
Sementara, pemegang saham hanya berpikir
06:45
"I need to earnmendapatkan enoughcukup moneyuang now,
so I can insulatemengisolasi myselfdiri
124
393720
2976
"Saya perlu cari uang yang cukup,
jadi saya bisa asingkan diri
06:48
from the worlddunia I'm creatingmenciptakan
by earningpenghasilan moneyuang in this way."
125
396720
3056
dari dunia yang saya ciptakan dengan
cara ini."
06:51
(LaughterTawa)
126
399800
2376
(Tawa)
06:54
No mattermasalah how manybanyak VRVR goggleskacamata
they slapmenampar on theirmereka faceswajah
127
402200
4056
Tak masalah seberapa banyak kacamata VR
yang mereka pasang ke wajah mereka
06:58
and whateverterserah fantasyfantasi worlddunia they go into,
128
406280
2256
dan dunia fantasi apapun
yang bisa mereka masuki
07:00
they can't externalizemengeksternalisasi the slaveryperbudakan
and pollutionpolusi that was causeddisebabkan
129
408560
3536
Mereka tidak bisa mengeksternalkan
perbudakan dan polusi yang disebabkan
07:04
throughmelalui the manufacturepembuatan
of the very devicealat.
130
412120
2976
dari pembuatan perangkat.
07:07
It remindsmengingatkan me of
ThomasThomas Jefferson'sDari Jefferson dumbwaiterDumbwaiter.
131
415120
3176
Itu mengingatkan saya pada
lift barang Thomas Jefferson.
07:10
Now, we like to think
that he madeterbuat the dumbwaiterDumbwaiter
132
418320
2336
Sekarang kita pikir
dia menciptakan lift makanan
07:12
in ordermemesan to sparemeluangkan his slavesbudak
all that labortenaga kerja of carryingmembawa the foodmakanan
133
420680
3656
untuk meringankan beban
para budak pembawa makanan
07:16
up to the diningMakan roomkamar
for the people to eatmakan.
134
424360
2776
ke ruang makan.
07:19
That's not what it was for,
it wasn'ttidak for the slavesbudak,
135
427160
2496
Bukan itu, bukan demi budaknya,
07:21
it was for ThomasThomas JeffersonJefferson
and his dinnermakan malam gueststamu,
136
429680
2336
tapi untuk Thomas Jefferson dan
para tamunya,
07:24
so they didn't have to see the slavebudak
bringingmembawa the foodmakanan up.
137
432040
3096
sehingga mereka tak perlu melihat budak
yang membawakan makanan.
07:27
The foodmakanan just arrivedtiba magicallysecara ajaib,
138
435160
1576
Makanannya datang dengan ajaib,
07:28
like it was comingkedatangan out
of a "StartMulai TrekPerjalanan" replicatorReplicator.
139
436760
3000
seperti baru keluar dari replikator
"Start Trek"
07:32
It's partbagian of an ethosetos that saysmengatakan,
140
440720
2096
Itu bagian dari etos yang berkata,
07:34
humanmanusia beingsmakhluk are the problemmasalah
and technologyteknologi is the solutionlarutan.
141
442840
4280
manusia itu masalah,
teknologi lah solusinya.
07:40
We can't think that way anymorelagi.
142
448680
2056
Kita tak bisa berpikir seperti itu lagi.
07:42
We have to stop usingmenggunakan technologyteknologi
to optimizeoptimalkan humanmanusia beingsmakhluk for the marketpasar
143
450760
5296
Kita harus berhenti memakai teknologi
untuk mengoptimalkan manusia untuk pasar
07:48
and startmulai optimizingmengoptimalkan technologyteknologi
for the humanmanusia futuremasa depan.
144
456080
5040
dan mulai mengoptimalkan teknologi untuk
masa depan manusia.
07:55
But that's a really hardkeras argumentargumen
to make these dayshari,
145
463080
2656
Tapi itu argumen yang susah
untuk diterapkan sekarang
07:57
because humansmanusia are not popularpopuler beingsmakhluk.
146
465760
4056
karena manusia bukan makhluk yang populer.
08:01
I talkedberbicara about this in frontdepan
of an environmentalistlingkungan just the other day,
147
469840
3376
Saya bahas ini di depan pecinta alam
kemarin dulu
dia tanya "Kenapa Anda membela manusia?
08:05
and she said, "Why are you
defendingmembela humansmanusia?
148
473240
2096
08:07
HumansManusia destroyedhancur the planetplanet.
They deservepantas to go extinctpunah."
149
475360
2696
Manusia merusak alam,
mereka layak punah."
08:10
(LaughterTawa)
150
478080
3456
(Tawa)
08:13
Even our popularpopuler mediamedia hatesmembenci humansmanusia.
151
481560
2576
Media populer kita pun benci manusia.
08:16
Watch televisiontelevisi,
152
484160
1256
Lihatlah TV,
08:17
all the sci-fiSci-fi showsmenunjukkan are about how robotsrobot
are better and nicerlebih bagus than people.
153
485440
3736
semua pertunjukan fiksi sains itu tentang
robot yang lebih baik dari manusia.
08:21
Even zombiezombie showsmenunjukkan --
what is everysetiap zombiezombie showmenunjukkan about?
154
489200
2976
Bahkan film zombie,
tentang apa film zombie itu?
08:24
Some personorang, looking at the horizonhorison
at some zombiezombie going by,
155
492200
3256
Beberapa orang melihat cakrawala
di mana zombie lewat,
08:27
and they zoomzoom in on the personorang
and you see the person'sorang facemenghadapi,
156
495480
2896
mereka memperbesar orang tersebut
dan Anda melihat wajahnya,
08:30
and you know what they're thinkingberpikir:
157
498400
1736
dan Anda tahu apa yang mereka pikir:
08:32
"What's really the differenceperbedaan
betweenantara that zombiezombie and me?
158
500160
2736
"Apa yang benar-benar membedakan saya
dengan zombie?"
08:34
He walksberjalan, I walkberjalan.
159
502920
1536
Zombie jalan, saya juga.
08:36
He eatsMakan, I eatmakan.
160
504480
2016
Zombie makan, saya juga.
08:38
He killsmembunuh, I killmembunuh."
161
506520
2280
Zombie pembunuh, saya juga."
08:42
But he's a zombiezombie.
162
510360
1536
Tapi itu zombie.
08:43
At leastpaling sedikit you're awaresadar of it.
163
511920
1416
Minimal Anda menyadarinya.
08:45
If we are actuallysebenarnya havingmemiliki troublekesulitan
distinguishingmembedakan ourselvesdiri from zombieszombie,
164
513360
3696
Jika kita kesulitan membedakan
diri kita dengan zombie,
08:49
we have a prettycantik bigbesar problemmasalah going on.
165
517080
2176
kita punya masalah besar.
08:51
(LaughterTawa)
166
519280
1216
(Tawa)
08:52
And don't even get me starteddimulai
on the transhumanistsilmuwan.
167
520520
2936
Dan jangan sampai saya membahas
para transhumanis.
08:55
I was on a panelpanel with a transhumanistyang,
and he's going on about the singularitykeganjilan.
168
523480
3816
Saya dulu satu panel dengan transhumanis,
dan dia bicara tentang singularitas.
08:59
"Oh, the day is going to come really soonsegera
when computerskomputer are smarterlebih pintar than people.
169
527320
3856
"Oh, hari di mana komputer lebih pandai
dari orang akan segera datang.
09:03
And the only optionpilihan
for people at that pointtitik
170
531200
2136
Dan satu-satunya pilihan
hanyalah
09:05
is to passlulus the evolutionaryevolusioner torchobor
to our successorpenerus
171
533360
3336
mewariskan obor evolusi itu ke
penerus kita
09:08
and fadeluntur into the backgroundLatar Belakang.
172
536720
1616
dan menghilang dari peradaban.
09:10
Maybe at bestterbaik, uploadupload
your consciousnesskesadaran to a siliconsilikon chipchip.
173
538360
3456
Mungkin baiknya, unggah kesadaran Anda
ke cip silikon.
09:13
And acceptmenerima your extinctionkepunahan."
174
541840
1840
dan terimalah kepunahan Anda."
09:16
(LaughterTawa)
175
544640
1456
(Tawa)
09:18
And I said, "No, humanmanusia beingsmakhluk are specialkhusus.
176
546120
3376
Saya sahut,
"Tidak, manusia itu istimewa.
09:21
We can embracemerangkul ambiguitykemenduaan,
we understandmemahami paradoxparadoks,
177
549520
3536
Kita bisa merangkul keberagaman,
kita mengerti paradoks,
09:25
we're conscioussadar,
we're weirdaneh, we're quirkyaneh.
178
553080
2616
kita sadar, kita aneh, kita unik.
09:27
There should be a placetempat for humansmanusia
in the digitaldigital futuremasa depan."
179
555720
3336
Seharusnya ada ruang untuk manusia
di masa digital nanti,"
09:31
And he said, "Oh, RushkoffYang lain,
180
559080
1536
Dan dia menjawab, "Oh, Rushkoff,
09:32
you're just sayingpepatah that
because you're a humanmanusia."
181
560640
2296
Anda bisa mengatakan itu
karena Anda manusia."
09:34
(LaughterTawa)
182
562960
1776
(Tawa)
09:36
As if it's hubriskeangkuhan.
183
564760
1600
Seolah-olah itu adalah keangkuhan.
09:39
OK, I'm on "TeamTim HumanManusia."
184
567280
2800
Ok, saya di "Tim manusia."
09:43
That was the originalasli insightwawasan
of the digitaldigital ageusia.
185
571200
3856
Itulah wawasan era digital
yang sebenarnya.
09:47
That beingmakhluk humanmanusia is a teamtim sportolahraga,
186
575080
2216
Manusia itu tim yang saling mendukung,
09:49
evolution'sevolusi a collaborativekolaboratif actbertindak.
187
577320
2736
evolusi merupakan
aksi kolaboratif mereka.
09:52
Even the treespohon in the foresthutan,
188
580080
1416
Pepohonan di hutan pun
09:53
they're not all in competitionkompetisi
with eachsetiap other,
189
581520
2216
tidak saling bersaing,
09:55
they're connectedterhubung with the vastluas
networkjaringan of rootsakar and mushroomsjamur
190
583760
3216
pepohonan saling terhubung
melalui akar dan jamur
09:59
that let them communicatemenyampaikan with one anotherlain
and passlulus nutrientsnutrisi back and forthsebagainya.
191
587000
4536
yang memungkinkan untuk berkomunikasi
dan menyalurkan nutrisi.
Jika manusia itu spesies
yang paling berevolusi
10:03
If humanmanusia beingsmakhluk
are the mostpaling evolvedberevolusi speciesjenis,
192
591560
2136
10:05
it's because we have the mostpaling evolvedberevolusi
wayscara of collaboratingberkolaborasi and communicatingberkomunikasi.
193
593720
4136
ini karena manusia punya cara kolaborasi
dan komunikasi yang paling kompleks.
10:09
We have languagebahasa.
194
597880
1496
Kita punya bahasa.
10:11
We have technologyteknologi.
195
599400
1240
Kita punya teknologi.
10:14
It's funnylucu, I used to be the guy
who talkedberbicara about the digitaldigital futuremasa depan
196
602120
4576
Lucu juga, saya biasanya berbicara tentang
masa depan digital
10:18
for people who hadn'ttidak yetnamun
experiencedberpengalaman anything digitaldigital.
197
606720
2680
pada orang-orang yang belum berpengalaman
digital apapun.
10:22
And now I feel like I'm the last guy
198
610200
1816
Sekarang saya rasa saya orang terakhir
10:24
who remembersmengingat what life was like
before digitaldigital technologyteknologi.
199
612040
2920
yang ingat bagaimana kehidupan sebelum
adanya teknologi digital.
10:28
It's not a mattermasalah of rejectingmenolak the digitaldigital
or rejectingmenolak the technologicalteknologi.
200
616680
4216
Ini bukan masalah menolak digital
atapun teknologi,
10:32
It's a mattermasalah of retrievingMengambil the valuesnilai
that we're in dangerbahaya of leavingmeninggalkan behinddibelakang
201
620920
4096
Tapi ambillah pelajaran, bahayanya
keterbelakangan kita
10:37
and then embeddingembedding them in the digitaldigital
infrastructureinfrastruktur for the futuremasa depan.
202
625040
3600
lalu tanamkan pelajaran itu
untuk pembangunan masa depan digital.
10:41
And that's not rocketroket scienceilmu.
203
629880
2296
Dan itu tidaklah sesulit membuat roket.
10:44
It's as simplesederhana as makingmembuat a socialsosial networkjaringan
204
632200
2096
Sesederhana membuat jejaring sosial
10:46
that insteadsebagai gantinya of teachingpengajaran us
to see people as adversariesmusuh,
205
634320
3536
bukannya mengajari kita
untuk melihat orang sebagai musuh,
10:49
it teachesmengajar us to see
our adversariesmusuh as people.
206
637880
3000
tapi mencari mana musuh kita sebenarnya
sebagai manusia.
10:54
It meanscara creatingmenciptakan an economyekonomi
that doesn't favorkebaikan a platformperon monopolymonopoli
207
642240
4296
Artinya, kita ciptakan ekonomi
yang tidak menyokong monopoli platform
10:58
that wants to extractekstrak all the valuenilai
out of people and placestempat,
208
646560
3336
yang mengeruk semua nilai
dari semua orang dan tempat
11:01
but one that promotesmempromosikan the circulationsirkulasi
of valuenilai throughmelalui a communitymasyarakat
209
649920
3936
tapi ekonomi yang memajukan nilai
sirkulasi melalui komunitas
11:05
and allowsmemungkinkan us to establishmendirikan
platformperon cooperativesKoperasi
210
653880
2416
dan memungkinkan kita untuk
membangun koperasi
11:08
that distributemendistribusikan ownershipkepemilikan
as widelebar as possiblemungkin.
211
656320
3816
yang menyebarluaskan hak cipta
seluas mungkin.
11:12
It meanscara buildingbangunan platformsplatform
212
660160
1656
Artinya, membangun platform
11:13
that don't repressmenekan our creativitykreativitas
and noveltykebaruan in the namenama of predictionramalan
213
661840
4656
yang tidak mengekang kreativitas
dan hal baru
11:18
but actuallysebenarnya promotememajukan
creativitykreativitas and noveltykebaruan,
214
666520
2576
melainkan mendorong kreativitas
dan hal baru,
11:21
so that we can come up
with some of the solutionssolusi
215
669120
2336
agar kita bisa membawa solusi
11:23
to actuallysebenarnya get ourselvesdiri
out of the messkekacauan that we're in.
216
671480
2680
untuk keluar dari kekacauan ini.
11:27
No, insteadsebagai gantinya of tryingmencoba to earnmendapatkan
enoughcukup moneyuang to insulatemengisolasi ourselvesdiri
217
675440
3056
Dari pada hanya meraup uang
untuk mengasingkan diri kita
11:30
from the worlddunia we're creatingmenciptakan,
218
678520
1496
dari dunia yang kita ciptakan,
11:32
why don't we spendmenghabiskan that time and energyenergi
makingmembuat the worlddunia a placetempat
219
680040
3056
kenapa tidak mengerahkan tenaga dan waktu
untuk menjadikan dunia
11:35
that we don't feel
the need to escapemelarikan diri from.
220
683120
2040
tempat di mana
kita tak perlu melarikan diri
11:38
There is no escapemelarikan diri,
there is only one thing going on here.
221
686000
3200
Tidak ada jalan keluar,
hanya ada satu hal yang terjadi di sini.
11:42
Please, don't leavemeninggalkan.
222
690680
2120
Tolong, jangan pergi.
11:45
JoinBergabung us.
223
693640
1360
Bergabunglah.
11:47
We maymungkin not be perfectsempurna,
224
695800
1296
Kita mungkin tak sempurna,
11:49
but whateverterserah happensterjadi,
at leastpaling sedikit you won'tbiasa be alonesendirian.
225
697120
2440
tapi apapun yang terjadi
setidaknya Anda tak sendiri.
11:52
JoinBergabung "TeamTim HumanManusia."
226
700640
1520
Bergabunglah di "Tim Manusia"
11:55
Find the otherslainnya.
227
703160
2096
Ajak yang lain.
11:57
TogetherBersama-sama, let's make the futuremasa depan
that we always wanted.
228
705280
2960
Bersama, mari kita ciptakan
masa depan yang kita dambakan.
12:01
Oh, and those techtech billionairesmilyarder
who wanted to know
229
709560
2496
Oh, miliarder teknologi yang ingin tahu
12:04
how to maintainmempertahankan controlkontrol of theirmereka
securitykeamanan forcememaksa after the apocalypsewahyu,
230
712080
3256
bagaimana mengontrol pasukan keamanan
setelah adanya kehancuran itu
12:07
you know what I told them?
231
715360
1896
Anda tahu apa yang saya jawab?
12:09
"StartMulai treatingmengobati those people
with love and respectmenghormati right now.
232
717280
4216
"Mulailah saling mengasihi dan menghormati
sesama manusia sekarang.
12:13
Maybe you won'tbiasa have
an apocalypsewahyu to worrykuatir about."
233
721520
2440
Mungkin tak akan ada kehancuran
yang perlu dikhawatirkan
12:16
Thank you.
234
724840
1216
Terima kasih
12:18
(ApplauseTepuk tangan)
235
726080
4440
(Tepuk tangan)
Translated by Azfa Adid
Reviewed by Fitria Aida Marfuaty

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com