ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

道格拉斯·拉許柯夫: 任何在數位未來時代成為「人類戰隊」的一員

Filmed:
1,652,468 views

媒體理論家道格拉斯·拉許柯夫說,在數位科技主宰的世界裡,人類不再因創意而受到重視,而是只剩下數據價值。在這場熱情的演說中,拉許柯夫呼籲我們,必續停止為迎合市場而使用科技來優化人類,應該要利用科技來建構以數位價值觀為中心之前的未來,也就是以人與人之間的關係、創意、尊重為核心的未來。讓我們「加入『人類戰隊』,團結其他人。」他說:「讓我們攜手一起創造人類所憧景的未來。」
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got invited邀請 to an exclusive獨家 resort採取
0
1520
3880
我曾應邀到一個高檔渡假村,
00:17
to deliver交付 a talk about the digital數字 future未來
1
5440
2456
我以為是要向幾百位科技主管闡述
00:19
to what I assumed假定 would be
a couple一對 of hundred tech高科技 executives高管.
2
7920
3576
我對數位未來的看法,
00:23
And I was there in the green綠色 room房間,
waiting等候 to go on,
3
11520
2696
但我到了那裡,卻是在一間
綠色房間中,等後演講的開始,
00:26
and instead代替 of bringing使 me to the stage階段,
they brought five men男人 into the green綠色 room房間
4
14240
5176
他們並沒有把我帶上舞台,
而是把五個人帶進那間綠色房間,
00:31
who satSAT around this little table with me.
5
19440
2056
他們和我圍著一張小圓桌坐下。
00:33
They were tech高科技 billionaires億萬富翁.
6
21520
2096
這些人都是科技界的億萬富翁。
00:35
And they started開始 peppering以子彈密擊 me
with these really binary二進制 questions問題,
7
23640
4536
他們開始連珠炮似地問些二元問題,
00:40
like: Bitcoin比特幣 or Etherium乙太?
8
28200
2000
比如:比特幣還是以太幣?
00:43
Virtual虛擬 reality現實 or augmented增強 reality現實?
9
31120
2656
AR 虛擬實境或 VR 擴增實境?
00:45
I don't know if they were
taking服用 bets賭注 or what.
10
33800
2496
我不知道他們是在打賭還是怎樣。
00:48
And as they got more comfortable自在 with me,
11
36320
2816
當他們和我相處比較自在了,
00:51
they edged一柄 towards
their real真實 question of concern關心.
12
39160
3216
他們才慢慢開始問出
他們真正在意的問題。
00:54
Alaska阿拉斯加州 or New Zealand新西蘭?
13
42400
2240
(當末日來臨時)
要選阿拉斯加或紐西蘭?
00:57
That's right.
14
45760
1216
沒錯。
00:59
These tech高科技 billionaires億萬富翁
were asking a media媒體 theorist理論家 for advice忠告
15
47000
2976
這些科技界的億萬富翁
向一位媒體理論家詢求建議,
01:02
on where to put their doomsday末日 bunkers沙坑.
16
50000
1880
問我躲避世界末日的
地下碉堡要建在哪裡。
01:04
We spent花費 the rest休息 of the hour小時
on the single question:
17
52600
3136
接下來的一個小時,
我們只討論這一個問題:
01:07
"How do I maintain保持 control控制
of my security安全 staff員工
18
55760
3616
「在事件發生之後,我要如何能
繼續掌控我的保全人員?」
01:11
after the event事件?"
19
59400
1320
01:13
By "the event事件" they mean
the thermonuclear熱核 war戰爭
20
61920
2736
他們所謂的「事件」指的就是核戰
01:16
or climate氣候 catastrophe災難 or social社會 unrest動盪
that ends結束 the world世界 as we know it,
21
64680
4656
或是氣候災難,或是社會動盪,
這類會毀滅我們世界的事件,
01:21
and more importantly重要的,
makes品牌 their money obsolete過時的.
22
69360
3280
他們更擔心的是,當末日來臨時,
他們的錢就毫無用處了。
01:26
And I couldn't不能 help but think:
23
74200
2216
我忍不住心想:
01:28
these are the wealthiest富有,
most powerful強大 men男人 in the world世界,
24
76440
4736
這些人可都是當今世界
最富有、最有權勢的人,
01:33
yet然而 they see themselves他們自己 as utterly完全
powerless無力 to influence影響 the future未來.
25
81200
4656
然而,他們卻認為自己
對末日來臨束手無策。
01:37
The best最好 they can do is hang on
for the inevitable必然 catastrophe災難
26
85880
4456
他們能做的,只想撐到末日來臨時,
01:42
and then use their technology技術 and money
to get away from the rest休息 of us.
27
90360
3680
用他們的科技和金錢
來遠離我們這些等閒之輩。
01:47
And these are the winners獲獎者
of the digital數字 economy經濟.
28
95520
2536
數位經濟時代的贏家們
竟是這樣的嘴臉。
01:50
(Laughter笑聲)
29
98080
3416
(笑聲)
01:53
The digital數字 renaissance再生
30
101520
2776
數位文藝復興
01:56
was about the unbridled恣意 potential潛在
31
104320
4256
談的是如何把人類集體想像力
發揮到極致。
02:00
of the collective集體 human人的 imagination想像力.
32
108600
2416
02:03
It spanned跨越 everything
from chaos混沌 math數學 and quantum量子 physics物理
33
111040
5136
它橫跨所有事物,
從渾沌數學和量子物理,
02:08
to fantasy幻想 role-playing角色扮演
and the Gaia蓋亞 hypothesis假設, right?
34
116200
4176
到奇幻角色扮演
以及蓋亞假說,對吧?
02:12
We believed相信 that human人的 beings眾生 connected連接的
could create創建 any future未來 we could imagine想像.
35
120400
6720
我們曾相信,人類聯合起來
就能創造出我們想像的未來。
02:20
And then came來了 the dot comCOM boom繁榮.
36
128840
2199
接著,「.com」熱潮出現了。
02:24
And the digital數字 future未來
became成為 stock股票 futures期貨.
37
132600
3616
數位未來變成了股票期貨。
02:28
And we used all that energy能源
of the digital數字 age年齡
38
136240
3016
我們耗盡了數位時代的所有能量,
02:31
to pump steroids類固醇 into the already已經 dying垂死
NASDAQ納斯達克 stock股票 exchange交換.
39
139280
4256
為已經垂死的
那斯達克證券交易所注入強心針。
02:35
The tech高科技 magazines雜誌 told us
a tsunami海嘯 was coming未來.
40
143560
3616
科技雜誌告訴我們,海嘯要來了。
02:39
And only the investors投資者 who hired僱用
the best最好 scenario-planners情景規劃師 and futurists未和者
41
147200
4456
唯有僱用最好的情境規劃者
和未來主義者的投資人
02:43
would be able能夠 to survive生存 the wave.
42
151680
2520
才能在這波浪潮後生存下來,
02:47
And so the future未來 changed from this thing
we create創建 together一起 in the present當下
43
155160
5896
而未來,從我們現在
創造出來的這波浪潮
到我們所賭上的一切,
02:53
to something we bet賭注 on
44
161080
1496
02:54
in some kind of a zero-sum零和
winner-takes-all贏者--------------- competition競爭.
45
162600
3200
似乎變成了某種贏家全拿的零和遊戲。
03:00
And when things get that competitive競爭的
about the future未來,
46
168120
3136
當未來的競爭變得如此激烈時,
03:03
humans人類 are no longer valued價值
for our creativity創造力.
47
171280
3296
人類則不再因為
擁有創造力而受到重視。
03:06
No, now we're just valued價值 for our data數據.
48
174600
3136
不,我們的價值只剩下數據。
03:09
Because they can use the data數據
to make predictions預測.
49
177760
2376
因為他們可以用我們的數據來做預測。
03:12
Creativity創造力, if anything,
that creates創建 noise噪聲.
50
180160
2576
創造力,如果有的話,只會產生干擾。
03:14
That makes品牌 it harder更難 to predict預測.
51
182760
2216
會讓預測變更困難。
03:17
So we ended結束 up with a digital數字 landscape景觀
52
185000
2416
所以,我們最後得到的
就只是一個數位藍圖,
03:19
that really repressed壓抑 creativity創造力,
repressed壓抑 novelty新奇,
53
187440
3256
這的確會壓制我們的創造力、創新性,
03:22
it repressed壓抑 what makes品牌 us most human人的.
54
190720
2840
會壓制讓我們之所以
成為人類的、最根本的東西。
03:26
We ended結束 up with social社會 media媒體.
55
194760
1456
這些社交媒體真的有以新的、
有趣的方式將人類聯繫在一起嗎?
03:28
Does social社會 media媒體 really connect people
in new, interesting有趣 ways方法?
56
196240
3456
03:31
No, social社會 media媒體 is about using運用 our data數據
to predict預測 our future未來 behavior行為.
57
199720
5016
不,社交媒體只會利用我們的數據
來預測我們的未來行為。
03:36
Or when necessary必要,
to influence影響 our future未來 behavior行為
58
204760
2896
或者,在必要時,
影響我們未來的行為,
03:39
so that we act法案 more in accordance按照
with our statistical統計 profiles型材.
59
207680
4040
讓我們的所做所為
更符合他們的統計輪廓。
03:45
The digital數字 economy經濟 --
does it like people?
60
213200
2216
數位經濟——它能像人一樣嗎?
03:47
No, if you have a business商業 plan計劃,
what are you supposed應該 to do?
61
215440
2896
不,若你有個商業計畫,
你該怎麼做?
把所有的人都擺脫掉。
03:50
Get rid擺脫 of all the people.
62
218360
1256
人類要的是健康照護,
他們想要錢,他們想要意義。
03:51
Human人的 beings眾生, they want health健康 care關心,
they want money, they want meaning含義.
63
219640
3400
03:56
You can't scale規模 with people.
64
224360
1880
你無法把「人」規模化的。
03:59
(Laughter笑聲)
65
227360
1456
(笑聲)
04:00
Even our digital數字 apps應用 --
66
228840
1216
即使我們的數位應用程式——
04:02
they don't help us
form形成 any rapport關係 or solidarity團結.
67
230080
3216
它們不會協助我們形成
任何密切關係或團結。
04:05
I mean, where's哪裡 the button按鍵
on the ride hailing歡呼 app應用
68
233320
2416
我是指,在叫車服務應用程式上,
並沒有一個按鈕
能讓司機彼此交談,
04:07
for the drivers司機 to talk to one another另一個
about their working加工 conditions條件
69
235760
3496
談論他們的工作狀況,
或組織工會吧?
04:11
or to unionize工會?
70
239280
1200
04:13
Even our videoconferencing視頻 tools工具,
71
241600
2016
就算是我們的視訊會議工具,
04:15
they don't allow允許 us
to establish建立 real真實 rapport關係.
72
243640
2376
它們也不能讓我們
建立起真正的密切關係。
04:18
However然而 good the resolution解析度 of the video視頻,
73
246040
3336
不論影像的解析度有多好,
04:21
you still can't see if somebody's某人的 irises虹膜
are opening開盤 to really take you in.
74
249400
4016
你仍然無法看到對方的虹膜
是否有打開,真正的關心你。
04:25
All of the things that we've我們已經 doneDONE
to establish建立 rapport關係
75
253440
2576
人類在建立親密關係上做了很多演化,
04:28
that we've我們已經 developed發達 over hundreds數以百計
of thousands數千 of years年份 of evolution演化,
76
256040
3335
這些都是我們數十萬年演化來的,
但根本用不上,你無法看到
對方的呼吸是否與你同步。
04:31
they don't work,
77
259399
1217
04:32
you can't see if someone's誰家 breath呼吸
is syncing同步 up with yours你的.
78
260640
3016
04:35
So the mirror鏡子 neurons神經元 never fire,
the oxytocin催產素 never goes through通過 your body身體,
79
263680
3656
所以鏡像神經元無法興奮起來,
體內也不會有讓人變得親密的催產素,
04:39
you never have that experience經驗
of bonding結合 with the other human人的 being存在.
80
267360
3240
你永遠也不會有與他人
同舟共濟的那種經歷。
04:43
And instead代替, you're left like,
81
271360
1456
反之,你剩下的只有:
04:44
"Well, they agreed約定 with me,
but did they really,
82
272840
2256
「嗯,他們同意我,
但他們真的懂我嗎?」
04:47
did they really get me?"
83
275120
1696
04:48
And we don't blame the technology技術
for that lack缺乏 of fidelity保真度.
84
276840
3376
而且我們不會去怪罪
造成交流失真的科技。
04:52
We blame the other person.
85
280240
1480
反而只會責怪對方。
04:55
You know, even the technologies技術
and the digital數字 initiatives倡議 that we have
86
283320
4056
各位知道嗎,甚至我們現在擁有
用來促進人類情感交流的
科技和主動式數位服務,
04:59
to promote促進 humans人類,
87
287400
2176
05:01
are intensely激烈 anti-human反人類的 at the core核心.
88
289600
2760
其實它們的核心本質
也是非常反人類的。
05:05
Think about the blockchainblockchain.
89
293600
2000
就拿區塊鏈來說吧。
05:08
The blockchainblockchain is here to help us
have a great humanized人性化 economy經濟? No.
90
296520
3616
區塊鏈的目的是要協助我們
有很棒的人性化經濟嗎?不!
05:12
The blockchainblockchain does not engender產生
trust相信 between之間 users用戶,
91
300160
2696
區塊鏈並不能在用戶之間建立信任,
05:14
the blockchainblockchain simply只是
substitutes代用品 for trust相信 in a new,
92
302880
3536
區塊鏈只是用一種新的、
更不透明的方式
取代了用戶間的信任,
05:18
even less transparent透明 way.
93
306440
2000
05:21
Or the code movement運動.
94
309600
1816
或是程式碼運動。
05:23
I mean, education教育 is great,
we love education教育,
95
311440
2176
的確,教育很棒,我們熱愛教育,
05:25
and it's a wonderful精彩 idea理念
96
313640
1456
它是個很美好的想法,
05:27
that we want kids孩子 to be able能夠
to get jobs工作 in the digital數字 future未來,
97
315120
3136
因為我們希望孩子
能在數位未來找到工作,
05:30
so we'll teach them code now.
98
318280
1600
我們現在就教他們寫程式碼。
05:32
But since以來 when is education教育
about getting得到 jobs工作?
99
320640
2480
但從何時開始,教育的目的
變成是要找工作?
05:35
Education教育 wasn't about getting得到 jobs工作.
100
323920
1736
教育不是為了找工作。
05:37
Education教育 was compensation賠償金
for a job工作 well doneDONE.
101
325680
3976
教育是對出色工作的補償。
05:41
The idea理念 of public上市 education教育
102
329680
1576
公眾教育的初衷,談的是
05:43
was for coal煤炭 miners礦工,
who would work in the coal煤炭 mines礦山 all day,
103
331280
3376
整天在礦山工作的煤礦工人們,
05:46
then they'd他們會 come home
and they should have the dignity尊嚴
104
334680
2576
在他們下班回到家後,
能為自己讀本小說
05:49
to be able能夠 to read a novel小說
and understand理解 it.
105
337280
2136
並了解內容而感到自豪。
05:51
Or the intelligence情報 to be able能夠
to participate參加 in democracy民主.
106
339440
2960
或是擁有能夠參與民主的智慧。
05:55
When we make it an extension延期 of the job工作,
what are we really doing?
107
343200
3216
當我們把教育變成是
工作的延伸,這是在幹什麼?
05:58
We're just letting出租 corporations公司 really
108
346440
2536
我們只是讓企業把訓練員工的成本
06:01
externalize外化 the cost成本
of training訓練 their workers工人.
109
349000
3120
給外部化而已。
06:05
And the worst最差 of all really
is the humane人道 technology技術 movement運動.
110
353520
4096
而最糟糕的是人道科技運動。
06:09
I mean, I love these guys,
the former前任的 guys who used to take
111
357640
2816
我很愛這些傢伙,他們以前會
06:12
the algorithms算法 from
Las拉斯維加斯 Vegas拉斯維加斯 slot插槽 machines
112
360480
2936
拿拉斯維加斯
吃角子老虎機的演算法
06:15
and put them in our social社會 media媒體 feed飼料
so that we get addicted上癮.
113
363440
2936
放在我們的社交媒體上,
好讓我們上癮。
06:18
Now they've他們已經 seen看到 the error錯誤 of their ways方法
114
366400
1936
現在,他們已經知道
他們的方式錯了,
06:20
and they want to make
technology技術 more humane人道.
115
368360
2456
所以他們想要讓科技變得更人道化。
06:22
But when I hear the expression表達
"humane人道 technology技術,"
116
370840
2416
但,當我聽到
「人道科技」這個說法時,
06:25
I think about cage-free無籠子
chickens or something.
117
373280
2856
我想到的是放山雞之類的東西。
06:28
We're going to be as humane人道
as possible可能 to them,
118
376160
2256
就像我們把雞送進屠宰場以前,
06:30
until直到 we take them to the slaughter屠宰.
119
378440
1720
會盡可能對雞人道一點。
06:33
So now they're going to let these
technologies技術 be as humane人道 as possible可能,
120
381200
3416
所以,他們現在要讓這些科技
盡可能人道一點,
06:36
as long as they extract提取 enough足夠 data數據
and extract提取 enough足夠 money from us
121
384640
3216
以便從我們身上能源源不斷地
提取足夠的數據和金錢
06:39
to please their shareholders股東.
122
387880
1400
來取悅他們的股東。
06:42
Meanwhile與此同時, the shareholders股東,
for their part部分, they're just thinking思維,
123
390520
3176
同時,就股東方面來說,
他們只是在想:
「我現在需要透過這樣的方式
來賺取足夠的錢,
06:45
"I need to earn enough足夠 money now,
so I can insulate隔離 myself
124
393720
2976
06:48
from the world世界 I'm creating創建
by earning盈利 money in this way."
125
396720
3056
以便我將來能與自己所創的
數位世界隔離開來。」
06:51
(Laughter笑聲)
126
399800
2376
(笑聲)
06:54
No matter how many許多 VRVR goggles風鏡
they slap拍擊 on their faces面孔
127
402200
4056
不論他們在自己臉上戴
多少副虛擬實境眼鏡,
06:58
and whatever隨你 fantasy幻想 world世界 they go into,
128
406280
2256
不論他們進入哪一個奇幻世界,
07:00
they can't externalize外化 the slavery奴隸制度
and pollution污染 that was caused造成
129
408560
3536
他們都不能把製造這個裝置
所造成的奴役和污染給外部化。
07:04
through通過 the manufacture製造
of the very device設備.
130
412120
2976
07:07
It reminds提醒 me of
Thomas托馬斯 Jefferson's杰斐遜 dumbwaiter啞巴.
131
415120
3176
這讓我想起湯瑪斯·傑佛遜的上菜機。
07:10
Now, we like to think
that he made製作 the dumbwaiter啞巴
132
418320
2336
我們傾向於認為傑佛遜製造上菜機
07:12
in order訂購 to spare備用 his slaves奴隸
all that labor勞動 of carrying攜帶 the food餐飲
133
420680
3656
是為了免去他的奴隸
把食物送到餐廳
供人享用的所有勞動。
07:16
up to the dining用餐 room房間
for the people to eat.
134
424360
2776
07:19
That's not what it was for,
it wasn't for the slaves奴隸,
135
427160
2496
但實情並非如此,
那不是為了奴隸們,
那是為了湯瑪斯·傑佛遜
和他的晚餐賓客,
07:21
it was for Thomas托馬斯 Jefferson杰斐遜
and his dinner晚餐 guests賓客,
136
429680
2336
這麼一來他們就不用看見
奴隸把食物送上桌。
07:24
so they didn't have to see the slave奴隸
bringing使 the food餐飲 up.
137
432040
3096
07:27
The food餐飲 just arrived到達 magically神奇,
138
435160
1576
食物會自己神奇地上桌,
07:28
like it was coming未來 out
of a "Start開始 Trek跋涉" replicator複製.
139
436760
3000
好像是從《星艦迷航記》的
複製機生產出來的。
07:32
It's part部分 of an ethos社會思潮 that says,
140
440720
2096
這代表了一種社會思潮:
07:34
human人的 beings眾生 are the problem問題
and technology技術 is the solution.
141
442840
4280
認為人是問題的根本,
科技才是解決方案。
07:40
We can't think that way anymore.
142
448680
2056
我們不能再那樣想了。
07:42
We have to stop using運用 technology技術
to optimize優化 human人的 beings眾生 for the market市場
143
450760
5296
我們必續停止為迎合市場
而使用科技來優化人類,
07:48
and start開始 optimizing優化 technology技術
for the human人的 future未來.
144
456080
5040
而要開始為人類的未來,將科技優化。
07:55
But that's a really hard argument論據
to make these days,
145
463080
2656
但現今,很難建立這樣的共識,
07:57
because humans人類 are not popular流行 beings眾生.
146
465760
4056
因為人類不太受歡迎。
08:01
I talked about this in front面前
of an environmentalist環保人士 just the other day,
147
469840
3376
不久前,我在一位環保人士
面前談到這件事,
她說:「你為什麼要
為人類辯護?人類摧毀了地球。
08:05
and she said, "Why are you
defending衛冕 humans人類?
148
473240
2096
08:07
Humans人類 destroyed銷毀 the planet行星.
They deserve值得 to go extinct絕種."
149
475360
2696
他們本來就活該滅絕。」
08:10
(Laughter笑聲)
150
478080
3456
(笑聲)
08:13
Even our popular流行 media媒體 hates humans人類.
151
481560
2576
連我們的大眾媒體也討厭人類。
08:16
Watch television電視,
152
484160
1256
看看電視就知道,
08:17
all the sci-fi科幻 shows節目 are about how robots機器人
are better and nicer更好 than people.
153
485440
3736
所有科幻節目都在講
機器人比人類好、比人類優秀。
08:21
Even zombie殭屍 shows節目 --
what is every一切 zombie殭屍 show顯示 about?
154
489200
2976
就連殭屍節目也是——
殭屍節目的內容是什麼?
08:24
Some person, looking at the horizon地平線
at some zombie殭屍 going by,
155
492200
3256
有人看著地平線上的殭屍路過,
08:27
and they zoom放大 in on the person
and you see the person's人的 face面對,
156
495480
2896
鏡頭拉近特寫,
你可以看到那個人的臉,
08:30
and you know what they're thinking思維:
157
498400
1736
你會知道他在想什麼:
「殭屍和我之間有什麼差別?
08:32
"What's really the difference區別
between之間 that zombie殭屍 and me?
158
500160
2736
他會行走,我也會行走。
08:34
He walks散步, I walk步行.
159
502920
1536
08:36
He eats, I eat.
160
504480
2016
他會進食,我也會進食。
08:38
He kills殺死, I kill."
161
506520
2280
他在殺戮,我也在殺戮。」
08:42
But he's a zombie殭屍.
162
510360
1536
但他就是個殭屍而已啊,
至少你還能意識到這一點。
08:43
At least最小 you're aware知道的 of it.
163
511920
1416
08:45
If we are actually其實 having trouble麻煩
distinguishing區別 ourselves我們自己 from zombies殭屍,
164
513360
3696
如果我們連區分自己
和殭屍的能力都沒有,
08:49
we have a pretty漂亮 big problem問題 going on.
165
517080
2176
那我們的問題其實蠻大的。
08:51
(Laughter笑聲)
166
519280
1216
(笑聲)
08:52
And don't even get me started開始
on the transhumanists特蘭舒曼尼派.
167
520520
2936
更別讓我談及超人類主義者,
那會沒完沒了。
08:55
I was on a panel面板 with a transhumanist特蘭舒曼斯特,
and he's going on about the singularity奇點.
168
523480
3816
曾與我在同一座談小組的一位
超人類主義者是這樣談論「奇點」:
08:59
"Oh, the day is going to come really soon不久
when computers電腦 are smarter聰明 than people.
169
527320
3856
「喔,電腦比人更聰明的
那一天很快就會到來了。
09:03
And the only option選項
for people at that point
170
531200
2136
到那時,人類唯一的選項
09:05
is to pass通過 the evolutionary發展的 torch火炬
to our successor接班人
171
533360
3336
就是把演化的火把
交給我們的繼任者,
09:08
and fade褪色 into the background背景.
172
536720
1616
然後從背景慢慢淡出。
09:10
Maybe at best最好, upload上載
your consciousness意識 to a silicon chip芯片.
173
538360
3456
也許最好的結局就是把你的意識
上傳到一片矽晶片中。
09:13
And accept接受 your extinction滅絕."
174
541840
1840
而你還必須接受你已滅絕的事實。」
09:16
(Laughter笑聲)
175
544640
1456
(笑聲)
09:18
And I said, "No, human人的 beings眾生 are special特別.
176
546120
3376
我說:「不,人類是特別的。
09:21
We can embrace擁抱 ambiguity歧義,
we understand理解 paradox悖論,
177
549520
3536
我們能接受歧異,理解彼此的論點,
09:25
we're conscious意識,
we're weird奇怪的, we're quirky詭詐的.
178
553080
2616
我們有意識,
我們很怪咖,也很古靈精怪。
09:27
There should be a place地點 for humans人類
in the digital數字 future未來."
179
555720
3336
在數位未來,應該會有
人類的容身之處。」
09:31
And he said, "Oh, Rushkoff拉什科夫,
180
559080
1536
他說:「喔,拉許柯夫,
你會那麼說,是因為你是人類。」
09:32
you're just saying that
because you're a human人的."
181
560640
2296
09:34
(Laughter笑聲)
182
562960
1776
(笑聲)
09:36
As if it's hubris傲慢.
183
564760
1600
且說得很傲慢自大。
09:39
OK, I'm on "Team球隊 Human人的."
184
567280
2800
沒錯,我是「人類戰隊」的一員。
09:43
That was the original原版的 insight眼光
of the digital數字 age年齡.
185
571200
3856
那是數位時代的初衷洞見。
09:47
That being存在 human人的 is a team球隊 sport運動,
186
575080
2216
身為人類是一種團隊運動,
09:49
evolution's進化的 a collaborative共同 act法案.
187
577320
2736
進化是一種集體協作的行為。
09:52
Even the trees樹木 in the forest森林,
188
580080
1416
就連森林中的樹木,
也並非全都相互競爭,
09:53
they're not all in competition競爭
with each other,
189
581520
2216
它們與巨大盤根錯節的
根系及菌類緊密連接著,
09:55
they're connected連接的 with the vast廣大
network網絡 of roots and mushrooms蘑菇
190
583760
3216
09:59
that let them communicate通信 with one another另一個
and pass通過 nutrients營養成分 back and forth向前.
191
587000
4536
讓它們能彼此溝通,彼此傳遞養份。
10:03
If human人的 beings眾生
are the most evolved進化 species種類,
192
591560
2136
如果人類是最高度演化的物種,
10:05
it's because we have the most evolved進化
ways方法 of collaborating合作 and communicating通信.
193
593720
4136
那是因為我們有最高度演化的
合作與溝通方式。
10:09
We have language語言.
194
597880
1496
我們有語言。
10:11
We have technology技術.
195
599400
1240
我們有科技。
10:14
It's funny滑稽, I used to be the guy
who talked about the digital數字 future未來
196
602120
4576
很有趣,我以前扮演的角色
都是在談數位未來,
10:18
for people who hadn't有沒有 yet然而
experienced有經驗的 anything digital數字.
197
606720
2680
說給尚未體驗過任何數位的人聽。
10:22
And now I feel like I'm the last guy
198
610200
1816
現在我覺得我是最後一個
10:24
who remembers記得 what life was like
before digital數字 technology技術.
199
612040
2920
還記得在數位科技出現
之前的生活的人。
10:28
It's not a matter of rejecting拒絕 the digital數字
or rejecting拒絕 the technological技術性.
200
616680
4216
不是要我們排斥數位科技的東西,
10:32
It's a matter of retrieving檢索 the values
that we're in danger危險 of leaving離開 behind背後
201
620920
4096
而是要找回瀕臨被我們拋棄的價值,
10:37
and then embedding嵌入 them in the digital數字
infrastructure基礎設施 for the future未來.
202
625040
3600
並把這些價值嵌入到
未來的數位基礎建設中。
10:41
And that's not rocket火箭 science科學.
203
629880
2296
那並不是多難的科學。
10:44
It's as simple簡單 as making製造 a social社會 network網絡
204
632200
2096
它就和建立社交網路一樣簡單,
10:46
that instead代替 of teaching教學 us
to see people as adversaries對手,
205
634320
3536
它不是教導我們把人視為對手,
10:49
it teaches us to see
our adversaries對手 as people.
206
637880
3000
而是教導我們把對手視為人。
10:54
It means手段 creating創建 an economy經濟
that doesn't favor偏愛 a platform平台 monopoly壟斷
207
642240
4296
這意味著,我們創造的經濟體不應該
只是個期望從人身上
攫取價值的壟斷平台,
10:58
that wants to extract提取 all the value
out of people and places地方,
208
646560
3336
11:01
but one that promotes促進 the circulation循環
of value through通過 a community社區
209
649920
3936
而應是一個透過社群,
促進價值流通的經濟體,
11:05
and allows允許 us to establish建立
platform平台 cooperatives合作社
210
653880
2416
能讓我們建立起
11:08
that distribute分發 ownership所有權
as wide as possible可能.
211
656320
3816
盡可能廣泛分權的合作平台。
11:12
It means手段 building建造 platforms平台
212
660160
1656
這意味著,建立出來的平台
11:13
that don't repress our creativity創造力
and novelty新奇 in the name名稱 of prediction預測
213
661840
4656
並不會以預測之名來抑制
我們創意和新鮮奇性,
11:18
but actually其實 promote促進
creativity創造力 and novelty新奇,
214
666520
2576
而是真正地促進創造力和創新性,
11:21
so that we can come up
with some of the solutions解決方案
215
669120
2336
這樣我們才能想出一些解決方案
11:23
to actually其實 get ourselves我們自己
out of the mess食堂 that we're in.
216
671480
2680
來真正將我們從
現在的困境中解救出來。
11:27
No, instead代替 of trying to earn
enough足夠 money to insulate隔離 ourselves我們自己
217
675440
3056
不,與其盡全力賺取足夠的錢
以脫離我們正在創造的世界,
11:30
from the world世界 we're creating創建,
218
678520
1496
11:32
why don't we spend that time and energy能源
making製造 the world世界 a place地點
219
680040
3056
不如把這些時間和精力
放在把世界變成
11:35
that we don't feel
the need to escape逃逸 from.
220
683120
2040
一個根本不需要逃離的地方?
11:38
There is no escape逃逸,
there is only one thing going on here.
221
686000
3200
完全不用逃離,在這裡
只有一件事情會發生。
11:42
Please, don't leave離開.
222
690680
2120
請不要離開。
11:45
Join加入 us.
223
693640
1360
加入我們。
11:47
We may可能 not be perfect完善,
224
695800
1296
我們可能並不完美,
11:49
but whatever隨你 happens發生,
at least最小 you won't慣於 be alone單獨.
225
697120
2440
但不論發生什麼事,
至少你都不孤單。
11:52
Join加入 "Team球隊 Human人的."
226
700640
1520
加入「人類戰隊」吧。
11:55
Find the others其他.
227
703160
2096
團結其他人。
11:57
Together一起, let's make the future未來
that we always wanted.
228
705280
2960
讓我們攜手共創大家所憧憬的未來。
12:01
Oh, and those tech高科技 billionaires億萬富翁
who wanted to know
229
709560
2496
喔,還有那些科技億萬富翁們,
12:04
how to maintain保持 control控制 of their
security安全 force after the apocalypse啟示,
230
712080
3256
想知道在末日來臨時
如何繼續控制他們的安全人員,
12:07
you know what I told them?
231
715360
1896
各位知道我怎麼回答他們嗎?
12:09
"Start開始 treating治療 those people
with love and respect尊重 right now.
232
717280
4216
「現在就開始
用愛和尊重來對待平常人。
12:13
Maybe you won't慣於 have
an apocalypse啟示 to worry擔心 about."
233
721520
2440
也許令你憂心的世界末日就不會來臨。」
12:16
Thank you.
234
724840
1216
謝謝。
12:18
(Applause掌聲)
235
726080
4440
(掌聲)
Translated by Lilian Chiu
Reviewed by Yi-Fan Yu

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com