ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

丹尼爾薩斯金: 關於未來工作的三項迷思(以及為什麼它們不是真的)

Filmed:
1,519,249 views

「機器會取代人類嗎?」每個有可能會失去工作的人心中都有這個問題。丹尼爾薩斯金正視這個問題以及我們對自動化未來的三項迷思,他建議我們改問另一個問題:當世界上的工作變少或甚至消失時,我們要如何分配財富?
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automation自動化 anxiety焦慮
has been spreading傳播 lately最近,
0
760
3376
近期,自動化焦慮一直在散佈,
00:16
a fear恐懼 that in the future未來,
1
4160
2656
它是種恐懼,害怕在未來
00:18
many許多 jobs工作 will be performed執行 by machines
2
6840
2456
許多工作會由機器來進行,
00:21
rather than human人的 beings眾生,
3
9320
1336
而不是人類,
00:22
given特定 the remarkable卓越 advances進步
that are unfolding展開
4
10680
2936
因為現在已可以看到在人工智慧
00:25
in artificial人造 intelligence情報 and robotics機器人.
5
13640
2776
和機器人學領域的驚人進步。
00:28
What's clear明確 is that
there will be significant重大 change更改.
6
16440
2816
很清楚的一點是,
將來會有顯著的改變。
00:31
What's less clear明確
is what that change更改 will look like.
7
19280
3616
比較不那麼清楚的是,
改變會是什麼樣的。
00:34
My research研究 suggests提示 that the future未來
is both troubling令人不安 and exciting扣人心弦.
8
22920
4936
我的研究指出,未來
既讓人困擾又讓人興奮。
00:39
The threat威脅 of technological技術性
unemployment失業 is real真實,
9
27880
3736
科技造成失業的威脅是真的,
00:43
and yet然而 it's a good problem問題 to have.
10
31640
2056
但,能有這種問題也是件好事。
00:45
And to explain說明
how I came來了 to that conclusion結論,
11
33720
3216
為了解釋我如何得到這個結論,
00:48
I want to confront面對 three myths神話
12
36960
2536
我想要來正視三項迷思,
00:51
that I think are currently目前 obscuring遮蔽
our vision視力 of this automated自動化 future未來.
13
39520
4280
我認為這些迷思
目前遮掩了我們的視線,
讓我們看不清自動化的未來。
00:56
A picture圖片 that we see
on our television電視 screens屏幕,
14
44880
2336
我們在電視上、書中、電影中、
00:59
in books圖書, in films影片, in everyday每天 commentary評論
15
47240
2216
每天的評論中所看到的描繪,
01:01
is one where an army軍隊 of robots機器人
descends下降 on the workplace職場
16
49480
3696
通常是機器人大軍湧入工作場所,
01:05
with one goal目標 in mind心神:
17
53200
1376
心中只有一個目標:
01:06
to displace頂替 human人的 beings眾生 from their work.
18
54600
2496
在工作上取代人類。
01:09
And I call this the Terminator終結者 myth神話.
19
57120
2696
我稱這個想法為「終結者迷思」。
01:11
Yes, machines displace頂替
human人的 beings眾生 from particular特定 tasks任務,
20
59840
3976
是的,在特定的工作任務上,
機器會取代人類,
01:15
but they don't just
substitute替代 for human人的 beings眾生.
21
63840
2256
但它們不會就這樣代替人類。
01:18
They also complement補充 them in other tasks任務,
22
66120
1976
它們在其他工作任務上會補足人類,
01:20
making製造 that work more valuable有價值
and more important重要.
23
68120
3616
讓工作更有價值、更重要。
01:23
Sometimes有時 they complement補充
human人的 beings眾生 directly,
24
71760
3336
有時,它們會直接補足人類,
01:27
making製造 them more productive生產的
or more efficient高效 at a particular特定 task任務.
25
75120
4016
讓人類在特定的工作任務上
能更有生產力或更有效率。
01:31
So a taxi出租車 driver司機 can use a satnav衛星導航 system系統
to navigate導航 on unfamiliar陌生 roads道路.
26
79160
4616
計程車司機在不熟悉的路上
可以用衛星導航系統來協助導航。
01:35
An architect建築師 can use
computer-assisted計算機輔助 design設計 software軟件
27
83800
3336
建築師可以用電腦輔助的設計軟體
01:39
to design設計 bigger,
more complicated複雜 buildings房屋.
28
87160
3096
來設計更大、更複雜的建築物。
01:42
But technological技術性 progress進展 doesn't
just complement補充 human人的 beings眾生 directly.
29
90280
3696
但科技進步並不只會直接補足人類。
01:46
It also complements補充 them indirectly間接,
and it does this in two ways方法.
30
94000
3336
它也會用間接方式補足人類,
間接的方式有兩種。
01:49
The first is if we think
of the economy經濟 as a pie餡餅,
31
97360
3336
第一,如果我們把
經濟想成是一塊派,
01:52
technological技術性 progress進展
makes品牌 the pie餡餅 bigger.
32
100720
2896
科技進步會讓派變更大。
01:55
As productivity生產率 increases增加,
incomes收入 rise上升 and demand需求 grows成長.
33
103640
3856
隨著生產力增加,
收入會增加,需求會成長。
01:59
The British英國的 pie餡餅, for instance,
34
107520
1776
比如,英國的派
02:01
is more than a hundred times
the size尺寸 it was 300 years年份 ago.
35
109320
3960
與三百年前相比,現在超過百倍大。
02:05
And so people displaced流離失所
from tasks任務 in the old pie餡餅
36
113920
3216
在舊派工作被取代的人,
02:09
could find tasks任務 to do
in the new pie餡餅 instead代替.
37
117160
2720
能在新派中找到工作。
02:12
But technological技術性 progress進展
doesn't just make the pie餡餅 bigger.
38
120800
3936
但科技進步並不只會讓派變大。
02:16
It also changes變化
the ingredients配料 in the pie餡餅.
39
124760
2856
它也會改變派的成分原料。
02:19
As time passes通行證, people spend
their income收入 in different不同 ways方法,
40
127640
3456
隨時間演進,人會以
不同的方式花費他們的收入,
02:23
changing改變 how they spread傳播 it
across橫過 existing現有 goods產品,
41
131120
2816
改變既有商品花費上的分配,
02:25
and developing發展 tastes口味
for entirely完全 new goods產品, too.
42
133960
3216
並也會發展出對於全新商品的品味。
02:29
New industries行業 are created創建,
43
137200
1776
新的產業會被創造出來,
02:31
new tasks任務 have to be doneDONE
44
139000
1816
有新的工作任務需要被完成,
02:32
and that means手段 often經常
new roles角色 have to be filled填充.
45
140840
2536
那就意味著有新角色要有人扮演。
02:35
So again, the British英國的 pie餡餅:
46
143400
1496
所以,再回到英國的派:
02:36
300 years年份 ago,
most people worked工作 on farms農場,
47
144920
2976
三百年前,大部分的人在農場工作,
02:39
150 years年份 ago, in factories工廠,
48
147920
2336
一百五十年前,在工廠工作,
02:42
and today今天, most people work in offices辦事處.
49
150280
2856
現今,大部分的人在辦公室工作。
02:45
And once一旦 again, people displaced流離失所
from tasks任務 in the old bit of pie餡餅
50
153160
4056
再提一次,在老派工作被取代的人,
02:49
could tumble下跌 into tasks任務
in the new bit of pie餡餅 instead代替.
51
157240
2800
可能會在新派當中
發現可以做的工作任務。
02:52
Economists經濟學家 call these effects效果
complementarities互補性,
52
160720
3336
經濟學家把這些效應稱為互補性,
02:56
but really that's just a fancy幻想 word
to capture捕獲 the different不同 way
53
164080
3256
但那只是個很炫的詞,其實意思就是
02:59
that technological技術性 progress進展
helps幫助 human人的 beings眾生.
54
167360
3136
科技進步用不同的方式在協助人類。
03:02
Resolving解決 this Terminator終結者 myth神話
55
170520
2096
解開這個終結者迷思之後,
03:04
shows節目 us that there are
two forces軍隊 at play:
56
172640
2336
會發現有兩股力量在運作:
03:07
one, machine substitution代換
that harms危害 workers工人,
57
175000
3536
第一:機器代替,這會傷害到工人,
03:10
but also these complementarities互補性
that do the opposite對面.
58
178560
2880
但也會有第二股力量,
互補性,反而會幫助工人。
03:13
Now the second第二 myth神話,
59
181960
1376
再來,第二項迷思,
03:15
what I call the intelligence情報 myth神話.
60
183360
2280
我稱之為「智慧迷思」。
03:18
What do the tasks任務 of driving主動 a car汽車,
making製造 a medical diagnosis診斷
61
186440
4896
以下這些工作任務:
駕駛一台車、做出醫療診斷,
03:23
and identifying識別 a bird
at a fleeting流年 glimpse一瞥 have in common共同?
62
191360
2920
及快速一瞥就辨識出
一隻鳥,有何共通性?
03:27
Well, these are all tasks任務
that until直到 very recently最近,
63
195280
2976
這些工作任務都是直到最近
03:30
leading領導 economists經濟學家 thought
couldn't不能 readily容易 be automated自動化.
64
198280
3336
仍被經濟學家認為不能
自動化的工作任務。
03:33
And yet然而 today今天, all of these tasks任務
can be automated自動化.
65
201640
3176
然而,現今,所有這些
工作任務都能被自動化。
03:36
You know, all major重大的 car汽車 manufacturers製造商
have driverless無人駕駛 car汽車 programs程式.
66
204840
3496
所有大型汽車製造商都有
無人駕駛汽車的計畫。
03:40
There's countless無數 systems系統 out there
that can diagnose診斷 medical problems問題.
67
208360
3976
外面有數不清的系統
都能夠診斷醫療問題。
03:44
And there's even an app應用
that can identify鑑定 a bird
68
212360
2416
甚至有個應用程式能用來辨識鳥類,
03:46
at a fleeting流年 glimpse一瞥.
69
214800
1200
只要快速一瞥。
03:48
Now, this wasn't simply只是 a case案件 of bad luck運氣
on the part部分 of economists經濟學家.
70
216920
4376
這並不是經濟學家運氣不好的情況。
03:53
They were wrong錯誤,
71
221320
1296
他們錯了,
03:54
and the reason原因 why
they were wrong錯誤 is very important重要.
72
222640
2496
而他們為什麼會錯的原因很重要。
03:57
They've他們已經 fallen墮落 for the intelligence情報 myth神話,
73
225160
2256
他們陷入了智慧迷思中,
03:59
the belief信仰 that machines
have to copy複製 the way
74
227440
2896
相信機器必須要複製人類
04:02
that human人的 beings眾生 think and reason原因
75
230360
2056
思考和推理的方式,
04:04
in order訂購 to outperform跑贏大市 them.
76
232440
1776
才能夠表現得比人類好。
04:06
When these economists經濟學家
were trying to figure數字 out
77
234240
2216
當這些經濟學家在試圖想出
04:08
what tasks任務 machines could not do,
78
236480
1856
機器無法勝任哪些工作任務,
04:10
they imagined想像 the only way
to automate自動化 a task任務
79
238360
2136
他們想像,將工作任務自動化的
04:12
was to sit down with a human人的 being存在,
80
240520
1816
唯一方式就是和人類坐下來,
04:14
get them to explain說明 to you
how it was they performed執行 a task任務,
81
242360
3536
讓人類解釋他們如何執行工作任務,
04:17
and then try and capture捕獲 that explanation說明
82
245920
2656
再試著分析他們的解釋,
04:20
in a set of instructions說明
for a machine to follow跟隨.
83
248600
2776
轉換成一組指令,讓機器照著做。
04:23
This view視圖 was popular流行 in artificial人造
intelligence情報 at one point, too.
84
251400
4176
在人工智慧領域,這種觀點
曾在某個時點很流行過。
04:27
I know this because Richard理查德 Susskind薩斯坎德,
85
255600
2176
我知道這點,因為理查薩斯金,
04:29
who is my dad and my coauthor合著者,
86
257800
2856
他是我爸爸也是我的共同作者,
04:32
wrote his doctorate博士學位 in the 1980s
on artificial人造 intelligence情報 and the law
87
260680
4056
在八〇年代,在牛津大學
寫了一篇關於人工智慧
04:36
at Oxford牛津 University大學,
88
264760
1416
與法律的博士論文,
04:38
and he was part部分 of the vanguard前鋒.
89
266200
1576
他是先鋒部隊之一。
04:39
And with a professor教授 called Phillip菲利普 Capper封口
90
267800
2256
和一位名叫菲利普卡波的教授,
04:42
and a legal法律 publisher出版者 called ButterworthsButterworths,
91
270080
2096
以及一間法律出版社
叫做 Butterworths,
04:44
they produced生成 the world's世界 first
commercially商業 available可得到
92
272200
5896
他們合作製作出了
世界上第一個商業用的
04:50
artificial人造 intelligence情報 system系統 in the law.
93
278120
2776
法律人工智慧系統。
04:52
This was the home screen屏幕 design設計.
94
280920
2616
這是首頁的畫面設計。
04:55
He assures保證 me this was
a cool screen屏幕 design設計 at the time.
95
283560
2696
他向我保證,在當時
這是很酷的畫面設計。
04:58
(Laughter笑聲)
96
286280
1016
(笑聲)
04:59
I've never been entirely完全 convinced相信.
97
287320
1696
我從來沒有被說服。
05:01
He published發表 it
in the form形成 of two floppy軟盤 disks磁盤,
98
289040
2616
他用兩張軟碟片的形式將之出版,
05:03
at a time where floppy軟盤 disks磁盤
genuinely真正的 were floppy軟盤,
99
291680
3536
在那個時代,軟碟片真的是軟的,
05:07
and his approach途徑 was the same相同
as the economists'經濟學家:
100
295240
2336
而他的方式就和經濟學家一樣:
和一名律師坐下來,
05:09
sit down with a lawyer律師,
101
297600
1256
讓她向你解釋如何解決法律問題,
05:10
get her to explain說明 to you
how it was she solved解決了 a legal法律 problem問題,
102
298880
3176
05:14
and then try and capture捕獲 that explanation說明
in a set of rules規則 for a machine to follow跟隨.
103
302080
5376
接著就試著把她的解釋
轉成一組指令給機器執行。
05:19
In economics經濟學, if human人的 beings眾生
could explain說明 themselves他們自己 in this way,
104
307480
3616
在經濟上,如果人類能夠用
這種方式解釋自己做的事,
05:23
the tasks任務 are called routine常規,
and they could be automated自動化.
105
311120
3296
這種工作任務就叫做例行事務,
是可以被自動化的。
05:26
But if human人的 beings眾生
can't explain說明 themselves他們自己,
106
314440
2336
但如果人類無法解釋出怎麼做,
05:28
the tasks任務 are called non-routine非例行,
and they're thought to be out reach達到.
107
316800
4256
這種工作任務叫做非例行事務,
應該是不能自動化的。
05:33
Today今天, that routine-nonroutine常規 nonroutine
distinction分別 is widespread廣泛.
108
321080
3296
現今,將事務區別為例行
與非例行是處處可見的。
05:36
Think how often經常 you hear people say to you
109
324400
2056
想想看,你有多常聽到別人對你說
05:38
machines can only perform演出 tasks任務
that are predictable可預測 or repetitive重複,
110
326480
3256
機器能進行的工作任務
只有可預測的、重覆性的、
05:41
rules-based規則為基礎 or well-defined明確.
111
329760
1896
以規則為基礎的,或定義清楚的。
05:43
Those are all just
different不同 words for routine常規.
112
331680
2936
那些詞只是例行事務的不同說法。
05:46
And go back to those three cases
that I mentioned提到 at the start開始.
113
334640
3976
回到我一開始提到的三個案例。
05:50
Those are all classic經典 cases
of nonroutinenonroutine tasks任務.
114
338640
2896
那些案例是典型的非例行事務。
05:53
Ask a doctor醫生, for instance,
how she makes品牌 a medical diagnosis診斷,
115
341560
2976
比如,去問一位醫生
如何做醫療診斷,
05:56
and she might威力 be able能夠
to give you a few少數 rules規則 of thumb拇指,
116
344560
2656
她可能會給你少數經驗法則,
05:59
but ultimately最終 she'd struggle鬥爭.
117
347240
1656
但最終,她會很掙扎。
06:00
She'd say it requires要求 things like
creativity創造力 and judgment判斷 and intuition直覺.
118
348920
4816
她會說,你還需要創意、
判斷,以及直覺才行。
06:05
And these things are
very difficult to articulate說出,
119
353760
2376
這些東西是很難明確表達的,
06:08
and so it was thought these tasks任務
would be very hard to automate自動化.
120
356160
3096
所以這些工作任務就會
被認為很難自動化。
06:11
If a human人的 being存在 can't explain說明 themselves他們自己,
121
359280
2536
如果人類無法解釋他們自己的做法,
06:13
where on earth地球 do we begin開始
in writing寫作 a set of instructions說明
122
361840
2896
我們究竟要從何開始寫指令
06:16
for a machine to follow跟隨?
123
364760
1200
給機器遵循?
06:18
Thirty三十 years年份 ago, this view視圖 was right,
124
366640
2576
三十年前,這個觀點是對的,
06:21
but today今天 it's looking shaky搖搖欲墜,
125
369240
2136
但現今,它很不穩固,
06:23
and in the future未來
it's simply只是 going to be wrong錯誤.
126
371400
2256
在未來,它將會是錯的。
06:25
Advances進展 in processing處理 power功率,
in data數據 storage存儲 capability能力
127
373680
3256
處理能力、資料儲存容量,
以及演算法設計都在進步,
06:28
and in algorithm算法 design設計
128
376960
1656
06:30
mean that this
routine-nonroutine常規 nonroutine distinction分別
129
378640
2496
這就表示例行與非例行事務間的區別
06:33
is diminishinglydiminishingly useful有用.
130
381160
1736
越來越沒有用了。
06:34
To see this, go back to the case案件
of making製造 a medical diagnosis診斷.
131
382920
3256
要了解這點,我們
回到醫療診斷的案例。
06:38
Earlier in the year,
132
386200
1376
今年早些時候,
06:39
a team球隊 of researchers研究人員 at Stanford斯坦福
announced公佈 they'd他們會 developed發達 a system系統
133
387600
3296
史丹佛的一個研究者團隊
宣佈他們發展出了一個系統,
06:42
which哪一個 can tell you
whether是否 or not a freckle祛斑 is cancerous癌的
134
390920
3056
它能告訴你一個斑點是否為惡性的,
06:46
as accurately準確 as leading領導 dermatologists皮膚科醫生.
135
394000
2680
正確率不輸給頂尖皮膚科醫生。
06:49
How does it work?
136
397280
1256
它怎麼做到的?
06:50
It's not trying to copy複製 the judgment判斷
or the intuition直覺 of a doctor醫生.
137
398560
5296
它並不是嘗試複製
醫生的判斷或是直覺。
06:55
It knows知道 or understands理解
nothing about medicine醫學 at all.
138
403880
3136
它對於醫學是一竅不通。
06:59
Instead代替, it's running賽跑
a pattern模式 recognition承認 algorithm算法
139
407040
2576
反之,它進行的是模式辨識演算法,
07:01
through通過 129,450 past過去 cases,
140
409640
4656
在 129,450 個個案當中,
07:06
hunting狩獵 for similarities相似之處
between之間 those cases
141
414320
3096
獵尋那些個案與欲探究的損害
07:09
and the particular特定 lesion病變 in question.
142
417440
2080
之間有哪些相似性。
07:12
It's performing執行 these tasks任務
in an unhumanunhuman way,
143
420080
3216
它是用非人類的方式
在進行這些工作任務,
07:15
based基於 on the analysis分析
of more possible可能 cases
144
423320
2336
且是以大量案例的分析來當依據,
07:17
than any doctor醫生 could hope希望
to review評論 in their lifetime一生.
145
425680
2616
案例數多到是醫生
一輩子都看不完的。
07:20
It didn't matter that that human人的 being存在,
146
428320
1896
無所謂人類,也就是醫生,
07:22
that doctor醫生, couldn't不能 explain說明
how she'd performed執行 the task任務.
147
430240
2800
是否能解釋她如何進行此工作任務。
07:25
Now, there are those
who dwell upon that the fact事實
148
433640
2336
有些人老是會想著
這些機器被建立時
沒有依循我們的形象。
07:28
that these machines
aren't built內置 in our image圖片.
149
436000
2296
07:30
As an example, take IBM'sIBM的 Watson沃森,
150
438320
2056
以 IBM 的「華生 」為例,
07:32
the supercomputer超級計算機 that went
on the US quiz測驗 show顯示 "Jeopardy危險!" in 2011,
151
440400
4856
那是台超級電腦,2011 年參加
美國的益智節目《危險邊緣》,
07:37
and it beat擊敗 the two
human人的 champions冠軍 at "Jeopardy危險!"
152
445280
3016
在節目中它打敗了兩位人類冠軍。
07:40
The day after it won韓元,
153
448320
1696
它獲勝之後的隔天,
07:42
The Wall Street Journal日誌 ran a piece
by the philosopher哲學家 John約翰 Searle塞爾
154
450040
3296
《華爾街日報》刊了一篇
哲學家約翰希爾勒的文章,
07:45
with the title標題 "Watson沃森
Doesn't Know It Won韓元 on 'Jeopardy'危險!'"
155
453360
3376
標題是〈華生不知道
它自己贏了《危險邊緣》 〉。
07:48
Right, and it's brilliant輝煌, and it's true真正.
156
456760
1976
是的,這篇文章很聰明也沒說錯。
07:50
You know, Watson沃森 didn't
let out a cry of excitement激動.
157
458760
2456
華生並沒有興奮地放聲大叫。
它沒有打電話給它的父母
說它的表現多棒。
07:53
It didn't call up its parents父母
to say what a good job工作 it had doneDONE.
158
461240
3096
它沒有去酒吧喝酒慶祝。
07:56
It didn't go down to the pub酒館 for a drink.
159
464360
2336
07:58
This system系統 wasn't trying to copy複製 the way
that those human人的 contestants參賽者 played發揮,
160
466720
4456
這個系統並沒有試圖複製
那些人類參賽者比賽的方式,
08:03
but it didn't matter.
161
471200
1256
但那無所謂。
08:04
It still outperformed跑贏 them.
162
472480
1976
它仍然表現得比人類好。
08:06
Resolving解決 the intelligence情報 myth神話
163
474480
1576
解開這個智慧迷思之後,
08:08
shows節目 us that our limited有限 understanding理解
about human人的 intelligence情報,
164
476080
3376
看到的是雖然我們對於
人類智慧、對我們如何
08:11
about how we think and reason原因,
165
479480
1896
思考推理的方式了解有限,
08:13
is far less of a constraint約束
on automation自動化 than it was in the past過去.
166
481400
3456
但這個限制對於自動化的影響
已經遠比過去小很多。
08:16
What's more, as we've我們已經 seen看到,
167
484880
1496
此外,如我們所見,
08:18
when these machines
perform演出 tasks任務 differently不同 to human人的 beings眾生,
168
486400
3416
當這些機器用和人類不同的
方式來執行工作任務時,
08:21
there's no reason原因 to think
169
489840
1256
沒有理由認為
08:23
that what human人的 beings眾生
are currently目前 capable of doing
170
491120
2536
人類目前能夠做到的事
08:25
represents代表 any sort分類 of summit首腦
171
493680
1456
就代表了一種上限,
08:27
in what these machines
might威力 be capable of doing in the future未來.
172
495160
3000
在未來機器能夠達成的事
都不可能超過這個上限。
08:31
Now the third第三 myth神話,
173
499040
1256
第三項迷思,
08:32
what I call the superiority優勢 myth神話.
174
500320
2456
我稱之為優越迷思。
08:34
It's often經常 said that those who forget忘記
175
502800
2216
常見的說法是,有些人會
08:37
about the helpful有幫助 side
of technological技術性 progress進展,
176
505040
2456
忘記了科技進步的幫助面,
08:39
those complementarities互補性 from before,
177
507520
2496
忘記過去的互補性,
08:42
are committing提交 something
known已知 as the lump of labor勞動 fallacy謬論.
178
510040
3040
這些人所犯的,就是
所謂的「勞動總合謬誤」。
08:45
Now, the problem問題 is
the lump of labor勞動 fallacy謬論
179
513840
2295
問題是,勞動總合謬誤本身
08:48
is itself本身 a fallacy謬論,
180
516159
1496
就是個謬誤,
08:49
and I call this the lump
of labor勞動 fallacy謬論 fallacy謬論,
181
517679
2937
我把它稱為
「勞動總合謬誤的謬誤」,
08:52
or LOLFFLOLFF, for short.
182
520640
2320
簡寫為「LOLFF」。
08:56
Let me explain說明.
183
524000
1416
讓我解釋一下。
08:57
The lump of labor勞動 fallacy謬論
is a very old idea理念.
184
525440
2136
勞動總合謬誤是個很古老的想法。
08:59
It was a British英國的 economist經濟學家, David大衛 Schloss城堡,
who gave it this name名稱 in 1892.
185
527600
4216
這個名稱是 1892 年由英國
經濟學家大衛許洛斯取的。
09:03
He was puzzled困惑
to come across橫過 a dock碼頭 worker工人
186
531840
2816
有件事讓他百思不解,
他遇到一個碼頭工人,
09:06
who had begun開始 to use
a machine to make washers墊圈,
187
534680
2336
這個工人開始用機器來製造墊圈,
09:09
the small metal金屬 discs光盤
that fasten on the end結束 of screws螺絲.
188
537040
3320
墊圈是小型的金屬圓盤,
固定在螺絲底端。
09:13
And this dock碼頭 worker工人
felt guilty有罪 for being存在 more productive生產的.
189
541000
3760
這個碼頭工人對於自己的
高生產力有罪惡感。
09:17
Now, most of the time,
we expect期望 the opposite對面,
190
545560
2176
通常,我們預期的是相反的反應,
生產力不高才會讓人感到罪惡,
09:19
that people feel guilty有罪
for being存在 unproductive非生產性,
191
547760
2216
你知道的,工作時
花太多時間滑臉書或推特。
09:22
you know, a little too much time
on FacebookFacebook的 or Twitter推特 at work.
192
550000
3016
但這個工人對於
太有生產力感到罪惡,
09:25
But this worker工人 felt guilty有罪
for being存在 more productive生產的,
193
553040
2536
問他原因,他說:「我知道我做錯了。
09:27
and asked why, he said,
"I know I'm doing wrong錯誤.
194
555600
2296
09:29
I'm taking服用 away the work of another另一個 man."
195
557920
2040
我搶走了另一個人的工作。」
09:32
In his mind心神, there was
some fixed固定 lump of work
196
560760
2976
在他的認知中,勞動總合是固定的,
09:35
to be divided分為 up between之間 him and his pals哥兒們,
197
563760
2136
要由他和他的伙伴來分攤,
09:37
so that if he used
this machine to do more,
198
565920
2056
所以如果他用機器多做一點,
09:40
there'd這紅色 be less left for his pals哥兒們 to do.
199
568000
2016
他伙伴能做的就變少了。
09:42
Schloss城堡 saw the mistake錯誤.
200
570040
1856
許洛斯看到了這個錯誤。
09:43
The lump of work wasn't fixed固定.
201
571920
1856
勞動總合並不是固定的。
09:45
As this worker工人 used the machine
and became成為 more productive生產的,
202
573800
2816
當這個工人用機器提高生產力,
09:48
the price價錢 of washers墊圈 would fall秋季,
demand需求 for washers墊圈 would rise上升,
203
576640
2976
墊圈的價格會下降,
對墊圈的需求會提高,
09:51
more washers墊圈 would have to be made製作,
204
579640
1696
就得要做出更多的墊圈,
09:53
and there'd這紅色 be more work
for his pals哥兒們 to do.
205
581360
2096
他的伙伴反而會有更多要做。
09:55
The lump of work would get bigger.
206
583480
1696
勞動總合變更大了。
09:57
Schloss城堡 called this
"the lump of labor勞動 fallacy謬論."
207
585200
2680
許洛斯稱之為「勞動總合謬誤」。
10:00
And today今天 you hear people talk
about the lump of labor勞動 fallacy謬論
208
588560
2936
現今,在思考有各類工作的未來時,
會聽到人們談到勞動總合謬誤。
10:03
to think about the future未來
of all types類型 of work.
209
591520
2216
沒有固定的勞動總合
10:05
There's no fixed固定 lump of work
out there to be divided分為 up
210
593760
2656
要讓人類與機器瓜分。
10:08
between之間 people and machines.
211
596440
1376
是的,機器會取代人類,
讓原本的勞動總合變少,
10:09
Yes, machines substitute替代 for human人的 beings眾生,
making製造 the original原版的 lump of work smaller,
212
597840
4656
10:14
but they also complement補充 human人的 beings眾生,
213
602520
1856
但它們也會補足人類,
10:16
and the lump of work
gets得到 bigger and changes變化.
214
604400
2096
勞動總合會變更大並且改變。
10:19
But LOLFFLOLFF.
215
607760
1616
但,LOLFF。
10:21
Here's這裡的 the mistake錯誤:
216
609400
1376
錯誤是這樣的:
10:22
it's right to think
that technological技術性 progress進展
217
610800
2216
認為科技進步會讓
要做的勞動總合變大,
10:25
makes品牌 the lump of work to be doneDONE bigger.
218
613040
1976
這點是沒錯的。
有些工作任務變得較有價值。
有新工作任務需要完成。
10:27
Some tasks任務 become成為 more valuable有價值.
New tasks任務 have to be doneDONE.
219
615040
3016
10:30
But it's wrong錯誤 to think that necessarily一定,
220
618080
2536
錯的地方在於,認為安排人類
10:32
human人的 beings眾生 will be best最好 placed放置
to perform演出 those tasks任務.
221
620640
3256
來做那些工作任務一定是最好的。
10:35
And this is the superiority優勢 myth神話.
222
623920
1616
這就是優越迷思。
10:37
Yes, the lump of work
might威力 get bigger and change更改,
223
625560
3416
是的,勞動總量可能
會變大也會改變,
10:41
but as machines become成為 more capable,
224
629000
1976
但隨著機器變得更有能力,
10:43
it's likely容易 that they'll他們會 take on
the extra額外 lump of work themselves他們自己.
225
631000
3896
很有可能它們會自己去接下
那些額外的勞動總量。
10:46
Technological技術性 progress進展,
rather than complement補充 human人的 beings眾生,
226
634920
3256
科技進步就不是在補足人類了,
10:50
complements補充 machines instead代替.
227
638200
1880
反而是補足機器。
10:52
To see this, go back
to the task任務 of driving主動 a car汽車.
228
640920
3016
可以回頭看駕駛汽車的
工作任務來了解這點。
10:55
Today今天, satnav衛星導航 systems系統
directly complement補充 human人的 beings眾生.
229
643960
4096
現今,衛星導航系統直接補足人類。
11:00
They make some
human人的 beings眾生 better drivers司機.
230
648080
2280
它讓一些人類變成更好的駕駛。
11:02
But in the future未來,
231
650920
1256
但在未來,
軟體會取代坐在駕駛座上的人類,
11:04
software軟件 is going to displace頂替
human人的 beings眾生 from the driving主動 seat座位,
232
652200
3096
這些衛星導航系統
就不是在補足人類了,
11:07
and these satnav衛星導航 systems系統,
rather than complement補充 human人的 beings眾生,
233
655320
2936
而單純就是在讓這些
無人駕駛汽車更有效率,
11:10
will simply只是 make these
driverless無人駕駛 cars汽車 more efficient高效,
234
658280
2536
11:12
helping幫助 the machines instead代替.
235
660840
1536
改而協助機器。
11:14
Or go to those indirect間接 complementarities互補性
that I mentioned提到 as well.
236
662400
4056
或也可以回到
我剛提過的間接互補性。
11:18
The economic經濟 pie餡餅 may可能 get larger,
237
666480
1776
經濟的派可能會變更大,
11:20
but as machines become成為 more capable,
238
668280
1736
但隨著機器更有能力,
11:22
it's possible可能 that any new demand需求
will fall秋季 on goods產品 that machines,
239
670040
3143
有可能所有符合新需求的商品都適合
由機器而不是由人類來製造。
11:25
rather than human人的 beings眾生,
are best最好 placed放置 to produce生產.
240
673207
2649
11:27
The economic經濟 pie餡餅 may可能 change更改,
241
675880
1896
經濟的派可能會改變,
11:29
but as machines become成為 more capable,
242
677800
1896
但隨著機器變得更有能力,
11:31
it's possible可能 that they'll他們會 be best最好 placed放置
to do the new tasks任務 that have to be doneDONE.
243
679720
4856
有可能它們最適合運用在
新工作任務中,那些必須解決的事。
11:36
In short, demand需求 for tasks任務
isn't demand需求 for human人的 labor勞動.
244
684600
3696
簡言之,對工作任務的需求
並非對人類勞動力的需求。
11:40
Human人的 beings眾生 only stand to benefit效益
245
688320
1936
人類只有在仍然能支配
11:42
if they retain保留 the upper hand
in all these complemented補充 tasks任務,
246
690280
3816
這些補足性工作任務的
情況下才有可能受益,
11:46
but as machines become成為 more capable,
that becomes less likely容易.
247
694120
3720
但隨著機器變得更有能力,
那就更不可能發生。
11:50
So what do these three myths神話 tell us then?
248
698760
2016
所以,這三項迷思告訴我們什麼?
11:52
Well, resolving解析 the Terminator終結者 myth神話
249
700800
1696
解開終結者迷思之後,
11:54
shows節目 us that the future未來 of work depends依靠
upon this balance平衡 between之間 two forces軍隊:
250
702520
3696
我們知道工作的未來還要
仰賴兩股力量間的平衡:
11:58
one, machine substitution代換
that harms危害 workers工人
251
706240
3136
第一:機器代替,這會傷害到工人,
12:01
but also those complementarities互補性
that do the opposite對面.
252
709400
2576
但也會有第二股力量,
互補性,反而會幫助工人。
12:04
And until直到 now, this balance平衡
has fallen墮落 in favor偏愛 of human人的 beings眾生.
253
712000
4040
直到目前,這平衡是對人類有利的。
12:09
But resolving解析 the intelligence情報 myth神話
254
717120
1736
但解開了智慧迷思之後,
12:10
shows節目 us that that first force,
machine substitution代換,
255
718880
2496
我們知道,第一股力量,機器代替,
12:13
is gathering蒐集 strength強度.
256
721400
1296
正在聚集實力。
12:14
Machines, of course課程, can't do everything,
257
722720
1976
當然,機器並非什麼都能做,
12:16
but they can do far more,
258
724720
1256
但它們能做的很多,
12:18
encroaching攻城掠地 ever deeper更深 into the realm領域
of tasks任務 performed執行 by human人的 beings眾生.
259
726000
4576
能更深進入到人類所進行之
工作任務的領域中。
12:22
What's more, there's no reason原因 to think
260
730600
1896
此外,沒有理由去認為
12:24
that what human人的 beings眾生
are currently目前 capable of
261
732520
2216
人類目前已經能做到的事,
12:26
represents代表 any sort分類 of finishing精加工 line,
262
734760
1856
就表示是某種終點線,
12:28
that machines are going
to draw to a polite有禮貌 stop
263
736640
2256
等到機器和我們一樣有能力時
就會禮貌地在終點線前停下來。
12:30
once一旦 they're as capable as us.
264
738920
1816
12:32
Now, none沒有 of this matters事項
265
740760
1536
這些都無所謂,
12:34
so long as those helpful有幫助
winds of complementarity互補性
266
742320
2816
只要機器和人類在工作上
能相得益彰就好。
12:37
blow打擊 firmly牢牢 enough足夠,
267
745160
1736
12:38
but resolving解析 the superiority優勢 myth神話
268
746920
1936
但解開了優越迷思之後,
12:40
shows節目 us that that process處理
of task任務 encroachment侵犯
269
748880
3096
我們了解到,工作任務侵佔的過程
12:44
not only strengthens強化劑
the force of machine substitution代換,
270
752000
3936
不僅是強化了機器代替的那股力量,
12:47
but it wears穿 down
those helpful有幫助 complementarities互補性 too.
271
755960
3336
也會耗損那些有助益的互補性。
12:51
Bring帶來 these three myths神話 together一起
272
759320
1936
把這三項迷思結合起來,
12:53
and I think we can capture捕獲 a glimpse一瞥
of that troubling令人不安 future未來.
273
761280
2936
我想,我們就能對
讓人困擾的未來有點概念。
12:56
Machines continue繼續 to become成為 more capable,
274
764240
2016
機器持續變得更有能力,
12:58
encroaching攻城掠地 ever deeper更深
on tasks任務 performed執行 by human人的 beings眾生,
275
766280
3656
比以前更深入人類進行的工作任務,
13:01
strengthening強化 the force
of machine substitution代換,
276
769960
2576
強化機器代替的那股力量,
13:04
weakening弱化 the force
of machine complementarity互補性.
277
772560
3616
弱化機器互補性的那股力量。
13:08
And at some point, that balance平衡
falls下降 in favor偏愛 of machines
278
776200
4296
在某個時點,那平衡
會變得對機器有利,
13:12
rather than human人的 beings眾生.
279
780520
2056
而非人類。
13:14
This is the path路徑 we're currently目前 on.
280
782600
1736
我們目前就在這條路上。
13:16
I say "path路徑" deliberately故意,
because I don't think we're there yet然而,
281
784360
3176
我刻意用「路」這個字,
因為我們還沒有到達那裡,
13:19
but it is hard to avoid避免 the conclusion結論
that this is our direction方向 of travel旅行.
282
787560
3640
但無可避免,結論會是:
這就是我們行進的方向。
13:24
That's the troubling令人不安 part部分.
283
792640
1456
那是讓人困擾的部分。
13:26
Let me say now why I think actually其實
this is a good problem問題 to have.
284
794120
3520
現在讓我說明為什麼我認為
有這個問題是件好事。
13:30
For most of human人的 history歷史,
one economic經濟 problem問題 has dominated佔主導地位:
285
798520
3536
大部分的人類歷史中,
主導的都是這一個經濟問題:
13:34
how to make the economic經濟 pie餡餅
large enough足夠 for everyone大家 to live生活 on.
286
802080
4056
如何讓經濟的派夠大,
確保每個人都得以維生。
13:38
Go back to the turn
of the first century世紀 AD廣告,
287
806160
2176
回到西元一世紀,
13:40
and if you took the global全球 economic經濟 pie餡餅
288
808360
2096
如果用全球的派當作例子,
13:42
and divided分為 it up into equal等於 slices
for everyone大家 in the world世界,
289
810480
3296
將它切成相同的等分,
分給全世界的人,
13:45
everyone大家 would get a few少數 hundred dollars美元.
290
813800
2136
每個人可能得到幾百美元。
13:47
Almost幾乎 everyone大家 lived生活
on or around the poverty貧窮 line.
291
815960
2760
幾乎每個人都是在
貧窮水平線上下過生活。
13:51
And if you roll forward前鋒 a thousand years年份,
292
819320
2176
如果你再向前轉一千年,
13:53
roughly大致 the same相同 is true真正.
293
821520
1240
大致上也是一樣的。
13:55
But in the last few少數 hundred years年份,
economic經濟 growth發展 has taken採取 off.
294
823680
3576
但在過去幾百年間,經濟成長起飛。
13:59
Those economic經濟 pies餡餅 have exploded爆炸 in size尺寸.
295
827280
2376
這些經濟的派在尺寸上都爆增。
14:01
Global全球 GDPGDP per head,
296
829680
2056
全球的人均生產總值,
14:03
the value of those individual個人
slices of the pie餡餅 today今天,
297
831760
3376
也就是現今每個人分到的那片派,
14:07
they're about 10,150 dollars美元.
298
835160
2816
價值約 10,150 美元。
14:10
If economic經濟 growth發展 continues繼續
at two percent百分,
299
838000
2696
如果經濟成長率維持 2%,
14:12
our children孩子 will be twice兩次 as rich豐富 as us.
300
840720
2056
我們的孩子會比我們富有兩倍。
14:14
If it continues繼續
at a more measly可憐的 one percent百分,
301
842800
2296
如果成長率低一點,維持在 1%,
14:17
our grandchildren孫子
will be twice兩次 as rich豐富 as us.
302
845120
2656
我們的孫子會比我們富有兩倍。
14:19
By and large, we've我們已經 solved解決了
that traditional傳統 economic經濟 problem問題.
303
847800
3680
總的來說,我們解決了
傳統的經濟問題。
14:24
Now, technological技術性 unemployment失業,
if it does happen發生,
304
852200
3016
如果真的因為科技進步而造成失業,
14:27
in a strange奇怪 way will be
a symptom症狀 of that success成功,
305
855240
3216
從一種奇怪的角度來看,
那會是一種成功的象徵,
14:30
will have solved解決了 one problem問題 --
how to make the pie餡餅 bigger --
306
858480
3856
它能夠解決一個問題
──如何讓派變大──
14:34
but replaced更換 it with another另一個 --
307
862360
1816
但卻用另一個問題取代它──
14:36
how to make sure
that everyone大家 gets得到 a slice.
308
864200
2760
如何確保每個人得到一片派。
14:39
As other economists經濟學家 have noted注意,
solving this problem問題 won't慣於 be easy簡單.
309
867840
3496
如其他經濟學家注意到的,
解決這個問題並不容易。
14:43
Today今天, for most people,
310
871360
1656
現今,對大部分人而言,
14:45
their job工作 is their seat座位
at the economic經濟 dinner晚餐 table,
311
873040
2496
他們的工作就是在
經濟晚餐餐桌上的席位,
14:47
and in a world世界 with less work
or even without work,
312
875560
2416
在一個更少或甚至沒工作的世界裡,
14:50
it won't慣於 be clear明確
how they get their slice.
313
878000
2056
沒人知道他們如何得到自己的那片派。
14:52
There's a great deal合同
of discussion討論, for instance,
314
880080
2336
比如,有很多的討論都是
14:54
about various各個 forms形式
of universal普遍 basic基本 income收入
315
882440
2696
關於全體基本收入的各種形式,
14:57
as one possible可能 approach途徑,
316
885160
1216
這是種可能的方式,
14:58
and there's trials試驗 underway進行
317
886400
1616
且在美國、芬蘭,
15:00
in the United聯合的 States狀態
and in Finland芬蘭 and in Kenya肯尼亞.
318
888040
2400
及肯亞都有試驗正在進行中。
15:03
And this is the collective集體 challenge挑戰
that's right in front面前 of us,
319
891000
3176
這是我們要面臨的集體挑戰,
15:06
to figure數字 out how this material材料 prosperity繁榮
generated產生 by our economic經濟 system系統
320
894200
5056
要想出我們的經濟體制
所產生出的物質繁榮要如何
15:11
can be enjoyed享受 by everyone大家
321
899280
1976
讓每個人都享受到,
15:13
in a world世界 in which哪一個
our traditional傳統 mechanism機制
322
901280
2416
而且在這個世界中,
我們的傳統切派機制,
15:15
for slicing切片 up the pie餡餅,
323
903720
1856
15:17
the work that people do,
324
905600
1936
瓜分人們所做的工作的機制,
15:19
withers威瑟斯 away and perhaps也許 disappears消失.
325
907560
2160
在衰弱且也許在消失中。
15:22
Solving解決 this problem問題 is going to require要求
us to think in very different不同 ways方法.
326
910280
4360
若要解決這個問題,我們
得要用很不同的方式思考。
15:27
There's going to be a lot of disagreement異議
about what ought應該 to be doneDONE,
327
915400
4176
對於該做什麼事,
必定會有很多異議,
15:31
but it's important重要 to remember記得
that this is a far better problem問題 to have
328
919600
3416
但很重要的是要記住,
有這個問題其實算好事,
15:35
than the one that haunted鬧鬼
our ancestors祖先 for centuries百年:
329
923040
2816
比我們的祖先煩惱了
幾世紀的問題要好多了,
15:37
how to make that pie餡餅
big enough足夠 in the first place地點.
330
925880
3376
他們煩惱的是:
一開始要如何讓派變大。
15:41
Thank you very much.
331
929280
1256
非常謝謝各位。
15:42
(Applause掌聲)
332
930560
3840
(掌聲)
Translated by Lilian Chiu
Reviewed by Dawson Chen

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com