ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

다니엘 서스킨드(Daniel Susskind): 직업의 미래에 대한 세 가지 미신 (그리고 그것이 사실이 아닌 이유)

Filmed:
1,519,249 views

"기계가 인간을 대체할 것인가?"라는 질문은 실업의 두려움을 느끼는 직장인이라면 누구나 갖고 있습니다. 다니엘 서스킨드는 이 질문에 답하면서 자동화의 미래에 대해 우리가 갖고 있는 세 가지 잘못된 통념을 지적합니다. 그리고 "일을 적게 해도 되거나 아예 할 필요가 없어질 때, 우리 사회는 부를 어떻게 분배해야 할까?"라는 이전과 다른 문제에 의문을 가져보라고 제안합니다.
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automation오토메이션 anxiety걱정
has been spreading퍼짐 lately최근,
0
760
3376
최근들어 자동화에 대한
우려의 목소리가 커지고 있습니다.
00:16
a fear무서움 that in the future미래,
1
4160
2656
미래에 대한 두려움이죠.
00:18
many많은 jobs일자리 will be performed수행 한 by machines기계들
2
6840
2456
많은 직업 분야에서 로봇이
인간을 대체하게 될 것이고
00:21
rather차라리 than human인간의 beings존재들,
3
9320
1336
00:22
given주어진 the remarkable주목할 만한 advances발전하다
that are unfolding펼쳐지는
4
10680
2936
그것은 인공지능과 로봇 기술의
엄청난 발전 때문이라는 것입니다.
00:25
in artificial인공의 intelligence지성 and robotics로봇 공학.
5
13640
2776
00:28
What's clear명확한 is that
there will be significant중요한 change변화.
6
16440
2816
엄청난 변화가 있을 것은 분명합니다.
00:31
What's less적게 clear명확한
is what that change변화 will look like.
7
19280
3616
다만 그 변화의 모습이
어떨지는 분명하지 않죠.
00:34
My research연구 suggests제안 that the future미래
is both양자 모두 troubling문제가되는 and exciting흥미 진진한.
8
22920
4936
제 연구에 따르면 미래는
힘들지만 흥미로울 것입니다.
00:39
The threat위협 of technological기술적 인
unemployment실업 is real레알,
9
27880
3736
기술 발전으로 인해
직장을 잃을 위험은 있지만,
00:43
and yet아직 it's a good problem문제 to have.
10
31640
2056
이 문제는 우리에게 즐거운 일입니다.
00:45
And to explain설명
how I came왔다 to that conclusion결론,
11
33720
3216
어떻게 이런 결론을 얻었는지
말씀드리기 위해서
00:48
I want to confront대치하다 three myths신화
12
36960
2536
세 가지 미신을 반박하고자 합니다.
00:51
that I think are currently현재 obscuring애매한
our vision시력 of this automated자동화 된 future미래.
13
39520
4280
자동화의 미래를 이해하는 데에
걸림돌이 되는 미신들이죠.
00:56
A picture그림 that we see
on our television텔레비전 screens스크린,
14
44880
2336
책이나 영화, 텔레비전 방송에서
쉽게 볼 수 있는 장면이 하나 있죠.
00:59
in books서적, in films영화, in everyday매일 commentary해설
15
47240
2216
01:01
is one where an army육군 of robots로봇
descends강하하다 on the workplace직장
16
49480
3696
한 무리의 로봇이 작업장에 몰려듭니다.
01:05
with one goal in mind마음:
17
53200
1376
그들에겐 한 가지 목표가 있죠.
01:06
to displace바꾸어 놓다 human인간의 beings존재들 from their그들의 work.
18
54600
2496
그것은 바로 인간의 일자리를
빼앗겠다는 것입니다.
01:09
And I call this the Terminator터미네이터 myth신화.
19
57120
2696
이런 잘못된 생각을 저는
터미네이터 미신이라고 부릅니다.
01:11
Yes, machines기계들 displace바꾸어 놓다
human인간의 beings존재들 from particular특별한 tasks과제,
20
59840
3976
물론, 특정 업무는 기계가
인간을 대체할 것입니다.
01:15
but they don't just
substitute대용품 for human인간의 beings존재들.
21
63840
2256
하지만 완전히 인간을 대신할 순 없죠.
01:18
They also또한 complement보어 them in other tasks과제,
22
66120
1976
일부분 서로 보완함으로써
보다 가치있고 중요한 일을
할 수 있을 것입니다.
01:20
making만들기 that work more valuable가치 있는
and more important중대한.
23
68120
3616
01:23
Sometimes때때로 they complement보어
human인간의 beings존재들 directly직접,
24
71760
3336
우선 로봇은 직접적인 방식으로
인간을 도울 수 있습니다.
01:27
making만들기 them more productive생산적인
or more efficient실력 있는 at a particular특별한 task태스크.
25
75120
4016
더 생산적이고 효과적으로
일할 수 있도록 말이죠.
01:31
So a taxi택시 driver운전사 can use a satnavsatnav system체계
to navigate항해하다 on unfamiliar생소한 roads도로.
26
79160
4616
택시 운전사는 위성항법의 도움으로
낯선 도로에서 길을 찾을 수 있습니다.
01:35
An architect건축가 can use
computer-assisted컴퓨터 보조 design디자인 software소프트웨어
27
83800
3336
건축가는 컴퓨터 디자인
프로그램을 이용해
01:39
to design디자인 bigger더 큰,
more complicated복잡한 buildings건물.
28
87160
3096
더 크고 복잡한 건물을
디자인할 수 있습니다.
01:42
But technological기술적 인 progress진행 doesn't
just complement보어 human인간의 beings존재들 directly직접.
29
90280
3696
하지만 기술의 진보가 직접적 방식으로만
인간을 돕는 것은 아닙니다.
01:46
It also또한 complements보완 them indirectly간접적으로,
and it does this in two ways.
30
94000
3336
간접적 방식으로 도울 수도 있죠.
여기엔 두 가지 방식이 있습니다.
01:49
The first is if we think
of the economy경제 as a pie파이,
31
97360
3336
첫 번째로, 경제를 파이에 비유해보면
01:52
technological기술적 인 progress진행
makes~을 만든다 the pie파이 bigger더 큰.
32
100720
2896
기술의 진보는
파이를 더 크게 만듭니다.
01:55
As productivity생산력 increases증가,
incomes소득 rise오르기 and demand수요 grows자라다.
33
103640
3856
생산성이 커지면서
소득과 수요가 증가하죠.
01:59
The British영국인 pie파이, for instance,
34
107520
1776
영국의 경제를 예로 들면
02:01
is more than a hundred times타임스
the size크기 it was 300 years연령 ago...전에.
35
109320
3960
3백년 전보다 100배 넘게
성장했습니다.
02:05
And so people displaced실향민
from tasks과제 in the old늙은 pie파이
36
113920
3216
그래서 예전 파이에서
일자리를 잃은 사람들은
02:09
could find tasks과제 to do
in the new새로운 pie파이 instead대신에.
37
117160
2720
새로운 파이에서 일거리를
새로 찾을 수 있었죠.
02:12
But technological기술적 인 progress진행
doesn't just make the pie파이 bigger더 큰.
38
120800
3936
하지만 기술의 진보는 단순히
파이를 크게만 하지 않습니다.
02:16
It also또한 changes변화들
the ingredients성분 in the pie파이.
39
124760
2856
파이의 성분 또한 바꿔 놓습니다.
02:19
As time passes통과, people spend보내
their그들의 income수입 in different다른 ways,
40
127640
3456
시간이 흐르면서 사람들의
소비 방식이 변화했습니다.
02:23
changing작고 보기 흉한 사람 how they spread전파 it
across건너서 existing기존의 goods상품,
41
131120
2816
기존 상품에 지출하는
금액을 조절하고,
02:25
and developing개발 중 tastes취향
for entirely전적으로 new새로운 goods상품, too.
42
133960
3216
새롭게 등장한 상품에
빠지기 시작했죠.
02:29
New새로운 industries산업 are created만들어진,
43
137200
1776
새로운 산업이 등장하고,
새로운 업무가 생겼습니다.
02:31
new새로운 tasks과제 have to be done끝난
44
139000
1816
02:32
and that means방법 often자주
new새로운 roles역할 have to be filled채우는.
45
140840
2536
결국 새로운 일자리가
만들어진다는 것이죠.
02:35
So again, the British영국인 pie파이:
46
143400
1496
다시 영국 경제를 예로 들면,
02:36
300 years연령 ago...전에,
most가장 people worked일한 on farms전원,
47
144920
2976
3백년 전에는 대부분
농장에서 일했습니다.
02:39
150 years연령 ago...전에, in factories공장,
48
147920
2336
150년 전에는 공장에서 일했죠.
02:42
and today오늘, most가장 people work in offices진력.
49
150280
2856
하지만 지금은 대부분이
사무실에서 일합니다.
02:45
And once일단 again, people displaced실향민
from tasks과제 in the old늙은 bit비트 of pie파이
50
153160
4056
역시 마찬가지로, 예전 파이에서
일거리를 잃은 사람들은
02:49
could tumble공중제비 into tasks과제
in the new새로운 bit비트 of pie파이 instead대신에.
51
157240
2800
새로운 파이에서 대신할 만한
일거리를 쉽게 찾을 수 있었죠.
02:52
Economists경제학자 call these effects효과
complementaritiescomplementarities,
52
160720
3336
경제학자들은 이를
'상보성 효과'라고 부릅니다.
02:56
but really that's just a fancy공상 word워드
to capture포착 the different다른 way
53
164080
3256
뭔가 있어보이는 표현이지만,
이 용어에 담긴 뜻은
02:59
that technological기술적 인 progress진행
helps도움이된다. human인간의 beings존재들.
54
167360
3136
기술의 진보가 인간을
돕는다는 걸 말합니다.
03:02
Resolving해결 this Terminator터미네이터 myth신화
55
170520
2096
터미네이터 미신을 들여다보면
03:04
shows us that there are
two forces at play놀이:
56
172640
2336
거기에 작용하는
두 가지 힘을 발견하게 됩니다.
03:07
one, machine기계 substitution치환
that harms해악 workers노동자,
57
175000
3536
하나는, 기계가 인간을
대신하려 위협하는 힘이고
03:10
but also또한 these complementaritiescomplementarities
that do the opposite반대말.
58
178560
2880
다른 하나는 상보성 효과로
새로운 일자리를 만드는 힘입니다.
03:13
Now the second둘째 myth신화,
59
181960
1376
이제 두 번째 미신을 살펴보죠.
바로, 지능에 관한 미신입니다.
03:15
what I call the intelligence지성 myth신화.
60
183360
2280
03:18
What do the tasks과제 of driving운전 a car,
making만들기 a medical의료 diagnosis진단
61
186440
4896
차를 운전하거나
의학 진단을 내리는 일,
03:23
and identifying식별 a bird
at a fleeting일시적 glimpse일견 have in common공유지?
62
191360
2920
새의 종류를 한 눈에 식별하는 일,
이들의 공통점이 뭘까요?
03:27
Well, these are all tasks과제
that until...까지 very recently요새,
63
195280
2976
네, 이들은 모두 최근까지도
쉽게 자동화될 수 없을 거라고
03:30
leading주요한 economists경제학자 thought
couldn't할 수 없었다 readily손쉽게 be automated자동화 된.
64
198280
3336
저명한 경제학자들이
생각한 일들입니다.
03:33
And yet아직 today오늘, all of these tasks과제
can be automated자동화 된.
65
201640
3176
하지만 지금은 모두 자동화되었죠.
03:36
You know, all major주요한 car manufacturers제조업 자
have driverless운전자가없는 car programs프로그램들.
66
204840
3496
주요 자동차 회사들이
무인자동차를 개발하고 있고,
03:40
There's countless셀 수 없는 systems시스템 out there
that can diagnose진단하다 medical의료 problems문제들.
67
208360
3976
질병을 진단해주는 다양한
시스템이 이미 널려있습니다.
03:44
And there's even an app
that can identify식별하다 a bird
68
212360
2416
심지어는 한번에 새의 종류를
식별해주는 앱도 있습니다.
03:46
at a fleeting일시적 glimpse일견.
69
214800
1200
03:48
Now, this wasn't아니었다. simply간단히 a case케이스 of bad나쁜 luck
on the part부품 of economists경제학자.
70
216920
4376
경제학자들이 단순히 운이 나빠
예측이 틀린 것이 아닙니다.
03:53
They were wrong잘못된,
71
221320
1296
오판했던 것이죠.
03:54
and the reason이유 why
they were wrong잘못된 is very important중대한.
72
222640
2496
여기서 중요한 건 그들이
오판하게 된 이유입니다.
03:57
They've그들은 fallen타락한 for the intelligence지성 myth신화,
73
225160
2256
그들은 지능에 관한 미신에
빠져 있었습니다.
03:59
the belief믿음 that machines기계들
have to copy the way
74
227440
2896
기계가 인간의 사고방식을 모방해야
인간을 능가할 거라고 믿었던 거죠.
04:02
that human인간의 beings존재들 think and reason이유
75
230360
2056
04:04
in order주문 to outperform실적이 좋다 them.
76
232440
1776
04:06
When these economists경제학자
were trying견딜 수 없는 to figure그림 out
77
234240
2216
경제학자들은 기계가 할 수 없는
일들을 예측하는 과정에서
04:08
what tasks과제 machines기계들 could not do,
78
236480
1856
04:10
they imagined상상 한 the only way
to automate자동화하다 a task태스크
79
238360
2136
자동화를 이렇게 상상했습니다.
04:12
was to sit앉다 down with a human인간의 being존재,
80
240520
1816
인간이 기계를 책상에 앉혀놓고
일의 작동방식을 설명해줍니다.
04:14
get them to explain설명 to you
how it was they performed수행 한 a task태스크,
81
242360
3536
04:17
and then try and capture포착 that explanation설명
82
245920
2656
기계가 따라 할 수 있도록
단계별로 차근차근 말이죠.
04:20
in a set세트 of instructions명령
for a machine기계 to follow따르다.
83
248600
2776
기계는 그 설명을 이해하려 애씁니다.
04:23
This view전망 was popular인기 있는 in artificial인공의
intelligence지성 at one point포인트, too.
84
251400
4176
이런 방식은 인공지능 연구에서도
한 때 유행했었습니다.
04:27
I know this because Richard리차드 Susskind사스키드,
85
255600
2176
제 아버지이자, 공동저자이기도 한
리처드 서스킨드도 이렇게 생각했죠.
04:29
who is my dad아빠 and my coauthor공저자,
86
257800
2856
04:32
wrote his doctorate박사호 in the 1980s
on artificial인공의 intelligence지성 and the law
87
260680
4056
아버지는 1980년대에 옥스포드대에서
인공지능과 법에 관한
04:36
at Oxford옥스퍼드 University대학,
88
264760
1416
박사학위 논문을 썼습니다.
04:38
and he was part부품 of the vanguard전위.
89
266200
1576
당시에는 선구적인 연구였죠.
04:39
And with a professor교수 called전화 한 PhillipPhillip Capper절정
90
267800
2256
그 후 필립 캐퍼 교수, 그리고
법 전문 출판사 버터워쓰와 함께
04:42
and a legal적법한 publisher발행자 called전화 한 ButterworthsButterworths,
91
270080
2096
04:44
they produced생산 된 the world's세계의 first
commercially상업적으로 available유효한
92
272200
5896
법 분야에서는 최초로 상용화된
인공지능 시스템을 개발했습니다.
04:50
artificial인공의 intelligence지성 system체계 in the law.
93
278120
2776
04:52
This was the home screen화면 design디자인.
94
280920
2616
이것이 그 시스템의
첫 메인 화면인데요.
04:55
He assures보증하다 me this was
a cool시원한 screen화면 design디자인 at the time.
95
283560
2696
아버지 말이, 당시에는 끝내주는
디자인이었다고 하시더군요.
04:58
(Laughter웃음)
96
286280
1016
(웃음)
04:59
I've never been entirely전적으로 convinced납득시키다.
97
287320
1696
저도 그 말을 믿지는 않았습니다.
05:01
He published출판 된 it
in the form형태 of two floppy기운 없는 disks디스크,
98
289040
2616
프로그램은 두 장의
플로피 디스크에 담겨 출시되었는데
05:03
at a time where floppy기운 없는 disks디스크
genuinely진정으로 were floppy기운 없는,
99
291680
3536
당시 플로피 디스크는 정말 느렸죠.
05:07
and his approach접근 was the same같은
as the economists'경제학자 ':
100
295240
2336
아버지의 접근방식은
경제학자들과 똑같았습니다.
법률가와 마주 앉아서, 법률 문제의
해결 과정에 관한 설명을 듣는 겁니다.
05:09
sit앉다 down with a lawyer변호사,
101
297600
1256
05:10
get her to explain설명 to you
how it was she solved해결 된 a legal적법한 problem문제,
102
298880
3176
05:14
and then try and capture포착 that explanation설명
in a set세트 of rules규칙들 for a machine기계 to follow따르다.
103
302080
5376
그러면서 기계가 따라할 수 있도록
일련의 규칙으로 정리하였습니다.
05:19
In economics경제학, if human인간의 beings존재들
could explain설명 themselves그들 자신 in this way,
104
307480
3616
경제학에서는 이렇게 설명할 수 있는
인간의 업무를 '루틴'이라고 합니다.
05:23
the tasks과제 are called전화 한 routine루틴,
and they could be automated자동화 된.
105
311120
3296
루틴은 자동화할 수 있죠.
05:26
But if human인간의 beings존재들
can't explain설명 themselves그들 자신,
106
314440
2336
반면에 이런 방식으로 설명이 안되면
'논루틴'이라고 합니다.
05:28
the tasks과제 are called전화 한 non-routine비 일상적인,
and they're thought to be out reach범위.
107
316800
4256
자동화할 수 없다고 여겨지는 것들이죠.
05:33
Today오늘, that routine-nonroutine일과-nonroutine
distinction구별 is widespread펼친.
108
321080
3296
오늘날, 루틴과 논루틴으로 구별하는
방식은 널리 퍼져있습니다.
05:36
Think how often자주 you hear듣다 people say to you
109
324400
2056
이런 얘기 자주 들어보셨을 거예요.
05:38
machines기계들 can only perform행하다 tasks과제
that are predictable예측할 수있는 or repetitive반복적 인,
110
326480
3256
기계는 규칙에 따라 정해진, 잘 정리된
반복 작업만 할 수 있다고들 말합니다.
05:41
rules-based규칙 기반 or well-defined잘 정의 된.
111
329760
1896
05:43
Those are all just
different다른 words for routine루틴.
112
331680
2936
이런 말들은 루틴을 그저
달리 표현한 것일 뿐입니다.
05:46
And go back to those three cases사례
that I mentioned말하는 at the start스타트.
113
334640
3976
제가 처음에 말했던
세 가지 일로 돌아가보죠.
05:50
Those are all classic권위 있는 cases사례
of nonroutinenonroutine tasks과제.
114
338640
2896
세 가지 일 모두 전형적인
논루틴 업무에 속합니다.
05:53
Ask청하다 a doctor의사, for instance,
how she makes~을 만든다 a medical의료 diagnosis진단,
115
341560
2976
예를 들어, 의사에게
어떻게 진찰을 하냐고 묻는다면
05:56
and she might be able할 수 있는
to give you a few조금 rules규칙들 of thumb무지,
116
344560
2656
경험에 따른 몇 가지 규칙을
어림잡아 말할 수는 있겠지만
05:59
but ultimately궁극적으로 she'd흘리다 struggle노력.
117
347240
1656
명확하게 말하기는 힘들 겁니다.
06:00
She'd흘리다 say it requires요구하다 things like
creativity독창성 and judgment심판 and intuition직관.
118
348920
4816
창의성이나 직관적인 판단력이
필요한 일이라고 말하겠죠.
06:05
And these things are
very difficult어려운 to articulate명확히하다,
119
353760
2376
그런 일을 명확하게 설명하기 어렵다보니
자동화도 힘들 거라고 생각했을 겁니다.
06:08
and so it was thought these tasks과제
would be very hard단단한 to automate자동화하다.
120
356160
3096
06:11
If a human인간의 being존재 can't explain설명 themselves그들 자신,
121
359280
2536
인간이 자신에게도 설명하지 못하는데
06:13
where on earth지구 do we begin시작하다
in writing쓰기 a set세트 of instructions명령
122
361840
2896
기계가 따라 할 수 있는 일련의 규칙을
만드는 것이 가능할 리가 있을까요?
06:16
for a machine기계 to follow따르다?
123
364760
1200
06:18
Thirty서른 years연령 ago...전에, this view전망 was right,
124
366640
2576
30년 전만 해도
이런 생각은 옳았습니다.
06:21
but today오늘 it's looking shaky흔들리는,
125
369240
2136
하지만 오늘날에는 조금 흔들리고 있고,
미래에는 완전히 틀린 얘기가 될 겁니다.
06:23
and in the future미래
it's simply간단히 going to be wrong잘못된.
126
371400
2256
06:25
Advances발전 in processing가공 power,
in data데이터 storage저장 capability능력
127
373680
3256
데이터 처리 능력과 저장 능력,
알고리즘 설계의 발전에 힘입어
06:28
and in algorithm연산 design디자인
128
376960
1656
06:30
mean that this
routine-nonroutine일과-nonroutine distinction구별
129
378640
2496
루틴과 논루틴의 구별은 점차
의미를 잃어가고 있습니다.
06:33
is diminishinglydiminishingly useful유능한.
130
381160
1736
06:34
To see this, go back to the case케이스
of making만들기 a medical의료 diagnosis진단.
131
382920
3256
의료 진료의 경우를 다시 보면서
이를 살펴보겠습니다.
06:38
Earlier일찍이 in the year,
132
386200
1376
올해 초,
06:39
a team of researchers연구원 at Stanford스탠포드
announced발표하다 they'd그들은 developed개발 된 a system체계
133
387600
3296
스탠포드 대학의 한 연구진이
어떤 시스템을 개발했다고 발표했습니다.
06:42
which어느 can tell you
whether인지 어떤지 or not a freckle is cancerous암이있는
134
390920
3056
주근깨가 피부암인지 아닌지
판단해주는 시스템이었죠.
06:46
as accurately정확히 as leading주요한 dermatologists피부과 의사.
135
394000
2680
일류 피부과 의사 만큼 정확하게 말이죠.
06:49
How does it work?
136
397280
1256
이런 일이 어떻게 가능할까요?
06:50
It's not trying견딜 수 없는 to copy the judgment심판
or the intuition직관 of a doctor의사.
137
398560
5296
의사의 판단이나 직관을
모방한 것은 아닙니다.
06:55
It knows알고있다 or understands이해하다
nothing about medicine의학 at all.
138
403880
3136
시스템은 의학이라고는
하나도 모릅니다.
06:59
Instead대신, it's running달리는
a pattern무늬 recognition인식 algorithm연산
139
407040
2576
대신 패턴 인식 알고리즘을 이용해
07:01
through...을 통하여 129,450 past과거 cases사례,
140
409640
4656
129,450 개의 진료 기록으로부터
유사성을 찾으며 검토하고
07:06
hunting수렵 for similarities유사점
between중에서 those cases사례
141
414320
3096
07:09
and the particular특별한 lesion장애 in question문제.
142
417440
2080
특정 피부 손상을 찾아냅니다.
07:12
It's performing실행할 수 있는 these tasks과제
in an unhumanunhuman way,
143
420080
3216
시스템은 이처럼 인간과는
다른 방식으로 일을 합니다.
07:15
based기반 on the analysis분석
of more possible가능한 cases사례
144
423320
2336
인간이라면 평생 검토해도 불가능한 양의
진료기록을 순식간에 분석해서 말이죠.
07:17
than any doctor의사 could hope기대
to review리뷰 in their그들의 lifetime일생.
145
425680
2616
인간이 어떻게 의료적 판단을 하는지
설명하지 못해도 이제 문제가 안됩니다.
07:20
It didn't matter문제 that that human인간의 being존재,
146
428320
1896
07:22
that doctor의사, couldn't할 수 없었다 explain설명
how she'd흘리다 performed수행 한 the task태스크.
147
430240
2800
07:25
Now, there are those
who dwell살다 upon...에 that the fact
148
433640
2336
기계가 인간을 모방할 필요가 없다는
사실을 보여주는 사례는 또 있습니다.
07:28
that these machines기계들
aren't있지 않다. built세워짐 in our image영상.
149
436000
2296
07:30
As an example, take IBM'sIBM Watson왓슨,
150
438320
2056
IBM의 왓슨을 예로들면
07:32
the supercomputer수퍼 컴퓨터 that went갔다
on the US quiz놀리다 show보여 주다 "Jeopardy위험!" in 2011,
151
440400
4856
슈퍼 컴퓨터 왓슨은 2011년
퀴즈쇼 "제퍼디!"에 출연했습니다.
07:37
and it beat박자 the two
human인간의 champions챔피언 at "Jeopardy위험!"
152
445280
3016
거기서 인간 우승자 두 명을
상대로 승리했죠.
07:40
The day after it won,
153
448320
1696
승리한 다음 날에
07:42
The Wall Street거리 Journal일지 ran달렸다 a piece조각
by the philosopher철학자 John남자 SearleSearle
154
450040
3296
철학자 존 설이 쓴 짧은 기사 하나가
월 스트리트 저널에 실렸습니다.
07:45
with the title표제 "Watson왓슨
Doesn't Know It Won on 'Jeopardy'위험!'"
155
453360
3376
제목은 이렇습니다. "왓슨은 자신이
'제퍼디!'에서 승리한 줄도 모른다."
07:48
Right, and it's brilliant훌륭한, and it's true참된.
156
456760
1976
맞아요. 재치있게 사실을 잘 말했죠.
왓슨은 기쁨의 함성을
지르지 않았습니다.
07:50
You know, Watson왓슨 didn't
let out a cry울음 소리 of excitement흥분.
157
458760
2456
자신의 업적에 뿌듯해하며
부모님을 부르지도 않았고,
07:53
It didn't call up its parents부모님
to say what a good job it had done끝난.
158
461240
3096
축하주를 마시기 위해
술집에도 가지 않았습니다.
07:56
It didn't go down to the pub선술집 for a drink음주.
159
464360
2336
07:58
This system체계 wasn't아니었다. trying견딜 수 없는 to copy the way
that those human인간의 contestants참가자 played연주 한,
160
466720
4456
왓슨은 인간 경쟁자들이 문제를
푸는 방식을 모방하지 않았습니다.
08:03
but it didn't matter문제.
161
471200
1256
전혀 불필요했거든요.
08:04
It still outperformed실적이 좋은 them.
162
472480
1976
그럼에도 왓슨은 인간을 이겼습니다.
08:06
Resolving해결 the intelligence지성 myth신화
163
474480
1576
지능 미신을 반박하다 보면
08:08
shows us that our limited제한된 understanding이해
about human인간의 intelligence지성,
164
476080
3376
인간의 사고와 추론 방식 등의
인간 지능에 대한 이해 부족이
08:11
about how we think and reason이유,
165
479480
1896
08:13
is far멀리 less적게 of a constraint강제
on automation오토메이션 than it was in the past과거.
166
481400
3456
예전처럼 자동화의 걸림돌이 되지
않는다는 것을 알 수 있습니다.
08:16
What's more, as we've우리는 seen,
167
484880
1496
게다가, 이미 보았듯이
08:18
when these machines기계들
perform행하다 tasks과제 differently다르게 to human인간의 beings존재들,
168
486400
3416
기계는 인간과 다른 방식으로
일을 처리하기 때문에
08:21
there's no reason이유 to think
169
489840
1256
현재 인간이 가진 능력을
08:23
that what human인간의 beings존재들
are currently현재 capable유능한 of doing
170
491120
2536
미래에 기계가 넘지 못할 거라고
보기도 어렵습니다.
08:25
represents대표하다 any sort종류 of summit정상 회담
171
493680
1456
08:27
in what these machines기계들
might be capable유능한 of doing in the future미래.
172
495160
3000
08:31
Now the third제삼 myth신화,
173
499040
1256
이제 세 번째 미신입니다.
08:32
what I call the superiority우월 myth신화.
174
500320
2456
우월성에 관한 미신인데요.
08:34
It's often자주 said that those who forget잊다
175
502800
2216
상보성 원리에 따른 기술 진보의
긍정적 측면을 간과하는 사람들은
08:37
about the helpful도움이되는 side측면
of technological기술적 인 progress진행,
176
505040
2456
08:39
those complementaritiescomplementarities from before,
177
507520
2496
한 가지 실수를 저지르곤 합니다.
08:42
are committing커밋 something
known알려진 as the lump덩어리 of labor노동 fallacy그릇된 생각.
178
510040
3040
노동 총량의 오류라고 알려진 실수죠.
08:45
Now, the problem문제 is
the lump덩어리 of labor노동 fallacy그릇된 생각
179
513840
2295
문제는 노동 총량의 오류라는 개념
자체에도 오류가 있다는 겁니다.
08:48
is itself그 자체 a fallacy그릇된 생각,
180
516159
1496
08:49
and I call this the lump덩어리
of labor노동 fallacy그릇된 생각 fallacy그릇된 생각,
181
517679
2937
그래서 저는 이걸 '노동 총량의
오류에 관한 오류'라고 합니다.
08:52
or LOLFFLOLFF, for short짧은.
182
520640
2320
줄인 용어로 'LOLFF' 라고 하죠.
08:56
Let me explain설명.
183
524000
1416
설명해드리죠.
08:57
The lump덩어리 of labor노동 fallacy그릇된 생각
is a very old늙은 idea생각.
184
525440
2136
노동 총량의 오류는
굉장히 오래된 개념입니다.
08:59
It was a British영국인 economist경제학자, David데이비드 Schloss,
who gave it this name이름 in 1892.
185
527600
4216
1892년에 데이빗 스콜로스라는
영국 경제학자가 만든 개념이죠.
09:03
He was puzzled어찌할 바를 모르는
to come across건너서 a dock worker노동자
186
531840
2816
그는 부두 노동자들에게서
당혹감을 느낀 적이 있습니다.
09:06
who had begun시작된 to use
a machine기계 to make washers와셔,
187
534680
2336
당시 부두 노동자들은 기계로
와셔를 만들기 시작했는데요.
09:09
the small작은 metal금속 discs디스크
that fasten묶다 on the end종료 of screws나사.
188
537040
3320
그건 나사를 단단히 조이도록 해주는
원판 모양의 작은 금속입니다.
09:13
And this dock worker노동자
felt펠트 guilty저지른 for being존재 more productive생산적인.
189
541000
3760
노동자들은 생산성이 높아진 것에
죄책감을 느끼고 있었습니다.
09:17
Now, most가장 of the time,
we expect배고 있다 the opposite반대말,
190
545560
2176
현재 우리는 정반대죠.
사람들은 생산성이 낮으면
죄책감을 느낍니다.
09:19
that people feel guilty저지른
for being존재 unproductive비생산적인,
191
547760
2216
페이스북이나 트위터에 너무
많은 시간을 낭비했다고 말이죠.
09:22
you know, a little too much time
on Facebook페이스 북 or Twitter지저귀다 at work.
192
550000
3016
하지만 부두 노동자들은 생산성이
높아지는 것에 죄책감을 느꼈습니다.
09:25
But this worker노동자 felt펠트 guilty저지른
for being존재 more productive생산적인,
193
553040
2536
이유를 묻자 이렇게 말했습니다.
09:27
and asked물었다 why, he said,
"I know I'm doing wrong잘못된.
194
555600
2296
"저는 잘못하고 있어요.
다른 사람 일거리를 뺏고 있잖아요."
09:29
I'm taking취득 away the work of another다른 man."
195
557920
2040
09:32
In his mind마음, there was
some fixed결정된 lump덩어리 of work
196
560760
2976
그는 일종의 정해진 노동량이
있다고 생각했던 겁니다.
09:35
to be divided각기 다른 up between중에서 him and his pals친구,
197
563760
2136
그와 그의 친구들이 나눠서 할 일 말이죠.
09:37
so that if he used
this machine기계 to do more,
198
565920
2056
그래서 자신이 기계로
더 많은 일을 하면
09:40
there'd거기 있었습니까? be less적게 left for his pals친구 to do.
199
568000
2016
자기 친구의 일거리가
줄어든다고 생각한 겁니다.
09:42
Schloss saw the mistake잘못.
200
570040
1856
스콜로스는 여기에서 오류를 찾았습니다.
노동의 총량은 정해져 있지 않거든요.
09:43
The lump덩어리 of work wasn't아니었다. fixed결정된.
201
571920
1856
09:45
As this worker노동자 used the machine기계
and became되었다 more productive생산적인,
202
573800
2816
노동자가 기계를 사용해서
점점 생산성이 높아질수록
09:48
the price가격 of washers와셔 would fall가을,
demand수요 for washers와셔 would rise오르기,
203
576640
2976
나사받이의 가격은 낮아질 것이고
수요는 증가할 것입니다.
09:51
more washers와셔 would have to be made만든,
204
579640
1696
따라서 더 많은 나사받이가 필요하고
그의 친구가 할 일도 생길 것입니다.
09:53
and there'd거기 있었습니까? be more work
for his pals친구 to do.
205
581360
2096
09:55
The lump덩어리 of work would get bigger더 큰.
206
583480
1696
노동 총량은 점점 커질겁니다.
09:57
Schloss called전화 한 this
"the lump덩어리 of labor노동 fallacy그릇된 생각."
207
585200
2680
스콜로스는 이를
'노동 총량의 오류'라고 했습니다.
10:00
And today오늘 you hear듣다 people talk
about the lump덩어리 of labor노동 fallacy그릇된 생각
208
588560
2936
오늘날 모든 직업의 미래를 전망할 때
노동 총량의 오류를 이야기하곤 합니다.
10:03
to think about the future미래
of all types유형 of work.
209
591520
2216
기계와 인간이 서로 나누어서 해야 할
일의 총량은 정해져 있지 않다고 하죠.
10:05
There's no fixed결정된 lump덩어리 of work
out there to be divided각기 다른 up
210
593760
2656
10:08
between중에서 people and machines기계들.
211
596440
1376
네, 기계가 인간을 대체하면서
기존에 하던 일의 양은 줄었습니다.
10:09
Yes, machines기계들 substitute대용품 for human인간의 beings존재들,
making만들기 the original실물 lump덩어리 of work smaller더 작은,
212
597840
4656
10:14
but they also또한 complement보어 human인간의 beings존재들,
213
602520
1856
하지만 기계가 인간을 보완해주면서
10:16
and the lump덩어리 of work
gets도착 bigger더 큰 and changes변화들.
214
604400
2096
일의 총량은 점차 커지고
변화하고 있습니다.
10:19
But LOLFFLOLFF.
215
607760
1616
그런데 바로 여기에 오류가 있어요.
10:21
Here's여기에 the mistake잘못:
216
609400
1376
뭐가 틀렸는지 말씀드리죠.
10:22
it's right to think
that technological기술적 인 progress진행
217
610800
2216
기술의 진보로 일의 총량이
커진다는 생각은 맞습니다.
10:25
makes~을 만든다 the lump덩어리 of work to be done끝난 bigger더 큰.
218
613040
1976
몇몇 직업은 더 중요해지고,
새로운 직업도 생기겠죠.
10:27
Some tasks과제 become지다 more valuable가치 있는.
New새로운 tasks과제 have to be done끝난.
219
615040
3016
10:30
But it's wrong잘못된 to think that necessarily필연적으로,
220
618080
2536
하지만 잘못된 생각이 하나 있습니다.
10:32
human인간의 beings존재들 will be best베스트 placed배치 된
to perform행하다 those tasks과제.
221
620640
3256
인간이 바뀐 작업환경에 당연히
잘 적응할 거라고 생각하는 거죠.
10:35
And this is the superiority우월 myth신화.
222
623920
1616
이것이 바로 우월성 미신입니다.
10:37
Yes, the lump덩어리 of work
might get bigger더 큰 and change변화,
223
625560
3416
네. 일의 총량은 점점 커지고
변화하게 될 것입니다.
10:41
but as machines기계들 become지다 more capable유능한,
224
629000
1976
하지만 기계의 능력이 점차 발전하면서
10:43
it's likely아마도 that they'll그들은 할 것이다 take on
the extra특별한 lump덩어리 of work themselves그들 자신.
225
631000
3896
그 여분의 일마저 기계가
차지할 가능성이 높습니다.
10:46
Technological기술적 인 progress진행,
rather차라리 than complement보어 human인간의 beings존재들,
226
634920
3256
기술의 진보는 인간을 보완하기보다는
기계를 대신 보완해줄 것입니다.
10:50
complements보완 machines기계들 instead대신에.
227
638200
1880
10:52
To see this, go back
to the task태스크 of driving운전 a car.
228
640920
3016
자동차 운전의 경우를 다시 살펴보죠.
10:55
Today오늘, satnavsatnav systems시스템
directly직접 complement보어 human인간의 beings존재들.
229
643960
4096
오늘날 위성항법 시스템은
인간을 직접적으로 도와줍니다.
11:00
They make some
human인간의 beings존재들 better drivers운전사.
230
648080
2280
사람이 운전을 더 잘할 수 있게 해주죠.
11:02
But in the future미래,
231
650920
1256
하지만 미래에는 소프트웨어가
운전석의 사람을 대체할 것입니다.
11:04
software소프트웨어 is going to displace바꾸어 놓다
human인간의 beings존재들 from the driving운전 seat좌석,
232
652200
3096
그리고 위성항법 시스템은
더 이상 사람을 돕지 않고
11:07
and these satnavsatnav systems시스템,
rather차라리 than complement보어 human인간의 beings존재들,
233
655320
2936
대신 기계를 도우면서 무인 자동차의
효율성을 더욱 높이게 될 것입니다.
11:10
will simply간단히 make these
driverless운전자가없는 cars자동차 more efficient실력 있는,
234
658280
2536
11:12
helping거들기 the machines기계들 instead대신에.
235
660840
1536
11:14
Or go to those indirect간접적 인 complementaritiescomplementarities
that I mentioned말하는 as well.
236
662400
4056
이미 말씀드렸던 간접적 방식의
상보성 사례도 살펴볼까요.
11:18
The economic간결한 pie파이 may할 수있다 get larger더 큰,
237
666480
1776
경제 파이의 크기는 커지겠지만
11:20
but as machines기계들 become지다 more capable유능한,
238
668280
1736
기계의 능력이 발전함에 따라
11:22
it's possible가능한 that any new새로운 demand수요
will fall가을 on goods상품 that machines기계들,
239
670040
3143
새롭게 생기는 수요들도 모두 사람보다는
기계가 감당할 가능성이 높습니다.
11:25
rather차라리 than human인간의 beings존재들,
are best베스트 placed배치 된 to produce생기게 하다.
240
673207
2649
11:27
The economic간결한 pie파이 may할 수있다 change변화,
241
675880
1896
경제 파이는 변화하지만
11:29
but as machines기계들 become지다 more capable유능한,
242
677800
1896
기계의 능력이 발전함에 따라
11:31
it's possible가능한 that they'll그들은 할 것이다 be best베스트 placed배치 된
to do the new새로운 tasks과제 that have to be done끝난.
243
679720
4856
새로운 일거리도 기계가 모두
차지할 가능성이 높습니다.
11:36
In short짧은, demand수요 for tasks과제
isn't demand수요 for human인간의 labor노동.
244
684600
3696
한 마디로, 일에 대한 수요는
인간 노동에 대한 수요가 아닙니다.
11:40
Human인간 beings존재들 only stand to benefit이익
245
688320
1936
상보성 원리로 인간이 혜택을 보려면
인간이 주도권을 가지고 있어야 합니다.
11:42
if they retain유지하다 the upper높은 hand
in all these complemented보완 된 tasks과제,
246
690280
3816
11:46
but as machines기계들 become지다 more capable유능한,
that becomes된다 less적게 likely아마도.
247
694120
3720
하지만 기계가 점점 유능해지면서
그럴 가능성은 적어 보입니다.
11:50
So what do these three myths신화 tell us then?
248
698760
2016
그럼 이 세 가지 미신이
의미하는 바는 뭘까요?
11:52
Well, resolving해결 the Terminator터미네이터 myth신화
249
700800
1696
터미네이터 미신을 통해
11:54
shows us that the future미래 of work depends의존하다
upon...에 this balance밸런스 between중에서 two forces:
250
702520
3696
우리는 일의 미래가 두 힘의
균형에 따라 달라짐을 알았습니다.
11:58
one, machine기계 substitution치환
that harms해악 workers노동자
251
706240
3136
하나는 기계가 인간을 대체하며
일자리를 빼앗는 힘이고
12:01
but also또한 those complementaritiescomplementarities
that do the opposite반대말.
252
709400
2576
다른 하나는 인간을 도우며
일자리를 만드는 힘입니다.
12:04
And until...까지 now, this balance밸런스
has fallen타락한 in favor호의 of human인간의 beings존재들.
253
712000
4040
지금까지는 인간에게 도움이
되는 쪽으로 균형이 맞았습니다.
12:09
But resolving해결 the intelligence지성 myth신화
254
717120
1736
하지만 지능 미신을 통해
12:10
shows us that that first force,
machine기계 substitution치환,
255
718880
2496
우리는 기계가 인간을 대신하려는 힘이
점차 강해지고 있음을 알았습니다.
12:13
is gathering모임 strength.
256
721400
1296
12:14
Machines기계, of course코스, can't do everything,
257
722720
1976
물론, 기계가 모든 걸 할 순 없죠.
하지만 더 많은 일을 할 것입니다.
12:16
but they can do far멀리 more,
258
724720
1256
12:18
encroaching잠식하다 ever deeper더 깊은 into the realm왕국
of tasks과제 performed수행 한 by human인간의 beings존재들.
259
726000
4576
인간만이 할 수 있다고 여겼던
영역까지 침범하면서 말이죠.
12:22
What's more, there's no reason이유 to think
260
730600
1896
더군다나 현재 인간의 능력 정도가
기계의 한계라고 장담할 수도 없습니다.
12:24
that what human인간의 beings존재들
are currently현재 capable유능한 of
261
732520
2216
12:26
represents대표하다 any sort종류 of finishing마무리 손질 line,
262
734760
1856
일단 기계가 우리만큼 유능해지면
인간의 한계를 뛰어넘게 될 테니까요.
12:28
that machines기계들 are going
to draw무승부 to a polite공손한 stop
263
736640
2256
12:30
once일단 they're as capable유능한 as us.
264
738920
1816
12:32
Now, none없음 of this matters사안
265
740760
1536
물론, 큰 문제는 아닐 수 있습니다.
12:34
so long as those helpful도움이되는
winds바람 of complementarity상보성
266
742320
2816
상보성 원리의 긍정적 바람이
강하게만 분다면 말이죠.
12:37
blow타격 firmly단단히 enough충분히,
267
745160
1736
12:38
but resolving해결 the superiority우월 myth신화
268
746920
1936
하지만 우월성 미신을 통해
12:40
shows us that that process방법
of task태스크 encroachment잠식
269
748880
3096
기계가 인간의 영역을 침해하는 과정에서
12:44
not only strengthens강화하다
the force of machine기계 substitution치환,
270
752000
3936
인간을 대체하는 힘은 커지지만
12:47
but it wears~을 입다 down
those helpful도움이되는 complementaritiescomplementarities too.
271
755960
3336
긍정적 상보성 원리는
약화되는 것을 알게 됐습니다.
12:51
Bring가져오다 these three myths신화 together함께
272
759320
1936
이들 세 가지 미신을 동시에 놓고 보면
12:53
and I think we can capture포착 a glimpse일견
of that troubling문제가되는 future미래.
273
761280
2936
미래의 문제를 조금이나마
엿볼 수 있습니다.
기계는 점점 유능해질 것입니다.
12:56
Machines기계 continue잇다 to become지다 more capable유능한,
274
764240
2016
12:58
encroaching잠식하다 ever deeper더 깊은
on tasks과제 performed수행 한 by human인간의 beings존재들,
275
766280
3656
인간이 했던 일을 점차
대신하게 될 것입니다.
13:01
strengthening강하게 하는 것 the force
of machine기계 substitution치환,
276
769960
2576
기계가 인간을 대체하는 힘은 커지고
13:04
weakening약화 the force
of machine기계 complementarity상보성.
277
772560
3616
상보성 원리는 힘을 잃을 것입니다.
13:08
And at some point포인트, that balance밸런스
falls폭포 in favor호의 of machines기계들
278
776200
4296
그러다 어느 순간, 균형의 추가
사람에서 기계로 기울 것입니다.
13:12
rather차라리 than human인간의 beings존재들.
279
780520
2056
13:14
This is the path통로 we're currently현재 on.
280
782600
1736
이것이 현재 우리가 가고 있는 길입니다.
13:16
I say "path통로" deliberately신중히,
because I don't think we're there yet아직,
281
784360
3176
"길"이라는 용어를 쓴 이유는
아직 도달하지는 않았지만
13:19
but it is hard단단한 to avoid기피 the conclusion결론
that this is our direction방향 of travel여행.
282
787560
3640
여정이 이대로 흘러갈 거라는
사실을 부인하기 힘들기 때문입니다.
13:24
That's the troubling문제가되는 part부품.
283
792640
1456
문제는 바로 이런 것들입니다.
13:26
Let me say now why I think actually사실은
this is a good problem문제 to have.
284
794120
3520
하지만 이 문제는 우리에게 즐거운 일입니다.
그 이유를 말해드리죠.
13:30
For most가장 of human인간의 history역사,
one economic간결한 problem문제 has dominated지배적 인:
285
798520
3536
인류 역사를 볼 때, 경제 측면에서
늘 따라다니는 문제 하나가 있습니다.
13:34
how to make the economic간결한 pie파이
large enough충분히 for everyone각자 모두 to live살고 있다 on.
286
802080
4056
우리 모두가 살만큼 경제파이의 크기를
어떻게 키울 것인가 하는 것입니다.
13:38
Go back to the turn회전
of the first century세기 AD광고,
287
806160
2176
기원후 1세기 무렵을 생각해보죠.
13:40
and if you took~했다 the global글로벌 economic간결한 pie파이
288
808360
2096
그 시대의 경제 파이를
13:42
and divided각기 다른 it up into equal같은 slices조각
for everyone각자 모두 in the world세계,
289
810480
3296
그 때 살았던 모두에게
공평하게 나누어준다면
13:45
everyone각자 모두 would get a few조금 hundred dollars불화.
290
813800
2136
각자 몇백 달러 정도 받을 겁니다.
13:47
Almost거의 everyone각자 모두 lived살았던
on or around the poverty가난 line.
291
815960
2760
거의 모두가 최저 생계를
유지하는 정도죠.
13:51
And if you roll forward앞으로 a thousand years연령,
292
819320
2176
그로부터 1000년 후에도
사정은 거의 같았습니다.
13:53
roughly대충 the same같은 is true참된.
293
821520
1240
13:55
But in the last few조금 hundred years연령,
economic간결한 growth성장 has taken취한 off.
294
823680
3576
하지만 최근 수백 년 동안
경제는 급격히 성장했습니다.
13:59
Those economic간결한 pies파이 have exploded폭발 한 in size크기.
295
827280
2376
폭발적인 규모로 성장했죠.
14:01
Global글로벌 GDPGDP per head머리,
296
829680
2056
전 세계의 1인당 GDP,
14:03
the value of those individual개인
slices조각 of the pie파이 today오늘,
297
831760
3376
쉽게 말해 오늘날 각자가
가지는 파이 한 조각은
14:07
they're about 10,150 dollars불화.
298
835160
2816
약 10,150 달러입니다.
14:10
If economic간결한 growth성장 continues계속하다
at two percent퍼센트,
299
838000
2696
앞으로 경제성장이 2%씩 지속된다면
14:12
our children어린이 will be twice두번 as rich풍부한 as us.
300
840720
2056
우리 아이들은 우리보다
두 배 정도 부유해질 것입니다.
14:14
If it continues계속하다
at a more measly순결한 one percent퍼센트,
301
842800
2296
경제가 1%씩 성장한다고 쳐도
14:17
our grandchildren손자
will be twice두번 as rich풍부한 as us.
302
845120
2656
우리 손자들은 우리보다
두 배 정도 부유해질 것입니다.
14:19
By and large, we've우리는 solved해결 된
that traditional전통적인 economic간결한 problem문제.
303
847800
3680
우리는 전통적 경제문제를
비교적 잘 해결해왔습니다.
14:24
Now, technological기술적 인 unemployment실업,
if it does happen우연히 있다,
304
852200
3016
기술 진보로 실업 문제가 생기더라도
14:27
in a strange이상한 way will be
a symptom징후 of that success성공,
305
855240
3216
어떻게든 성공적으로 해결할지 모릅니다.
14:30
will have solved해결 된 one problem문제 --
how to make the pie파이 bigger더 큰 --
306
858480
3856
파이를 키우는 문제가 해결되더라도
14:34
but replaced대체 된 it with another다른 --
307
862360
1816
또 다른 문제가 생길 거예요.
14:36
how to make sure
that everyone각자 모두 gets도착 a slice일부분.
308
864200
2760
어떻게 하면 모두가 파이를
나눠 가질 수 있느냐는 것입니다.
14:39
As other economists경제학자 have noted유명한,
solving해결 this problem문제 won't습관 be easy쉬운.
309
867840
3496
경제학자들의 지적한 대로
이 문제는 해결이 쉽지 않을 겁니다.
14:43
Today오늘, for most가장 people,
310
871360
1656
오늘날, 대부분의 사람들은
14:45
their그들의 job is their그들의 seat좌석
at the economic간결한 dinner공식 만찬 table,
311
873040
2496
직업을 가짐으로써 경제 안에서
자신의 몫을 얻고 있습니다.
14:47
and in a world세계 with less적게 work
or even without없이 work,
312
875560
2416
하지만 일이 적어지거나
심지어는 없는 세상에서
14:50
it won't습관 be clear명확한
how they get their그들의 slice일부분.
313
878000
2056
어떻게 제 몫을 얻을 수
있을지가 의문입니다.
14:52
There's a great deal거래
of discussion토론, for instance,
314
880080
2336
지금 많이 논의되고 있는 것은
14:54
about various여러 forms형태
of universal만능인 basic기본 income수입
315
882440
2696
해결 방안의 하나로서 다양한 형태의
기본소득을 두는 방법입니다.
14:57
as one possible가능한 approach접근,
316
885160
1216
14:58
and there's trials시련 underway진행 중
317
886400
1616
기본소득에 대한 시도가
15:00
in the United유나이티드 States
and in Finland핀란드 and in Kenya케냐.
318
888040
2400
미국과 핀란드, 케냐에서
진행중에 있기도 하죠.
15:03
And this is the collective집단적 challenge도전
that's right in front of us,
319
891000
3176
이것이 우리 모두에게 주어진
당면 과제입니다.
15:06
to figure그림 out how this material자료 prosperity번영
generated생성 된 by our economic간결한 system체계
320
894200
5056
새로운 경제 시스템이 가져올
물질적 풍요를
15:11
can be enjoyed즐겁게 by everyone각자 모두
321
899280
1976
모두가 누리는 방법을 찾아야 하죠.
15:13
in a world세계 in which어느
our traditional전통적인 mechanism기구
322
901280
2416
파이를 나누는 기존 방식이
더 이상 통하지 않고
15:15
for slicing얇게 썰기 up the pie파이,
323
903720
1856
15:17
the work that people do,
324
905600
1936
인간이 할 일이 점자 줄어들어
15:19
withers감정 away and perhaps혹시 disappears사라지다.
325
907560
2160
완전히 사라진 세상에서 말입니다.
15:22
Solving해결 this problem문제 is going to require요구하다
us to think in very different다른 ways.
326
910280
4360
이 문제를 해결하려면 완전히
다른 방식으로 생각해야 합니다.
15:27
There's going to be a lot of disagreement불쾌한 일
about what ought to be done끝난,
327
915400
4176
해결 방안에 대한
반발도 많을 것입니다.
15:31
but it's important중대한 to remember생각해 내다
that this is a far멀리 better problem문제 to have
328
919600
3416
하지만 중요한 사실은
이 문제는 즐거운 일이라는 겁니다.
15:35
than the one that haunted귀신이 들린
our ancestors선조 for centuries세기:
329
923040
2816
어떻게 하면 파이를
충분히 키울 수 있을까 하고
15:37
how to make that pie파이
big enough충분히 in the first place장소.
330
925880
3376
수세기 동안 고민했던
선조들에 비해서 말이죠.
15:41
Thank you very much.
331
929280
1256
감사합니다.
15:42
(Applause박수 갈채)
332
930560
3840
(박수)
Translated by YOUNJAE LEE
Reviewed by JY Kang

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com