ABOUT THE SPEAKER
Kevin Kelly - Digital visionary
There may be no one better to contemplate the meaning of cultural change than Kevin Kelly, whose life story reads like a treatise on the value and impacts of technology.

Why you should listen

Kelly has been publisher of the Whole Earth Review, executive editor at Wired magazine (which he co-founded, and where he now holds the title of Senior Maverick), founder of visionary nonprofits and writer on biology, business and “cool tools.” He’s renounced all material things save his bicycle (which he then rode 3,000 miles), founded an organization (the All-Species Foundation) to catalog all life on Earth, championed projects that look 10,000 years into the future (at the Long Now Foundation), and more. He’s admired for his acute perspectives on technology and its relevance to history, biology and society. His new book, The Inevitable, just published, explores 12 technological forces that will shape our future.

More profile about the speaker
Kevin Kelly | Speaker | TED.com
TEDSummit

Kevin Kelly: How AI can bring on a second Industrial Revolution

케빈 켈리(Kevin Kelly): 인공지능이 어떻게 2차 산업혁명을 가져올 것인가

Filmed:
1,739,624 views

"빗방울이 계곡에서 떨어지는 정확한 진로는 파악하는 것은 불가능하지만 대략적인 방향은 분명합니다." 디지털 비져너리 케빈 켈리는 이렇게 말했습니다. 그리고 기술도 놀랍지만 불가피한 패턴을 따라간다는 점에서 이와 매우 비슷합니다. 그는 앞으로 20년동안 더 똑똑하고 발전된 것을 만들고 싶어하는 인간의 마음이 우리가 하는 행동에 전반적으로 깊은 영향을 미칠것이라고 말했습니다. 켈리는 AI, 인공지능을 받아들이고 그 개발을 잘 조종하기 위하여 우리가 이해해야 할 인공지능에 대한 3가지 방향을 다뤘습니다. 또 "20년후 모두가 사용하고 가장 잘 나갈 AI는 아직 개발되지 않았으니 우리 모두 늦지 않았다"라고 강조했습니다.
- Digital visionary
There may be no one better to contemplate the meaning of cultural change than Kevin Kelly, whose life story reads like a treatise on the value and impacts of technology. Full bio

Double-click the English transcript below to play the video.

00:14
I'm going to talk a little bit비트
about where technology's기술의 going.
0
2966
3817
오늘 저는 기술이 어떤 방향으로
가고 있는지에 대해 얘기해볼까 합니다.
흔히, 기술을 처음 접할 때
00:19
And often자주 technology과학 기술 comes온다 to us,
1
7509
2671
00:22
we're surprised놀란 by what it brings가져다 준다.
2
10566
1865
우리는 기술이 가져다 주는
것에 대해 놀라곤 합니다.
00:24
But there's actually사실은
a large aspect양상 of technology과학 기술
3
12455
3683
하지만 사실 기술의 대부분은
00:28
that's much more predictable예측할 수있는,
4
16162
1802
예측이 가능합니다.
00:29
and that's because technological기술적 인 systems시스템
of all sorts종류 have leanings사기,
5
17988
4088
이는 모든 종류의 기술 시스템이
각각의 성향을 가지기 때문입니다.
00:34
they have urgencies우울증,
6
22100
1175
기술마다 긴급한 부분이 있고
00:35
they have tendencies성향.
7
23299
1561
일정한 경향성을 띄기 마련입니다.
00:36
And those tendencies성향 are derived파생 된
from the very nature자연 of the physics물리학,
8
24884
4932
그리고 그런 경향들은 물리학의 본질이나
00:41
chemistry화학 of wires전선
and switches스위치들 and electrons전자들,
9
29840
3150
선과 스위치 간의 화학 ,그리고
전자등으로부터 유래되고
00:45
and they will make reoccurring재발행하다
patterns패턴들 again and again.
10
33659
3602
이는 반복되는 패턴을
끊임없이 만들어냅니다.
00:49
And so those patterns패턴들 produce생기게 하다
these tendencies성향, these leanings사기.
11
37745
4874
그래서 그 패턴들은
경향성과 성향을 만듭니다.
00:54
You can almost거의 think of it
as sort종류 of like gravity중량.
12
42643
2831
여러분은 이를 중력과 비슷하다고
생각할 수 있습니다.
00:57
Imagine상상해 보라. raindrops빗방울 falling떨어지는 into a valley골짜기.
13
45498
2319
계곡에 빗방울 떨어지는
모습을 상상해보세요.
00:59
The actual실제의 path통로 of a raindrop빗방울
as it goes간다 down the valley골짜기
14
47841
3088
계곡을 내려가는 빗방울의 실제 경로는
01:02
is unpredictable예측할 수없는.
15
50953
1169
예측할 수 없습니다.
01:04
We cannot~ 할 수 없다. see where it's going,
16
52651
1518
우리는 그들이 어디로
가는지 알 수 없지만
01:06
but the general일반 direction방향
is very inevitable피할 수 없는:
17
54193
2277
대략적인 방향은 필연적입니다.
01:08
it's downward하향의.
18
56494
1234
바로 아래 쪽이지요.
01:10
And so these baked-in구워낸
tendencies성향 and urgencies우울증
19
58377
4572
이처럼 기술 시스템에 내장된
01:14
in technological기술적 인 systems시스템
20
62973
1476
경향성과 촉발성은
01:17
give us a sense감각 of where things
are going at the large form형태.
21
65051
3609
우리에게 사건이 대략적으로
어떻게 진행되는지에 대해 알려줍니다.
01:21
So in a large sense감각,
22
69149
1401
그래서 크게 봤을 때
01:22
I would say that telephones전화
were inevitable피할 수 없는,
23
70574
3361
전화기의 발명은 필연적이었다고 봅니다.
01:27
but the iPhoneiPhone was not.
24
75005
1342
그러나 아이폰은 아니었죠.
01:29
The Internet인터넷 was inevitable피할 수 없는,
25
77094
1478
인터넷의 발명도 필연적이었지만
01:31
but Twitter지저귀다 was not.
26
79274
1286
트위터는 아니었습니다.
01:33
So we have many많은 ongoing전진
tendencies성향 right now,
27
81036
3928
그래서 현재 여러 흐름이 존재하는데
01:36
and I think one of the chief주요한 among사이에 them
28
84988
2720
저는 그 중에 가장 중요한 것이
01:39
is this tendency경향 to make things
smarter똑똑한 and smarter똑똑한.
29
87732
3722
끊임없이 더욱 더 지능적
으로 고도화되는 경향성입니다.
01:44
I call it cognifying인식하는 -- cognification인지 --
30
92041
2212
그것을 'cognification'
이라 합니다. 제가 붙인 겁니다.
01:46
also또한 known알려진 as artificial인공의
intelligence지성, or AIAI.
31
94783
2782
이 것은 인공지능
혹은 AI라고도 불립니다.
01:50
And I think that's going to be one
of the most가장 influential힘 있는 developments개발
32
98025
3746
그리고 저는 이것이 앞으로
20년 동안 우리 사회 가장 영향력있는
01:53
and trends동향 and directions지도 and drives드라이브
in our society사회 in the next다음 것 20 years연령.
33
101795
5575
발전이자 유행, 그리고
방향과 추동력이라고 생각합니다.
02:00
So, of course코스, it's already이미 here.
34
108021
1985
물론, 이미 큰 영향을
미치고 있습니다.
02:02
We already이미 have AIAI,
35
110030
2204
우리는 이미 인공지능을 갖고 있어요.
02:04
and often자주 it works공장 in the background배경,
36
112258
2398
이들은 주로
보이지 않는 곳에서 일하지요.
02:06
in the back offices진력 of hospitals병원,
37
114680
1586
병원 사무실 뒷편에서
02:08
where it's used to diagnose진단하다 X-rays엑스레이
better than a human인간의 doctor의사.
38
116290
4686
X선을 의사보다 더 잘 진단합니다.
02:13
It's in legal적법한 offices진력,
39
121000
1726
또한 법률사무소에서
02:14
where it's used to go
through...을 통하여 legal적법한 evidence증거
40
122750
2368
법적 증거 검토를
02:17
better than a human인간의 paralawyer중계자.
41
125142
1855
인간 준법률가보다 훨씬 잘 수행하죠.
02:19
It's used to fly파리 the plane평면
that you came왔다 here with.
42
127506
3656
AI는 여러분이 타고 온 비행기
를 띄우기 위해서도 사용됩니다.
02:24
Human인간 pilots조종사 only flew날아 갔다. it
seven일곱 to eight여덟 minutes의사록,
43
132165
2381
실제 조종사는 사실 7분에서
8분 정도 밖에 운전하지 않고
02:26
the rest휴식 of the time the AIAI was driving운전.
44
134570
1953
그 외는 모두 AI가 운행합니다.
02:28
And of course코스, in Netflix넷플릭스 and Amazon아마존,
45
136547
2173
그리고 주지하듯 넷플릭스나 아마존에선
02:30
it's in the background배경,
making만들기 those recommendations추천.
46
138744
2530
뒤에서 활동하며 추천을 많이 합니다.
02:33
That's what we have today오늘.
47
141298
1261
그게 바로 오늘날의 AI입니다.
02:34
And we have an example, of course코스,
in a more front-facing정면을 바라 보는 aspect양상 of it,
48
142583
4801
너무나 대표적이고 당연한 예시로는
02:39
with the win승리 of the AlphaGo알파 고, who beat박자
the world's세계의 greatest가장 큰 Go champion챔피언.
49
147408
6629
세계 최고의 바둑 선수를
이긴 알파고가 있습니다.
02:46
But it's more than that.
50
154478
4053
하지만 그것이 다가 아닙니다.
02:50
If you play놀이 a video비디오 game경기,
you're playing연주하다 against반대 an AIAI.
51
158555
2642
만약 비디오 게임을 한다면, 여러분은
인공지능을 상대로 게임 하는 겁니다.
02:53
But recently요새, GoogleGoogle taught가르쳤다 their그들의 AIAI
52
161221
4538
하지만 최근에 구글에서 인공지능에게
02:57
to actually사실은 learn배우다 how to play놀이 video비디오 games계략.
53
165783
2412
비디오 게임 하는 법을
배우도록 가르쳤습니다.
03:00
Again, teaching가르치는 video비디오 games계략
was already이미 done끝난,
54
168686
2709
다시 말하자면 비디오 게임 자체
를 가르치는 건 기성취되었지만
03:03
but learning배우기 how to play놀이
a video비디오 game경기 is another다른 step단계.
55
171419
3897
비디오 게임 하는 법을 배우는
것은 한걸음 더 나아간 것 입니다.
03:07
That's artificial인공의 smartness.
56
175340
1678
그것이 바로 인공적인 총명입니다.
03:10
What we're doing is taking취득
this artificial인공의 smartness
57
178571
4522
우리가 지금 하고있는것은
이 인공적인 총명을 가지고
03:15
and we're making만들기 it smarter똑똑한 and smarter똑똑한.
58
183117
2423
더 똑똑하게 만드는 것 입니다.
03:18
There are three aspects상들
to this general일반 trend경향
59
186710
3895
저는 요즘의 트렌드에서 세 가지 부분이
03:22
that I think are underappreciated과소 평가 된;
60
190629
1689
과소평과 되고있다고 생각합니다.
03:24
I think we would understand알다
AIAI a lot better
61
192342
2277
우리가 이 세가지를 이해한다면
03:26
if we understood이해 된 these three things.
62
194643
2301
인공지능에 대하여 더
잘 이해하게 될것입니다.
03:28
I think these things also또한 would
help us embrace포옹 AIAI,
63
196968
3283
또한, 이것들은 우리가 인공지능
을 수용하는데 도움을 줄것입니다.
03:32
because it's only by embracing포용 it
that we actually사실은 can steer수송아지 it.
64
200275
3008
왜냐하면 인공지능을 받아들여야만
그를 진정으로 조종할 수 있으니까요.
03:35
We can actually사실은 steer수송아지 the specifics세부 사항
by embracing포용 the larger더 큰 trend경향.
65
203887
3157
더 큰 추세를 받아들임으로써 세부적인
측면까지 조종할 수 있을 것입니다.
03:39
So let me talk about
those three different다른 aspects상들.
66
207467
2979
그 때문에 이 세가지 측면에
대해 설명을 해보겠습니다.
03:42
The first one is: our own개인적인 intelligence지성
has a very poor가난한 understanding이해
67
210470
3673
첫 번째, 우리의 지능은
지능이 무엇인지에 대해
03:46
of what intelligence지성 is.
68
214167
1490
제대로 이해하고
있지 못하다는 점입니다.
03:48
We tend지키다 to think of intelligence지성
as a single단일 dimension치수,
69
216110
3653
우리는 지능이라는 것을
1차원으로 생각하기 쉽상이어서
03:51
that it's kind종류 of like a note노트
that gets도착 louder소리가 큰 and louder소리가 큰.
70
219787
2750
마치 음표소리가 점점 커져
가는 것과 비슷하게 생각합니다.
03:54
It starts시작하다 like with IQIQ measurement측정.
71
222561
2607
대표적인 예시로 IQ 검사가 있습니다.
03:57
It starts시작하다 with maybe a simple단순한
low낮은 IQIQ in a rat or mouse,
72
225192
4092
쥐의 아마 간단하고 낮은
아이큐부터 시작해서
04:01
and maybe there's more in a chimpanzee침팬지,
73
229308
2134
침팬지는 더 높을것이고
04:03
and then maybe there's more
in a stupid바보 person사람,
74
231887
2191
그리고 바보는 아마 그것
보다 높을 것으로 추측합니다.
04:06
and then maybe an average평균
person사람 like myself자기,
75
234102
2096
저와 같은 평균적인 사람이 그 다음
04:08
and then maybe a genius천재.
76
236222
1290
그리고 다음은 천재일 겁니다.
04:09
And this single단일 IQIQ intelligence지성
is getting점점 greater더 큰 and greater더 큰.
77
237536
4433
단수의 지능이 점점
복수의 IQ로 증가한다는 것은
04:14
That's completely완전히 wrong잘못된.
78
242516
1151
사실 완전히 틀린 관념입니다.
04:15
That's not what intelligence지성 is --
not what human인간의 intelligence지성 is, anyway어쨌든.
79
243691
3608
그건 지능이 아닙니다.
물론 인간이 지닌 지능은 아니죠.
04:19
It's much more like a symphony교향곡
of different다른 notes노트,
80
247673
4506
지능은 단일음계가 아니라
다양한 인지의 악기가 연주하는
04:24
and each마다 of these notes노트 is played연주 한
on a different다른 instrument악기 of cognition인식.
81
252203
3609
많은 음표의 교향곡과 더 유사합니다.
04:27
There are many많은 types유형
of intelligences지능 in our own개인적인 minds마음.
82
255836
3701
우리 안에는 다양한
유형의 지능이 존재합니다.
04:31
We have deductive연역적 인 reasoning추리,
83
259561
3048
연역 추리능력
04:34
we have emotional정서적 인 intelligence지성,
84
262633
2221
정서 지능
04:36
we have spatial공간의 intelligence지성;
85
264878
1393
공간 감각 등이 있죠.
04:38
we have maybe 100 different다른 types유형
that are all grouped그룹화 된 together함께,
86
266295
4021
우리 안에는 대략 100가지도
넘는 유형의 지능이 함께 묶여 있고
04:42
and they vary다르다 in different다른 strengths강점
with different다른 people.
87
270340
3905
이는 다양하게 나타나
사람마다 다른 장점을 가집니다.
04:46
And of course코스, if we go to animals동물,
they also또한 have another다른 basket바구니 --
88
274269
4526
동물들의 경우도 마찬가지로
그 그릇의 지능내용이 다르고
04:50
another다른 symphony교향곡 of different다른
kinds종류 of intelligences지능,
89
278819
2541
다른 종류의 지능을 가진
다른 교향곡을 갖고 있을 것이고
04:53
and sometimes때때로 those same같은 instruments악기들
are the same같은 that we have.
90
281384
3566
몇몇 악기는 우리와 같은 것이겠죠.
04:56
They can think in the same같은 way,
but they may할 수있다 have a different다른 arrangement배열,
91
284974
3561
같은 방식으로 생각을 하지만
다른 방식으로 배열할 수도 있고
05:00
and maybe they're higher더 높은
in some cases사례 than humans인간,
92
288559
2467
어쩌면 특정 부분에서는
사람보다 더 똑똑할 수도 있습니다.
05:03
like long-term장기간 memory기억 in a squirrel다람쥐
is actually사실은 phenomenal경이로운,
93
291050
2837
예를들어 마치 다람쥐의
장기기억력은 천재에 가까워서
05:05
so it can remember생각해 내다
where it buried묻힌 its nuts견과류.
94
293911
2287
어디 먹이를 파묻었나
기억하는데 쓰입니다.
05:08
But in other cases사례 they may할 수있다 be lower보다 낮은.
95
296222
1987
그러나 다른 부분에서는
사람보다 낮을 수도 있습니다.
05:10
When we go to make machines기계들,
96
298233
2730
우리는 기계를 만들 때
05:12
we're going to engineer기사
them in the same같은 way,
97
300987
2196
기계를 이런 방법으로 제작하려 합니다.
05:15
where we'll make some of those types유형
of smartness much greater더 큰 than ours우리 것,
98
303207
5010
우리보다 훨씬 더 높은
차원의 지능을 가지도록 하지만
05:20
and many많은 of them won't습관 be
anywhere어딘가에 near가까운 ours우리 것,
99
308241
2571
그 지능의 수준은 대부분
인간보다 훨씬 못합니다.
05:22
because they're not needed필요한.
100
310836
1544
이는 그것들이 필요하지 않기 때문이죠.
05:24
So we're going to take these things,
101
312404
2203
따라서 우리는 이런 것을 염두에 두고
05:26
these artificial인공의 clusters클러스터,
102
314631
2081
즉, 이 인공적 클러스터를 고려해서
05:28
and we'll be adding첨가 more varieties품종
of artificial인공의 cognition인식 to our AIs인공 지능.
103
316736
5362
인공지능에 더 다양한
종류의 인지력을 추가해야합니다.
05:34
We're going to make them
very, very specific특유한.
104
322507
4071
우리는 이를 아주
구체적으로 만들어야 합니다.
05:38
So your calculator계산자 is smarter똑똑한
than you are in arithmetic산수 already이미;
105
326602
6542
그래서 여러분의 계산기는
여러분의 산수능력보다 이미 더 똑똑하죠.
05:45
your GPSGPS is smarter똑똑한
than you are in spatial공간의 navigation항해;
106
333168
3697
GPS는 우리보다 훨씬 길을 잘 찾고
05:49
GoogleGoogle, Bing, are smarter똑똑한
than you are in long-term장기간 memory기억.
107
337337
4258
구글과 빙은 우리보다
훨씬 긴 장기기억을 가집니다.
05:54
And we're going to take, again,
these kinds종류 of different다른 types유형 of thinking생각
108
342339
4530
우리는 이런 생각을 또 다시
다른 유형에도 적용할수 있습니다.
05:58
and we'll put them into, like, a car.
109
346893
1933
예를 들어 자동차가 있습니다.
06:00
The reason이유 why we want to put them
in a car so the car drives드라이브,
110
348850
3057
우리가 인공지능을 차 안에 넣어 차가
스스로 운전하게 하고자 하는 이유는
06:03
is because it's not driving운전 like a human인간의.
111
351931
2302
차가 인간처럼 운전하지
않는다는 점 때문입니다.
06:06
It's not thinking생각 like us.
112
354257
1396
차는 우리처럼 생각을 하지 않습니다.
06:07
That's the whole완전한 feature특색 of it.
113
355677
1920
이게 차의 특징입니다.
06:09
It's not being존재 distracted산만,
114
357621
1535
즉, 다른 것에 정신이 분산
되지 않는다는 것입니다.
06:11
it's not worrying걱정하는 about whether인지 어떤지
it left the stove난로 on,
115
359180
2754
가스레인지를 켜고 나왔는지
06:13
or whether인지 어떤지 it should have
majored전공의 in finance재원.
116
361958
2138
혹은 금융 전공을 할지
말지 등에 고민하지 않고
06:16
It's just driving운전.
117
364120
1153
그냥 운전만 합니다.
06:17
(Laughter웃음)
118
365297
1142
(웃음)
06:18
Just driving운전, OK?
119
366463
1841
그냥 운전만이요! 알겠나요?
06:20
And we actually사실은 might even
come to advertise공시 하다 these
120
368328
2937
그리고 우리는 이런
특징을 광고할수도 있습니다!
06:23
as "consciousness-free의식이없는."
121
371289
1545
"생각이 없다"는 식으로요.
06:24
They're without없이 consciousness의식,
122
372858
1774
그들은 자각이 없고
06:26
they're not concerned우려하는 about those things,
123
374656
2104
그런 종류의 걱정을 하지 않으며
06:28
they're not distracted산만.
124
376784
1156
다른 것에 정신이 팔리지 않습니다.
06:29
So in general일반, what we're trying견딜 수 없는 to do
125
377964
2966
이처럼 대부분의
경우에서 우리가 하려는 것은
06:32
is make as many많은 different다른
types유형 of thinking생각 as we can.
126
380954
4500
우리가 할 수 있는 생각의
다양한 형태를 모두 만드는 겁니다.
06:37
We're going to populate채우다 the space공간
127
385804
2083
우리는 가능한 모든 형태,
종류의 다양한 생각들의
06:39
of all the different다른 possible가능한 types유형,
or species, of thinking생각.
128
387911
4159
영역을 모두 데이터화 해야 합니다.
06:44
And there actually사실은 may할 수있다 be some problems문제들
129
392094
2068
사실 몇몇 문제들은
06:46
that are so difficult어려운
in business사업 and science과학
130
394186
2800
과학적으로 힘들거나
혹은 시장현실에 맞지 않아
06:49
that our own개인적인 type유형 of human인간의 thinking생각
may할 수있다 not be able할 수 있는 to solve풀다 them alone혼자.
131
397010
4042
인간의 사고력만으로는
풀 수 없을 수도 있습니다.
06:53
We may할 수있다 need a two-step두 걸음 program프로그램,
132
401076
1992
그래서 2단계의
프로그램이 필요할 것입니다.
06:55
which어느 is to invent꾸미다 new새로운 kinds종류 of thinking생각
133
403092
4203
먼저 새로운 종류의 생각을 창조해내
06:59
that we can work alongside나란히 of to solve풀다
these really large problems문제들,
134
407692
3734
우리가 함께 이 큰 문제를
풀어가는 것입니다.
07:03
say, like dark어두운 energy에너지 or quantum양자 gravity중량.
135
411450
2918
예를들어, 암흑물질과 양자중력처럼요.
07:08
What we're doing
is making만들기 alien외계인 intelligences지능.
136
416496
2646
이런 작업은 외계지성체를
만드는 것과 다를바가 없습니다.
07:11
You might even think of this
as, sort종류 of, artificial인공의 aliens외계인
137
419166
4069
아마 여러분께 이 일을 외계인처럼
07:15
in some senses감각.
138
423259
1207
낯설게 느낄수도 있어요.
07:16
And they're going to help
us think different다른,
139
424490
2300
그리고 이는 우리가 다르게
사고할 수 있도록 도와줄것입니다.
07:18
because thinking생각 different다른
is the engine엔진 of creation창조
140
426814
3632
색다른 생각은 창조의 엔진이자
07:22
and wealth and new새로운 economy경제.
141
430470
1867
부와 경제의 새로운
시작을 열게 하니까요.
07:25
The second둘째 aspect양상 of this
is that we are going to use AIAI
142
433835
4923
이어서 두 번째 측면은
우리가 2차 산업혁명을 발생시키기 위해
07:30
to basically원래 make a second둘째
Industrial산업 Revolution혁명.
143
438782
2950
인공지능을 사용하는 것입니다.
07:34
The first Industrial산업 Revolution혁명
was based기반 on the fact
144
442135
2773
제1차 산업혁명은
우리가 소위 인공적인 힘이라는걸
07:36
that we invented발명 된 something
I would call artificial인공의 power.
145
444932
3462
만들었다는 사실에 기반을 뒀습니다.
07:40
Previous너무 이른 to that,
146
448879
1150
이전에는
07:42
during...동안 the Agricultural농업 Revolution혁명,
147
450053
2034
즉, 농업 혁명동안은
07:44
everything that was made만든
had to be made만든 with human인간의 muscle근육
148
452111
3702
모든 것이 사람의
노동력으로 만들어졌야 했습니다.
07:47
or animal동물 power.
149
455837
1307
아니면 동물의 힘으로요.
07:49
That was the only way
to get anything done끝난.
150
457565
2063
어떠한 목적이든지 인간과
동물의 육체적 노동은 불가피했습니다.
07:51
The great innovation혁신 during...동안
the Industrial산업 Revolution혁명 was,
151
459652
2945
산업혁명 동안 일어난 혁신적인 변화는
07:54
we harnessed마구 사용하는 steam증기 power, fossil화석 fuels연료,
152
462621
3109
우리가 증기기관과 화석연료를 사용해
07:57
to make this artificial인공의 power
that we could use
153
465754
3856
인간이 원했던 모든 것에 쓸 수 있는
08:01
to do anything we wanted to do.
154
469634
1669
인공적인 힘을 만들었다는 겁니다.
08:03
So today오늘 when you drive드라이브 down the highway고속도로,
155
471327
2772
그래서 오늘날 여러분이 고속도로 주행시
08:06
you are, with a flick영화 of the switch스위치,
commanding당당한 250 horses --
156
474571
4525
단순히 스위치를 만지는 것으로
250마리의 말의 지휘효과를 가집니다.
08:11
250 horsepower마력 --
157
479120
1572
250 마력은
08:12
which어느 we can use to build짓다 skyscrapers고층 빌딩,
to build짓다 cities도시들, to build짓다 roads도로,
158
480716
4692
고층 건물을 짓고 도시를
세우며 도로를 닦는데 쓸 수 있고
08:17
to make factories공장 that would churn휘젓다 out
lines윤곽 of chairs의자 or refrigerators냉장고
159
485432
5789
의자나 냉장고를 만드는
공장들이 돌아가게 만드는,
08:23
way beyond...을 넘어서 our own개인적인 power.
160
491245
1654
인간을 한참 넘어서는 힘입니다.
08:24
And that artificial인공의 power can also또한
be distributed분산 된 on wires전선 on a grid그리드
161
492923
6111
그리고 이런 인공적인 힘은
모든 집과, 공장, 농가 등으로
그리드상에서 분배됩니다.
08:31
to every...마다 home, factory공장, farmstead농장,
162
499058
3199
08:34
and anybody아무도 could buy사다
that artificial인공의 power,
163
502281
4191
누구나 인공적인 힘을
플러그를 꼽기만 하면 살 수 있습니다.
08:38
just by plugging막히는 something in.
164
506496
1472
08:39
So this was a source출처
of innovation혁신 as well,
165
507992
2439
그래서 이는 혁신의 근원이었습니다.
08:42
because a farmer농장주 could take
a manual조작 hand pump펌프,
166
510455
3418
왜냐하면 농부가 수동식 펌프에
08:45
and they could add더하다 this artificial인공의
power, this electricity전기,
167
513897
2916
이 인공적인 힘, 바로 전기를 적용하여
08:48
and he'd그는 have an electric전기 같은 pump펌프.
168
516837
1497
자동식 펌프를 가질 수 있으니까요.
08:50
And you multiply곱하다 that by thousands수천
or tens수십 of thousands수천 of times타임스,
169
518358
3318
이런 경우가 몇 천, 몇 만번 반복되고
08:53
and that formula공식 was what brought가져온 us
the Industrial산업 Revolution혁명.
170
521700
3159
그렇게 생기는 공식이
우리를 산업혁명으로 이끌었습니다.
08:56
All the things that we see,
all this progress진행 that we now enjoy즐겨,
171
524883
3585
우리가 보는 모든것과
우리가 즐기는 모든 과정은
09:00
has come from the fact
that we've우리는 done끝난 that.
172
528492
2063
우리가 그를 해냈다는
사실로부터 비롯됩니다.
09:02
We're going to do
the same같은 thing now with AIAI.
173
530579
2348
우리는 인공지능의 경우
에도 이를 적용해볼수 있습니다.
09:04
We're going to distribute배포하다 that on a grid그리드,
174
532951
2075
배전망을 통해 인공지능을 분배하여
09:07
and now you can take that electric전기 같은 pump펌프.
175
535050
2374
여러분은 인공적인
힘이 더해진 자동펌프에
09:09
You can add더하다 some artificial인공의 intelligence지성,
176
537448
2968
인공적인 지능을 더할 수 있습니다.
09:12
and now you have a smart똑똑한 pump펌프.
177
540440
1481
그렇다면 여러분은
스마트 펌프를 가질수 있죠.
09:13
And that, multiplied곱한 by a million백만 times타임스,
178
541945
1928
그리고 다시 이를 수 없이 반복하여
09:15
is going to be this second둘째
Industrial산업 Revolution혁명.
179
543897
2363
제 2차 산업혁명으로 나아갈 것입니다.
09:18
So now the car is going down the highway고속도로,
180
546284
2382
그에 따라서, 이제
고속도로를 달리는 차는
09:20
it's 250 horsepower마력,
but in addition부가, it's 250 minds마음.
181
548690
4294
250 마력에다가
250개의 생각까지 갖춘
09:25
That's the auto-driven자동 구동 car.
182
553008
1769
바로 자동주행 자동차가 되겠지요.
09:26
It's like a new새로운 commodity상품;
183
554801
1389
이건 거의 새로운 상품입니다.
09:28
it's a new새로운 utility유용.
184
556214
1303
새로운 용도이니까요.
09:29
The AIAI is going to flow흐름
across건너서 the grid그리드 -- the cloud구름 --
185
557541
3041
인공지능은 이제
상공이라는 새로운 길을 따라
09:32
in the same같은 way electricity전기 did.
186
560606
1567
전기가 그랬듯 퍼져나갈 것입니다.
09:34
So everything that we had electrified깜짝 놀라게 하는,
187
562197
2380
그럼으로써 전기로 작동하던 모든 것을
09:36
we're now going to cognify인정하다.
188
564601
1723
인공지능화(cognify)할 것입니다.
09:38
And I owe지고 있다 it to Jeff제프, then,
189
566693
1385
그리고 예언하건데,
09:40
that the formula공식
for the next다음 것 10,000 start-ups신생 기업
190
568102
3732
미래에 많은 스타트업
사업의 시작을 열 공식은
09:43
is very, very simple단순한,
191
571858
1162
매우 간결합니다.
09:45
which어느 is to take x and add더하다 AIAI.
192
573044
3167
변수 x에 인공지능을 더하는 것이죠.
09:49
That is the formula공식,
that's what we're going to be doing.
193
577100
2812
이게 공식이고
바로 우리가 할 일입니다.
09:51
And that is the way
in which어느 we're going to make
194
579936
3306
이를 통해 우리는
09:55
this second둘째 Industrial산업 Revolution혁명.
195
583266
1858
2차 산업혁명을 일으킬 수 있습니다.
09:57
And by the way -- right now, this minute,
196
585148
2154
그나저나, 여러분은
지금 당장, 바로 여기서
09:59
you can log로그 on to GoogleGoogle
197
587326
1169
구글에 로그인 해서
10:00
and you can purchase매수
AIAI for six cents센트, 100 hits히트 곡.
198
588519
3882
인공지능을 6센트에
100번 쓸 수 있습니다.
10:04
That's available유효한 right now.
199
592758
1604
이게 지금 당장 가능 한 거란 말이죠.
10:06
So the third제삼 aspect양상 of this
200
594386
2286
이에 대한 세 번째 측면은
10:09
is that when we take this AIAI
and embody구체화하다 it,
201
597315
2678
우리가 인공지능을 구체화시키고
10:12
we get robots로봇.
202
600017
1173
로봇을 만들었을 때입니다.
10:13
And robots로봇 are going to be bots,
203
601214
1703
로봇은 수족이 될 것이고
10:14
they're going to be doing many많은
of the tasks과제 that we have already이미 done끝난.
204
602941
3328
그들은 우리가 했던 일들을 하게 되죠.
10:20
A job is just a bunch다발 of tasks과제,
205
608357
1528
직업은 일의 뭉텅이이기 때문에
10:21
so they're going to redefine재정의하다 our jobs일자리
206
609909
1762
로봇은 우리의 직업에
대한 개념을 재정립할겁니다.
10:23
because they're going to do
some of those tasks과제.
207
611695
2259
그들이 바로 그 일을
맡게 될 것이기 때문이죠.
10:25
But they're also또한 going to curate보좌 신부
whole완전한 new새로운 categories카테고리,
208
613978
3197
한편, 로봇은 우리가
전에는 원했는지조차 몰랐던
10:29
a whole완전한 new새로운 slew회전 of tasks과제
209
617199
2247
일의 완전히 새로운 종류,
또 완전히 새로운 업무를
10:31
that we didn't know
we wanted to do before.
210
619470
2457
만들어 낼 것입니다.
10:33
They're going to actually사실은
engender낳다 new새로운 kinds종류 of jobs일자리,
211
621951
3637
즉, 로봇의 탄생은 새로운 직업군과
10:37
new새로운 kinds종류 of tasks과제 that we want done끝난,
212
625612
2271
인간이 달성하고 싶어할 과제를
새롭게 만들어낼 것입니다.
마치 자동화된 기기가 과거에는
10:39
just as automation오토메이션 made만든 up
a whole완전한 bunch다발 of new새로운 things
213
627907
3405
10:43
that we didn't know we needed필요한 before,
214
631336
1834
필요했는지 조차도
몰랐던 것들을 만들어 냈고
10:45
and now we can't live살고 있다 without없이 them.
215
633194
1956
이제는 우리가 그들
없이는 살 수 없는 것처럼요.
10:47
So they're going to produce생기게 하다
even more jobs일자리 than they take away,
216
635174
3956
그래서 로봇들은 그들이 차지한 직업보다
더 많은 직업을 양상해 낼 것입니다.
10:51
but it's important중대한 that a lot of the tasks과제
that we're going to give them
217
639154
3434
그러나 중요한 점은 우리가
그들에게 할당하는 업무들의 대부분이
10:54
are tasks과제 that can be defined한정된
in terms자귀 of efficiency능률 or productivity생산력.
218
642612
4572
효율성과 생산성이라는
가치로 정의될수 있다는 것입니다.
10:59
If you can specify지정하다 a task태스크,
219
647676
1828
만약 당신이 일을
구체적으로 설명할수 있다면
11:01
either어느 한 쪽 manual조작 or conceptual개념적,
220
649528
2235
육체적 노동이든 정신적 노동이든
11:03
that can be specified지정된 in terms자귀
of efficiency능률 or productivity생산력,
221
651787
4780
그 일은 효율성과 생산성의 관점에서
11:08
that goes간다 to the bots.
222
656591
1777
로봇이 대신 할 수 있는
것으로 분류 될 수 있습니다.
11:10
Productivity생산력 is for robots로봇.
223
658758
2178
생산성은 로봇의 몫이라는 겁니다.
11:12
What we're really good at
is basically원래 wasting낭비 time.
224
660960
3070
우리가 로봇보다 훨씬 잘하는 건
소위 시간을 낭비하는 것일테니까요.
11:16
(Laughter웃음)
225
664054
1028
(웃음)
11:17
We're really good at things
that are inefficient무능한.
226
665106
2316
실제로 우리는 비효율적인 걸 잘합니다.
11:19
Science과학 is inherently본질적으로 inefficient무능한.
227
667446
3025
과학은 본질적으로 비효율적이죠.
11:22
It runs뛰다 on that fact that you have
one failure실패 after another다른.
228
670816
2906
과학은 여러 번
실패했다는 점에 기반합니다.
11:25
It runs뛰다 on the fact that you make tests검사들
and experiments실험 that don't work,
229
673746
3424
여러분이 성공하지 못한 실험과
시험을 했다는 사실에 근거합니다.
11:29
otherwise그렇지 않으면 you're not learning배우기.
230
677194
1442
그렇지 않다면,
새로운 걸 배울 수 없습니다.
11:30
It runs뛰다 on the fact
231
678660
1162
과학은 이처럼 효율성이 많이 부족하다는
11:31
that there is not
a lot of efficiency능률 in it.
232
679846
2083
점에 기반을 둡니다.
11:33
Innovation혁신 by definition정의 is inefficient무능한,
233
681953
2779
혁신을 정의하자면
바로 비효율일 겁니다.
11:36
because you make prototypes프로토 타입,
234
684756
1391
왜냐하면 여러분은 시제품을 만들 것이고
11:38
because you try stuff물건 that fails실패하다,
that doesn't work.
235
686171
2707
실패하거나 작동하지
않을 무언가를 시도해보겠죠.
11:40
Exploration탐구 is inherently본질적으로 inefficiency비효율.
236
688902
3112
모험도 근본적 비효율성을 가집니다.
11:44
Art미술 is not efficient실력 있는.
237
692038
1531
예술도 효율적이지 않아요.
11:45
Human인간 relationships관계 are not efficient실력 있는.
238
693593
2127
인간관계 또한 효율적이지 못합니다.
11:47
These are all the kinds종류 of things
we're going to gravitate끌다 to,
239
695744
2940
이런 것들은 우리가
자연스럽게 끌리는 일들입니다.
11:50
because they're not efficient실력 있는.
240
698708
1475
바로 그들이 비효율적이기 때문입니다.
11:52
Efficiency능률 is for robots로봇.
241
700207
2315
효율성은 인간이 아니라
로봇들에게 중요한 것이죠.
11:55
We're also또한 going to learn배우다
that we're going to work with these AIs인공 지능
242
703338
4123
우리는 앞으로 이 인공지능들과 함께
일해야 하는 것에 대해 배워야합니다.
11:59
because they think differently다르게 than us.
243
707485
1997
그들은 우리보다 다르게 생각하니까요.
12:02
When Deep깊은 Blue푸른 beat박자
the world's세계의 best베스트 chess체스 champion챔피언,
244
710005
4314
딥 블루가 세계 제일의
체스 챔피언에게 이겼을 때
12:06
people thought it was the end종료 of chess체스.
245
714343
1929
사람들은 그것이
체스의 끝이라고 생각했습니다.
12:08
But actually사실은, it turns회전 out that today오늘,
the best베스트 chess체스 champion챔피언 in the world세계
246
716296
4402
하지만 실제로는,
요즘 세계제일의 체스 챔피언은
12:12
is not an AIAI.
247
720722
1557
인공지능이 아닙니다.
12:14
And it's not a human인간의.
248
722906
1181
인간도 아닙니다.
12:16
It's the team of a human인간의 and an AIAI.
249
724111
2715
바로 인공지능과 인간의 팀이죠.
12:18
The best베스트 medical의료 diagnostician진찰 전문 의사
is not a doctor의사, it's not an AIAI,
250
726850
4000
제일의 의료분석가는 의사도
아니고 인공지능도 아닌
12:22
it's the team.
251
730874
1176
바로 의사와 인공지능의 팀입니다.
12:24
We're going to be working with these AIs인공 지능,
252
732074
2149
우리는 앞으로 이런
인공지능들과 일하게 될 겁니다.
12:26
and I think you'll be paid유료 in the future미래
253
734247
1995
그리고 여러분이 미래에 얼마나
로봇과 일을 잘 할수 있는지에 따라
12:28
by how well you work with these bots.
254
736266
2391
연봉이 결정될거라고 생각합니다.
12:31
So that's the third제삼 thing,
is that they're different다른,
255
739026
4257
저의 세번째 포인트는
바로 이겁니다. 그들이 다르다는 것.
12:35
they're utility유용
256
743307
1165
그들은 도구예요.
12:36
and they are going to be something
we work with rather차라리 than against반대.
257
744496
3816
그래서 그들은 우리가 적대심을
가지는 게 아니라 함께 할 존재입니다.
12:40
We're working with these
rather차라리 than against반대 them.
258
748336
2639
우리는 그들을 거부하지 않고
함께 일하려고 해야합니다.
12:42
So, the future미래:
259
750999
1477
그래서 미래에는
12:44
Where does that take us?
260
752500
1420
이 미래에 우리는 어떻게 될까요?
12:45
I think that 25 years연령 from now,
they'll그들은 할 것이다 look back
261
753944
3567
저는 25년 후에 지금을 돌아봤을 때
12:49
and look at our understanding이해
of AIAI and say,
262
757535
3125
인공지능에 대한 우리의 이해를
보곤 이런 말을 할 거라고 생각합니다.
12:52
"You didn't have AIAI. In fact,
you didn't even have the Internet인터넷 yet아직,
263
760684
3300
"너희는 AI를 가지고 있지 않아.
솔직히 말하자면 너희가 가진 건
12:56
compared비교하다 to what we're going
to have 25 years연령 from now."
264
764008
2741
앞으로 25년 간 있을 것에
비하면 인터넷 정도도 안돼."
12:59
There are no AIAI experts전문가 right now.
265
767849
3047
지금 당장은 인공지능
전문가가 단 하나도 없습니다.
13:02
There's a lot of money going to it,
266
770920
1699
현재 많은 돈이
인공지능에 쓰이고 있어요.
13:04
there are billions수십억 of dollars불화
being존재 spent지출하다 on it;
267
772643
2268
수십억 달러쯤은 투자되고 있는
13:06
it's a huge거대한 business사업,
268
774935
2164
매우 큰 사업이죠.
13:09
but there are no experts전문가, compared비교하다
to what we'll know 20 years연령 from now.
269
777123
4272
하지만, 20년 후와 비교하면
전문가라고 할만한게 없죠.
13:14
So we are just at the beginning처음
of the beginning처음,
270
782064
2885
그래서 우리는 지금 정말
아주 초기 단계에 있습니다.
13:16
we're in the first hour시간 of all this.
271
784973
2163
이 모든것의 시작점에 있는 것이죠.
13:19
We're in the first hour시간 of the Internet인터넷.
272
787160
1935
우리는 인터넷의 시작점에 있고.
13:21
We're in the first hour시간 of what's coming오는.
273
789119
2040
앞으로 닥쳐올 것의
시작점에 있습니다.
13:23
The most가장 popular인기 있는 AIAI product생성물
in 20 years연령 from now,
274
791183
4153
20년 후 모두가 사용하고 있을
13:27
that everybody각자 모두 uses용도,
275
795360
1444
가장 영향력있는 인공지능은
13:29
has not been invented발명 된 yet아직.
276
797499
1544
아직은 발명되지 않았습니다.
13:32
That means방법 that you're not late늦은.
277
800464
2467
그건 여러분이
늦지 않았단 걸 뜻합니다.
13:35
Thank you.
278
803684
1151
감사합니다.
13:36
(Laughter웃음)
279
804859
1026
(웃음)
(박수)
13:37
(Applause박수 갈채)
280
805909
2757
Translated by Keun young Lee
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Kevin Kelly - Digital visionary
There may be no one better to contemplate the meaning of cultural change than Kevin Kelly, whose life story reads like a treatise on the value and impacts of technology.

Why you should listen

Kelly has been publisher of the Whole Earth Review, executive editor at Wired magazine (which he co-founded, and where he now holds the title of Senior Maverick), founder of visionary nonprofits and writer on biology, business and “cool tools.” He’s renounced all material things save his bicycle (which he then rode 3,000 miles), founded an organization (the All-Species Foundation) to catalog all life on Earth, championed projects that look 10,000 years into the future (at the Long Now Foundation), and more. He’s admired for his acute perspectives on technology and its relevance to history, biology and society. His new book, The Inevitable, just published, explores 12 technological forces that will shape our future.

More profile about the speaker
Kevin Kelly | Speaker | TED.com