ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

더글라스 러쉬코프: 디지털 미래에 "인간의 편"이 되는 법

Filmed:
1,652,468 views

더 이상 우리는 인간의 창의성에 가치를 두지 않는다고 미디어 이론가 더글라스 러쉬코프(Douglas Rushkoff)는 말합니다. 디지털 기술이 지배하는 세상에서, 현재 우리의 가치는 단지 데이터로만 평가받고 있습니다. 이 열정적인 강연을 통해, 인간을 소비자로서 최적화하기 위해 기술을 사용하는 것이 아니라, 관계, 창조, 존중 등 디지털 시대 이전의 가치들에 중점을 둔 미래를 창조하는데 사용할 것을 촉구하며, 다음과 같이 말합니다, "'인간의 편'으로 오세요. 다른 사람들도 함께요. 다함께 우리가 늘 원했던 미래를 창조합시다."
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got invited초대 된 to an exclusive독특한 resort의지
0
1520
3880
언젠가 고급 리조트에 초대를 받아
00:17
to deliver배달 a talk about the digital디지털 future미래
1
5440
2456
디지털 미래에 대한 강연을 하게 됐어요.
00:19
to what I assumed꾸민 would be
a couple of hundred tech기술 executives경영진.
2
7920
3576
기술전문회사 중역들이 한 200명
모여있을 거라 생각했죠.
00:23
And I was there in the green녹색 room,
waiting기다리는 to go on,
3
11520
2696
대기실에서 준비를 하고 있는데
00:26
and instead대신에 of bringing데려 오는 me to the stage단계,
they brought가져온 five다섯 men남자 into the green녹색 room
4
14240
5176
무대로 부르지 않고
사람 5명을 방으로 데려와
00:31
who sat앉은 around this little table with me.
5
19440
2056
작은 탁자를 놓고 제 옆으로 앉혔어요.
00:33
They were tech기술 billionaires억만 장자.
6
21520
2096
다들 억만장자들이었는데
00:35
And they started시작한 pepperingPeppering me
with these really binary이진 questions질문들,
7
23640
4536
예 아니오 질문을
제게 퍼붓기 시작했어요.
00:40
like: Bitcoin비트 코인 or Etherium이더리움?
8
28200
2000
예를 들어, 비트코인 아니면 이더리움?
00:43
Virtual가상 reality현실 or augmented증강 된 reality현실?
9
31120
2656
가상현실 아니면 증강현실?
00:45
I don't know if they were
taking취득 bets내기 or what.
10
33800
2496
자기들끼리 내기를 했던 건진 모르겠지만
00:48
And as they got more comfortable편안 with me,
11
36320
2816
어느 정도 분위기가 무르익으면서
00:51
they edged가장자리가있는 towards...쪽으로
their그들의 real레알 question문제 of concern관심사.
12
39160
3216
정말 궁금했던 것들을 묻기 시작했죠.
00:54
Alaska알래스카 or New새로운 Zealand뉴질랜드?
13
42400
2240
알래스카 아니면 뉴질랜드?
00:57
That's right.
14
45760
1216
맞습니다.
00:59
These tech기술 billionaires억만 장자
were asking질문 a media미디어 theorist이론가 for advice조언
15
47000
2976
이 억만장자들이 미디어 이론가에게
최후의 그날을 대비한 벙커를
01:02
on where to put their그들의 doomsday최후의 심판의 날 bunkers벙커.
16
50000
1880
어디에 지을지 묻고 있었던 거죠.
01:04
We spent지출하다 the rest휴식 of the hour시간
on the single단일 question문제:
17
52600
3136
남은 시간 동안
이 얘기에만 매달렸어요.
01:07
"How do I maintain유지하다 control제어
of my security보안 staff직원
18
55760
3616
"그 날이 오면 회사의 기밀을
담당하는 직원들을
01:11
after the event행사?"
19
59400
1320
어떻게 통제하죠?"
01:13
By "the event행사" they mean
the thermonuclear열핵 war전쟁
20
61920
2736
이들이 말하는 "최후의 그날"은
세상에 종말을 가져 올
01:16
or climate기후 catastrophe대단원 or social사회적인 unrest불안
that ends끝이다 the world세계 as we know it,
21
64680
4656
핵전쟁이나 기후 대재앙,
또는 사회 불안 등
01:21
and more importantly중요하게,
makes~을 만든다 their그들의 money obsolete구식의.
22
69360
3280
더 정확하게, 그들의 돈이
휴지조각이 될 때를 말하죠.
01:26
And I couldn't할 수 없었다 help but think:
23
74200
2216
그 때 이런 생각이 들었어요.
01:28
these are the wealthiest부유 한,
most가장 powerful강한 men남자 in the world세계,
24
76440
4736
세상에서 가장 부유하고
힘을 가진 이들이
01:33
yet아직 they see themselves그들 자신 as utterly완전히
powerless무력한 to influence영향 the future미래.
25
81200
4656
미래의 문제에 대해선
너무나 무능하다는 거요.
01:37
The best베스트 they can do is hang다루는 법 on
for the inevitable피할 수 없는 catastrophe대단원
26
85880
4456
피할 수 없는 대재앙을 앞에 두고
그들이 생각하는 최선책이
01:42
and then use their그들의 technology과학 기술 and money
to get away from the rest휴식 of us.
27
90360
3680
기술과 돈을 가지고
나머지 사람들로부터 벗어나려는 거죠.
01:47
And these are the winners승자
of the digital디지털 economy경제.
28
95520
2536
바로 오늘날의 디지털 경제를
선도하는 자들입니다.
01:50
(Laughter웃음)
29
98080
3416
(웃음)
01:53
The digital디지털 renaissance르네상스
30
101520
2776
디지털의 부흥은
01:56
was about the unbridled구속을받지 않은 potential가능성
31
104320
4256
인간의 집단적 상상의
02:00
of the collective집단적 human인간의 imagination상상력.
32
108600
2416
구속받지 않는
잠재력에 관한 것입니다.
02:03
It spanned스팬 된 everything
from chaos혼돈 math수학 and quantum양자 physics물리학
33
111040
5136
혼돈 이론과 퀀텀 물리,
02:08
to fantasy공상 role-playing역할 놀이
and the Gaia가이아 hypothesis가설, right?
34
116200
4176
공상적 역할 게임과 가이아 가설에
이르기까지 다양하죠.
02:12
We believed믿었다 that human인간의 beings존재들 connected연결된
could create몹시 떠들어 대다 any future미래 we could imagine상상하다.
35
120400
6720
인간들이 힘을 합치면
어떤 미래든 가능하다고 믿었어요.
02:20
And then came왔다 the dot comcom boom.
36
128840
2199
그리고 닷컴 붐이 찾아왔고
02:24
And the digital디지털 future미래
became되었다 stock스톡 futures선물.
37
132600
3616
디지털 미래는
주식 선물로 전락하고 맙니다.
02:28
And we used all that energy에너지
of the digital디지털 age나이
38
136240
3016
디지털 시대의 모든 역량을
02:31
to pump펌프 steroids스테로이드 into the already이미 dying사망
NASDAQ나스닥 stock스톡 exchange교환.
39
139280
4256
이미 사양길로 접어든
나스닥 증권 거래소에 퍼부었죠.
02:35
The tech기술 magazines잡지 told us
a tsunami쓰나미 was coming오는.
40
143560
3616
기술전문 잡지들은
엄청난 변화가 밀려오고 있고
02:39
And only the investors투자자 who hired고용 된
the best베스트 scenario-planners시나리오 플래너 and futurists미래
41
147200
4456
최고의 각본 기획자와 미래학자들을
고용한 투자자들만이
02:43
would be able할 수 있는 to survive생존하다 the wave웨이브.
42
151680
2520
살아남을 거라고 경고했어요.
02:47
And so the future미래 changed변경된 from this thing
we create몹시 떠들어 대다 together함께 in the present선물
43
155160
5896
그래서 미래는 현재 우리가 함께
만들어 가는 것이 아닌
02:53
to something we bet내기 on
44
161080
1496
승자가 독식하는 치열한 시합에
02:54
in some kind종류 of a zero-sum제로섬
winner-takes-all승자 -테이크 - 모든 competition경쟁.
45
162600
3200
내기라도 걸고 있는
상황으로 바뀌어 버렸죠.
03:00
And when things get that competitive경쟁력있는
about the future미래,
46
168120
3136
미래에 대한 경쟁이
이렇게 치열해 진다면
03:03
humans인간 are no longer더 길게 valued가치있는
for our creativity독창성.
47
171280
3296
이제 그 가치를 인정받게 되는 건
인간의 창의성이 아닌
03:06
No, now we're just valued가치있는 for our data데이터.
48
174600
3136
우리들에 관한 데이터 뿐이에요.
03:09
Because they can use the data데이터
to make predictions예측.
49
177760
2376
데이터를 이용해
예측이 가능하니까요.
03:12
Creativity창의력, if anything,
that creates창조하다 noise소음.
50
180160
2576
창의성은, 그게 뭐든,
잡음으로 들릴 거에요.
03:14
That makes~을 만든다 it harder열심히 to predict예측하다.
51
182760
2216
예측하기만 힘들게 하니까요.
03:17
So we ended끝난 up with a digital디지털 landscape경치
52
185000
2416
결국 우리가 만든 디지털 환경은
03:19
that really repressed억압 된 creativity독창성,
repressed억압 된 novelty진기함,
53
187440
3256
창의성과 참신함 같은
우리에게 가장
03:22
it repressed억압 된 what makes~을 만든다 us most가장 human인간의.
54
190720
2840
인간적인 면을 억누르고 있어요.
03:26
We ended끝난 up with social사회적인 media미디어.
55
194760
1456
소셜 미디어가 판을 치고 있는데
03:28
Does social사회적인 media미디어 really connect잇다 people
in new새로운, interesting재미있는 ways?
56
196240
3456
정말 새롭고 흥미로운 방식으로
사람들을 이어주고 있을까요?
03:31
No, social사회적인 media미디어 is about using~을 사용하여 our data데이터
to predict예측하다 our future미래 behavior행동.
57
199720
5016
아니죠, 데이터를 통해 우리의 행동을
예측하는데 주로 쓰일 뿐이죠.
03:36
Or when necessary필요한,
to influence영향 our future미래 behavior행동
58
204760
2896
필요에 따라, 앞으로의 행동에
영향을 주기도 하는데
03:39
so that we act행위 more in accordance일치
with our statistical통계상의 profiles프로필.
59
207680
4040
통계적 개요에 맞게
행동하게 하려는 겁니다.
03:45
The digital디지털 economy경제 --
does it like people?
60
213200
2216
디지털 경제는 ...
사람들에게 신경쓸까요?
03:47
No, if you have a business사업 plan계획,
what are you supposed가정의 to do?
61
215440
2896
아니죠, 또 사업계획을
가지고 뭘 합니까?
03:50
Get rid구하다 of all the people.
62
218360
1256
사람들을 자르는데 쓰잖아요.
03:51
Human인간 beings존재들, they want health건강 care케어,
they want money, they want meaning의미.
63
219640
3400
인간들은 건강보험, 월급,
보람 등을 요구하니까
03:56
You can't scale규모 with people.
64
224360
1880
사업을 늘리기가 힘들죠.
03:59
(Laughter웃음)
65
227360
1456
(웃음)
04:00
Even our digital디지털 apps --
66
228840
1216
앱도 마찬가지죠 ...
04:02
they don't help us
form형태 any rapport일치 or solidarity연대.
67
230080
3216
친분을 쌓고 관계를 맺는데
도움을 주지 않습니다.
04:05
I mean, where's어디있어? the button단추
on the ride타기 hailing환영 app
68
233320
2416
제 말은, 차량공유서비스 앱에
04:07
for the drivers운전사 to talk to one another다른
about their그들의 working conditions정황
69
235760
3496
일하는 환경에 대해 얘기하거나
노조를 결성하는
04:11
or to unionize노조화?
70
239280
1200
기능은 없다는 거죠.
04:13
Even our videoconferencing화상회 tools도구들,
71
241600
2016
화상회의를 통해서도
04:15
they don't allow허용하다 us
to establish세우다 real레알 rapport일치.
72
243640
2376
유대감은 형성되지 않습니다.
04:18
However하나 good the resolution해결 of the video비디오,
73
246040
3336
아무리 화질이 좋아도
04:21
you still can't see if somebody's누군가 irises홍 채
are opening열리는 to really take you in.
74
249400
4016
상대방의 말을 경청하며
눈이 커지는 모습은 볼 수 없잖아요.
04:25
All of the things that we've우리는 done끝난
to establish세우다 rapport일치
75
253440
2576
우리들이 서로 관계를 맺는 방식들은
04:28
that we've우리는 developed개발 된 over hundreds수백
of thousands수천 of years연령 of evolution진화,
76
256040
3335
수십만 년의 진화를 거쳐
자리를 잡은 것인데
04:31
they don't work,
77
259399
1217
이젠 소용이 없죠.
04:32
you can't see if someone's누군가의 breath
is syncing동기화 up with yours당신 것.
78
260640
3016
서로 같은 생각을 하고 있는지
알 수 가 없어요.
04:35
So the mirror거울 neurons뉴런 never fire,
the oxytocin옥시토신 never goes간다 through...을 통하여 your body신체,
79
263680
3656
반사신경은 꿈쩍도 않고,
몸에 옥시토신도 나오지 않아
04:39
you never have that experience경험
of bonding결합 with the other human인간의 being존재.
80
267360
3240
인간들 사이의 유대감을
전혀 느끼지 못합니다.
04:43
And instead대신에, you're left like,
81
271360
1456
대신, 이런 생각이 들죠,
04:44
"Well, they agreed동의했다 with me,
but did they really,
82
272840
2256
"글쎄, 같은 생각인 것 같긴 한데
04:47
did they really get me?"
83
275120
1696
정말 이해한거야?"
04:48
And we don't blame비난 the technology과학 기술
for that lack결핍 of fidelity충실도.
84
276840
3376
하지만 이렇게
신뢰할 수 없는 기술이 아닌
04:52
We blame비난 the other person사람.
85
280240
1480
사람들 탓만 하죠.
04:55
You know, even the technologies기술
and the digital디지털 initiatives이니셔티브 that we have
86
283320
4056
알다시피,
여러 기술과 디지털 정책들은
04:59
to promote승진시키다 humans인간,
87
287400
2176
인간을 위해 만들어 졌지만
05:01
are intensely격렬히 anti-human반대로 인간 at the core핵심.
88
289600
2760
본질부터 너무나 비인간적이에요.
05:05
Think about the blockchain블록 체인.
89
293600
2000
블록체인을 생각해 보세요.
05:08
The blockchain블록 체인 is here to help us
have a great humanized인간화 된 economy경제? No.
90
296520
3616
거창한 인도적 경제의 구현을
위한 걸까요? 아니죠.
05:12
The blockchain블록 체인 does not engender낳다
trust믿음 between중에서 users사용자,
91
300160
2696
블록체인은 사용자들 간의
신용을 이끌어 내는게 아니라
05:14
the blockchain블록 체인 simply간단히
substitutes대용품 for trust믿음 in a new새로운,
92
302880
3536
단순히 신용을 대체하는
새로운 방식일 뿐이에요.
05:18
even less적게 transparent투명한 way.
93
306440
2000
훨씬 덜 투명한 방식이죠.
05:21
Or the code암호 movement운동.
94
309600
1816
코딩 바람은 또 어떻고요.
05:23
I mean, education교육 is great,
we love education교육,
95
311440
2176
교육 자체가 중요하고,
또 우리들이 좋아하니까
05:25
and it's a wonderful훌륭한 idea생각
96
313640
1456
생각 자체는 아주 훌륭하죠.
05:27
that we want kids아이들 to be able할 수 있는
to get jobs일자리 in the digital디지털 future미래,
97
315120
3136
디지털 미래에 우리 아이들이
일하는데 필요할테니
05:30
so we'll teach가르치다 them code암호 now.
98
318280
1600
지금부터 코딩을 가르칩니다.
05:32
But since이후 when is education교육
about getting점점 jobs일자리?
99
320640
2480
그런데 언제부터 교육의 목적이
취업이 되버린 걸까요?
05:35
Education교육 wasn't아니었다. about getting점점 jobs일자리.
100
323920
1736
교육은 취업을 위한게 아니죠.
05:37
Education교육 was compensation보상
for a job well done끝난.
101
325680
3976
교육은 일을 열심히 한 것에
대한 보상이었어요.
05:41
The idea생각 of public공공의 education교육
102
329680
1576
공공 교육의 개념은
05:43
was for coal석탄 miners광부,
who would work in the coal석탄 mines광산 all day,
103
331280
3376
하루 종일 탄광에서 일하고
집에 오는 광부들이
05:46
then they'd그들은 come home
and they should have the dignity존엄
104
334680
2576
어느 정도의 품위는
지켜야 한다는 거였어요.
05:49
to be able할 수 있는 to read독서 a novel소설
and understand알다 it.
105
337280
2136
책을 읽으며 이해하고
05:51
Or the intelligence지성 to be able할 수 있는
to participate어느 정도 가지다 in democracy민주주의.
106
339440
2960
민주주의 시민으로서의
지성은 있어야 한다는 거였죠.
05:55
When we make it an extension신장 of the job,
what are we really doing?
107
343200
3216
취업의 연장으로만 여긴다면,
결국 우리가 하고 있는 일은 뭘까요?
05:58
We're just letting시키는 corporations기업 really
108
346440
2536
기업들이 노골적으로
06:01
externalize외부화하다 the cost비용
of training훈련 their그들의 workers노동자.
109
349000
3120
직원들의 교육 비용을
표면화하게 할 뿐입니다.
06:05
And the worst가장 나쁜 of all really
is the humane인간적 technology과학 기술 movement운동.
110
353520
4096
그 중 최악은 역시
인도적 기술의 바람이죠.
06:09
I mean, I love these guys,
the former전자 guys who used to take
111
357640
2816
정말 대단한 사람들인데요,
06:12
the algorithms알고리즘 from
Las라스베가스 Vegas베가스 slot슬롯 machines기계들
112
360480
2936
라스베가스 슬롯머신의
알고리즘을 이용해
06:15
and put them in our social사회적인 media미디어 feed먹이
so that we get addicted중독 된.
113
363440
2936
사람들을 소셜미디어에
중독시키는데 사용했어요.
06:18
Now they've그들은 seen the error오류 of their그들의 ways
114
366400
1936
그 방식에 하자가 있다는 걸 알았고
06:20
and they want to make
technology과학 기술 more humane인간적.
115
368360
2456
지금은 좀 더 인도적인 차원에서
기술에 접근하고 있죠.
06:22
But when I hear듣다 the expression표현
"humane인간적 technology과학 기술,"
116
370840
2416
"인도적 기술"이란 표현을 듣게되면
06:25
I think about cage-free케이지 프리
chickens or something.
117
373280
2856
방목하는 닭들이 생각납니다.
06:28
We're going to be as humane인간적
as possible가능한 to them,
118
376160
2256
최대한 인도적인 방법으로
사육하겠다는 거죠.
06:30
until...까지 we take them to the slaughter학살.
119
378440
1720
도살할 때 까지요.
06:33
So now they're going to let these
technologies기술 be as humane인간적 as possible가능한,
120
381200
3416
지금 이들은 최대한 인도적으로
기술에 접근하고 있다고 주장하지만
06:36
as long as they extract추출물 enough충분히 data데이터
and extract추출물 enough충분히 money from us
121
384640
3216
우리들로부터 데이터와 돈을
충분히 긁어가
06:39
to please their그들의 shareholders주주.
122
387880
1400
주주들을 만족시키는게 우선이죠.
06:42
Meanwhile그 동안에, the shareholders주주,
for their그들의 part부품, they're just thinking생각,
123
390520
3176
한편, 주주들의 입장은 이렇습니다,
06:45
"I need to earn벌다 enough충분히 money now,
so I can insulate절연시키다 myself자기
124
393720
2976
"당장 충분히 돈을 벌어서,
내 스스로를 지켜야지.
06:48
from the world세계 I'm creating창조
by earning수입 money in this way."
125
396720
3056
이런 식으로 돈을 벌면서 만드는
세상으로부터 말이야."
06:51
(Laughter웃음)
126
399800
2376
(웃음)
06:54
No matter문제 how many많은 VRVR goggles고글
they slap찰싹 on their그들의 faces얼굴들
127
402200
4056
아무리 많은
가상현실 장비들을 이용해
06:58
and whatever도대체 무엇이 fantasy공상 world세계 they go into,
128
406280
2256
어떤 환상의 세계로 들어가 봐도
07:00
they can't externalize외부화하다 the slavery노예 제도
and pollution타락 that was caused일으킨
129
408560
3536
그런 것들을 생산하며 초래한
노예화와 환경오염은
07:04
through...을 통하여 the manufacture제조
of the very device장치.
130
412120
2976
표면화할 수 없습니다.
07:07
It reminds생각 나다 me of
Thomas도마 Jefferson's제퍼슨 dumbwaiter벙어리 웨이터.
131
415120
3176
토마스 제퍼슨의
'덤웨이터'가 생각나네요.
07:10
Now, we like to think
that he made만든 the dumbwaiter벙어리 웨이터
132
418320
2336
자, 이렇게 말하는 사람들도 있죠.
07:12
in order주문 to spare여윈 his slaves노예
all that labor노동 of carrying적재 the food식품
133
420680
3656
식당까지 음식을 나르는
노예들의 수고를
07:16
up to the dining식사 room
for the people to eat먹다.
134
424360
2776
덜어 주기 위해 만든 거라고요.
07:19
That's not what it was for,
it wasn't아니었다. for the slaves노예,
135
427160
2496
사실은 그렇지 않고
07:21
it was for Thomas도마 Jefferson제퍼슨
and his dinner공식 만찬 guests손님,
136
429680
2336
그 자신과 손님들이
음식을 내오는 노예들을
07:24
so they didn't have to see the slave노예
bringing데려 오는 the food식품 up.
137
432040
3096
보지 않기 위해 만든 것이죠.
07:27
The food식품 just arrived도착한 magically마술처럼,
138
435160
1576
신기하게 음식들이 배달됐어요.
07:28
like it was coming오는 out
of a "Start스타트 Trek여행" replicator복제 자.
139
436760
3000
"스타트렉"에 나오는
'레플리케이터' 처럼요.
07:32
It's part부품 of an ethos기풍 that says말한다,
140
440720
2096
당시 상황이 그랬다고들 하지만
07:34
human인간의 beings존재들 are the problem문제
and technology과학 기술 is the solution해결책.
141
442840
4280
인간들이 문제고
기술이 그 해결책이어야 하는데
07:40
We can't think that way anymore더 이상.
142
448680
2056
더 이상 그렇게 여겨지지 않습니다.
07:42
We have to stop using~을 사용하여 technology과학 기술
to optimize최적화하다 human인간의 beings존재들 for the market시장
143
450760
5296
인간을 소비자로서 최대한
이용하기 위해 기술을 사용해선 안되고
07:48
and start스타트 optimizing최적화 technology과학 기술
for the human인간의 future미래.
144
456080
5040
인류의 미래를 위해
기술을 최적화해야죠.
07:55
But that's a really hard단단한 argument논의
to make these days,
145
463080
2656
오늘날 아주 어려운 논지인데
07:57
because humans인간 are not popular인기 있는 beings존재들.
146
465760
4056
인간에 대해 크게
신경쓰지 않으니까요.
08:01
I talked말한 about this in front
of an environmentalist환경 론자 just the other day,
147
469840
3376
며칠 전, 한 환경문제 전문가와
이에 관한 대화를 나눴는데
08:05
and she said, "Why are you
defending방어 humans인간?
148
473240
2096
그 분이 이렇게 말했죠,
"왜 인간 편을 드세요?
08:07
Humans인간 destroyed의해 파괴됨 the planet행성.
They deserve받을 만하다 to go extinct꺼진."
149
475360
2696
지구를 다 망가뜨렸는데,
멸종돼도 할말 없죠."
08:10
(Laughter웃음)
150
478080
3456
(웃음)
08:13
Even our popular인기 있는 media미디어 hates싫어하다 humans인간.
151
481560
2576
대중적인 매체들 또한
인간들을 혐오합니다.
08:16
Watch television텔레비전,
152
484160
1256
텔레비젼에 나오는
08:17
all the sci-fi공상 과학 소설 shows are about how robots로봇
are better and nicer좋네요 than people.
153
485440
3736
공상과학물들을 보면, 로봇들이
사람보다 더 낫고 착하게 나오잖아요.
08:21
Even zombie좀비 shows --
what is every...마다 zombie좀비 show보여 주다 about?
154
489200
2976
좀비가 나오는 것들도 마찬가지인데,
공통적인게 뭐가 있죠?
08:24
Some person사람, looking at the horizon수평선
at some zombie좀비 going by,
155
492200
3256
누군가 멀리
좀비가 지나가는 걸 바라봅니다.
08:27
and they zoom in on the person사람
and you see the person's face얼굴,
156
495480
2896
가까이 확대되어
그 사람의 표정이 보이면
08:30
and you know what they're thinking생각:
157
498400
1736
무슨 생각을 하고 있는지 알게 되죠.
08:32
"What's really the difference
between중에서 that zombie좀비 and me?
158
500160
2736
"내가 저 좀비하고 다른게
도대체 뭐야?
08:34
He walks걷다, I walk산책.
159
502920
1536
쟤도 걷고, 나도 걷잖아.
08:36
He eats먹다, I eat먹다.
160
504480
2016
쟤도 먹고, 나도 먹잖아.
08:38
He kills살인, I kill죽이다."
161
506520
2280
쟤도 죽이고, 나도 죽이잖아."
08:42
But he's a zombie좀비.
162
510360
1536
그래도 좀비잖아요.
08:43
At least가장 작은 you're aware알고있는 of it.
163
511920
1416
적어도 그건 알잖아요.
08:45
If we are actually사실은 having trouble수고
distinguishing구별되는 ourselves우리 스스로 from zombies좀비,
164
513360
3696
좀비와 스스로를 구별하는데
어려움을 겪고 있다면
08:49
we have a pretty예쁜 big problem문제 going on.
165
517080
2176
앞날이 정말 걱정됩니다.
08:51
(Laughter웃음)
166
519280
1216
(웃음)
08:52
And don't even get me started시작한
on the transhumanists트랜스휴머니스트.
167
520520
2936
'트랜스휴머니스트'에 대해선
말도 마세요.
08:55
I was on a panel패널 with a transhumanist트랜스휴머니스트,
and he's going on about the singularity특이.
168
523480
3816
같이 자문단에 있던 한 분이
인공지능의 '특이점'에 대해 말했죠,
08:59
"Oh, the day is going to come really soon
when computers컴퓨터들 are smarter똑똑한 than people.
169
527320
3856
"곧 컴퓨터가 사람보다
더 똑똑해 질 때가 옵니다.
09:03
And the only option선택권
for people at that point포인트
170
531200
2136
그 때 유일하게
사람들이 할 수 있는 건
09:05
is to pass패스 the evolutionary진화의 torch토치
to our successor후임
171
533360
3336
진화의 주도권을 넘겨주고
09:08
and fade바래다 into the background배경.
172
536720
1616
서서히 사라져 주는 겁니다.
09:10
Maybe at best베스트, upload업로드
your consciousness의식 to a silicon규소 chip.
173
538360
3456
최선으로 할 수 있는 건,
실리콘 칩에 의식을 저장해 두고
09:13
And accept받아 들인다 your extinction소멸."
174
541840
1840
멸종을 받아들이는 거겠죠."
09:16
(Laughter웃음)
175
544640
1456
(웃음)
09:18
And I said, "No, human인간의 beings존재들 are special특별한.
176
546120
3376
전 이렇게 말했어요,
"아니요, 인간은 특별한 존재죠.
09:21
We can embrace포옹 ambiguity모호,
we understand알다 paradox역설,
177
549520
3536
애매모호함을 알아 차리고,
모순을 이해하고,
09:25
we're conscious의식이있는,
we're weird기묘한, we're quirky기이 한.
178
553080
2616
지각이 있고, 묘하고, 별나기도 해요.
09:27
There should be a place장소 for humans인간
in the digital디지털 future미래."
179
555720
3336
디지털 미래에도 분명
인간이 설 자리는 있을 거에요."
09:31
And he said, "Oh, Rushkoff러시코프,
180
559080
1536
그 분이 말했어요,
"에이, 러쉬코프 씨,
09:32
you're just saying속담 that
because you're a human인간의."
181
560640
2296
당신도 사람이니까
그렇게 말할 뿐이예요."
09:34
(Laughter웃음)
182
562960
1776
(웃음)
09:36
As if it's hubris거만.
183
564760
1600
오만이란 건가요.
09:39
OK, I'm on "Team Human인간."
184
567280
2800
맞아요, 전 "인간의 편"입니다.
09:43
That was the original실물 insight통찰력
of the digital디지털 age나이.
185
571200
3856
디지털 시대의 근본적인 통찰이죠.
09:47
That being존재 human인간의 is a team sport스포츠,
186
575080
2216
인간은 단체경기에 참가해 있고
09:49
evolution's진화론 a collaborative협력적인 act행위.
187
577320
2736
진화는 함께 이뤄내는 겁니다.
09:52
Even the trees나무 in the forest,
188
580080
1416
숲 속의 나무들 조차
09:53
they're not all in competition경쟁
with each마다 other,
189
581520
2216
서로 경쟁하지 않고
09:55
they're connected연결된 with the vast거대한
network회로망 of roots뿌리 and mushrooms버섯
190
583760
3216
엄청난 양의 뿌리와 버섯들의
조직을 통해 서로 연결되어
09:59
that let them communicate소통하다 with one another다른
and pass패스 nutrients영양소 back and forth앞으로.
191
587000
4536
소통하고 양분을 주고 받잖아요.
10:03
If human인간의 beings존재들
are the most가장 evolved진화 된 species,
192
591560
2136
인간이 가장 진화된 종인 이유는
10:05
it's because we have the most가장 evolved진화 된
ways of collaborating협력 and communicating의사 소통.
193
593720
4136
가장 진화된 방식으로
협력하고 소통하기 때문입니다.
10:09
We have language언어.
194
597880
1496
언어가 있습니다.
10:11
We have technology과학 기술.
195
599400
1240
기술도 있어요.
10:14
It's funny이상한, I used to be the guy
who talked말한 about the digital디지털 future미래
196
602120
4576
재밌는 건, 제가 전엔 디지털 미래에
대해 떠들고 다녔단 사실이죠.
10:18
for people who hadn't~하지 않았다 yet아직
experienced경험있는 anything digital디지털.
197
606720
2680
전혀 디지털에 대해
모르는 사람들한테요.
10:22
And now I feel like I'm the last guy
198
610200
1816
지금은 세상에 저 혼자만이
10:24
who remembers기억하다 what life was like
before digital디지털 technology과학 기술.
199
612040
2920
디지털 기술 이전의 삶에 대해
알고 있는 것 같아요.
10:28
It's not a matter문제 of rejecting거절하는 the digital디지털
or rejecting거절하는 the technological기술적 인.
200
616680
4216
디지털이나 그 기술의 진보를
거부하려는게 아니라
10:32
It's a matter문제 of retrieving검색 the values
that we're in danger위험 of leaving퇴거 behind뒤에
201
620920
4096
자칫 놓칠 위험에 있는
그 진정한 가치를 되찾고
10:37
and then embedding삽입 them in the digital디지털
infrastructure하부 구조 for the future미래.
202
625040
3600
미래의 디지털 기반에
깊이 각인시켜야 한다는 거죠.
10:41
And that's not rocket로켓 science과학.
203
629880
2296
엄청나게 벅찬 과제가 아닙니다.
10:44
It's as simple단순한 as making만들기 a social사회적인 network회로망
204
632200
2096
간단하게 사회 연결망을 조직해
10:46
that instead대신에 of teaching가르치는 us
to see people as adversaries적들,
205
634320
3536
사람을 적으로 보게 끔
가르치는게 아니라
10:49
it teaches가르치다 us to see
our adversaries적들 as people.
206
637880
3000
적도 사람으로 보게 끔
가르치면 되겠죠.
10:54
It means방법 creating창조 an economy경제
that doesn't favor호의 a platform플랫폼 monopoly전매권
207
642240
4296
기반시설의 독점을 허용하지 않는
경제를 창조해
10:58
that wants to extract추출물 all the value
out of people and places장소들,
208
646560
3336
사람들과 지역들의 가치를 지켜주고
11:01
but one that promotes촉진하다 the circulation순환
of value through...을 통하여 a community커뮤니티
209
649920
3936
지역사회 간 가치의 순환을 촉진하며
11:05
and allows허락하다 us to establish세우다
platform플랫폼 cooperatives협동 조합
210
653880
2416
가능한 소유를 널리 분배하는
11:08
that distribute배포하다 ownership소유권
as wide넓은 as possible가능한.
211
656320
3816
기반을 다져야 합니다.
11:12
It means방법 building건물 platforms플랫폼
212
660160
1656
어떤 발판이 필요한데
11:13
that don't repress억누르다 our creativity독창성
and novelty진기함 in the name이름 of prediction예측
213
661840
4656
예측의 용이성을 위해
창의성과 참신함을 억제하지 않고
11:18
but actually사실은 promote승진시키다
creativity독창성 and novelty진기함,
214
666520
2576
창의성과 참신함을 장려함으로
11:21
so that we can come up
with some of the solutions솔루션
215
669120
2336
해결책을 마련해
11:23
to actually사실은 get ourselves우리 스스로
out of the mess음식물 that we're in.
216
671480
2680
실제로 이 곤경에서
우리 스스로를 구해내야겠죠.
11:27
No, instead대신에 of trying견딜 수 없는 to earn벌다
enough충분히 money to insulate절연시키다 ourselves우리 스스로
217
675440
3056
돈을 충분히 벌어서
우리가 만들고 있는 세상으로부터
11:30
from the world세계 we're creating창조,
218
678520
1496
보호막을 쌓는 대신
11:32
why don't we spend보내 that time and energy에너지
making만들기 the world세계 a place장소
219
680040
3056
그 시간과 노력을
도망칠 필요가 없는
11:35
that we don't feel
the need to escape탈출 from.
220
683120
2040
세상을 만드는데 쓰면 어떨까요?
11:38
There is no escape탈출,
there is only one thing going on here.
221
686000
3200
도망갈 데가 없어요,
여기 하나 밖에 없잖아요.
11:42
Please, don't leave휴가.
222
690680
2120
제발 떠나지 말고
11:45
Join어울리다 us.
223
693640
1360
동참하세요.
11:47
We may할 수있다 not be perfect완전한,
224
695800
1296
완벽하진 않지만
11:49
but whatever도대체 무엇이 happens일이,
at least가장 작은 you won't습관 be alone혼자.
225
697120
2440
무슨 일이 벌어지건,
적어도 혼자는 아니잖아요.
11:52
Join어울리다 "Team Human인간."
226
700640
1520
"인간의 편"으로 오세요.
11:55
Find the others다른 사람.
227
703160
2096
다른 사람들도 함께요.
11:57
Together함께, let's make the future미래
that we always wanted.
228
705280
2960
다함께 우리가 늘 원하던
미래를 만듭시다.
12:01
Oh, and those tech기술 billionaires억만 장자
who wanted to know
229
709560
2496
아, 그 억만장자들 있잖아요.
12:04
how to maintain유지하다 control제어 of their그들의
security보안 force after the apocalypse묵시,
230
712080
3256
종말 이후 보안 관계자들을 어떻게
관리할지 물었던 사람들이요.
12:07
you know what I told them?
231
715360
1896
제가 뭐라고 했는지 아세요?
12:09
"Start스타트 treating치료 those people
with love and respect존경 right now.
232
717280
4216
"지금부터 당장 애정과 존경으로
그들을 대하시죠.
12:13
Maybe you won't습관 have
an apocalypse묵시 to worry걱정 about."
233
721520
2440
걱정처럼 종말이
오지 않을 수도 있으니까요."
12:16
Thank you.
234
724840
1216
감사합니다.
12:18
(Applause박수 갈채)
235
726080
4440
(박수)
Translated by TJ Kim
Reviewed by Dahyun Ha

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com