ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

트리스탄 해리스 (Tristan Harris): 소수의 인터넷 기업들이 매일 수십억 명의 마음을 조종하고 있습니다

Filmed:
2,591,029 views

소수의 인터넷 기업에서 일하는 소수의 사람들이 매일 수십억 사람들의 생각을 조종하고 있습니다. 디자인 사상가 트리스탄 해리스(Tristan Harris)는 페이스북의 알림 메세지에서부터 스냅챗의 스냅스트리크 기능과 유튜브의 자동재생 기능에 이르기까지, 이 모든 기술이 우리의 관심을 끌려는 단 하나의 목적을 두고 경쟁하고 있다고 말합니다. 트리스탄 해리스는 이런 인터넷 기업들이 어떻게 우리의 심리를 이용해 수익을 얻고 있는지 보여주며, 인터넷 기술이 우리가 원하는 삶을 살 수 있도록 돕기 위해서는 인터넷 서비스 설계에서 디자인 르네상스가 필요하다고 주장합니다.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagine상상하다
0
960
1200
한번 상상해보세요.
00:15
walking보행 into a room,
1
3000
1200
어떤 방에 들어갑니다.
00:17
a control제어 room with a bunch다발 of people,
2
5480
2136
사람들로 가득한 어느 조종실입니다.
00:19
a hundred people, hunched사나운
over a desk책상 with little dials다이얼,
3
7640
2840
작은 다이얼이 있는 책상에
100명의 사람들이 앉아 있습니다.
00:23
and that that control제어 room
4
11280
1520
그 조종실에서 하는 일이
00:25
will shape모양 the thoughts생각들 and feelings감정
5
13680
3696
10억 명 사람들의 생각과 감정을
조종하는 일이라고 상상해보세요.
00:29
of a billion십억 people.
6
17400
1240
00:32
This might sound소리 like science과학 fiction소설,
7
20560
1880
공상 과학 소설 같은 얘기지만
00:35
but this actually사실은 exists존재하다
8
23320
2216
이런 곳이 실제로 존재합니다.
00:37
right now, today오늘.
9
25560
1200
바로 지금, 오늘날 말이죠.
00:40
I know because I used to be
in one of those control제어 rooms.
10
28040
3360
제가 한때 그런 조종실에서
일했던 사람이라서 잘 압니다.
00:44
I was a design디자인 ethicist윤리 주의자 at GoogleGoogle,
11
32159
2297
저는 구글의 디자인 윤리학자였습니다.
00:46
where I studied공부 한 how do you ethically윤리적으로
steer수송아지 people's사람들의 thoughts생각들?
12
34480
3360
윤리적 범위에서 사람들의 생각을
조종하는 방법을 연구했죠.
00:50
Because what we don't talk about
is how the handful of people
13
38560
2896
여러분이 모르는 사실은
불과 극소수의 IT 기업에서
일하는 극소수의 사람들이
00:53
working at a handful
of technology과학 기술 companies회사들
14
41480
2536
오늘날 자그마치
10억 명 사람들의 생각을
00:56
through...을 통하여 their그들의 choices선택 will steer수송아지
what a billion십억 people are thinking생각 today오늘.
15
44040
5040
그들 마음대로
조종하고 있다는 것입니다.
01:02
Because when you pull손잡이 out your phone전화
16
50400
1736
스마트폰을 꺼내는 순간,
그 작동 방식과 알림 메세지는
01:04
and they design디자인 how this works공장
or what's on the feed먹이,
17
52160
3096
그들이 이미 설계한 대로 짧은 순간에
우리가 어떤 생각을 하도록 만듭니다.
01:07
it's scheduling일정 little blocks블록들
of time in our minds마음.
18
55280
3216
01:10
If you see a notification공고,
it schedules일정 you to have thoughts생각들
19
58520
3136
알림 메세지를 보는 순간에
나도 모르게 어떤 생각을 하게 만들고,
01:13
that maybe you didn't intend의도하다 to have.
20
61680
2040
01:16
If you swipe강타 over that notification공고,
21
64400
2616
그 메세지를 밀어서 확인하는 순간
01:19
it schedules일정 you into spending지출
a little bit비트 of time
22
67040
2381
거기에 빠져 잠깐이라도 시간을
허비하도록 만드는 거예요.
01:21
getting점점 sucked빨려 든 into something
23
69445
1381
01:22
that maybe you didn't intend의도하다
to get sucked빨려 든 into.
24
70850
2955
여러분이 그럴 의도가
없었다 해도 말이죠.
01:27
When we talk about technology과학 기술,
25
75320
1520
보통 우리는 테크놀로지가
01:30
we tend지키다 to talk about it
as this blue푸른 sky하늘 opportunity기회.
26
78040
2696
무한한 가능성의 기회를
준다고 말하곤 합니다.
01:32
It could go any direction방향.
27
80760
1480
어느 방향으로든
발전할 수 있다고 보죠.
01:35
And I want to get serious진지한 for a moment순간
28
83400
1856
그런데 제가 진지하게
말씀드리고 싶은 것은
01:37
and tell you why it's going
in a very specific특유한 direction방향.
29
85280
2680
기술이 아주 특정한 방향으로
나아가고 있다는 사실입니다.
01:40
Because it's not evolving진화하는 randomly무작위로.
30
88840
2200
기술은 아무렇게나 진화하지 않습니다.
01:44
There's a hidden숨겨진 goal
driving운전 the direction방향
31
92000
2016
우리가 만드는 모든 기술은 한 가지
숨겨진 목적을 두고 발전해 나갑니다.
01:46
of all of the technology과학 기술 we make,
32
94040
2136
01:48
and that goal is the race경주
for our attention주의.
33
96200
2920
우리의 관심을 끌기 위해
경쟁하는 것이죠.
01:52
Because every...마다 new새로운 site대지 --
34
100840
2736
모든 뉴스 웹사이트와
01:55
TED테드, elections선거, politicians정치인,
35
103600
2736
TED, 선거, 정치인,
01:58
games계략, even meditation심사 숙고 apps --
36
106360
1976
게임, 심지어 명상 앱까지도
02:00
have to compete경쟁하다 for one thing,
37
108360
1960
모두 단 한 가지를 위해 경쟁합니다.
02:03
which어느 is our attention주의,
38
111160
1736
우리의 관심이죠.
02:04
and there's only so much of it.
39
112920
1600
그런데 인간의 관심은 한계가 있습니다.
02:08
And the best베스트 way to get people's사람들의 attention주의
40
116440
2416
사람들의 관심을 끄는 최고의 방법은
02:10
is to know how someone's누군가의 mind마음 works공장.
41
118880
2440
인간의 사고방식을 이해하는 겁니다.
02:13
And there's a whole완전한 bunch다발
of persuasive동기 techniques기법
42
121800
2336
그리고 거기에는 무수히 많은
설득 기술이 동원되죠.
02:16
that I learned배운 in college칼리지 at a lab
called전화 한 the Persuasive설득력 있는 Technology과학 기술 Lab
43
124160
3496
제가 대학원 시절, 이른바
설득 기술 연구실에서 배운 것은
02:19
to get people's사람들의 attention주의.
44
127680
1600
사람들의 관심을 끄는 기술이었습니다.
02:21
A simple단순한 example is YouTubeYouTube.
45
129880
1480
간단한 예로 유튜브가 있죠.
02:24
YouTubeYouTube wants to maximize최대화하다
how much time you spend보내.
46
132000
2936
유튜브는 여러분이 최대한 오래
사이트에 머물러 있기를 바랍니다.
02:26
And so what do they do?
47
134960
1200
그래서 어떻게 했을까요?
02:28
They autoplay자동 재생 the next다음 것 video비디오.
48
136840
2280
다음 영상을 자동 재생합니다.
02:31
And let's say that works공장 really well.
49
139760
1816
그게 아주 효과가 좋았다고 치죠.
사람들의 시간을 좀 더 뺐었어요.
02:33
They're getting점점 a little bit비트
more of people's사람들의 time.
50
141600
2416
넷플릭스는 그걸 보고
이렇게 말할 겁니다.
02:36
Well, if you're Netflix넷플릭스,
you look at that and say,
51
144040
2376
"저러면 우리 시장 지분이 줄어들잖아."
02:38
well, that's shrinking수축하는 my market시장 share,
52
146440
1858
"우리도 다음 화를 자동 재생해야지."
02:40
so I'm going to autoplay자동 재생 the next다음 것 episode삽화.
53
148322
2000
02:43
But then if you're Facebook페이스 북,
54
151320
1376
페이스북이라면 또 이럴 거예요.
02:44
you say, that's shrinking수축하는
all of my market시장 share,
55
152720
2336
"저게 우리 시장 지분을 다 뺏어가네."
"그럼 우린 게시글의 모든 영상을
클릭도 하기 전에 자동 재생해야지."
02:47
so now I have to autoplay자동 재생
all the videos비디오 in the newsfeed뉴스 피드
56
155080
2656
02:49
before waiting기다리는 for you to click딸깍 하는 소리 play놀이.
57
157760
1762
02:52
So the internet인터넷 is not evolving진화하는 at random무작위의.
58
160320
3160
이렇게 인터넷은 아무렇게나
진화하지 않습니다.
02:56
The reason이유 it feels느낀다.
like it's sucking빠는 us in the way it is
59
164320
4416
이런 식으로 우리가 인터넷에
중독되어 가는 느낌이 드는 이유는
03:00
is because of this race경주 for attention주의.
60
168760
2376
바로 이 관심을 위한 경쟁 때문입니다.
03:03
We know where this is going.
61
171160
1416
이 방향으로 가고 있어요.
03:04
Technology과학 기술 is not neutral중립국,
62
172600
1520
기술은 중립적이지 않습니다.
03:07
and it becomes된다 this race경주
to the bottom바닥 of the brain stem줄기
63
175320
3416
인간의 뇌 중심 깊은 곳까지
누가 먼저 도달할지 경쟁하는 거죠.
03:10
of who can go lower보다 낮은 to get it.
64
178760
2200
03:13
Let me give you an example of SnapchatSnapchat.
65
181920
2336
스냅챗의 예를 말씀드리겠습니다.
03:16
If you didn't know,
SnapchatSnapchat is the number번호 one way
66
184280
3696
아실지 모르겠지만
스냅챗은 미국 10대들이
가장 많이 쓰는 메신저입니다.
03:20
that teenagers십대 in
the United유나이티드 States communicate소통하다.
67
188000
2256
03:22
So if you're like me, and you use
text본문 messages메시지 to communicate소통하다,
68
190280
4176
저 같은 세대가 문자로 연락하듯이
03:26
SnapchatSnapchat is that for teenagers십대,
69
194480
1776
10대 아이들은 스냅챗을 이용하죠.
약 1억 명이 사용하고 있습니다.
03:28
and there's, like,
a hundred million백만 of them that use it.
70
196280
2696
스냅챗은 '스냅 스트리크'라는
기술을 개발했습니다.
03:31
And they invented발명 된
a feature특색 called전화 한 SnapstreaksSnapstreaks,
71
199000
2216
두 사람이 서로 매일 연락하며 대화를
유지한 기간을 보여주는 기능이죠.
03:33
which어느 shows the number번호 of days in a row
72
201240
1896
03:35
that two people have
communicated전달 된 with each마다 other.
73
203160
2616
03:37
In other words, what they just did
74
205800
1856
즉 스냅챗은 이 두 사람에게
03:39
is they gave two people
something they don't want to lose잃다.
75
207680
2960
잃고 싶지 않은 무언가를
만들어 준 거라고 할 수 있습니다.
03:44
Because if you're a teenager십대,
and you have 150 days in a row,
76
212000
3456
왜냐면 여러분이 10대이고
누군가와 150일간 매일 대화했다면
03:47
you don't want that to go away.
77
215480
1976
그걸 계속 간직하고 싶거든요.
03:49
And so think of the little blocks블록들 of time
that that schedules일정 in kids'아이들의 minds마음.
78
217480
4160
그렇게 하루에도 여러 번 스냅챗을
붙잡도록 아이들의 마음을 조종하죠.
이론상으로만 그렇다는 게 아니에요.
03:54
This isn't theoretical이론적 인:
when kids아이들 go on vacation휴가,
79
222160
2336
아이들이 여행을 가야 할 때는
친구 다섯 명에게 비밀번호를 넘기고
03:56
it's been shown표시된 they give their그들의 passwords암호
to up to five다섯 other friends친구
80
224520
3256
연속 대화를 유지한다는
조사 결과도 있습니다.
03:59
to keep their그들의 SnapstreaksSnapstreaks going,
81
227800
2216
04:02
even when they can't do it.
82
230040
2016
자기가 스냅챗을 못 하더라도요.
04:04
And they have, like, 30 of these things,
83
232080
1936
이런 걸 30개 정도 갖고 있으면서
04:06
and so they have to get through...을 통하여
taking취득 photos사진들 of just pictures영화 or walls
84
234040
3376
벽이나 천장 사진 같은 걸
대충 찍어 올려서라도
04:09
or ceilings천장 just to get through...을 통하여 their그들의 day.
85
237440
2480
그날의 연속 대화를 이어가는 거죠.
04:13
So it's not even like
they're having real레알 conversations대화.
86
241200
2696
진짜 대화를 나누는 것도 아닙니다.
04:15
We have a temptation유혹 to think about this
87
243920
1936
이걸 우리는 쉽게 생각합니다.
04:17
as, oh, they're just using~을 사용하여 SnapchatSnapchat
88
245880
2696
"옛날에 우리가 전화로 수다 떨듯이
요즘 애들은 스냅챗을 쓰는 거네."
04:20
the way we used to
gossip잡담 on the telephone전화.
89
248600
2016
"별 문제 없겠지."
04:22
It's probably아마 OK.
90
250640
1200
04:24
Well, what this misses그리워하다
is that in the 1970s,
91
252480
2256
하지만 지금과 70년대는 다릅니다.
04:26
when you were just
gossiping험담 on the telephone전화,
92
254760
2615
여러분이 전화로 수다 떨 때는
04:29
there wasn't아니었다. a hundred engineers엔지니어
on the other side측면 of the screen화면
93
257399
3017
화면 뒤에 숨은 100명의 기술자가
04:32
who knew알고 있었다 exactly정확하게
how your psychology심리학 worked일한
94
260440
2056
여러분의 심리를 정확하게 파악해서
04:34
and orchestrated조율 된 you
into a double더블 bind묶다 with each마다 other.
95
262520
2640
누가 먼저 끊지 못하도록
조종하지는 않았으니까요.
04:38
Now, if this is making만들기 you
feel a little bit비트 of outrage격분,
96
266440
3400
이 얘기에 조금 화가
나실 수도 있는데요.
04:42
notice주의 that that thought
just comes온다 over you.
97
270680
2576
바로 그 감정이 자연스럽게
일어나는 것에 주목해보세요.
04:45
Outrage분노 is a really good way also또한
of getting점점 your attention주의,
98
273280
3320
분노 또한 사람의 관심을 끄는
아주 탁월한 방법입니다.
04:49
because we don't choose고르다 outrage격분.
99
277880
1576
분노는 선택할 수 있는 게 아니라
그냥 일어나는 감정이기 때문이죠.
04:51
It happens일이 to us.
100
279480
1416
04:52
And if you're the Facebook페이스 북 newsfeed뉴스 피드,
101
280920
1856
페이스북 뉴스피드 개발자라면
04:54
whether인지 어떤지 you'd당신은 want to or not,
102
282800
1416
사람들이 원하든 원하지 않든
그 분노로 이익을 얻는 겁니다.
04:56
you actually사실은 benefit이익 when there's outrage격분.
103
284240
2736
04:59
Because outrage격분
doesn't just schedule시간표 a reaction반응
104
287000
2936
왜냐면 분노는 여러분이 감정적으로
시간을 소비하게 할 뿐만 아니라
05:01
in emotional정서적 인 time, space공간, for you.
105
289960
2880
그 분노를 다른 사람들과
나누고 싶게 만들기 때문입니다.
05:05
We want to share that outrage격분
with other people.
106
293440
2416
05:07
So we want to hit히트 share and say,
107
295880
1576
공유하기 버튼을 누르는 거죠.
05:09
"Can you believe the thing
that they said?"
108
297480
2040
"얘네가 이런 말을 했다니 말이 돼?"
05:12
And so outrage격분 works공장 really well
at getting점점 attention주의,
109
300520
3376
이런 식으로 분노는 관심을
끄는 데에 아주 용이합니다.
05:15
such이러한 that if Facebook페이스 북 had a choice선택
between중에서 showing전시 you the outrage격분 feed먹이
110
303920
3896
만약 페이스북에
여러분이 분노할 만한 소식과
05:19
and a calm고요한 newsfeed뉴스 피드,
111
307840
1320
잔잔한 소식을 선택하라고 하면
05:22
they would want
to show보여 주다 you the outrage격분 feed먹이,
112
310120
2136
분노할 만한 것을 고를 겁니다.
누군가의 의도적 선택이라기보다
05:24
not because someone어떤 사람
consciously의식적으로 chose선택한 that,
113
312280
2056
05:26
but because that worked일한 better
at getting점점 your attention주의.
114
314360
2680
그게 여러분의 관심을 끌기에
더 효과적이기 때문이죠.
05:31
And the newsfeed뉴스 피드 control제어 room
is not accountable책임감있는 to us.
115
319120
5480
뉴스피드 조종실은
우리에 대한 책임이 없습니다.
05:37
It's only accountable책임감있는
to maximizing최대화하는 attention주의.
116
325040
2296
단지 관심을 최대한 끄는 것만 책임지죠.
05:39
It's also또한 accountable책임감있는,
117
327360
1216
광고를 통해 수익을 내는 구조이기
때문에 더욱 그렇습니다.
05:40
because of the business사업 model모델
of advertising광고하는,
118
328600
2376
05:43
for anybody아무도 who can pay지불 the most가장
to actually사실은 walk산책 into the control제어 room
119
331000
3336
돈 많은 사람이 조종실을
찾아와서 이렇게 말하는 거죠.
05:46
and say, "That group그룹 over there,
120
334360
1576
"저 사람들의 머릿속에서
이런 생각을 하게 만들어주세요."
05:47
I want to schedule시간표 these thoughts생각들
into their그들의 minds마음."
121
335960
2640
05:51
So you can target목표,
122
339760
1200
속이기 쉬운 대상을 골라서
정확하게 거짓말로 속일 수도 있습니다.
05:54
you can precisely정확하게 target목표 a lie거짓말
123
342040
1936
05:56
directly직접 to the people
who are most가장 susceptible느끼기 쉬운.
124
344000
2920
06:00
And because this is profitable유리한,
it's only going to get worse보다 나쁜.
125
348080
2880
이건 돈이 되는 장사라
점점 더 악화할 겁니다.
06:05
So I'm here today오늘
126
353040
1800
제가 오늘 여기 온 이유도
06:08
because the costs소송 비용 are so obvious분명한.
127
356160
2000
치뤄야 할 대가가
뻔히 보이기 때문입니다.
06:12
I don't know a more urgent긴급한
problem문제 than this,
128
360280
2136
이보다 더 시급한 문제는 없어요.
06:14
because this problem문제
is underneath아래에 all other problems문제들.
129
362440
3120
왜냐면 이건 다른 모든 문제의
밑바탕에 깔려있기 때문입니다.
06:18
It's not just taking취득 away our agency대리점
130
366720
3176
우리가 무엇에 관심을 두고
어떻게 살아갈지를 결정하는
06:21
to spend보내 our attention주의
and live살고 있다 the lives that we want,
131
369920
2600
우리의 주체성을 빼앗을 뿐 아니라
06:25
it's changing작고 보기 흉한 사람 the way
that we have our conversations대화,
132
373720
3536
우리가 서로 대화하는 방식을 바꿔버리고
06:29
it's changing작고 보기 흉한 사람 our democracy민주주의,
133
377280
1736
민주주의를 변질시키고
06:31
and it's changing작고 보기 흉한 사람 our ability능력
to have the conversations대화
134
379040
2616
상대방과 대화하는 능력 및 대인 관계를
맺는 능력에도 영향을 미칩니다.
06:33
and relationships관계 we want with each마다 other.
135
381680
2000
06:37
And it affects영향을 미치다 everyone각자 모두,
136
385160
1776
모든 사람에게 영향을 미치죠.
06:38
because a billion십억 people
have one of these in their그들의 pocket포켓.
137
386960
3360
10억 명의 사람들의 호주머니에
이런 게 하나씩 있으니까요.
06:45
So how do we fix고치다 this?
138
393360
1400
이 문제를 어떻게 해결하죠?
06:49
We need to make three radical근본적인 changes변화들
139
397080
2936
세 가지 근본적인 변화가 필요합니다.
06:52
to technology과학 기술 and to our society사회.
140
400040
1800
기술과 우리 사회에 있어서 말이죠.
06:55
The first is we need to acknowledge인정하다
that we are persuadable설득력있는.
141
403720
3800
첫째는, 우리가 설득당하기
쉽다는 걸 인정하는 겁니다.
07:00
Once일단 you start스타트 understanding이해
142
408840
1376
우리가 자기도 모르게 여기저기
시간을 빼앗기며 수많은 생각을 하도록
07:02
that your mind마음 can be scheduled예정된
into having little thoughts생각들
143
410240
2776
07:05
or little blocks블록들 of time
that you didn't choose고르다,
144
413040
2576
조종될 수 있다는 것을 인정하면
07:07
wouldn't~ 않을거야. we want to use that understanding이해
145
415640
2056
그 사실을 오히려 역이용해서
그런 일이 생기지 않게
자신을 보호하려 하지 않을까요?
07:09
and protect보호 against반대 the way
that that happens일이?
146
417720
2160
07:12
I think we need to see ourselves우리 스스로
fundamentally근본적으로 in a new새로운 way.
147
420600
3296
우리 자신을 바라보는 방식을
근본적으로 바꿔야 합니다.
07:15
It's almost거의 like a new새로운 period기간
of human인간의 history역사,
148
423920
2216
인류의 새 시대가 열린 것이죠.
계몽주의 시대처럼요.
07:18
like the Enlightenment계발,
149
426160
1216
하지만 스스로 깨달아야 하는
계몽주의 시대인 거죠.
07:19
but almost거의 a kind종류 of
self-aware자기 인식 Enlightenment계발,
150
427400
2216
07:21
that we can be persuaded설득 한,
151
429640
2080
우리가 설득당할 수 있음을 깨닫고
07:24
and there might be something
we want to protect보호.
152
432320
2240
그 사실로부터 보호해야
할 것이 있다고 말이죠.
07:27
The second둘째 is we need new새로운 models모델
and accountability책임 systems시스템
153
435400
4576
둘째로, 새로운 모델과
책임 시스템이 필요합니다.
07:32
so that as the world세계 gets도착 better
and more and more persuasive동기 over time --
154
440000
3496
세상은 시간이 갈수록
점점 더 발전하면서
07:35
because it's only going
to get more persuasive동기 --
155
443520
2336
더욱 강력하게 설득하려는
방향으로만 가기 때문에
07:37
that the people in those control제어 rooms
156
445880
1856
조종실에 있는 사람들이
우리가 원하는 것에
07:39
are accountable책임감있는 and transparent투명한
to what we want.
157
447760
2456
투명하고 책임감을 갖게 하는
시스템이 필요합니다.
07:42
The only form형태 of ethical윤리적 인
persuasion설득 that exists존재하다
158
450240
2696
윤리적인 설득은
설득하는 이들의 목적이
설득당하는 이들의 목적과
07:44
is when the goals목표 of the persuader설득자
159
452960
1936
같을 때만 성립하기 때문입니다.
07:46
are aligned정렬 된 with the goals목표
of the persuadee설득하다.
160
454920
2200
07:49
And that involves관련 questioning질문 big things,
like the business사업 model모델 of advertising광고하는.
161
457640
3840
즉, 이 기업들의 광고 수익 구조를
과감하게 물어볼 수도 있어야 합니다.
07:54
Lastly마지막으로,
162
462720
1576
마지막으로
07:56
we need a design디자인 renaissance르네상스,
163
464320
1680
이런 설계에 대한 변화가 필요합니다.
07:59
because once일단 you have
this view전망 of human인간의 nature자연,
164
467080
3056
무려 10억 명의 생각을
조종할 수 있게 하는
인간의 본성을 생각해보세요.
08:02
that you can steer수송아지 the timelines타임 라인
of a billion십억 people --
165
470160
2976
내가 원하는 대로 어떤 걸 하고 싶고,
08:05
just imagine상상하다, there's people
who have some desire염원
166
473160
2736
생각하고, 느끼고, 알고 싶은데
08:07
about what they want to do
and what they want to be thinking생각
167
475920
2856
08:10
and what they want to be feeling감각
and how they want to be informed정보를 얻은,
168
478800
3136
그런 개개인의 욕구는
다 무시당한 채 누군가에 의해
08:13
and we're all just tugged당기는
into these other directions지도.
169
481960
2536
엉뚱한 방향으로 조종당하는
사람들이 수십억 명이나 됩니다.
08:16
And you have a billion십억 people just tugged당기는
into all these different다른 directions지도.
170
484520
3696
그러나 설계 전반에 걸쳐
르네상스적인 혁명을 일으키면
08:20
Well, imagine상상하다 an entire완전한 design디자인 renaissance르네상스
171
488240
2056
10억 명이 각자 자신의 시간을
가장 값지게 사용할 수 있는
08:22
that tried시도한 to orchestrate오케스트레이션하다
the exact정확한 and most가장 empowering권한을 부여하는
172
490320
3096
08:25
time-well-spent시간을 잘 보냈다. way
for those timelines타임 라인 to happen우연히 있다.
173
493440
3136
가장 효과적인 방법을
지휘할 수 있습니다.
08:28
And that would involve감다 two things:
174
496600
1656
여기에는 두 가지 요소가 있습니다.
08:30
one would be protecting보호
against반대 the timelines타임 라인
175
498280
2136
첫째, 원치 않게 시간을 낭비하게
만드는 요소를 막는 것입니다.
08:32
that we don't want to be experiencing경험하는,
176
500440
1856
08:34
the thoughts생각들 that we
wouldn't~ 않을거야. want to be happening사고,
177
502320
2416
그래야 그런 상황이 일어나도
거기에 정신이 팔리지 않죠.
08:36
so that when that ding땡땡 happens일이,
not having the ding땡땡 that sends보냄 us away;
178
504760
3336
둘째, 우리가 원하는 방향으로 시간을
보내는 것이 가능하도록 하는 겁니다.
08:40
and the second둘째 would be empowering권한을 부여하는 us
to live살고 있다 out the timeline타임 라인 that we want.
179
508120
3616
08:43
So let me give you a concrete콘크리트 example.
180
511760
1880
구체적인 예를 들어 볼게요.
08:46
Today오늘, let's say your friend친구
cancels취소하다 dinner공식 만찬 on you,
181
514280
2456
친구가 오늘 밤 저녁
약속을 취소했다고 치죠.
08:48
and you are feeling감각 a little bit비트 lonely고독한.
182
516760
3775
그러면 여러분은 조금 외로워지겠죠?
08:52
And so what do you do in that moment순간?
183
520559
1817
그럴 때는 뭘 하죠?
페이스북에 접속하겠죠.
08:54
You open열다 up Facebook페이스 북.
184
522400
1279
08:56
And in that moment순간,
185
524960
1696
바로 그 순간
08:58
the designers디자이너 in the control제어 room
want to schedule시간표 exactly정확하게 one thing,
186
526680
3376
페이스북 조종실에 있는
디자이너에겐 단 하나의 목표가 있죠.
09:02
which어느 is to maximize최대화하다 how much time
you spend보내 on the screen화면.
187
530080
3040
여러분이 최대한 오래
페이스북에 머물게 하는 겁니다.
09:06
Now, instead대신에, imagine상상하다 if those designers디자이너
created만들어진 a different다른 timeline타임 라인
188
534640
3896
그런데 디자이너가 목표를 완전히 바꿔서
09:10
that was the easiest가장 쉬운 way,
using~을 사용하여 all of their그들의 data데이터,
189
538560
3496
가진 정보를 총동원해서
가장 간단한 방법으로
09:14
to actually사실은 help you get out
with the people that you care케어 about?
190
542080
3096
여러분이 좋아하는 사람들과
시간을 보내도록 도와준다면요?
09:17
Just think, alleviating경감시키는
all loneliness외로움 in society사회,
191
545200
5416
우리가 사회에서 느끼는 모든 외로움이
이런 식으로 사라진다고 생각해보세요.
09:22
if that was the timeline타임 라인 that Facebook페이스 북
wanted to make possible가능한 for people.
192
550640
3496
페이스북이 사람들을 위해
그렇게만 해준다면 말이죠.
09:26
Or imagine상상하다 a different다른 conversation대화.
193
554160
1715
아니면 다른 상황을 생각해보죠.
09:27
Let's say you wanted to post게시하다
something supercontroversial초능적 인 on Facebook페이스 북,
194
555899
3317
엄청난 논란을 일으킬 글을
페이스북에 올린다고 치죠.
09:31
which어느 is a really important중대한
thing to be able할 수 있는 to do,
195
559240
2416
어떤 쟁점을 두고 서로 토론할 수
있다는 것은 무척 중요해요.
09:33
to talk about controversial논쟁의 여지가있는 topics주제.
196
561680
1696
페이스북에 새 게시물을
입력하는 커다란 창을 보면
09:35
And right now, when there's
that big comment논평 box상자,
197
563400
2336
09:37
it's almost거의 asking질문 you,
what key do you want to type유형?
198
565760
3376
마치 내가 입력한 것을 키워드 삼아
09:41
In other words, it's scheduling일정
a little timeline타임 라인 of things
199
569160
2816
또 한참을 페이스북에 머물게
하려는 것 같아요.
09:44
you're going to continue잇다
to do on the screen화면.
200
572000
2136
만약 옆에 다른 버튼이 있어서
09:46
And imagine상상하다 instead대신에 that there was
another다른 button단추 there saying속담,
201
574160
2976
"가장 의미 있는 시간을 보내려면
뭘 하고 싶은가요?" 라 묻고
09:49
what would be most가장
time well spent지출하다 for you?
202
577160
2056
09:51
And you click딸깍 하는 소리 "host숙주 a dinner공식 만찬."
203
579240
1576
'저녁 식사 초대'를 눌러 포스팅하면
09:52
And right there
underneath아래에 the item it said,
204
580840
2096
바로 밑에 '저녁 식사에 참여하기'
버튼이 나온다 생각해보세요.
09:54
"Who wants to RSVP답장 for the dinner공식 만찬?"
205
582960
1696
09:56
And so you'd당신은 still have a conversation대화
about something controversial논쟁의 여지가있는,
206
584680
3256
여러분은 여전히 논란거리가
될 만한 주제로 대화를 나누지만
09:59
but you'd당신은 be having it in the most가장
empowering권한을 부여하는 place장소 on your timeline타임 라인,
207
587960
3736
원하는 시간과 장소에서
대화를 하는 거예요.
10:03
which어느 would be at home that night
with a bunch다발 of a friends친구 over
208
591720
3016
바로 친구가 저녁을 취소한 그 날
다른 많은 친구들과 함께
논란거리로 열띤 대화를 나누는 거죠.
10:06
to talk about it.
209
594760
1200
10:09
So imagine상상하다 we're running달리는, like,
a find and replace바꾸다
210
597000
3160
워드 문서를 작성할 때 쓰는
'찾아 바꾸기' 기능처럼
10:13
on all of the timelines타임 라인
that are currently현재 steering조타 us
211
601000
2576
우리를 점점 더 인터넷 중독으로
만드는 모든 게시물을 찾아내서
10:15
towards...쪽으로 more and more
screen화면 time persuasively설득력있게
212
603600
2560
이것을 우리가 실제 삶에서 하고 싶은
것으로 모두 바꾼다고 생각해보세요.
10:19
and replacing대체 all of those timelines타임 라인
213
607080
2536
10:21
with what do we want in our lives.
214
609640
1640
10:26
It doesn't have to be this way.
215
614960
1480
꼭 이런 방식이 아니어도 됩니다.
10:30
Instead대신 of handicapping핸디캡 our attention주의,
216
618360
2256
우리의 관심을 엉뚱한 데 허비하는 대신
수많은 데이터와 그것을 통제할 힘과
설득당하기 쉬운 인간의 본성을 이용해
10:32
imagine상상하다 if we used all of this data데이터
and all of this power
217
620640
2816
10:35
and this new새로운 view전망 of human인간의 nature자연
218
623480
1616
우리가 정말 원하는 것에
집중할 수 있는 초인적인 힘과
10:37
to give us a superhuman초인간적 인 ability능력 to focus초점
219
625120
2856
10:40
and a superhuman초인간적 인 ability능력 to put
our attention주의 to what we cared관심이있는 about
220
628000
4136
10:44
and a superhuman초인간적 인 ability능력
to have the conversations대화
221
632160
2616
민주주의에 필요한 소통을 할 수 있는
초인적인 힘을 갖는다고 생각해보세요.
10:46
that we need to have for democracy민주주의.
222
634800
2000
10:51
The most가장 complex복잡한 challenges도전 in the world세계
223
639600
2680
세상에서 가장 어려운 과제는
10:56
require요구하다 not just us
to use our attention주의 individually개별적으로.
224
644280
3120
개개인의 관심뿐만 아니라
11:00
They require요구하다 us to use our attention주의
and coordinate동등 어구 it together함께.
225
648440
3320
공동체 전체의 관심이 모일 때
비로소 해결할 수 있습니다.
11:04
Climate기후 change변화 is going to require요구하다
that a lot of people
226
652440
2816
기후 변화를 해결하려면
많은 사람의 관심을
가장 강력한 방법으로 모아
힘을 실어야 합니다.
11:07
are being존재 able할 수 있는
to coordinate동등 어구 their그들의 attention주의
227
655280
2096
11:09
in the most가장 empowering권한을 부여하는 way together함께.
228
657400
1896
11:11
And imagine상상하다 creating창조
a superhuman초인간적 인 ability능력 to do that.
229
659320
3080
이런 문제를 해결할 수 있는
초인적인 힘이 생긴다고 생각해보세요.
11:19
Sometimes때때로 the world's세계의
most가장 pressing누르는 and important중대한 problems문제들
230
667000
4160
가장 시급하고 중요한 문제는
11:24
are not these hypothetical가상의 future미래 things
that we could create몹시 떠들어 대다 in the future미래.
231
672040
3840
우리가 미래에 일으킬지도 모를
가상의 문제가 아닙니다.
11:28
Sometimes때때로 the most가장 pressing누르는 problems문제들
232
676560
1736
가장 시급하고 중요한 문제는
바로 우리 코앞에 있는
11:30
are the ones그들 that are
right underneath아래에 our noses,
233
678320
2336
11:32
the things that are already이미 directing연출
a billion십억 people's사람들의 thoughts생각들.
234
680680
3120
이미 10억 명 사람들의 생각을
조종하고 있는 것들입니다.
11:36
And maybe instead대신에 of getting점점 excited흥분한
about the new새로운 augmented증강 된 reality현실
235
684600
3376
증강현실, 가상현실이나 앞으로 펼쳐질
놀라운 기술에 열광하는 대신에
11:40
and virtual가상의 reality현실
and these cool시원한 things that could happen우연히 있다,
236
688000
3296
우리 관심을 끌려고 경쟁할 게
뻔한 그런 것에 열광할 것이 아니라
11:43
which어느 are going to be susceptible느끼기 쉬운
to the same같은 race경주 for attention주의,
237
691320
3296
이미 10억 명의
주머니에 든 휴대폰에서
11:46
if we could fix고치다 the race경주 for attention주의
238
694640
2176
우리의 관심을 끌려고 경쟁하는 것을
바로잡아야 하지 않을까요.
11:48
on the thing that's already이미
in a billion십억 people's사람들의 pockets주머니.
239
696840
2720
11:52
Maybe instead대신에 of getting점점 excited흥분한
240
700040
1576
가장 멋진 최신 교육용
앱에 열광할 것이 아니라
11:53
about the most가장 exciting흥미 진진한
new새로운 cool시원한 fancy공상 education교육 apps,
241
701640
4176
11:57
we could fix고치다 the way
kids'아이들의 minds마음 are getting점점 manipulated조작 된
242
705840
2896
내용 없는 문자를 주고받도록
아이들의 마음이 조종당하는 상황을
12:00
into sending배상 empty messages메시지
back and forth앞으로.
243
708760
2480
바로잡아야 할 것입니다.
12:04
(Applause박수 갈채)
244
712040
4296
(박수)
12:08
Maybe instead대신에 of worrying걱정하는
245
716360
1256
한 가지 목표만 극대화하려는
12:09
about hypothetical가상의 future미래
runaway도망자 artificial인공의 intelligences지능
246
717640
3776
인공지능을 통제할 수 없게 되는
가상의 미래를 걱정하는 대신
12:13
that are maximizing최대화하는 for one goal,
247
721440
1880
12:16
we could solve풀다 the runaway도망자
artificial인공의 intelligence지성
248
724680
2656
우리는 이미 존재하는 인공지능을
통제할 수 있어야 합니다.
12:19
that already이미 exists존재하다 right now,
249
727360
2056
12:21
which어느 are these newsfeeds뉴스 피드
maximizing최대화하는 for one thing.
250
729440
2920
바로 단 한 가지 목표인 우리의 관심을
끄는 것을 극대화하려는 뉴스피드를요.
12:26
It's almost거의 like instead대신에 of running달리는 away
to colonize식민지로 만들다 new새로운 planets행성,
251
734080
3816
새로운 행성을 식민지로 만들려고
밖으로만 나갈 것이 아니라
우리가 살고 있는 이곳을
바로잡을 수 있어야 합니다.
12:29
we could fix고치다 the one
that we're already이미 on.
252
737920
2056
12:32
(Applause박수 갈채)
253
740000
4120
(박수)
12:40
Solving해결 this problem문제
254
748040
1776
이 문제의 해법이
12:41
is critical결정적인 infrastructure하부 구조
for solving해결 every...마다 other problem문제.
255
749840
3800
다른 모든 문제를 해결할 수 있는
가장 중요한 기반이 될 것입니다.
12:46
There's nothing in your life
or in our collective집단적 problems문제들
256
754600
4016
우리의 삶과 사회의 모든 문제는
12:50
that does not require요구하다 our ability능력
to put our attention주의 where we care케어 about.
257
758640
3560
우리가 정말 소중히 여기는 것에
관심을 둘 때만 해결할 수 있습니다.
12:55
At the end종료 of our lives,
258
763800
1240
우리가 삶을 마감할 때
12:58
all we have is our attention주의 and our time.
259
766240
2640
결국 남는 건
우리의 관심과 시간입니다.
13:01
What will be time well spent지출하다 for ours우리 것?
260
769800
1896
우리는 어떤 시간을 보내야 할까요?
13:03
Thank you.
261
771720
1216
고맙습니다.
13:04
(Applause박수 갈채)
262
772960
3120
(박수)
Chris Anderson: 트리스탄 씨.
고맙습니다. 잠시 얘기 나누실까요.
13:17
Chris크리스 Anderson앤더슨: Tristan트리스탄, thank you.
Hey, stay머무르다 up here a sec비서.
263
785760
2936
13:20
First of all, thank you.
264
788720
1336
우선, 고맙습니다.
13:22
I know we asked물었다 you to do this talk
on pretty예쁜 short짧은 notice주의,
265
790080
2776
제가 듣기로 갑자기 강연을
요청받으셨다고 하던데요.
13:24
and you've had quite아주 a stressful스트레스가 많은 week
266
792880
2216
강연 준비를 하시느라 힘든
한 주를 보내셨겠어요.
13:27
getting점점 this thing together함께, so thank you.
267
795120
2440
감사합니다.
13:30
Some people listening청취 might say,
what you complain불평하다 about is addiction탐닉,
268
798680
3976
중독에 관한 문제를 지적하셨는데요.
13:34
and all these people doing this stuff물건,
for them it's actually사실은 interesting재미있는.
269
802680
3496
그런데 사람들이 실제로
즐기고 있다고 할 수도 있잖아요.
이런 건 사용자가 무척 흥미롭게 느낄
내용으로 설계가 되어 있어요.
13:38
All these design디자인 decisions결정들
270
806200
1256
13:39
have built세워짐 user사용자 content함유량
that is fantastically환상적으로 interesting재미있는.
271
807480
3096
세상이 역사상 이렇게 재밌던 적은
없었는데, 무엇이 잘못된 걸까요?
13:42
The world's세계의 more interesting재미있는
than it ever has been.
272
810600
2416
13:45
What's wrong잘못된 with that?
273
813040
1256
Tristan Harris: 좋은 질문이네요.
13:46
Tristan트리스탄 Harris해리스:
I think it's really interesting재미있는.
274
814320
2256
그걸 설명하는 한 가지 방법은,
예를 들어 유튜브를 보세요.
13:48
One way to see this
is if you're just YouTubeYouTube, for example,
275
816600
4016
13:52
you want to always show보여 주다
the more interesting재미있는 next다음 것 video비디오.
276
820640
2656
흥미를 느낄 만한 다음 영상을 보여주고
더 흥미로운 다음 영상을 또 제시하죠.
13:55
You want to get better and better
at suggesting제안하는 that next다음 것 video비디오,
277
823320
3016
하지만 심지어 모두가 보고 싶어 하는
완벽한 다음 영상을 소개하더라도
13:58
but even if you could propose제안하다
the perfect완전한 next다음 것 video비디오
278
826360
2456
14:00
that everyone각자 모두 would want to watch,
279
828840
1656
계속해서 우릴 화면에 붙잡아야
유튜브엔 좋은 일이란 거죠.
14:02
it would just be better and better
at keeping유지 you hooked구부린 on the screen화면.
280
830520
3336
그 공식에 빠진 게 있는데요.
14:05
So what's missing있어야 할 곳에 없는 in that equation방정식
281
833880
1656
그 끝이 어딘지 알아야 한다는 것이죠.
14:07
is figuring생각하다 out what
our boundaries경계 would be.
282
835560
2136
내가 졸린다는 걸
유튜브도 알아야 하잖아요.
14:09
You would want YouTubeYouTube to know
something about, say, falling떨어지는 asleep죽어.
283
837720
3216
넷플릭스 사장이 최근에
이런 말을 했는데요.
14:12
The CEO최고 경영자 of Netflix넷플릭스 recently요새 said,
284
840960
1616
자신들의 최대 경쟁자는 페이스북,
유튜브, 그리고 졸음이라고 했죠.
14:14
"our biggest가장 큰 competitors경쟁자
are Facebook페이스 북, YouTubeYouTube and sleep자다."
285
842600
2736
14:17
And so what we need to recognize인정하다
is that the human인간의 architecture건축물 is limited제한된
286
845360
4456
우리가 알아야 할 것은, 인간의
구조에는 한계가 있다는 사실입니다.
14:21
and that we have certain어떤 boundaries경계
or dimensions치수 of our lives
287
849840
2976
우리 삶에는 일정한 경계와 공간이 있고
우리는 그 경계와 공간을
지키고 싶어 해요.
14:24
that we want to be honored존경받는 and respected존경받는,
288
852840
1976
14:26
and technology과학 기술 could help do that.
289
854840
1816
기술이 그걸 도울 수 있습니다.
14:28
(Applause박수 갈채)
290
856680
2616
(박수)
14:31
CA캘리포니아 주: I mean, could you make the case케이스
291
859320
1696
CA: 그러니까 문제점 중의 하나가
14:33
that part부품 of the problem문제 here is that
we've우리는 got a na없음ïve~ model모델 of human인간의 nature자연?
292
861040
6056
인간 본성에 대한 모델이
너무 순진하다는 거죠?
14:39
So much of this is justified정당화 된
in terms자귀 of human인간의 preference우선권,
293
867120
2736
인간이 선호한다는 이유로
대부분이 정당화되고
인간의 기호에 맞게 놀랍도록
최적화하는 알고리즘을 갖고 있는데
14:41
where we've우리는 got these algorithms알고리즘
that do an amazing놀랄 만한 job
294
869880
2616
14:44
of optimizing최적화 for human인간의 preference우선권,
295
872520
1696
선호한다는 게 다 같은 건 아니니까요.
14:46
but which어느 preference우선권?
296
874240
1336
14:47
There's the preferences환경 설정
of things that we really care케어 about
297
875600
3496
곰곰이 생각해본 후 정말로
원해서 선택하는 것이 있고
14:51
when we think about them
298
879120
1376
반면에, 본능적으로 클릭하는 것도
선호하는 것이라고 할 수 있잖아요.
14:52
versus the preferences환경 설정
of what we just instinctively본능적으로 click딸깍 하는 소리 on.
299
880520
3056
14:55
If we could implant끼워 넣다 that more nuanced미묘한
view전망 of human인간의 nature자연 in every...마다 design디자인,
300
883600
4656
인간 본성에 대한 그 미묘한
관점의 차이를 설계에 반영한다면
15:00
would that be a step단계 forward앞으로?
301
888280
1456
진전이 있지 않을까요?
15:01
THTH: Absolutely전혀. I mean, I think right now
302
889760
1976
TH: 물론입니다. 제 생각에는
현재 기술은 기본적으로 우리의
본능만 건드리는 것 같습니다.
15:03
it's as if all of our technology과학 기술
is basically원래 only asking질문 our lizard도마뱀 brain
303
891760
3496
의미가 없더라도 충동적으로
1초라도 더 머물게 하려는
15:07
what's the best베스트 way
to just impulsively충동 적으로 get you to do
304
895280
2496
가장 효과적인 방법이
무엇일까만 연구하죠.
15:09
the next다음 것 tiniest가장 작은 thing with your time,
305
897800
2136
인생에 주어진 시간을 어떻게 해야
가장 잘 보낼 수 있는지, 혹은
15:11
instead대신에 of asking질문 you in your life
306
899960
1656
15:13
what we would be most가장
time well spent지출하다 for you?
307
901640
2176
TED 콘퍼런스의 마지막 날
콘퍼런스가 끝난 후를 포함해
15:15
What would be the perfect완전한 timeline타임 라인
that might include포함 something later후에,
308
903840
3296
어떻게 해야 시간을 완벽하게 잘
썼다고 할 수 있을지 묻는 대신에요.
15:19
would be time well spent지출하다 for you
here at TED테드 in your last day here?
309
907160
3176
CA: 그러니까 페이스북이나
구글 같은 데서
15:22
CA캘리포니아 주: So if Facebook페이스 북 and GoogleGoogle
and everyone각자 모두 said to us first up,
310
910360
2976
이런 메세지를 먼저 띄워야겠네요.
"사고의 측면을 최적화할까요,
아니면 본능 측면을 최적화할까요?
15:25
"Hey, would you like us
to optimize최적화하다 for your reflective반사적 인 brain
311
913360
2896
15:28
or your lizard도마뱀 brain? You choose고르다."
312
916280
1656
선택하세요."
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
TH: 그렇습니다. 그것도 방법이죠.
15:34
CA캘리포니아 주: You said persuadability설득력,
that's an interesting재미있는 word워드 to me
314
922358
2858
CA: 설득도 언급하셨는데요.
흥미로운 단어라고 생각합니다.
15:37
because to me there's
two different다른 types유형 of persuadability설득력.
315
925240
2856
왜냐면, 제가 보기엔 설득에는
두 종류가 있는 것 같은데요.
15:40
There's the persuadability설득력
that we're trying견딜 수 없는 right now
316
928120
2536
설득의 하나는 지금도
우리가 하고 있는 거죠.
판단하고, 생각하고, 논쟁을 벌이죠.
15:42
of reason이유 and thinking생각
and making만들기 an argument논의,
317
930680
2176
15:44
but I think you're almost거의
talking말하는 about a different다른 kind종류,
318
932880
2696
그런데 강연에서는 다른 종류의 설득,
더 본능적인 설득을
말씀하신 것 같아요.
15:47
a more visceral내장 type유형 of persuadability설득력,
319
935590
1906
생각할 새도 없이 설득당하는 건가요?
15:49
of being존재 persuaded설득 한 without없이
even knowing that you're thinking생각.
320
937520
2896
TH: 바로 그겁니다. 제가 그걸
문제로 삼는 이유가 있는데요.
15:52
THTH: Exactly정확하게. The reason이유
I care케어 about this problem문제 so much is
321
940440
2856
제가 있었던 스탠퍼드대의
설득 기술 연구실이라는 곳에서는
15:55
I studied공부 한 at a lab called전화 한
the Persuasive설득력 있는 Technology과학 기술 Lab at Stanford스탠포드
322
943320
3176
말씀하신 바로 그 기술을 가르쳤어요.
15:58
that taught가르쳤다 people
exactly정확하게 these techniques기법.
323
946520
2096
그 은밀한 기술을 알려주는
학술 대회와 워크숍도 있죠.
16:00
There's conferences컨퍼런스 and workshops워크샵
that teach가르치다 people all these covert은밀한 ways
324
948640
3456
사람들의 관심을 끌고,
그들 삶을 조작하는 기술이죠.
16:04
of getting점점 people's사람들의 attention주의
and orchestrating오케스트레이션 people's사람들의 lives.
325
952120
2976
대부분의 사람은 그런 게
있는지도 모르기 때문에
16:07
And it's because most가장 people
don't know that that exists존재하다
326
955120
2656
이런 대화를 나누는 것이 의미가 있죠.
16:09
that this conversation대화 is so important중대한.
327
957800
1896
16:11
CA캘리포니아 주: Tristan트리스탄, you and I, we both양자 모두 know
so many많은 people from all these companies회사들.
328
959720
3776
CA: 저나 트리스탄 씨나
이쪽 분야에 지인이 많은데요.
16:15
There are actually사실은 many많은 here in the room,
329
963520
1976
이 강연장에도 많은 분이 계시고요.
트리스탄 씨는 어떨지 모르지만
제가 경험한 바로는
16:17
and I don't know about you,
but my experience경험 of them
330
965520
2477
모두 선의로 이 일을 하고 있어요.
16:20
is that there is
no shortage부족 of good intent의지.
331
968021
2075
16:22
People want a better world세계.
332
970120
2176
사람들은 더 나은 세상을 원하니까요.
16:24
They are actually사실은 -- they really want it.
333
972320
3520
다들 더 나은 세상을 진정으로 원합니다.
16:28
And I don't think anything you're saying속담
is that these are evil people.
334
976320
4176
트리스탄 씨도 강연에서 이들이 나쁜
사람이라고 말씀하신 것 같지는 않아요.
16:32
It's a system체계 where there's
these unintended의도하지 않은 consequences결과
335
980520
3696
통제하지 못할 정도로 의도하지 않은
결과를 만드는 시스템이 문제인 거죠.
16:36
that have really got out of control제어 --
336
984240
1856
TH: 관심을 끌려는 경쟁이죠.
16:38
THTH: Of this race경주 for attention주의.
337
986120
1496
더 본능적인 것을 자극해 관심을 끌려는
전형적 방식이죠. 너무 치열해요.
16:39
It's the classic권위 있는 race경주 to the bottom바닥
when you have to get attention주의,
338
987640
3176
16:42
and it's so tense시제.
339
990840
1216
더 많은 관심을 얻는 유일한 방법은
뇌의 중심까지 파고드는 거예요.
16:44
The only way to get more
is to go lower보다 낮은 on the brain stem줄기,
340
992080
2736
우리의 분노와 감정까지 파고들어가고
16:46
to go lower보다 낮은 into outrage격분,
to go lower보다 낮은 into emotion감정,
341
994840
2416
우리 본능까지 자극하고 있습니다.
16:49
to go lower보다 낮은 into the lizard도마뱀 brain.
342
997280
1696
16:51
CA캘리포니아 주: Well, thank you so much for helping거들기 us
all get a little bit비트 wiser현명한 about this.
343
999000
3816
CA: 감사합니다. 덕분에 이 문제에
더 현명하게 대처할 수 있겠네요.
CA: 트리스탄 해리 씨였습니다.
TH: 감사합니다.
16:54
Tristan트리스탄 Harris해리스, thank you.
THTH: Thank you very much.
344
1002840
2416
16:57
(Applause박수 갈채)
345
1005280
2240
(박수)
Translated by JY Kang
Reviewed by Boram Cho

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com