ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

崔斯頓.哈瑞斯: 科技公司為了吸引你的注意所使用的手段

Filmed:
2,591,029 views

設計思考者崔斯頓.哈瑞斯(Tristan Harris)說,有一小部分科技公司的一小部分人,每天掌控制著數十億人的想法,從 Facebook 的消息通知到 Snapstreaks 再到 YouTube 的自動播放,他們都在為同一件東西競爭:你的注意力。哈瑞斯向我們分享了這些公司如何利用我們的心理為他們自己謀利,並且呼籲進行一次經過設計的科技文藝復興,讓科技幫助我們按照我們想要的方式生活。
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagine想像
0
960
1200
我要各位去想像一個場景,
00:15
walking步行 into a room房間,
1
3000
1200
你走進了一個房間,
00:17
a control控制 room房間 with a bunch of people,
2
5480
2136
這個控制室裡有一群人,
00:19
a hundred people, hunched駝背
over a desk with little dials錶盤,
3
7640
2840
一百多人縮在布置着
各種小儀表盤的辦公桌前,
00:23
and that that control控制 room房間
4
11280
1520
而這間控制室,
00:25
will shape形狀 the thoughts思念 and feelings情懷
5
13680
3696
即將影響
十億多人的想法與感受。
00:29
of a billion十億 people.
6
17400
1240
00:32
This might威力 sound聲音 like science科學 fiction小說,
7
20560
1880
這聽起來像是科幻小說,
00:35
but this actually其實 exists存在
8
23320
2216
但它確實存在,
00:37
right now, today今天.
9
25560
1200
就在當下,今天。
00:40
I know because I used to be
in one of those control控制 rooms客房.
10
28040
3360
我會知道的原因,是因為
我也曾經是控制室裡的一員。
00:44
I was a design設計 ethicist倫理學家 at Google谷歌,
11
32159
2297
我曾經是谷歌的倫理設計學家,
00:46
where I studied研究 how do you ethically道德
steer駕駛 people's人們 thoughts思念?
12
34480
3360
我在研究如何在符合道德的前提下,
控制人們的思想。
00:50
Because what we don't talk about
is how the handful少數 of people
13
38560
2896
因為我們不會去討論
00:53
working加工 at a handful少數
of technology技術 companies公司
14
41480
2536
這幾家科技公司裡面的人
00:56
through通過 their choices選擇 will steer駕駛
what a billion十億 people are thinking思維 today今天.
15
44040
5040
會如何以他們的選擇意志
去控制十幾億人的想法。
01:02
Because when you pull out your phone電話
16
50400
1736
因為當你拿出手機時,
01:04
and they design設計 how this works作品
or what's on the feed飼料,
17
52160
3096
他們已經設計好如何運作
或者要給你什麼資訊。
01:07
it's scheduling調度 little blocks
of time in our minds頭腦.
18
55280
3216
它已經在我們的腦中
安排好很多小時段。
01:10
If you see a notification通知,
it schedules時間表 you to have thoughts思念
19
58520
3136
如果你看了通知,
這會促使你產生一個
01:13
that maybe you didn't intend打算 to have.
20
61680
2040
你也許不想要的想法。
01:16
If you swipe刷卡 over that notification通知,
21
64400
2616
如果你跳過那個通知,
01:19
it schedules時間表 you into spending開支
a little bit of time
22
67040
2381
它就會讓你多花點時間
投入到你不想要的東西上,
01:21
getting得到 sucked into something
23
69445
1381
01:22
that maybe you didn't intend打算
to get sucked into.
24
70850
2955
而你原本也許不想要
花時間在那上面。
01:27
When we talk about technology技術,
25
75320
1520
當我們在談論科技時,
01:30
we tend趨向 to talk about it
as this blue藍色 sky天空 opportunity機會.
26
78040
2696
我們傾向於把它當作是
湛藍天空的機會。
01:32
It could go any direction方向.
27
80760
1480
它可以往任何方向發展。
01:35
And I want to get serious嚴重 for a moment時刻
28
83400
1856
但我想認真地說,
01:37
and tell you why it's going
in a very specific具體 direction方向.
29
85280
2680
我要告訴各位,
為什麼科技正在往特定的方向發展。
01:40
Because it's not evolving進化 randomly隨機.
30
88840
2200
因為科技的演變不是隨機的。
01:44
There's a hidden goal目標
driving主動 the direction方向
31
92000
2016
在我們所有創造的科技背後,
01:46
of all of the technology技術 we make,
32
94040
2136
都隱藏著一個特定目標,
01:48
and that goal目標 is the race種族
for our attention注意.
33
96200
2920
而那個目標就是
競相爭奪我們的注意力。
01:52
Because every一切 new site現場 --
34
100840
2736
因為每一個新網頁──
01:55
TEDTED, elections選舉, politicians政治家,
35
103600
2736
TED 網頁、選舉網頁、政客網頁、
01:58
games遊戲, even meditation冥想 apps應用 --
36
106360
1976
遊戲網頁,甚至是冥想的應用軟體──
02:00
have to compete競爭 for one thing,
37
108360
1960
都必須競爭同樣的東西,
02:03
which哪一個 is our attention注意,
38
111160
1736
也就是我們的注意力,
02:04
and there's only so much of it.
39
112920
1600
但市場就這麼大。
02:08
And the best最好 way to get people's人們 attention注意
40
116440
2416
而要獲得人們注意力的最佳方法,
02:10
is to know how someone's誰家 mind心神 works作品.
41
118880
2440
就是去了解使用者的腦袋
是如何運作的。
02:13
And there's a whole整個 bunch
of persuasive說服力 techniques技術
42
121800
2336
有很多說服的技巧,
02:16
that I learned學到了 in college學院 at a lab實驗室
called the Persuasive說服力 Technology技術 Lab實驗室
43
124160
3496
我是從大學的
「說服力技術實驗室」學來的,
02:19
to get people's人們 attention注意.
44
127680
1600
他們教你如何獲得別人的注意力。
02:21
A simple簡單 example is YouTubeYouTube的.
45
129880
1480
一個簡單的例子就是 YouTube。
02:24
YouTubeYouTube的 wants to maximize最大化
how much time you spend.
46
132000
2936
YouTube 想要最大化
你花費在他們網站的時間。
02:26
And so what do they do?
47
134960
1200
那他們會怎麼做?
02:28
They autoplay自動播放 the next下一個 video視頻.
48
136840
2280
他們會幫你自動撥放下一部片。
02:31
And let's say that works作品 really well.
49
139760
1816
這一招真的很有效,
02:33
They're getting得到 a little bit
more of people's人們 time.
50
141600
2416
他們也因此得到
使用者更多的時間。
02:36
Well, if you're NetflixNetflix公司,
you look at that and say,
51
144040
2376
但,如果你是 Netflix,
你看到了這樣的狀況,你會說,
02:38
well, that's shrinking萎縮 my market市場 share分享,
52
146440
1858
不行,這樣會把我的客戶給搶走,
02:40
so I'm going to autoplay自動播放 the next下一個 episode插曲.
53
148322
2000
所以,我也要自動播放下一集。
02:43
But then if you're FacebookFacebook的,
54
151320
1376
但如果你是 Facebook,
02:44
you say, that's shrinking萎縮
all of my market市場 share分享,
55
152720
2336
你會說,那這樣我的市場
都被你們瓜分掉了,
02:47
so now I have to autoplay自動播放
all the videos視頻 in the newsfeed新聞源
56
155080
2656
所以我會在你點擊播放按鍵前
02:49
before waiting等候 for you to click點擊 play.
57
157760
1762
自動播放所有的影片給你看。
02:52
So the internet互聯網 is not evolving進化 at random隨機.
58
160320
3160
所以,網際網路的演化不是隨機的。
02:56
The reason原因 it feels感覺
like it's sucking吸吮 us in the way it is
59
164320
4416
它會讓你感覺欲罷不能的原因,
就是因為這場注意力的爭奪賽。
03:00
is because of this race種族 for attention注意.
60
168760
2376
03:03
We know where this is going.
61
171160
1416
我們知道這會有什麼後果。
03:04
Technology技術 is not neutral中性,
62
172600
1520
因為科技不是中立的。
03:07
and it becomes this race種族
to the bottom底部 of the brain stem
63
175320
3416
這個競賽已變成
看誰可以更深地滲入
使用者腦袋的比賽。
03:10
of who can go lower降低 to get it.
64
178760
2200
03:13
Let me give you an example of SnapchatSnapchat.
65
181920
2336
我跟各位舉個例子, Snapchat。
03:16
If you didn't know,
SnapchatSnapchat is the number one way
66
184280
3696
不知道各位是否了解,
Snapchat 目前是
美國年輕人之間,
最熱門的社交軟體。
03:20
that teenagers青少年 in
the United聯合的 States狀態 communicate通信.
67
188000
2256
03:22
So if you're like me, and you use
text文本 messages消息 to communicate通信,
68
190280
4176
所以,如果你們和我一樣,
有在用簡訊在與人交流,
應該知道 Snapchat 就是專門
設計給年輕人使用的,
03:26
SnapchatSnapchat is that for teenagers青少年,
69
194480
1776
03:28
and there's, like,
a hundred million百萬 of them that use it.
70
196280
2696
差不多將近有一億人在使用它。
03:31
And they invented發明
a feature特徵 called SnapstreaksSnapstreaks,
71
199000
2216
這家公司發明了一個叫做
Snapstreaks 的特色功能,
03:33
which哪一個 shows節目 the number of days in a row
72
201240
1896
它會告訴你,
你跟你朋友兩個人之間,
連續不間斷地聊了幾天。
03:35
that two people have
communicated傳達 with each other.
73
203160
2616
03:37
In other words, what they just did
74
205800
1856
換句話說,它們給予的是一種
03:39
is they gave two people
something they don't want to lose失去.
75
207680
2960
兩人都捨不得放棄的東西。
03:44
Because if you're a teenager青少年,
and you have 150 days in a row,
76
212000
3456
因為,如果你是年輕人
而有著連續 150 天的聊天紀錄,
03:47
you don't want that to go away.
77
215480
1976
你不會想讓紀錄就此中斷的。
03:49
And so think of the little blocks of time
that that schedules時間表 in kids'孩子們 minds頭腦.
78
217480
4160
所以想想孩子們
腦袋裡被設定好的時間模式。
03:54
This isn't theoretical理論:
when kids孩子 go on vacation假期,
79
222160
2336
我沒在騙你:已經有人證實,
當孩子在度假時,
03:56
it's been shown顯示 they give their passwords密碼
to up to five other friends朋友
80
224520
3256
他們會把密碼給另外五位朋友,
03:59
to keep their SnapstreaksSnapstreaks going,
81
227800
2216
請他們幫忙維持
Snapstreaks 的聊天記錄,
04:02
even when they can't do it.
82
230040
2016
就算他們不能用手機。
04:04
And they have, like, 30 of these things,
83
232080
1936
他們差不多有 30 種類似
這樣的東西要維護,
04:06
and so they have to get through通過
taking服用 photos相片 of just pictures圖片 or walls牆壁
84
234040
3376
所以他們每天要東拍拍、西拍拍
拍牆壁、拍天花板,
不然當天他們會渾身不舒服。
04:09
or ceilings天花板 just to get through通過 their day.
85
237440
2480
04:13
So it's not even like
they're having real真實 conversations對話.
86
241200
2696
所以這根本不像是
他們在真正的交流。
04:15
We have a temptation誘惑 to think about this
87
243920
1936
我們可能會這麽想,
04:17
as, oh, they're just using運用 SnapchatSnapchat
88
245880
2696
他們用 Snapchat 的方式
04:20
the way we used to
gossip八卦 on the telephone電話.
89
248600
2016
就像我們曾經用電話聊八卦一樣。
04:22
It's probably大概 OK.
90
250640
1200
應該還好吧!
04:24
Well, what this misses錯過
is that in the 1970s,
91
252480
2256
但,不同於 1970 年代的是:
04:26
when you were just
gossiping閒聊 on the telephone電話,
92
254760
2615
當你們用電話聊八卦時,
04:29
there wasn't a hundred engineers工程師
on the other side of the screen屏幕
93
257399
3017
旁邊並沒有數百位工程師在監控你,
04:32
who knew知道 exactly究竟
how your psychology心理學 worked工作
94
260440
2056
準確地知道你的心理,
04:34
and orchestrated策劃 you
into a double bind捆綁 with each other.
95
262520
2640
並操控著你們倆緊緊地綁在一起。
04:38
Now, if this is making製造 you
feel a little bit of outrage暴行,
96
266440
3400
如果現在你有點生氣了,
04:42
notice注意 that that thought
just comes over you.
97
270680
2576
有沒有注意到,你生氣了?
04:45
Outrage憤怒 is a really good way also
of getting得到 your attention注意,
98
273280
3320
因為激怒你也是引起你
注意的方式之一,
04:49
because we don't choose選擇 outrage暴行.
99
277880
1576
因為就算我們不想生氣,
04:51
It happens發生 to us.
100
279480
1416
它還是會發生。
04:52
And if you're the FacebookFacebook的 newsfeed新聞源,
101
280920
1856
如果你是 Facebook 的新聞推送者,
04:54
whether是否 you'd want to or not,
102
282800
1416
不管你是刻意或是不經意,
04:56
you actually其實 benefit效益 when there's outrage暴行.
103
284240
2736
人們憤怒的時候,實際上你是受益的。
04:59
Because outrage暴行
doesn't just schedule時間表 a reaction反應
104
287000
2936
因為憤怒不僅僅在
情感上讓你有個宣洩的出口,
05:01
in emotional情緒化 time, space空間, for you.
105
289960
2880
更提供了你一個發洩的空間。
05:05
We want to share分享 that outrage暴行
with other people.
106
293440
2416
我們還會想和其他人
分享我們的憤怒。
05:07
So we want to hit擊中 share分享 and say,
107
295880
1576
所以我們會按下分享鍵然後說,
05:09
"Can you believe the thing
that they said?"
108
297480
2040
「你敢相信他們說的嗎?」
05:12
And so outrage暴行 works作品 really well
at getting得到 attention注意,
109
300520
3376
所以讓人發怒,可以吸引到注意力,
05:15
such這樣 that if FacebookFacebook的 had a choice選擇
between之間 showing展示 you the outrage暴行 feed飼料
110
303920
3896
所以,如果 Facebook 可以在
向你展示令人憤怒或者
令人平靜的消息之間進行選擇,
05:19
and a calm冷靜 newsfeed新聞源,
111
307840
1320
05:22
they would want
to show顯示 you the outrage暴行 feed飼料,
112
310120
2136
他們會選擇向你展示令人憤怒的消息,
05:24
not because someone有人
consciously自覺 chose選擇 that,
113
312280
2056
不是因為有人刻意如此選,
05:26
but because that worked工作 better
at getting得到 your attention注意.
114
314360
2680
只是因為這樣可以讓你
更注意到他們。
05:31
And the newsfeed新聞源 control控制 room房間
is not accountable問責 to us.
115
319120
5480
新聞控制室不對我們負責。
05:37
It's only accountable問責
to maximizing最大化 attention注意.
116
325040
2296
它只對最大化注意力負責。
05:39
It's also accountable問責,
117
327360
1216
它也要向──
05:40
because of the business商業 model模型
of advertising廣告,
118
328600
2376
因為商業模式的關係,
05:43
for anybody任何人 who can pay工資 the most
to actually其實 walk步行 into the control控制 room房間
119
331000
3336
它也要向走進控制室
付廣告費的人負責,
05:46
and say, "That group over there,
120
334360
1576
他們會說,「那個團體在那邊,
05:47
I want to schedule時間表 these thoughts思念
into their minds頭腦."
121
335960
2640
我想要灌輸一些想法到他們腦裡。」
05:51
So you can target目標,
122
339760
1200
所以你可以定位,
05:54
you can precisely恰恰 target目標 a lie謊言
123
342040
1936
你可以準確直接定位到
05:56
directly to the people
who are most susceptible易感.
124
344000
2920
那些最容易被受到影響的人。
06:00
And because this is profitable有利可圖,
it's only going to get worse更差.
125
348080
2880
因為這是有利可圖的,
所以狀況只會越來越糟。
06:05
So I'm here today今天
126
353040
1800
所以我今天來到這裡的原因,
06:08
because the costs成本 are so obvious明顯.
127
356160
2000
是因為這件事的代價太高了。
06:12
I don't know a more urgent緊急
problem問題 than this,
128
360280
2136
我認為沒有其它事
比這問題還要緊急,
06:14
because this problem問題
is underneath all other problems問題.
129
362440
3120
因為其它所有問題的背後,
都與這個問題有關。
06:18
It's not just taking服用 away our agency機構
130
366720
3176
它不僅剝奪我們的自主權,
06:21
to spend our attention注意
and live生活 the lives生活 that we want,
131
369920
2600
還浪費我們的注意力,
影響我們的生活方式。
06:25
it's changing改變 the way
that we have our conversations對話,
132
373720
3536
也改變了我們的交流方式,
06:29
it's changing改變 our democracy民主,
133
377280
1736
改變了我們的民主制度,
06:31
and it's changing改變 our ability能力
to have the conversations對話
134
379040
2616
而且還改變了我們
想要與他人交流、
06:33
and relationships關係 we want with each other.
135
381680
2000
維持關係的能力。
06:37
And it affects影響 everyone大家,
136
385160
1776
這會影響到每一個人,
06:38
because a billion十億 people
have one of these in their pocket口袋.
137
386960
3360
因為十幾億人口的口袋裡
都有一台這個東西。
06:45
So how do we fix固定 this?
138
393360
1400
所以我們要如何修復這個問題?
06:49
We need to make three radical激進 changes變化
139
397080
2936
我們需要對科技和我們的社會
06:52
to technology技術 and to our society社會.
140
400040
1800
做三大激進的改變。
06:55
The first is we need to acknowledge確認
that we are persuadable說服的.
141
403720
3800
首先,我們需要了解
我們是會被說服的。
07:00
Once一旦 you start開始 understanding理解
142
408840
1376
一旦你了解
07:02
that your mind心神 can be scheduled計劃
into having little thoughts思念
143
410240
2776
人腦可以被有計劃性地
注入一些思想
07:05
or little blocks of time
that you didn't choose選擇,
144
413040
2576
或被占用掉一些時間時,
07:07
wouldn't不會 we want to use that understanding理解
145
415640
2056
我們難道不會利用這點
07:09
and protect保護 against反對 the way
that that happens發生?
146
417720
2160
來防止這樣的事發生嗎?
07:12
I think we need to see ourselves我們自己
fundamentally從根本上 in a new way.
147
420600
3296
我認為我們需要以全新的方式審視自己。
07:15
It's almost幾乎 like a new period
of human人的 history歷史,
148
423920
2216
就像是人類歷史上新的篇章,
07:18
like the Enlightenment啟示,
149
426160
1216
就像啟蒙運動,
07:19
but almost幾乎 a kind of
self-aware自我意識 Enlightenment啟示,
150
427400
2216
但是是自覺性的啟蒙運動,
07:21
that we can be persuaded說服了,
151
429640
2080
瞭解到我們是會被說服的,
07:24
and there might威力 be something
we want to protect保護.
152
432320
2240
並意識到我們也有想要保護的東西。
07:27
The second第二 is we need new models楷模
and accountability問責 systems系統
153
435400
4576
第二點是我們需要新的
模式和責任系統,
07:32
so that as the world世界 gets得到 better
and more and more persuasive說服力 over time --
154
440000
3496
如此,當世界變得越來越好、
我們越來越容易被說服時──
07:35
because it's only going
to get more persuasive說服力 --
155
443520
2336
因為它只會變得更有說服力──
07:37
that the people in those control控制 rooms客房
156
445880
1856
這樣在控制室裡的那些人
07:39
are accountable問責 and transparent透明
to what we want.
157
447760
2456
才會對我們想要的東西負責
並把它透明化。
07:42
The only form形成 of ethical合乎道德的
persuasion勸說 that exists存在
158
450240
2696
道德說服存在的唯一前提就是:
07:44
is when the goals目標 of the persuader說服者
159
452960
1936
只有當說服者的目標
07:46
are aligned對齊 with the goals目標
of the persuadeepersuadee.
160
454920
2200
和被說服者的目標是一致時才存在。
07:49
And that involves涉及 questioning疑問 big things,
like the business商業 model模型 of advertising廣告.
161
457640
3840
而這涉及到對大型事件的質疑,
像是廣告的商業模式。
07:54
Lastly最後,
162
462720
1576
最後,
07:56
we need a design設計 renaissance再生,
163
464320
1680
我們需要一個經過設計的
科技文藝復興,
07:59
because once一旦 you have
this view視圖 of human人的 nature性質,
164
467080
3056
因為一旦你對人性本質
有一定的了解,
08:02
that you can steer駕駛 the timelines時間線
of a billion十億 people --
165
470160
2976
那你就可以控制十億人的時間軸──
08:05
just imagine想像, there's people
who have some desire慾望
166
473160
2736
想像一下,人都會有一些慾望,
08:07
about what they want to do
and what they want to be thinking思維
167
475920
2856
會有想做的事、想思考的事、
想感受的事物、想了解的事物,
08:10
and what they want to be feeling感覺
and how they want to be informed通知,
168
478800
3136
而我們卻只能被引導到其它方向。
08:13
and we're all just tugged扯了扯
into these other directions方向.
169
481960
2536
十億人只會被引導到這些不同的方向。
08:16
And you have a billion十億 people just tugged扯了扯
into all these different不同 directions方向.
170
484520
3696
所以,試想一下
一個完整的文藝復興設計,
08:20
Well, imagine想像 an entire整個 design設計 renaissance再生
171
488240
2056
08:22
that tried試著 to orchestrate編排
the exact精確 and most empowering授權
172
490320
3096
可以幫助我們引導至
正確的、有自主性的、
08:25
time-well-spent時間能得到有效利用 way
for those timelines時間線 to happen發生.
173
493440
3136
時間分配良好的路上。
08:28
And that would involve涉及 two things:
174
496600
1656
那就得包含兩件事:
08:30
one would be protecting保護
against反對 the timelines時間線
175
498280
2136
一是我們要保護自己的時間軸
08:32
that we don't want to be experiencing經歷,
176
500440
1856
不被支配到不想經歷的事情上、
08:34
the thoughts思念 that we
wouldn't不會 want to be happening事件,
177
502320
2416
不去產生我們不想要的想法,
08:36
so that when that ding happens發生,
not having the ding that sends發送 us away;
178
504760
3336
如此,當簡訊的提醒聲響起時,
我們就不會被牽著鼻子走;
08:40
and the second第二 would be empowering授權 us
to live生活 out the timeline時間線 that we want.
179
508120
3616
二是要讓我們能活出
自己想要的時光。
08:43
So let me give you a concrete具體 example.
180
511760
1880
我給各位舉個例子。
08:46
Today今天, let's say your friend朋友
cancels取消 dinner晚餐 on you,
181
514280
2456
比如說,今天你朋友取消了
與你的晚餐約會,
08:48
and you are feeling感覺 a little bit lonely孤獨.
182
516760
3775
所以你感到有點寂寞。
那當下你會做甚麼?
08:52
And so what do you do in that moment時刻?
183
520559
1817
08:54
You open打開 up FacebookFacebook的.
184
522400
1279
你會打開 Facebook。
08:56
And in that moment時刻,
185
524960
1696
而就在那一刻,
08:58
the designers設計師 in the control控制 room房間
want to schedule時間表 exactly究竟 one thing,
186
526680
3376
控制室裡的設計者
想要準確地規劃一件事,
09:02
which哪一個 is to maximize最大化 how much time
you spend on the screen屏幕.
187
530080
3040
那就是最大化你盯著螢幕的時間。
09:06
Now, instead代替, imagine想像 if those designers設計師
created創建 a different不同 timeline時間線
188
534640
3896
現在,反過來,想像一下,
是否這些設計師可以創造出一個
09:10
that was the easiest最簡單的 way,
using運用 all of their data數據,
189
538560
3496
不一樣的時間軸,以最簡單的方法、
利用他們所有的數據,
09:14
to actually其實 help you get out
with the people that you care關心 about?
190
542080
3096
幫你準確地約出你關心的人?
09:17
Just think, alleviating緩解
all loneliness孤單 in society社會,
191
545200
5416
試想一下,消除社會中所有的寂寞,
09:22
if that was the timeline時間線 that FacebookFacebook的
wanted to make possible可能 for people.
192
550640
3496
這樣的時間軸不就是 Facebook
想要為我們實現的嗎?
09:26
Or imagine想像 a different不同 conversation會話.
193
554160
1715
或試想另一個對話。
09:27
Let's say you wanted to post崗位
something supercontroversialsupercontroversial on FacebookFacebook的,
194
555899
3317
比方說你想要在 Facebook 上
發表備受爭議的言論,
09:31
which哪一個 is a really important重要
thing to be able能夠 to do,
195
559240
2416
你覺得這個爭議性話題很重要,
09:33
to talk about controversial爭論的 topics主題.
196
561680
1696
需要被拿出來討論。
09:35
And right now, when there's
that big comment評論 box,
197
563400
2336
現在,有一個很大的留言區,
09:37
it's almost幾乎 asking you,
what key do you want to type類型?
198
565760
3376
它就像是在問你,
你想要輸入什麽東西?
09:41
In other words, it's scheduling調度
a little timeline時間線 of things
199
569160
2816
換句話說,它正在安排一些時間軸,
09:44
you're going to continue繼續
to do on the screen屏幕.
200
572000
2136
好讓你可以繼續待在螢幕上。
09:46
And imagine想像 instead代替 that there was
another另一個 button按鍵 there saying,
201
574160
2976
試想如果有另一個按鈕跳出來說,
09:49
what would be most
time well spent花費 for you?
202
577160
2056
你想怎麼安排你的時間?
09:51
And you click點擊 "host主辦 a dinner晚餐."
203
579240
1576
然後你點選,「舉辦一個晚餐的聚會」。
09:52
And right there
underneath the item項目 it said,
204
580840
2096
然後,底下就會跳出一個,
09:54
"Who wants to RSVPrsvp for the dinner晚餐?"
205
582960
1696
「有誰想要聚餐,請盡速回覆」?
09:56
And so you'd still have a conversation會話
about something controversial爭論的,
206
584680
3256
所以,你的爭議性話題
可以被繼續討論,
09:59
but you'd be having it in the most
empowering授權 place地點 on your timeline時間線,
207
587960
3736
而且可以放置在你時間軸上
最顯眼的位置,
10:03
which哪一個 would be at home that night
with a bunch of a friends朋友 over
208
591720
3016
那天晚上,你就可以邀請到一堆朋友
10:06
to talk about it.
209
594760
1200
來你家裡晚餐並討論這個話題。
10:09
So imagine想像 we're running賽跑, like,
a find and replace更換
210
597000
3160
想像我們正在賽跑,
想盡快找到並替換掉
10:13
on all of the timelines時間線
that are currently目前 steering操舵 us
211
601000
2576
所有那些正在促使我們
10:15
towards more and more
screen屏幕 time persuasively有說服力
212
603600
2560
花越來越多的時間在螢幕上的時間軸,
10:19
and replacing更換 all of those timelines時間線
213
607080
2536
並盡快把這些時間軸
10:21
with what do we want in our lives生活.
214
609640
1640
用我們在生活中想做的事情替代掉。
10:26
It doesn't have to be this way.
215
614960
1480
真的不須要這樣。
10:30
Instead代替 of handicapping設限 our attention注意,
216
618360
2256
不需要癱瘓我們的注意力,
10:32
imagine想像 if we used all of this data數據
and all of this power功率
217
620640
2816
試想如果我們利用所有這些數據和能力,
10:35
and this new view視圖 of human人的 nature性質
218
623480
1616
加上對人性本質的全新認識,
10:37
to give us a superhuman超人 ability能力 to focus焦點
219
625120
2856
來讓我們擁有超人般的注意力、
10:40
and a superhuman超人 ability能力 to put
our attention注意 to what we cared照顧 about
220
628000
4136
讓我們更關心我們在乎的事情、
10:44
and a superhuman超人 ability能力
to have the conversations對話
221
632160
2616
讓我們擁有超人般的能力,
10:46
that we need to have for democracy民主.
222
634800
2000
來進行民主所需要的互動交流。
10:51
The most complex複雜 challenges挑戰 in the world世界
223
639600
2680
世界上最複雜的挑戰,
10:56
require要求 not just us
to use our attention注意 individually個別地.
224
644280
3120
不僅需要我們每個人的注意力。
11:00
They require要求 us to use our attention注意
and coordinate坐標 it together一起.
225
648440
3320
也需要我們的同心協力才能克服。
11:04
Climate氣候 change更改 is going to require要求
that a lot of people
226
652440
2816
地球暖化議題需要大家
11:07
are being存在 able能夠
to coordinate坐標 their attention注意
227
655280
2096
一起使用最有力的方式
11:09
in the most empowering授權 way together一起.
228
657400
1896
將所有人的注意力整合起來。
11:11
And imagine想像 creating創建
a superhuman超人 ability能力 to do that.
229
659320
3080
試想如果有了這樣的超人能力會怎樣。
11:19
Sometimes有時 the world's世界
most pressing緊迫 and important重要 problems問題
230
667000
4160
有時世界上最要緊、最重要的問題
11:24
are not these hypothetical假想 future未來 things
that we could create創建 in the future未來.
231
672040
3840
不是未來我們可以創造的
假設性事物。
11:28
Sometimes有時 the most pressing緊迫 problems問題
232
676560
1736
有時最要緊的問題,
11:30
are the ones那些 that are
right underneath our noses鼻子,
233
678320
2336
就是我們眼前的問題,
11:32
the things that are already已經 directing導演
a billion十億 people's人們 thoughts思念.
234
680680
3120
已經在影響著十億人思想的事情。
11:36
And maybe instead代替 of getting得到 excited興奮
about the new augmented增強 reality現實
235
684600
3376
與其花時間對擴增實境感到興奮、
11:40
and virtual虛擬 reality現實
and these cool things that could happen發生,
236
688000
3296
對虛擬實境這類酷炫產品感到興奮──
11:43
which哪一個 are going to be susceptible易感
to the same相同 race種族 for attention注意,
237
691320
3296
對這些注意力競賽的產品感到興奮──
11:46
if we could fix固定 the race種族 for attention注意
238
694640
2176
不如把時間放在修正注意力競賽上,
11:48
on the thing that's already已經
in a billion十億 people's人們 pockets口袋.
239
696840
2720
修正十億人口袋裡的那台機器上。
11:52
Maybe instead代替 of getting得到 excited興奮
240
700040
1576
與其花時間對刺激、
11:53
about the most exciting扣人心弦
new cool fancy幻想 education教育 apps應用,
241
701640
4176
酷炫的教育軟體感到興奮,
11:57
we could fix固定 the way
kids'孩子們 minds頭腦 are getting得到 manipulated操縱
242
705840
2896
不如花時間找出方法,
來挽救那些已經被操控、
12:00
into sending發出 empty messages消息
back and forth向前.
243
708760
2480
腦中只想傳些空洞簡訊的孩子們。
12:04
(Applause掌聲)
244
712040
4296
(掌聲)
12:08
Maybe instead代替 of worrying令人擔憂
245
716360
1256
與其擔憂那假想的未來:
12:09
about hypothetical假想 future未來
runaway逃跑 artificial人造 intelligences智能
246
717640
3776
只為了吸引我們注意力的
人工智慧未來,
12:13
that are maximizing最大化 for one goal目標,
247
721440
1880
12:16
we could solve解決 the runaway逃跑
artificial人造 intelligence情報
248
724680
2656
倒不如開始解決我們現有的、
12:19
that already已經 exists存在 right now,
249
727360
2056
已經失去控制的人工智慧,
12:21
which哪一個 are these newsfeeds新聞推送
maximizing最大化 for one thing.
250
729440
2920
也就是這些為了吸引我們注意力
推送新聞的人工智慧機器。
12:26
It's almost幾乎 like instead代替 of running賽跑 away
to colonize拓殖 new planets行星,
251
734080
3816
就像是,與其逃跑到新的殖民星球,
12:29
we could fix固定 the one
that we're already已經 on.
252
737920
2056
不如好好地拯救我們的地球。
12:32
(Applause掌聲)
253
740000
4120
(掌聲)
12:40
Solving解決 this problem問題
254
748040
1776
解決這個問題
12:41
is critical危急 infrastructure基礎設施
for solving every一切 other problem問題.
255
749840
3800
是解決其它問題的關鍵所在。
12:46
There's nothing in your life
or in our collective集體 problems問題
256
754600
4016
在你生命中或是我們彼此的共同問題中,
12:50
that does not require要求 our ability能力
to put our attention注意 where we care關心 about.
257
758640
3560
沒有一件事是不需要我們
花時間關注、花心思在乎的。
12:55
At the end結束 of our lives生活,
258
763800
1240
畢竟,到了生命的盡頭,
12:58
all we have is our attention注意 and our time.
259
766240
2640
我們最後所擁有的
就是曾經在乎的美好時光。
13:01
What will be time well spent花費 for ours我們的?
260
769800
1896
讓時間為我們所用。
13:03
Thank you.
261
771720
1216
謝謝各位。
13:04
(Applause掌聲)
262
772960
3120
(掌聲)
13:17
Chris克里斯 Anderson安德森: Tristan特里斯坦, thank you.
Hey, stay up here a sec.
263
785760
2936
克里斯 · 安德森:
崔斯頓,謝謝你。請留步。
13:20
First of all, thank you.
264
788720
1336
首先,謝謝你。
13:22
I know we asked you to do this talk
on pretty漂亮 short notice注意,
265
790080
2776
我知道我們很晚才通知你要做這次演講,
13:24
and you've had quite相當 a stressful壓力 week
266
792880
2216
你這禮拜壓力很大,
13:27
getting得到 this thing together一起, so thank you.
267
795120
2440
為了這次的演講,所以謝謝你。
13:30
Some people listening might威力 say,
what you complain抱怨 about is addiction,
268
798680
3976
有些聽眾可能會說,
你抱怨的是沉迷,
13:34
and all these people doing this stuff東東,
for them it's actually其實 interesting有趣.
269
802680
3496
而對於那些已經沉迷的人來說,
他們認為那是興趣。
13:38
All these design設計 decisions決定
270
806200
1256
所有這些設計過的決策、內容,
13:39
have built內置 user用戶 content內容
that is fantastically飛馳 interesting有趣.
271
807480
3096
對用戶而言是相當有趣的。
13:42
The world's世界 more interesting有趣
than it ever has been.
272
810600
2416
這個世界從未如此有趣過。
13:45
What's wrong錯誤 with that?
273
813040
1256
這有什麽錯嗎?
13:46
Tristan特里斯坦 Harris哈里斯:
I think it's really interesting有趣.
274
814320
2256
崔斯頓.哈瑞斯:我認為這確實有趣。
我們換個角度看這件事,
假設,你在用 Youtube 看影片,
13:48
One way to see this
is if you're just YouTubeYouTube的, for example,
275
816600
4016
13:52
you want to always show顯示
the more interesting有趣 next下一個 video視頻.
276
820640
2656
你總是希望下一部影片是最有趣的。
13:55
You want to get better and better
at suggesting提示 that next下一個 video視頻,
277
823320
3016
你希望下一部推薦的影片越來越棒,
但是即使你推薦了一部比一部好看,
所有人都想要看的完美影片,
13:58
but even if you could propose提出
the perfect完善 next下一個 video視頻
278
826360
2456
14:00
that everyone大家 would want to watch,
279
828840
1656
這只會讓你一直盯著螢幕看。
14:02
it would just be better and better
at keeping保持 you hooked迷上 on the screen屏幕.
280
830520
3336
而其中遺漏的是要找出
我們的邊界。對吧?
14:05
So what's missing失踪 in that equation方程
281
833880
1656
14:07
is figuring盤算 out what
our boundaries邊界 would be.
282
835560
2136
你會想讓 YouTube 知道,
你甚麼時候會「睡著」嗎?
14:09
You would want YouTubeYouTube的 to know
something about, say, falling落下 asleep睡著.
283
837720
3216
Netflix 的 CEO 最近說,
14:12
The CEOCEO of NetflixNetflix公司 recently最近 said,
284
840960
1616
我們最大的競爭者就是臉書、
YouTube 和「睡著了」,對吧?
14:14
"our biggest最大 competitors競爭對手
are FacebookFacebook的, YouTubeYouTube的 and sleep睡覺."
285
842600
2736
14:17
And so what we need to recognize認識
is that the human人的 architecture建築 is limited有限
286
845360
4456
所以我們需要認識到
人體是有極限的、
14:21
and that we have certain某些 boundaries邊界
or dimensions尺寸 of our lives生活
287
849840
2976
我們的生活是有某種界線的、
14:24
that we want to be honored榮幸 and respected尊敬,
288
852840
1976
我們都想要被尊重,
14:26
and technology技術 could help do that.
289
854840
1816
而科技可以幫我們做到。
14:28
(Applause掌聲)
290
856680
2616
(掌聲)
14:31
CACA: I mean, could you make the case案件
291
859320
1696
克里斯:可否請你說明一下,
14:33
that part部分 of the problem問題 here is that
we've我們已經 got a naïve已經 model模型 of human人的 nature性質?
292
861040
6056
這裡還有個問題是,會不會
我們把人性想的太天真了?
14:39
So much of this is justified有理
in terms條款 of human人的 preference偏愛,
293
867120
2736
如何判別各式各樣
人類偏好的合理性,
14:41
where we've我們已經 got these algorithms算法
that do an amazing驚人 job工作
294
869880
2616
我們可以用這些演算法
幫我們完成,
14:44
of optimizing優化 for human人的 preference偏愛,
295
872520
1696
幫我們優化人類的偏好,
14:46
but which哪一個 preference偏愛?
296
874240
1336
但是,是哪方面的偏好?
14:47
There's the preferences優先
of things that we really care關心 about
297
875600
3496
有我們確實關心的、
14:51
when we think about them
298
879120
1376
在意的事情的偏好,
14:52
versus the preferences優先
of what we just instinctively本能 click點擊 on.
299
880520
3056
也有我們只是直覺地點擊的偏好。
14:55
If we could implant注入 that more nuanced細緻入微
view視圖 of human人的 nature性質 in every一切 design設計,
300
883600
4656
如果我們在每個設計中
植入了對人性本質的微妙了解,
15:00
would that be a step forward前鋒?
301
888280
1456
這會是一種進步嗎?
15:01
THTH: Absolutely絕對. I mean, I think right now
302
889760
1976
崔斯頓:那是肯定的。
我的意思是,我認為現在
好像我們的科技基本上
15:03
it's as if all of our technology技術
is basically基本上 only asking our lizard蜥蜴 brain
303
891760
3496
只詢問我們本能反應的腦的意見,
15:07
what's the best最好 way
to just impulsively衝動 get you to do
304
895280
2496
它們最好的方式就是強迫你
15:09
the next下一個 tiniest最小的 thing with your time,
305
897800
2136
在下一秒、下一刻做出一些小事,
15:11
instead代替 of asking you in your life
306
899960
1656
而不是問你人生中的大事、
15:13
what we would be most
time well spent花費 for you?
307
901640
2176
問你花時間在哪方面
才是對你有幫助的?
也不是問你接下來
完美的時間安排是怎樣的,
15:15
What would be the perfect完善 timeline時間線
that might威力 include包括 something later後來,
308
903840
3296
最後一天你要不要
聽一下 TED 演講之類的?
15:19
would be time well spent花費 for you
here at TEDTED in your last day here?
309
907160
3176
克里斯: 所以,是不是要臉書、
谷歌在一開始就問我們,
15:22
CACA: So if FacebookFacebook的 and Google谷歌
and everyone大家 said to us first up,
310
910360
2976
嘿,你想要我們優化思考的腦
還是優化本能反應的腦?
15:25
"Hey, would you like us
to optimize優化 for your reflective反光 brain
311
913360
2896
15:28
or your lizard蜥蜴 brain? You choose選擇."
312
916280
1656
由你來選擇。
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
崔斯頓:是的。這也是個方法。是的。
15:34
CACA: You said persuadabilitypersuadability,
that's an interesting有趣 word to me
314
922358
2858
克里斯:你剛提到的「說服能力」,
對我來說這個詞很有趣,
15:37
because to me there's
two different不同 types類型 of persuadabilitypersuadability.
315
925240
2856
因為在我看來,
有兩種不同的說服能力。
15:40
There's the persuadabilitypersuadability
that we're trying right now
316
928120
2536
有一種說服能力是我們現在在嘗試的,
15:42
of reason原因 and thinking思維
and making製造 an argument論據,
317
930680
2176
用前因後果、提出看法的方式說服聽眾,
15:44
but I think you're almost幾乎
talking about a different不同 kind,
318
932880
2696
但是我覺得你是在談論另一種
15:47
a more visceral內臟 type類型 of persuadabilitypersuadability,
319
935590
1906
更能引起「情緒上本能反應」
的說服能力,
15:49
of being存在 persuaded說服了 without
even knowing會心 that you're thinking思維.
320
937520
2896
那種不經思考就被說服的能力。
沒錯。我會十分關心這個問題的原因是
15:52
THTH: Exactly究竟. The reason原因
I care關心 about this problem問題 so much is
321
940440
2856
我在史丹佛的說服力技術實驗室待過,
15:55
I studied研究 at a lab實驗室 called
the Persuasive說服力 Technology技術 Lab實驗室 at Stanford斯坦福
322
943320
3176
那裡就是在教導人們這些技術。
15:58
that taught people
exactly究竟 these techniques技術.
323
946520
2096
那裡有論壇和討論,教導人們
使用這些偷偷摸摸的方式
16:00
There's conferences會議 and workshops研討會
that teach people all these covert隱蔽 ways方法
324
948640
3456
16:04
of getting得到 people's人們 attention注意
and orchestrating策劃 people's人們 lives生活.
325
952120
2976
來獲得人們的注意力,
指揮人們的生活。
16:07
And it's because most people
don't know that that exists存在
326
955120
2656
正因為大部分人不知道
有這項技術的存在,
所以我們的討論才會如此重要。
16:09
that this conversation會話 is so important重要.
327
957800
1896
16:11
CACA: Tristan特里斯坦, you and I, we both know
so many許多 people from all these companies公司.
328
959720
3776
克里斯:崔斯頓,你和我都認識
許多來自這些公司的人。
16:15
There are actually其實 many許多 here in the room房間,
329
963520
1976
許多人也在這裡,
16:17
and I don't know about you,
but my experience經驗 of them
330
965520
2477
我不知道你是怎麽樣的,
但就我的經驗而言,
16:20
is that there is
no shortage短缺 of good intent意圖.
331
968021
2075
他們也都是善意的。
16:22
People want a better world世界.
332
970120
2176
大家都想要一個更好的世界。
16:24
They are actually其實 -- they really want it.
333
972320
3520
他們確實──他們真的想要。
16:28
And I don't think anything you're saying
is that these are evil邪惡 people.
334
976320
4176
我不認為你所說的,
是在指這些人是壞人。
16:32
It's a system系統 where there's
these unintended意外 consequences後果
335
980520
3696
你指的是有一個系統,
導致了一些意想不到的後果
16:36
that have really got out of control控制 --
336
984240
1856
且超出了控制範圍──
16:38
THTH: Of this race種族 for attention注意.
337
986120
1496
崔斯頓:關於注意力的競爭。
16:39
It's the classic經典 race種族 to the bottom底部
when you have to get attention注意,
338
987640
3176
當你想要吸引人家的注意
它就是一場無視規則的精典賽,
16:42
and it's so tense緊張.
339
990840
1216
而且競爭很激烈。
16:44
The only way to get more
is to go lower降低 on the brain stem,
340
992080
2736
取得更多注意的唯一辦法,
只有更深入腦袋、
16:46
to go lower降低 into outrage暴行,
to go lower降低 into emotion情感,
341
994840
2416
更引起憤怒、更深入情感、
16:49
to go lower降低 into the lizard蜥蜴 brain.
342
997280
1696
更深入本能反應的腦。
16:51
CACA: Well, thank you so much for helping幫助 us
all get a little bit wiser聰明 about this.
343
999000
3816
克里斯:非常感謝你幫助我們
對這個問題有更進一步的了解。
16:54
Tristan特里斯坦 Harris哈里斯, thank you.
THTH: Thank you very much.
344
1002840
2416
謝謝你。
崔斯頓:非常感謝。
16:57
(Applause掌聲)
345
1005280
2240
(掌聲)
Translated by Yi-Fan Yu
Reviewed by Wilde Luo

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com