ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

齊娜普圖菲西: 為了讓人們點擊廣告因而造成了反烏托邦

Filmed:
2,866,905 views

科技社會學家齊娜普圖菲西認為:因我們一次又一次的點擊,而造成了由人工智慧驅動的反烏托邦(是一種不得人心、令人恐懼的假想社群或社會)。在這場讓人開眼界的演說中,她說明臉書、Google 和亞馬遜等公司用演算法來誘使我們點擊廣告和駐足他們的網站,同時也控制和安排我們看得到、看不到哪些政治內容或社會資訊。我們面對的真正威脅並不是機器或人工智慧,而是當權者可能會用人工智慧來控制我們。她提出了我們應該如何因應。
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voice語音 fears恐懼
of artificial人造 intelligence情報,
0
760
3536
當人們表達出對人工智慧的恐懼,
00:16
very often經常, they invoke調用 images圖片
of humanoid人形 robots機器人 run amok瘋狂地.
1
4320
3976
他們腦中的景象通常是
形象似人的機器人失控殺人。
00:20
You know? Terminator終結者?
2
8320
1240
知道嗎?魔鬼終結者?
00:22
You know, that might威力 be
something to consider考慮,
3
10400
2336
雖然考量那種情況的確沒錯,
00:24
but that's a distant遙遠 threat威脅.
4
12760
1856
但那是遙遠以後的威脅。
00:26
Or, we fret煩惱 about digital數字 surveillance監控
5
14640
3456
或者,我們擔心被數位監視,
00:30
with metaphors隱喻 from the past過去.
6
18120
1776
有著來自過去的隱喻。
00:31
"1984," George喬治 Orwell's奧威爾 "1984,"
7
19920
2656
喬治歐威爾的《1984》
00:34
it's hitting the bestseller暢銷書 lists名單 again.
8
22600
2280
再度登上了暢銷書的排行榜。
00:37
It's a great book,
9
25960
1416
雖然它是本很棒的書,
00:39
but it's not the correct正確 dystopia異位
for the 21stST century世紀.
10
27400
3880
但它並未正確地反映出
21 世紀的反烏托邦。
00:44
What we need to fear恐懼 most
11
32080
1416
我們最需要恐懼的
00:45
is not what artificial人造 intelligence情報
will do to us on its own擁有,
12
33520
4776
並不是人工智慧本身會對我們怎樣,
00:50
but how the people in power功率
will use artificial人造 intelligence情報
13
38320
4736
而是掌權者會如何運用人工智慧
00:55
to control控制 us and to manipulate操作 us
14
43080
2816
來控制和操縱我們,
00:57
in novel小說, sometimes有時 hidden,
15
45920
3136
用新穎的、有時隱蔽的、
01:01
subtle微妙 and unexpected意外 ways方法.
16
49080
3016
精細的、出乎意料的方式。
01:04
Much of the technology技術
17
52120
1856
那些會在不遠的將來
01:06
that threatens威脅 our freedom自由
and our dignity尊嚴 in the near-term短期 future未來
18
54000
4336
威脅我們自由和尊嚴的科技,
01:10
is being存在 developed發達 by companies公司
19
58360
1856
多半出自下面這類公司,
01:12
in the business商業 of capturing捕獲
and selling銷售 our data數據 and our attention注意
20
60240
4936
他們攫取我們的注意力和資料,
01:17
to advertisers廣告商 and others其他:
21
65200
2256
販售給廣告商和其他對象:
01:19
FacebookFacebook的, Google谷歌, Amazon亞馬遜,
22
67480
3416
臉書、Google、亞馬遜、
01:22
Alibaba阿里巴巴, Tencent騰訊.
23
70920
1880
阿里巴巴、騰訊。
01:26
Now, artificial人造 intelligence情報 has started開始
bolsteringbolstering their business商業 as well.
24
74040
5496
人工智慧開始鞏固這些公司的事業。
01:31
And it may可能 seem似乎
like artificial人造 intelligence情報
25
79560
2096
看似人工智慧將是
01:33
is just the next下一個 thing after online線上 ads廣告.
26
81680
2856
線上廣告後的下一個產物。
01:36
It's not.
27
84560
1216
並非如此。
01:37
It's a jump in category類別.
28
85800
2456
它是個大躍進的類別,
01:40
It's a whole整個 different不同 world世界,
29
88280
2576
一個完全不同的世界,
01:42
and it has great potential潛在.
30
90880
2616
它具有龐大的潛力,
01:45
It could accelerate加速 our understanding理解
of many許多 areas of study研究 and research研究.
31
93520
6920
能夠加速我們對於
許多研究領域的了解。
01:53
But to paraphrase意譯
a famous著名 Hollywood好萊塢 philosopher哲學家,
32
101120
3496
但,轉述一位知名
好萊塢哲學家的說法:
01:56
"With prodigious驚人 potential潛在
comes prodigious驚人 risk風險."
33
104640
3640
「驚人的潛力會帶來驚人的風險。」
02:01
Now let's look at a basic基本 fact事實
of our digital數字 lives生活, online線上 ads廣告.
34
109120
3936
先談談一個數位生活的
基本面向:線上廣告。
02:05
Right? We kind of dismiss解僱 them.
35
113080
2896
我們算是有點輕視了線上的廣告。
02:08
They seem似乎 crude原油, ineffective不靈.
36
116000
1976
它們看似粗糙、無效。
02:10
We've我們已經 all had the experience經驗
of being存在 followed其次 on the web捲筒紙
37
118000
4256
我們都曾經因為在網路上
搜尋或閱讀過某些內容,
02:14
by an ad廣告 based基於 on something
we searched搜索 or read.
38
122280
2776
而老是被一個廣告給跟隨著。
02:17
You know, you look up a pair of boots靴子
39
125080
1856
上網搜尋一雙靴子,
02:18
and for a week, those boots靴子 are following以下
you around everywhere到處 you go.
40
126960
3376
之後的一週,你到哪兒
都會看見那雙靴子。
02:22
Even after you succumb屈服於 and buy購買 them,
they're still following以下 you around.
41
130360
3656
即使你屈服,買下了它,
它還是到處跟著你。
02:26
We're kind of inured習以為常 to that kind
of basic基本, cheap低廉 manipulation操作.
42
134040
3016
我們算是習慣了
那種基本、廉價的操縱,
02:29
We roll our eyes眼睛 and we think,
"You know what? These things don't work."
43
137080
3400
翻個白眼,心想:
「知道嗎?這些沒有用。」
02:33
Except, online線上,
44
141720
2096
只除了在線上,
02:35
the digital數字 technologies技術 are not just ads廣告.
45
143840
3600
數位科技並不只是廣告。
02:40
Now, to understand理解 that,
let's think of a physical物理 world世界 example.
46
148240
3120
為瞭解這一點,我們先用
實體世界當作例子。
02:43
You know how, at the checkout查看 counters計數器
at supermarkets超級市場, near the cashier出納員,
47
151840
4656
你們有沒有看過,在超市結帳台
靠近收銀機的地方,
02:48
there's candy糖果 and gum
at the eye level水平 of kids孩子?
48
156520
3480
會有放在孩子視線高度的
糖果和口香糖?
02:52
That's designed設計 to make them
whine抱怨 at their parents父母
49
160800
3496
那是設計來讓孩子哀求
02:56
just as the parents父母
are about to sort分類 of check out.
50
164320
3080
正在結帳的父母用的。
03:00
Now, that's a persuasion勸說 architecture建築.
51
168040
2640
那是一種說服架構,
03:03
It's not nice不錯, but it kind of works作品.
52
171160
3096
不太好,但算是有些效用,
03:06
That's why you see it
in every一切 supermarket超級市場.
53
174280
2040
因此在每個超級市場都看得到。
03:08
Now, in the physical物理 world世界,
54
176720
1696
在實體世界中,
03:10
such這樣 persuasion勸說 architectures架構
are kind of limited有限,
55
178440
2496
這種說服架構有點受限,
03:12
because you can only put
so many許多 things by the cashier出納員. Right?
56
180960
4816
因為在收銀台那裡
只擺得下那麼點東西,對吧?
03:17
And the candy糖果 and gum,
it's the same相同 for everyone大家,
57
185800
4296
並且每個人看到的
是同樣的糖果和口香糖,
03:22
even though雖然 it mostly大多 works作品
58
190120
1456
這招只對身旁
03:23
only for people who have
whiny愛發牢騷 little humans人類 beside them.
59
191600
4040
有小孩子喋喋不休吵著的大人有用。
03:29
In the physical物理 world世界,
we live生活 with those limitations限制.
60
197160
3920
我們生活的實體世界裡有那些限制。
03:34
In the digital數字 world世界, though雖然,
61
202280
1936
但在數位世界裡,
03:36
persuasion勸說 architectures架構
can be built內置 at the scale規模 of billions數十億
62
204240
4320
說服架構的規模可達數十億的等級,
03:41
and they can target目標, infer推斷, understand理解
63
209840
3856
它們會瞄準、臆測、了解,
針對個人來部署,
03:45
and be deployed部署 at individuals個人
64
213720
2896
各個擊破,
03:48
one by one
65
216640
1216
03:49
by figuring盤算 out your weaknesses弱點,
66
217880
2136
弄清楚個別的弱點,
03:52
and they can be sent發送
to everyone's大家的 phone電話 private私人的 screen屏幕,
67
220040
5616
且能傳送到每個人
私人手機的螢幕上,
03:57
so it's not visible可見 to us.
68
225680
2256
別人是看不見的。
03:59
And that's different不同.
69
227960
1256
那就很不一樣。
04:01
And that's just one of the basic基本 things
that artificial人造 intelligence情報 can do.
70
229240
3576
那只是人工智慧
能做到的基本功能之一。
04:04
Now, let's take an example.
71
232840
1336
讓我舉個例子。
04:06
Let's say you want to sell
plane平面 tickets門票 to Vegas拉斯維加斯. Right?
72
234200
2696
比如說,你要賣飛往賭城的機票。
04:08
So in the old world世界, you could think
of some demographics人口統計學 to target目標
73
236920
3496
在舊式的世界裡,你可以想出
某些特徵的人來當目標,
04:12
based基於 on experience經驗
and what you can guess猜測.
74
240440
2520
根據你的經驗和猜測。
04:15
You might威力 try to advertise廣告 to, oh,
75
243560
2816
你也可以試著打廣告,
04:18
men男人 between之間 the ages年齡 of 25 and 35,
76
246400
2496
像針對 25~35 歲的男性,
04:20
or people who have
a high limit限制 on their credit信用 card,
77
248920
3936
或高信用卡額度的人,
04:24
or retired退休 couples情侶. Right?
78
252880
1376
或退休的夫妻,對吧?
04:26
That's what you would do in the past過去.
79
254280
1816
那是過去的做法。
04:28
With big data數據 and machine learning學習,
80
256120
2896
有了大量資料和機器學習,
04:31
that's not how it works作品 anymore.
81
259040
1524
方式就不一樣了。
04:33
So to imagine想像 that,
82
261320
2176
試想,
04:35
think of all the data數據
that FacebookFacebook的 has on you:
83
263520
3856
想想臉書掌握什麼關於你的資料:
04:39
every一切 status狀態 update更新 you ever typed類型,
84
267400
2536
所有你輸入的動態更新、
04:41
every一切 Messenger信使 conversation會話,
85
269960
2016
所有的訊息對話、
04:44
every一切 place地點 you logged記錄 in from,
86
272000
1880
所有你登入時的所在地、
04:48
all your photographs照片
that you uploaded上傳 there.
87
276400
3176
所有你上傳的照片。
04:51
If you start開始 typing打字 something
and change更改 your mind心神 and delete刪除 it,
88
279600
3776
如果你開始輸入些內容,
但隨後改變主意而將之刪除,
04:55
FacebookFacebook的 keeps保持 those
and analyzes分析 them, too.
89
283400
3200
臉書會保留那些內容和分析它們。
04:59
Increasingly日益, it tries嘗試
to match比賽 you with your offline離線 data數據.
90
287160
3936
它越來越會試著將你
和你的離線資料做匹配,
05:03
It also purchases購買
a lot of data數據 from data數據 brokers經紀商.
91
291120
3176
也會向資料仲介商購買許多資料。
05:06
It could be everything
from your financial金融 records記錄
92
294320
3416
從你的財務記錄
05:09
to a good chunk of your browsing瀏覽 history歷史.
93
297760
2120
到你過去瀏覽過的一大堆記錄。
05:12
Right? In the US,
such這樣 data數據 is routinely常規 collected,
94
300360
5416
在美國,這些資料被常規地收集、
05:17
collated整理 and sold出售.
95
305800
1960
校對和售出。
05:20
In Europe歐洲, they have tougher強硬 rules規則.
96
308320
2440
歐洲的規定比較嚴。
05:23
So what happens發生 then is,
97
311680
2200
接下來發生的狀況是
05:26
by churning翻騰 through通過 all that data數據,
these machine-learning機器學習 algorithms算法 --
98
314920
4016
透過攪拌所有這些資料,
這些機器學習演算法──
05:30
that's why they're called
learning學習 algorithms算法 --
99
318960
2896
這就是為什麼它們
被稱為學習演算法──
05:33
they learn學習 to understand理解
the characteristics特點 of people
100
321880
4096
它們學會了解過去購買機票
05:38
who purchased購買 tickets門票 to Vegas拉斯維加斯 before.
101
326000
2520
飛往賭城的人有何特徵。
05:41
When they learn學習 this from existing現有 data數據,
102
329760
3536
當它們從既有的資料中
學到這些之後,
05:45
they also learn學習
how to apply應用 this to new people.
103
333320
3816
也學習如何將所學
套用到新的人身上。
05:49
So if they're presented呈現 with a new person,
104
337160
3056
如果交給它們一個新的人,
05:52
they can classify分類 whether是否 that person
is likely容易 to buy購買 a ticket to Vegas拉斯維加斯 or not.
105
340240
4640
它們能辨識那人可能
或不太可能買機票。
05:57
Fine. You're thinking思維,
an offer提供 to buy購買 tickets門票 to Vegas拉斯維加斯.
106
345720
5456
好。你心想,不就是提供
購買飛往賭城機票的訊息罷了,
06:03
I can ignore忽視 that.
107
351200
1456
可以忽略它。
06:04
But the problem問題 isn't that.
108
352680
2216
但問題不在那裡。
06:06
The problem問題 is,
109
354920
1576
問題是,
06:08
we no longer really understand理解
how these complex複雜 algorithms算法 work.
110
356520
4136
我們已經不能真正了解
這些複雜的演算法如何運作。
06:12
We don't understand理解
how they're doing this categorization分類.
111
360680
3456
我們不了解它們如何分類。
06:16
It's giant巨人 matrices矩陣,
thousands數千 of rows and columns,
112
364160
4416
它是個巨大的矩陣,
有數以千計的直行和橫列,
06:20
maybe millions百萬 of rows and columns,
113
368600
1960
也許有上百萬的直行和橫列,
06:23
and not the programmers程序員
114
371320
2640
程式設計者也無法了解,
任何人看到它都無法了解,
06:26
and not anybody任何人 who looks容貌 at it,
115
374760
1680
06:29
even if you have all the data數據,
116
377440
1496
即使握有所有的資料,
06:30
understands理解 anymore
how exactly究竟 it's operating操作
117
378960
4616
對於它到底如何運作的了解程度,
絕對不會高於你對我現在
腦中想什麼的了解程度,
06:35
any more than you'd know
what I was thinking思維 right now
118
383600
3776
06:39
if you were shown顯示
a cross交叉 section部分 of my brain.
119
387400
3960
如果你單憑看我大腦的切面圖。
06:44
It's like we're not programming程序設計 anymore,
120
392360
2576
感覺好像我們不是在寫程式了,
06:46
we're growing生長 intelligence情報
that we don't truly understand理解.
121
394960
4400
而是在栽培一種我們不是
真正了解的智慧。
06:52
And these things only work
if there's an enormous巨大 amount of data數據,
122
400520
3976
只在資料量非常巨大的情況下
這些才行得通,
06:56
so they also encourage鼓勵
deep surveillance監控 on all of us
123
404520
5096
所以他們也助長了
對我們所有人的密切監視,
07:01
so that the machine learning學習
algorithms算法 can work.
124
409640
2336
這樣機器學習才能行得通。
07:04
That's why FacebookFacebook的 wants
to collect蒐集 all the data數據 it can about you.
125
412000
3176
那就是為什麼臉書要盡可能
收集關於你的資料。
07:07
The algorithms算法 work better.
126
415200
1576
這樣演算法效果才會比較好。
07:08
So let's push that Vegas拉斯維加斯 example a bit.
127
416800
2696
讓我們再談談賭城的例子。
07:11
What if the system系統
that we do not understand理解
128
419520
3680
如果這個我們不了解的系統
07:16
was picking選擇 up that it's easier更輕鬆
to sell Vegas拉斯維加斯 tickets門票
129
424200
5136
發現比較容易把機票銷售給
07:21
to people who are bipolar雙極
and about to enter輸入 the manic躁狂 phase.
130
429360
3760
即將進入躁症階段的躁鬱症患者。
07:25
Such這樣 people tend趨向 to become成為
overspendersoverspenders, compulsive強迫 gamblers賭徒.
131
433640
4920
這類人傾向於變成
花錢超支的人、強迫性賭徒。
07:31
They could do this, and you'd have no clue線索
that's what they were picking選擇 up on.
132
439280
4456
他們能這麼做,而你完全不知道
那是他們選目標的根據。
07:35
I gave this example
to a bunch of computer電腦 scientists科學家們 once一旦
133
443760
3616
有次,我把這個例子
給了一群電腦科學家,
07:39
and afterwards之後, one of them came來了 up to me.
134
447400
2056
之後,其中一人來找我。
07:41
He was troubled苦惱 and he said,
"That's why I couldn't不能 publish發布 it."
135
449480
3520
他感到困擾,說:「那就是
為什麼我們無法發表它。」
07:45
I was like, "Couldn't不能 publish發布 what?"
136
453600
1715
我說:「不能發表什麼?」
07:47
He had tried試著 to see whether是否 you can indeed確實
figure數字 out the onset發病 of mania狂躁
137
455800
5856
他曾嘗試能否在出現臨床症狀前
就預知躁鬱症快發作了,
靠的是分析社交媒體的貼文。
07:53
from social社會 media媒體 posts帖子
before clinical臨床 symptoms症狀,
138
461680
3216
07:56
and it had worked工作,
139
464920
1776
他辦到了,
07:58
and it had worked工作 very well,
140
466720
2056
結果非常成功,
08:00
and he had no idea理念 how it worked工作
or what it was picking選擇 up on.
141
468800
4880
而他完全不知道是怎麼成功的,
也不知道預測的根據是什麼。
08:06
Now, the problem問題 isn't solved解決了
if he doesn't publish發布 it,
142
474840
4416
如果他不發表結果,
問題就沒有解決,
08:11
because there are already已經 companies公司
143
479280
1896
因為已經有公司
08:13
that are developing發展
this kind of technology技術,
144
481200
2536
在發展這種技術,
08:15
and a lot of the stuff東東
is just off the shelf.
145
483760
2800
很多東西都已經是現成的了。
08:19
This is not very difficult anymore.
146
487240
2576
這已經不是很困難的事了。
08:21
Do you ever go on YouTubeYouTube的
meaning含義 to watch one video視頻
147
489840
3456
你可曾經上 YouTube
原本只是要看一支影片,
08:25
and an hour小時 later後來 you've watched看著 27?
148
493320
2360
一個小時之後你卻已看了 27 支?
08:28
You know how YouTubeYouTube的
has this column on the right
149
496760
2496
你可知道 YouTube 在網頁的右欄
08:31
that says, "Up next下一個"
150
499280
2216
擺著「即將播放」的影片,
08:33
and it autoplays自動播放 something?
151
501520
1816
而且會自動接著播放那些影片?
08:35
It's an algorithm算法
152
503360
1216
那是種演算法,
08:36
picking選擇 what it thinks
that you might威力 be interested有興趣 in
153
504600
3616
選出它認為你可能會感興趣,
08:40
and maybe not find on your own擁有.
154
508240
1536
但不見得會自己去找到的影片。
08:41
It's not a human人的 editor編輯.
155
509800
1256
並不是人類編輯者,
08:43
It's what algorithms算法 do.
156
511080
1416
而是演算法做的。
08:44
It picks精選 up on what you have watched看著
and what people like you have watched看著,
157
512520
4736
它去了解你看過什麼影片,
像你這類的人看過什麼影片,
08:49
and infers推斷 that that must必須 be
what you're interested有興趣 in,
158
517280
4216
然後推論出那就是你會感興趣、
想看更多的影片,
08:53
what you want more of,
159
521520
1255
然後呈現更多給你看。
08:54
and just shows節目 you more.
160
522799
1336
08:56
It sounds聲音 like a benign良性
and useful有用 feature特徵,
161
524159
2201
聽起來是個良性又有用的特色,
08:59
except when it isn't.
162
527280
1200
除了它不是這樣的時候。
09:01
So in 2016, I attended出席 rallies集會
of then-candidate當時的總統候選人 Donald唐納德 Trump王牌
163
529640
6960
在 2016 年,我去了一場
擁護當時還是候選人川普的集會,
09:09
to study研究 as a scholar學者
the movement運動 supporting支持 him.
164
537840
3336
我以學者身份去研究支持他的運動。
09:13
I study研究 social社會 movements運動,
so I was studying研究 it, too.
165
541200
3456
我研究社會運動,所以也去研究它。
09:16
And then I wanted to write something
about one of his rallies集會,
166
544680
3336
接著,我想要針對
他的某次集會寫點什麼,
09:20
so I watched看著 it a few少數 times on YouTubeYouTube的.
167
548040
1960
所以就在 YouTube 上
看了幾遍。
09:23
YouTubeYouTube的 started開始 recommending建議 to me
168
551240
3096
YouTube 開始推薦給我
09:26
and autoplaying自動播放 to me
white白色 supremacist至上主義 videos視頻
169
554360
4256
並為我自動播放,
白人至上主義的影片,
09:30
in increasing增加 order訂購 of extremism極端主義.
170
558640
2656
一支比一支更極端主義。
09:33
If I watched看著 one,
171
561320
1816
如果我看了一支,
09:35
it served提供服務 up one even more extreme極端
172
563160
2976
它就會送上另一支更極端的,
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
並且自動播放它。
09:40
If you watch Hillary希拉里 Clinton克林頓
or Bernie伯尼 Sanders桑德斯 content內容,
174
568320
4536
如果你看的影片內容是
希拉蕊柯林頓或伯尼桑德斯,
09:44
YouTubeYouTube的 recommends建議
and autoplays自動播放 conspiracy陰謀 left,
175
572880
4696
YouTube 會推薦並自動播放
陰謀論左派的影片,
09:49
and it goes downhill下坡 from there.
176
577600
1760
之後就每況愈下。
09:52
Well, you might威力 be thinking思維,
this is politics政治, but it's not.
177
580480
3056
你可能會想,這是政治。
但並不是,重點不是政治,
09:55
This isn't about politics政治.
178
583560
1256
09:56
This is just the algorithm算法
figuring盤算 out human人的 behavior行為.
179
584840
3096
這只是猜測人類行為的演算法。
09:59
I once一旦 watched看著 a video視頻
about vegetarianism素食主義 on YouTubeYouTube的
180
587960
4776
我曾經上 YouTube
看一支關於吃素的影片,
10:04
and YouTubeYouTube的 recommended推薦的
and autoplayedautoplayed a video視頻 about being存在 vegan素食主義者.
181
592760
4936
而 YouTube 推薦並自動播放了
一支關於嚴格素食主義者的影片。
10:09
It's like you're never
hardcore鐵桿 enough足夠 for YouTubeYouTube的.
182
597720
3016
似乎對 YouTube 而言
你的口味永遠都還不夠重。
10:12
(Laughter笑聲)
183
600760
1576
(笑聲)
10:14
So what's going on?
184
602360
1560
發生了什麼事?
10:16
Now, YouTube'sYouTube的 algorithm算法 is proprietary所有權,
185
604520
3536
YouTube 的演算法是專有的,
10:20
but here's這裡的 what I think is going on.
186
608080
2360
但我認為發生的事是這樣的:
10:23
The algorithm算法 has figured想通 out
187
611360
2096
演算法發現到,
10:25
that if you can entice誘惑 people
188
613480
3696
如果誘使人們思索
10:29
into thinking思維 that you can
show顯示 them something more hardcore鐵桿,
189
617200
3736
你還能提供他們更重口味的東西,
10:32
they're more likely容易 to stay on the site現場
190
620960
2416
他們就更可能會留在網站上,
10:35
watching觀看 video視頻 after video視頻
going down that rabbit兔子 hole
191
623400
4416
看一支又一支的影片,
一路掉進兔子洞,
10:39
while Google谷歌 serves供應 them ads廣告.
192
627840
1680
同時 Google 還給他們看廣告。
10:43
Now, with nobody沒有人 minding自掃門前雪
the ethics倫理 of the store商店,
193
631760
3120
沒人在意商家倫理的情況下,
10:47
these sites網站 can profile輪廓 people
194
635720
4240
這些網站能夠描繪人的特性,
10:53
who are Jew haters仇敵,
195
641680
1920
哪些人痛恨猶太人,
10:56
who think that Jews猶太人 are parasites寄生蟲
196
644360
2480
認為猶太人是寄生蟲,
11:00
and who have such這樣 explicit明確的
anti-Semitic反猶太人的 content內容,
197
648320
4920
以及哪些人明確地反猶太人,
11:06
and let you target目標 them with ads廣告.
198
654080
2000
讓你針對他們提供廣告。
11:09
They can also mobilize動員 algorithms算法
199
657200
3536
它們也能動員演算法,
11:12
to find for you look-alike看起來像 audiences觀眾,
200
660760
3136
為你找出相近的觀眾群,
11:15
people who do not have such這樣 explicit明確的
anti-Semitic反猶太人的 content內容 on their profile輪廓
201
663920
5576
那些側看不怎麼明顯反猶太人,
11:21
but who the algorithm算法 detects檢測
may可能 be susceptible易感 to such這樣 messages消息,
202
669520
6176
但是被演算法偵測出來
很容易受到這類訊息影響的人,
11:27
and lets讓我們 you target目標 them with ads廣告, too.
203
675720
1920
讓你針對他們提供廣告。
11:30
Now, this may可能 sound聲音
like an implausible難以置信 example,
204
678680
2736
這可能聽起來像是個
難以置信的例子,
11:33
but this is real真實.
205
681440
1320
但它是真實的。
11:35
ProPublicaProPublica investigated調查 this
206
683480
2136
ProPublica 調查了這件事,
11:37
and found發現 that you can indeed確實
do this on FacebookFacebook的,
207
685640
3616
且發現你的確可以
在臉書上做到這件事,
11:41
and FacebookFacebook的 helpfully有益
offered提供 up suggestions建議
208
689280
2416
且臉書很有效地提供建議,
11:43
on how to broaden擴大 that audience聽眾.
209
691720
1600
告訴你如何拓展觀眾群。
11:46
BuzzFeedBuzzFeed tried試著 it for Google谷歌,
and very quickly很快 they found發現,
210
694720
3016
BuzzFeed 用 Google
做了實驗,他們很快發現,
11:49
yep是的, you can do it on Google谷歌, too.
211
697760
1736
是的,你也可以在
Google 上這樣做。
11:51
And it wasn't even expensive昂貴.
212
699520
1696
而且甚至不貴。
11:53
The ProPublicaProPublica reporter記者
spent花費 about 30 dollars美元
213
701240
4416
ProPublica 的記者
花了大約 30 美元
11:57
to target目標 this category類別.
214
705680
2240
來針對這個類別。
12:02
So last year, Donald唐納德 Trump's特朗普的
social社會 media媒體 manager經理 disclosed披露
215
710600
5296
去年川普的社交媒體經理透露,
12:07
that they were using運用 FacebookFacebook的 dark黑暗 posts帖子
to demobilize復員 people,
216
715920
5336
他們利用臉書的隱藏廣告貼文
來「反動員」選民,
12:13
not to persuade說服 them,
217
721280
1376
不是勸說或動員他們,
12:14
but to convince說服 them not to vote投票 at all.
218
722680
2800
而是說服他們根本不去投票。
12:18
And to do that,
they targeted針對 specifically特別,
219
726520
3576
為做到這一點,他們準確設定目標,
12:22
for example, African-American非裔美國人 men男人
in key cities城市 like Philadelphia費城,
220
730120
3896
比如像費城這樣
關鍵城市的非裔美國男性,
12:26
and I'm going to read
exactly究竟 what he said.
221
734040
2456
讓我把他的話一字不漏讀出來。
12:28
I'm quoting引用.
222
736520
1216
以下為引述。
12:29
They were using運用 "nonpublic非公開 posts帖子
223
737760
3016
他們使用「非公開貼文,
那些貼文的觀看權限
由競選團隊來控制,
12:32
whose誰的 viewership收視率 the campaign運動 controls控制
224
740800
2176
12:35
so that only the people
we want to see it see it.
225
743000
3776
所以只有我們挑的讀者才看得到。
我們為此建立了模型,
12:38
We modeled仿照 this.
226
746800
1216
12:40
It will dramatically顯著 affect影響 her ability能力
to turn these people out."
227
748040
4720
會嚴重影響到她(指希拉蕊)
動員那些人去投票的能力。」
12:45
What's in those dark黑暗 posts帖子?
228
753720
2280
那些隱藏廣告貼文中有什麼內容?
12:48
We have no idea理念.
229
756480
1656
我們不知道。
12:50
FacebookFacebook的 won't慣於 tell us.
230
758160
1200
臉書不告訴我們。
12:52
So FacebookFacebook的 also algorithmically算法
arranges整理 the posts帖子
231
760480
4376
所以臉書也用演算法的方式
來安排你的朋友
12:56
that your friends朋友 put on FacebookFacebook的,
or the pages網頁 you follow跟隨.
232
764880
3736
在臉書的貼文或是你追蹤的頁面。
它並不會照時間順序
來呈現所有內容。
13:00
It doesn't show顯示 you
everything chronologically按時間順序.
233
768640
2216
13:02
It puts看跌期權 the order訂購 in the way
that the algorithm算法 thinks will entice誘惑 you
234
770880
4816
呈現順序是演算法認為
能引誘你在網站上逗留久一點的順序。
13:07
to stay on the site現場 longer.
235
775720
1840
13:11
Now, so this has a lot of consequences後果.
236
779040
3376
所以,這麼做有許多後果。
13:14
You may可能 be thinking思維
somebody is snubbing冷落 you on FacebookFacebook的.
237
782440
3800
你可能會認為有人在臉書上冷落你。
13:18
The algorithm算法 may可能 never
be showing展示 your post崗位 to them.
238
786800
3256
也許是演算法根本沒把
你的貼文呈現給他們看。
13:22
The algorithm算法 is prioritizing優先
some of them and burying掩埋 the others其他.
239
790080
5960
演算法優先呈現其中某些,
而埋藏掉其他的。
13:29
Experiments實驗 show顯示
240
797320
1296
實驗顯示,
13:30
that what the algorithm算法 picks精選 to show顯示 you
can affect影響 your emotions情緒.
241
798640
4520
演算法選擇呈現給你的內容,
會影響你的情緒。
13:36
But that's not all.
242
804600
1200
但不止這樣,
13:38
It also affects影響 political政治 behavior行為.
243
806280
2360
它也會影響政治行為。
13:41
So in 2010, in the midterm期中考試 elections選舉,
244
809360
4656
在 2010 年的期中選舉時,
13:46
FacebookFacebook的 did an experiment實驗
on 61 million百萬 people in the US
245
814040
5896
臉書做了一個實驗,
對象是美國 6100 萬人,
13:51
that was disclosed披露 after the fact事實.
246
819960
1896
該實驗後來被揭露出來。
13:53
So some people were shown顯示,
"Today今天 is election選舉 day,"
247
821880
3416
有些人看到的是「今天是選舉日」,
13:57
the simpler簡單 one,
248
825320
1376
簡單的版本,
13:58
and some people were shown顯示
the one with that tiny tweak
249
826720
3896
有些人看到的是有
小小調整過的版本,
14:02
with those little thumbnails縮略圖
250
830640
2096
用小型照片縮圖來顯示出
14:04
of your friends朋友 who clicked點擊 on "I voted."
251
832760
2840
你的朋友中按了
「我已投票」的那些人。
14:09
This simple簡單 tweak.
252
837000
1400
這是個小小的調整。
14:11
OK? So the pictures圖片 were the only change更改,
253
839520
4296
唯一的差別就是照片,
14:15
and that post崗位 shown顯示 just once一旦
254
843840
3256
這篇貼文只被顯示出來一次,
14:19
turned轉身 out an additional額外 340,000 voters選民
255
847120
6056
結果多出了 34 萬的投票者
14:25
in that election選舉,
256
853200
1696
在那次選舉投了票,
14:26
according根據 to this research研究
257
854920
1696
根據這研究指出,
14:28
as confirmed確認 by the voter選民 rolls勞斯萊斯.
258
856640
2520
這結果已經由選舉人名冊確認過了。
14:32
A fluke吸蟲? No.
259
860920
1656
是僥倖嗎?不是。
14:34
Because in 2012,
they repeated重複 the same相同 experiment實驗.
260
862600
5360
因為在 2012 年,
他們重覆了同樣的實驗。
14:40
And that time,
261
868840
1736
那一次,
14:42
that civic公民 message信息 shown顯示 just once一旦
262
870600
3296
只顯示一次的公民訊息
14:45
turned轉身 out an additional額外 270,000 voters選民.
263
873920
4440
造成投票者多出了 27 萬人。
14:51
For reference參考, the 2016
US presidential總統 election選舉
264
879160
5216
供參考用:2016 年
總統大選的結果,
14:56
was decided決定 by about 100,000 votes.
265
884400
3520
大約十萬選票的差距決定了江山。
15:01
Now, FacebookFacebook的 can also
very easily容易 infer推斷 what your politics政治 are,
266
889360
4736
臉書也能輕易推論出你的政治傾向,
即使你未曾在臉書上透露過。
15:06
even if you've never
disclosed披露 them on the site現場.
267
894120
2256
15:08
Right? These algorithms算法
can do that quite相當 easily容易.
268
896400
2520
對吧?那些演算法很輕易就做得到。
15:11
What if a platform平台 with that kind of power功率
269
899960
3896
一旦具有那種力量的平台決定要使
15:15
decides決定 to turn out supporters支持者
of one candidate候選人 over the other?
270
903880
5040
一位候選人的支持者出來投票,
另一位的則不,會如何呢?
15:21
How would we even know about it?
271
909680
2440
我們如何得知發生了這種事?
15:25
Now, we started開始 from someplace某個地方
seemingly似乎 innocuous無害的 --
272
913560
4136
我們討論的起始點看似無害──
15:29
online線上 adds增加 following以下 us around --
273
917720
2216
線上廣告跟著我們到處出現──
15:31
and we've我們已經 landed登陸 someplace某個地方 else其他.
274
919960
1840
但後來卻談到別的現象。
15:35
As a public上市 and as citizens公民,
275
923480
2456
身為大眾、身為公民,
15:37
we no longer know
if we're seeing眼看 the same相同 information信息
276
925960
3416
我們不再知道
我們看到的資訊是否相同,
15:41
or what anybody任何人 else其他 is seeing眼看,
277
929400
1480
或是其他人看到了什麼,
15:43
and without a common共同 basis基礎 of information信息,
278
931680
2576
沒有共同的資訊基礎,
15:46
little by little,
279
934280
1616
漸漸地,
15:47
public上市 debate辯論 is becoming變得 impossible不可能,
280
935920
3216
就會變成不可能公開辯論了,
15:51
and we're just at
the beginning開始 stages階段 of this.
281
939160
2976
我們目前只是在
這個過程的初始階段。
15:54
These algorithms算法 can quite相當 easily容易 infer推斷
282
942160
3456
這些演算法很容易推論出
15:57
things like your people's人們 ethnicity種族,
283
945640
3256
比如你的種族、
16:00
religious宗教 and political政治 views意見,
personality個性 traits性狀,
284
948920
2336
宗教和政治觀點、個人特質、
16:03
intelligence情報, happiness幸福,
use of addictive上癮 substances物質,
285
951280
3376
智力、快樂程度、
是否使用上癮式物質、
16:06
parental父母 separation分割, age年齡 and genders性別,
286
954680
3136
父母離異、年齡和性別,
16:09
just from FacebookFacebook的 likes喜歡.
287
957840
1960
只從臉書按的讚就能知道。
16:13
These algorithms算法 can identify鑑定 protesters抗議者
288
961440
4056
這些演算法能夠辨識抗議者,
16:17
even if their faces面孔
are partially部分 concealed.
289
965520
2760
即使遮蔽他們部份的臉也能辨識。
16:21
These algorithms算法 may可能 be able能夠
to detect檢測 people's人們 sexual有性 orientation方向
290
969720
6616
這些演算法或許能偵測人的性向,
16:28
just from their dating約會 profile輪廓 pictures圖片.
291
976360
3200
只要有他們的約會側寫照片即可。
16:33
Now, these are probabilistic概率 guesses猜測,
292
981560
2616
這些是用機率算出的猜測,
16:36
so they're not going
to be 100 percent百分 right,
293
984200
2896
所以不見得 100% 正確,
16:39
but I don't see the powerful強大 resisting抵制
the temptation誘惑 to use these technologies技術
294
987120
4896
但我並沒有看到因為這些技術有
假陽性結果(實際沒有被預測為有)
16:44
just because there are
some false positives陽性,
295
992040
2176
大家就抗拒使用它們,
16:46
which哪一個 will of course課程 create創建
a whole整個 other layer of problems問題.
296
994240
3256
因而這些假陽性結果
又造成全然另一層的問題。
16:49
Imagine想像 what a state can do
297
997520
2936
想像一下國家會怎麼用
16:52
with the immense巨大 amount of data數據
it has on its citizens公民.
298
1000480
3560
所擁有的大量國民資料。
16:56
China中國 is already已經 using運用
face面對 detection發現 technology技術
299
1004680
4776
中國已經在使用面部辨識技術
17:01
to identify鑑定 and arrest逮捕 people.
300
1009480
2880
來識別和逮捕人。
17:05
And here's這裡的 the tragedy悲劇:
301
1013280
2136
不幸的是,
17:07
we're building建造 this infrastructure基礎設施
of surveillance監控 authoritarianism獨裁主義
302
1015440
5536
起初我們建立這個
專制監視的基礎結構,
17:13
merely僅僅 to get people to click點擊 on ads廣告.
303
1021000
2960
僅僅為了要讓人們點閱廣告。
17:17
And this won't慣於 be
Orwell's奧威爾 authoritarianism獨裁主義.
304
1025240
2576
這不會是歐威爾的專制主義。
17:19
This isn't "1984."
305
1027839
1897
這不是《1984》。
17:21
Now, if authoritarianism獨裁主義
is using運用 overt公開 fear恐懼 to terrorize威懾 us,
306
1029760
4576
如果專制主義
公然利用恐懼來恐嚇我們,
17:26
we'll all be scared害怕, but we'll know it,
307
1034359
2897
我們會害怕,但我們心知肚明,
17:29
we'll hate討厭 it and we'll resist it.
308
1037280
2200
我們會厭惡它,也會抗拒它。
17:32
But if the people in power功率
are using運用 these algorithms算法
309
1040880
4416
但如果掌權者用這些演算法
17:37
to quietly悄悄 watch us,
310
1045319
3377
悄悄地監看我們、
17:40
to judge法官 us and to nudge微調 us,
311
1048720
2080
評斷我們、輕輕推使我們,
17:43
to predict預測 and identify鑑定
the troublemakers鬧事 and the rebels叛軍,
312
1051720
4176
用這些演算法來預測和辨識出
問題製造者和叛亂份子,
17:47
to deploy部署 persuasion勸說
architectures架構 at scale規模
313
1055920
3896
部署大規模的說服結構,
17:51
and to manipulate操作 individuals個人 one by one
314
1059840
4136
並個別操弄每一個人,
17:56
using運用 their personal個人, individual個人
weaknesses弱點 and vulnerabilities漏洞,
315
1064000
5440
利用他們個人、個別的缺點和弱點,
18:02
and if they're doing it at scale規模
316
1070720
2200
如果規模夠大,
18:06
through通過 our private私人的 screens屏幕
317
1074080
1736
透過我們私人的螢幕,
18:07
so that we don't even know
318
1075840
1656
那麼我們甚至不會知道
18:09
what our fellow同伴 citizens公民
and neighbors鄰居 are seeing眼看,
319
1077520
2760
其他公民及鄰居看到了什麼內容,
18:13
that authoritarianism獨裁主義
will envelop信封 us like a spider's蜘蛛 web捲筒紙
320
1081560
4816
那種專制主義會像蜘蛛網
一樣把我們緊緊地包裹起來,
而我們甚至不會知道
自己被包在裡面。
18:18
and we may可能 not even know we're in it.
321
1086400
2480
18:22
So Facebook'sFacebook的 market市場 capitalization大寫
322
1090440
2936
所以,臉書的市場資本化
18:25
is approaching接近 half a trillion dollars美元.
323
1093400
3296
已經接近五千億美元。
18:28
It's because it works作品 great
as a persuasion勸說 architecture建築.
324
1096720
3120
因為它是個很成功的說服架構。
18:33
But the structure結構體 of that architecture建築
325
1101760
2816
但用的架構一樣,
18:36
is the same相同 whether是否 you're selling銷售 shoes
326
1104600
3216
不論你銷售的是鞋子
18:39
or whether是否 you're selling銷售 politics政治.
327
1107840
2496
或是政治。
18:42
The algorithms算法 do not know the difference區別.
328
1110360
3120
演算法不知道差別。
18:46
The same相同 algorithms算法 set loose疏鬆 upon us
329
1114240
3296
那個被鬆綁了的、
為使我們更容易
被廣告左右的演算法,
18:49
to make us more pliable易彎的 for ads廣告
330
1117560
3176
18:52
are also organizing組織 our political政治,
personal個人 and social社會 information信息 flows流動,
331
1120760
6736
同時也正組織著我們的
政治、個人和社會的資訊流,
18:59
and that's what's got to change更改.
332
1127520
1840
這點必須要被改變才行。
19:02
Now, don't get me wrong錯誤,
333
1130240
2296
別誤會我,
我們使用數位平台,是因為
它們能提供我們極大的價值。
19:04
we use digital數字 platforms平台
because they provide提供 us with great value.
334
1132560
3680
19:09
I use FacebookFacebook的 to keep in touch觸摸
with friends朋友 and family家庭 around the world世界.
335
1137120
3560
我用臉書來和世界各地的
朋友家人保持聯絡。
19:14
I've written書面 about how crucial關鍵
social社會 media媒體 is for social社會 movements運動.
336
1142000
5776
我寫過關於社交媒體對於
社會運動有多重要的文章。
19:19
I have studied研究 how
these technologies技術 can be used
337
1147800
3016
我研究過這些技術能如何
被用來規避世界各地的審查制度。
19:22
to circumvent規避 censorship審查 around the world世界.
338
1150840
2480
19:27
But it's not that the people who run,
you know, FacebookFacebook的 or Google谷歌
339
1155280
6416
但,不是臉書
或 Google 的營運者
19:33
are maliciously惡意 and deliberately故意 trying
340
1161720
2696
在惡意、刻意地嘗試
19:36
to make the country國家
or the world世界 more polarized偏振
341
1164440
4456
讓國家或世界變得更兩極化、
19:40
and encourage鼓勵 extremism極端主義.
342
1168920
1680
或鼓勵極端主義。
19:43
I read the many許多
well-intentioned用心良苦 statements聲明
343
1171440
3976
我讀過許多出發點很好的聲明,
19:47
that these people put out.
344
1175440
3320
都是這些人發出來的。
19:51
But it's not the intent意圖 or the statements聲明
people in technology技術 make that matter,
345
1179600
6056
但重點並不是科技人的意圖或聲明,
19:57
it's the structures結構
and business商業 models楷模 they're building建造.
346
1185680
3560
而他們建造的結構與商業模型
20:02
And that's the core核心 of the problem問題.
347
1190360
2096
才是問題的核心。
20:04
Either FacebookFacebook的 is a giant巨人 con
of half a trillion dollars美元
348
1192480
4720
要不就臉書是個大騙子,
詐騙了半兆美元,
20:10
and ads廣告 don't work on the site現場,
349
1198200
1896
該網站上的廣告沒有用,
20:12
it doesn't work
as a persuasion勸說 architecture建築,
350
1200120
2696
它不以說服架構的形式運作;
20:14
or its power功率 of influence影響
is of great concern關心.
351
1202840
4120
要不就它的影響力很讓人擔心。
20:20
It's either one or the other.
352
1208560
1776
只會是兩者其一。
20:22
It's similar類似 for Google谷歌, too.
353
1210360
1600
Google 也類似。
20:24
So what can we do?
354
1212880
2456
所以,我們能做什麼?
20:27
This needs需求 to change更改.
355
1215360
1936
這必須要改變。
20:29
Now, I can't offer提供 a simple簡單 recipe食譜,
356
1217320
2576
我無法提供簡單的解決之道,
20:31
because we need to restructure重組
357
1219920
2256
因為我們得要重建
20:34
the whole整個 way our
digital數字 technology技術 operates操作.
358
1222200
3016
整個數位技術的運作方式;
20:37
Everything from the way
technology技術 is developed發達
359
1225240
4096
每一樣──從發展技術的方式
20:41
to the way the incentives獎勵,
economic經濟 and otherwise除此以外,
360
1229360
3856
到獎勵的方式,不論是實質
或其他形式的獎勵──
20:45
are built內置 into the system系統.
361
1233240
2280
都要被建置到系統中。
20:48
We have to face面對 and try to deal合同 with
362
1236480
3456
我們得要面對並試圖處理
20:51
the lack缺乏 of transparency透明度
created創建 by the proprietary所有權 algorithms算法,
363
1239960
4656
專有演算法所造成的透明度缺乏,
20:56
the structural結構 challenge挑戰
of machine learning's學習的 opacity不透明度,
364
1244640
3816
難懂的機器學習的結構性挑戰,
21:00
all this indiscriminate data數據
that's being存在 collected about us.
365
1248480
3400
所有被不分皂白地收集走、
與我們相關的資料。
21:05
We have a big task任務 in front面前 of us.
366
1253000
2520
我們面對巨大的任務。
21:08
We have to mobilize動員 our technology技術,
367
1256160
2680
我們得要動員我們的科技、
21:11
our creativity創造力
368
1259760
1576
我們的創意、
21:13
and yes, our politics政治
369
1261360
1880
以及我們的政治。
21:16
so that we can build建立
artificial人造 intelligence情報
370
1264240
2656
以讓我們建立的人工智慧
21:18
that supports支持 us in our human人的 goals目標
371
1266920
3120
能夠支持我們人類的目標,
21:22
but that is also constrained受限
by our human人的 values.
372
1270800
3920
那些同時也被人類價值
所限制住的目標。
21:27
And I understand理解 this won't慣於 be easy簡單.
373
1275600
2160
我知道這不容易。
21:30
We might威力 not even easily容易 agree同意
on what those terms條款 mean.
374
1278360
3600
我們甚至無法輕易取得
那些用語意義的共識。
21:34
But if we take seriously認真地
375
1282920
2400
但如果我們認真看待
21:38
how these systems系統 that we
depend依靠 on for so much operate操作,
376
1286240
5976
我們如此依賴的這些系統如何運作,
21:44
I don't see how we can postpone推遲
this conversation會話 anymore.
377
1292240
4120
我看不出我們怎能再延遲對話。
21:49
These structures結構
378
1297200
2536
這些結構
21:51
are organizing組織 how we function功能
379
1299760
4096
正在組織我們運作的方式,
21:55
and they're controlling控制
380
1303880
2296
並且控制了
21:58
what we can and we cannot不能 do.
381
1306200
2616
我們能做什麼、不能做什麼。
22:00
And many許多 of these ad-financed廣告資助 platforms平台,
382
1308840
2456
許多這類由廣告贊助的平台,
22:03
they boast that they're free自由.
383
1311320
1576
它們誇說它們是免費的。
22:04
In this context上下文, it means手段
that we are the product產品 that's being存在 sold出售.
384
1312920
4560
在這個情境下,意思就是說
「我們」就是被銷售的產品。
22:10
We need a digital數字 economy經濟
385
1318840
2736
我們需要一個數位經濟結構,
22:13
where our data數據 and our attention注意
386
1321600
3496
在這個結構中,我們的
資料和注意力是非賣品,
22:17
is not for sale拍賣 to the highest-bidding最高投標
authoritarian獨裁的 or demagogue煽動者.
387
1325120
5080
不能售與出價最高的
專制主義者或煽動者。
22:23
(Applause掌聲)
388
1331160
3800
(掌聲)
22:30
So to go back to
that Hollywood好萊塢 paraphrase意譯,
389
1338480
3256
回到前面說的好萊塢改述,
22:33
we do want the prodigious驚人 potential潛在
390
1341760
3736
我們的確希望人工智慧與數位科技的
22:37
of artificial人造 intelligence情報
and digital數字 technology技術 to blossom開花,
391
1345520
3200
巨大潛能能夠綻放,
22:41
but for that, we must必須 face面對
this prodigious驚人 menace威脅,
392
1349400
4936
但為此,我們必須要
面對這個巨大的威脅,
22:46
open-eyed驚訝 and now.
393
1354360
1936
睜開眼睛,現在就做。
22:48
Thank you.
394
1356320
1216
謝謝。
22:49
(Applause掌聲)
395
1357560
4640
(掌聲)
Translated by Lilian Chiu
Reviewed by Helen Chang

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com