ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

克萊兒 · 瓦多: 如何協助將互聯網轉變為可信的地方

Filmed:
1,319,606 views

要如何阻止誤導、散播危險的資訊,同時還保有網路的言論自由核心?虛假資訊專家克萊兒 · 瓦多帶大家探究受污染的線上環境遭遇了哪些難題,並規劃將網路轉變成可信之地的一個計畫。這需要日常使用者的協助。她說:「讓我們同心協力一起重建我們對資訊的共識。」
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matter who you are or where you live生活,
0
1548
2516
不論你是誰,不論你住在哪裡,
00:16
I'm guessing揣測 that you have
at least最小 one relative相對的
1
4088
2356
我猜想你應該至少有一位親戚
00:18
that likes喜歡 to forward前鋒 those emails電子郵件.
2
6468
2334
會喜歡轉傳那些電子郵件。
00:21
You know the ones那些 I'm talking about --
3
9206
1900
你們知道,我指的是那種
內容可疑的郵件或陰謀論的影片。
00:23
the ones那些 with dubious可疑 claims索賠
or conspiracy陰謀 videos視頻.
4
11130
2854
00:26
And you've probably大概
already已經 muted靜音 them on FacebookFacebook的
5
14315
2668
你可能已經因為他們
會分享這類社交貼文
00:29
for sharing分享 social社會 posts帖子 like this one.
6
17007
2348
而在臉書上取消追蹤他們了。
00:31
It's an image圖片 of a banana香蕉
7
19379
1404
像這張圖片中的香蕉
中間有個奇怪的紅色十字。
00:32
with a strange奇怪 red cross交叉
running賽跑 through通過 the center中央.
8
20807
2667
00:35
And the text文本 around it is warning警告 people
9
23498
2139
周圍的文字則是在警告大家
不要吃這樣的食物,
00:37
not to eat fruits水果 that look like this,
10
25661
2158
指出這類食物已經被注入了
感染愛滋病病毒的血液。
00:39
suggesting提示 they've他們已經 been
injected注射 with blood血液
11
27843
2028
00:41
contaminated污染 with the HIVHIV virus病毒.
12
29895
2130
00:44
And the social社會 share分享 message信息
above以上 it simply只是 says,
13
32049
2603
分享這個資訊的社群只是說:
00:46
"Please forward前鋒 to save保存 lives生活."
14
34676
2181
「請轉傳,以拯救人命。」
00:49
Now, fact-checkers事實檢查器 have been debunking揭穿
this one for years年份,
15
37672
3294
事實查核早在數年前
就揭穿這則假消息了,
00:52
but it's one of those rumors傳聞
that just won't慣於 die.
16
40990
2809
但有些謠言就是殺不死,
這是其中之一。
00:55
A zombie殭屍 rumor謠言.
17
43823
1271
喪屍級謠言。
00:57
And, of course課程, it's entirely完全 false.
18
45513
2093
當然,這完全是錯誤資訊。
01:00
It might威力 be tempting誘人的 to laugh
at an example like this, to say,
19
48180
2959
我們會很想笑看這種例子,並說:
01:03
"Well, who would believe this, anyway無論如何?"
20
51163
1884
「反正,誰會相信啊?」
01:05
But the reason原因 it's a zombie殭屍 rumor謠言
21
53419
1626
但,它之所以是喪屍級謠言,
01:07
is because it taps水龍頭 into people's人們
deepest最深 fears恐懼 about their own擁有 safety安全
22
55069
3889
就是因為它觸及了
人們最深的恐懼,
擔心他們自己和愛人的安全。
01:10
and that of the people they love.
23
58982
2175
01:13
And if you spend as enough足夠 time
as I have looking at misinformation誤傳,
24
61783
3273
如果你跟我一樣花足夠
時間去研究錯誤資訊,
01:17
you know that this is just
one example of many許多
25
65080
2420
你會就知道,還有很多像這樣的例子,
01:19
that taps水龍頭 into people's人們 deepest最深
fears恐懼 and vulnerabilities漏洞.
26
67524
3047
都會觸及人們最深的恐懼和弱點。
01:23
Every一切 day, across橫過 the world世界,
we see scores分數 of new memes模因 on InstagramInstagram的
27
71214
4369
每天,在全世界都會在 IG 上
看到許多新的網路迷因,
01:27
encouraging鼓舞人心的 parents父母
not to vaccinate接種疫苗 their children孩子.
28
75607
3039
鼓勵父母不要帶孩子去接種疫苗。
01:30
We see new videos視頻 on YouTubeYouTube的
explaining說明 that climate氣候 change更改 is a hoax惡作劇.
29
78670
4532
在 YouTube 上會有新的影片出來,
解釋氣候變遷只是個騙局。
01:35
And across橫過 all platforms平台, we see
endless無窮 posts帖子 designed設計 to demonize妖魔化 others其他
30
83226
4302
在各平台上,都有無數貼文
目的是在將某些種族、宗教,
或性向的人給妖魔化。
01:39
on the basis基礎 of their race種族,
religion宗教 or sexuality性慾.
31
87552
3501
01:44
Welcome歡迎 to one of the central中央
challenges挑戰 of our time.
32
92314
3030
歡迎來到這個時代的核心挑戰之一。
01:47
How can we maintain保持 an internet互聯網
with freedom自由 of expression表達 at the core核心,
33
95647
4025
我們要如何讓網路保有
自由發表意見的核心價值,
01:51
while also ensuring確保 that the content內容
that's being存在 disseminated傳播
34
99696
3303
同時確保被散播出去的內容
01:55
doesn't cause原因 irreparable不可 挽回 harms危害
to our democracies民主, our communities社區
35
103023
3886
不會對我們的民主、我們的社會、
我們的身心安康,
造成無法修復的傷害?
01:58
and to our physical物理 and mental心理 well-being福利?
36
106933
2238
02:01
Because we live生活 in the information信息 age年齡,
37
109998
2087
因為我們生活在資訊的時代,
02:04
yet然而 the central中央 currency貨幣
upon which哪一個 we all depend依靠 -- information信息 --
38
112109
3547
但我們所有人仰賴的
中心貨幣——即,資訊——
02:07
is no longer deemed認為 entirely完全 trustworthy可靠
39
115680
2357
已經不再能被完全信任,
02:10
and, at times, can appear出現
downright徹頭徹尾 dangerous危險.
40
118061
2328
有些時候,甚至會造成危險。
02:12
This is thanks謝謝 in part部分 to the runaway逃跑
growth發展 of social社會 sharing分享 platforms平台
41
120811
3937
這背後有部分原因是因為
社交分享平台的脫韁成長,
02:16
that allow允許 us to scroll滾動 through通過,
42
124772
1642
在那裡,謊言和事實
混在一起供我們瀏覽,
02:18
where lies and facts事實 sit side by side,
43
126438
2222
02:20
but with none沒有 of the traditional傳統
signals信號 of trustworthiness誠信.
44
128684
3071
傳統的信任價值已蕩然無存。
02:24
And goodness善良 -- our language語言 around this
is horribly可怕 muddled糊塗.
45
132268
3619
且,老天,我們
在這方面的用語是一團亂。
02:27
People are still obsessed痴迷
with the phrase短語 "fake news新聞,"
46
135911
3103
大家對「假新聞」上癮,
02:31
despite儘管 the fact事實 that
it's extraordinarily異常 unhelpful無益
47
139038
2531
這些新聞不但沒有幫助,
02:33
and used to describe描述 a number of things
that are actually其實 very different不同:
48
141593
3460
且常被用來包裝各式各樣的東西:
02:37
lies, rumors傳聞, hoaxes騙局,
conspiracies陰謀, propaganda宣傳.
49
145077
3386
謊言、謠言、騙局、陰謀、洗腦文。
02:40
And I really wish希望
we could stop using運用 a phrase短語
50
148911
2912
我真希望我們能不要
再用「假新聞」這詞了,
02:43
that's been co-opted增選 by politicians政治家
right around the world世界,
51
151847
2862
它已經被全世界政治人物汙染,
02:46
from the left and the right,
52
154733
1471
從左派到右派都一樣,
02:48
used as a weapon武器 to attack攻擊
a free自由 and independent獨立 press.
53
156228
3222
用來當作武器,
攻擊自由、獨立的媒體。
02:52
(Applause掌聲)
54
160307
4702
(掌聲)
02:57
Because we need our professional專業的
news新聞 media媒體 now more than ever.
55
165033
3462
因為,比起過去,現在我們
更需要專業的新聞媒體。
03:00
And besides除了, most of this content內容
doesn't even masquerade假面舞會 as news新聞.
56
168882
3373
此外,這類內容根本
還稱不上是新聞。
03:04
It's memes模因, videos視頻, social社會 posts帖子.
57
172279
2642
它們只是迷因、影片、社群貼文。
03:06
And most of it is not fake;
it's misleading誤導.
58
174945
3453
且它們大部分不是假的,
而是會誤導的。
03:10
We tend趨向 to fixate固定 on what's true真正 or false.
59
178422
3015
我們總是想把事情二分為對或錯。
03:13
But the biggest最大 concern關心 is actually其實
the weaponization武器化 of context上下文.
60
181461
4032
但最讓人擔憂的,
是把情境變成武器。
03:18
Because the most effective有效 disinformation造謠
61
186855
1968
因為,最有效的虛假資訊
03:20
has always been that
which哪一個 has a kernel核心 of truth真相 to it.
62
188847
3048
通常在核心還是有某些真相。
03:23
Let's take this example
from London倫敦, from March遊行 2017,
63
191919
3476
舉個倫敦的例子,2017 年三月,
03:27
a tweet鳴叫 that circulated流傳 widely廣泛
64
195419
1540
在西敏橋的恐攻事件之後,
03:28
in the aftermath後果 of a terrorist恐怖分子 incident事件
on Westminster威斯敏斯特 Bridge.
65
196983
3587
出現了一則廣為流傳的推文。
03:32
This is a genuine真正 image圖片, not fake.
66
200594
2428
這是真實的照片,不是假的。
03:35
The woman女人 who appears出現 in the photograph照片
was interviewed採訪 afterwards之後,
67
203046
3169
照片中的女子後來有被訪問,
她解釋說她心理受到很大的創傷。
03:38
and she explained解釋 that
she was utterly完全 traumatized創傷.
68
206239
2409
03:40
She was on the phone電話 to a loved喜愛 one,
69
208672
1738
她當時在和愛人講電話,
03:42
and she wasn't looking
at the victim受害者 out of respect尊重.
70
210434
2618
去被誤會成對受害者毫無同情心。
03:45
But it still was circulated流傳 widely廣泛
with this Islamophobic仇視伊斯蘭教 framing取景,
71
213076
3960
但這張照片仍然被扣上了
恐伊斯蘭的誣陷文字
之後廣為流傳,
03:49
with multiple hashtags主題標籤,
including包含: #BanIslam班伊斯蘭.
72
217060
3046
還附上許多主題標籤,
包括 #禁伊斯蘭。
03:52
Now, if you worked工作 at Twitter推特,
what would you do?
73
220425
2398
如果你在推特工作,你會怎麼做?
03:54
Would you take that down,
or would you leave離開 it up?
74
222847
2562
你會把這則推文拿掉?
還是留在上面?
03:58
My gut腸道 reaction反應, my emotional情緒化 reaction反應,
is to take this down.
75
226553
3429
我的直覺反應,我的
情緒反應,是把它拿掉。
04:02
I hate討厭 the framing取景 of this image圖片.
76
230006
2142
我很不喜歡這張照片的說明。
04:04
But freedom自由 of expression表達
is a human人的 right,
77
232585
2388
但人權本來就包括表達的自由,
04:06
and if we start開始 taking服用 down speech言語
that makes品牌 us feel uncomfortable不舒服,
78
234997
3225
如果我們開始把讓我們不舒服的
言論都拿掉,就會有麻煩了。
04:10
we're in trouble麻煩.
79
238246
1230
04:11
And this might威力 look like a clear-cut明確 case案件,
80
239500
2294
這可能看起來是個很明確的案例,
04:13
but, actually其實, most speech言語 isn't.
81
241818
1698
但,大部分的言論沒這麼清楚。
因為那條界線非常難拿捏。
04:15
These lines are incredibly令人難以置信
difficult to draw.
82
243540
2436
04:18
What's a well-meaning善意
decision決定 by one person
83
246000
2281
一個出於善意的舉動,
04:20
is outright公然 censorship審查 to the next下一個.
84
248305
2077
對其它人來說,可能就是無情的審查。
04:22
What we now know is that
this account帳戶, Texas德州 Lone孤單 Star,
85
250759
2929
我們知道,Texas Lone Star
(德州孤星)這個帳號
04:25
was part部分 of a wider更寬的 Russian俄語
disinformation造謠 campaign運動,
86
253712
3230
曾經是俄國用來散播
虛假資訊活動的帳號,
04:28
one that has since以來 been taken採取 down.
87
256966
2151
雖然事後被下架了。
04:31
Would that change更改 your view視圖?
88
259141
1563
但會改變你的觀點嗎?
04:33
It would mine,
89
261322
1159
會改變我的,
04:34
because now it's a case案件
of a coordinated協調 campaign運動
90
262505
2301
因為它是一個製造爭端的協作案例。
04:36
to sow母豬 discord不和.
91
264830
1215
04:38
And for those of you who'd誰願意 like to think
92
266069
1961
如果你認為人工智慧將會
解決我們所有的問題,
04:40
that artificial人造 intelligence情報
will solve解決 all of our problems問題,
93
268054
2831
04:42
I think we can agree同意
that we're a long way away
94
270909
2225
我想大家都同意,
我們還有很長的路要走,
04:45
from AIAI that's able能夠 to make sense
of posts帖子 like this.
95
273158
2587
才能讓人工智慧能夠
理解像這樣的貼文。
04:48
So I'd like to explain說明
three interlocking聯鎖 issues問題
96
276856
2507
所以我想解釋一下,
讓這件事變得如此複雜的
04:51
that make this so complex複雜
97
279387
2373
三個相關議題,
04:53
and then think about some ways方法
we can consider考慮 these challenges挑戰.
98
281784
3122
接著,想想我們要
如何處理這些挑戰。
04:57
First, we just don't have
a rational合理的 relationship關係 to information信息,
99
285348
3890
首先,我們只是沒有和資訊
建立起理性的關係,
05:01
we have an emotional情緒化 one.
100
289262
1468
我們建立的是情緒化的關係。
05:02
It's just not true真正 that more facts事實
will make everything OK,
101
290754
3794
並非有越多事實就能搞定一切,
05:06
because the algorithms算法 that determine確定
what content內容 we see,
102
294572
3100
因為,那些用來判定
我們想看什麼內容的演算法,
05:09
well, they're designed設計 to reward獎勵
our emotional情緒化 responses回复.
103
297696
3127
它們是設計來獎勵
我們的情緒反應。
05:12
And when we're fearful可怕,
104
300847
1381
當我們恐懼時,過度簡化的說詞、
05:14
oversimplified過於簡單 narratives敘事,
conspiratorial陰謀 explanations說明
105
302252
3174
陰謀論的解釋,
05:17
and language語言 that demonizes妖魔化 others其他
is far more effective有效.
106
305450
3418
將他人妖魔化的用語,
都會更有效許多。
05:21
And besides除了, many許多 of these companies公司,
107
309538
1874
此外,許多這類公司的商業模型
和注意力息息相關,
05:23
their business商業 model模型
is attached to attention注意,
108
311436
2546
05:26
which哪一個 means手段 these algorithms算法
will always be skewed偏斜 towards emotion情感.
109
314006
3690
也就是說,這些演算法
一定都會偏向情緒那一邊。
05:30
Second第二, most of the speech言語
I'm talking about here is legal法律.
110
318371
4298
第二,我所說的這些言論,
大部分是合法的。
05:35
It would be a different不同 matter
111
323081
1446
這完全不像是談論兒童性侵的意象
05:36
if I was talking about
child兒童 sexual有性 abuse濫用 imagery意象
112
324551
2341
或者煽動暴力的內容。
05:38
or content內容 that incites煽動 violence暴力.
113
326916
1927
05:40
It can be perfectly完美 legal法律
to post崗位 an outright公然 lie謊言.
114
328867
3270
張貼徹頭徹尾的謊言並不違法。
05:45
But people keep talking about taking服用 down
"problematic問題" or "harmful有害" content內容,
115
333130
4034
但大家不斷地討論「有問題的」
或「會造成傷害」的內容,
05:49
but with no clear明確 definition定義
of what they mean by that,
116
337188
2609
卻無法清楚定義他們指的是什麼,
就連最近呼籲建立全球規制
來管理言論的馬克祖柏格也一樣。
05:51
including包含 Mark標記 Zuckerberg扎克伯格,
117
339821
1264
05:53
who recently最近 called for global全球
regulation to moderate中等 speech言語.
118
341109
3412
05:56
And my concern關心 is that
we're seeing眼看 governments政府
119
344870
2215
我擔心的是,我們看到
世界各地的政府
05:59
right around the world世界
120
347109
1292
06:00
rolling壓延 out hasty policy政策 decisions決定
121
348425
2676
趕著推出政策決定,
06:03
that might威力 actually其實 trigger觸發
much more serious嚴重 consequences後果
122
351125
2746
在言論方面,這些決定
可能會觸發更嚴重的後果。
06:05
when it comes to our speech言語.
123
353895
1714
06:08
And even if we could decide決定
which哪一個 speech言語 to take up or take down,
124
356006
3706
就算我們能判定哪些言論
可以放上網,哪些要拿掉,
06:11
we've我們已經 never had so much speech言語.
125
359736
2174
我們以前也從未有這麼多言論。
06:13
Every一切 second第二, millions百萬
of pieces of content內容
126
361934
2131
每秒鐘就有數百萬則內容
被世界各地的人上傳到網路上,
06:16
are uploaded上傳 by people
right around the world世界
127
364089
2107
用的是不同語言,背景是
數以千計不同的文化情境。
06:18
in different不同 languages語言,
128
366220
1168
06:19
drawing畫畫 on thousands數千
of different不同 cultural文化 contexts上下文.
129
367412
2768
06:22
We've我們已經 simply只是 never had
effective有效 mechanisms機制
130
370204
2532
我們實在沒有任何有效的機制
可以管理這麼大規模的言論,
06:24
to moderate中等 speech言語 at this scale規模,
131
372760
1738
06:26
whether是否 powered動力 by humans人類
or by technology技術.
132
374522
2801
不論用人力或技術都辦不到。
06:30
And third第三, these companies公司 --
Google谷歌, Twitter推特, FacebookFacebook的, WhatsAppWhatsApp的 --
133
378284
3944
第三,這些公司——Google、
推特、臉書、WhatsApp——
06:34
they're part部分 of a wider更寬的
information信息 ecosystem生態系統.
134
382252
2841
它們都是廣闊資訊生態系統的一部分。
06:37
We like to lay鋪設 all the blame
at their feet, but the truth真相 is,
135
385117
3352
我們喜歡把所有責任
都推到它們身上,但事實是,
06:40
the mass media媒體 and elected當選 officials官員
can also play an equal等於 role角色
136
388493
3830
大眾媒體和民選官員
也都有同樣的影響力,
06:44
in amplifying放大 rumors傳聞 and conspiracies陰謀
when they want to.
137
392347
2913
只要他們想,也可以在放大謠言和
陰謀上,發揮等同的影響力。
06:47
As can we, when we mindlessly盲目 forward前鋒
divisive分裂 or misleading誤導 content內容
138
395800
4944
我們也是,
我們會無心且毫不費力地轉傳
造成分化或誤導的內容。
06:52
without trying.
139
400768
1285
06:54
We're adding加入 to the pollution污染.
140
402077
1800
我們也在助長污染。
06:57
I know we're all looking for an easy簡單 fix固定.
141
405236
2618
我知道大家都想要
有簡單的解決方式。
06:59
But there just isn't one.
142
407878
1667
但就是沒有。
07:01
Any solution will have to be rolled熱軋 out
at a massive大規模的 scale規模, internet互聯網 scale規模,
143
409950
4445
要推出解決方式,就要以
極大的規模推出,網路的規模,
07:06
and yes, the platforms平台,
they're used to operating操作 at that level水平.
144
414419
3261
是的,平台就是在網路
這麼大的規模下運作的。
07:09
But can and should we allow允許 them
to fix固定 these problems問題?
145
417704
3472
但我們能讓它們去解決這些問題嗎?
07:13
They're certainly當然 trying.
146
421668
1232
他們肯定有在試。
但我們大部分人都認同,
07:14
But most of us would agree同意 that, actually其實,
we don't want global全球 corporations公司
147
422924
4086
其實,我們並不希望全球大企業
07:19
to be the guardians監護人 of truth真相
and fairness公平 online線上.
148
427034
2332
成為網路真相和公平的守護者。
07:21
And I also think the platforms平台
would agree同意 with that.
149
429390
2537
我認為平台也不希望如此。
07:24
And at the moment時刻,
they're marking印記 their own擁有 homework家庭作業.
150
432257
2881
此刻,他們是球員兼裁判。
07:27
They like to tell us
151
435162
1198
他們想要告訴我們,
他們推出的干預方式奏效了,
07:28
that the interventions干預措施
they're rolling壓延 out are working加工,
152
436384
2579
但,因為他們的透明度
報告是自己撰寫的,
07:30
but because they write
their own擁有 transparency透明度 reports報告,
153
438987
2540
07:33
there's no way for us to independently獨立地
verify校驗 what's actually其實 happening事件.
154
441551
3618
我們沒有辦法獨立地
去驗證發生了什麼事。
07:38
(Applause掌聲)
155
446431
3342
(掌聲)
07:41
And let's also be clear明確
that most of the changes變化 we see
156
449797
2952
另外要說清楚一件事,
我們看到的大部分改變發生的時機,
07:44
only happen發生 after journalists記者
undertake承擔 an investigation調查
157
452773
2994
都是在記者進行調查
07:47
and find evidence證據 of bias偏壓
158
455791
1611
並找到偏見的證據
07:49
or content內容 that breaks休息
their community社區 guidelines方針.
159
457426
2829
或違反業界原則的內容之後。
07:52
So yes, these companies公司 have to play
a really important重要 role角色 in this process處理,
160
460815
4595
所以,是的,在這個過程中,
這些企業扮演了很重要的角色,
07:57
but they can't control控制 it.
161
465434
1560
但他們不能控制言論。
07:59
So what about governments政府?
162
467855
1518
那政府呢?
08:01
Many許多 people believe
that global全球 regulation is our last hope希望
163
469863
3096
許多人認為,全球規制
是我們最後的希望,
08:04
in terms條款 of cleaning清潔的 up
our information信息 ecosystem生態系統.
164
472983
2880
清理資訊生態系統的最後希望。
08:07
But what I see are lawmakers國會議員
who are struggling奮鬥的 to keep up to date日期
165
475887
3166
但我看到立法者
非常難跟上科技的快速改變。
08:11
with the rapid快速 changes變化 in technology技術.
166
479077
2341
08:13
And worse更差, they're working加工 in the dark黑暗,
167
481442
1904
更糟的是,他們還在瞎子摸象,
08:15
because they don't have access訪問 to data數據
168
483370
1821
因為他們無法取得資料
08:17
to understand理解 what's happening事件
on these platforms平台.
169
485215
2650
來了解這些平台發生了什麼事。
08:20
And anyway無論如何, which哪一個 governments政府
would we trust相信 to do this?
170
488260
3071
總之,在這件事情上,
我們能相信哪個政府?
08:23
We need a global全球 response響應,
not a national國民 one.
171
491355
2770
我們需要的是全球性的
因應,而非全國性的。
08:27
So the missing失踪 link鏈接 is us.
172
495419
2277
這當中遺失的環節就是我們。
08:29
It's those people who use
these technologies技術 every一切 day.
173
497720
3123
就是每天使用這些科技的人。
08:33
Can we design設計 a new infrastructure基礎設施
to support支持 quality質量 information信息?
174
501260
4591
我們能否設計新的基礎結構
來支持有品質的資訊?
08:38
Well, I believe we can,
175
506371
1230
我相信可以,
08:39
and I've got a few少數 ideas思路 about
what we might威力 be able能夠 to actually其實 do.
176
507625
3357
對於我們能做什麼,
我有幾個想法。
08:43
So firstly首先, if we're serious嚴重
about bringing使 the public上市 into this,
177
511006
3103
首先,如果我們當真
想要讓大眾介入,
08:46
can we take some inspiration靈感
from Wikipedia維基百科?
178
514133
2381
我們能否從維基百科來找靈感?
08:48
They've他們已經 shown顯示 us what's possible可能.
179
516538
1824
他們讓我們看到了可能性。
08:50
Yes, it's not perfect完善,
180
518386
1151
是的,它並不完美,但它證明了
08:51
but they've他們已經 demonstrated證明
that with the right structures結構,
181
519561
2634
有對的架構,有全球的目光,
有很高的透明度,
08:54
with a global全球 outlook外表
and lots and lots of transparency透明度,
182
522219
2635
就能建造出讓多數人信賴的東西。
08:56
you can build建立 something
that will earn the trust相信 of most people.
183
524878
3096
08:59
Because we have to find a way
to tap龍頭 into the collective集體 wisdom智慧
184
527998
3162
因為我們得要找到方法,去挖掘
所有使用者的集體智慧和經驗。
09:03
and experience經驗 of all users用戶.
185
531184
2309
09:05
This is particularly尤其 the case案件
for women婦女, people of color顏色
186
533517
2646
對於女性、有色人種,
及少數弱勢族群更是如此。
09:08
and underrepresented代表性不足 groups.
187
536187
1346
09:09
Because guess猜測 what?
188
537557
1166
因為,你猜如何?他們是
仇恨和虛假資訊的專家,
09:10
They are experts專家 when it comes
to hate討厭 and disinformation造謠,
189
538747
2735
09:13
because they have been the targets目標
of these campaigns活動 for so long.
190
541506
3516
因為長久以來他們都是
這些活動的目標對象。
09:17
And over the years年份,
they've他們已經 been raising提高 flags,
191
545046
2350
這些年來,他們一直
都在小心提防,
09:19
and they haven't沒有 been listened聽了 to.
192
547420
1665
但沒有人傾聽他們。
09:21
This has got to change更改.
193
549109
1280
這點必須要改變。
09:22
So could we build建立 a Wikipedia維基百科 for trust相信?
194
550807
4326
我們能建造出信任的維基百科嗎?
09:27
Could we find a way that users用戶
can actually其實 provide提供 insights見解?
195
555157
4189
我們能否找到方法,
讓使用者真正提供洞見?
09:31
They could offer提供 insights見解 around
difficult content-moderation內容審核 decisions決定.
196
559370
3697
他們可以針對很困難的
內容管理決策來提供洞見。
09:35
They could provide提供 feedback反饋
197
563091
1463
當平台決定想要推出新改變時,
09:36
when platforms平台 decide決定
they want to roll out new changes變化.
198
564578
3041
他們可以回饋意見。
09:40
Second第二, people's人們 experiences經驗
with the information信息 is personalized個性化.
199
568241
4162
第二,人對於資訊的體驗
是很個人化的。
09:44
My FacebookFacebook的 news新聞 feed飼料
is very different不同 to yours你的.
200
572427
2643
我的臉書新聞饋送內容
和你的非常不一樣。
09:47
Your YouTubeYouTube的 recommendations建議
are very different不同 to mine.
201
575094
2745
你的 YouTube 推薦
和我的非常不一樣。
09:49
That makes品牌 it impossible不可能 for us
to actually其實 examine檢查
202
577863
2492
因此我們不可能去真正檢查
09:52
what information信息 people are seeing眼看.
203
580379
2023
大家看到了什麼資訊。
09:54
So could we imagine想像
204
582815
1389
我們能否想像開發一種
09:56
developing發展 some kind of centralized集中
open打開 repository知識庫 for anonymized匿名 data數據,
205
584228
4778
中央化的開放貯藏庫,
用來存放匿名的資料,
10:01
with privacy隱私 and ethical合乎道德的
concerns關注 built內置 in?
206
589030
2864
且把隱私和倫理考量
都內建在其中?
10:04
Because imagine想像 what we would learn學習
207
592220
1778
想想我們能夠學到多少,
10:06
if we built內置 out a global全球 network網絡
of concerned關心 citizens公民
208
594022
3261
若我們能打造一個全球網路,
由在乎的公民構成,
10:09
who wanted to donate
their social社會 data數據 to science科學.
209
597307
3294
他們想要把他們的
社交資料貢獻給科學。
10:13
Because we actually其實 know very little
210
601141
1722
因為我們幾乎不了解
10:14
about the long-term長期 consequences後果
of hate討厭 and disinformation造謠
211
602887
2881
仇恨和虛假資訊對於人的態度
和行為會有什麼長期後果。
10:17
on people's人們 attitudes態度 and behaviors行為.
212
605792
1975
10:20
And what we do know,
213
608236
1167
我們確實知道的是,
雖然這是個全球性的問題,
10:21
most of that has been
carried攜帶的 out in the US,
214
609427
2193
10:23
despite儘管 the fact事實 that
this is a global全球 problem問題.
215
611644
2381
卻大部分發生在美國。
10:26
We need to work on that, too.
216
614049
1635
我們也得處理這一點。
10:28
And third第三,
217
616192
1150
第三,我們能不能
想辦法把點連起來?
10:29
can we find a way to connect the dots?
218
617366
2310
10:31
No one sector扇形, let alone單獨 nonprofit非營利性,
start-up啟動 or government政府,
219
619700
3438
這個問題不是單一部門能解決的,
更別說非營利組織、
新創公司、政府。
10:35
is going to solve解決 this.
220
623162
1422
10:36
But there are very smart聰明 people
right around the world世界
221
624608
2564
但全世界都有非常聰明的人
在處理這些難題,
10:39
working加工 on these challenges挑戰,
222
627196
1381
10:40
from newsrooms新聞編輯室, civil國內 society社會,
academia學術界, activist活動家 groups.
223
628601
3576
他們可能在新聞編輯部、
公民社會、學術圈、活動團體裡。
10:44
And you can see some of them here.
224
632201
1898
在這裡也有一些。
10:46
Some are building建造 out indicators指標
of content內容 credibility可信性.
225
634123
2927
有些人在建造內容可信度指標。
也有人在做事實查核,
10:49
Others其他 are fact-checking事實檢查,
226
637074
1246
10:50
so that false claims索賠, videos視頻 and images圖片
can be down-ranked向下排名 by the platforms平台.
227
638344
3591
讓虛假的主張、影片,
和影像在平台上的排名下降。
10:53
A nonprofit非營利性 I helped幫助
to found發現, First Draft草案,
228
641959
2213
我協助成立了非營利組織
「第一版草稿」,
10:56
is working加工 with normally一般 competitive競爭的
newsrooms新聞編輯室 around the world世界
229
644196
2968
它和全球各地平時會互相
競爭的新聞編輯室合作,
10:59
to help them build建立 out investigative研究,
collaborative共同 programs程式.
230
647188
3503
目的在協助他們建造
調查性的協同作業方案。
11:03
And Danny丹尼 Hillis希利斯, a software軟件 architect建築師,
231
651231
2309
軟體架構工程師丹尼希利斯
11:05
is designing設計 a new system系統
called The Underlay襯 底,
232
653564
2381
在設計一個新系統,
叫做「The Underlay」,
11:07
which哪一個 will be a record記錄
of all public上市 statements聲明 of fact事實
233
655969
2775
它能記錄事實的所有公開陳述,
並和其源頭連結,
11:10
connected連接的 to their sources來源,
234
658768
1329
11:12
so that people and algorithms算法
can better judge法官 what is credible可信的.
235
660121
3654
供人及演算法參考,
更能判斷資訊的可信度。
11:16
And educators教育工作者 around the world世界
are testing測試 different不同 techniques技術
236
664800
3356
世界各地的教育家
正在測試不同的技術,
11:20
for finding發現 ways方法 to make people
critical危急 of the content內容 they consume消耗.
237
668180
3484
找方法讓大家可以對自己
觀看的內容進行批判。
11:24
All of these efforts努力 are wonderful精彩,
but they're working加工 in silos筒倉,
238
672633
3141
這些做法都很棒,但他們
都在自己的地窖中努力,
11:27
and many許多 of them are woefully可悲 underfunded資金不足.
239
675798
2680
很遺憾的是,很多人還資金不足。
11:30
There are also hundreds數以百計
of very smart聰明 people
240
678502
2053
還有數百名非常聰明的人
在這些公司中工作,
11:32
working加工 inside these companies公司,
241
680579
1652
11:34
but again, these efforts努力
can feel disjointed脫節,
242
682255
2325
但,同樣的,他們做的努力
似乎也沒有相連結,
11:36
because they're actually其實 developing發展
different不同 solutions解決方案 to the same相同 problems問題.
243
684604
3937
因為他們是針對同樣的問題
在開發不同的解決方案。
11:41
How can we find a way
to bring帶來 people together一起
244
689205
2269
我們要如何想辦法集合大家,
11:43
in one physical物理 location位置
for days or weeks at a time,
245
691498
3278
於特定時間,在實體地點
聚會幾天或幾週,
11:46
so they can actually其實 tackle滑車
these problems問題 together一起
246
694800
2396
讓他們能真正從他們不同的觀點
來一起處理這些問題?
11:49
but from their different不同 perspectives觀點?
247
697220
1818
11:51
So can we do this?
248
699062
1340
我們能做到嗎?
11:52
Can we build建立 out a coordinated協調,
ambitious有雄心 response響應,
249
700426
3239
我們能否建造一個組織良好
且有野心的因應方式,
11:55
one that matches火柴 the scale規模
and the complexity複雜 of the problem問題?
250
703689
3709
且能夠符合問題的規模和複雜度?
11:59
I really think we can.
251
707819
1373
我真心認為可以。
12:01
Together一起, let's rebuild重建
our information信息 commons公地.
252
709216
2959
讓我們同心協力一起重建
我們對資訊的共識。
12:04
Thank you.
253
712819
1190
謝謝。
12:06
(Applause掌聲)
254
714033
3728
(掌聲)
Translated by Lilian Chiu
Reviewed by Yi-Fan Yu

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com