ABOUT THE SPEAKER
Julie Cordua - Social entrepreneur
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet.

Why you should listen

Julie Cordua is driven by a desire to break down traditional silos and barriers and bring the resources and talent of the private sector to bear on some of our society's worst social problems. In 2006, she left the wireless technology industry to help launch (RED), bringing private sector resources to work on AIDS in Africa. In 2011, she joined co-founders Ashton Kutcher and Demi Moore to create Thorn, a technology-led non-profit that builds products and systems aimed at eliminating online child sexual abuse. Today, Thorn's tools are deployed in more than 50 countries, having helped to identify more than 14,000 child victims of abuse and reduce investigative time by more than 65 percent.

More profile about the speaker
Julie Cordua | Speaker | TED.com
TED2019

Julie Cordua: How we can eliminate child sexual abuse material from the internet

茱莉. 柯杜亞: 如何消滅網路上的兒童性虐待素材

Filmed:
1,173,650 views

社會企業家茱莉 .柯杜亞致力解決一個不容易談論的問題:網路上的性虐待兒童影像和影片。在 Thorn,她正在建造一個將科技產業、執法單位和政府這些「點」連接起來的科技,這樣我們才能快速終結虐待素材的瘋傳,更早救出孩子。來聽聽這場演說,了解這個可以擴大規模的解決方案如何能協助瓦解世界各地那些將兒童性虐待視為正常的社群。(本雄心計畫是 TED 為了鼓勵和資助全球改變所做的大無畏專案的一部分。)
- Social entrepreneur
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk contains包含 mature成熟 content內容]
0
836
2548
〔本演說中有成人內容〕
00:17
Five years年份 ago,
1
5741
1620
五年前,
00:19
I received收到 a phone電話 call
that would change更改 my life.
2
7385
3254
我接到了一通改變我生命的電話。
00:23
I remember記得 so vividly生動地 that day.
3
11795
2666
我對那一天還記憶猶新。
00:27
It was about this time of year,
4
15245
1901
大約就是那一年的這個時候,
00:29
and I was sitting坐在 in my office辦公室.
5
17170
1958
我坐在辦公室中。
00:31
I remember記得 the sun太陽
streaming through通過 the window窗口.
6
19692
3066
我還記得陽光灑落在窗上。
00:35
And my phone電話 rang.
7
23592
1320
我的電話響了。
00:37
And I picked採摘的 it up,
8
25565
1187
我接了起來,
00:39
and it was two federal聯邦 agents代理,
asking for my help
9
27594
3978
是兩位聯邦探員要向我求助,
00:43
in identifying識別 a little girl女孩
10
31596
2706
幫他們辨識一個小女孩的身分,
她出現在網路上數百張
兒童性虐待照片之中。
00:46
featured精選 in hundreds數以百計 of child兒童
sexual有性 abuse濫用 images圖片 they had found發現 online線上.
11
34326
5367
00:53
They had just started開始 working加工 the case案件,
12
41145
2576
他們才剛開始偵辦這個案件,
00:55
but what they knew知道
13
43745
2870
但他們知道,
00:58
was that her abuse濫用 had been broadcast廣播
to the world世界 for years年份
14
46639
4823
她被虐待的影像已在一個
專對兒童性虐待的暗網上,
01:03
on dark黑暗 web捲筒紙 sites網站 dedicated專用
to the sexual有性 abuse濫用 of children孩子.
15
51486
5149
於世界各地播放很多年了。
01:09
And her abuser施虐者 was incredibly令人難以置信
technologically技術 sophisticated複雜的:
16
57605
4385
她的施虐者有著極其精良的技術,
01:14
new images圖片 and new videos視頻 every一切 few少數 weeks,
17
62014
4588
每幾個星期就有新的照片和影片上傳,
01:18
but very few少數 clues線索 as to who she was
18
66626
4049
但很少的線索可以查出她是誰,
01:22
or where she was.
19
70699
1676
或者她身在何處。
01:25
And so they called us,
20
73324
1386
他們打電話給我們,因為他們
聽說我們這個新的非營利組織
01:26
because they had heard聽說
we were a new nonprofit非營利性
21
74734
2690
01:29
building建造 technology技術
to fight鬥爭 child兒童 sexual有性 abuse濫用.
22
77448
3458
專門開發對抗兒童性虐待的技術。
01:33
But we were only two years年份 old,
23
81596
2287
但我們才成立兩年,
01:35
and we had only worked工作
on child兒童 sex性別 trafficking販賣.
24
83907
3132
我們只處理過兒童的非法性交易。
01:39
And I had to tell them
25
87944
2123
我必須要告訴他們,
01:42
we had nothing.
26
90091
1197
我們什麼都沒有。
01:44
We had nothing that could
help them stop this abuse濫用.
27
92280
3955
我們沒有能協助他們
阻止這種虐待的資源。
01:49
It took those agents代理 another另一個 year
28
97263
3574
那些探員又花了一年
01:52
to ultimately最終 find that child兒童.
29
100861
3001
才終於找到那個孩子。
01:56
And by the time she was rescued獲救,
30
104853
2275
等到她被救出來時,
01:59
hundreds數以百計 of images圖片 and videos視頻
documenting文檔化 her rape強姦 had gone走了 viral病毒,
31
107152
6488
她被性侵的無數照片和影片
早就從那個暗網瘋傳出去,
02:05
from the dark黑暗 web捲筒紙
32
113664
1691
02:07
to peer-to-peer點對點 networks網絡,
private私人的 chat rooms客房
33
115379
3017
傳到點對點的網路、私人聊天室,
02:10
and to the websites網站 you and I use
34
118420
3220
甚至你我每天
02:13
every一切 single day.
35
121664
2602
都會使用的網站。
02:17
And today今天, as she struggles鬥爭 to recover恢復,
36
125216
3815
如今,她在努力恢復的同時,
02:21
she lives生活 with the fact事實
that thousands數千 around the world世界
37
129055
4139
她也得接受全世界仍然有數千人
02:25
continue繼續 to watch her abuse濫用.
38
133218
3088
仍持續在觀看她受虐影片的殘酷現實。
02:29
I have come to learn學習
in the last five years年份
39
137994
2428
過去五年我漸漸了解到,
02:32
that this case案件 is far from unique獨特.
40
140446
2517
這絕非單一個案。
02:36
How did we get here as a society社會?
41
144119
3843
我們這個社會是怎麼走到這一步的?
02:41
In the late晚了 1980s, child兒童 pornography色情 --
42
149490
3759
八〇年代末,兒童色情——
02:45
or what it actually其實 is,
child兒童 sexual有性 abuse濫用 material材料 --
43
153273
5253
其實就是兒童性虐待素材——
02:50
was nearly幾乎 eliminated淘汰.
44
158550
1851
幾乎絕跡了。
02:53
New laws法律 and increased增加 prosecutions起訴
made製作 it simply只是 too risky有風險
45
161209
4504
新的法律和越來越多的起訴案件
使得透過郵件交易的風險太高。
02:57
to trade貿易 it through通過 the mail郵件.
46
165737
1572
03:00
And then came來了 the internet互聯網,
and the market市場 exploded爆炸.
47
168233
4145
接著網路出現了,市場迅速膨脹。
03:05
The amount of content內容 in circulation循環 today今天
48
173310
3356
現今在網路上流通的內容量
03:08
is massive大規模的 and growing生長.
49
176690
2844
非常巨大且持續增長。
03:12
This is a truly global全球 problem問題,
50
180421
3244
這真的是個全球性的問題,
03:15
but if we just look at the US:
51
183689
1833
但,如果只談美國:
03:17
in the US alone單獨 last year,
52
185546
2711
去年光是在美國,
03:20
more than 45 million百萬 images圖片 and videos視頻
of child兒童 sexual有性 abuse濫用 material材料
53
188281
5274
兒童性虐待素材的圖像和影片
數量就超過四千五百萬,
03:25
were reported報導 to the National國民 Center中央
for Missing失踪 and Exploited利用 Children孩子,
54
193579
3678
這是回報給國家失蹤與受虐兒童
援助中心的數字,
03:29
and that is nearly幾乎 double
the amount the year prior.
55
197281
4381
比前一年增加近兩倍。
03:34
And the details細節 behind背後 these numbers數字
are hard to contemplate沉思,
56
202627
5286
這些數字背後的細節很難想像,
03:39
with more than 60 percent百分 of the images圖片
featuring特色 children孩子 younger更年輕 than 12,
57
207937
5720
影像中超過六成的兒童
都還不到十二歲,
03:45
and most of them including包含
extreme極端 acts行為 of sexual有性 violence暴力.
58
213681
4502
且大部分的畫面
都有極端的性暴力行為。
03:50
Abusers are cheered歡呼 on in chat rooms客房
dedicated專用 to the abuse濫用 of children孩子,
59
218850
5300
施虐者在專門談論兒童虐待的
聊天室中歡呼喝采,
03:56
where they gain獲得 rank and notoriety臭名
60
224174
2483
在那裡隨著更多的施暴、
更多的受害者,
03:58
with more abuse濫用 and more victims受害者.
61
226681
2906
他們就能獲得進階和惡名。
04:02
In this market市場,
62
230243
2595
在這個市場中,
04:04
the currency貨幣 has become成為
the content內容 itself本身.
63
232862
3958
貨幣變成了內容。
04:10
It's clear明確 that abusers濫用者 have been quick
to leverage槓桿作用 new technologies技術,
64
238023
3806
顯然,施虐者能快速地採用新技術,
04:13
but our response響應 as a society社會 has not.
65
241853
3015
但我們社會的因應方式卻跟不上腳步。
04:17
These abusers濫用者 don't read
user用戶 agreements協議 of websites網站,
66
245671
4171
這些施虐者不會閱讀
網站的使用者條款,
04:21
and the content內容 doesn't honor榮譽
geographic地理 boundaries邊界.
67
249866
3802
內容也不受地理國界的限制。
04:26
And they win贏得 when we look
at one piece of the puzzle難題 at a time,
68
254656
6113
每次只要我們看茫茫大海中的一個,
他們就會得勝,
因為我們現今設計的
因應方式就是如此。
04:32
which哪一個 is exactly究竟 how
our response響應 today今天 is designed設計.
69
260793
4017
04:36
Law enforcement強制 works作品 in one jurisdiction管轄權.
70
264834
3487
執法單位在一個轄區中作業。
04:40
Companies公司 look at just their platform平台.
71
268345
3414
公司只管他們自己的平台。
04:43
And whatever隨你 data數據 they learn學習 along沿 the way
72
271783
2704
他們在過程中得到的資料
04:46
is rarely很少 shared共享.
73
274511
2002
也很少會分享出來。
04:49
It is so clear明確 that this
disconnected斷開的 approach途徑 is not working加工.
74
277402
5601
很顯然,
這種各自為政的方法根本行不通。
04:55
We have to redesign重新設計
our response響應 to this epidemic疫情
75
283643
4110
針對數位時代中
所充斥的兒童性侵影片,
我們應該重新設計因應解決方式。
04:59
for the digital數字 age年齡.
76
287777
1522
05:01
And that's exactly究竟
what we're doing at Thorn.
77
289702
2942
那正是我們在 Thorn 做的事。
05:05
We're building建造 the technology技術
to connect these dots,
78
293311
3617
我們建立了能夠將
這些點連結起來的技術,
05:08
to arm everyone大家 on the front面前 lines --
79
296952
2322
把前線的每個人武裝起來——
05:11
law enforcement強制, NGOs非政府組織 and companies公司 --
80
299298
2824
執法人員、非政府組織、公司——
05:14
with the tools工具 they need
to ultimately最終 eliminate消除
81
302146
3509
都能擁有他們需要的工具,
最終將兒童性虐待素材
從網路上根除。
05:17
child兒童 sexual有性 abuse濫用 material材料
from the internet互聯網.
82
305679
2493
05:21
Let's talk for a minute分鐘 --
83
309571
1271
我們來談一下——
05:22
(Applause掌聲)
84
310866
1519
(掌聲)
05:24
Thank you.
85
312409
1304
謝謝。
05:25
(Applause掌聲)
86
313737
2340
(掌聲)
05:29
Let's talk for a minute分鐘
about what those dots are.
87
317800
2517
我們來談一下這些「點」是什麼。
05:33
As you can imagine想像,
this content內容 is horrific可怕的.
88
321323
3211
各位可以想像,這些內容很可怕。
05:36
If you don't have to look at it,
you don't want to look at it.
89
324558
3848
如果沒有必要,你不會想看。
05:40
And so, most companies公司
or law enforcement強制 agencies機構
90
328430
4969
所以,擁有這些內容的
大部分公司或執法機構
05:45
that have this content內容
91
333423
1663
05:47
can translate翻譯 every一切 file文件
into a unique獨特 string of numbers數字.
92
335110
3452
可以將每個檔案轉譯為一串
獨一無二的數字,叫做雜湊。
05:50
This is called a "hash哈希."
93
338586
1474
05:52
It's essentially實質上 a fingerprint指紋
94
340084
2143
基本上,它就是每個檔案
或影片的指紋身分。
05:54
for each file文件 or each video視頻.
95
342251
2398
05:56
And what this allows允許 them to do
is use the information信息 in investigations調查
96
344673
4613
他們可以把這項資訊用在調查中,
06:01
or for a company公司 to remove去掉
the content內容 from their platform平台,
97
349310
3027
或公司不需每次重覆地觀看
所有的圖像和影片,
06:04
without having to relook重看
at every一切 image圖片 and every一切 video視頻 each time.
98
352361
5174
就能據以把不當內容從平台上移除。
06:10
The problem問題 today今天, though雖然,
99
358196
2151
不過,現在的問題是,
06:12
is that there are hundreds數以百計
of millions百萬 of these hashes散 列
100
360371
3751
數億組雜湊函式散布在
06:16
sitting坐在 in siloed孤立 databases數據庫
all around the world世界.
101
364146
3610
世界各地獨立的資料庫中。
06:20
In a silo筒倉,
102
368214
1151
孤立的資料庫對於掌控它的
那個機構來說可能行得通,
06:21
it might威力 work for the one agency機構
that has control控制 over it,
103
369389
3076
06:24
but not connecting this data數據 means手段
we don't know how many許多 are unique獨特.
104
372489
4130
但不把資料做連結,就表示
我們不知道有多少獨特案例。
06:28
We don't know which哪一個 ones那些 represent代表
children孩子 who have already已經 been rescued獲救
105
376643
3516
我們不知道哪些代表
已經被救出的孩子,
06:32
or need to be identified確定 still.
106
380183
2889
或者還有待被辨視出來的孩子。
06:35
So our first, most basic基本 premise前提
is that all of this data數據
107
383096
4170
所以,我們最首要、根本的
前提就是讓所有資料
06:39
must必須 be connected連接的.
108
387290
2403
必須相互連結。
06:42
There are two ways方法 where this data數據,
combined結合 with software軟件 on a global全球 scale規模,
109
390318
6169
用軟體將這些資料做全球性的整合後,
在兩個層面上會為這個領域
帶來革命性的影響。
06:48
can have transformative變革
impact碰撞 in this space空間.
110
396511
3408
06:52
The first is with law enforcement強制:
111
400464
2622
第一種是執法面:
06:55
helping幫助 them identify鑑定 new victims受害者 faster更快,
112
403110
3631
協助他們更快辨視出新的受害者,
06:58
stopping停止 abuse濫用
113
406765
1216
阻止虐待,
07:00
and stopping停止 those producing生產 this content內容.
114
408005
2904
阻止製造這類內容的人。
07:03
The second第二 is with companies公司:
115
411441
2666
第二種是公司面:
07:06
using運用 it as clues線索 to identify鑑定
the hundreds數以百計 of millions百萬 of files
116
414131
3621
用這些資料當線索,
來辨別現今流通的數億個檔案,
07:09
in circulation循環 today今天,
117
417776
1594
07:11
pulling it down
118
419394
1187
將這些內容下架,
07:12
and then stopping停止 the upload上載
of new material材料 before it ever goes viral病毒.
119
420605
6818
並在新的素材被瘋傳之前
就阻止它們上傳。
07:21
Four years年份 ago,
120
429694
1646
四年前,
07:23
when that case案件 ended結束,
121
431364
1539
當那個案件結案時,
07:26
our team球隊 satSAT there,
and we just felt this, umUM ...
122
434300
3739
我們的團隊坐在那裡,
我們感覺到一種……
07:31
... deep sense of failure失敗,
is the way I can put it,
123
439635
3338
我會說是很深的挫敗感,
07:34
because we watched看著 that whole整個 year
124
442997
3651
因為當探員在找尋她的下落時,
我們關注了一整年。
07:38
while they looked看著 for her.
125
446672
1320
07:40
And we saw every一切 place地點
in the investigation調查
126
448016
3967
我們察看每個被調查的地方,
07:44
where, if the technology技術
would have existed存在,
127
452007
2388
如果當時已有那個技術,
07:46
they would have found發現 her faster更快.
128
454419
2304
他們就可以更快找到她。
07:49
And so we walked away from that
129
457684
1936
所以我們不再坐視,
07:51
and we went and we did
the only thing we knew知道 how to do:
130
459644
2955
做了一件我們唯一知道如何做的事:
07:54
we began開始 to build建立 software軟件.
131
462623
2634
我們開始開發軟體。
07:57
So we've我們已經 started開始 with law enforcement強制.
132
465689
2252
我們從執法面開始。
07:59
Our dream夢想 was an alarm報警 bell on the desks書桌
of officers長官 all around the world世界
133
467965
4421
我們的夢想是做出一個警鈴
放在全世界執法人員的桌子上,
08:04
so that if anyone任何人 dare post崗位
a new victim受害者 online線上,
134
472410
4544
如果有人膽敢在線上
張貼出新的受害者,
08:08
someone有人 would start開始
looking for them immediately立即.
135
476978
3489
馬上就會有人開始搜尋他。
08:13
I obviously明顯 can't talk about
the details細節 of that software軟件,
136
481324
2957
我顯然無法談論軟體的細節,
08:16
but today今天 it's at work in 38 countries國家,
137
484305
2609
但現今,已有三十八個國家
運用此軟體,
08:18
having reduced減少 the time it takes
to get to a child兒童
138
486938
2974
將找到孩子所需要的時間
08:21
by more than 65 percent百分.
139
489936
2330
減少了至少 65%。
08:24
(Applause掌聲)
140
492290
4370
(掌聲)
08:33
And now we're embarking著手
on that second第二 horizon地平線:
141
501442
3015
現在我們在著手進行第二個範圍:
08:36
building建造 the software軟件 to help companies公司
identify鑑定 and remove去掉 this content內容.
142
504481
5665
打造能協助公司
辨別和移除這類內容的軟體。
08:43
Let's talk for a minute分鐘
about these companies公司.
143
511193
2532
我們來談談這些公司。
08:46
So, I told you -- 45 million百萬 images圖片
and videos視頻 in the US alone單獨 last year.
144
514270
5232
我剛說過——去年光在美國,
這類影像和影片的總數
就有四千五百萬。
08:52
Those come from just 12 companies公司.
145
520280
3887
那些影像和影片只來自十二間公司。
08:57
Twelve十二 companies公司, 45 million百萬 files
of child兒童 sexual有性 abuse濫用 material材料.
146
525883
6428
十二間公司,
四千五百萬個兒童性虐待素材檔案。
09:04
These come from those companies公司
that have the money
147
532335
2800
這些公司都有錢
09:07
to build建立 the infrastructure基礎設施 that it takes
to pull this content內容 down.
148
535159
4557
可以建造移除這類內容的必要設施。
09:11
But there are hundreds數以百計 of other companies公司,
149
539740
2411
但還有數百間其他公司,
09:14
small-小- to medium-size中等尺寸 companies公司
around the world世界,
150
542175
2666
全世界各地的中小型公司,
09:16
that need to do this work,
151
544865
2054
也需要做這項工作,
09:18
but they either: 1) can't imagine想像 that
their platform平台 would be used for abuse濫用,
152
546943
5425
但他們可能,第一,
無法想像他們的平台
會被作為散播施虐影像的地方,
09:24
or 2) don't have the money to spend
on something that is not driving主動 revenue收入.
153
552392
5845
或者,第二,
沒有錢可以花在無法產生利潤的地方。
09:30
So we went ahead and built內置 it for them,
154
558932
3289
所以我們就主動幫他們建造,
09:34
and this system系統 now gets得到 smarter聰明
with the more companies公司 that participate參加.
155
562245
4969
隨著更多公司的參與
使得這個系統變得更聰明了。
09:39
Let me give you an example.
156
567965
1725
讓我舉個例子。
09:42
Our first partner夥伴, Imgur伊姆古爾 --
if you haven't沒有 heard聽說 of this company公司,
157
570459
3878
我們的第一個夥伴是 Imgur——
如果你沒聽過這間公司,
09:46
it's one of the most visited參觀
websites網站 in the US --
158
574361
3142
它是美國最多造訪人次的網站之一——
09:49
millions百萬 of pieces of user-generated用戶生成的
content內容 uploaded上傳 every一切 single day,
159
577527
5008
每天都有數百萬件使用者
產成的內容上傳到這個網站,
09:54
in a mission任務 to make the internet互聯網
a more fun開玩笑 place地點.
160
582559
2858
目的就是要讓網路變成更有趣的地方。
09:58
They partnered合作 with us first.
161
586012
1852
他們最先和我們成為夥伴。
09:59
Within 20 minutes分鐘
of going live生活 on our system系統,
162
587888
3343
才在我們的系統運作二十分鐘,
10:03
someone有人 tried試著 to upload上載
a known已知 piece of abuse濫用 material材料.
163
591255
3572
就有人試圖上傳一件已知的虐待素材。
10:06
They were able能夠 to stop it,
they pull it down,
164
594851
2108
他們阻止了這次上傳,將素材移除,
10:08
they report報告 it to the National國民 Center中央
for Missing失踪 and Exploited利用 Children孩子.
165
596983
3466
他們向國家失蹤與受虐兒童
援助中心回報。
10:12
But they went a step further進一步,
166
600473
1908
但他們又再更進一步,
10:14
and they went and inspected檢查 the account帳戶
of the person who had uploaded上傳 it.
167
602405
4133
他們調查了上傳者的帳號。
10:19
Hundreds數以百計 more pieces
of child兒童 sexual有性 abuse濫用 material材料
168
607086
4711
發現還有數百件我們從未看過的
兒童性虐待素材。
10:23
that we had never seen看到.
169
611821
1818
10:26
And this is where we start開始
to see exponential指數 impact碰撞.
170
614152
3532
這就是我們開始看見
雷霆萬鈞的影響力。
10:29
We pull that material材料 down,
171
617708
1768
我們把那些素材下架,
10:31
it gets得到 reported報導 to the National國民 Center中央
for Missing失踪 and Exploited利用 Children孩子
172
619500
3550
向國家失蹤與受虐兒童
援助中心回報這些素材,
10:35
and then those hashes散 列
go back into the system系統
173
623074
2511
接著,那些雜湊函式
會被放回到系統中,
10:37
and benefit效益 every一切 other company公司 on it.
174
625609
2464
讓其他使用系統的公司受益。
10:40
And when the millions百萬 of hashes散 列 we have
lead to millions百萬 more and, in real真實 time,
175
628097
4784
我們擁有的數百萬個雜湊函式
又即時帶出了另外數百萬個,
10:44
companies公司 around the world世界 are identifying識別
and pulling this content內容 down,
176
632905
4538
全世界的公司都可辨認出
這些內容並將之下架,
10:49
we will have dramatically顯著 increased增加
the speed速度 at which哪一個 we are removing去除
177
637467
4561
我們就可以大大增加
將兒童性虐待素材
從全世界的網路上移除的速度。
10:54
child兒童 sexual有性 abuse濫用 material材料
from the internet互聯網 around the world世界.
178
642052
4294
10:58
(Applause掌聲)
179
646370
5472
(掌聲)
11:06
But this is why it can't just be
about software軟件 and data數據,
180
654208
3220
但,這就是為什麼不能
只想著軟體和資料,
11:09
it has to be about scale規模.
181
657452
1772
還要考量到規模。
11:11
We have to activate啟用 thousands數千 of officers長官,
182
659248
3513
我們得要讓數千名執法人員、
11:14
hundreds數以百計 of companies公司 around the world世界
183
662785
2377
全世界數百間公司都動起來,
11:17
if technology技術 will allow允許 us
to outrun逃脫 the perpetrators肇事者
184
665186
3608
如果科技能讓我們勝過犯罪者,
11:20
and dismantle拆除 the communities社區
that are normalizing正火 child兒童 sexual有性 abuse濫用
185
668818
4125
瓦解世界各地那些
將兒童性虐待視為正常的社群。
11:24
around the world世界 today今天.
186
672967
1552
11:27
And the time to do this is now.
187
675064
2650
現在是該行動的時候了。
11:30
We can no longer say we don't know
the impact碰撞 this is having on our children孩子.
188
678288
5797
我們不能再說我們不知道這個問題
會對我們的孩子造成什麼樣的影響。
11:36
The first generation of children孩子
whose誰的 abuse濫用 has gone走了 viral病毒
189
684688
4458
那些受虐影像和影片
被瘋傳的第一代兒童
11:41
are now young年輕 adults成年人.
190
689170
1710
現在都已是年輕人了。
11:43
The Canadian加拿大 Centre中央 for Child兒童 Protection保護
191
691451
2585
加拿大兒童保護中心
11:46
just did a recent最近 study研究
of these young年輕 adults成年人
192
694060
2696
最近針對這些年輕人做了一項研究,
11:48
to understand理解 the unique獨特 trauma外傷
they try to recover恢復 from,
193
696780
4636
以了解他們在知道自己受虐的
影像還繼續流傳的情況下,
11:53
knowing會心 that their abuse濫用 lives生活 on.
194
701440
2823
要如何從這獨特的創傷中恢復。
11:57
Eighty八十 percent百分 of these young年輕 adults成年人
have thought about suicide自殺.
195
705213
4846
那些年輕人中有 80%
曾經想過自殺。
12:02
More than 60 percent百分
have attempted嘗試 suicide自殺.
196
710566
4062
超過 60% 曾經嘗試過自殺。
12:07
And most of them live生活
with the fear恐懼 every一切 single day
197
715572
5217
他們大部分都帶著恐懼過每一天,
12:12
that as they walk步行 down the street
or they interview訪問 for a job工作
198
720813
4463
擔心當他們走在街上,
或工作面試時,
12:17
or they go to school學校
199
725300
2290
或去學校時,
12:19
or they meet遇到 someone有人 online線上,
200
727614
2425
或在網路上認識某人時,
12:22
that that person has seen看到 their abuse濫用.
201
730063
3658
對方可能曾看過他們被施虐的畫面。
12:26
And the reality現實 came來了 true真正
for more than 30 percent百分 of them.
202
734547
4905
這些人當中有三成
真的遇到這種狀況。
12:32
They had been recognized認可
from their abuse濫用 material材料 online線上.
203
740256
4586
他們因為網路上的受虐素材
而被人認出。
12:38
This is not going to be easy簡單,
204
746022
3276
這絕不是一件容易的事,
12:41
but it is not impossible不可能.
205
749322
2843
但並不是不可能達成。
12:44
Now it's going to take the will,
206
752189
2676
這需要決心,
12:46
the will of our society社會
207
754889
1589
我們社會得要有意志
12:48
to look at something
that is really hard to look at,
208
756502
3554
去面對很難面對的問題,
12:52
to take something out of the darkness黑暗
209
760080
2343
在黑暗中找出希望,
12:54
so these kids孩子 have a voice語音;
210
762447
2095
這些孩子才能夠發聲;
12:58
the will of companies公司 to take action行動
and make sure that their platforms平台
211
766110
4946
公司要有意願採取行動,
確保它們的平台
13:03
are not complicit同謀 in the abuse濫用 of a child兒童;
212
771080
3313
不會成為虐童的共犯;
13:07
the will of governments政府 to invest投資
with their law enforcement強制
213
775205
3951
政府要有意願投資在執法上,
13:11
for the tools工具 they need to investigate調查
a digital數字 first crime犯罪,
214
779180
5094
因為需要工具來調查數位初犯,
13:16
even when the victims受害者
cannot不能 speak說話 for themselves他們自己.
215
784298
4083
即使在受害者無法
為自己發聲時也要能做到。
13:21
This audacious膽大 commitment承諾
is part部分 of that will.
216
789746
3698
這個大無畏的承諾就是
顯示決心的一部分。
13:26
It's a declaration宣言 of war戰爭
against反對 one of humanity's人類的 darkest最黑暗 evils罪惡.
217
794269
5407
向人性中最黑暗的邪惡來宣戰。
13:32
But what I hang on to
218
800263
1940
但我抱持的想法是,
13:34
is that it's actually其實
an investment投資 in a future未來
219
802227
3449
這其實是對未來的投資,
13:37
where every一切 child兒童 can simply只是 be a kid孩子.
220
805700
3074
未來孩子可以單純當個孩子。
13:41
Thank you.
221
809357
1194
謝謝。
13:42
(Applause掌聲)
222
810896
6144
(掌聲)
Translated by Lilian Chiu
Reviewed by SF Huang

▲Back to top

ABOUT THE SPEAKER
Julie Cordua - Social entrepreneur
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet.

Why you should listen

Julie Cordua is driven by a desire to break down traditional silos and barriers and bring the resources and talent of the private sector to bear on some of our society's worst social problems. In 2006, she left the wireless technology industry to help launch (RED), bringing private sector resources to work on AIDS in Africa. In 2011, she joined co-founders Ashton Kutcher and Demi Moore to create Thorn, a technology-led non-profit that builds products and systems aimed at eliminating online child sexual abuse. Today, Thorn's tools are deployed in more than 50 countries, having helped to identify more than 14,000 child victims of abuse and reduce investigative time by more than 65 percent.

More profile about the speaker
Julie Cordua | Speaker | TED.com