ABOUT THE SPEAKER
Julie Cordua - Social entrepreneur
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet.

Why you should listen

Julie Cordua is driven by a desire to break down traditional silos and barriers and bring the resources and talent of the private sector to bear on some of our society's worst social problems. In 2006, she left the wireless technology industry to help launch (RED), bringing private sector resources to work on AIDS in Africa. In 2011, she joined co-founders Ashton Kutcher and Demi Moore to create Thorn, a technology-led non-profit that builds products and systems aimed at eliminating online child sexual abuse. Today, Thorn's tools are deployed in more than 50 countries, having helped to identify more than 14,000 child victims of abuse and reduce investigative time by more than 65 percent.

More profile about the speaker
Julie Cordua | Speaker | TED.com
TED2019

Julie Cordua: How we can eliminate child sexual abuse material from the internet

ジュリー・コードゥア: ネットから児童性的虐待コンテンツを消し去る方法

Filmed:
1,173,650 views

社会起業家のジュリー・コードゥアはネット上の児童性的虐待の画像や動画という口にしがたい問題に取り組んでいます。彼女はThornで、テクノロジー企業と警察と政府を繋ぐ技術を開発しています。それによって虐待画像等の拡散を迅速に止め、児童をより早く救出できます。この拡張性ある解決策によって、現在の世界で日常的に児童虐待を行っているコニュニティをいにか打ち砕けるかを学んでください。(この大いなる計画は、世界を変えるために刺激を与え投資をするTEDのイニシアチブであるAudacious Projectの一部です)
- Social entrepreneur
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk contains含まれる mature成熟した contentコンテンツ]
0
836
2548
[このトークは成人向けの内容です]
00:17
Five years ago,
1
5741
1620
5年前
00:19
I received受け取った a phone電話 call
that would change変化する my life.
2
7385
3254
私の人生を変えることになる
電話がありました
00:23
I remember思い出す so vividly鮮やかに that day.
3
11795
2666
その時のことはハッキリと覚えています
00:27
It was about this time of year,
4
15245
1901
季節は今頃で
00:29
and I was sitting座っている in my office事務所.
5
17170
1958
私はオフィスで座っていました
00:31
I remember思い出す the sun太陽
streamingストリーミング throughを通して the window.
6
19692
3066
窓から日が差し込んでいました
00:35
And my phone電話 rang鳴った.
7
23592
1320
電話が鳴って
00:37
And I picked選んだ it up,
8
25565
1187
出てみると
00:39
and it was two federal連邦 agentsエージェント,
asking尋ねる for my help
9
27594
3978
2人の連邦捜査官からでした
ネット上でたくさんの
児童性的虐待の画像を発見したので
00:43
in identifying識別 a little girl女の子
10
31596
2706
00:46
featured特集 in hundreds数百 of child
sexual性的 abuse乱用 imagesイメージ they had found見つけた onlineオンライン.
11
34326
5367
そこに出ている少女の
身元特定を手伝ってほしいというのです
00:53
They had just started開始した workingワーキング the case場合,
12
41145
2576
彼らは その事件に
着手したばかりで
00:55
but what they knew知っていた
13
43745
2870
分かっていたのは
その少女への虐待の様子が
00:58
was that her abuse乱用 had been broadcast放送
to the world世界 for years
14
46639
4823
ダークウェブにある
児童性的虐待を専門とするサイトで
01:03
on darkダーク webウェブ sitesサイト dedicated専用
to the sexual性的 abuse乱用 of children子供.
15
51486
5149
何年間も世界中に
配信されていたことだけでした
01:09
And her abuser虐待 was incredibly信じられないほど
technologically技術的に sophisticated洗練された:
16
57605
4385
虐待の加害者は高度な技術を
持っていて
01:14
new新しい imagesイメージ and new新しい videosビデオ everyすべて few少数 weeks,
17
62014
4588
数週間ごとに
新たな画像や動画が出るのに
01:18
but very few少数 clues手がかり as to who she was
18
66626
4049
その少女が誰で どこにいるのか
手がかりが
ほとんどつかめませんでした
01:22
or where she was.
19
70699
1676
01:25
And so they calledと呼ばれる us,
20
73324
1386
その連邦捜査官たちは
01:26
because they had heard聞いた
we were a new新しい nonprofit非営利団体
21
74734
2690
我々が児童性的虐待と戦うための
テクノロジーを開発する―
01:29
building建物 technology技術
to fight戦い child sexual性的 abuse乱用.
22
77448
3458
新進の非営利団体だと聞いて
電話をかけてきたのです
01:33
But we were only two years old古い,
23
81596
2287
しかし 我々の団体は
出来てから まだ2年で
01:35
and we had only worked働いた
on child sexセックス trafficking人身売買.
24
83907
3132
実績は児童の
性的人身売買だけだったので
01:39
And I had to tell them
25
87944
2123
我々には 何もできないと
告げねばなりませんでした
01:42
we had nothing.
26
90091
1197
01:44
We had nothing that could
help them stop this abuse乱用.
27
92280
3955
我々には この虐待を止めるために
協力できる術が なかったのです
01:49
It took取った those agentsエージェント another別の year
28
97263
3574
捜査局が その少女を
見つけ出すのには
結局 それからさらに
1年の歳月が かかりました
01:52
to ultimately最終的に find that child.
29
100861
3001
01:56
And by the time she was rescued救出された,
30
104853
2275
少女が救出されるまでに
01:59
hundreds数百 of imagesイメージ and videosビデオ
documenting文書化する her rapeレイプ had gone行った viralウイルス性の,
31
107152
6488
その子のレイプを収めた何百という
画像や動画が拡散されていました
02:05
from the darkダーク webウェブ
32
113664
1691
ダークウェブから
02:07
to peer-to-peerピアツーピア networksネットワーク,
privateプライベート chatチャット rooms部屋
33
115379
3017
ピアツーピア・ネットワークや
プライベートチャットルーム
02:10
and to the websitesウェブサイト you and I use
34
118420
3220
さらには 私や皆さんが
毎日 使っている
02:13
everyすべて singleシングル day.
35
121664
2602
ウェブサイトにまでもです
02:17
And today今日, as she struggles闘争 to recover回復します,
36
125216
3815
現在も その少女は回復するのに
大変な思いをしています
02:21
she lives人生 with the fact事実
that thousands around the world世界
37
129055
4139
彼女は性的に虐待される姿を
世界中の人に見られ続けているという
02:25
continue持続する to watch her abuse乱用.
38
133218
3088
現実の中で生きているのです
02:29
I have come to learn学ぶ
in the last five years
39
137994
2428
私は この5年間で この事件が
02:32
that this case場合 is far遠い from uniqueユニークな.
40
140446
2517
特段 珍しくないことを知りました
02:36
How did we get here as a society社会?
41
144119
3843
この社会は なぜこんなことに
なってしまったのでしょう?
02:41
In the late遅く 1980s, child pornographyポルノ --
42
149490
3759
1980年代後半
児童ポルノ―
要は 児童性的虐待の
写真や映像ですが
02:45
or what it actually実際に is,
child sexual性的 abuse乱用 material材料 --
43
153273
5253
02:50
was nearlyほぼ eliminated除去された.
44
158550
1851
それが消えかけたときがありました
新しい法律と刑事起訴の増加により
02:53
New新しい laws法律 and increased増加した prosecutions起訴
made it simply単に too riskyリスキーな
45
161209
4504
郵便での取引が
危険すぎるようになったのです
02:57
to tradeトレード it throughを通して the mail郵便物.
46
165737
1572
03:00
And then came来た the internetインターネット,
and the market市場 exploded爆発した.
47
168233
4145
それから インターネットの台頭で
市場が爆発的に広がりました
03:05
The amount of contentコンテンツ in circulationサーキュレーション today今日
48
173310
3356
現在 出回っているコンテンツの数は
03:08
is massive大規模 and growing成長する.
49
176690
2844
膨大であり 増加しています
03:12
This is a truly真に globalグローバル problem問題,
50
180421
3244
これは 本当に世界的な問題ですが
03:15
but if we just look at the US:
51
183689
1833
アメリカだけを見ても
03:17
in the US alone単独で last year,
52
185546
2711
昨年 アメリカだけで
03:20
more than 45 million百万 imagesイメージ and videosビデオ
of child sexual性的 abuse乱用 material材料
53
188281
5274
4500万件の児童性的虐待の画像や動画が
03:25
were reported報告 to the Nationalナショナル Centerセンター
for Missing行方不明 and Exploited悪用 Children子供,
54
193579
3678
行方不明・被搾取児童センターへ
通報されました
03:29
and that is nearlyほぼ doubleダブル
the amount the year prior前の.
55
197281
4381
これは 一昨年の約2倍になっています
03:34
And the details詳細 behind後ろに these numbers数字
are hardハード to contemplate熟慮する,
56
202627
5286
この数字の裏にある詳細は
直視に堪えません
03:39
with more than 60 percentパーセント of the imagesイメージ
featuringフィーチャー children子供 younger若い than 12,
57
207937
5720
画像の60%以上が
12歳以下の児童だと思われます
03:45
and most最も of them includingを含む
extreme極端な acts行為 of sexual性的 violence暴力.
58
213681
4502
その大半が ひどい性暴力です
03:50
Abusers虐待 are cheered応援 on in chatチャット rooms部屋
dedicated専用 to the abuse乱用 of children子供,
59
218850
5300
加害者は児童虐待専用の
チャットルーム内で賞賛されます
03:56
where they gain利得 rankランク and notoriety悪評
60
224174
2483
そこでは 虐待をするほど
犠牲者が多いほど
03:58
with more abuse乱用 and more victims犠牲者.
61
226681
2906
ランクが上がり 有名になるのです
04:02
In this market市場,
62
230243
2595
そんな市場の中で
04:04
the currency通貨 has become〜になる
the contentコンテンツ itself自体.
63
232862
3958
コンテンツそのものが
通貨になります
04:10
It's clearクリア that abusers虐待者 have been quickクイック
to leverage活用 new新しい technologiesテクノロジー,
64
238023
3806
虐待加害者たちは
新しい技術を取り入れるのが早く
04:13
but our response応答 as a society社会 has not.
65
241853
3015
こちら側の対応が
遅れているのは明らかです
04:17
These abusers虐待者 don't read読む
userユーザー agreements契約 of websitesウェブサイト,
66
245671
4171
加害者はウェブサイトの
利用規約なんて読みはしません
04:21
and the contentコンテンツ doesn't honor名誉
geographic地理的 boundaries境界.
67
249866
3802
そして コンテンツに
国境はありません
04:26
And they win勝つ when we look
at one pieceピース of the puzzleパズル at a time,
68
254656
6113
個々の断片を一つずつ調べていたら
勝ち目はありませんが
04:32
whichどの is exactly正確に how
our response応答 today今日 is designed設計.
69
260793
4017
現在の私たちの対応は
まさに そんな感じなのです
04:36
Law法律 enforcement執行 works作品 in one jurisdiction管轄.
70
264834
3487
警察は管轄内でのみ動き
04:40
Companies会社 look at just their彼らの platformプラットフォーム.
71
268345
3414
企業は 自分たちの
プラットフォームだけを見ます
04:43
And whateverなんでも dataデータ they learn学ぶ along一緒に the way
72
271783
2704
そのようにして得たデータは
どんなものであれ
04:46
is rarelyまれに shared共有.
73
274511
2002
ほとんど共有されません
04:49
It is so clearクリア that this
disconnected切断された approachアプローチ is not workingワーキング.
74
277402
5601
こんな バラバラの取り組みでは
当然 効果が上がりません
04:55
We have to redesign再設計
our response応答 to this epidemic流行
75
283643
4110
私たちはデジタル時代の
悪しき流行への対策を
04:59
for the digitalデジタル age年齢.
76
287777
1522
練り直さなくてはなりません
05:01
And that's exactly正確に
what we're doing at Thornとげ.
77
289702
2942
Thronの活動は まさにそれです
05:05
We're building建物 the technology技術
to connect接続する these dotsドット,
78
293311
3617
我々は組織同士を結び付けるための
テクノロジーを開発しています
05:08
to arm everyoneみんな on the frontフロント lines --
79
296952
2322
児童性的虐待の画像や動画を
05:11
law法律 enforcement執行, NGOsNGO and companies企業 --
80
299298
2824
インターネットから
消し去るのに必要なツールを
05:14
with the toolsツール they need
to ultimately最終的に eliminate排除する
81
302146
3509
警察やNGOや企業などの
最前線で対応している人たちに
05:17
child sexual性的 abuse乱用 material材料
from the internetインターネット.
82
305679
2493
提供しようとしています
05:21
Let's talk for a minute --
83
309571
1271
お話ししたいのは―
05:22
(Applause拍手)
84
310866
1519
(拍手)
05:24
Thank you.
85
312409
1304
どうも
05:25
(Applause拍手)
86
313737
2340
(拍手)
05:29
Let's talk for a minute
about what those dotsドット are.
87
317800
2517
点を繋ぎ合わせる
ということについてです
05:33
As you can imagine想像する,
this contentコンテンツ is horrific恐ろしい.
88
321323
3211
そういうコンテンツが悲惨なのは
想像できますよね
05:36
If you don't have to look at it,
you don't want to look at it.
89
324558
3848
見ずに済むなら
見たくないものです
05:40
And so, most最も companies企業
or law法律 enforcement執行 agencies代理店
90
328430
4969
ですから コンテンツを有する
企業の多くや 警察は
05:45
that have this contentコンテンツ
91
333423
1663
05:47
can translate翻訳する everyすべて fileファイル
into a uniqueユニークな string文字列 of numbers数字.
92
335110
3452
個々のファイルを
固有の数字に変換します
これを「ハッシュ」と呼びます
05:50
This is calledと呼ばれる a "hashハッシュ."
93
338586
1474
05:52
It's essentially基本的に a fingerprint指紋
94
340084
2143
実質的には 個々のファイルや動画の
05:54
for each fileファイル or each videoビデオ.
95
342251
2398
指紋のようなものです
05:56
And what this allows許す them to do
is use the information情報 in investigations調査
96
344673
4613
ハッシュにより いちいち
画像や動画の中身を確認しなくても
06:01
or for a company会社 to remove除去する
the contentコンテンツ from their彼らの platformプラットフォーム,
97
349310
3027
その情報を捜査に利用したり
06:04
withoutなし having持つ to relook再考する
at everyすべて image画像 and everyすべて videoビデオ each time.
98
352361
5174
企業がプラットフォームから
コンテンツを削除したりできます
06:10
The problem問題 today今日, thoughしかし,
99
358196
2151
現在の問題は
06:12
is that there are hundreds数百
of millions何百万 of these hashesハッシュ
100
360371
3751
膨大な数のそういうハッシュが
06:16
sitting座っている in siloed無垢 databasesデータベース
all around the world世界.
101
364146
3610
世界各地の独立したデータベースに
格納されていることです
それぞれのデータベースは
06:20
In a siloサイロ,
102
368214
1151
06:21
it mightかもしれない work for the one agency代理店
that has controlコントロール over it,
103
369389
3076
それを管理する組織には
役立つでしょうが
06:24
but not connecting接続する this dataデータ means手段
we don't know how manyたくさんの are uniqueユニークな.
104
372489
4130
データベースが接続されていないと
固有のものがどれだけあるのかも
06:28
We don't know whichどの onesもの represent代表する
children子供 who have already既に been rescued救出された
105
376643
3516
どの児童が救出済みで
どの児童が身元確認中なのかも
06:32
or need to be identified特定された still.
106
380183
2889
わからないのです
06:35
So our first, most最も basic基本的な premise前提
is that all of this dataデータ
107
383096
4170
だから まず 基本的な前提として
全てのデータを
つなげなければなりません
06:39
must必須 be connected接続された.
108
387290
2403
06:42
There are two ways方法 where this dataデータ,
combined結合された with softwareソフトウェア on a globalグローバル scale規模,
109
390318
6169
ソフトウェアによってデータを
世界的につなぎ合わせることで
06:48
can have transformative変形的
impact影響 in this spaceスペース.
110
396511
3408
大きな変化を生み出せる場所が
2つあります
06:52
The first is with law法律 enforcement執行:
111
400464
2622
1つ目は警察です
06:55
helping助ける them identify識別する new新しい victims犠牲者 fasterもっと早く,
112
403110
3631
警察が新たな犠牲者の
身元を迅速に特定し
06:58
stopping停止する abuse乱用
113
406765
1216
虐待を止めさせ
07:00
and stopping停止する those producing生産する this contentコンテンツ.
114
408005
2904
コンテンツ制作を止めるのに
役立てられます
07:03
The second二番 is with companies企業:
115
411441
2666
2つ目は企業です
07:06
usingを使用して it as clues手がかり to identify識別する
the hundreds数百 of millions何百万 of filesファイル
116
414131
3621
現在 出回っている膨大なファイルを
特定する手がかりとして
07:09
in circulationサーキュレーション today今日,
117
417776
1594
ハッシュを使い
07:11
pulling引っ張る it down
118
419394
1187
サイトから削除し
07:12
and then stopping停止する the uploadアップロード
of new新しい material材料 before it ever goes行く viralウイルス性の.
119
420605
6818
新たなコンテンツのアップロードを
拡散前に阻止します
07:21
Four years ago,
120
429694
1646
4年前
07:23
when that case場合 ended終了しました,
121
431364
1539
その事件が解決したとき
07:26
our teamチーム sat座っている there,
and we just feltフェルト this, umum ...
122
434300
3739
我々のチームは座って
ただ 強い挫折感を感じてました
07:31
... deep深い senseセンス of failure失敗,
is the way I can put it,
123
439635
3338
そう感じずにいられませんでした
07:34
because we watched見た that whole全体 year
124
442997
3651
なぜなら 1年間
その少女を探している間
07:38
while they looked見た for her.
125
446672
1320
それを見ていたからです
07:40
And we saw everyすべて place場所
in the investigation調査
126
448016
3967
捜査中の事件現場の様子を
全て見ました
07:44
where, if the technology技術
would have existed存在した,
127
452007
2388
しかるべきテクノロジーがあったなら
07:46
they would have found見つけた her fasterもっと早く.
128
454419
2304
その少女は もっと早く
見つかったでしょう
07:49
And so we walked歩いた away from that
129
457684
1936
そこが我々の出発点です
07:51
and we went行った and we did
the only thing we knew知っていた how to do:
130
459644
2955
自分たちにできる唯一のことを
することにしました
07:54
we began始まった to buildビルドする softwareソフトウェア.
131
462623
2634
ソフトフェアの開発に着手したのです
07:57
So we've私たちは started開始した with law法律 enforcement執行.
132
465689
2252
最初に 警察と協力しました
07:59
Our dream was an alarm警報 bellベル on the desksデスク
of officers役員 all around the world世界
133
467965
4421
我々の夢は世界中の警官の机で
通知音を鳴らすことでした
08:04
so that if anyone誰でも dareあえて post役職
a new新しい victim犠牲者 onlineオンライン,
134
472410
4544
誰かがネットで
新たな被害者の投稿をしたら
08:08
someone誰か would start開始
looking for them immediatelyすぐに.
135
476978
3489
即座に 捜索し始められるようにです
08:13
I obviously明らかに can't talk about
the details詳細 of that softwareソフトウェア,
136
481324
2957
そのソフトウェアの詳細を
話すことはできませんが
08:16
but today今日 it's at work in 38 countries,
137
484305
2609
現在 それは 38カ国で運用され
08:18
having持つ reduced削減 the time it takes
to get to a child
138
486938
2974
児童を保護するまでの時間を
08:21
by more than 65 percentパーセント.
139
489936
2330
65%以上短縮しています
08:24
(Applause拍手)
140
492290
4370
(拍手)
08:33
And now we're embarking着手する
on that second二番 horizon地平線:
141
501442
3015
我々の次なる目標は
08:36
building建物 the softwareソフトウェア to help companies企業
identify識別する and remove除去する this contentコンテンツ.
142
504481
5665
企業が虐待コンテンツを特定し削除するのを
支援するソフトウェアの開発です
08:43
Let's talk for a minute
about these companies企業.
143
511193
2532
どういう企業かですが
08:46
So, I told you -- 45 million百万 imagesイメージ
and videosビデオ in the US alone単独で last year.
144
514270
5232
昨年 アメリカだけで4500万件の
通報がありましたが
08:52
Those come from just 12 companies企業.
145
520280
3887
その通報元は
たった12の企業でした
08:57
Twelve12 companies企業, 45 million百万 filesファイル
of child sexual性的 abuse乱用 material材料.
146
525883
6428
12社が4500万件もの
児童性的虐待ファイルを通報したのです
09:04
These come from those companies企業
that have the moneyお金
147
532335
2800
これらの企業には
そういうコンテンツを
09:07
to buildビルドする the infrastructureインフラ that it takes
to pull引く this contentコンテンツ down.
148
535159
4557
削除するための仕組みを
開発する資金があるのです
09:11
But there are hundreds数百 of other companies企業,
149
539740
2411
その他の多くの
09:14
small-小さい- to medium-size中サイズ companies企業
around the world世界,
150
542175
2666
世界中にある中小の企業も
09:16
that need to do this work,
151
544865
2054
その機能を必要としていますが
09:18
but they eitherどちらか: 1) can't imagine想像する that
their彼らの platformプラットフォーム would be used for abuse乱用,
152
546943
5425
自分たちのプラットフォームが
虐待に使われると考えていないか
09:24
or 2) don't have the moneyお金 to spend費やす
on something that is not driving運転 revenue収入.
153
552392
5845
利益につながらないことに投資できる
資金がないかのどちらかです
09:30
So we went行った ahead前方に and built建てられた it for them,
154
558932
3289
ですから 我々は そんな企業のために
開発を進めています
09:34
and this systemシステム now gets取得 smarterスマートな
with the more companies企業 that participate参加する.
155
562245
4969
そして 協力企業が多くなるほど
このシステムも強力になります
09:39
Let me give you an example.
156
567965
1725
例を挙げましょう
09:42
Our first partnerパートナー, ImgurImgur --
if you haven't持っていない heard聞いた of this company会社,
157
570459
3878
最初のパートナー企業はImgurです
ご存じないかもしれませんが
09:46
it's one of the most最も visited訪問した
websitesウェブサイト in the US --
158
574361
3142
Imgurはアメリカで最も
利用者の多いサイトの1つです
09:49
millions何百万 of pieces作品 of user-generatedユーザー生成
contentコンテンツ uploadedアップロードされた everyすべて singleシングル day,
159
577527
5008
インターネットをもっと
楽しい場所にするという志の元
ユーザーから 日に数百万件の
画像アップロードを受けています
09:54
in a missionミッション to make the internetインターネット
a more fun楽しい place場所.
160
582559
2858
09:58
They partnered提携 with us first.
161
586012
1852
我々が 最初にImgurと協力して
09:59
Within以内 20 minutes
of going liveライブ on our systemシステム,
162
587888
3343
システムを走らせたところ
20分もせずに
10:03
someone誰か tried試した to uploadアップロード
a known既知の pieceピース of abuse乱用 material材料.
163
591255
3572
既知の虐待コンテンツの
アップロードが試みられました
10:06
They were ableできる to stop it,
they pull引く it down,
164
594851
2108
Imgurは それを停止して 削除し
10:08
they report報告する it to the Nationalナショナル Centerセンター
for Missing行方不明 and Exploited悪用 Children子供.
165
596983
3466
行方不明・被搾取児童センターへ
通報することができました
10:12
But they went行った a stepステップ furtherさらに,
166
600473
1908
それだけでなく
10:14
and they went行った and inspected点検された the accountアカウント
of the person who had uploadedアップロードされた it.
167
602405
4133
そのコンテンツをアップロードしている
アカウントの人物を調べたところ
10:19
Hundreds百人 more pieces作品
of child sexual性的 abuse乱用 material材料
168
607086
4711
これまで知られていなかった
児童性的虐待の映像が
10:23
that we had never seen見た.
169
611821
1818
何百と見つかりました
10:26
And this is where we start開始
to see exponential指数関数的 impact影響.
170
614152
3532
そこから 急激な変化が始まりました
10:29
We pull引く that material材料 down,
171
617708
1768
それらのコンテンツを削除し
10:31
it gets取得 reported報告 to the Nationalナショナル Centerセンター
for Missing行方不明 and Exploited悪用 Children子供
172
619500
3550
行方不明・被搾取児童センターへ
通報します
10:35
and then those hashesハッシュ
go back into the systemシステム
173
623074
2511
すると 新たなハッシュが
システムに加わり
10:37
and benefit利益 everyすべて other company会社 on it.
174
625609
2464
他の企業にも利益をもたらします
10:40
And when the millions何百万 of hashesハッシュ we have
lead to millions何百万 more and, in realリアル time,
175
628097
4784
我々の持つ何百万というハッシュが
さらに何百万というハッシュにつながり
10:44
companies企業 around the world世界 are identifying識別
and pulling引っ張る this contentコンテンツ down,
176
632905
4538
世界中の企業が リアルタイムで
そのコンテンツを削除します
10:49
we will have dramatically劇的に increased増加した
the speed速度 at whichどの we are removing除去する
177
637467
4561
世界中のインターネットから
児童性的虐待のコンテンツを
10:54
child sexual性的 abuse乱用 material材料
from the internetインターネット around the world世界.
178
642052
4294
削除するスピードが
劇的に速まるでしょう
10:58
(Applause拍手)
179
646370
5472
(拍手)
11:06
But this is why it can't just be
about softwareソフトウェア and dataデータ,
180
654208
3220
ですから ソフトウェアと
データだけでなく
11:09
it has to be about scale規模.
181
657452
1772
規模も重要です
11:11
We have to activate活性化する thousands of officers役員,
182
659248
3513
テクノロジーによって加害者側を
追い抜くことができるなら
11:14
hundreds数百 of companies企業 around the world世界
183
662785
2377
世界中の何千という警官
何百という企業に行動を促し
11:17
if technology技術 will allow許す us
to outrun流出 the perpetrators加害者
184
665186
3608
現在 児童性的虐待を 当たり前のように
行っている世界中のコミュニティを
11:20
and dismantle解体する the communitiesコミュニティ
that are normalizing正規化する child sexual性的 abuse乱用
185
668818
4125
ぶち壊さなければなりません
11:24
around the world世界 today今日.
186
672967
1552
11:27
And the time to do this is now.
187
675064
2650
今こそ その時です
11:30
We can no longerより長いです say we don't know
the impact影響 this is having持つ on our children子供.
188
678288
5797
子供たちにどんな影響を与えるか
わからないとは もう言えません
11:36
The first generation世代 of children子供
whoseその abuse乱用 has gone行った viralウイルス性の
189
684688
4458
虐待を拡散された
最初の世代の子どもたちが
11:41
are now young若い adults大人.
190
689170
1710
今では若者になっています
11:43
The Canadianカナダ人 Centreセンター for Child Protection保護
191
691451
2585
最近 カナダ児童保護センターが
11:46
just did a recent最近 study調査
of these young若い adults大人
192
694060
2696
自分の虐待記録が
消えないことを知ってる若者が
11:48
to understandわかる the uniqueユニークな traumaトラウマ
they try to recover回復します from,
193
696780
4636
そこから回復しようとするとき
特有のトラウマの理解を目的とした
11:53
knowing知っている that their彼らの abuse乱用 lives人生 on.
194
701440
2823
調査を行いました
11:57
Eighty80人 percentパーセント of these young若い adults大人
have thought about suicide自殺.
195
705213
4846
被害児童だった若者の80%が
自殺を考えたことがあります
60%以上が
自殺を試みたことがあります
12:02
More than 60 percentパーセント
have attempted試みた suicide自殺.
196
710566
4062
12:07
And most最も of them liveライブ
with the fear恐れ everyすべて singleシングル day
197
715572
5217
そういう若者の多くが
日々 怯えながら生活しています
12:12
that as they walk歩く down the street通り
or they interviewインタビュー for a jobジョブ
198
720813
4463
道を歩いている時も
就職面接の時も
12:17
or they go to school学校
199
725300
2290
学校へ行く時も
12:19
or they meet会う someone誰か onlineオンライン,
200
727614
2425
誰かとオンラインで会ってる時も
12:22
that that person has seen見た their彼らの abuse乱用.
201
730063
3658
虐待される自分の姿を相手が
見たことがあるんじゃないかと怖いのです
12:26
And the reality現実 came来た true真実
for more than 30 percentパーセント of them.
202
734547
4905
そして その恐怖は30%以上の人に
現実になっています
12:32
They had been recognized認識された
from their彼らの abuse乱用 material材料 onlineオンライン.
203
740256
4586
ネット上の虐待画像に写っているのが
自分だとバレたことがあるのです
12:38
This is not going to be easy簡単,
204
746022
3276
これは難しい問題ですが
12:41
but it is not impossible不可能.
205
749322
2843
解決不能ではありません
12:44
Now it's going to take the will,
206
752189
2676
今こそ 決意すべきです
12:46
the will of our society社会
207
754889
1589
我々の社会が
12:48
to look at something
that is really hardハード to look at,
208
756502
3554
目を背けたくなる現実を
見つめると決意し
12:52
to take something out of the darkness
209
760080
2343
白日の下へさらけ出す
決意をしてください
12:54
so these kids子供たち have a voice音声;
210
762447
2095
被害児童の声が
聞こえるように
12:58
the will of companies企業 to take actionアクション
and make sure that their彼らの platformsプラットフォーム
211
766110
4946
企業は自社のプラットフォームが
児童虐待に加担することが絶対ないよう
13:03
are not complicit共謀者 in the abuse乱用 of a child;
212
771080
3313
対策を講じると
決意してください
13:07
the will of governments政府 to invest投資する
with their彼らの law法律 enforcement執行
213
775205
3951
政府は 犠牲者が
訴えることができなくても
13:11
for the toolsツール they need to investigate調査する
a digitalデジタル first crime犯罪,
214
779180
5094
デジタル時代の犯罪を捜査するために
必要なツールを
13:16
even when the victims犠牲者
cannotできない speak話す for themselves自分自身.
215
784298
4083
警察に与えることを
決意してください
13:21
This audacious大胆な commitmentコミットメント
is part of that will.
216
789746
3698
TEDのプロジェクトへの参加は
この決意の一部です
13:26
It's a declaration宣言 of war戦争
againstに対して one of humanity's人類 darkest最も暗い evils.
217
794269
5407
これは人類最悪の犯罪に対する
宣戦布告です
13:32
But what I hangハング on to
218
800263
1940
しかし 私がこだわっているのは
13:34
is that it's actually実際に
an investment投資 in a future未来
219
802227
3449
これが実は 未来への投資だということです
13:37
where everyすべて child can simply単に be a kidキッド.
220
805700
3074
すべての子どもたちが
子どものままでいられる未来への
13:41
Thank you.
221
809357
1194
ありがとうございました
13:42
(Applause拍手)
222
810896
6144
(拍手)
Translated by Tamami Inoue
Reviewed by Yasushi Aoki

▲Back to top

ABOUT THE SPEAKER
Julie Cordua - Social entrepreneur
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet.

Why you should listen

Julie Cordua is driven by a desire to break down traditional silos and barriers and bring the resources and talent of the private sector to bear on some of our society's worst social problems. In 2006, she left the wireless technology industry to help launch (RED), bringing private sector resources to work on AIDS in Africa. In 2011, she joined co-founders Ashton Kutcher and Demi Moore to create Thorn, a technology-led non-profit that builds products and systems aimed at eliminating online child sexual abuse. Today, Thorn's tools are deployed in more than 50 countries, having helped to identify more than 14,000 child victims of abuse and reduce investigative time by more than 65 percent.

More profile about the speaker
Julie Cordua | Speaker | TED.com