English-Video.net comment policy

The comment field is common to all languages

Let's write comments in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2018

Yasmin Green: How technology can fight extremism and online harassment

ヤスミン・グリーン: テクノロジーは過激派やネット上の嫌がらせとどう闘えるのか

Filmed:
1,067,195 views

テクノロジーは、暴力的な過激派や、検閲、迫害といった脅威に対する安全性を高めることができるだろうか。一般人の急進化やネット上の嫌がらせに対抗するためにGoogleを含む企業同士が手を組んで設立された、Alphabet Inc.内の組織Jigsaw。ここで新開発されたプログラムを科学技術者ヤスミン・グリーンが詳しく紹介していく、示唆に富むスピーチです。中でも、コメントを投稿する際に他人がどのように受け取る可能性があるかを瞬時にフィードバックするプログラムを作るというプロジェクトは、会話の場を広げるという成果をすでに出しています。「人間の醜い側面から隔絶されたネット世界を作れるなどと私たちが一度でも考えたのであれば、それは間違いです」とグリーンは語ります。「問題点と同じくらい人間らしい解決策を作ることに全身全霊を捧げなければならないのです」

- Geopolitical technologist
Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. focused on solving global security challenges through technology. Full bio

私のインターネットとの関係は
00:13
My relationship関係 with the internetインターネット
reminds思い出させる me of the setupセットアップ
ありきたりのホラー映画の設定を
思わせるんです
00:17
to a clichクリチéd horrorホラー movie映画.
ほら 幸せな一家が
完璧な新居に入居して
00:19
You know, the blissfully幸せに happyハッピー family家族
moves動き in to their彼らの perfect完璧な new新しい home,
完璧な未来を
思い描いているところ
00:24
excited興奮した about their彼らの perfect完璧な future未来,
外は晴れていて
鳥のさえずりも聞こえて
00:26
and it's sunny晴れた outside外側
and the birds are chirpingチャーピング ...
でもそのうち夜になり
00:30
And then it gets取得 darkダーク.
屋根裏部屋から音がして
00:32
And there are noisesノイズ from the attic屋根裏.
完璧だと思っていた家が
そうでもないことに気づく
00:35
And we realize実現する that that perfect完璧な
new新しい house isn't so perfect完璧な.
2006年 私がGoogleに
勤め始めた頃
00:40
When I started開始した workingワーキング at GoogleGoogle in 2006,
Facebookは
誕生して2年
00:43
Facebookフェイスブック was just a two-year-old2歳,
Twitterはまだ
存在してませんでした
00:45
and TwitterTwitter hadn'tなかった yetまだ been bornうまれた.
そして私はインターネットとその可能性に
絶大な畏敬の念を抱いていました
00:47
And I was in absolute絶対の awe恐れ
of the internetインターネット and all of its promise約束する
人と人の距離を縮め
00:52
to make us closerクローザー
人間をさらに賢くし
00:53
and smarterスマートな
いっそう自由にしてくれると
00:55
and more free無料.
しかし 私たちが検索エンジンや
動画投稿サイト
00:57
But as we were doing the inspiring感動的な work
of building建物 searchサーチ enginesエンジン
ソーシャルネットワークを創り出すという
魅力的な仕事に関わると同時に
01:01
and video-sharingビデオ共有 sitesサイト
and socialソーシャル networksネットワーク,
犯罪者や独裁者 テロリストは
同じプラットフォームを
01:04
criminals犯罪者, dictators独裁者 and terroristsテロリスト
were figuring想像する out
私たちに対して悪用する方法を
見いだしていったのです
01:09
how to use those same同じ
platformsプラットフォーム againstに対して us.
私たちにはそれが予見できず
止められませんでした
01:13
And we didn't have
the foresight先見の明 to stop them.
過去数年で 地政学に強い勢力が
破壊を目的としてネット上に進出しました
01:16
Over the last few少数 years, geopolitical地政学的
forces have come onlineオンライン to wreak傷つける havoc大混乱.
それに対してGoogleは
私と数人の同僚が
01:21
And in response応答,
01:23
GoogleGoogle supportedサポートされる a few少数 colleagues同僚 and me
to setセット up a new新しい groupグループ calledと呼ばれる Jigsawジグソー パズル,
Jigsawという組織を設立するのを
支援してくれました
私たちの任務は人々を
01:27
with a mandate委任 to make people saferより安全な
from threats脅威 like violent暴力的な extremism過激主義,
暴力的な過激主義 検閲
迫害などの脅威から守ること
01:32
censorship検閲, persecution迫害 --
イランで生まれ 暴力的な革命の後に
国を去った私が
01:35
threats脅威 that feel very personal個人的 to me
because I was bornうまれた in Iranイラン,
01:39
and I left in the aftermath余波
of a violent暴力的な revolution革命.
個人的に強く感じている脅威です
しかし 気づいたことがあります
01:43
But I've come to realize実現する
that even if we had all of the resourcesリソース
たとえ 世界中のテクノロジー企業が持つ
すべての資源を合わせたとしても
01:47
of all of the technology技術
companies企業 in the world世界,
たった1つの決定的な要素を
見落とすだけで失敗するだろうということ
01:51
we'd結婚した still fail失敗します
01:53
if we overlooked見落とされた one criticalクリティカルな ingredient成分:
その要素とは 先ほど言ったような脅威の
被害者や加害者の実体験です
01:57
the human人間 experiences経験 of the victims犠牲者
and perpetrators加害者 of those threats脅威.
私が今日ここで語れる問題点は
たくさんありますが
02:04
There are manyたくさんの challenges挑戦
I could talk to you about today今日.
2つに絞ることにします
02:07
I'm going to focusフォーカス on just two.
1つ目はテロです
02:09
The first is terrorismテロ.
過激化の過程を理解するために
02:13
So in order注文 to understandわかる
the radicalizationラジカル化 processプロセス,
何十人もの元過激派構成員と
会いました
02:16
we met会った with dozens数十 of former前者 membersメンバー
of violent暴力的な extremist過激主義者 groupsグループ.
うち1人はイギリス人女子学生
02:21
One was a Britishイギリス人 schoolgirl女子高生,
ISISに入るためシリアに向かう途中
ロンドン・ヒースロー空港で
02:25
who had been taken撮影 off of a plane飛行機
at Londonロンドン Heathrowヒースロー
02:28
as she was trying試す to make her way
to Syriaシリア to join参加する ISISISIS.
飛行機から降ろされたのです
しかも13歳という若さでした
02:34
And she was 13 years old古い.
私はその子の父親を交えて腰を下ろし
「なぜ?」と尋ねました
02:37
So I sat座っている down with her and her fatherお父さん,
and I said, "Why?"
答えはこうでした
02:42
And she said,
「シリアでの生活の様子を写真で見て
02:44
"I was looking at picturesピクチャー
of what life is like in Syriaシリア,
イスラム版ディズニーランドに
住めるんだと思った」
02:47
and I thought I was going to go
and liveライブ in the Islamicイスラム Disneyディズニー World世界."
それが その子から見たISISでした
02:52
That's what she saw in ISISISIS.
ISIS版ブラッド・ピットのような人と
そこで出会い 結婚し
02:54
She thought she'd彼女は meet会う and marry結婚する
a jihadiジハディ Bradブラッド Pittピット
一日中モールで買い物して
末長く幸せに暮らすのだと思っていたそうです
02:58
and go shoppingショッピング in the mallモール all day
and liveライブ happily幸せに ever after.
ISISは何が人を動かすかを知っています
03:02
ISISISIS understands理解する what drivesドライブ people,
そしてそれぞれの読者に合わせ
丹念にメッセージを作成します
03:05
and they carefully慎重に craftクラフト a messageメッセージ
for each audience聴衆.
ISISの勧誘資料が
03:11
Just look at how manyたくさんの languages言語
どれだけの言語に
翻訳されているか見てください
03:12
they translate翻訳する their彼らの
marketingマーケティング material材料 into.
パンフレットに
ラジオ番組に動画などを
03:15
They make pamphletsパンフレット,
radio無線 showsショー and videosビデオ
英語とアラビア語だけでなく
03:18
in not just English英語 and Arabicアラビア語,
ドイツ語 ロシア語 フランス語
トルコ語 クルド語
03:20
but Germanドイツ人, Russianロシア,
Frenchフランス語, Turkishトルコ語, Kurdishクルド,
ヘブライ語
03:25
Hebrewヘブライ語,
中国語でも作っています
03:26
Mandarinマンダリン Chinese中国語.
ISISが作った 手話の動画を
見たことすらあります
03:29
I've even seen見た an ISIS-producedアイシス製
videoビデオ in sign符号 language言語.
ちょっと考えてみてください
03:34
Just think about that for a second二番:
ISISは耳の不自由な人にも
メッセージが届くよう
03:36
ISISISIS took取った the time and made the effort努力
03:38
to ensure確実に their彼らの messageメッセージ is reaching到達
the deaf聴覚障害者 and hardハード of hearing聴覚.
わざわざ時間と労力を費やしたのです
ISISが人々の心を
つかむことができるのは
03:45
It's actually実際に not tech-savviness技術的な知識
ハイテクに精通しているからではありません
03:47
that is the reason理由 why
ISISISIS wins勝つ hearts and minds.
自分たちが思いを伝えたい相手の
03:49
It's their彼らの insight洞察力 into the prejudices偏見,
the vulnerabilities脆弱性, the desires願望
偏見 弱さ 願望が何なのかを
03:54
of the people they're trying試す to reachリーチ
見極めているからです
03:55
that does that.
ネット上からISISの募集資料を
削除することに目を向けるだけでは
03:57
That's why it's not enough十分な
03:59
for the onlineオンライン platformsプラットフォーム
to focusフォーカス on removing除去する recruiting募集 material材料.
不十分なのはそういうわけです
過激派に対抗する
テクノロジーとして
04:04
If we want to have a shotショット
at building建物 meaningful意味のある technology技術
役に立つものを開発したいのならば
04:08
that's going to counterカウンタ radicalizationラジカル化,
人間の人生の核心の部分から
始めなくてはなりません
04:10
we have to start開始 with the human人間
journey at its coreコア.
そこで私たちは
イラクへ出向きました
04:13
So we went行った to Iraqイラク
04:16
to speak話す to young若い men男性
who'd誰が bought買った into ISIS'sイシス promise約束する
ISISが約束する英雄像や
04:18
of heroismヒロイズム and righteousness正義,
正義を信じ込み
戦闘員として武器を手に取ったものの
04:22
who'd誰が taken撮影 up arms武器 to fight戦い for them
04:24
and then who'd誰が defected亡命しました。
ISISの支配の残虐さを目にした後
脱走した若者たちに会うためです
04:25
after they witnessed目撃した
the brutality残忍 of ISIS'sイシス ruleルール.
私は北イラクにある
簡素な仮設刑務所で
04:28
And I'm sitting座っている there in this makeshift一時的
prison刑務所 in the north of Iraqイラク
ISIS脱走前には自爆テロ犯として
訓練を受けていた―
04:32
with this 23-year-old-歳 who had actually実際に
trained訓練された as a suicide自殺 bomber爆撃機
23歳の若者と座っていました
04:36
before defecting離党.
彼はこう語りました
04:39
And he says言う,
「希望に満ち溢れて
シリアに到着したのに
04:41
"I arrived到着した in Syriaシリア full満員 of hope希望,
直後に僕にとって最も大切なものを
2つ取り上げられた
04:44
and immediatelyすぐに, I had two
of my prized貴重品 possessions所有物 confiscated没収された:
それはパスポートと携帯電話だった」
04:48
my passportパスポート and my mobileモバイル phone電話."
自分の身体的そして
電子的な自由の象徴が
04:52
The symbolsシンボル of his physical物理的
and digitalデジタル liberty自由
到着した途端 剥奪されたのです
04:54
were taken撮影 away from him on arrival到着.
彼はその喪失の瞬間について
04:57
And then this is the way he described記載された
that moment瞬間 of loss損失 to me.
こう表現しました
05:01
He said,
「トムとジェリーのアニメでさ
05:02
"You know in 'Tom' トム and Jerryジェリー,'
ジェリーが逃げようとしているのに
トムがドアの鍵を締めて
05:06
when Jerryジェリー wants to escapeエスケープ,
and then Tomトム locksロック the doorドア
その鍵を飲み込んじゃって
05:09
and swallows呑み込む the keyキー
05:10
and you see it bulging膨らむ out
of his throat as it travels旅行 down?"
それがトムの喉を通って
胃に入る様子が見える場面みたいな感じ」
もちろん 彼の描写する場面が
はっきりと目に浮かびました
05:14
And of courseコース, I really could see
the image画像 that he was describing記述,
彼が伝えようとしている心情—
05:17
and I really did connect接続する with the feeling感じ
that he was trying試す to convey伝える,
逃げ場がないとわかっているときの
無力感に心から共感できました
05:21
whichどの was one of doom運命,
05:23
when you know there's no way out.
そして ふと思ったのです
05:26
And I was wondering不思議:
彼が家を出た日に
考えを改めさせる何かがあったならば
05:28
What, if anything,
could have changedかわった his mindマインド
どうなっていただろうか
05:31
the day that he left home?
そこで尋ねてみました
05:32
So I asked尋ねた,
「君が今だから知っていることすべて―
05:33
"If you knew知っていた everything that you know now
ISISでの苦痛や腐敗や残虐さなどを
05:37
about the suffering苦しみ
and the corruption腐敗, the brutality残忍 --
家を出た日に知っていたとして
05:40
that day you left home,
それでも行ったと思う?」
05:41
would you still have gone行った?"
彼は「はい」と答えました
05:43
And he said, "Yes."
それを聞いて困惑しました
05:45
And I thought, "Holy聖なる crapひどい, he said 'Yes' はい.'"
そうしたら彼は
05:48
And then he said,
「その時点では洗脳が進みすぎて
05:49
"At that pointポイント, I was so brainwashed洗脳された,
ISISを否定するような情報を
一切受け入れようとしていなかったから
05:52
I wasn'tなかった taking取る in
any contradictory矛盾する information情報.
気持ちは変わらなかっただろう」と
05:56
I couldn'tできなかった have been swayed振られた."
「ではもし その半年前に
知っていたならば?」と尋ねると
05:59
"Well, what if you knew知っていた
everything that you know now
06:01
six6 months数ヶ月 before the day that you left?"
「その時なら多分考えを改めていた」
とと返ってきました
06:05
"At that pointポイント, I think it probably多分
would have changedかわった my mindマインド."
過激化というものはイエスかノーかという
単純な選択ではないのです
06:10
Radicalization過激 isn't
this yes-or-noはいまたはいいえ choice選択.
人々が観念 宗教 生活環境についての
06:14
It's a processプロセス, during whichどの
people have questions質問 --
疑問を抱いていくなかで
起こるものなのです
06:17
about ideologyイデオロギー, religion宗教,
the living生活 conditions条件.
そこで答えを探すために
ネットで検索したりしますが
06:20
And they're coming到来 onlineオンライン for answers答え,
これがISISにとってはチャンスなのです
06:23
whichどの is an opportunity機会 to reachリーチ them.
正しい答えを知る人からの動画も
ネット上には転がっています
06:25
And there are videosビデオ onlineオンライン
from people who have answers答え --
例えば自分が暴力的な世界に入って
06:28
defectors脱北者, for example,
telling伝える the storyストーリー of their彼らの journey
抜け出した経験を語る脱走者の話
06:31
into and out of violence暴力;
イラクの刑務所で面会した
若者の話もそうです
06:33
stories物語 like the one from that man
I met会った in the Iraqiイラク prison刑務所.
ISISの支配のもとでの生活が
どのようなものなのかを
06:37
There are locals地元の人々 who've誰が uploadedアップロードされた
cell細胞 phone電話 footage映像
携帯電話で撮影してアップロードした
現地住民もいます
06:40
of what life is really like
in the caliphateカリフレート under ISIS'sイシス ruleルール.
イスラームの平和的な解釈を説く
聖職者もいます
06:44
There are clerics聖職者 who are sharing共有
peaceful平和な interpretations解釈 of Islamイスラム教.
でも こういう人たちは たいてい
06:48
But you know what?
06:50
These people don't generally一般的に have
the marketingマーケティング prowess勇気 of ISISISIS.
ISISほどの発信力を持ちません
命も惜しまず テロリストの
プロパガンダに立ち向かいますが
06:54
They riskリスク their彼らの lives人生 to speak話す up
and confront対峙する terroristテロリスト propaganda宣伝,
無残なことに
最も聞くべき人々には
06:58
and then they tragically悲劇的に
don't reachリーチ the people
言葉が届かないのです
07:00
who most最も need to hear聞く from them.
我が社ではそれを
技術の力で変えようと試みました
07:03
And we wanted to see
if technology技術 could change変化する that.
2016年に Moonshot CVEと
提携を結んで
07:06
So in 2016, we partnered提携 with Moonshotムーンショット CVECVE
過激派に対する新たな対抗手段である―
07:10
to pilotパイロット a new新しい approachアプローチ
to countering対抗 radicalizationラジカル化
「リダイレクトメソッド」を試しました
07:13
calledと呼ばれる the "Redirectリダイレクト Method方法."
これはオンライン広告の力を
07:16
It uses用途 the powerパワー of onlineオンライン advertising広告
ISISの発信に影響されやすい人と
ISISの欠点を暴く信用ある人との間に
07:19
to bridgeブリッジ the gapギャップ betweenの間に
those susceptible影響を受けやすいです to ISIS'sイシス messagingメッセージング
07:24
and those credible信頼できる voices
that are debunkingデバンク that messagingメッセージング.
存在する隔たりを埋めるために
使うというものです
仕組みを説明しますね
07:28
And it works作品 like this:
過激派についての情報を探している人が
07:29
someone誰か looking for extremist過激主義者 material材料 --
「ISISに入る方法」と調べたとしましょう
07:31
say they searchサーチ
for "How do I join参加する ISISISIS?" --
すると聖職者や脱走者など
07:34
will see an ad広告 appear現れる
正しい答えを知っている人が映った―
07:37
that invites招待状 them to watch a YouTubeYouTube videoビデオ
of a cleric聖職者, of a defector亡命者 --
YouTubeの動画へと導く広告が現れます
07:42
someone誰か who has an authentic本物の answer回答.
広告ターゲットは
検索した人がどんな人かには関係なく
07:44
And that targetingターゲティング is basedベース
not on a profileプロフィール of who they are,
その人の検索内容や疑問に
直接関連するものを特定することで
07:48
but of determining決定する something
that's directly直接 relevant関連する
07:51
to their彼らの queryクエリ or question質問.
設定されます
8週間にわたる
英語とアラビア語での試験調査の結果
07:54
During our eight-week8週間 pilotパイロット
in English英語 and Arabicアラビア語,
07:56
we reached到達した over 300,000 people
イスラム過激組織に興味や同情を示した
30万人以上もの人に
08:00
who had expressed表現された an interest利子 in
or sympathy同情 towards方向 a jihadiジハディ groupグループ.
情報を伝えることができました
壊滅的な選択をしてしまうのを
防ぐ効果のあるかもしれないビデオを
08:06
These people were now watching見ている videosビデオ
08:08
that could prevent防ぐ them
from making作る devastating壊滅的な choices選択肢.
視聴してもらえたわけです
そして 暴力的な過激主義は
1つの言語 宗教 観念に
08:13
And because violent暴力的な extremism過激主義
isn't confined閉じ込められた to any one language言語,
限ったものではないので
08:17
religion宗教 or ideologyイデオロギー,
リダイレクトメソッドは今や
全世界で展開され
08:18
the Redirectリダイレクト Method方法 is now
beingであること deployed展開された globally世界的に
ネット上で暴力的な観念の信奉者が
接近しないよう人々を守っています
08:22
to protect保護する people beingであること courtedラブコール onlineオンライン
by violent暴力的な ideologuesイデオローグ,
相手が イスラム過激派
白人至上主義者
08:26
whetherかどうか they're Islamistsイスラム教徒,
white supremacists超覇権主義者
その他の暴力的な過激派であろうが
08:28
or other violent暴力的な extremists過激派,
08:31
with the goalゴール of giving与える them the chanceチャンス
to hear聞く from someone誰か
自分が進もうとしている道の
反対側にいる人たちの話を聞いて
08:33
on the other side of that journey;
違う道を選ぶチャンスを
与えるという目標です
08:36
to give them the chanceチャンス to choose選択する
a different異なる pathパス.
結局 悪者たちはインターネットを
悪用するのが得意なだけであることが多く
08:40
It turnsターン out that oftenしばしば the bad悪い guys
are good at exploiting悪用 the internetインターネット,
それはテクノロジーに
精通しているからではなく
08:46
not because they're some kind種類
of technological技術的 geniuses天才,
何が人を動かすかを知っているからなのです
08:50
but because they understandわかる
what makes作る people tickダニ.
ここで2つ目の例をあげましょう
08:54
I want to give you a second二番 example:
ネット上での嫌がらせです
08:58
onlineオンライン harassment嫌がらせ.
オンラインで嫌がらせをする人も
09:00
Onlineオンライン harassers侵略者 alsoまた、 work
to figure数字 out what will resonate共鳴する
人の気持ちをつかむのは何かを
知ろうとします
09:04
with another別の human人間 beingであること.
でもISISみたいに
徴兵するためじゃなくて
09:05
But not to recruitリクルート them like ISISISIS does,
苦痛を与えるためです
09:08
but to cause原因 them pain痛み.
想像してください
09:11
Imagine想像する this:
あなたは女性で
09:13
you're a woman女性,
結婚していて
09:15
you're married既婚,
子供もいます
09:16
you have a kidキッド.
ネットに何かを投稿したところ
09:18
You post役職 something on socialソーシャル mediaメディア,
レイプしてやるという
コメントがつきます
09:20
and in a reply応答,
you're told that you'llあなたは be rapedレイプされた,
しかも息子の見ている前で実行する と
09:24
that your son息子 will be watching見ている,
時と場所の詳細まで書かれ
09:26
details詳細 of when and where.
しかも皆の目につくように
自宅住所も公開されました
09:29
In fact事実, your home address住所
is put onlineオンライン for everyoneみんな to see.
結構な脅威に感じますよね
09:33
That feels感じる like a prettyかなり realリアル threat脅威.
家に帰れますか?
09:37
Do you think you'dあなたは go home?
これまでしていたことを
続けられますか?
09:39
Do you think you'dあなたは continue持続する doing
the thing that you were doing?
加害者を苛つかせている行為を
これからも続けられますか?
09:43
Would you continue持続する doing that thing
that's irritating刺激 your attackerアタッカー?
ネットいじめは このところ
09:48
Onlineオンライン abuse乱用 has been this perverse勘違いする artアート
何が人を怒らせ 何が人を怖がらせ
09:51
of figuring想像する out what makes作る people angry怒っている,
何が人を不安にさせるかを突き止め
09:54
what makes作る people afraid恐れ,
そこを相手が黙り込むまで突くという
09:56
what makes作る people insecure安全でない,
09:58
and then pushing押して those pressure圧力 pointsポイント
until〜まで they're silenced沈黙した.
歪んだ遊びの極みと化しています
ネット上の嫌がらせが横行すると
10:02
When onlineオンライン harassment嫌がらせ goes行く uncheckedチェックされていない,
自由な発言ができなくなります
10:04
free無料 speechスピーチ is stifled渋った.
議論の主催者側ですら
10:07
And even the people
hostingホスティング the conversation会話
手を上げて諦め
10:09
throwスロー up their彼らの arms武器 and call it quits終了する,
コメント欄やフォーラムを
閉じてしまいます
10:11
closing閉鎖 their彼らの commentコメント sectionsセクション
and their彼らの forumsフォーラム altogether全部.
つまりネット上での
出会いや意見交換の場が
10:14
That means手段 we're actually実際に
losing負け spacesスペース onlineオンライン
失われていくということです
10:17
to meet会う and exchange交換 ideasアイデア.
そして私たちは 残った場所で
10:19
And where onlineオンライン spacesスペース remain残る,
自分と同じ考えを持つ人としか
話さなくなってしまいます
10:22
we descend降下する into echoエコー chambers部屋
with people who think just like us.
でもそれは偽情報の拡散を促し
10:27
But that enables可能にする
the spread普及 of disinformation偽情報;
二極化を助長します
10:30
that facilitates容易にする polarization分極.
その代わりに テクノロジーを使って
共感を拡散できないだろうか
10:34
What if technology技術 instead代わりに
could enable有効にする empathy共感 at scale規模?
この疑問がきっかけとなり
10:40
This was the question質問
that motivated意欲的な our partnershipパートナーシップ
Googleの乱用対策技術チームや
Wikipediaや
10:42
with Google'sGoogleの Counterカウンター Abuse乱用 teamチーム,
New York Timesなどの
新聞社との提携が実現しました
10:44
Wikipediaウィキペディア
10:46
and newspapers新聞 like the New新しい Yorkヨーク Timesタイムズ.
言葉が感情に与える影響を理解する—
10:47
We wanted to see if we could buildビルドする
machine-learning機械学習 modelsモデル
機械学習モデルを作れるか
試そうというものです
10:50
that could understandわかる
the emotional感情の impact影響 of language言語.
ネット上の会話で
誰かを退出させるコメントを
10:55
Could we predict予測する whichどの commentsコメント
were likelyおそらく to make someone誰か elseelse leave離れる
予測できないだろうか と
10:58
the onlineオンライン conversation会話?
それはもう至難の技でしょう
11:00
And that's no mean feat偉業.
AIで達成するのは
11:04
That's no trivial自明 accomplishment達成
11:06
for AIAI to be ableできる to do
something like that.
生半可なことではありません
私に先週送られてきたかもしれない
11:08
I mean, just consider検討する
these two examples of messagesメッセージ
2通りのメッセージを考えてみれば
わかりますね
11:12
that could have been sent送られた to me last week週間.
「TEDで(足を折るくらい)頑張れ」
11:15
"Breakブレーク a leg at TEDTED!"
11:17
... and
「TEDでお前の足を折ってやる」
11:18
"I'll breakブレーク your legs at TEDTED."
(笑)
11:20
(Laughter笑い)
皆さん 人間ですから
11:22
You are human人間,
ほぼ同じような言葉でも
11:23
that's why that's an obvious明らか
difference to you,
明らかな違いがあることが
わかりますが
11:25
even thoughしかし the words言葉
are prettyかなり much the same同じ.
AIが認識するようになるには
発話の型を教える訓練が
11:28
But for AIAI, it takes some trainingトレーニング
to teach教える the modelsモデル
ある程度必要なのです
11:31
to recognize認識する that difference.
違いがわかるAIを作ることの醍醐味は
11:32
The beauty美しさ of building建物 AIAI
that can tell the difference
ネット上で起こる迷惑行為の規模に合わせて
利用を拡大できるところにあります
11:36
is that AIAI can then scale規模 to the sizeサイズ
of the onlineオンライン toxicity毒性 phenomenon現象,
それが「Perspective」という
テクノロジーを開発する際の目標でした
11:41
and that was our goalゴール in building建物
our technology技術 calledと呼ばれる Perspective展望.
Perspectiveのお陰で
11:45
With the help of Perspective展望,
例えばNew York Timesは
11:46
the New新しい Yorkヨーク Timesタイムズ, for example,
オンラインで会話が起こる場が増えました
11:48
has increased増加した spacesスペース
onlineオンライン for conversation会話.
我が社との提携前は
11:51
Before our collaborationコラボレーション,
全記事の10%ほどでしか
コメントができなかったのです
11:52
they only had commentsコメント enabled有効
on just 10 percentパーセント of their彼らの articles記事.
しかし機械学習のお陰で
11:57
With the help of machine機械 learning学習,
30%まで上がりました
11:59
they have that number up to 30 percentパーセント.
以前の3倍です
12:01
So they've彼らは tripled三倍 it,
まだ始動したばかりで
この成果です
12:02
and we're still just getting取得 started開始した.
でもこれは会話を主催する側の
効率化の話にとどまりません
12:04
But this is about way more than just
making作る moderatorsモデレーター more efficient効率的な.
今 皆さんが視界にいるので
12:10
Right now I can see you,
私の話がどう受け取られているのか
推し量ることができますが
12:11
and I can gaugeゲージ how what I'm saying言って
is landing着陸 with you.
ネット上では
そんな機会はありません
12:16
You don't have that opportunity機会 onlineオンライン.
もし機械学習を使って
12:18
Imagine想像する if machine機械 learning学習
could give commentersコメント投稿者,
コメントの投稿者が
文字を打ち込む間に
12:22
as they're typingタイピング,
相手にどう受け取られる可能性があるのか
直接の会話での表情のように
12:23
real-timeリアルタイム feedbackフィードバック about how
their彼らの words言葉 mightかもしれない land土地,
瞬時にフィードバックできたならば
どうでしょうか
12:27
just like facialフェイシャル expressions表現 do
in a face-to-face面と向かって conversation会話.
機械学習は完璧ではありません
12:32
Machine機械 learning学習 isn't perfect完璧な,
まだまだ たくさん間違えます
12:34
and it still makes作る plentyたくさん of mistakes間違い.
でも 言葉が感情に与える影響を理解する
テクノロジーを開発できれば
12:37
But if we can buildビルドする technology技術
12:38
that understands理解する the emotional感情の
impact影響 of language言語,
共感を培うことができます
12:42
we can buildビルドする empathy共感.
それは つまり
12:43
That means手段 that we can have
dialogue対話 betweenの間に people
異なる政治観や異なる世界観
12:46
with different異なる politics政治,
そして異なる価値観を持つ人と人の間に
12:47
different異なる worldviews世界観,
会話が成立するということです
12:49
different異なる values.
大半の人が見限ってしまったネット空間に
再び活力を与えることができます
12:51
And we can reinvigorate活力を取り戻す the spacesスペース onlineオンライン
that most最も of us have given与えられた up on.
他人を食い物にしたり危害を加えるために
テクノロジーを利用する人は
12:57
When people use technology技術
to exploit悪用する and harm othersその他,
人間が持つ恐怖や弱さを糧としています
13:01
they're preying食い物 on our human人間 fears恐怖
and vulnerabilities脆弱性.
もし 人間の醜い側面から隔絶された
ネット世界を作れるなどという考えが
13:06
If we ever thought
that we could buildビルドする an internetインターネット
13:09
insulated断熱された from the darkダーク side of humanity人類,
一度でも浮かんだのであれば
それは間違いです
13:12
we were wrong違う.
人間が直面する困難を乗り越えられる
13:14
If we want today今日 to buildビルドする technology技術
そんなテクノロジーを作りたければ
13:16
that can overcome克服する
the challenges挑戦 that we face,
問題点を理解することや
13:19
we have to throwスロー our entire全体 selves自己
into understanding理解 the issues問題
かつ その問題点と同じくらい
人間らしい解決策を作ることに
13:23
and into building建物 solutionsソリューション
13:25
that are as human人間 as the problems問題
they aim目的 to solve解決する.
全身全霊を捧げなければなりません
私たちで実現させましょう
13:30
Let's make that happen起こる.
ご清聴ありがとうございました
13:31
Thank you.
13:33
(Applause拍手)
(拍手)
Translated by Kai Shunshi Izumi
Reviewed by Riaki Poništ

▲Back to top

About the speaker:

Yasmin Green - Geopolitical technologist
Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. focused on solving global security challenges through technology.

Why you should listen

Yasmin Green is the director of research and development for Jigsaw, a unit within Alphabet Inc. (formerly Google Ideas), focused on using tech tools to make the world safer, both on and offline. She has experience leading projects in some of the world’s toughest environments, including Iran, Syria, the UAE and Nigeria. In 2012, she led a multi-partner coalition to launch Against Violent Extremism, the world's first online network of former violent extremists and survivors of terrorism. Based on her own interviews with ISIS defectors and jailed recruits, last year Yasmin launched the Redirect Method, a new deployment of targeted advertising and video to confront online radicalization.

Green is a senior advisor on innovation to Oxford Analytica, a member of the Aspen Cyber Strategy Group, and until 2015 co-chaired the European Commission's Working Group on Online Radicalization. She was named one of Fortune's "40 Under 40" most influential young leaders in 2017, and in 2016 she was named one of Fast Company's "Most Creative People in Business."

More profile about the speaker
Yasmin Green | Speaker | TED.com