English-Video.net comment policy

The comment field is common to all languages

Let's write comments in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2018

Supasorn Suwajanakorn: Fake videos of real people -- and how to spot them

スパソーン・スワジャナコーン: 実在の人物の偽映像の作り方と、その見分け方

Filmed:
873,917 views

有名人が実際には言っていないことを言っているように見せかけた偽映像を、あなたはうまく見分けられますか? この驚くべき講演とデモで、それがどのように作られるのかをご覧ください。コンピューター科学者スパソーン・スワジャナコーンは、大学院での研究として、AIと3次元モデリングを使い、本物にしか見えないような音声と同期した人物の映像を作りました。この技術の倫理的問題と創造的可能性、そしてその悪用への対策として行われていることについて学びましょう。

- Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos. Full bio

Look at these imagesイメージ.
この映像を見てください
00:12
Now, tell me whichどの Obamaオバマ here is realリアル.
本物のオバマ大統領は
どれでしょう?
00:14
(Videoビデオ) Barackバラク Obamaオバマ: To help families家族
refinance借り換え their彼らの homes,
(バラク・オバマ) 住宅ローンを
借り換える家庭を助けること
00:16
to invest投資する in things
like high-techハイテク manufacturing製造,
ハイテク製造業
クリーンエネルギー
00:19
cleanクリーン energyエネルギー
インフラといったものに
投資することで
00:22
and the infrastructureインフラ
that creates作成する good new新しい jobsジョブ.
良い仕事が創出されます
00:23
SupasornSupasorn SuwajanakornSuwajanakorn: Anyone誰でも?
(講演者) 分かりますか?
00:26
The answer回答 is noneなし of them.
答えは 全部ニセ者です
00:28
(Laughter笑い)
(笑)
00:30
Noneなし of these is actually実際に realリアル.
どれ1つ本物ではありません
00:31
So let me tell you how we got here.
これまでの道のりについて
お話ししましょう
00:33
My inspirationインスピレーション for this work
この研究をする
ヒントになったのは
00:35
was a projectプロジェクト meant意味した to preserve保存する our last
chanceチャンス for learning学習 about the Holocaustホロコースト
ホロコーストの生存者たちから
学ぶ最後の機会を
00:37
from the survivors生存者.
保存しようという
プロジェクトでした
00:42
It's calledと呼ばれる New新しい Dimensions寸法 in Testimony証言,
「証言の新局面」(New Dimensions in
Testimony) という名前で
00:44
and it allows許す you to have
interactiveインタラクティブ conversations会話
ホロコースト生存者の
ホログラムと
00:47
with a hologramホログラム
of a realリアル Holocaustホロコースト survivor生存者.
対話することができます
00:50
(Videoビデオ) Man: How did you
survive生き残ります the Holocaustホロコースト?
(男) どうやってホロコーストを
生き延びたんですか?
00:53
(Videoビデオ) Hologramホログラム: How did I survive生き残ります?
(ホログラム) どうやって生き延びたか?
00:55
I survived生き残った,
私が生き残れたのは—
00:57
I believe,
神が見守っていて
くれたからだと
01:00
because providence摂理 watched見た over me.
私は思っています
01:01
SSSS: Turnsターン out these answers答え
were prerecorded事前に録音した in a studioスタジオ.
(講演者) 答えはスタジオで
あらかじめ録画されたものですが
01:05
Yetまだ the effect効果 is astounding驚くほど.
その効果は劇的です
01:09
You feel so connected接続された to his storyストーリー
and to him as a person.
その人の話や その人自身に対する
強い結び付きを感じます
01:11
I think there's something special特別
about human人間 interactionインタラクション
人間同士のやり取りには
01:16
that makes作る it much more profound深遠な
特別な力があるのでしょう
01:19
and personal個人的
本や講義や映画
などよりもずっと
01:22
than what books or lectures講義
or movies映画 could ever teach教える us.
深く個人的な体験を
与えてくれます
01:24
So I saw this and began始まった to wonderワンダー,
それで私は
思うようになりました
01:28
can we create作成する a modelモデル
like this for anyone誰でも?
こういうモデルを
誰に対しても作れたら?
01:30
A modelモデル that looks外見, talks交渉
and acts行為 just like them?
その人自身のように見え
語り 振る舞うモデルです
01:33
So I setセット out to see if this could be done完了
それが可能か検討を始め
01:37
and eventually最終的に came来た up with a new新しい solution溶液
既存の写真や映像だけから
01:39
that can buildビルドする a modelモデル of a person
usingを使用して nothing but these:
その人物のモデルを作る方法を
考案しました
01:41
existing既存の photos写真 and videosビデオ of a person.
その人物のモデルを作る方法を
考案しました
01:45
If you can leverage活用
this kind種類 of passive受動的 information情報,
こういう その辺にある
写真や映像といった
01:48
just photos写真 and videoビデオ that are out there,
ありあわせの素材
だけでよいなら
01:51
that's the keyキー to scalingスケーリング to anyone誰でも.
誰に対してもモデルを
作れるようになります
01:53
By the way, here'sここにいる Richardリチャード FeynmanFeynman,
ちなみに この人物は
リチャード・ファインマンで
01:56
who in addition添加 to beingであること
a Nobelノーベル Prize winner勝者 in physics物理
ノーベル物理学賞の
受賞者であるのみならず
01:57
was alsoまた、 known既知の as a legendary伝説の teacher先生.
優れた教師として
よく知られていました
02:01
Wouldn'tしないだろう it be great
if we could bring持参する him back
もしファインマンを蘇らせ
02:05
to give his lectures講義
and inspireインスピレーション millions何百万 of kids子供たち,
何百万という若者に話をして
刺激を与えてもらい
02:07
perhapsおそらく not just in English英語
but in any language言語?
さらには他の言語でも語らせられたなら
素晴らしいでしょう
02:10
Or if you could ask尋ねる our grandparents祖父母
for advice助言 and hear聞く those comforting慰め words言葉
あるいは もうこの世を去ってしまった
おじいさん おばあさんに
02:14
even if they're no longerより長いです with us?
アドバイスや心温まる言葉を
かけてもらえたなら
02:19
Or maybe usingを使用して this toolツール,
book authors著者, alive生きている or not,
またこのツールを使えば
存命か否かにかかわらず
02:21
could read読む aloud大声で all of their彼らの books
for anyone誰でも interested興味がある.
著者自身に本の朗読を
してもらうこともできるでしょう
02:25
The creative創造的な possibilities可能性
here are endless無限,
これが持つ創造的可能性は
限りがなく
02:29
and to me, that's very excitingエキサイティング.
すごくワクワクさせられます
02:31
And here'sここにいる how it's workingワーキング so far遠い.
その仕組みを
お話ししましょう
02:34
First, we introduce紹介する a new新しい technique技術
まず 顔の精細な
3次元モデルを
02:36
that can reconstruct再構築する a high-detailed高詳細
3D face modelモデル from any image画像
3Dスキャンデータなしに
02:38
withoutなし ever 3D-scanning3 D スキャン the person.
任意の画像から作れる
手法を開発しました
02:42
And here'sここにいる the same同じ output出力 modelモデル
from different異なる views再生回数.
これは同じモデルを
別の視点から見たものです
02:45
This alsoまた、 works作品 on videosビデオ,
この技術は映像にも使えます
02:49
by runningランニング the same同じ algorithmアルゴリズム
on each videoビデオ frameフレーム
映像の各フレームに
同じアルゴリズムを適用し
02:51
and generating生成する a moving動く 3D modelモデル.
動きのある3次元モデルを
生成します
02:54
And here'sここにいる the same同じ
output出力 modelモデル from different異なる anglesアングル.
こちらは同じモデルを
違う角度から見たものです
02:57
It turnsターン out this problem問題
is very challenging挑戦,
この問題は
とても難しいのですが
03:01
but the keyキー trickトリック
is that we are going to analyze分析する
あらかじめ その人物の
大量の写真を
03:04
a large photo写真 collectionコレクション
of the person beforehand予め.
解析することが
鍵になります
03:07
For Georgeジョージ W. Bushブッシュ,
we can just searchサーチ on GoogleGoogle,
ジョージ・W・ブッシュなら
Googleで画像検索するだけでよく
03:10
and from that, we are ableできる
to buildビルドする an average平均 modelモデル,
そこから平均モデルを
作ることができ
03:14
an iterative繰り返し, refined洗練された modelモデル
to recover回復します the expression表現
段階的にモデルを
改善していって
03:16
in fine details詳細,
like creases折り目 and wrinklesシワ.
皺のような 表情の
細部を再現します
03:19
What's fascinating魅力的な about this
これのいいところは
03:23
is that the photo写真 collectionコレクション
can come from your typical典型的な photos写真.
写真は ごく普通のもので
よいということです
03:24
It doesn't really matter問題
what expression表現 you're making作る
どういう表情かとか
どこで撮られたかとかは
03:28
or where you took取った those photos写真.
あまり問題ではありません
03:30
What matters問題 is
that there are a lot of them.
大事なのは写真が
たくさんあるということです
03:32
And we are still missing行方不明 color here,
まだ色が付いていないので
03:35
so next, we develop開発する
a new新しい blendingブレンディング technique技術
次に新しいブレンディング技法を開発し
03:36
that improves改善する upon〜に
a singleシングル averaging平均化 method方法
平均モデルを改良して
03:39
and produces生産する sharpシャープ
facialフェイシャル texturesテクスチャ and colors.
くっきりとした顔の
質感や色を付けます
03:42
And this can be done完了 for any expression表現.
これはどんな表情に
対しても行えます
03:45
Now we have a controlコントロール
of a modelモデル of a person,
これで人物の動かせる
モデルができました
03:49
and the way it's controlled制御された now
is by a sequenceシーケンス of static静的 photos写真.
動きは一連の写真に
合わせたものになります
03:52
Notice通知 how the wrinklesシワ come and go,
depending依存する on the expression表現.
表情に応じて皺が現れたり
消えたりするのに注意してください
03:55
We can alsoまた、 use a videoビデオ
to driveドライブ the modelモデル.
モデルを動かすのに
映像を使うこともできます
04:00
(Videoビデオ) Danielダニエル Craigクレイグ: Right, but somehow何とか,
(ダニエル・クレイグ) ええ
しかし私達はどうにか
04:02
we've私たちは managed管理された to attract引き付ける
some more amazing素晴らしい people.
さらに素晴らしい人たちを
引き入れました
04:05
SSSS: And here'sここにいる another別の fun楽しい demoデモ.
(講演者) これで面白いことができます
04:10
So what you see here
are controllable制御可能な modelsモデル
ここに出ているのは
04:11
of people I built建てられた
from their彼らの internetインターネット photos写真.
ネット上の写真から作った
有名人のモデルです
04:13
Now, if you transfer転送
the motionモーション from the input入力 videoビデオ,
入力源となる映像の
動きに合わせて
04:16
we can actually実際に driveドライブ the entire全体 partyパーティー.
全部の顔を動かす
ことができます
04:19
Georgeジョージ W. Bushブッシュ:
It's a difficult難しい billビル to passパス,
(ブッシュ) これは
通すのが難しい法案で
04:21
because there's a lot of moving動く parts部品,
構成要素がたくさんあり
04:23
and the legislative立法 processesプロセス can be ugly醜い.
立法の過程は見苦しいものに
なるかもしれません
04:26
(Applause拍手)
(拍手)
04:31
SSSS: So coming到来 back a little bitビット,
(講演者) 少し話を戻すと
04:32
our ultimate究極 goalゴール, ratherむしろ,
is to captureキャプチャー their彼らの mannerismsマラニズム
私達の究極の目標は
04:34
or the uniqueユニークな way each
of these people talks交渉 and smiles笑顔.
それぞれの人が話したり笑ったりする時の
独特なやり方や癖を捉えるということです
04:38
So to do that, can we
actually実際に teach教える the computerコンピューター
その人物が話している
映像を見せるだけで
04:41
to imitate模倣する the way someone誰か talks交渉
コンピューターが
その人の話し方を
04:43
by only showing表示 it
videoビデオ footage映像 of the person?
真似られるように
できるのでしょうか?
04:45
And what I did exactly正確に was,
I let a computerコンピューター watch
それで オバマが演説している
14時間の映像を
04:48
14 hours時間 of pureピュア Barackバラク Obamaオバマ
giving与える addressesアドレス.
コンピューターに
見せることにしました
04:51
And here'sここにいる what we can produce作物
given与えられた only his audioオーディオ.
これはオバマが話す声だけから
生成した映像です
04:55
(Videoビデオ) BOBO: The results結果 are clearクリア.
(オバマ) 結果は明らかです
04:58
America'sアメリカの businessesビジネス have created作成した
14.5 million百万 new新しい jobsジョブ
アメリカの産業界は
75ヶ月にわたり
05:00
over 75 straightまっすぐ months数ヶ月.
1450万の新たな仕事を
生み出したのです
05:05
SSSS: So what's beingであること synthesized合成された here
is only the mouth region領域,
(講演者) ここで合成されているのは
口の部分だけで
05:07
and here'sここにいる how we do it.
こんな風にしています
05:10
Our pipelineパイプライン uses用途 a neuralニューラル networkネットワーク
私達のシステムは
ニューラルネットワークを使って
05:12
to convert変換する and input入力 audioオーディオ
into these mouth pointsポイント.
入力された音声を
口の位置を表す点に変換します
05:14
(Videoビデオ) BOBO: We get it throughを通して our jobジョブ
or throughを通して Medicareメディケア or Medicaidメディケイド.
(オバマ) 仕事や メディケア
メディケイドを通じて得ています
05:18
SSSS: Then we synthesize合成する the textureテクスチャ,
enhance強化する details詳細 and teeth,
(講演者) それから質感を合成し
細部や歯を補い
05:22
and blendブレンド it into the head
and backgroundバックグラウンド from a sourceソース videoビデオ.
元の映像の頭部と背景に
埋め込みます
05:26
(Videoビデオ) BOBO: Women女性 can get free無料 checkups診察,
(オバマ) 女性は無料の
健康診断を受けられ
05:29
and you can't get charged荷担した more
just for beingであること a woman女性.
女性というだけで
余分に支払うことはありません
05:31
Young若い people can stay滞在
on a parent's plan計画 until〜まで they turn順番 26.
子供は26歳になるまで
親の保険が使えます
05:34
SSSS: I think these results結果
seem思われる very realistic現実的な and intriguing興味をそそる,
(講演者) 結果としてできたものは
とてもリアルで興味深いものですが
05:39
but at the same同じ time
frightening恐ろしい, even to me.
同時に私自身でも
怖いと感じます
05:42
Our goalゴール was to buildビルドする an accurate正確 modelモデル
of a person, not to misrepresent偽って表現する them.
私達の目標は人物の正確なモデルを作ることで
誰かを騙ることではありません
05:45
But one thing that concerns心配 me
is its potential潜在的な for misuse悪用.
しかしこれが悪用される可能性を
危惧しています
05:49
People have been thinking考え
about this problem問題 for a long time,
この問題については
フォトショップが現れて以来
05:53
since以来 the days日々 when PhotoshopPhotoshop
first hitヒット the market市場.
みんなずっと考えてきました
05:56
As a researcher研究者, I'm alsoまた、 workingワーキング
on countermeasure対策 technology技術,
研究者として 私は
対策技術の開発もしていて
05:59
and I'm part of an ongoing進行中の
effort努力 at AIAI Foundation財団,
AI Foundationでの
取り組みに参加しています
06:03
whichどの uses用途 a combination組み合わせ
of machine機械 learning学習 and human人間 moderatorsモデレーター
それは機械学習と
人間のモデレーターの組み合わせにより
06:06
to detect検出する fake imagesイメージ and videosビデオ,
偽物の画像や映像を
検出しようという
06:10
fighting戦う againstに対して my own自分の work.
私自身の研究に
対抗するものです
06:12
And one of the toolsツール we plan計画 to release解放
is calledと呼ばれる Reality現実 Defenderディフェンダー,
公開を予定しているツールに
Reality Defender があり
06:14
whichどの is a web-browserweb ブラウザー plug-inプラグイン
that can flagフラグ potentially潜在的 fake contentコンテンツ
これはブラウザーのプラグインで
06:17
automatically自動的に, right in the browserブラウザ.
偽物の可能性のあるコンテンツに対して
警告を出すようになっています
06:21
(Applause拍手)
(拍手)
06:24
Despiteにもかかわらず all this, thoughしかし,
それでも真偽の確認が
なされる前に
06:28
fake videosビデオ could do a lot of damage損傷,
偽の映像が大きな被害を
もたらすこともありうるので
06:30
even before anyone誰でも has a chanceチャンス to verify確認する,
偽の映像が大きな被害を
もたらすこともありうるので
06:32
so it's very important重要
that we make everyoneみんな aware承知して
現在どのようなことが
可能になっているのかを
06:35
of what's currently現在 possible可能
みんな理解していることが重要で
06:38
so we can have the right assumption仮定
and be criticalクリティカルな about what we see.
それにより適切な仮定をし
批判的な目で物事を見られるようになるでしょう
06:40
There's still a long way to go before
we can fully完全に modelモデル individual個人 people
人物の完全なモデルを作れ
安全性も確保できるまでには
06:44
and before we can ensure確実に
the safety安全性 of this technology技術.
まだまだ時間がかかるでしょう
06:49
But I'm excited興奮した and hopeful希望,
でも私は希望と熱意を持っています
06:53
because if we use it right and carefully慎重に,
この技術を正しく
注意して使うなら
06:54
this toolツール can allow許す any individual's個人の
positiveポジティブ impact影響 on the world世界
誰もが広く世界に
06:58
to be massively大規模 scaled縮尺
良い影響を与えられるようになり
07:02
and really help shape形状 our future未来
the way we want it to be.
みんなが望む未来を築く
助けになるはずだからです
07:04
Thank you.
ありがとうございました
07:07
(Applause拍手)
(拍手)
07:08
Translated by Yasushi Aoki
Reviewed by Claire Ghyselen

▲Back to top

About the speaker:

Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com