ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com
TED2018

Supasorn Suwajanakorn: Fake videos of real people -- and how to spot them

سوپاسورن سوواجاناکورن: ویدئوهای ساختگی از انسان‌های واقعی -- و نحوه تشخیص آنها

Filmed:
1,453,308 views

آیا فکر می‌کنید در تشخیص ویدئوهای ساختگی می‌توانید خوب عمل کنید؟ منظور همان ویدئوهایی است که در آنها فردی شناخته شده حرف‌هایی را به زبان می‌آورد که روحش هم از آنها خبر ندارد. در این چند دقیقه ببینید که چطور فناوری می‌تواند به سادگی ما را فریب بدهد. سوپاسورن سوواجاناکورن که متخصص علوم کامپیوتر است به ما نشان می‌دهد چگونه به کمک هوش مصنوعی و مدل سازی سه بعدی این تصاویر را خلق و با صدایی که می‌شنویم هماهنگ کرده است. در این سخنرانی کوتاه با جنبه‌های اخلاقی ساخت این ویدئوها و امکانات خلاقانه‌ای که در اختیار ما قرار می‌دهند همراه با روش‌هایی برای جلوگیری از سوءاستفاده از این شیوه آشنا خواهیم شد.
- Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos. Full bio

Double-click the English transcript below to play the video.

00:12
Look at these imagesتصاویر.
0
876
1151
به این تصاویر نگاه کنید.
00:14
Now, tell me whichکه Obamaاوباما here is realواقعی.
1
2051
2635
به من بگویید کدام یک اوبامای واقعی است؟
00:16
(Videoویدئو) Barackباراک Obamaاوباما: To help familiesخانواده ها
refinanceبازپرداخت بدهی theirخودشان homesخانه ها,
2
4710
2861
(ویدیو) باراک اوباما: برای کمک
به آنها که باید وام خود را تجدید کرده
00:19
to investسرمایه گذاری in things
like high-techبا تکنولوژی بالا manufacturingتولید,
3
7595
2647
یا روی تولید به کمک فناوری‌های روز دنیا
00:22
cleanپاک کن energyانرژی
4
10266
1159
انرژی‌های پاک
00:23
and the infrastructureزیر ساخت
that createsایجاد می کند good newجدید jobsشغل ها.
5
11449
2779
و زیرساخت‌ها برای مشاغل تازه
سرمایه‌گذاری کنند.
00:26
SupasornSupasorn SuwajanakornSuwajanakorn: Anyoneهر کسی?
6
14647
1484
سوپاسورن سوواجاناکورن: کسی فهمید؟
00:28
The answerپاسخ is noneهیچ کدام of them.
7
16155
1874
جواب صحیح هیچ‌کدام از آنها است.
00:30
(Laughterخنده)
8
18053
1114
(خنده)
00:31
Noneهیچ یک of these is actuallyدر واقع realواقعی.
9
19191
1786
هیچ یک واقعی نیست.
00:33
So let me tell you how we got here.
10
21001
1840
فکر می‌کنید چطور به اینجا رسیدیم.
00:35
My inspirationالهام بخش for this work
11
23940
1578
الهام بخش من برای آغاز این کار
00:37
was a projectپروژه meantبه معنای to preserveحفظ our last
chanceشانس for learningیادگیری about the Holocaustهولوکاست
12
25542
5411
پروژه‌ای بود برای آنکه آخرین یافته‌های ما
درباره هولوکاست را حفظ کند
00:42
from the survivorsبازماندگان.
13
30977
1768
آنهم از زبان شاهدان زنده آن.
00:44
It's calledبه نام Newجدید Dimensionsابعاد in Testimonyشهادت,
14
32769
2627
این پروژه که ابعاد جدید شهادت نام داشت،
00:47
and it allowsاجازه می دهد you to have
interactiveدر ارتباط بودن conversationsگفتگو
15
35420
3126
به کاربران اجازه می‌داد
صحبتی رودررو و کاملا تعاملی
00:50
with a hologramهولوگرام
of a realواقعی Holocaustهولوکاست survivorبازمانده.
16
38570
2556
با هولوگرام بازمانده واقعی
از هولوکاست داشته باشند.
00:53
(Videoویدئو) Man: How did you
surviveزنده ماندن the Holocaustهولوکاست?
17
41793
1966
(ویدیو) مرد: چطور از هولوکاست
جان سالم به در بردی؟
00:55
(Videoویدئو) Hologramهولوگرام: How did I surviveزنده ماندن?
18
43783
1668
(ویدیو) هولوگرام:
چطور جان سالم به در بردم؟
00:57
I survivedجان سالم به در برد,
19
45912
1807
من زنده ماندم،
01:00
I believe,
20
48419
1527
چون اعتقاد داشتم،
01:01
because providenceپیش بینی watchedتماشا کردم over me.
21
49970
3023
در پناه خدا و فرشتگان هستم.
01:05
SSاس اس: Turnsچرخش out these answersپاسخ ها
were prerecordedقبل از آن in a studioاستودیو.
22
53573
3454
س س: حقیقت اینست که این پاسخ‌ها
از قبل در استودیو ضبط شده بودند.
01:09
Yetهنوز the effectاثر is astoundingعجیب و غریب.
23
57051
2452
با این حال اثر آنها بی‌نظیر بود.
01:11
You feel so connectedمتصل to his storyداستان
and to him as a personفرد.
24
59527
3619
این مرد می‌توانست احساس همدردی
و نوع دوستی شما را برانگیزد.
01:16
I think there's something specialویژه
about humanانسان interactionاثر متقابل
25
64011
3301
باید چیزی خارق‌العاده در تعامل
میان انسان‌ها وجود داشته باشد
01:19
that makesباعث می شود it much more profoundعمیق
26
67336
2757
که آن را این همه قوی
01:22
and personalشخصی
27
70117
2198
و شخصی می‌کند
01:24
than what booksکتاب ها or lecturesسخنرانی ها
or moviesفیلم ها could ever teachتدریس کنید us.
28
72339
3485
بیشتر از تمام چیزی که از کتاب‌ها
سخنرانی‌ها و فیلم‌ها یاد گرفته‌اید.
01:28
So I saw this and beganآغاز شد to wonderتعجب,
29
76267
2425
پس از دیدن این فیلم به فکر فرو رفتم،
01:30
can we createايجاد كردن a modelمدل
like this for anyoneهر کسی?
30
78716
2810
که آیا می‌توان مدلی شببه به آن را
برای هر کسی خلق کرد؟
01:33
A modelمدل that looksبه نظر می رسد, talksگفتگو
and actsعمل می کند just like them?
31
81550
2975
مدلی که بتواند مانند آنها نگاه کرده
حرف زده و واکنش نشان بدهد؟
01:37
So I setتنظیم out to see if this could be doneانجام شده
32
85573
2007
و تلاش کردم تا به نتیجه برسم
01:39
and eventuallyدر نهایت cameآمد up with a newجدید solutionراه حل
33
87604
2310
در نهایت به راه‌حل تازه‌ای رسیدم
01:41
that can buildساختن a modelمدل of a personفرد
usingاستفاده كردن nothing but these:
34
89938
3220
که می‌توانست مدلی از یک فرد را
با استفاده از حداقل‌ها ایجاد کند:
01:45
existingموجود است photosعکس ها and videosفیلم های of a personفرد.
35
93747
2214
عکس‌ها و ویدئوهایی که از او وجود داشت.
01:48
If you can leverageقدرت نفوذ
this kindنوع of passiveمنفعل informationاطلاعات,
36
96701
2617
اگر بتوانید به بهترین شکل
از این داده‌ها استفاده کنید،
01:51
just photosعکس ها and videoویدئو that are out there,
37
99342
2007
تنها عکس‌ها و ویدئوهایی
که در اختیار دارید،
01:53
that's the keyکلیدی to scalingپوسته پوسته شدن to anyoneهر کسی.
38
101373
2056
ابزار کافی است.
01:56
By the way, here'sاینجاست Richardریچارد Feynmanفاینمن,
39
104119
1777
حالا در اینجا ریچارد فاینمن را داریم،
01:57
who in additionعلاوه بر این to beingبودن
a Nobelنوبل Prizeجایزه winnerبرنده in physicsفیزیک
40
105920
3413
یک فیزیکدان برنده جایزه نوبل
02:01
was alsoهمچنین knownشناخته شده as a legendaryافسانهای teacherمعلم.
41
109357
2453
و استادی افسانه‌ای.
02:05
Wouldn'tنه it be great
if we could bringآوردن him back
42
113080
2198
به نظرتان عالی نیست
که او را به حیات برگردانیم
02:07
to give his lecturesسخنرانی ها
and inspireالهام بخشیدن millionsمیلیون ها نفر of kidsبچه ها,
43
115302
3265
تا برایمان سخنرانی کند و میلیون‌ها
کودک را تحت تأثیر قرار بدهد،
02:10
perhapsشاید not just in Englishانگلیسی
but in any languageزبان?
44
118591
2992
آنهم نه تنها به زبان انگلیسی
بلکه به تمامی زبان‌ها؟
02:14
Or if you could askپرسیدن our grandparentsپدربزرگ و مادربزرگ
for adviceمشاوره and hearشنیدن those comfortingآرامش wordsکلمات
45
122441
4602
یا اینکه پای صحبت‌های شیرین
پدربزرگ‌ها و مادربزرگ‌هایمان بنشینیم
02:19
even if they're no longerطولانی تر with us?
46
127067
1770
در حالی که دیگر در قید حیات نیستند؟
02:21
Or maybe usingاستفاده كردن this toolابزار,
bookکتاب authorsنویسندگان, aliveزنده است or not,
47
129683
3396
یا از این تکنیک برای جان دادن
به نویسندگان محبوبمان استفاده کنیم،
02:25
could readخواندن aloudبا صدای بلند all of theirخودشان booksکتاب ها
for anyoneهر کسی interestedعلاقه مند.
48
133103
2937
تا کتاب‌هایشان را با صدای خود
برای علاقمندان بازخوانی کنند.
02:29
The creativeخلاقانه possibilitiesامکانات
here are endlessبی پایان,
49
137199
2437
ایده‌های خلاقانه بسیاری
در این حیطه وجود دارند،
02:31
and to me, that's very excitingهیجان انگیز.
50
139660
1713
و به شخصه برای من بسیار جذاب هستند.
02:34
And here'sاینجاست how it's workingکار کردن so farدور.
51
142595
2002
حالا به شیوه کار بپردازیم.
02:36
First, we introduceمعرفی کنید a newجدید techniqueتکنیک
52
144621
1667
در ابتدا تکنیک تازه‌ای خلق کردیم
02:38
that can reconstructبازسازی a high-detailedبالا دقیق
3D faceصورت modelمدل from any imageتصویر
53
146312
4572
که می‌توانست طرح سه بعدی دقیقی
از هر تصویری را بازسازی کند
02:42
withoutبدون ever 3D-scanningد اسکن the personفرد.
54
150908
2119
بدون آنکه به اسکن سه بعدی فرد
نیازی داشته باشد.
02:45
And here'sاینجاست the sameیکسان outputخروجی modelمدل
from differentناهمسان viewsنمایش ها.
55
153890
2642
این همان مدل نهایی از زوایای گوناگون است.
02:49
This alsoهمچنین worksآثار on videosفیلم های,
56
157969
1502
همین تکنیک در ویدئو کاربرد دارد،
02:51
by runningدر حال اجرا the sameیکسان algorithmالگوریتم
on eachهر یک videoویدئو frameفریم
57
159495
2852
با به کارگیری الگوریتمی یکسان
در هر فریم از ویدئو
02:54
and generatingتولید کننده a movingدر حال حرکت 3D modelمدل.
58
162371
2222
و خلق یک مدل سه بعدی متحرک.
02:57
And here'sاینجاست the sameیکسان
outputخروجی modelمدل from differentناهمسان anglesزاویه.
59
165538
2772
این همان محصول نهایی است که
از زوایای گوناگون دیده می‌شود.
03:01
It turnsچرخش out this problemمسئله
is very challengingچالش برانگیز,
60
169933
2534
به نظر می‌رسد این معما بسیار پیچیده باشد،
03:04
but the keyکلیدی trickترفند
is that we are going to analyzeتجزیه و تحلیل
61
172491
2525
اما فوت کوزه‌گری اینست که ما به بررسی
03:07
a largeبزرگ photoعکس collectionمجموعه
of the personفرد beforehandپیش از آن.
62
175040
2966
مجموعه گسترده‌ای از تصاویر خواهیم پرداخت.
03:10
For Georgeجورج W. Bushبوته,
we can just searchجستجو کردن on Googleگوگل,
63
178650
2539
برای جرج دبلیو. بوش
تنها به جستجو در گوگل اکتفا کردیم،
03:14
and from that, we are ableتوانایی
to buildساختن an averageمیانگین modelمدل,
64
182309
2499
و به کمک همان‌ها، موفق به
ساخت مدلی متوسط شدیم،
03:16
an iterativeتکراری, refinedتصفیه شده modelمدل
to recoverبهبود پیدا کن the expressionاصطلاح
65
184832
3111
یک مدل شسته رفته و تعاملی
که به خوبی می‌تواند
03:19
in fine detailsجزئیات,
like creasesچروک ها and wrinklesچین و چروک.
66
187967
2336
جزئیاتی ریز مانند چین
و چروک صورت را نشان بدهد.
03:23
What's fascinatingشگفت انگیز about this
67
191326
1403
نکته جالب توجه اینکه
03:24
is that the photoعکس collectionمجموعه
can come from your typicalمعمول photosعکس ها.
68
192753
3423
مجموعه عکس‌ها می‌تواند از عکس‌های
روزمره شما گردآوری شود.
03:28
It doesn't really matterموضوع
what expressionاصطلاح you're makingساخت
69
196200
2603
این مهم نیست که حالات
چهره شما چگونه است
03:30
or where you tookگرفت those photosعکس ها.
70
198827
1885
یا کجا این عکس‌ها را گرفته‌اید.
03:32
What mattersمسائل is
that there are a lot of them.
71
200736
2400
مهم اینست که تعداد زیادی
در اختیار داشته باشید.
03:35
And we are still missingگم شده colorرنگ here,
72
203160
1736
حالا نوبت به رنگ‌ها می‌رسد،
03:36
so nextبعد, we developتوسعه
a newجدید blendingترکیب کردن techniqueتکنیک
73
204920
2348
ما از تکنیکی برای
ترکیب آنها استفاده کرده‌ایم
03:39
that improvesبهبود می یابد uponبر
a singleتنها averagingمیانگین methodروش
74
207292
2836
که از روش‌های متوسط کنونی
به مراتب بهتر است
03:42
and producesتولید می کند sharpتیز
facialچهره texturesبافت and colorsرنگ ها.
75
210152
2818
و بافت و رنگی زنده به چهره فرد می‌دهد.
03:45
And this can be doneانجام شده for any expressionاصطلاح.
76
213779
2771
و می‌تواند برای تمامی حالات استفاده شود.
03:49
Now we have a controlکنترل
of a modelمدل of a personفرد,
77
217485
2499
حالا ما کنترل یک مدل
انسانی را در اختیار داریم،
03:52
and the way it's controlledکنترل شده است now
is by a sequenceتوالی of staticاستاتیک photosعکس ها.
78
220008
3795
این کنترل به وسیله توالی از
تصاویر ایستا ایجاد می‌شود.
03:55
Noticeاطلاع how the wrinklesچین و چروک come and go,
dependingبستگی دارد on the expressionاصطلاح.
79
223827
3126
به ظاهر و پنهان شدن چین و چروک‌ها
در هنگام تغییر حالات دقت کنید.
04:00
We can alsoهمچنین use a videoویدئو
to driveراندن the modelمدل.
80
228109
2746
علاوه بر این می‌توانیم از ویدئو
برای مدل خود استفاده کنیم.
04:02
(Videoویدئو) Danielدانیل Craigکریگ: Right, but somehowبه نحوی,
81
230879
2593
(ویدیو) دنیل کریگ: درسته، ولی گاهی،
04:05
we'veما هستیم managedاداره می شود to attractجذب
some more amazingحیرت آور people.
82
233496
3771
باید آدم های فوق‌العاده بیشتری جذب کنیم.
04:10
SSاس اس: And here'sاینجاست anotherیکی دیگر funسرگرم کننده demoنسخه ی نمایشی.
83
238021
1642
س س: باز هم یک دموی جذاب دیگر.
04:11
So what you see here
are controllableقابل کنترل modelsمدل ها
84
239687
2246
چیزی که اینجا می‌بینید
مدل‌های قابل کنترل هستند
04:13
of people I builtساخته شده
from theirخودشان internetاینترنت photosعکس ها.
85
241957
2444
آنها را به کمک تصاویر موجود
در اینترنت درست کرده‌ام.
04:16
Now, if you transferانتقال
the motionحرکت from the inputورودی videoویدئو,
86
244425
2904
حالا اگر حرکت را از ویدئوی ورودی
به اینجا منتقل کنیم،
04:19
we can actuallyدر واقع driveراندن the entireکل partyمهمانی.
87
247353
2152
همه چیز کامل خواهد شد.
04:21
Georgeجورج W. Bushبوته:
It's a difficultدشوار billلایحه to passعبور,
88
249529
2172
جرج دبلیو. بوش:
تصویب این لایحه ساده نیست،
04:23
because there's a lot of movingدر حال حرکت partsقطعات,
89
251725
2303
چون اجزای پیچیده بسیاری وجود دارد،
04:26
and the legislativeمقننه processesفرآیندهای can be uglyزشت.
90
254052
5231
و فرایندهای قضایی می‌تواند ناخوشایند باشد.
04:31
(Applauseتشویق و تمجید)
91
259307
1630
(تشویق)
04:32
SSاس اس: So comingآینده back a little bitبیت,
92
260961
1837
س س: بیایید کمی به عقب برگردیم،
04:34
our ultimateنهایی goalهدف, ratherنسبتا,
is to captureگرفتن theirخودشان mannerismsرفتارها
93
262822
3191
هدف نهایی ما در اینجا،
تبعیت کامل از رفتار این افراد
04:38
or the uniqueمنحصر بفرد way eachهر یک
of these people talksگفتگو and smilesلبخند می زند.
94
266037
3045
و شیوه یگانه هر یک از آنها
در صحبت و لبخند زدن است.
04:41
So to do that, can we
actuallyدر واقع teachتدریس کنید the computerکامپیوتر
95
269106
2313
برای رسیدن به آن آیا می‌شود
به رایانه یاد بدهیم
04:43
to imitateتقلید کردن the way someoneکسی talksگفتگو
96
271443
2222
که شیوه حرف زدن فرد را تقلید کرده
04:45
by only showingنشان دادن it
videoویدئو footageفیلم of the personفرد?
97
273689
2420
و این کار را تنها به کمک
نمایش ویدئوها انجام بدهیم؟
04:48
And what I did exactlyدقیقا was,
I let a computerکامپیوتر watch
98
276898
2577
این دقیقا کاری بود که من کردم،
اجازه دادم که رایانه
04:51
14 hoursساعت ها of pureخالص Barackباراک Obamaاوباما
givingدادن addressesآدرس.
99
279499
3277
۱۴ ساعت از صحبت‌های اوباما را تماشا کند.
04:55
And here'sاینجاست what we can produceتولید کردن
givenداده شده only his audioسمعی.
100
283443
3516
تنها کاری که باقی مانده بود
اضافه کردن صدا بود.
04:58
(Videoویدئو) BOبو: The resultsنتایج are clearروشن است.
101
286983
1777
(ویدیو) ب ا: نتیجه مشخص است.
05:00
America'sآمریكا businessesکسب و کار have createdایجاد شده
14.5 millionمیلیون newجدید jobsشغل ها
102
288784
4349
کسب و کارهای آمریکایی
۱۴/۵ میلیون شغل جدید ایجاد کرده‌اند
05:05
over 75 straightسر راست monthsماه ها.
103
293157
2774
در طی ۷۵ ماه.
05:07
SSاس اس: So what's beingبودن synthesizedسنتز شده است here
is only the mouthدهان regionمنطقه,
104
295955
2905
س س: تنها چیزی که در این ویدئوها
طراحی شده دهان اوباما است،
05:10
and here'sاینجاست how we do it.
105
298884
1540
و شیوه کار به این ترتیب است.
05:12
Our pipelineخط لوله usesاستفاده می کند a neuralعصبی networkشبکه
106
300764
1826
سیستم ما از شبکه عصبی استفاده می‌کند
05:14
to convertتبدیل and inputورودی audioسمعی
into these mouthدهان pointsنکته ها.
107
302614
2936
تا صدا را تبدیل کرده و آن را
به اجزای دهان منتقل کند.
05:18
(Videoویدئو) BOبو: We get it throughاز طریق our jobکار
or throughاز طریق Medicareمدیکر or Medicaidمدیکید.
108
306547
4225
(ویدیو) ب ا: ما تلاش می‌کنیم
بیمه ملی را توسعه بدهیم.
05:22
SSاس اس: Then we synthesizeترکیب کردن the textureبافت,
enhanceافزایش دادن detailsجزئیات and teethدندان ها,
109
310796
3420
پس از آن بافت را همگون کرده،
و جزئیاتی مانند دندان‌ها،
05:26
and blendمخلوط کردن it into the headسر
and backgroundزمینه from a sourceمنبع videoویدئو.
110
314240
3074
نحوه قرار گرفتن آنها در صورت
و پشت زمینه را تصحیح می‌کنیم.
05:29
(Videoویدئو) BOبو: Womenزنان can get freeرایگان checkupsبازرسی ها,
111
317338
1905
(ویدیو) ب ا: زنان می‌توانند
به چک آپ رایگان،
05:31
and you can't get chargedمتهم more
just for beingبودن a womanزن.
112
319267
2968
دسترسی داشته و هزینه بیشتری
به دلیل زن بودن نداشته باشند.
05:34
Youngجوان people can stayاقامت کردن
on a parent'sوالدین planطرح untilتا زمان they turnدور زدن 26.
113
322973
3306
جوانان هم می توانند تا ۲۶ سالگی
از بیمه والدین خود استفاده کنند،
05:39
SSاس اس: I think these resultsنتایج
seemبه نظر می رسد very realisticواقع بین and intriguingجذاب,
114
327267
2952
س س: به نظرم این نتایج
بسیار واقعی و قابل درک است،
05:42
but at the sameیکسان time
frighteningترسناک, even to me.
115
330243
3173
و همزمان نگران کننده، حتی برای من.
05:45
Our goalهدف was to buildساختن an accurateدقیق modelمدل
of a personفرد, not to misrepresentاشتباه them.
116
333440
4015
هدف اصلی ما ساخت مدلی دقیق از فرد است
نه اینکه چهره‌ای غلط از او نمایش بدهیم.
05:49
But one thing that concernsنگرانی ها me
is its potentialپتانسیل for misuseسوء استفاده.
117
337956
3111
چیزی که باعث نگرانی من می‌شود
احتمال سوء‌استفاده است.
05:53
People have been thinkingفكر كردن
about this problemمسئله for a long time,
118
341958
2971
ما شاهد نمونه‌های متعددی
در طول زمان بوده‌ایم،
05:56
sinceاز آنجا که the daysروزها when Photoshopفتوشاپ
first hitاصابت the marketبازار.
119
344953
2381
از همان زمانی که فتوشاپ وارد بازار شد.
05:59
As a researcherپژوهشگر, I'm alsoهمچنین workingکار کردن
on countermeasureاقدامات مخالف technologyتکنولوژی,
120
347862
3801
من به عنوان محقق به شیوه‌هایی
برای خلق فناوری‌های مقابله‌ای فکر می‌کنم،
06:03
and I'm partبخشی of an ongoingدر دست اقدام
effortتلاش at AIAI Foundationپایه,
121
351687
2942
و از سوی دیگر جزئی از
بنیاد هوش مصنوعی هستم،
06:06
whichکه usesاستفاده می کند a combinationترکیبی
of machineدستگاه learningیادگیری and humanانسان moderatorsمدیران انجمن
122
354653
3397
که با استفاده از یادگیری ماشین
و اپراتورهایی که انسان هستند
06:10
to detectتشخیص fakeجعلی imagesتصاویر and videosفیلم های,
123
358074
2144
ویدئوها و تصاویر ساختگی را تشخیص داده،
06:12
fightingدعوا کردن againstدر برابر my ownخودت work.
124
360242
1514
به نوعی با کار خود من مقابله می‌کند.
06:14
And one of the toolsابزار we planطرح to releaseرهایی
is calledبه نام Realityواقعیت Defenderمدافع,
125
362675
3190
یکی از ابزارهایی که طراحی کرده‌ایم
«محافظ واقعیت» نام دارد،
06:17
whichکه is a web-browserمرورگر وب plug-inپلاگین
that can flagپرچم potentiallyبالقوه fakeجعلی contentمحتوا
126
365889
4039
که بر روی مرورگر نصب شده و می‌تواند
محتوای ساختگی احتمالی را نشان بدهد
06:21
automaticallyبطور خودکار, right in the browserمرورگر.
127
369952
2533
خودکار و درست روی مرورگر.
06:24
(Applauseتشویق و تمجید)
128
372509
4228
(تشویق)
06:28
Despiteبا وجود all this, thoughگرچه,
129
376761
1453
با تمام این تلاش‌ها،
06:30
fakeجعلی videosفیلم های could do a lot of damageخسارت,
130
378238
1840
باز هم ویدئوهای ساختگی می‌توانند،
06:32
even before anyoneهر کسی has a chanceشانس to verifyتأیید,
131
380102
3294
خرابی‌های بسیاری را
پیش از تشخیص به بار بیاورند،
06:35
so it's very importantمهم
that we make everyoneهر کس awareمطلع
132
383420
2722
می‌بینید که آگاه کردن کاربران
بسیار مهم است
06:38
of what's currentlyدر حال حاضر possibleامکان پذیر است
133
386166
2007
از اتفاقی که می‌تواند بیفتد
06:40
so we can have the right assumptionفرض
and be criticalبحرانی about what we see.
134
388197
3369
پس با آگاهی است که می‌توانیم
درست تشخیص داده و با دقت ببینیم.
06:44
There's still a long way to go before
we can fullyبه طور کامل modelمدل individualفردی people
135
392423
5007
برای طراحی مدل‌های انسانی
هنوز راهی طولانی در پیش داریم
06:49
and before we can ensureاطمینان حاصل کنید
the safetyایمنی of this technologyتکنولوژی.
136
397454
2786
پیش از آن می‌توانیم در مورد
امنیت این روش به نتیجه برسیم.
06:53
But I'm excitedبرانگیخته and hopefulامیدوارم,
137
401097
1587
اما من مشتاق و امیدوار هستم،
06:54
because if we use it right and carefullyبا دقت,
138
402708
3539
چون اگر از این ابزار
درست و با دقت استفاده کنیم،
06:58
this toolابزار can allowاجازه دادن any individual'sاشخاص حقیقی
positiveمثبت impactتأثیر on the worldجهان
139
406271
4309
می‌تواند به هر فردی اجازه بدهد
که تأثیر مثبتی روی جهان بگذارد
07:02
to be massivelyبه شدت scaledمقیاس پذیر
140
410604
2190
و در همه جای جهان دیده شود
07:04
and really help shapeشکل our futureآینده
the way we want it to be.
141
412818
2742
و آینده ما را به آن شکلی
که انتظار داریم شکل بدهد.
07:07
Thank you.
142
415584
1151
متشکرم.
07:08
(Applauseتشویق و تمجید)
143
416759
5090
(تشویق)
Translated by Mim Amidi
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com