ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com
TED2018

Supasorn Suwajanakorn: Fake videos of real people -- and how to spot them

Supasorn Suwajanakorn: Gerçek insanların sahte videoları ve nasıl anlaşılacakları

Filmed:
1,453,308 views

Ünlülerin aslında hiç söylemedikleri şeyleri söyledikleri görülen sahte videoları fark etmede iyi misiniz? Bu inanılmaz konuşma ve teknoloji demosunda bu videoların nasıl yapıldığını öğrenin. Bilgisayar bilimcisi Supasorn Suwajanakorn, üniversite öğrencisiyken, yapay zekâ ve 3B kullanarak nasıl ilgisiz seslerle eşleştirilen fotorealistik sahte videolar yarattığını anlatıyor. Bu teknolojinin etik sonuçlarını ve sunduğu yaratıcı fırsatları yanı sıra kötüye kullanımını önlemek için atılan adımları keşfe çıkın.
- Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos. Full bio

Double-click the English transcript below to play the video.

00:12
Look at these imagesGörüntüler.
0
876
1151
Bu görsellere bir bakın.
00:14
Now, tell me whichhangi ObamaObama here is realgerçek.
1
2051
2635
Hangi Obama'nın gerçek olduğunu söyleyin.
00:16
(VideoVideo) BarackBarack ObamaObama: To help familiesaileleri
refinanceRefinance theironların homesevler,
2
4710
2861
(Video) Ailelere evlerini
kredilendirmede yardım etmek için,
00:19
to investyatırmak in things
like high-techyüksek teknoloji manufacturingimalat,
3
7595
2647
yeni iş sahaları yaratacak
ileri teknoloji üretimi,
00:22
cleantemiz energyenerji
4
10266
1159
temiz enerji
00:23
and the infrastructurealtyapı
that createsyaratır good newyeni jobsMeslekler.
5
11449
2779
ve yapılandırma gibi
konulara yatırım yapılması için.
00:26
SupasornSupasorn SuwajanakornSuwajanakorn: AnyoneKimse?
6
14647
1484
Suwajanakorn: Anlayan var mı?
00:28
The answerCevap is noneYok of them.
7
16155
1874
Doğru cevap bunların hiçbiri.
00:30
(LaughterKahkaha)
8
18053
1114
(Kahkahalar)
Bunların hiçbiri aslında gerçek değil.
00:31
NoneHiçbiri of these is actuallyaslında realgerçek.
9
19191
1786
00:33
So let me tell you how we got here.
10
21001
1840
Bu aşamaya nasıl geldiğimizi anlatayım.
00:35
My inspirationilham for this work
11
23940
1578
Bu işe esinlenmem
00:37
was a projectproje meantdemek to preservekorumak our last
chanceşans for learningöğrenme about the HolocaustHolokost
12
25542
5411
hayatta kalanlardan
Yahudi Soykırımı'nı öğrenmek için
son şansımız olan bir proje ile başladı.
00:42
from the survivorsHayatta kalanlar.
13
30977
1768
00:44
It's calleddenilen NewYeni DimensionsBoyutlar in TestimonyTanıklık,
14
32769
2627
Adı ''Tanıklıkta Yeni Boyutlar''
00:47
and it allowsverir you to have
interactiveinteraktif conversationskonuşmaları
15
35420
3126
ve soykırımdan sağ kalan
birinin hologramıyla
00:50
with a hologramhologram
of a realgerçek HolocaustHolokost survivorSurvivor.
16
38570
2556
interaktif sohbetler
içine girmenizi sağlıyor.
00:53
(VideoVideo) Man: How did you
survivehayatta kalmak the HolocaustHolokost?
17
41793
1966
(Video) Soykırımdan nasıl sağ kaldınız?
00:55
(VideoVideo) HologramHologram: How did I survivehayatta kalmak?
18
43783
1668
(Video) Hologram: Nasıl sağ kaldım?
00:57
I survivedhayatta,
19
45912
1807
Sağ kaldım,
01:00
I believe,
20
48419
1527
çünkü inanıyorum ki
01:01
because providenceProvidence watchedizledi over me.
21
49970
3023
Tanrı beni korudu.
01:05
SSSS: TurnsDöner out these answerscevaplar
were prerecordedönceden kaydedilmiş in a studiostüdyo.
22
53573
3454
SS: Görünüşe göre yanıtlar
bir stüdyoda önceden kaydedildi.
01:09
YetHenüz the effectEfekt is astoundingşaşırtıcı.
23
57051
2452
Yine de etki inanılmaz.
01:11
You feel so connectedbağlı to his storyÖykü
and to him as a personkişi.
24
59527
3619
Hikâyesine ve ona adeta bağlanıyorsunuz.
01:16
I think there's something specialözel
about humaninsan interactionetkileşim
25
64011
3301
İnsan etkileşimiyle ilgili
öyle özel bir şey var ki
01:19
that makesmarkaları it much more profoundderin
26
67336
2757
bunu çok daha derin
01:22
and personalkişisel
27
70117
2198
ve daha kişisel kılıyor,
01:24
than what bookskitaplar or lecturesdersler
or moviesfilmler could ever teachöğretmek us.
28
72339
3485
hatta kitap, ders ve filmlerin
bize öğretebileceğinden çok daha fazla.
01:28
So I saw this and beganbaşladı to wondermerak etmek,
29
76267
2425
Bunu görünce merak etmeye başladım,
01:30
can we createyaratmak a modelmodel
like this for anyonekimse?
30
78716
2810
herkes için böyle bir model
yaratabilir miyiz?
01:33
A modelmodel that looksgörünüyor, talksgörüşmeler
and actseylemler just like them?
31
81550
2975
Tıpkı onlar gibi görünen, konuşan
ve davranan bir model?
01:37
So I setset out to see if this could be donetamam
32
85573
2007
Bunun anlamak için işe koyuldum
01:39
and eventuallysonunda camegeldi up with a newyeni solutionçözüm
33
87604
2310
ve sonunda bir insanın
modelini yapabilmek için
01:41
that can buildinşa etmek a modelmodel of a personkişi
usingkullanma nothing but these:
34
89938
3220
sadece şunlara ihtiyaç duyacağım
yeni bir çözüm buldum:
01:45
existingmevcut photosfotoğraflar and videosvideolar of a personkişi.
35
93747
2214
kişinin mevcut fotoğrafları ve videoları.
01:48
If you can leverageKaldıraç
this kindtür of passivepasif informationbilgi,
36
96701
2617
Bu tür pasif bir bilgiden,
var olan fotoğraf ve videolardan
faydalanabiliyorsanız
01:51
just photosfotoğraflar and videovideo that are out there,
37
99342
2007
01:53
that's the keyanahtar to scalingölçekleme to anyonekimse.
38
101373
2056
bunu herkese ölçeklendirmenin yolu bu.
01:56
By the way, here'sburada RichardRichard FeynmanFeynman,
39
104119
1777
Bu arada, bu Richard Feynman,
01:57
who in additionilave to beingolmak
a NobelNobel PrizeÖdülü winnerkazanan in physicsfizik
40
105920
3413
fizik alanında Nobel Ödülü
almasının yanı sıra,
02:01
was alsoAyrıca knownbilinen as a legendaryefsanevi teacheröğretmen.
41
109357
2453
efsane bir eğitmen olarak da tanınıyor.
02:05
Wouldn'tOlmaz it be great
if we could bringgetirmek him back
42
113080
2198
Onu geri getirmek,
02:07
to give his lecturesdersler
and inspireilham vermek millionsmilyonlarca of kidsçocuklar,
43
115302
3265
milyonlarac çocuğa ders
ve ilham vermesini sağlamak,
02:10
perhapsbelki not just in Englishİngilizce
but in any languagedil?
44
118591
2992
bunu sadece İngilizce değil,
her dilde yapmak harika olmaz mıydı?
02:14
Or if you could asksormak our grandparentsBüyükanne ve büyükbaba
for advicetavsiye and hearduymak those comfortingrahatlatıcı wordskelimeler
45
122441
4602
Artık bizimle olmasalar da
büyük anne ve babanızdan tavsiye istemek
02:19
even if they're no longeruzun with us?
46
127067
1770
ve onların rahatlatıcı sözlerini duymak?
02:21
Or maybe usingkullanma this toolaraç,
bookkitap authorsyazarlar, alivecanlı or not,
47
129683
3396
Belki de hayatta olsun veya olmasın,
bu aracı kullanarak
02:25
could readokumak aloudyüksek sesle all of theironların bookskitaplar
for anyonekimse interestedilgili.
48
133103
2937
yazarlar kitaplarını ilgilenen
herkes için sesli okuyabilirler.
02:29
The creativeyaratıcı possibilitiesolasılıklar
here are endlesssonsuz,
49
137199
2437
Buradaki yaratıcı fırsatların sonu yok
02:31
and to me, that's very excitingheyecan verici.
50
139660
1713
ve bence bu çok heyecan verici.
02:34
And here'sburada how it's workingçalışma so faruzak.
51
142595
2002
Şimdiye dek nasıl çalıştığına bakalım.
02:36
First, we introducetakdim etmek a newyeni techniqueteknik
52
144621
1667
Önce yeni bir teknik tanıtıyoruz,
02:38
that can reconstructyeniden yapılandırma a high-detailedyüksek detaylı
3D faceyüz modelmodel from any imagegörüntü
53
146312
4572
bu teknik, kişinin 3B taraması olmadan
herhangi bir görselden ileri detaylı
bir 3B yüz modeli oluşturabiliyor.
02:42
withoutolmadan ever 3D-scanningD-tarama the personkişi.
54
150908
2119
02:45
And here'sburada the sameaynı outputçıktı modelmodel
from differentfarklı viewsgörünümler.
55
153890
2642
Bu da farklı açılardan aynı model.
02:49
This alsoAyrıca worksEserleri on videosvideolar,
56
157969
1502
Videolarda da işe yarıyor,
02:51
by runningkoşu the sameaynı algorithmalgoritma
on eachher videovideo frameçerçeve
57
159495
2852
aynı algoritmayı her bir video
karesi için uyguluyorsunuz
02:54
and generatingüretme a movinghareketli 3D modelmodel.
58
162371
2222
ve hareketli bir 3B model yaratıyorsunuz.
02:57
And here'sburada the sameaynı
outputçıktı modelmodel from differentfarklı anglesaçılar.
59
165538
2772
Farklı açılardan aynı yöntemli model.
03:01
It turnsdönüşler out this problemsorun
is very challengingmeydan okuma,
60
169933
2534
Bunun zorlu bir problem olduğunu gördük
03:04
but the keyanahtar trickhile
is that we are going to analyzeçözümlemek
61
172491
2525
ama işin püf noktası,
03:07
a largegeniş photoFotoğraf collectionToplamak
of the personkişi beforehandönceden.
62
175040
2966
kişinin çok sayıdaki fotoğraflarını
önceden analiz etmek.
03:10
For GeorgeGeorge W. BushBush,
we can just searcharama on GoogleGoogle,
63
178650
2539
George W. Bush için
Google'da arama yapmamız yeterli,
03:14
and from that, we are ableyapabilmek
to buildinşa etmek an averageortalama modelmodel,
64
182309
2499
oradaki görsellerle
kırışıklık ve buruşukluklar gibi
03:16
an iterativeyinelemeli, refinedrafine modelmodel
to recoverkurtarmak the expressionifade
65
184832
3111
aynı ifadeyi verecek detaylarla
tekrarlı ve kaliteli
03:19
in fine detailsayrıntılar,
like creaseskırışıklıklar and wrinkleskırışıklıkları.
66
187967
2336
ortalama bir model geliştirebiliyoruz.
03:23
What's fascinatingbüyüleyici about this
67
191326
1403
Burada ilgi çekici olan şey,
03:24
is that the photoFotoğraf collectionToplamak
can come from your typicaltipik photosfotoğraflar.
68
192753
3423
fotoğraflarınızın gündelik,
sıradan fotoğraflar olabilmesi.
03:28
It doesn't really mattermadde
what expressionifade you're makingyapma
69
196200
2603
Yüz ifadenizin nasıl olduğu
veya fotoğrafın çekildiği yer
03:30
or where you tookaldı those photosfotoğraflar.
70
198827
1885
pek de önemli değil.
03:32
What mattershususlar is
that there are a lot of them.
71
200736
2400
Önemli olan şey
çok sayıda fotoğraf olması.
03:35
And we are still missingeksik colorrenk here,
72
203160
1736
Ayrıca renk konusunda eksiğimiz var,
03:36
so nextSonraki, we developgeliştirmek
a newyeni blendingharmanlama techniqueteknik
73
204920
2348
o yüzden yeni bir renk karıştırma
tekniği geliştireceğiz,
03:39
that improvesgeliştirir uponüzerine
a singletek averagingortalama methodyöntem
74
207292
2836
bu da bizim tek bir yöntemle
03:42
and producesüretir sharpkeskin
facialYüz Bakımı texturesdokular and colorsrenkler.
75
210152
2818
keskin yüz hatları ve renklerini
göstermemizi sağlayacak.
03:45
And this can be donetamam for any expressionifade.
76
213779
2771
Bunu her yüz ifadesinde kullanabiliriz.
03:49
Now we have a controlkontrol
of a modelmodel of a personkişi,
77
217485
2499
Artık bir kişinin modelini
kontrol edebiliyoruz
03:52
and the way it's controlledkontrollü now
is by a sequencesıra of staticstatik photosfotoğraflar.
78
220008
3795
ve kontrol, statik fotoğrafların
sıralanmasıyla sağlanıyor.
03:55
NoticeUyarı how the wrinkleskırışıklıkları come and go,
dependingbağlı on the expressionifade.
79
223827
3126
Kırışıklıkların yüz ifadesine göre
nasıl görünüp kaybolduğuna bir bakın.
04:00
We can alsoAyrıca use a videovideo
to drivesürücü the modelmodel.
80
228109
2746
Bu modeli uygulamak için
video da kullanabiliriz.
04:02
(VideoVideo) DanielDaniel CraigCraig: Right, but somehowbir şekilde,
81
230879
2593
(Video) Daniel Craig:
Evet, ancak bir şekilde,
04:05
we'vebiz ettik managedyönetilen to attractçekmek
some more amazingşaşırtıcı people.
82
233496
3771
daha fazla harika insanın
ilgisini çekmeyi başardık.
04:10
SSSS: And here'sburada anotherbir diğeri funeğlence demodemo.
83
238021
1642
SS: Bu da başka bir zevkli demo.
04:11
So what you see here
are controllablekontrol edilebilir modelsmodeller
84
239687
2246
Bu gördükleriniz
kontrol edilebilir modeller,
04:13
of people I builtinşa edilmiş
from theironların internetInternet photosfotoğraflar.
85
241957
2444
insanların internetteki
görsellerinden geliştirdim.
04:16
Now, if you transferaktarma
the motionhareket from the inputgiriş videovideo,
86
244425
2904
Ana videodaki hareketi transfer ederseniz
04:19
we can actuallyaslında drivesürücü the entiretüm partyParti.
87
247353
2152
tüm diğer modellere uygulayabilirsiniz.
04:21
GeorgeGeorge W. BushBush:
It's a difficultzor billfatura to passpas,
88
249529
2172
George W. Bush:
Geçirilmesi zor bir tasarı,
04:23
because there's a lot of movinghareketli partsparçalar,
89
251725
2303
çünkü çok fazla değişken var
04:26
and the legislativeyasama processessüreçler can be uglyçirkin.
90
254052
5231
ve prosedür zorlu bir hâl alabilir.
04:31
(ApplauseAlkış)
91
259307
1630
(Alkışlar)
04:32
SSSS: So cominggelecek back a little bitbit,
92
260961
1837
SS: Biraz geriye gidersek
04:34
our ultimatenihai goalhedef, ratherdaha doğrusu,
is to captureele geçirmek theironların mannerismstavırları
93
262822
3191
nihai amacımız kişinin
kendine özgü hâlini yakalamak
04:38
or the uniquebenzersiz way eachher
of these people talksgörüşmeler and smilesgülümsüyor.
94
266037
3045
veya bu insanların kendine özgü
konuşma ve gülme şekillerini.
04:41
So to do that, can we
actuallyaslında teachöğretmek the computerbilgisayar
95
269106
2313
Bunu yapabilmek için
bilgisayara sadece o kişinin
video kaydını göstererek
04:43
to imitatetaklit etmek the way someonebirisi talksgörüşmeler
96
271443
2222
04:45
by only showinggösterme it
videovideo footagekamera görüntüsü of the personkişi?
97
273689
2420
kişinin konuşma şeklini
taklit etmesini öğretiyoruz.
04:48
And what I did exactlykesinlikle was,
I let a computerbilgisayar watch
98
276898
2577
Benim tam olarak yaptığım şey,
04:51
14 hourssaatler of puresaf BarackBarack ObamaObama
givingvererek addressesadresler.
99
279499
3277
Obama'nın hitap videolarını
14 saat boyunca bilgisayara izletmek.
04:55
And here'sburada what we can produceüretmek
givenverilmiş only his audioses.
100
283443
3516
İşte sadece sesini kullanarak
ortaya çıkarabileceğimiz.
04:58
(VideoVideo) BOBO: The resultsSonuçlar are clearaçık.
101
286983
1777
(Video) BO: Sonuçlar açık.
05:00
America'sAmerika'nın businessesişletmeler have createdoluşturulan
14.5 millionmilyon newyeni jobsMeslekler
102
288784
4349
Amerikan işletmeleri tam 75 ay boyunca
05:05
over 75 straightDüz monthsay.
103
293157
2774
14,5 milyon yeni iş kapısı açtı.
05:07
SSSS: So what's beingolmak synthesizedsentezlenen here
is only the mouthağız regionbölge,
104
295955
2905
SS: Burada sentezlenen sadece ağız bölgesi
05:10
and here'sburada how we do it.
105
298884
1540
ve işte nasıl yaptığımız.
05:12
Our pipelineboru hattı useskullanımları a neuralsinirsel network
106
300764
1826
Düzeneğimiz sinirsel bir ağ kullanıyor,
05:14
to convertdönüştürmek and inputgiriş audioses
into these mouthağız pointsmakas.
107
302614
2936
bu ağız bölgelerine ses bilgisini
dönüştürerek yerleştiriyor.
05:18
(VideoVideo) BOBO: We get it throughvasitasiyla our job
or throughvasitasiyla MedicareMedicare or MedicaidMedicaid.
108
306547
4225
(Video) BO: Bunu işimizle
veya Medicare sayesinde yapıyoruz.
05:22
SSSS: Then we synthesizesentezlemek the texturedoku,
enhanceartırmak detailsayrıntılar and teethdiş,
109
310796
3420
SS: Sonra bu bileşeni sentezleyerek
detaylar ve dişler üzerinde çalışıyoruz
05:26
and blendkarışım it into the headkafa
and backgroundarka fon from a sourcekaynak videovideo.
110
314240
3074
ve kaynak videodaki baş
ve arka plan üzerine yerleştiriyoruz.
05:29
(VideoVideo) BOBO: WomenKadınlar can get freeücretsiz checkupskontrolleri,
111
317338
1905
(Video) BO: Kadınlar ücretsiz
checkup yaptırabilir
05:31
and you can't get chargedyüklü more
just for beingolmak a womankadın.
112
319267
2968
ve sadece kadın olduğunuz için
daha fazla ücret alınamaz.
05:34
YoungGenç people can staykalmak
on a parent'sebeveynin planplan untila kadar they turndönüş 26.
113
322973
3306
Gençler 26 yaşına kadar
ebeveynin sigortasından faydalanabilir.
05:39
SSSS: I think these resultsSonuçlar
seemgörünmek very realisticgerçekçi and intriguingilgi çekici,
114
327267
2952
SS: Bence sonuçlar oldukça
gerçekçi ve merak uyandırıcı
05:42
but at the sameaynı time
frighteningkorkutucu, even to me.
115
330243
3173
ama aynı zamanda
benim için bile korkutucu.
05:45
Our goalhedef was to buildinşa etmek an accuratedoğru modelmodel
of a personkişi, not to misrepresentyanlış them.
116
333440
4015
Amacımız bir kişinin tam doğru modelini
oluşturmak, onu yanlış göstermek değil.
05:49
But one thing that concernsendişeler me
is its potentialpotansiyel for misuseyanlış kullanım.
117
337956
3111
Ancak bunun potansiyel
kötüye kullanımı beni endişelendiriyor.
05:53
People have been thinkingdüşünme
about this problemsorun for a long time,
118
341958
2971
İnsanlar bu soruna
uzun zamandır kafa yoruyorlar,
05:56
sincedan beri the daysgünler when PhotoshopPhotoshop
first hitvurmak the marketpazar.
119
344953
2381
Photoshop pazarlara ilk girdiğinden beri.
05:59
As a researcheraraştırmacı, I'm alsoAyrıca workingçalışma
on countermeasurekarşı önlem technologyteknoloji,
120
347862
3801
Bir araştırmacı olarak karşıt teknoloji
üzerinde de çalışıyorum
06:03
and I'm partBölüm of an ongoingdevam eden
effortçaba at AIAI FoundationVakfı,
121
351687
2942
ve bir yapay zekâ vakfında
devam eden bir projede görevliyim,
06:06
whichhangi useskullanımları a combinationkombinasyon
of machinemakine learningöğrenme and humaninsan moderatorsModeratörler
122
354653
3397
proje, sahte görsel
ve videoları tespit etmek için
makine öğrenimi ve insan moderatör
kombinasyonundan faydalanıyor,
06:10
to detectbelirlemek fakesahte imagesGörüntüler and videosvideolar,
123
358074
2144
06:12
fightingkavga againstkarşısında my ownkendi work.
124
360242
1514
yani kendi işime karşı savaşıyorum.
06:14
And one of the toolsaraçlar we planplan to releaseserbest bırakmak
is calleddenilen RealityGerçeklik DefenderDefans,
125
362675
3190
Piyasaya sürmek istediğimiz
araçlardan biri ''Gerçeklik Savunucusu''
06:17
whichhangi is a web-browserörümcek ağı-kaş plug-ineklenti
that can flagbayrak potentiallypotansiyel fakesahte contentiçerik
126
365889
4039
muhtemel sahte içeriği tarayıcıdayken
otomatik olarak işaretleyen
06:21
automaticallyotomatik olarak, right in the browserTarayıcı.
127
369952
2533
bir tarayıcı eklentisi.
06:24
(ApplauseAlkış)
128
372509
4228
(Alkışlar)
06:28
DespiteRağmen all this, thoughgerçi,
129
376761
1453
Yine de tüm bunlara rağmen,
06:30
fakesahte videosvideolar could do a lot of damagehasar,
130
378238
1840
henüz biri sahte olduğunu doğrulama
şansı elde edemeden
06:32
even before anyonekimse has a chanceşans to verifyDOĞRULAYIN,
131
380102
3294
sahte videolar büyük zarara yol açabilir.
06:35
so it's very importantönemli
that we make everyoneherkes awarefarkında
132
383420
2722
O yüzden şu an mümkün olan teknolojinin
06:38
of what's currentlyşu anda possiblemümkün
133
386166
2007
herkesin farkında olması oldukça önemli,
06:40
so we can have the right assumptionvarsayım
and be criticalkritik about what we see.
134
388197
3369
böylece gördüğümüz şeyler hakkında
doğru varsayımlarda bulunabiliriz.
06:44
There's still a long way to go before
we can fullytamamen modelmodel individualbireysel people
135
392423
5007
Bireylerin tam modelini çıkarmak
ve bunun güvenliğinden emin olmak için
06:49
and before we can ensuresağlamak
the safetyemniyet of this technologyteknoloji.
136
397454
2786
önümüzde hâlâ uzun bir yol var.
06:53
But I'm excitedheyecanlı and hopefulumutlu,
137
401097
1587
Ama heyecan ve umut doluyum
06:54
because if we use it right and carefullydikkatlice,
138
402708
3539
çünkü bunu doğru ve dikkatli kullanırsak
06:58
this toolaraç can allowizin vermek any individual'sbireyin
positivepozitif impactdarbe on the worldDünya
139
406271
4309
bu araç herkesin dünyaya
yaptığı pozitif etkiyi
07:02
to be massivelyağır scaledpullu
140
410604
2190
büyük çapta ölçeklendirerek
07:04
and really help shapeşekil our futuregelecek
the way we want it to be.
141
412818
2742
istediğimiz geleceğe
yön vermemize yardım edecek.
07:07
Thank you.
142
415584
1151
Teşekkürler.
07:08
(ApplauseAlkış)
143
416759
5090
(Alkışlar)
Translated by Cihan Ekmekçi
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com