ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com
TED2018

Supasorn Suwajanakorn: Fake videos of real people -- and how to spot them

Supasorn Suwajanakorn: Fałszywe nagrania prawdziwych osób - jak je wychwycić

Filmed:
1,453,308 views

Wydaje ci się, że potrafisz wychwycić fałszywe nagrania, w których znani ludzie mówią rzeczy, jakich nigdy nie powiedzieli? W tej zadziwiającej prelekcji, a zarazem pokazie technicznym, możesz zobaczyć, jak one powstają. Informatyk Supasorn Suwajanakorn pokazuje, jak za pomocą sztucznej inteligencji oraz modelowania 3D stworzył fotorealistyczne sztuczne nagrania osób zsynchronizowane z dźwiękiem. Dowiedz się więcej o etycznych konsekwencjach i kreatywnych możliwościach tej technologii oraz jakie kroki są podejmowane w walce z jej nadużyciem.
- Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos. Full bio

Double-click the English transcript below to play the video.

00:12
Look at these imagesobrazy.
0
876
1151
Spójrzcie na te obrazy.
00:14
Now, tell me whichktóry ObamaObama here is realreal.
1
2051
2635
Zgadnijcie, który Obama jest prawdziwy.
00:16
(VideoWideo) BarackBarack ObamaObama: To help familiesrodziny
refinanceRefinansowanie theirich homesdomy,
2
4710
2861
(Nagranie) Barack Obama: Żeby pomóc
rodzinom spłacić hipotekę,
00:19
to investinwestować in things
like high-techwysoka technologia manufacturingprodukcja,
3
7595
2647
zainwestować w produkcję
nowoczesnych urządzeń,
czystą energię
00:22
cleanczysty energyenergia
4
10266
1159
oraz infrastrukturę,
która tworzy nowe miejsca pracy.
00:23
and the infrastructureinfrastruktura
that createstworzy good newNowy jobsOferty pracy.
5
11449
2779
Supasorn Suwajanakorn: Kto wie?
00:26
SupasornSupasorn SuwajanakornSuwajanakorn (Kaszmir): AnyoneKtoś?
6
14647
1484
00:28
The answerodpowiedź is noneŻaden of them.
7
16155
1874
Odpowiedź brzmi: Żaden z nich.
(Śmiech)
00:30
(LaughterŚmiech)
8
18053
1114
00:31
NoneBrak of these is actuallytak właściwie realreal.
9
19191
1786
Żaden z nich nie jest prawdziwy.
Pozwólcie, że powiem, jak to powstało.
00:33
So let me tell you how we got here.
10
21001
1840
00:35
My inspirationInspiracja for this work
11
23940
1578
Moją inspiracją był projekt,
który miał na celu
00:37
was a projectprojekt meantOznaczało to preservezachować our last
chanceszansa for learninguczenie się about the HolocaustHolokaust
12
25542
5411
zachować ostatnią szansę
na zdobycie informacji o Holokauście
od ocalałych osób.
00:42
from the survivorsktórzy przeżyli.
13
30977
1768
00:44
It's callednazywa NewNowy DimensionsWymiary in TestimonyŚwiadectwo,
14
32769
2627
Projekt nazywa się
"Nowe Wymiary Świadectwa"
i pozwala na interaktywne rozmowy
00:47
and it allowspozwala you to have
interactiveinteraktywny conversationsrozmowy
15
35420
3126
00:50
with a hologramHologram
of a realreal HolocaustHolokaust survivorSurvivor.
16
38570
2556
z hologramem prawdziwych ocalałych osób.
00:53
(VideoWideo) Man: How did you
surviveprzetrwać the HolocaustHolokaust?
17
41793
1966
(Nagranie) Mężczyzna:
Jak przetrwałeś Holokaust?
00:55
(VideoWideo) HologramHologram: How did I surviveprzetrwać?
18
43783
1668
(Nagranie) Hologram: Jak przetrwałem?
00:57
I survivedprzeżył,
19
45912
1807
Wierzę, że przetrwałem
01:00
I believe,
20
48419
1527
01:01
because providenceOpatrzności Bożej watchedoglądaliśmy over me.
21
49970
3023
dzięki opatrzności.
01:05
SSSS: TurnsWłącza out these answersodpowiedzi
were prerecordedwstępnie zarejestrowanej zawartości in a studiostudio.
22
53573
3454
SS: Okazuje się, że te odpowiedzi
zostały wcześniej nagrane w studiu.
01:09
YetJeszcze the effectefekt is astoundingzdumiewający.
23
57051
2452
Jednak efekt jest zdumiewający.
01:11
You feel so connectedpołączony to his storyfabuła
and to him as a personosoba.
24
59527
3619
Można poczuć więź
z tą osobą i jego historią.
01:16
I think there's something specialspecjalny
about humanczłowiek interactioninterakcja
25
64011
3301
Myślę, że jest coś wyjątkowego
w interakcji między ludźmi,
co sprawia, że jest ona głębszym
i bardziej osobistym źródłem nauki
01:19
that makesczyni it much more profoundgłęboki
26
67336
2757
01:22
and personalosobisty
27
70117
2198
niż książki, wykłady czy filmy.
01:24
than what booksksiążki or lecturesWykłady
or movieskino could ever teachnauczać us.
28
72339
3485
01:28
So I saw this and beganrozpoczął się to wondercud,
29
76267
2425
Kiedy to obejrzałem,
zacząłem się zastanawiać,
01:30
can we createStwórz a modelModel
like this for anyonektokolwiek?
30
78716
2810
czy można stworzyć
taki model dla każdej osoby.
01:33
A modelModel that lookswygląda, talksrozmowy
and actsdzieje just like them?
31
81550
2975
Model, który wygląda,
mówi i zachowuje się jak ta osoba.
01:37
So I setzestaw out to see if this could be doneGotowe
32
85573
2007
Zacząłem drążyć temat
i znalazłem nowe rozwiązanie,
01:39
and eventuallyostatecznie cameoprawa ołowiana witrażu up with a newNowy solutionrozwiązanie
33
87604
2310
które pozwala zbudować model osoby,
01:41
that can buildbudować a modelModel of a personosoba
usingza pomocą nothing but these:
34
89938
3220
używając tylko istniejących
zdjęć i nagrań wideo tej osoby.
01:45
existingistniejący photoszdjęcia and videosfilmy wideo of a personosoba.
35
93747
2214
01:48
If you can leveragewpływ
this kinduprzejmy of passivebierny informationInformacja,
36
96701
2617
Jeśli można pozyskać
tego typu pasywne informacje,
zdjęcia i nagrania, które są dostępne,
01:51
just photoszdjęcia and videowideo that are out there,
37
99342
2007
to mamy klucz
do zeskalowania każdej osoby.
01:53
that's the keyklawisz to scalingułuskowienie to anyonektokolwiek.
38
101373
2056
01:56
By the way, here'soto jest RichardRichard FeynmanFeynman,
39
104119
1777
Oto Richard Feynman,
który nie tylko jest noblistą
w dziedzinie fizyki,
01:57
who in additiondodanie to beingistota
a NobelLaureat Nagrody Nobla PrizeNagrody winnerzwycięzca in physicsfizyka
40
105920
3413
ale także legendarnym nauczycielem.
02:01
was alsorównież knownznany as a legendarylegendarny teachernauczyciel.
41
109357
2453
02:05
Wouldn'tNie it be great
if we could bringprzynieść him back
42
113080
2198
Czy nie byłoby wspaniale przywrócić go,
02:07
to give his lecturesWykłady
and inspireinspirować millionsmiliony of kidsdzieciaki,
43
115302
3265
żeby mógł inspirować
swoimi wykładami miliony dzieci,
02:10
perhapsmoże not just in EnglishAngielski
but in any languagejęzyk?
44
118591
2992
być może nie tylko po angielsku,
ale w jakimkolwiek języku?
02:14
Or if you could askzapytać our grandparentsdziadkowie
for adviceRada and hearsłyszeć those comfortingpocieszając wordssłowa
45
122441
4602
Lub zapytać naszych dziadków o radę
i posłuchać ich pocieszających słów,
nawet jeśli nie ma ich już z nami?
02:19
even if they're no longerdłużej with us?
46
127067
1770
02:21
Or maybe usingza pomocą this toolnarzędzie,
bookksiążka authorsautorski, aliveżywy or not,
47
129683
3396
A może posłuchać,
jak autorzy książek, żyjący lub nie,
czytają swoje dzieła
zainteresowanym osobom?
02:25
could readczytać aloudna głos all of theirich booksksiążki
for anyonektokolwiek interestedzainteresowany.
48
133103
2937
02:29
The creativetwórczy possibilitiesmożliwości
here are endlessnieskończony,
49
137199
2437
Możliwości są nieskończone
i według mnie to jest fascynujące.
02:31
and to me, that's very excitingekscytujący.
50
139660
1713
02:34
And here'soto jest how it's workingpracujący so fardaleko.
51
142595
2002
Oto jak to działa na tę chwilę.
Na początku stosujemy nową technikę,
02:36
First, we introduceprzedstawiać a newNowy techniquetechnika
52
144621
1667
która potrafi zrekonstruować ze zdjęcia
szczegółowy model twarzy 3D,
02:38
that can reconstructRekonstrukcja a high-detailedWysoka szczegóło-
3D facetwarz modelModel from any imageobraz
53
146312
4572
02:42
withoutbez ever 3D-scanningD-skanowanie the personosoba.
54
150908
2119
nawet bez skanowania tej osoby w 3D.
02:45
And here'soto jest the samepodobnie outputwydajność modelModel
from differentróżne viewswidoki.
55
153890
2642
Tak model wygląda z różnych stron.
Działa to także w nagraniach wideo
02:49
This alsorównież worksPrace on videosfilmy wideo,
56
157969
1502
02:51
by runningbieganie the samepodobnie algorithmalgorytm
on eachkażdy videowideo framerama
57
159495
2852
poprzez używanie takiego samego
algorytmu w każdej klatce filmu,
02:54
and generatinggenerowanie a movingw ruchu 3D modelModel.
58
162371
2222
co generuje ruchomy model 3D.
02:57
And here'soto jest the samepodobnie
outputwydajność modelModel from differentróżne angleskąty.
59
165538
2772
Tak model wygląda pod różnymi kątami.
03:01
It turnsskręca out this problemproblem
is very challengingtrudne,
60
169933
2534
Okazuje się, że to zadanie
jest bardzo wymagające,
03:04
but the keyklawisz tricksztuczka
is that we are going to analyzeanalizować
61
172491
2525
ale sztuczka polega na uprzedniej analizie
03:07
a largeduży photozdjęcie collectionkolekcja
of the personosoba beforehanduprzednio.
62
175040
2966
dużej kolekcji zdjęć takiej osoby.
03:10
For GeorgeGeorge W. BushBush,
we can just searchszukanie on GoogleGoogle,
63
178650
2539
Zdjęcia George'a W. Busha
możemy wyszukać w Google,
03:14
and from that, we are ablezdolny
to buildbudować an averageśredni modelModel,
64
182309
2499
następnie zbudować przeciętny model,
03:16
an iterativeiteracyjne, refinedrafinowany modelModel
to recoverwyzdrowieć the expressionwyrażenie
65
184832
3111
interaktywny, udoskonalony,
żeby odbudować dokładny wyraz twarzy
03:19
in fine detailsdetale,
like creaseszagniecenia and wrinkleszmarszczki.
66
187967
2336
z załamami skóry i zmarszczkami.
03:23
What's fascinatingfascynujący about this
67
191326
1403
Fascynujące jest to,
03:24
is that the photozdjęcie collectionkolekcja
can come from your typicaltypowy photoszdjęcia.
68
192753
3423
że taką kolekcję można
przygotować ze zwykłych zdjęć.
03:28
It doesn't really mattermateria
what expressionwyrażenie you're makingzrobienie
69
196200
2603
Nie ma znaczenia, jaką robimy minę
i gdzie te zdjęcia były zrobione.
03:30
or where you tookwziął those photoszdjęcia.
70
198827
1885
03:32
What matterssprawy is
that there are a lot of them.
71
200736
2400
Ważne tylko, żeby było ich dużo.
03:35
And we are still missingbrakujący colorkolor here,
72
203160
1736
Nadal brakuje nam koloru,
03:36
so nextNastępny, we developrozwijać
a newNowy blendingmieszanie techniquetechnika
73
204920
2348
więc tworzymy nową technikę mieszania,
03:39
that improvespoprawia się uponna
a singlepojedynczy averagingśrednio methodmetoda
74
207292
2836
która jest lepsza od zwykłej
metody uśredniania
03:42
and producesprodukuje sharpostry
facialwytryski na twarz texturestekstury and colorszabarwienie.
75
210152
2818
i tworzy wyostrzoną
teksturę twarzy i kolory.
03:45
And this can be doneGotowe for any expressionwyrażenie.
76
213779
2771
Można tak zrobić z każdą mimiką.
03:49
Now we have a controlkontrola
of a modelModel of a personosoba,
77
217485
2499
Mamy kontrolę nad modelem osoby
dzięki sekwencji statycznych obrazów.
03:52
and the way it's controlledkontrolowane now
is by a sequencesekwencja of staticstatyczne photoszdjęcia.
78
220008
3795
03:55
NoticePowiadomienia how the wrinkleszmarszczki come and go,
dependingw zależności on the expressionwyrażenie.
79
223827
3126
Zobaczcie, jak zmarszczki pojawiają się
i znikają, zależnie od miny.
04:00
We can alsorównież use a videowideo
to drivenapęd the modelModel.
80
228109
2746
Możemy też użyć nagrania wideo
do stworzenia modelu.
04:02
(VideoWideo) DanielDaniel CraigCraig: Right, but somehowjakoś,
81
230879
2593
(Nagranie) Daniel Craig:
Dobrze, ale jakoś udało nam się
04:05
we'vemamy managedzarządzane to attractpociągać
some more amazingniesamowity people.
82
233496
3771
przyciągnąć więcej wspaniałych osób.
04:10
SSSS: And here'soto jest anotherinne funzabawa demodemo.
83
238021
1642
SS: To kolejne zabawne demo.
04:11
So what you see here
are controllablekontrolowane modelsmodele
84
239687
2246
Widać tu kontrolowane modele osób,
04:13
of people I builtwybudowany
from theirich internetInternet photoszdjęcia.
85
241957
2444
które stworzyłem ze zdjęć z Internetu.
04:16
Now, if you transfertransfer
the motionruch from the inputwkład videowideo,
86
244425
2904
Jeśli przeniesiemy ruch
z wejściowego nagrania,
możemy pokierować całą grupą modeli.
04:19
we can actuallytak właściwie drivenapęd the entireCały partyprzyjęcie.
87
247353
2152
George W. Bush: Ta ustawa
nie przejdzie łatwo,
04:21
GeorgeGeorge W. BushBush:
It's a difficulttrudny billrachunek to passprzechodzić,
88
249529
2172
04:23
because there's a lot of movingw ruchu partsCzęści,
89
251725
2303
bo wiele się zmienia w tej kwestii,
04:26
and the legislativelegislacyjnych processesprocesy can be uglybrzydki.
90
254052
5231
i proces legislacyjny może być okropny.
04:31
(ApplauseAplauz)
91
259307
1630
(Brawa)
04:32
SSSS: So comingprzyjście back a little bitkawałek,
92
260961
1837
SS: Wracając do poprzedniej kwestii,
04:34
our ultimateostateczny goalcel, ratherraczej,
is to capturezdobyć theirich mannerismsmaniery
93
262822
3191
naszym najważniejszym celem
jest uchwycenie grymasu twarzy
04:38
or the uniquewyjątkowy way eachkażdy
of these people talksrozmowy and smilesuśmiecha się.
94
266037
3045
lub typowego dla danej osoby
sposobu mówienia i uśmiechania się.
04:41
So to do that, can we
actuallytak właściwie teachnauczać the computerkomputer
95
269106
2313
Czy możemy nauczyć komputer
04:43
to imitatenaśladować the way someonektoś talksrozmowy
96
271443
2222
imitować sposób, w jaki ktoś mówi,
04:45
by only showingseans it
videowideo footagenagranie of the personosoba?
97
273689
2420
wykorzystując tylko zdjęcia
lub nagrania takiej osoby?
04:48
And what I did exactlydokładnie was,
I let a computerkomputer watch
98
276898
2577
Pokazałem komputerowi 14 godzin
przemówień Baracka Obamy.
04:51
14 hoursgodziny of pureczysty BarackBarack ObamaObama
givingdający addressesadresy.
99
279499
3277
04:55
And here'soto jest what we can produceprodukować
givendany only his audioaudio.
100
283443
3516
Oto co uzyskałem,
tylko dzięki nagraniom audio.
04:58
(VideoWideo) BOBO: The resultswyniki are clearjasny.
101
286983
1777
(Nagranie) BO: Rezultaty są jasne.
05:00
America'sAmerica's businessesbiznes have createdstworzony
14.5 millionmilion newNowy jobsOferty pracy
102
288784
4349
Przedsiębiorstwa amerykańskie
stworzyły 14,5 miliona miejsc pracy
05:05
over 75 straightproste monthsmiesiące.
103
293157
2774
w ciągu 75 miesięcy.
05:07
SSSS: So what's beingistota synthesizedzsyntetyzowany here
is only the mouthusta regionregion,
104
295955
2905
SS: Syntetyzowany jest sam ruch ust.
05:10
and here'soto jest how we do it.
105
298884
1540
Oto jak to robimy.
05:12
Our pipelinerurociąg usesużywa a neuralnerwowy networksieć
106
300764
1826
Stosujemy sieć neuronową
05:14
to convertkonwertować and inputwkład audioaudio
into these mouthusta pointszwrotnica.
107
302614
2936
do przetworzenia dźwięków
i dopasowania ich do punktów na ustach.
05:18
(VideoWideo) BOBO: We get it throughprzez our jobpraca
or throughprzez MedicareMedicare or MedicaidMedicaid.
108
306547
4225
(Nagranie) BO: To jest możliwe dzięki
naszej pracy albo Medicare lub Medicaid.
05:22
SSSS: Then we synthesizesyntezować the texturetekstura,
enhancewzmacniać detailsdetale and teethzęby,
109
310796
3420
SS: Następnie syntetyzujemy teksturę,
wyostrzamy detale i zęby
05:26
and blendmieszanka it into the headgłowa
and backgroundtło from a sourceźródło videowideo.
110
314240
3074
i dopasowujemy do głowy i tła w nagraniu.
(Nagranie) BO: Kobiety mogą mieć
darmowe badania kontrolne.
05:29
(VideoWideo) BOBO: WomenKobiety can get freewolny checkupsbadania lekarskie,
111
317338
1905
05:31
and you can't get chargednaładowany more
just for beingistota a womankobieta.
112
319267
2968
Nie można płacić więcej,
tylko dlatego, że jest się kobietą.
05:34
YoungMłodzi people can stayzostać
on a parent'sdla rodziców planplan untilaż do they turnskręcać 26.
113
322973
3306
Młode osoby mogą być objęte
ubezpieczeniem rodziców do 26 roku życia.
05:39
SSSS: I think these resultswyniki
seemwydać się very realisticrealistyczne and intriguingintrygancki,
114
327267
2952
SS: Uważam, że efekt końcowy
jest bardzo realistyczny i ciekawy,
05:42
but at the samepodobnie time
frighteningprzerażający, even to me.
115
330243
3173
ale także przerażający, nawet dla mnie.
05:45
Our goalcel was to buildbudować an accuratedokładny modelModel
of a personosoba, not to misrepresentsymulowanie them.
116
333440
4015
Naszym celem było stworzenie
dokładnego modelu osoby,
a nie jej fałszywego obrazu.
05:49
But one thing that concernsobawy me
is its potentialpotencjał for misuseniewłaściwe użycie.
117
337956
3111
Martwi mnie możliwość
nadużycia tej metody.
05:53
People have been thinkingmyślący
about this problemproblem for a long time,
118
341958
2971
Ludzie myślą o tym problemie już od dawna,
od kiedy Photoshop wszedł na rynek.
05:56
sinceod the daysdni when PhotoshopPhotoshop
first hittrafienie the marketrynek.
119
344953
2381
05:59
As a researchernaukowiec, I'm alsorównież workingpracujący
on countermeasureśrodkiem zaradczym technologytechnologia,
120
347862
3801
Jako naukowiec pracuję też
nad środkami zaradczymi
06:03
and I'm partczęść of an ongoingtrwający
effortwysiłek at AIAI FoundationFundacja,
121
351687
2942
i współpracuję z Fundacją
Sztucznej Inteligencji,
06:06
whichktóry usesużywa a combinationpołączenie
of machinemaszyna learninguczenie się and humanczłowiek moderatorsModeratorów
122
354653
3397
która wykorzystuje uczenie maszynowe
oraz ludzkich moderatorów
06:10
to detectwykryć fakeimitacja imagesobrazy and videosfilmy wideo,
123
358074
2144
do wykrywania fałszywych zdjęć i filmów,
walcząc z tym, nad czym pracuję.
06:12
fightingwalczący againstprzeciwko my ownwłasny work.
124
360242
1514
Jedno z narzędzi, które chcemy
wypuścić na rynek to "Reality Defender",
06:14
And one of the toolsprzybory we planplan to releasewydanie
is callednazywa RealityRzeczywistość DefenderDefender,
125
362675
3190
06:17
whichktóry is a web-browserPrzeglądarka internetowa plug-indodatek typu plug-in
that can flagFlaga potentiallypotencjalnie fakeimitacja contentzadowolony
126
365889
4039
czyli wtyczka w przeglądarce internetowej,
która automatycznie może wyłapać
potencjalnie fałszywe treści.
06:21
automaticallyautomatycznie, right in the browserPrzeglądarka.
127
369952
2533
06:24
(ApplauseAplauz)
128
372509
4228
(Brawa)
06:28
DespitePomimo all this, thoughchociaż,
129
376761
1453
Mimo to, fałszywe nagrania
06:30
fakeimitacja videosfilmy wideo could do a lot of damageuszkodzić,
130
378238
1840
mogą wyrządzić dużo szkody,
06:32
even before anyonektokolwiek has a chanceszansa to verifyzweryfikować,
131
380102
3294
nawet zanim ktoś zdąży je zweryfikować.
06:35
so it's very importantważny
that we make everyonekażdy awareświadomy
132
383420
2722
Ważne, żebyśmy wszystkim uświadomili,
jakie obecnie są możliwości,
06:38
of what's currentlyobecnie possiblemożliwy
133
386166
2007
06:40
so we can have the right assumptionzałożenie
and be criticalkrytyczny about what we see.
134
388197
3369
żebyśmy mogli krytycznie podejść
do tego, co widzimy.
06:44
There's still a long way to go before
we can fullycałkowicie modelModel individualindywidualny people
135
392423
5007
Jeszcze daleka droga do stworzenia
modelu całego człowieka
i do zapewnienia bezpieczeństwa
w stosowaniu tej metody.
06:49
and before we can ensurezapewnić
the safetybezpieczeństwo of this technologytechnologia.
136
397454
2786
06:53
But I'm excitedpodekscytowany and hopefulpełen nadziei,
137
401097
1587
Ale jestem podekscytowany i pełen nadziei,
06:54
because if we use it right and carefullyostrożnie,
138
402708
3539
bo jeśli będziemy odpowiednio
i ostrożnie używać tego narzędzia,
06:58
this toolnarzędzie can allowdopuszczać any individual'sosoby
positivepozytywny impactwpływ on the worldświat
139
406271
4309
może ono pozwolić człowiekowi
na ogromną skalę wpływać na świat
07:02
to be massivelymasowo scaledłuskowaty
140
410604
2190
07:04
and really help shapekształt our futureprzyszłość
the way we want it to be.
141
412818
2742
i może pomóc stworzyć przyszłość,
jaką chcielibyśmy mieć.
07:07
Thank you.
142
415584
1151
Dziękuję.
07:08
(ApplauseAplauz)
143
416759
5090
(Brawa)
Translated by Izabela Miskowicz
Reviewed by Barbara Guzik

▲Back to top

ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com