ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com
TED@BCG Paris

Blaise Agüera y Arcas: How computers are learning to be creative

Blaise Agüera y Arcas: Wie Computer Kreativität lernen

Filmed:
1,934,067 views

Im Bereich der Kunst und der Kreativität steht uns etwas Bahnbrechendes bevor – und es stammt nicht von Menschen. Blaise Agüera y Arcas, leitender Wissenschaftler bei Google, arbeitet mit sogenannten "Deep Neural Networks" für Maschinenwahrnehmung und dezentrales Lernen. In dieser fesselnden Vorführung zeigt er, wie man neuronale Netzwerke, die Bilder erkennen können, so umkehrt, dass sie Bilder erzeugen. Das Ergebnis: Spektakuläre, sinnestäuschende Collagen (und Gedichte!), die kaum einer Kategorie zugeordnet werden können. "Wahrnehmung und Kreativität sind sehr eng miteinander verbunden", sagt Agüera y Arcas. "Jedes Wesen, jedes Geschöpf, das der Wahrnehmung fähig ist, kann auch Dinge erschaffen."
- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

Double-click the English transcript below to play the video.

00:12
So, I leadführen a teamMannschaft at GoogleGoogle
that worksWerke on machineMaschine intelligenceIntelligenz;
0
800
3124
Ich bin Teamleiter bei Google
im Bereich Maschinenintelligenz,
00:15
in other wordsWörter, the engineeringIngenieurwesen disciplineDisziplin
of makingHerstellung computersComputer and devicesGeräte
1
3948
4650
das ist die Ingenieurdisziplin,
mit der man Computern und Geräten
00:20
ablefähig to do some of the things
that brainsGehirne do.
2
8622
2419
etwas von dem beibringen kann,
was Gehirne können.
00:23
And this makesmacht us
interestedinteressiert in realecht brainsGehirne
3
11439
3099
Deshalb interessieren wir uns
auch für echte Gehirne
und Neurowissenschaften,
00:26
and neuroscienceNeurowissenschaften as well,
4
14562
1289
00:27
and especiallyinsbesondere interestedinteressiert
in the things that our brainsGehirne do
5
15875
4172
und besonders für die Dinge,
die unsere Gehirne können,
00:32
that are still farweit superiorüberlegen
to the performancePerformance of computersComputer.
6
20071
4042
die noch weit über die Fähigkeiten
von Computern hinausgehen.
00:37
HistoricallyHistorisch, one of those areasBereiche
has been perceptionWahrnehmung,
7
25209
3609
Ein Teilbereich unserer Arbeit war
schon immer die Wahrnehmung,
00:40
the processverarbeiten by whichwelche things
out there in the worldWelt --
8
28842
3039
also der Vorgang, durch den
die Dinge auf der Welt --
00:43
soundsGeräusche and imagesBilder --
9
31905
1584
Geräusche und Bilder --
00:45
can turnWende into conceptsKonzepte in the mindVerstand.
10
33513
2178
in unserem Kopf zu Konzepten werden.
00:48
This is essentialwesentlich for our ownbesitzen brainsGehirne,
11
36235
2517
Das ist entscheidend für unsere Gehirne
00:50
and it's alsoebenfalls prettyziemlich usefulsinnvoll on a computerComputer.
12
38776
2464
und auch ziemlich nützlich für Computer.
00:53
The machineMaschine perceptionWahrnehmung algorithmsAlgorithmen,
for exampleBeispiel, that our teamMannschaft makesmacht,
13
41636
3350
Unser Team schreibt Algorithmen
für maschinelle Wahrnehmung,
00:57
are what enableaktivieren your picturesBilder
on GoogleGoogle PhotosFotos to becomewerden searchabledurchsucht werden,
14
45010
3874
die etwa ermöglichen, dass
Ihre Bilder auf Google Fotos
basierend auf dem Bildinhalt
gesucht werden können.
01:00
basedbasierend on what's in them.
15
48908
1397
01:03
The flipflip sideSeite of perceptionWahrnehmung is creativityKreativität:
16
51594
3493
Das Gegenstück zur Wahrnehmung
ist die Kreativität,
01:07
turningDrehen a conceptKonzept into something
out there into the worldWelt.
17
55111
3038
also das Schaffen einer Sache
auf Grundlage eines Konzepts.
Letztes Jahr kam zwischen unserer
Arbeit an maschineller Wahrnehmung,
01:10
So over the pastVergangenheit yearJahr,
our work on machineMaschine perceptionWahrnehmung
18
58173
3555
01:13
has alsoebenfalls unexpectedlyunerwartet connectedin Verbindung gebracht
with the worldWelt of machineMaschine creativityKreativität
19
61752
4859
dem Feld der maschinellen Kreativität
sowie der maschinellen Kunst
unerwartet eine Verbindung zustande.
01:18
and machineMaschine artKunst.
20
66635
1160
Ich glaube, Michelangelo hatte
einen scharfen Blick
01:20
I think MichelangeloMichelangelo
had a penetratingdurchdringenden insightEinblick
21
68556
3284
01:23
into to this dualDual relationshipBeziehung
betweenzwischen perceptionWahrnehmung and creativityKreativität.
22
71864
3656
für das duale Verhältnis zwischen
Wahrnehmung und Kreativität.
01:28
This is a famousberühmt quoteZitat of his:
23
76023
2006
Ein berühmtes Zitat von ihm lautet:
01:30
"EveryJedes blockBlock of stoneStein
has a statueStatue insideinnen of it,
24
78053
3323
"Jeder rohe Stein hat eine Figur in sich,
01:34
and the jobJob of the sculptorBildhauer
is to discoverentdecken it."
25
82036
3002
der Bildhauer muss sie nur entdecken."
01:38
So I think that what
MichelangeloMichelangelo was gettingbekommen at
26
86029
3216
Ich glaube, Michelangelo wollte sagen,
01:41
is that we createerstellen by perceivingwahrzunehmen,
27
89269
3180
dass wir durch Wahrnehmung erschaffen.
Die Wahrnehmung ist
ein Akt der Vorstellung,
01:44
and that perceptionWahrnehmung itselfselbst
is an actHandlung of imaginationPhantasie
28
92473
3023
01:47
and is the stuffSachen of creativityKreativität.
29
95520
2461
die Grundlage für Kreativität.
01:50
The organOrgan that does all the thinkingDenken
and perceivingwahrzunehmen and imaginingsich vorzustellen,
30
98691
3925
Das Organ, das all das Denken,
Wahrnehmen und Vorstellen erledigt,
01:54
of courseKurs, is the brainGehirn.
31
102640
1588
ist natürlich das Gehirn.
01:57
And I'd like to beginStart
with a briefkurz bitBit of historyGeschichte
32
105089
2545
Jetzt möchte ich kurz
historisch betrachten,
01:59
about what we know about brainsGehirne.
33
107658
2302
was wir über Gehirne wissen.
Denn anders als über
das Herz oder die Eingeweide
02:02
Because unlikenicht wie, say,
the heartHerz or the intestinesDarm,
34
110496
2446
kann man nur durch Betrachten
nicht viel über Gehirne herausfinden,
02:04
you really can't say very much
about a brainGehirn by just looking at it,
35
112966
3144
02:08
at leastam wenigsten with the nakednackt eyeAuge.
36
116134
1412
zumindest nicht mit bloßem Auge.
02:09
The earlyfrüh anatomistsAnatomen who lookedsah at brainsGehirne
37
117983
2416
Die ersten Anatomen,
die sich Gehirne ansahen,
02:12
gavegab the superficialoberflächlich structuresStrukturen
of this thing all kindsArten of fancifulphantasievolle namesNamen,
38
120423
3807
gaben der oberflächlichen Struktur
eine ganze Reihe fantasievoller Namen,
02:16
like hippocampusHippocampus, meaningBedeutung "little shrimpGarnelen."
39
124254
2433
wie Hippocampus, was
"kleiner Shrimp" bedeutet.
02:18
But of courseKurs that sortSortieren of thing
doesn't tell us very much
40
126711
2764
Doch so etwas verrät uns
natürlich nicht viel darüber,
02:21
about what's actuallytatsächlich going on insideinnen.
41
129499
2318
was im Inneren wirklich vor sich geht.
02:24
The first personPerson who, I think, really
developedentwickelt some kindArt of insightEinblick
42
132780
3613
Die erste Person, die meiner Meinung nach
wirklich eine Art Einblick
02:28
into what was going on in the brainGehirn
43
136417
1930
in die inneren Vorgänge
des Gehirns gewann,
02:30
was the great SpanishSpanisch neuroanatomistNeuroanatom,
SantiagoSantiago RamRAMón y CajalCajal,
44
138371
3920
war der große spanische Neuroanatom
Santiago Ramón y Cajal
02:34
in the 19thth centuryJahrhundert,
45
142315
1544
im 19. Jahrhundert,
02:35
who used microscopyMikroskopie and specialbesondere stainsFlecken
46
143883
3755
der mit Mikroskopie und Spezialfarbe
02:39
that could selectivelyselektiv fillfüllen in
or rendermachen in very highhoch contrastKontrast
47
147662
4170
die einzelnen Gehirnzellen
selektiv ausfüllte
02:43
the individualPerson cellsZellen in the brainGehirn,
48
151856
2008
oder kontrastreich darstellte,
02:45
in orderAuftrag to startAnfang to understandverstehen
theirihr morphologiesMorphologien.
49
153888
3154
um die Morphologie
der Zellen zu verstehen.
Das sind die Zeichnungen,
02:49
And these are the kindsArten of drawingsZeichnungen
that he madegemacht of neuronsNeuronen
50
157972
2891
die er im 19. Jahrhundert
von Neuronen anfertigte.
02:52
in the 19thth centuryJahrhundert.
51
160887
1209
02:54
This is from a birdVogel brainGehirn.
52
162120
1884
Diese zeigt ein Vogelgehirn.
02:56
And you see this incredibleunglaublich varietyVielfalt
of differentanders sortssortiert of cellsZellen,
53
164028
3057
Sie sehen eine unglaubliche
Vielfalt verschiedener Zellarten.
02:59
even the cellularZellular theoryTheorie itselfselbst
was quiteganz newneu at this pointPunkt.
54
167109
3435
Sogar die Zelltheorie selbst
war damals ziemlich neu.
Diese Strukturen,
diese verzweigten Zellen,
03:02
And these structuresStrukturen,
55
170568
1278
03:03
these cellsZellen that have these arborizationsfreilege,
56
171870
2259
03:06
these branchesFilialen that can go
very, very long distancesEntfernungen --
57
174153
2608
diese Äste, die sehr,
sehr weit reichen können --
das war damals völlig neu.
03:08
this was very novelRoman at the time.
58
176785
1616
03:10
They're reminiscenterinnert, of courseKurs, of wiresDrähte.
59
178779
2903
Sie erinnern ganz klar an Kabel.
03:13
That mightMacht have been obviousoffensichtlich
to some people in the 19thth centuryJahrhundert;
60
181706
3457
Das mag für manch einen im 19. Jh.
offensichtlich gewesen sein,
03:17
the revolutionsRevolutionen of wiringVerdrahtung and electricityElektrizität
were just gettingbekommen underwayunterwegs.
61
185187
4314
als gerade die Revolution
der Elektrizität und Verkabelung begann.
03:21
But in manyviele waysWege,
62
189964
1178
Doch in vielerlei Hinsicht
03:23
these microanatomicalmicroanatomical drawingsZeichnungen
of RamRAMón y Cajal'sCajal, like this one,
63
191166
3313
wurden Ramón y Cajals
mikroanatomische Zeichnungen
wie diese hier, nie wirklich übertroffen.
03:26
they're still in some waysWege unsurpassedunübertroffene.
64
194503
2332
03:28
We're still more than a centuryJahrhundert laterspäter,
65
196859
1854
Jetzt, mehr als hundert Jahre später,
03:30
tryingversuchen to finishFertig the jobJob
that RamRAMón y CajalCajal startedhat angefangen.
66
198737
2825
versuchen wir immer noch,
Ramón y Cajals Werk zu vollenden.
03:33
These are rawroh dataDaten from our collaboratorsMitarbeiter
67
201586
3134
Das sind die Rohdaten unserer Mitarbeiter
03:36
at the MaxMax PlanckPlanck InstituteInstitut
of NeuroscienceNeurowissenschaften.
68
204744
2881
am Max-Planck-Institut für Neurobiologie.
03:39
And what our collaboratorsMitarbeiter have doneerledigt
69
207649
1790
Unsere Mitarbeiter bilden also
03:41
is to imageBild little piecesStücke of brainGehirn tissueGewebe.
70
209463
5001
kleine Teile von Gehirngewebe ab.
03:46
The entireganz sampleSample here
is about one cubickubische millimeterMillimeter in sizeGröße,
71
214488
3326
Diese ganze Probe hier misst
ungefähr einen Kubikmillimeter.
03:49
and I'm showingzeigt you a very,
very smallklein pieceStück of it here.
72
217838
2621
Hier zeige ich Ihnen
ein winziges Stück davon.
03:52
That barBar on the left is about one micronMikron.
73
220483
2346
Der Strich links misst circa ein Mikron.
Die Strukturen, die Sie sehen,
sind Mitochondrien,
03:54
The structuresStrukturen you see are mitochondriaMitochondrien
74
222853
2409
03:57
that are the sizeGröße of bacteriaBakterien.
75
225286
2044
die so groß wie Bakterien sind.
Das sind aufeinanderfolgende Schnitte
03:59
And these are consecutivein Folge slicesScheiben
76
227354
1551
04:00
throughdurch this very, very
tinysehr klein blockBlock of tissueGewebe.
77
228929
3148
durch diesen sehr, sehr
dünnen Gewebeblock.
04:04
Just for comparison'sVergleiche sakeSake,
78
232101
2403
Nur zum Vergleich,
04:06
the diameterDurchmesser of an averagedurchschnittlich strandStrang
of hairHaar is about 100 micronsMikron.
79
234528
3792
der Durchmesser einer durchschnittlichen
Haarsträhne beträgt circa 100 Mikronen.
04:10
So we're looking at something
much, much smallerkleiner
80
238344
2274
Wir sehen hier also etwas
noch viel kleineres
04:12
than a singleSingle strandStrang of hairHaar.
81
240642
1398
als eine einzelne Haarsträhne.
04:14
And from these kindsArten of serialserielle
electronElektron microscopyMikroskopie slicesScheiben,
82
242064
4031
Basierend auf den Serien aus
Elektronenmikroskopscheiben
04:18
one can startAnfang to make reconstructionsRekonstruktionen
in 3D of neuronsNeuronen that look like these.
83
246119
5008
kann man 3D-Nachbildungen
von Neuronen wie diese hier erstellen.
Diese haben in etwa den Stil
von Ramón y Cajal.
04:23
So these are sortSortieren of in the samegleich
styleStil as RamRAMón y CajalCajal.
84
251151
3157
Nur ein paar Neutronen leuchten,
04:26
Only a fewwenige neuronsNeuronen litzündete up,
85
254332
1492
04:27
because otherwiseAndernfalls we wouldn'twürde nicht
be ablefähig to see anything here.
86
255848
2781
weil wir hier sonst nichts sehen könnten.
Es wäre so unübersichtlich,
04:30
It would be so crowdedüberfüllt,
87
258653
1312
04:31
so fullvoll of structureStruktur,
88
259989
1330
so überfüllt mit Kabelstrukturen,
04:33
of wiringVerdrahtung all connectingVerbindung
one neuronNeuron to anotherein anderer.
89
261343
2724
die die Neuronen verbinden.
04:37
So RamRAMón y CajalCajal was a little bitBit
aheadvoraus of his time,
90
265293
2804
Ramón y Cajal war seiner Zeit
also etwas voraus.
04:40
and progressFortschritt on understandingVerstehen the brainGehirn
91
268121
2555
Die Fortschritte beim
Verstehen des Gehirns
04:42
proceededging slowlylangsam
over the nextNächster fewwenige decadesJahrzehnte.
92
270700
2271
geschahen in den folgenden
Jahrzehnten nur langsam.
04:45
But we knewwusste that neuronsNeuronen used electricityElektrizität,
93
273455
2853
Aber wir wussten,
dass Neuronen Elektrizität nutzen.
04:48
and by WorldWelt WarKrieg IIII, our technologyTechnologie
was advancedfortgeschritten enoughgenug
94
276332
2936
Im Zweiten Weltkrieg
war unsere Technologie
für elektronische Experimente
an lebenden Neuronen
04:51
to startAnfang doing realecht electricalelektrisch
experimentsExperimente on liveLeben neuronsNeuronen
95
279292
2806
zur Erforschung ihrer
Funktionsweise ausgereift genug.
04:54
to better understandverstehen how they workedhat funktioniert.
96
282122
2106
04:56
This was the very samegleich time
when computersComputer were beingSein inventederfunden,
97
284631
4356
Genau damals wurden auch
Computer erfunden,
05:01
very much basedbasierend on the ideaIdee
of modelingModellieren the brainGehirn --
98
289011
3100
hauptsächlich auf Basis von
Nachbildungen des Gehirns --
05:04
of "intelligentintelligent machineryMaschinen,"
as AlanAlan TuringTuring callednamens it,
99
292135
3085
"intelligente Maschinen",
wie sie Alan Turing nannte,
05:07
one of the fathersVäter of computerComputer scienceWissenschaft.
100
295244
1991
einer der Urväter der Infomatik.
05:09
WarrenWarren McCullochMcCulloch and WalterWalter PittsPitts
lookedsah at RamRAMón y Cajal'sCajal drawingZeichnung
101
297923
4632
Warren McCulloch und Walter Pitts
betrachteten Ramón y Cajals Zeichnung
05:14
of visualvisuell cortexKortex,
102
302579
1317
eines visuellen Cortex,
05:15
whichwelche I'm showingzeigt here.
103
303920
1562
die ich Ihnen hier zeige.
05:17
This is the cortexKortex that processesProzesse
imageryBilder that comeskommt from the eyeAuge.
104
305506
4442
Das ist der Cortex, der Bilder
verarbeitet, die das Auge sieht.
05:22
And for them, this lookedsah
like a circuitSchaltung diagramDiagramm.
105
310424
3508
Sie fanden, dass es
wie ein Schaltplan aussah.
05:26
So there are a lot of detailsDetails
in McCullochMcCulloch and Pitts'sDie Pitts circuitSchaltung diagramDiagramm
106
314353
3835
Im Schaltplan von McCulloch
und Pitts gibt es viele Details,
05:30
that are not quiteganz right.
107
318212
1352
die nicht ganz stimmen.
05:31
But this basicBasic ideaIdee
108
319588
1235
Doch der Grundgedanke,
dass der visuelle Cortex wie eine
Reihe Computerelemente funktioniert,
05:32
that visualvisuell cortexKortex worksWerke like a seriesSerie
of computationalrechnerisch elementsElemente
109
320847
3992
05:36
that passbestehen informationInformation
one to the nextNächster in a cascadeKaskade,
110
324863
2746
die Informationen stufenartig
nacheinander weiterreichen,
05:39
is essentiallyim Wesentlichen correctrichtig.
111
327633
1602
stimmt im Grunde.
Besprechen wir kurz,
05:41
Let's talk for a momentMoment
112
329259
2350
05:43
about what a modelModell- for processingwird bearbeitet
visualvisuell informationInformation would need to do.
113
331633
4032
was ein Modell für die Verarbeitung
visueller Informationen machen müsste.
05:48
The basicBasic taskAufgabe of perceptionWahrnehmung
114
336228
2741
Die Grundaufgabe der Wahrnehmung ist es,
05:50
is to take an imageBild like this one and say,
115
338993
4194
bei einem solchen Bild zu sagen:
05:55
"That's a birdVogel,"
116
343211
1176
"Das ist ein Vogel",
05:56
whichwelche is a very simpleeinfach thing
for us to do with our brainsGehirne.
117
344411
2874
für unsere Gehirne ist das sehr einfach.
05:59
But you should all understandverstehen
that for a computerComputer,
118
347309
3421
Sie müssen aber bedenken,
dass das für einen Computer
06:02
this was prettyziemlich much impossibleunmöglich
just a fewwenige yearsJahre agovor.
119
350754
3087
noch vor ein paar Jahren
völlig unmöglich war.
Für ein klassisches Rechensystem
06:05
The classicalklassische computingComputer paradigmParadigma
120
353865
1916
06:07
is not one in whichwelche
this taskAufgabe is easyeinfach to do.
121
355805
2507
ist das nicht einfach.
06:11
So what's going on betweenzwischen the pixelsPixel,
122
359366
2552
Was zwischen den Pixeln,
06:13
betweenzwischen the imageBild of the birdVogel
and the wordWort "birdVogel,"
123
361942
4028
dem Bild eines Vogels
und dem Wort "Vogel" passiert,
06:17
is essentiallyim Wesentlichen a setSet of neuronsNeuronen
connectedin Verbindung gebracht to eachjede einzelne other
124
365994
2814
ist im Grunde eine Gruppe
miteinander verbundener Neuronen
in einem neuronalen Netzwerk,
06:20
in a neuralneuronale networkNetzwerk,
125
368832
1155
06:22
as I'm diagrammingDiagrammerstellung here.
126
370011
1223
wie in meinem Diagramm.
06:23
This neuralneuronale networkNetzwerk could be biologicalbiologisch,
insideinnen our visualvisuell corticesCortex,
127
371258
3272
Dieses neuronale Netzwerk kann
ein natürliches in unserer Sehrinde sein.
06:26
or, nowadaysheutzutage, we startAnfang
to have the capabilityFähigkeit
128
374554
2162
Heute können wir beginnen,
06:28
to modelModell- sucheine solche neuralneuronale networksNetzwerke
on the computerComputer.
129
376740
2454
solche neuronalen Netzwerke
in Computern nachbauen.
06:31
And I'll showShow you what
that actuallytatsächlich lookssieht aus like.
130
379834
2353
Ich gebe Ihnen eine Vorstellung davon.
06:34
So the pixelsPixel you can think
about as a first layerSchicht of neuronsNeuronen,
131
382211
3416
Die Pixel können Sie sich als
erste Neuronenschicht vorstellen.
06:37
and that's, in factTatsache,
how it worksWerke in the eyeAuge --
132
385651
2239
Genau so funktioniert das
im Prinzip auch im Auge --
06:39
that's the neuronsNeuronen in the retinaRetina.
133
387914
1663
mit den Neuronen in der Netzhaut.
06:41
And those feedFutter forwardVorwärts-
134
389601
1500
Die Neuronen leiten weiter,
06:43
into one layerSchicht after anotherein anderer layerSchicht,
after anotherein anderer layerSchicht of neuronsNeuronen,
135
391125
3403
Schicht für Schicht
durch die Neuronenschichten,
die alle über Synapsen verschiedener
Gewichtung verbunden sind.
06:46
all connectedin Verbindung gebracht by synapsesSynapsen
of differentanders weightsGewichte.
136
394552
3033
06:49
The behaviorVerhalten of this networkNetzwerk
137
397609
1335
Das Verhalten dieses Netzwerks
06:50
is characterizeddadurch gekennzeichnet by the strengthsstärken
of all of those synapsesSynapsen.
138
398968
3284
wird durch die Stärke
all dieser Synapsen bestimmt.
Diese bestimmen die rechnerischen
Eigenschaften des Netzwerks.
06:54
Those characterizezu charakterisieren the computationalrechnerisch
propertiesEigenschaften of this networkNetzwerk.
139
402276
3288
06:57
And at the endEnde of the day,
140
405588
1470
Schlussendlich leuchtet dann ein Neuron
06:59
you have a neuronNeuron
or a smallklein groupGruppe of neuronsNeuronen
141
407082
2447
oder eine kleine Gruppe Neuronen auf
07:01
that lightLicht up, sayingSprichwort, "birdVogel."
142
409553
1647
und sagt "Vogel".
07:03
Now I'm going to representvertreten
those threedrei things --
143
411824
3132
Jetzt werde ich diese drei Dinge --
07:06
the inputEingang pixelsPixel and the synapsesSynapsen
in the neuralneuronale networkNetzwerk,
144
414980
4696
die Pixel als Input, die Synapsen
im neuronalen Netzwerk
07:11
and birdVogel, the outputAusgabe --
145
419700
1585
und den Vogel als Output
07:13
by threedrei variablesVariablen: x, w and y.
146
421309
3057
durch drei Variablen ersetzen: x, w und y.
07:16
There are maybe a millionMillion or so x'sx --
147
424853
1811
Es kann eine Million x geben --
07:18
a millionMillion pixelsPixel in that imageBild.
148
426688
1953
eine Million Pixel in einem Bild.
07:20
There are billionsMilliarden or trillionsBillionen of w'sw es,
149
428665
2446
Es gibt Milliarden oder Billiarden w,
07:23
whichwelche representvertreten the weightsGewichte of all
these synapsesSynapsen in the neuralneuronale networkNetzwerk.
150
431135
3421
die für die Gewichtung der Synapsen
im neuronalen Netzwerk stehen.
07:26
And there's a very smallklein numberNummer of y'sy,
151
434580
1875
Es gibt nur ganz wenige y,
07:28
of outputsAusgänge that that networkNetzwerk has.
152
436479
1858
also Outputs des Netzwerks.
07:30
"BirdVogel" is only fourvier lettersBriefe, right?
153
438361
1749
"Vogel" hat nur fünf Buchstaben.
07:33
So let's pretendso tun als ob that this
is just a simpleeinfach formulaFormel,
154
441088
3426
Dann tun wir doch einfach so,
als sei es nur eine einfache Formel:
07:36
x "x" w = y.
155
444538
2163
x "x" w = y.
Ich setze das "Mal"-Zeichen
in Anführungszeichen,
07:38
I'm puttingPutten the timesmal in scareSchrecken quotesZitate
156
446725
2036
07:40
because what's really
going on there, of courseKurs,
157
448785
2280
denn der eigentliche Vorgang hier
07:43
is a very complicatedkompliziert seriesSerie
of mathematicalmathematisch operationsOperationen.
158
451089
3046
ist eine komplizierte Abfolge
mathematischer Vorgänge.
07:47
That's one equationGleichung.
159
455172
1221
Das ist eine Gleichung.
07:48
There are threedrei variablesVariablen.
160
456417
1672
Es gibt drei Variablen.
Bekanntlich kann man eine Variable
einer Gleichung lösen,
07:50
And we all know
that if you have one equationGleichung,
161
458113
2726
07:52
you can solvelösen one variableVariable
by knowingzu wissen the other two things.
162
460863
3642
wenn man die anderen beiden kennt.
Das Problem mit der Schlussfolgerung,
07:57
So the problemProblem of inferenceInferenz,
163
465158
3380
also das Herausfinden,
dass das Bild einen Vogel zeigt,
08:00
that is, figuringaufstellend out
that the pictureBild of a birdVogel is a birdVogel,
164
468562
2873
08:03
is this one:
165
471459
1274
ist das folgende:
08:04
it's where y is the unknownunbekannt
and w and x are knownbekannt.
166
472757
3459
Y ist unbekannt,
und w und x sind bekannt.
08:08
You know the neuralneuronale networkNetzwerk,
you know the pixelsPixel.
167
476240
2459
Wir kennen das neuronale
Netzwerk und die Pixel.
Es scheint ein recht
einfaches Problem zu sein.
08:10
As you can see, that's actuallytatsächlich
a relativelyverhältnismäßig straightforwardeinfach problemProblem.
168
478723
3327
Wir rechnen zwei mal drei und sind fertig.
08:14
You multiplymultiplizieren two timesmal threedrei
and you're doneerledigt.
169
482074
2186
08:16
I'll showShow you an artificialkünstlich neuralneuronale networkNetzwerk
170
484862
2123
Ich zeige Ihnen jetzt ein neu entwickeltes
künstliches neuronales Netzwerk,
08:19
that we'vewir haben builtgebaut recentlyvor kurzem,
doing exactlygenau that.
171
487009
2296
das genau das tut.
08:21
This is runningLaufen in realecht time
on a mobileMobile phoneTelefon,
172
489634
2860
Es läuft in Echtzeit
auf einem Mobiltelefon,
08:24
and that's, of courseKurs,
amazingtolle in its ownbesitzen right,
173
492518
3313
und das an sich ist
natürlich schon erstaunlich,
08:27
that mobileMobile phonesTelefone can do so manyviele
billionsMilliarden and trillionsBillionen of operationsOperationen
174
495855
3468
dass Mobiltelefone so viele
Milliarden und Billiarden Vorgänge
pro Sekunde verarbeiten können.
08:31
perpro secondzweite.
175
499347
1248
08:32
What you're looking at is a phoneTelefon
176
500619
1615
Sie sehen hier ein Telefon,
08:34
looking at one after anotherein anderer
pictureBild of a birdVogel,
177
502258
3547
das Bilder von einem Vogel
nacheinander ansieht,
und sogar nicht nur
"Ja, es ist ein Vogel" sagt,
08:37
and actuallytatsächlich not only sayingSprichwort,
"Yes, it's a birdVogel,"
178
505829
2715
08:40
but identifyingIdentifizierung von the speciesSpezies of birdVogel
with a networkNetzwerk of this sortSortieren.
179
508568
3411
sondern mit einem solchen Netzwerk
auch die Vogelart bestimmt.
08:44
So in that pictureBild,
180
512890
1826
Bei diesem Bild
kennen wir das x und das w,
und das y ist unbekannt.
08:46
the x and the w are knownbekannt,
and the y is the unknownunbekannt.
181
514740
3802
08:50
I'm glossingpoliert over the very
difficultschwer partTeil, of courseKurs,
182
518566
2508
Ich lasse hier natürlich
den schwierigen Teil aus,
08:53
whichwelche is how on earthErde
do we figureZahl out the w,
183
521098
3861
also wie um alles in der Welt
wir das w finden können,
08:56
the brainGehirn that can do sucheine solche a thing?
184
524983
2187
wie das Gehirn so etwas kann.
08:59
How would we ever learnlernen sucheine solche a modelModell-?
185
527194
1834
Wie können wir jemals
so ein Modell erlernen?
09:01
So this processverarbeiten of learningLernen,
of solvingLösung for w,
186
529418
3233
Wenn wir diesen Lernvorgang,
also wie man nach w auflösen kann,
09:04
if we were doing this
with the simpleeinfach equationGleichung
187
532675
2647
wenn wir das bei der
einfachen Gleichung anwenden,
09:07
in whichwelche we think about these as numbersNummern,
188
535346
2000
in der wir sie uns als Zahlen vorstellen,
09:09
we know exactlygenau how to do that: 6 = 2 x w,
189
537370
2687
wissen wir genau, was zu tun ist:
6 = 2 x w,
09:12
well, we divideTeilen by two and we're doneerledigt.
190
540081
3312
wir teilen durch zwei und fertig.
09:16
The problemProblem is with this operatorOperator.
191
544001
2220
Das Problem ist dieses Rechenzeichen.
09:18
So, divisionAufteilung --
192
546823
1151
Division --
09:19
we'vewir haben used divisionAufteilung because
it's the inverseinvers to multiplicationMultiplikation,
193
547998
3121
wir wählen die Division, weil sie
das Gegenteil der Multiplikation ist,
09:23
but as I've just said,
194
551143
1440
aber wie gesagt,
09:24
the multiplicationMultiplikation is a bitBit of a lieLüge here.
195
552607
2449
Mulitplikation stimmt hier nicht ganz.
09:27
This is a very, very complicatedkompliziert,
very non-linearnicht-lineare operationBetrieb;
196
555080
3326
Es handelt sich um einen sehr
komplizierten, nichtlinearen Vorgang
09:30
it has no inverseinvers.
197
558430
1704
ohne Umkehrung.
09:32
So we have to figureZahl out a way
to solvelösen the equationGleichung
198
560158
3150
Wir müssen also herausfinden,
wie wir die Gleichung
ohne Divisionszeichen lösen können.
09:35
withoutohne a divisionAufteilung operatorOperator.
199
563332
2024
09:37
And the way to do that
is fairlyziemlich straightforwardeinfach.
200
565380
2343
Eigentlich ist es ganz einfach:
09:39
You just say, let's playspielen
a little algebraAlgebra trickTrick,
201
567747
2671
Wir zaubern einfach
ein wenig mit der Algebra.
09:42
and moveBewegung the sixsechs over
to the right-handrechte Hand sideSeite of the equationGleichung.
202
570442
2906
Wir ziehen die 6 auf
die rechte Seite der Gleichung.
09:45
Now, we're still usingmit multiplicationMultiplikation.
203
573372
1826
Wir multiplizieren immer noch.
09:47
And that zeroNull -- let's think
about it as an errorError.
204
575675
3580
Diese Null -- betrachten
wir einfach als Fehler.
09:51
In other wordsWörter, if we'vewir haben solvedgelöst
for w the right way,
205
579279
2515
Anders gesagt, wenn wir
korrekt nach w auflösen,
09:53
then the errorError will be zeroNull.
206
581818
1656
dann ist der Fehler null.
09:55
And if we haven'thabe nicht gottenbekommen it quiteganz right,
207
583498
1938
Wenn wir einen Fehler machen,
09:57
the errorError will be greatergrößer than zeroNull.
208
585460
1749
ist der Fehler größer als null.
09:59
So now we can just take guessesVermutungen
to minimizeminimieren the errorError,
209
587233
3366
Jetzt können wir einfach raten,
um den Fehler zu minimieren.
10:02
and that's the sortSortieren of thing
computersComputer are very good at.
210
590623
2687
Computer können das ausgezeichnet.
10:05
So you've takengenommen an initialInitiale guessvermuten:
211
593334
1593
Sie raten also ins Blaue:
Was, wenn w = 0?
Dann ist der Fehler 6.
10:06
what if w = 0?
212
594951
1156
10:08
Well, then the errorError is 6.
213
596131
1240
Wenn w = 1? Dann ist der Fehler 4.
10:09
What if w = 1? The errorError is 4.
214
597395
1446
Dann kann der Computer Marco Polo spielen
10:10
And then the computerComputer can
sortSortieren of playspielen MarcoMarco PoloPolo,
215
598865
2367
10:13
and driveFahrt down the errorError closeschließen to zeroNull.
216
601256
2367
und den Fehler gegen Null gehen lassen.
10:15
As it does that, it's gettingbekommen
successiveaufeinanderfolgend approximationsNäherungen to w.
217
603647
3374
Dabei nähert er sich immer mehr dem w an.
10:19
TypicallyIn der Regel, it never quiteganz getsbekommt there,
but after about a dozenDutzend stepsSchritte,
218
607045
3656
Meist schafft er es nicht ganz,
aber nach ungefähr einem Dutzend Schritten
10:22
we're up to w = 2.999,
whichwelche is closeschließen enoughgenug.
219
610725
4624
liegen wir bei w = 2,999,
und das ist genau genug.
10:28
And this is the learningLernen processverarbeiten.
220
616302
1814
Das ist der Lernprozess.
10:30
So remembermerken that what's been going on here
221
618140
2730
Erinnern Sie sich daran,
dass wir gerade viele bekannte x
und bekannte y genommen haben.
10:32
is that we'vewir haben been takingunter
a lot of knownbekannt x'sx and knownbekannt y'sy
222
620894
4378
10:37
and solvingLösung for the w in the middleMitte
throughdurch an iterativeiterative processverarbeiten.
223
625296
3454
Wir lösten das w in der Mitte
durch ein Wiederholungsverfahren.
10:40
It's exactlygenau the samegleich way
that we do our ownbesitzen learningLernen.
224
628774
3556
Genauso lernen auch wir.
10:44
We have manyviele, manyviele imagesBilder as babiesBabys
225
632354
2230
Als Babys sehen wir sehr viele Bilder.
10:46
and we get told, "This is a birdVogel;
this is not a birdVogel."
226
634608
2633
Jemand sagt: "Das ist ein Vogel;
das ist kein Vogel."
10:49
And over time, throughdurch iterationIteration,
227
637714
2098
Mit der Zeit und durch Wiederholung
10:51
we solvelösen for w, we solvelösen
for those neuralneuronale connectionsVerbindungen.
228
639836
2928
lösen wir nach w und diesen
neuronalen Verbindungen auf.
10:55
So now, we'vewir haben heldgehalten
x and w fixedFest to solvelösen for y;
229
643460
4086
Jetzt haben wir mit x und w
nach y aufgelöst.
Die alltägliche, schnelle Wahrnehmung.
10:59
that's everydayjeden Tag, fastschnell perceptionWahrnehmung.
230
647570
1847
11:01
We figureZahl out how we can solvelösen for w,
231
649441
1763
Herauszufinden, wie man
nach w auflösen kann,
11:03
that's learningLernen, whichwelche is a lot harderSchwerer,
232
651228
1903
ist Lernen und viel schwerer,
11:05
because we need to do errorError minimizationMinimierung,
233
653155
1985
weil wir die Fehler
nur über viele Übungsbeispiele
minimieren können.
11:07
usingmit a lot of trainingAusbildung examplesBeispiele.
234
655164
1687
11:08
And about a yearJahr agovor,
AlexAlex MordvintsevMordvintsev, on our teamMannschaft,
235
656875
3187
Vor ungefähr einem Jahr
wollte Alex Mordvintsev
aus unserem Team herausfinden,
11:12
decidedbeschlossen to experimentExperiment
with what happensdas passiert if we try solvingLösung for x,
236
660086
3550
was passiert, wenn wir nach x auflösen
11:15
givengegeben a knownbekannt w and a knownbekannt y.
237
663660
2037
und w und y bekannt sind.
Anders ausgedrückt:
11:18
In other wordsWörter,
238
666124
1151
Sie wissen, dass es ein Vogel ist.
11:19
you know that it's a birdVogel,
239
667299
1352
11:20
and you alreadybereits have your neuralneuronale networkNetzwerk
that you've trainedausgebildet on birdsVögel,
240
668675
3303
Ihr neuronales Netzwerk
ist schon auf Vögel trainiert,
11:24
but what is the pictureBild of a birdVogel?
241
672002
2344
doch was ist das Bild eines Vogels?
11:27
It turnswendet sich out that by usingmit exactlygenau
the samegleich error-minimizationFehler-Minimierung procedureVerfahren,
242
675034
5024
Tatsächlich kann man die gleiche
Fehlerminimierungsstrategie
11:32
one can do that with the networkNetzwerk
trainedausgebildet to recognizeerkenne birdsVögel,
243
680082
3430
bei Netzwerken zum Erkennen
von Vögeln anwenden.
11:35
and the resultErgebnis turnswendet sich out to be ...
244
683536
3388
Das Ergebnis ist ...
11:42
a pictureBild of birdsVögel.
245
690400
1305
ein Bild von Vögeln.
Dieses Bild von Vögeln wurde von einem
neuronalen Netzwerk erschaffen,
11:44
So this is a pictureBild of birdsVögel
generatedgeneriert entirelyvollständig by a neuralneuronale networkNetzwerk
246
692814
3737
das auf das Vogelerkennen trainiert wurde,
11:48
that was trainedausgebildet to recognizeerkenne birdsVögel,
247
696575
1826
11:50
just by solvingLösung for x
ratherlieber than solvingLösung for y,
248
698425
3538
und zwar nur durch Auflösen nach x,
nicht durch Auflösen nach y.
All das passiert durch Wiederholungen.
11:53
and doing that iterativelyiterativ.
249
701987
1288
11:55
Here'sHier ist anotherein anderer funSpaß exampleBeispiel.
250
703732
1847
Noch ein lustiges Beispiel.
11:57
This was a work madegemacht
by MikeMike TykaTyka in our groupGruppe,
251
705603
3437
Dies ist die Arbeit unseres
Teammitglieds Mike Tyka,
12:01
whichwelche he callsAnrufe "AnimalTier ParadeParade."
252
709064
2308
der es "Animal Parade" nennt.
12:03
It remindserinnert me a little bitBit
of WilliamWilliam Kentridge'sKentridges artworksKunstwerke,
253
711396
2876
Es erinnert mich etwas an
Kunstwerke von William Kentridge,
12:06
in whichwelche he makesmacht sketchesSkizzen, rubsreibt them out,
254
714296
2489
der Skizzen macht, sie dann wegradiert,
12:08
makesmacht sketchesSkizzen, rubsreibt them out,
255
716809
1460
Skizzen macht, sie wegradiert,
und so einen Film erschafft.
12:10
and createserstellt a movieFilm this way.
256
718293
1398
12:11
In this caseFall,
257
719715
1151
In diesem Fall
12:12
what MikeMike is doing is varyingunterschiedliche y
over the spacePlatz of differentanders animalsTiere,
258
720890
3277
setzt Mike für y verschiedene Tiere
in ein Netzwerk ein,
12:16
in a networkNetzwerk designedentworfen
to recognizeerkenne and distinguishunterscheiden
259
724191
2382
das verschiedene Tiere
erkennen und unterscheiden kann.
12:18
differentanders animalsTiere from eachjede einzelne other.
260
726597
1810
Heraus kommt dieser seltsame
Übergang von Tier zu Tier im Stil Eschers.
12:20
And you get this strangekomisch, Escher-likeEscher-artige
morphMorph from one animalTier to anotherein anderer.
261
728431
3751
12:26
Here he and AlexAlex togetherzusammen
have triedversucht reducingreduzierend
262
734221
4614
Hier haben Mike und Alex
gemeinsam versucht,
das y auf nur zwei
Dimensionen einzuschränken
12:30
the y'sy to a spacePlatz of only two dimensionsMaße,
263
738859
2759
12:33
therebydamit makingHerstellung a mapKarte
out of the spacePlatz of all things
264
741642
3438
und so eine Karte von
allen Dingen im Raum zu erstellen,
12:37
recognizedanerkannt by this networkNetzwerk.
265
745104
1719
die dieses Netzwerk erkennt.
12:38
Doing this kindArt of synthesisSynthese
266
746847
2023
Durch diese Darstellung
oder Bildgenerierung
auf der gesamten Oberfläche,
12:40
or generationGeneration of imageryBilder
over that entireganz surfaceOberfläche,
267
748894
2382
wobei y auf der Oberfläche variiert,
wird eine Art Karte erstellt --
12:43
varyingunterschiedliche y over the surfaceOberfläche,
you make a kindArt of mapKarte --
268
751300
2846
12:46
a visualvisuell mapKarte of all the things
the networkNetzwerk knowsweiß how to recognizeerkenne.
269
754170
3141
eine visuelle Karte all der Dinge,
die das Netzwerk erkennen kann.
12:49
The animalsTiere are all here;
"armadilloGürteltier" is right in that spotStelle.
270
757335
2865
Alle Tiere sind da, "armadillo"
ist genau an dieser Stelle.
12:52
You can do this with other kindsArten
of networksNetzwerke as well.
271
760919
2479
Dasselbe kann man auch
mit anderen Netzwerken machen.
12:55
This is a networkNetzwerk designedentworfen
to recognizeerkenne facesGesichter,
272
763422
2874
Dieses Netzwerk erkennt Gesichter
12:58
to distinguishunterscheiden one faceGesicht from anotherein anderer.
273
766320
2000
und unterscheidet sie voneinander.
13:00
And here, we're puttingPutten
in a y that sayssagt, "me,"
274
768344
3249
Hier setzten wir
ein y ein, das "ich" sagt,
13:03
my ownbesitzen faceGesicht parametersParameter.
275
771617
1575
also die Parameter meines Gesichts.
13:05
And when this thing solveslöst for x,
276
773216
1706
Wenn das Netzwerk nach x auflöst,
13:06
it generateserzeugt this ratherlieber crazyverrückt,
277
774946
2618
generiert es dieses verrückte,
13:09
kindArt of cubistkubistische, surrealsurreal,
psychedelicpsychedelisch pictureBild of me
278
777588
4428
kubistisch angehauchte, surreale,
psychedelische Bild von mir
13:14
from multiplemehrere pointsPunkte of viewAussicht at onceEinmal.
279
782040
1806
aus verschiedenen Blickwinkeln.
13:15
The reasonGrund it lookssieht aus like
multiplemehrere pointsPunkte of viewAussicht at onceEinmal
280
783870
2734
Es wirkt wie eine Betrachtung
aus verschiedenen Blickwinkeln,
13:18
is because that networkNetzwerk is designedentworfen
to get ridloswerden of the ambiguityMehrdeutigkeit
281
786628
3687
weil das Netzwerk so aufgebaut ist,
dass es die Vieldeutigkeit umgehen kann,
13:22
of a faceGesicht beingSein in one posePose
or anotherein anderer posePose,
282
790339
2476
die durch Gesichter in verschiedenen Posen
13:24
beingSein lookedsah at with one kindArt of lightingBeleuchtung,
anotherein anderer kindArt of lightingBeleuchtung.
283
792839
3376
oder verschiedene Belichtungen entsteht.
13:28
So when you do
this sortSortieren of reconstructionWiederaufbau,
284
796239
2085
Wenn man bei dieser Art Rekonstruktion
nun keinerlei Musterbild
oder Hilfsstatistiken verwendet,
13:30
if you don't use some sortSortieren of guideführen imageBild
285
798348
2304
13:32
or guideführen statisticsStatistiken,
286
800676
1211
13:33
then you'lldu wirst get a sortSortieren of confusionVerwechslung
of differentanders pointsPunkte of viewAussicht,
287
801911
3765
vermischen sich die Ansichten
aus den verschiedenen Blickwinkeln
13:37
because it's ambiguousnicht eindeutig.
288
805700
1368
aufgrund der Vieldeutigkeit.
13:39
This is what happensdas passiert if AlexAlex usesVerwendungen
his ownbesitzen faceGesicht as a guideführen imageBild
289
807786
4223
Das passert, wenn Alex
während des Optimierungsprozesses
13:44
duringwährend that optimizationOptimierung processverarbeiten
to reconstructrekonstruieren my ownbesitzen faceGesicht.
290
812033
3321
zur Rekonstruktion meines Gesichts
sein eigenes Gesicht als Muster verwendet.
13:48
So you can see it's not perfectperfekt.
291
816284
2328
Sie sehen also, es ist nicht perfekt.
13:50
There's still quiteganz a lot of work to do
292
818636
1874
Wir müssen noch hart arbeiten,
um diesen Optimierungsprozess
optimieren zu können.
13:52
on how we optimizeoptimieren
that optimizationOptimierung processverarbeiten.
293
820534
2453
13:55
But you startAnfang to get something
more like a coherentkohärente faceGesicht,
294
823011
2827
Aber langsam entstehen
stimmigere Gesichter,
13:57
renderedgerendert usingmit my ownbesitzen faceGesicht as a guideführen.
295
825862
2014
da mein Gesicht als Muster diente.
14:00
You don't have to startAnfang
with a blankleer canvasSegeltuch
296
828892
2501
Man muss nicht bei Null
oder weißem Rauschen beginnen.
14:03
or with whiteWeiß noiseLärm.
297
831417
1156
14:04
When you're solvingLösung for x,
298
832597
1304
Wenn man nach x auflöst,
14:05
you can beginStart with an x,
that is itselfselbst alreadybereits some other imageBild.
299
833925
3889
kann man mit einem x anfangen,
das selbst schon ein anderes Bild ist.
14:09
That's what this little demonstrationDemonstration is.
300
837838
2556
Das soll diese Vorführung zeigen.
14:12
This is a networkNetzwerk
that is designedentworfen to categorizekategorisieren
301
840418
4122
Das ist ein Netzwerk,
das verschiedenste Objekte --
menschgemachte Strukturen, Tiere usw. --
kategorisieren können soll.
14:16
all sortssortiert of differentanders objectsObjekte --
man-madevon Menschen verursachte structuresStrukturen, animalsTiere ...
302
844564
3119
14:19
Here we're startingbeginnend
with just a pictureBild of cloudsWolken,
303
847707
2593
Wir beginnen nur mit einem Wolkenbild,
14:22
and as we optimizeoptimieren,
304
850324
1671
und während der Optimierung
14:24
basicallyGrundsätzlich gilt, this networkNetzwerk is figuringaufstellend out
what it seessieht in the cloudsWolken.
305
852019
4486
findet das Netzwerk quasi heraus,
was es in den Wolken sieht.
14:28
And the more time
you spendverbringen looking at this,
306
856931
2320
Je länger man zusieht,
14:31
the more things you alsoebenfalls
will see in the cloudsWolken.
307
859275
2753
desto mehr sieht man in den Wolken.
14:35
You could alsoebenfalls use the faceGesicht networkNetzwerk
to hallucinatehalluzinieren into this,
308
863004
3375
Man kann mit dem Gesichtsnetzwerk
Halluzinationen einfügen,
und ganz schön verrücktes Zeug machen.
14:38
and you get some prettyziemlich crazyverrückt stuffSachen.
309
866403
1812
14:40
(LaughterLachen)
310
868239
1150
(Lachen)
14:42
Or, MikeMike has doneerledigt some other experimentsExperimente
311
870401
2744
Mike hat noch mehr Experimente gemacht,
14:45
in whichwelche he takes that cloudWolke imageBild,
312
873169
3905
bei denen er ein Wolkenbild nimmt,
halluziniert, heranzoomt, halluziniert,
heranzoomt, halluziniert und zoomt.
14:49
hallucinateshalluziniert, zoomsZooms, hallucinateshalluziniert,
zoomsZooms hallucinateshalluziniert, zoomsZooms.
313
877098
3507
14:52
And in this way,
314
880629
1151
Auf diese Weise kann man vielleicht
14:53
you can get a sortSortieren of fugueFuge stateBundesland
of the networkNetzwerk, I supposeannehmen,
315
881804
3675
eine Art Fluchtzustand des Netzwerks
14:57
or a sortSortieren of freefrei associationVerband,
316
885503
3680
oder eine Art freie Assoziation erzeugen,
bei der sich das Netzwerk selbst
in den Schwanz beißt.
15:01
in whichwelche the networkNetzwerk
is eatingEssen its ownbesitzen tailSchwanz.
317
889207
2227
15:03
So everyjeden imageBild is now the basisBasis for,
318
891458
3421
Jedes Bild ist nun die Grundlage für:
15:06
"What do I think I see nextNächster?
319
894903
1421
"Was glaube ich, als nächstes zu sehen?
15:08
What do I think I see nextNächster?
What do I think I see nextNächster?"
320
896348
2803
Was erwarte ich als nächstes,
und danach und danach?"
15:11
I showedzeigte this for the first time in publicÖffentlichkeit
321
899487
2936
Öffentlich habe ich dies das erste Mal
15:14
to a groupGruppe at a lectureVorlesung in SeattleSeattle
callednamens "HigherHöhere EducationBildung" --
322
902447
5437
einer Vorlesungsgruppe namens
"Higher Education" in Seattle gezeigt,
15:19
this was right after
marijuanaMarihuana was legalizedlegalisiert.
323
907908
2437
kurz nachdem Marihuana legalisiert wurde.
15:22
(LaughterLachen)
324
910369
2415
(Lachen)
15:26
So I'd like to finishFertig up quicklyschnell
325
914627
2104
Ich möchte nun zum Ende kommen
15:28
by just notingBemerkung that this technologyTechnologie
is not constrainedeingeschränkt.
326
916755
4255
und festhalten, dass dieser Technologie
keine Grenzen gesetzt sind.
15:33
I've showngezeigt you purelyrein visualvisuell examplesBeispiele
because they're really funSpaß to look at.
327
921034
3665
Ich habe Ihnen nur visuelle Beispiele
gezeigt, einfach, weil es Spaß macht.
15:36
It's not a purelyrein visualvisuell technologyTechnologie.
328
924723
2451
Aber es ist keine
rein visuelle Technologie.
15:39
Our artistKünstler collaboratorMitarbeiter, RossRoss GoodwinGoodwin,
329
927198
1993
Ross Goodwin, künstlerischer Mitarbeiter,
15:41
has doneerledigt experimentsExperimente involvingmit
a cameraKamera that takes a pictureBild,
330
929215
3671
hat Experimente gemacht, bei denen
eine Kamera ein Bild schießt
15:44
and then a computerComputer in his backpackRucksack
writesschreibt a poemGedicht usingmit neuralneuronale networksNetzwerke,
331
932910
4234
und ein Comuter in seinem Rucksack
ein Gedicht mit einem neuronalen Netzwerk
15:49
basedbasierend on the contentsInhalt of the imageBild.
332
937168
1944
basierend auf dem Bildinhalt schreibt.
15:51
And that poetryPoesie neuralneuronale networkNetzwerk
has been trainedausgebildet
333
939136
2947
Trainiert wurde das neuronale
Gedichtenetzwerk mit den Werken
15:54
on a largegroß corpusKorpus of 20th-centuryJahrhundert poetryPoesie.
334
942107
2234
der Dichtungen des 20. Jahrhunderts.
15:56
And the poetryPoesie is, you know,
335
944365
1499
Die Gedichte sind, naja,
15:57
I think, kindArt of not badschlecht, actuallytatsächlich.
336
945888
1914
also ich finde sie gar nicht so schlecht.
15:59
(LaughterLachen)
337
947826
1384
(Lachen)
16:01
In closingSchließen,
338
949234
1159
Zurück zu
16:02
I think that perpro MichelangeloMichelangelo,
339
950417
2132
Michelangelo,
ich denke, der lag richtig:
16:04
I think he was right;
340
952573
1234
16:05
perceptionWahrnehmung and creativityKreativität
are very intimatelyeng connectedin Verbindung gebracht.
341
953831
3436
Wahrnehmung und Kreativität
sind sehr eng miteinander verbunden.
16:09
What we'vewir haben just seengesehen are neuralneuronale networksNetzwerke
342
957611
2634
Gerade haben wir
neuronale Netzwerke gesehen,
16:12
that are entirelyvollständig trainedausgebildet to discriminatediskriminieren,
343
960269
2303
die nur darauf trainiert sind,
verschiedene Dinge
zu unterscheiden oder zu erkennen,
16:14
or to recognizeerkenne differentanders
things in the worldWelt,
344
962596
2242
16:16
ablefähig to be runLauf in reverseumkehren, to generategenerieren.
345
964862
3161
und umgekehrt werden können,
um etwas zu erschaffen.
16:20
One of the things that suggestsschlägt vor to me
346
968047
1783
Daraus schließe ich nicht nur,
16:21
is not only that
MichelangeloMichelangelo really did see
347
969854
2398
dass Michelangelo die Skulptur
im Stein wirklich sehen konnte,
16:24
the sculptureSkulptur in the blocksBlöcke of stoneStein,
348
972276
2452
16:26
but that any creatureKreatur,
any beingSein, any alienAusländer
349
974752
3638
sondern auch, dass jedes Wesen,
jedes Geschöpf, jedes Alien,
16:30
that is ablefähig to do
perceptualWahrnehmungs actshandelt of that sortSortieren
350
978414
3657
das zu solchen Wahrnehmungen fähig ist,
auch Dinge erschaffen kann,
16:34
is alsoebenfalls ablefähig to createerstellen
351
982095
1375
16:35
because it's exactlygenau the samegleich
machineryMaschinen that's used in bothbeide casesFälle.
352
983494
3224
denn in beiden Fällen kommt die
gleiche Maschinerie zum Einsatz.
16:38
AlsoAuch, I think that perceptionWahrnehmung
and creativityKreativität are by no meansmeint
353
986742
4532
Ich denke auch,
dass keinesfalls nur Menschen
wahrnehmen und kreativ sein können.
16:43
uniquelyeinzigartig humanMensch.
354
991298
1210
16:44
We startAnfang to have computerComputer modelsModelle
that can do exactlygenau these sortssortiert of things.
355
992532
3708
Langsam gibt es Computermodelle,
die genau das Gleiche können.
16:48
And that oughtsollen to be unsurprisingnicht überraschend;
the brainGehirn is computationalrechnerisch.
356
996264
3328
Das sollte keine Überraschung sein,
denn das Gehirn basiert auf Rechnen.
16:51
And finallyendlich,
357
999616
1657
Schließlich entstanden Computer
16:53
computingComputer beganbegann as an exerciseÜbung
in designingEntwerfen intelligentintelligent machineryMaschinen.
358
1001297
4668
aus den Versuchen,
intelligente Maschinen zu bauen.
16:57
It was very much modeledmodelliert after the ideaIdee
359
1005989
2462
Sie sind Modelle unserer
Vorstellung dessen,
17:00
of how could we make machinesMaschinen intelligentintelligent.
360
1008475
3013
wie wir Maschinen
intelligent machen können.
17:03
And we finallyendlich are startingbeginnend to fulfillerfüllen now
361
1011512
2162
Jetzt erfüllen wir langsam
17:05
some of the promisesVersprechen
of those earlyfrüh pioneersPioniere,
362
1013698
2406
ein paar der Versprechen
der ersten Vorreiter,
17:08
of TuringTuring and vonvon NeumannNeumann
363
1016128
1713
von Turing und von Neumann
17:09
and McCullochMcCulloch and PittsPitts.
364
1017865
2265
und McCulloch und Pitts.
17:12
And I think that computingComputer
is not just about accountingBuchhaltung
365
1020154
4098
Ich denke, beim Rechnen
geht es nicht nur um Buchhaltung
17:16
or playingspielen CandyCandy CrushZerquetschen or something.
366
1024276
2147
oder Candy Crush oder so etwas.
17:18
From the beginningAnfang,
we modeledmodelliert them after our mindsKöpfe.
367
1026447
2578
Von Anfang an haben wir sie als
Abbild unseres Verstands gebaut.
17:21
And they give us bothbeide the abilityFähigkeit
to understandverstehen our ownbesitzen mindsKöpfe better
368
1029049
3269
Mit ihnen können wir unseren
eigenen Verstand besser verstehen
17:24
and to extenderweitern them.
369
1032342
1529
und unsere Fähigkeiten erweitern.
17:26
Thank you very much.
370
1034627
1167
Vielen Dank.
17:27
(ApplauseApplaus)
371
1035818
5939
(Applaus)
Translated by Milena Koch
Reviewed by Johanna Pichler

▲Back to top

ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com