ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Wie wir durch KI gestärkt und nicht überwältigt werden

Filmed:
1,409,007 views

Viele KI-Forscher erwarten, dass die KI in wenigen Jahrzehnten bei allen Tätigkeiten und Jobs besser sein wird als die Menschen und dadurch eine Zukunft ermöglicht, die nicht mehr durch die Grenzen unserer Intelligenz, sondern nur noch durch die Gesetze der Physik limitiert ist. Der Physiker und KI-Forscher Max Tegmark vom MIT trennt die realen Chancen und Bedrohungen von den Mythen und beschreibt die konkreten Schritte, mit denen wir sicherstellen müssen, dass KI am Ende das Beste sein wird, was der Menschheit je widerfahren ist -- und nicht das Schlimmste.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionMilliarde yearsJahre
of cosmickosmisch historyGeschichte,
0
760
4416
Nach 13,8 Milliarden Jahren
kosmischer Geschichte
00:17
our universeUniversum has wokengeweckt up
1
5200
2096
ist unser Universum aufgewacht
00:19
and becomewerden awarebewusst of itselfselbst.
2
7320
1520
und sich seiner selbst bewusst geworden.
00:21
From a smallklein blueblau planetPlanet,
3
9480
1936
Von einem kleinen blauen Planeten aus
00:23
tinysehr klein, consciousbewusst partsTeile of our universeUniversum
have begunbegonnen gazingBlick out into the cosmosKosmos
4
11440
4136
haben winzige, bewusste
Teile unseres Universums begonnen,
mit Teleskopen in den Kosmos zu schauen
00:27
with telescopesTeleskope,
5
15600
1376
und etwas Demütigendes entdeckt.
00:29
discoveringentdecken something humblingdemütigende.
6
17000
1480
Nämlich, dass das Universum sehr viel
größer ist, als unsere Vorfahren glaubten,
00:31
We'veWir haben discoveredentdeckt that our universeUniversum
is vastlyerheblich granderGrander
7
19320
2896
00:34
than our ancestorsVorfahren imaginedvorgestellt
8
22240
1336
und das Leben eine fast
unmerklich kleine Störung
00:35
and that life seemsscheint to be an almostfast
imperceptiblyunmerklich smallklein perturbationPerturbation
9
23600
4256
00:39
on an otherwiseAndernfalls deadtot universeUniversum.
10
27880
1720
eines sonst toten Universums
zu sein scheint.
Aber wir haben auch
etwas Inspirierendes entdeckt,
00:42
But we'vewir haben alsoebenfalls discoveredentdeckt
something inspiringinspirierend,
11
30320
3016
00:45
whichwelche is that the technologyTechnologie
we're developingEntwicklung has the potentialPotenzial
12
33360
2976
nämlich, dass unsere Technologie
das Potenzial hat,
das Leben wie nie zuvor
florieren zu lassen.
00:48
to help life flourishblühen like never before,
13
36360
2856
00:51
not just for centuriesJahrhunderte
but for billionsMilliarden of yearsJahre,
14
39240
3096
Nicht nur für Jahrhunderte,
sondern für Milliarden von Jahren.
00:54
and not just on earthErde but throughoutwährend
much of this amazingtolle cosmosKosmos.
15
42360
4120
Nicht nur auf der Erde,
sondern in einem Großteil des Kosmos.
00:59
I think of the earliestfrüheste life as "Life 1.0"
16
47680
3336
Ich denke an erstes Leben als "Life 1.0",
01:03
because it was really dumbstumm,
17
51040
1376
weil es wirklich dumm war,
01:04
like bacteriaBakterien, unableunfähig to learnlernen
anything duringwährend its lifetimeLebenszeit.
18
52440
4296
wie etwa Bakterien, unfähig,
irgendetwas in seinem Leben zu lernen.
01:08
I think of us humansMenschen as "Life 2.0"
because we can learnlernen,
19
56760
3376
Ich denke an uns Menschen als "Life 2.0",
weil wir lernen können.
01:12
whichwelche we in nerdyNerdy, geekGeek speaksprechen,
20
60160
1496
Etwas langweilig gesagt,
01:13
mightMacht think of as installingInstallation
newneu softwareSoftware into our brainsGehirne,
21
61680
3216
entspricht das der Installation
neuer Software in unser Gehirn
01:16
like languagesSprachen and jobJob skillsFähigkeiten.
22
64920
2120
wie etwa Sprachen
oder berufliche Fertigkeiten.
01:19
"Life 3.0," whichwelche can designEntwurf not only
its softwareSoftware but alsoebenfalls its hardwareHardware-
23
67680
4296
"Leben 3.0", das neben seiner Software
auch seine Hardware entwerfen kann,
existiert natürlich noch nicht.
01:24
of courseKurs doesn't existexistieren yetnoch.
24
72000
1656
01:25
But perhapsvielleicht our technologyTechnologie
has alreadybereits madegemacht us "Life 2.1,"
25
73680
3776
Aber vielleicht sind wir mit unserer
Technologie auch schon bei "Life 2.1",
01:29
with our artificialkünstlich kneesKnie,
pacemakersHerzschrittmacher and cochlearCochlea- implantsImplantate.
26
77480
4336
mit unseren künstlichen Knien,
Schrittmachern und Cochlea-Implantaten.
01:33
So let's take a closernäher look
at our relationshipBeziehung with technologyTechnologie, OK?
27
81840
3880
Sehen wir uns also unsere Beziehung
zur Technologie genauer an:
01:38
As an exampleBeispiel,
28
86800
1216
Die Mondmission Apollo 11 etwa
01:40
the ApolloApollo 11 moonMond missionMission
was bothbeide successfulerfolgreich and inspiringinspirierend,
29
88040
5296
war sowohl erfolgreich
als auch inspirierend
und zeigte, dass wir Menschen
bei weisem Umgang mit Technologie
01:45
showingzeigt that when we humansMenschen
use technologyTechnologie wiselyweise,
30
93360
3016
01:48
we can accomplisherreichen things
that our ancestorsVorfahren could only dreamTraum of.
31
96400
3936
Dinge erreichen können, von denen
unsere Vorfahren nur träumen konnten.
01:52
But there's an even more inspiringinspirierend journeyReise
32
100360
2976
Aber es gibt eine
noch inspirierendere Reise,
01:55
propelledangetrieben by something
more powerfulmächtig than rocketRakete enginesMotoren,
33
103360
2680
angetrieben von etwas,
das mächtiger ist als Raketentriebwerke,
wo die Passagiere nicht nur
drei Astronauten,
01:59
where the passengersPassagiere
aren'tsind nicht just threedrei astronautsAstronauten
34
107200
2336
sondern die ganze Menschheit ist.
02:01
but all of humanityMenschheit.
35
109560
1776
02:03
Let's talk about our collectivekollektiv
journeyReise into the futureZukunft
36
111360
2936
Ich meine unsere gemeinsame Reise
in eine Zukunft
mit künstlicher Intelligenz.
02:06
with artificialkünstlich intelligenceIntelligenz.
37
114320
2000
02:08
My friendFreund JaanJaan TallinnTallinn likesLikes to pointPunkt out
that just as with rocketryRaketentechnik,
38
116960
4536
Mein Freund Jaan Tallinn zeigt gerne auf,
dass es, genau wie bei der Raketentechnik,
02:13
it's not enoughgenug to make
our technologyTechnologie powerfulmächtig.
39
121520
3160
nicht ausreicht, unsere Technologie
leistungsfähig zu machen.
Wir müssen auch herausfinden,
wie wir sie steuern
02:17
We alsoebenfalls have to figureZahl out,
if we're going to be really ambitiousehrgeizige,
40
125560
3175
02:20
how to steerSteuern it
41
128759
1416
und wohin wir gehen wollen,
02:22
and where we want to go with it.
42
130199
1681
wenn wir ehrgeizig sein wollen.
02:24
So let's talk about all threedrei
for artificialkünstlich intelligenceIntelligenz:
43
132880
2840
Sprechen wir über alle drei Punkte,
die künstliche Intelligenz betreffend:
02:28
the powerLeistung, the steeringLenkung
and the destinationZiel.
44
136440
3056
die Leistung, die Lenkung und das Ziel.
Beginnen wir mit der Leistung.
02:31
Let's startAnfang with the powerLeistung.
45
139520
1286
02:33
I definedefinieren intelligenceIntelligenz very inclusivelyinklusiv --
46
141600
3096
Ich definiere Intelligenz sehr offen,
02:36
simplyeinfach as our abilityFähigkeit
to accomplisherreichen complexKomplex goalsTore,
47
144720
4336
einfach als die Fähigkeit,
komplexe Ziele zu erreichen,
02:41
because I want to includeeinschließen bothbeide
biologicalbiologisch and artificialkünstlich intelligenceIntelligenz.
48
149080
3816
weil ich sowohl biologische als auch
künstliche Intelligenz einbeziehen will.
02:44
And I want to avoidvermeiden
the sillydumm carbon-chauvinismKohlenstoff-Chauvinismus ideaIdee
49
152920
4016
Ich möchte den albernen Kohlenstoff-
Chauvinismus vermeiden,
dass nur klug sein kann,
was aus Fleisch besteht.
02:48
that you can only be smartsmart
if you're madegemacht of meatFleisch.
50
156960
2360
Es ist erstaunlich, wie die Leistung
der KI in letzter Zeit gewachsen ist.
02:52
It's really amazingtolle how the powerLeistung
of AIAI has growngewachsen recentlyvor kurzem.
51
160880
4176
Denken Sie mal nach.
02:57
Just think about it.
52
165080
1256
Vor nicht langer Zeit
konnten Roboter nicht laufen.
02:58
Not long agovor, robotsRoboter couldn'tkonnte nicht walkgehen.
53
166360
3200
Jetzt können sie Rückwärtssaltos machen.
03:03
Now, they can do backflipsBackflips.
54
171040
1720
03:06
Not long agovor,
55
174080
1816
Vor nicht langer Zeit
03:07
we didn't have self-drivingselbstfahrender carsAutos.
56
175920
1760
gab es keine selbstfahrenden Autos.
03:10
Now, we have self-flyingselbst fliegen rocketsRaketen.
57
178920
2480
Jetzt gibt es selbstfliegende Raketen.
03:15
Not long agovor,
58
183960
1416
Vor nicht langer Zeit
03:17
AIAI couldn'tkonnte nicht do faceGesicht recognitionAnerkennung.
59
185400
2616
konnte KI keine Gesichtserkennung.
03:20
Now, AIAI can generategenerieren fakeFälschung facesGesichter
60
188040
2976
Jetzt kann KI falsche Gesichter erzeugen
03:23
and simulatesimulieren your faceGesicht
sayingSprichwort stuffSachen that you never said.
61
191040
4160
und Ihr Gesicht vortäuschen lassen,
Dinge zu sagen, die Sie nie sagten.
03:28
Not long agovor,
62
196400
1576
Vor nicht langer Zeit
konnte KI uns nicht im Go-Spiel schlagen.
03:30
AIAI couldn'tkonnte nicht beatschlagen us at the gameSpiel of Go.
63
198000
1880
03:32
Then, GoogleGoogle DeepMind'sDie DeepMind AlphaZeroAlphaZero AIAI
tookdauerte 3,000 yearsJahre of humanMensch Go gamesSpiele
64
200400
5096
Dann nahm AlphaZero von Google DeepMind
3.000 Jahre menschlicher Go-Spiele
und Go-Weisheit, ignorierte alles
03:37
and Go wisdomWeisheit,
65
205520
1256
03:38
ignoredignoriert it all and becamewurde the world'sWelt bestBeste
playerSpieler by just playingspielen againstgegen itselfselbst.
66
206800
4976
und wurde zum weltweit besten Spieler,
indem es nur gegen sich selbst spielte.
03:43
And the mostdie meisten impressivebeeindruckend featKunststück here
wasn'twar nicht that it crushedzerdrückt humanMensch gamersGamer,
67
211800
3696
Das beeindruckendste Kunststück war nicht,
dass es menschliche Spieler schlug;
03:47
but that it crushedzerdrückt humanMensch AIAI researchersForscher
68
215520
2576
sondern auch die menschlichen KI-Forscher,
die jahrzehntelang an Go-Software
gearbeitet hatten.
03:50
who had spentverbraucht decadesJahrzehnte
handcraftingKalligraphieren game-playingSpiel-spielen softwareSoftware.
69
218120
3680
03:54
And AlphaZeroAlphaZero crushedzerdrückt humanMensch AIAI researchersForscher
not just in Go but even at chessSchach,
70
222200
4656
AlphaZero hat die KI-Forscher nicht nur
in Go, sondern auch im Schach geschlagen,
03:58
whichwelche we have been workingArbeiten on sinceschon seit 1950.
71
226880
2480
an dem wir schon seit 1950 arbeiteten.
04:02
So all this amazingtolle recentkürzlich progressFortschritt in AIAI
really begsbittet the questionFrage:
72
230000
4240
Alle diese erstaunlichen Fortschritte
in der KI werfen die Frage auf:
04:07
How farweit will it go?
73
235280
1560
Wie weit wird das gehen?
Ich denke gerne über diese Frage anhand
dieser abstrakten Aufgabenlandschaft nach.
04:09
I like to think about this questionFrage
74
237800
1696
04:11
in termsBegriffe of this abstractabstrakt
landscapeLandschaft of tasksAufgaben,
75
239520
2976
Die Höhe stellt dar,
wie schwer es für KI ist,
04:14
where the elevationElevation representsrepräsentiert
how hardhart it is for AIAI to do eachjede einzelne taskAufgabe
76
242520
3456
etwas auf menschlichem Niveau zu tun,
04:18
at humanMensch levelEbene,
77
246000
1216
und der Meeresspiegel repräsentiert,
was die KI heute kann.
04:19
and the seaMeer levelEbene representsrepräsentiert
what AIAI can do todayheute.
78
247240
2760
Der Wasserstand steigt mit wachsender KI,
04:23
The seaMeer levelEbene is risingsteigend
as AIAI improvesverbessert,
79
251120
2056
sodass es in der Aufgabenlandschaft
zu einer Art globaler Erwärmung kommt.
04:25
so there's a kindArt of globalglobal warmingErwärmen
going on here in the taskAufgabe landscapeLandschaft.
80
253200
3440
04:30
And the obviousoffensichtlich takeawayzum mitnehmen
is to avoidvermeiden careersKarrieren at the waterfrontam Wasser --
81
258040
3335
Die offensichtliche Lehre ist,
Jobs am Wasser zu vermeiden --
04:33
(LaughterLachen)
82
261399
1257
(Lachen)
04:34
whichwelche will soonbald be
automatedautomatisiert and disruptedgestört.
83
262680
2856
da die bald automatisiert werden.
04:37
But there's a much
biggergrößer questionFrage as well.
84
265560
2976
Aber es gibt auch eine viel größere Frage.
04:40
How highhoch will the waterWasser endEnde up risingsteigend?
85
268560
1810
Wie hoch wird das Wasser am Ende steigen?
04:43
Will it eventuallyschließlich riseerhebt euch
to floodFlut everything,
86
271440
3200
Wird es irgendwann alles fluten,
menschliche Intelligenz
überall übertreffen?
04:47
matchingpassende humanMensch intelligenceIntelligenz at all tasksAufgaben.
87
275840
2496
Dies ist die Definition
der Allgemeinen Künstlichen Intelligenz --
04:50
This is the definitionDefinition
of artificialkünstlich generalGeneral intelligenceIntelligenz --
88
278360
3736
04:54
AGIAGI,
89
282120
1296
AKI, die von Anfang an
der heilige Gral der KI-Forschung war.
04:55
whichwelche has been the holyHeiligen grailGral
of AIAI researchForschung sinceschon seit its inceptionAnfang.
90
283440
3080
Demnach bedeutet die Aussage:
04:59
By this definitionDefinition, people who say,
91
287000
1776
"Es wird immer Jobs geben,
die Menschen besser als Maschinen machen",
05:00
"AhAch, there will always be jobsArbeitsplätze
that humansMenschen can do better than machinesMaschinen,"
92
288800
3416
einfach, dass wir AKI
niemals bekommen werden.
05:04
are simplyeinfach sayingSprichwort
that we'llGut never get AGIAGI.
93
292240
2920
05:07
Sure, we mightMacht still choosewählen
to have some humanMensch jobsArbeitsplätze
94
295680
3576
Wir könnten uns zwar entscheiden,
einige Jobs für Menschen zu behalten,
05:11
or to give humansMenschen incomeEinkommen
and purposeZweck with our jobsArbeitsplätze,
95
299280
3096
um Menschen Einkommen und Ziele zu geben,
05:14
but AGIAGI will in any caseFall
transformverwandeln life as we know it
96
302400
3736
aber AKI wird auf jeden Fall das Leben,
wie wir es kennen, verändern,
05:18
with humansMenschen no longerlänger beingSein
the mostdie meisten intelligentintelligent.
97
306160
2736
wenn der Mensch
nicht mehr intelligenter ist.
05:20
Now, if the waterWasser levelEbene does reacherreichen AGIAGI,
98
308920
3696
Erreicht der Wasserspiegel AKI,
05:24
then furtherdes Weiteren AIAI progressFortschritt will be drivenGefahren
mainlyhauptsächlich not by humansMenschen but by AIAI,
99
312640
5296
dann treibt KI und nicht Menschen
den weiteren KI-Fortschritt voran,
was bedeutet, dass weiterer KI-Fortschritt
wesentlich schneller sein könnte
05:29
whichwelche meansmeint that there's a possibilityMöglichkeit
100
317960
1856
05:31
that furtherdes Weiteren AIAI progressFortschritt
could be way fasterschneller
101
319840
2336
als der typische menschliche
Entwicklungszeitraum von Jahren,
05:34
than the typicaltypisch humanMensch researchForschung
and developmentEntwicklung timescaleZeitstrahl of yearsJahre,
102
322200
3376
was die umstrittene Möglichkeit
einer Intelligenzexplosion eröffnet,
05:37
raisingAnhebung the controversialumstritten possibilityMöglichkeit
of an intelligenceIntelligenz explosionExplosion
103
325600
4016
05:41
where recursivelyrekursiv self-improvingSelf Verbesserung AIAI
104
329640
2296
in der sich rekursiv selbstverbessernde KI
05:43
rapidlyschnell leavesBlätter humanMensch
intelligenceIntelligenz farweit behindhinter,
105
331960
3416
die menschliche Intelligenz
weit hinter sich lässt
05:47
creatingErstellen what's knownbekannt
as superintelligenceSuperintelligenz.
106
335400
2440
und so die sogenannte
Superintelligenz schafft.
05:51
AlrightIn Ordnung, realityWirklichkeit checkprüfen:
107
339800
2280
Okay, die Fakten:
05:55
Are we going to get AGIAGI any time soonbald?
108
343120
2440
Werden wir in naher Zukunft AKI bekommen?
05:58
Some famousberühmt AIAI researchersForscher,
like RodneyRodney BrooksBrooks,
109
346360
2696
Einige berühmte KI-Forscher,
wie Rodney Brooks, glauben,
06:01
think it won'tGewohnheit happengeschehen
for hundredsHunderte of yearsJahre.
110
349080
2496
dass es für Hunderte von Jahren
nicht passieren wird.
06:03
But othersAndere, like GoogleGoogle DeepMindDeepMind
founderGründer DemisDemis HassabisHassabis,
111
351600
3896
Andere wie Demis Hassabis,
der Google DeepMind-Gründer,
06:07
are more optimisticoptimistisch
112
355520
1256
sind da optimistischer
und arbeiten daran,
es viel früher zu verwirklichen.
06:08
and are workingArbeiten to try to make
it happengeschehen much soonerfrüher.
113
356800
2576
06:11
And recentkürzlich surveysUmfragen have showngezeigt
that mostdie meisten AIAI researchersForscher
114
359400
3296
Neuere Umfragen haben gezeigt,
dass die meisten KI-Forscher
06:14
actuallytatsächlich shareAktie Demis'sDemis optimismOptimismus,
115
362720
2856
tatsächlich Demis' Optimismus teilen
und erwarten, dass wir AKI innerhalb
von Jahrzehnten bekommen werden,
06:17
expectingerwartet that we will
get AGIAGI withininnerhalb decadesJahrzehnte,
116
365600
3080
06:21
so withininnerhalb the lifetimeLebenszeit of manyviele of us,
117
369640
2256
also im Laufe der Lebenszeit
von vielen von uns,
06:23
whichwelche begsbittet the questionFrage -- and then what?
118
371920
1960
was die Frage aufwirft -- und was dann?
06:27
What do we want the roleRolle of humansMenschen to be
119
375040
2216
Was soll die Rolle des Menschen sein,
wenn Maschinen alles besser
und billiger machen können als wir?
06:29
if machinesMaschinen can do everything better
and cheaperbilliger than us?
120
377280
2680
06:35
The way I see it, we faceGesicht a choiceWahl.
121
383000
2000
Ich denke, wir stehen vor einer Wahl.
Eine Option ist, selbstgefällig zu sein:
06:38
One optionMöglichkeit is to be complacentselbstgefällig.
122
386000
1576
06:39
We can say, "Oh, let's just buildbauen machinesMaschinen
that can do everything we can do
123
387600
3776
"Lasst uns KI bauen,
die alles kann, was wir können,
und uns nicht um die Folgen kümmern.
06:43
and not worrySorge about the consequencesFolgen.
124
391400
1816
Wenn wir Technologie schaffen,
die alle Menschen obsolet macht,
06:45
Come on, if we buildbauen technologyTechnologie
that makesmacht all humansMenschen obsoleteobsolet,
125
393240
3256
06:48
what could possiblymöglicherweise go wrongfalsch?"
126
396520
2096
was könnte da schon schiefgehen?"
(Lachen)
06:50
(LaughterLachen)
127
398640
1656
06:52
But I think that would be
embarrassinglypeinlich lameLame.
128
400320
2760
Aber das wäre peinlich faul.
06:56
I think we should be more ambitiousehrgeizige --
in the spiritGeist of TEDTED.
129
404080
3496
Wir sollten im Geiste von TED
ehrgeiziger sein.
06:59
Let's envisionsich vorstellen a trulywirklich inspiringinspirierend
high-techHightech futureZukunft
130
407600
3496
Stellen wir uns eine wahrhaft
inspirierende Hightech-Zukunft vor
07:03
and try to steerSteuern towardsin Richtung it.
131
411120
1400
und versuchen, dahin zu steuern.
07:05
This bringsbringt us to the secondzweite partTeil
of our rocketRakete metaphorMetapher: the steeringLenkung.
132
413720
3536
Das bringt uns zum zweiten Teil
unserer Raketenmetapher: die Lenkung.
07:09
We're makingHerstellung AIAI more powerfulmächtig,
133
417280
1896
Wir machen die KI leistungsfähiger,
aber wie können wir
in eine Zukunft steuern,
07:11
but how can we steerSteuern towardsin Richtung a futureZukunft
134
419200
3816
07:15
where AIAI helpshilft humanityMenschheit flourishblühen
ratherlieber than flounderFlunder?
135
423040
3080
wo KI der Menschheit hilft zu florieren,
anstatt sich abzumühen?
Das Future of Life Institute
habe ich dazu mitgegründet.
07:18
To help with this,
136
426760
1256
07:20
I cofoundedmitgegründet the FutureZukunft of Life InstituteInstitut.
137
428040
1976
Ein gemeinnütziges Unternehmen
07:22
It's a smallklein nonprofitgemeinnützig promotingFörderung
beneficialvorteilhaft technologyTechnologie use,
138
430040
2776
zur Förderung nutzbringender Technik.
07:24
and our goalTor is simplyeinfach
for the futureZukunft of life to existexistieren
139
432840
2736
Unser Ziel ist einfach, für die Zukunft
des Lebens fortzubestehen
07:27
and to be as inspiringinspirierend as possiblemöglich.
140
435600
2056
und so inspirierend wie möglich zu sein.
07:29
You know, I love technologyTechnologie.
141
437680
3176
Ich liebe nämlich Technologie.
07:32
TechnologyTechnologie is why todayheute
is better than the StoneStein AgeAlter.
142
440880
2920
Technologie ist der Grund, warum
das Heute besser als die Steinzeit ist.
07:36
And I'm optimisticoptimistisch that we can createerstellen
a really inspiringinspirierend high-techHightech futureZukunft ...
143
444600
4080
Ich bin optimistisch, dass wir eine
inspirierende Zukunft schaffen können,
wenn -- und das ist ein großes wenn --
07:41
if -- and this is a biggroß if --
144
449680
1456
07:43
if we winSieg the wisdomWeisheit raceRennen --
145
451160
2456
wir das Weisheitsrennen gewinnen --
den Wettlauf zwischen unserer Technologie
mit ihrer zunehmenden Macht
07:45
the raceRennen betweenzwischen the growingwachsend
powerLeistung of our technologyTechnologie
146
453640
2856
07:48
and the growingwachsend wisdomWeisheit
with whichwelche we manageverwalten it.
147
456520
2200
und der zunehmenden Klugheit,
sie zu managen.
Aber das erfordert eine neue Strategie,
07:51
But this is going to requireerfordern
a changeVeränderung of strategyStrategie
148
459240
2296
07:53
because our oldalt strategyStrategie
has been learningLernen from mistakesFehler.
149
461560
3040
weil unsere alte Strategie war,
aus Fehlern zu lernen.
07:57
We inventederfunden fireFeuer,
150
465280
1536
Wir haben das Feuer erfunden,
07:58
screwedgeschraubt up a bunchBündel of timesmal --
151
466840
1536
vermasselten es einige Male --
08:00
inventederfunden the fireFeuer extinguisherFeuerlöscher.
152
468400
1816
und erfanden den Feuerlöscher.
08:02
(LaughterLachen)
153
470240
1336
(Lachen)
Wir erfanden das Auto,
vermasselten es einige Male --
08:03
We inventederfunden the carAuto,
screwedgeschraubt up a bunchBündel of timesmal --
154
471600
2416
und erfanden die Ampel,
den Sicherheitsgurt und den Airbag.
08:06
inventederfunden the trafficder Verkehr lightLicht,
the seatSitz beltGürtel and the airbagAirbag,
155
474040
2667
08:08
but with more powerfulmächtig technologyTechnologie
like nuclearKern weaponsWaffen and AGIAGI,
156
476731
3845
Aber mit mächtigeren Technologien
wie Atomwaffen und AKI
08:12
learningLernen from mistakesFehler
is a lousylausig strategyStrategie,
157
480600
3376
ist das Lernen aus Fehlern
eine lausige Strategie, finden Sie nicht?
08:16
don't you think?
158
484000
1216
(Lachen)
08:17
(LaughterLachen)
159
485240
1016
Es ist viel besser,
proaktiv statt reaktiv zu sein,
08:18
It's much better to be proactiveproaktiv
ratherlieber than reactivereaktive;
160
486280
2576
gut zu planen und die Dinge
sofort richtigzumachen,
08:20
planplanen aheadvoraus and get things
right the first time
161
488880
2296
08:23
because that mightMacht be
the only time we'llGut get.
162
491200
2496
weil wir vielleicht
nur eine Chance bekommen.
Aber es ist lustig,
manchmal sagen mir Leute:
08:25
But it is funnykomisch because
sometimesmanchmal people tell me,
163
493720
2336
"Max, pssst, rede nicht so.
08:28
"MaxMax, shhhShhh, don't talk like that.
164
496080
2736
Das ist technikfeindliche Panikmache."
08:30
That's LudditeLuddite scaremongeringPanikmache."
165
498840
1720
08:34
But it's not scaremongeringPanikmache.
166
502040
1536
Aber es ist keine Panikmache.
08:35
It's what we at MITMIT
call safetySicherheit engineeringIngenieurwesen.
167
503600
2880
Das nennen wir am MIT Sicherheitstechnik.
Bedenken Sie:
08:39
Think about it:
168
507200
1216
Bevor die NASA Apollo 11 startete,
08:40
before NASANASA launchedgestartet
the ApolloApollo 11 missionMission,
169
508440
2216
08:42
they systematicallysystematisch thought throughdurch
everything that could go wrongfalsch
170
510680
3136
durchdachten sie systematisch alles,
was schiefgehen könnte,
wenn man Menschen
auf explosive Treibstofftanks setzt
08:45
when you put people
on topoben of explosiveexplosiv fuelTreibstoff tanksTanks
171
513840
2376
08:48
and launchstarten them somewhereirgendwo
where no one could help them.
172
516240
2616
und sie dorthin schießt,
wo ihnen keiner helfen kann.
Da könnte eine Menge schiefgehen.
08:50
And there was a lot that could go wrongfalsch.
173
518880
1936
08:52
Was that scaremongeringPanikmache?
174
520840
1480
War das Panikmache?
Nein.
08:55
No.
175
523159
1217
Das war genau die Sicherheitstechnik,
08:56
That's was preciselygenau
the safetySicherheit engineeringIngenieurwesen
176
524400
2016
die den Erfolg der Mission sicherstellte,
08:58
that ensuredgewährleistet the successErfolg of the missionMission,
177
526440
1936
und genau das ist die Strategie,
die wir bei AKI wählen sollten.
09:00
and that is preciselygenau the strategyStrategie
I think we should take with AGIAGI.
178
528400
4176
09:04
Think throughdurch what can go wrongfalsch
to make sure it goesgeht right.
179
532600
4056
Durchdenken, was schiefgehen kann,
um sicherzustellen, dass es gut verläuft.
09:08
So in this spiritGeist,
we'vewir haben organizedorganisiert conferencesKonferenzen,
180
536680
2536
In diesem Sinne
organisierten wir Konferenzen,
an denen führende KI-Forscher
und andere Denker teilnahmen,
09:11
bringingbringt togetherzusammen leadingführend
AIAI researchersForscher and other thinkersDenker
181
539240
2816
um zu diskutieren, wie wir diese Weisheit
entwickeln, damit die KI nützlich bleibt.
09:14
to discussdiskutieren how to growgrößer werden this wisdomWeisheit
we need to keep AIAI beneficialvorteilhaft.
182
542080
3736
09:17
Our last conferenceKonferenz
was in AsilomarAsilomar, CaliforniaCalifornia last yearJahr
183
545840
3296
Unsere letzte Konferenz
in Asilomar, Kalifornien,
brachte letztes Jahr diese Liste
von 23 Prinzipien hervor,
09:21
and producedhergestellt this listListe of 23 principlesPrinzipien
184
549160
3056
09:24
whichwelche have sinceschon seit been signedunterzeichnet
by over 1,000 AIAI researchersForscher
185
552240
2896
die seitdem über 1000 KI-Forscher und
führende Industrielle unterzeichnet haben.
09:27
and keySchlüssel industryIndustrie leadersFührer,
186
555160
1296
Ich möchte Ihnen drei
dieser Prinzipien näher bringen.
09:28
and I want to tell you
about threedrei of these principlesPrinzipien.
187
556480
3176
09:31
One is that we should avoidvermeiden an armsArme raceRennen
and lethaltödlich autonomousautonom weaponsWaffen.
188
559680
4960
Eines davon ist, dass wir ein Wettrüsten
und tödliche autonome Waffen vermeiden.
09:37
The ideaIdee here is that any scienceWissenschaft
can be used for newneu waysWege of helpingPortion people
189
565480
3616
Jede Wissenschaft kann genutzt werden,
um Menschen zu helfen
oder auf neue Weise zu schaden.
09:41
or newneu waysWege of harmingschaden people.
190
569120
1536
Zum Beispiel werden Biologie und Chemie
viel eher für neue Medikamente eingesetzt
09:42
For exampleBeispiel, biologyBiologie and chemistryChemie
are much more likelywahrscheinlich to be used
191
570680
3936
09:46
for newneu medicinesMedikamente or newneu curesheilt
than for newneu waysWege of killingTötung people,
192
574640
4856
als für neue Arten, Menschen zu töten,
09:51
because biologistsBiologen
and chemistsApotheke pushedgestoßen hardhart --
193
579520
2176
weil Biologen und Chemiker
unnachgiebig und erfolgreich
09:53
and successfullyerfolgreich --
194
581720
1256
auf Verbote von biologischen
und chemischen Waffen drängten.
09:55
for bansVerbote on biologicalbiologisch
and chemicalchemisch weaponsWaffen.
195
583000
2176
09:57
And in the samegleich spiritGeist,
196
585200
1256
Im gleichen Sinne
wollen die meisten KI-Forscher
09:58
mostdie meisten AIAI researchersForscher want to stigmatizestigmatisieren
and banVerbot lethaltödlich autonomousautonom weaponsWaffen.
197
586480
4440
tödliche autonome Waffen
stigmatisieren und verbieten.
10:03
AnotherEin weiterer AsilomarAsilomar AIAI principlePrinzip
198
591600
1816
Ein weiteres Asilomar KI-Prinzip besagt,
10:05
is that we should mitigatemildern
AI-fueledAI-getankte incomeEinkommen inequalityUngleichheit.
199
593440
3696
dass das KI-bedingte Einkommensgefälle
verringert werden sollte.
10:09
I think that if we can growgrößer werden
the economicWirtschaftlich piePie dramaticallydramatisch with AIAI
200
597160
4456
Wenn wir den wirtschaftlichen Kuchen
mit KI dramatisch vergrößern können,
10:13
and we still can't figureZahl out
how to divideTeilen this piePie
201
601640
2456
aber nicht wissen, wie wir den Kuchen
zum Nutzen aller verteilen können,
10:16
so that everyonejeder is better off,
202
604120
1576
dann Schande über uns!
10:17
then shameSchande on us.
203
605720
1256
10:19
(ApplauseApplaus)
204
607000
4096
(Beifall)
10:23
AlrightIn Ordnung, now raiseerziehen your handHand
if your computerComputer has ever crashedabgestürzt.
205
611120
3600
Okay, jetzt heben Sie die Hand,
wenn Ihr Computer jemals abgestürzt ist.
10:27
(LaughterLachen)
206
615480
1256
(Lachen)
10:28
WowWow, that's a lot of handsHände.
207
616760
1656
Wow, das sind viele Hände.
Dann werden Sie das Prinzip
zu schätzen wissen,
10:30
Well, then you'lldu wirst appreciateschätzen
this principlePrinzip
208
618440
2176
10:32
that we should investinvestieren much more
in AIAI safetySicherheit researchForschung,
209
620640
3136
dass wir viel mehr Forschung in die
KI-Sicherheit stecken sollten.
10:35
because as we put AIAI in chargeberechnen
of even more decisionsEntscheidungen and infrastructureInfrastruktur,
210
623800
3656
Wenn wir die KI immer mehr Entscheidungen
und Infrastruktur steuern lassen,
10:39
we need to figureZahl out how to transformverwandeln
today'sheutige buggyBuggy and hackablehackable computersComputer
211
627480
3616
müssen wir die heutigen störanfälligen
und hackbaren Computer
10:43
into robustrobust AIAI systemsSysteme
that we can really trustVertrauen,
212
631120
2416
zu robusten Systemen machen,
denen wir vertrauen können,
10:45
because otherwiseAndernfalls,
213
633560
1216
denn sonst könnte diese neue
Technologie versagen und uns schaden
10:46
all this awesomegenial newneu technologyTechnologie
can malfunctionFehlfunktion and harmSchaden us,
214
634800
2816
oder gehackt und gegen uns
eingesetzt werden.
10:49
or get hackedgehackt and be turnedgedreht againstgegen us.
215
637640
1976
Diese KI-Sicherheitsarbeit muss
die KI-Werte-Ausrichtung beinhalten.
10:51
And this AIAI safetySicherheit work
has to includeeinschließen work on AIAI valueWert alignmentAusrichtung,
216
639640
5696
10:57
because the realecht threatBedrohung
from AGIAGI isn't maliceBosheit,
217
645360
2816
Die wirkliche Bedrohung
durch AKI ist nicht Bosheit,
11:00
like in sillydumm HollywoodHollywood moviesFilme,
218
648200
1656
wie in albernen Hollywoodfilmen,
11:01
but competenceKompetenz --
219
649880
1736
sondern Befähigung --
11:03
AGIAGI accomplishingvollbringen goalsTore
that just aren'tsind nicht alignedausgerichtet with oursunsere.
220
651640
3416
AKI, die Ziele erreicht,
die nicht mit unseren übereinstimmen.
11:07
For exampleBeispiel, when we humansMenschen drovefuhr
the WestWesten AfricanAfrikanische blackschwarz rhinoRhino extinctausgestorben,
221
655080
4736
Zum Beispiel, als wir Menschen das
Spitzmaul-Nashorn ausgerottet haben,
11:11
we didn't do it because we were a bunchBündel
of evilböse rhinocerosNashorn hatersHasser, did we?
222
659840
3896
taten wir das nicht, weil wir
böse Nashorn-Hasser waren, oder?
11:15
We did it because
we were smarterintelligenter than them
223
663760
2056
Wir taten es, weil wir schlauer waren
und unsere Ziele nicht zu ihren passten.
11:17
and our goalsTore weren'twaren nicht alignedausgerichtet with theirsIhre.
224
665840
2576
11:20
But AGIAGI is by definitionDefinition smarterintelligenter than us,
225
668440
2656
Aber AKI ist definitionsgemäß
schlauer als wir,
also um sicherzugehen, dass wir nicht
in die Lage dieser Nashörner geraten,
11:23
so to make sure that we don't put
ourselvesuns selbst in the positionPosition of those rhinosNashörner
226
671120
3576
11:26
if we createerstellen AGIAGI,
227
674720
1976
wenn wir AKI schaffen,
müssen wir herausfinden, wie wir KI
dazu bringen, unsere Ziele zu verstehen,
11:28
we need to figureZahl out how
to make machinesMaschinen understandverstehen our goalsTore,
228
676720
4176
11:32
adoptadoptieren our goalsTore and retainbehalten our goalsTore.
229
680920
3160
unsere Ziele zu übernehmen
und unsere Ziele beizubehalten.
11:37
And whosederen goalsTore should these be, anywaysowieso?
230
685320
2856
Wessen Ziele sollten das sein?
11:40
WhichDie goalsTore should they be?
231
688200
1896
Welche Ziele sollten sie haben?
11:42
This bringsbringt us to the thirddritte partTeil
of our rocketRakete metaphorMetapher: the destinationZiel.
232
690120
3560
Dies bringt uns zum dritten Teil
unserer Raketenmetapher: das Ziel.
Wir machen KI leistungsfähiger,
11:47
We're makingHerstellung AIAI more powerfulmächtig,
233
695160
1856
versuchen herauszufinden,
wie man sie steuert,
11:49
tryingversuchen to figureZahl out how to steerSteuern it,
234
697040
1816
11:50
but where do we want to go with it?
235
698880
1680
aber wohin wollen wir damit gehen?
Das ist das offensichtliche Problem,
über das fast niemand spricht --
11:53
This is the elephantElefant in the roomZimmer
that almostfast nobodyniemand talksGespräche about --
236
701760
3656
11:57
not even here at TEDTED --
237
705440
1856
nicht einmal hier bei TED --
11:59
because we're so fixatedfixiert
on short-termkurzfristig AIAI challengesHerausforderungen.
238
707320
4080
weil wir so fixiert sind
auf kurzfristige KI-Herausforderungen.
12:04
Look, our speciesSpezies is tryingversuchen to buildbauen AGIAGI,
239
712080
4656
Durch Neugier und Wirtschaft motiviert,
versucht unsere Spezies AKI zu schaffen.
12:08
motivatedmotiviert by curiosityNeugierde and economicsWirtschaft,
240
716760
3496
12:12
but what sortSortieren of futureZukunft societyGesellschaft
are we hopinghoffend for if we succeedgelingen?
241
720280
3680
Aber was für eine zukünftige Gesellschaft
erhoffen wir, falls wir es schaffen?
12:16
We did an opinionMeinung pollUmfrage on this recentlyvor kurzem,
242
724680
1936
Wir machten eine Umfrage
und ich war verblüfft,
12:18
and I was struckgeschlagen to see
243
726640
1216
dass die meisten Leute wollen,
dass wir Superintelligenz bauen:
12:19
that mostdie meisten people actuallytatsächlich
want us to buildbauen superintelligenceSuperintelligenz:
244
727880
2896
KI, die in jeder Hinsicht
schlauer ist als wir.
12:22
AIAI that's vastlyerheblich smarterintelligenter
than us in all waysWege.
245
730800
3160
12:27
What there was the greatestgrößte agreementZustimmung on
was that we should be ambitiousehrgeizige
246
735120
3416
Die größte Übereinstimmung war,
dass wir ehrgeizig sein sollten
12:30
and help life spreadVerbreitung into the cosmosKosmos,
247
738560
2016
und helfen, das Leben
im Kosmos zu verbreiten,
12:32
but there was much lessWeniger agreementZustimmung
about who or what should be in chargeberechnen.
248
740600
4496
aber es gab weniger Einigkeit darüber,
wer oder was die Macht haben sollte.
12:37
And I was actuallytatsächlich quiteganz amusedamüsiert
249
745120
1736
Ich fand es ziemlich lustig,
12:38
to see that there's some some people
who want it to be just machinesMaschinen.
250
746880
3456
dass es einige Leute gibt, die wollen,
dass es nur Maschinen sind.
12:42
(LaughterLachen)
251
750360
1696
(Lachen)
12:44
And there was totalgesamt disagreementMeinungsverschiedenheit
about what the roleRolle of humansMenschen should be,
252
752080
3856
Es gab völlige Uneinigkeit darüber,
was die Rolle des Menschen sein sollte,
12:47
even at the mostdie meisten basicBasic levelEbene,
253
755960
1976
selbst auf der grundlegendsten Ebene.
12:49
so let's take a closernäher look
at possiblemöglich futuresFutures
254
757960
2816
Sehen wir uns also
die mögliche Zukunft genauer an,
12:52
that we mightMacht choosewählen
to steerSteuern towardzu, alrightin Ordung?
255
760800
2736
auf die wir vielleicht hinsteuern.
Verstehen Sie mich nicht falsch,
ich spreche nicht über Raumfahrt.
12:55
So don't get be wrongfalsch here.
256
763560
1336
12:56
I'm not talkingim Gespräch about spacePlatz travelReise,
257
764920
2056
Sondern nur über die metaphorische Reise
der Menschheit in die Zukunft.
12:59
merelynur about humanity'sMenschheit
metaphoricalmetaphorische journeyReise into the futureZukunft.
258
767000
3200
13:02
So one optionMöglichkeit that some
of my AIAI colleaguesKollegen like
259
770920
3496
Eine Möglichkeit,
die einige meiner KI-Kollegen mögen,
13:06
is to buildbauen superintelligenceSuperintelligenz
and keep it underunter humanMensch controlsteuern,
260
774440
3616
ist Superintelligenz zu bauen
und unter menschlicher Kontrolle zu halten
13:10
like an enslavedversklavt god,
261
778080
1736
wie einen versklavten,
vom Internet getrennten Gott,
13:11
disconnectedgetrennt from the internetInternet
262
779840
1576
13:13
and used to createerstellen unimaginableunvorstellbar
technologyTechnologie and wealthReichtum
263
781440
3256
und sie einzusetzen, um unvorstellbare
Technologien und Reichtum
für den zu schaffen, der sie kontrolliert.
13:16
for whoeverwer auch immer controlsKontrollen it.
264
784720
1240
13:18
But LordHerrn ActonActon warnedgewarnt us
265
786800
1456
Aber Lord Acton warnte uns,
13:20
that powerLeistung corruptsverdirbt,
and absoluteAbsolute powerLeistung corruptsverdirbt absolutelyunbedingt,
266
788280
3616
dass Macht korrumpiert und
absolute Macht absolut korrumpiert,
13:23
so you mightMacht worrySorge that maybe
we humansMenschen just aren'tsind nicht smartsmart enoughgenug,
267
791920
4056
also könnte man befürchten,
dass wir Menschen vielleicht nicht klug
13:28
or wiseweise enoughgenug ratherlieber,
268
796000
1536
oder vielmehr weise genug sind,
13:29
to handleGriff this much powerLeistung.
269
797560
1240
um mit so viel Macht umzugehen.
13:31
AlsoAuch, asidebeiseite from any
moralMoral- qualmsSkrupel you mightMacht have
270
799640
2536
Abgesehen von allen moralischen Problemen,
die Sie vielleicht
mit versklavten Göttern haben,
13:34
about enslavingVersklavung superiorüberlegen mindsKöpfe,
271
802200
2296
13:36
you mightMacht worrySorge that maybe
the superintelligenceSuperintelligenz could outsmartüberlisten us,
272
804520
3976
könnten Sie befürchten, dass
die Superintelligenz uns austrickst,
13:40
breakUnterbrechung out and take over.
273
808520
2240
ausbricht und die Macht übernimmt.
13:43
But I alsoebenfalls have colleaguesKollegen
who are fine with AIAI takingunter over
274
811560
3416
Aber ich habe auch Kollegen,
die eine Übernahme durch KI gut fänden,
13:47
and even causingverursacht humanMensch extinctionAussterben,
275
815000
2296
selbst wenn sie
zu unserer Ausrottung führt,
13:49
as long as we feel the the AIsAIs
are our worthywürdig descendantsNachkommenschaft,
276
817320
3576
solange wir glauben, dass die KIs
unsere würdigen Nachkommen sind,
13:52
like our childrenKinder.
277
820920
1736
wie unsere Kinder.
13:54
But how would we know that the AIsAIs
have adoptedangenommen our bestBeste valuesWerte
278
822680
5616
Aber wie können wir wissen,
dass die KIs unsere Werte angenommen haben
und nicht nur dumme Zombies sind,
die uns Menschlichkeit vorspiegeln?
14:00
and aren'tsind nicht just unconsciousbewusstlos zombiesZombies
trickingaustricksen us into anthropomorphizingvermenschlichen them?
279
828320
4376
14:04
AlsoAuch, shouldn'tsollte nicht those people
who don't want humanMensch extinctionAussterben
280
832720
2856
Sollten nicht auch jene Menschen
ein Mitspracherecht haben,
14:07
have a say in the matterAngelegenheit, too?
281
835600
1440
die keine menschliche Auslöschung wollen?
14:10
Now, if you didn't like eitherentweder
of those two high-techHightech optionsOptionen,
282
838200
3376
Wenn Sie keine dieser
beiden High-Tech-Optionen mögen,
14:13
it's importantwichtig to remembermerken
that low-techLow-Tech is suicideSelbstmord
283
841600
3176
sollten Sie bedenken, dass Low-Tech
aus kosmischer Sicht Selbstmord ist.
14:16
from a cosmickosmisch perspectivePerspektive,
284
844800
1256
Wenn unsere Technologien
nicht viel besser werden,
14:18
because if we don't go farweit
beyonddarüber hinaus today'sheutige technologyTechnologie,
285
846080
2496
ist das Aussterben
der Menschheit keine Frage,
14:20
the questionFrage isn't whetherob humanityMenschheit
is going to go extinctausgestorben,
286
848600
2816
sondern nur, ob wir durch den nächsten
Killer-Asteroiden, Supervulkan,
14:23
merelynur whetherob
we're going to get takengenommen out
287
851440
2016
14:25
by the nextNächster killerMörder asteroidAsteroid, supervolcanoSupervulkan
288
853480
2136
oder etwas anderes sterben,
das bessere Technologie lösen könnte.
14:27
or some other problemProblem
that better technologyTechnologie could have solvedgelöst.
289
855640
3096
Wie wäre es, beides gleichzeitig zu haben?
14:30
So, how about havingmit
our cakeKuchen and eatingEssen it ...
290
858760
3576
14:34
with AGIAGI that's not enslavedversklavt
291
862360
1840
Eine AKI, die nicht versklavt ist,
14:37
but treatsbehandelt us well because its valuesWerte
are alignedausgerichtet with oursunsere?
292
865120
3176
sondern uns gut behandelt,
weil ihre Werte zu unseren passen?
14:40
This is the gistGIST of what EliezerEliezer YudkowskyYudkowsky
has callednamens "friendlyfreundlich AIAI,"
293
868320
4176
Das ist der Kern dessen, was
Eliezer Yudkowsky "freundliche KI" nannte
14:44
and if we can do this,
it could be awesomegenial.
294
872520
2680
und wenn wir das schaffen,
wäre es wunderbar.
14:47
It could not only eliminatebeseitigen negativeNegativ
experiencesErfahrungen like diseaseKrankheit, povertyArmut,
295
875840
4816
Es könnte nicht nur negative Erfahrungen
wie Krankheit, Armut, Kriminalität
und andere Leiden beseitigen,
14:52
crimeKriminalität and other sufferingLeiden,
296
880680
1456
14:54
but it could alsoebenfalls give us
the freedomFreiheit to choosewählen
297
882160
2816
sondern es könnte uns auch
die Freiheit geben,
14:57
from a fantasticfantastisch newneu diversityVielfalt
of positivepositiv experiencesErfahrungen --
298
885000
4056
aus einer fantastischen neuen Vielfalt
positiver Erfahrungen zu wählen.
Das würde uns zu Herren
unseres eigenen Schicksals machen.
15:01
basicallyGrundsätzlich gilt makingHerstellung us
the mastersMeister of our ownbesitzen destinySchicksal.
299
889080
3160
15:06
So in summaryZusammenfassung,
300
894280
1376
Alles in allem ist unsere Situation
mit der Technologie kompliziert,
15:07
our situationLage with technologyTechnologie
is complicatedkompliziert,
301
895680
3096
15:10
but the biggroß pictureBild is ratherlieber simpleeinfach.
302
898800
2416
aber das große Bild ist ziemlich einfach.
15:13
MostDie meisten AIAI researchersForscher
expecterwarten von AGIAGI withininnerhalb decadesJahrzehnte,
303
901240
3456
Die meisten KI-Forscher
erwarten AKI innerhalb von Jahrzehnten,
15:16
and if we just bumblebummeln
into this unpreparedunvorbereitet,
304
904720
3136
und stolpern wir da unvorbereitet hinein,
15:19
it will probablywahrscheinlich be
the biggestgrößte mistakeFehler in humanMensch historyGeschichte --
305
907880
3336
wäre dies wohl der größte Fehler
in der Geschichte der Menschheit,
15:23
let's faceGesicht it.
306
911240
1416
wenn wir ehrlich sind.
15:24
It could enableaktivieren brutalbrutal,
globalglobal dictatorshipDiktatur
307
912680
2576
Es könnte eine brutale, globale Diktatur
15:27
with unprecedentedbeispiellos inequalityUngleichheit,
surveillanceÜberwachung and sufferingLeiden,
308
915280
3536
mit beispielloser Ungleichheit,
Überwachung und Leid ermöglichen
und vielleicht sogar
das Aussterben der Menschen.
15:30
and maybe even humanMensch extinctionAussterben.
309
918840
1976
15:32
But if we steerSteuern carefullyvorsichtig,
310
920840
2320
Aber wenn wir vorsichtig steuern,
15:36
we could endEnde up in a fantasticfantastisch futureZukunft
where everybody'sjedermanns better off:
311
924040
3896
könnten wir eine Zukunft haben,
in der es allen besser geht:
15:39
the poorArm are richerreicher, the richReich are richerreicher,
312
927960
2376
die Armen sind reicher,
die Reichen sind reicher.
15:42
everybodyjeder is healthygesund
and freefrei to liveLeben out theirihr dreamsTräume.
313
930360
3960
Jeder ist gesund und frei,
seine Träume zu leben.
15:47
Now, hangaufhängen on.
314
935000
1536
Warten Sie mal.
15:48
Do you folksLeute want the futureZukunft
that's politicallypolitisch right or left?
315
936560
4576
Wollen Sie eine Zukunft haben,
die politisch rechts oder links ist?
Wollen Sie die fromme Gesellschaft
mit strengen moralischen Regeln,
15:53
Do you want the piousfromme societyGesellschaft
with strictstreng moralMoral- rulesRegeln,
316
941160
2856
15:56
or do you an hedonistichedonistisch free-for-allJeder gegen jeden,
317
944040
1816
oder eine hedonistische Anarchie,
15:57
more like BurningBrennen Man 24/7?
318
945880
2216
mehr wie Burning Man rund um die Uhr?
Wollen Sie schöne Strände,
Wälder und Seen,
16:00
Do you want beautifulschön beachesStrände,
forestsWälder and lakesSeen,
319
948120
2416
oder wollen Sie lieber
mit Computern Atome neu ordnen,
16:02
or would you preferbevorzugen to rearrangeneu anordnen
some of those atomsAtome with the computersComputer,
320
950560
3416
um virtuelle Erfahrungen zu machen?
16:06
enablingAktivieren virtualvirtuell experiencesErfahrungen?
321
954000
1715
Mit freundlicher KI könnten wir
all diese Gesellschaften aufbauen
16:07
With friendlyfreundlich AIAI, we could simplyeinfach
buildbauen all of these societiesGesellschaften
322
955739
3157
16:10
and give people the freedomFreiheit
to choosewählen whichwelche one they want to liveLeben in
323
958920
3216
und die Menschen wählen lassen,
wie ​​sie leben wollen,
weil wir nicht mehr durch
unsere Intelligenz limitiert wären,
16:14
because we would no longerlänger
be limitedbegrenzt by our intelligenceIntelligenz,
324
962160
3096
sondern nur noch durch die Physik.
16:17
merelynur by the lawsGesetze of physicsPhysik.
325
965280
1456
16:18
So the resourcesRessourcen and spacePlatz
for this would be astronomicalastronomisch --
326
966760
4616
So wären die Ressourcen
und der Raum dafür astronomisch --
16:23
literallybuchstäblich.
327
971400
1320
buchstäblich.
16:25
So here'shier ist our choiceWahl.
328
973320
1200
Also, wir haben die Wahl.
16:27
We can eitherentweder be complacentselbstgefällig
about our futureZukunft,
329
975880
2320
Wir können entweder selbstgefällig
hinsichtlich unserer Zukunft sein,
16:31
takingunter as an articleArtikel of blindblind faithGlauben
330
979440
2656
in dem blindem Glauben,
16:34
that any newneu technologyTechnologie
is guaranteedgarantiert to be beneficialvorteilhaft,
331
982120
4016
dass jede neue Technologie
garantiert von Nutzen ist,
16:38
and just repeatwiederholen that to ourselvesuns selbst
as a mantraMantra over and over and over again
332
986160
4136
und das einfach als ein Mantra
immer und immer wiederholen,
16:42
as we driftDrift like a rudderlessorientierungslos shipSchiff
towardsin Richtung our ownbesitzen obsolescenceVeralterung.
333
990320
3680
während wir wie ein Schiff ohne Ruder
auf unsere Überflüssigkeit zutreiben.
16:46
Or we can be ambitiousehrgeizige --
334
994920
1880
Oder wir können ehrgeizig sein --
und darüber nachdenken,
wie wir unsere Technologie steuern
16:49
thinkingDenken hardhart about how
to steerSteuern our technologyTechnologie
335
997840
2456
16:52
and where we want to go with it
336
1000320
1936
und wohin wir gehen wollen,
16:54
to createerstellen the ageAlter of amazementErstaunen.
337
1002280
1760
um das Zeitalter des Staunens zu schaffen.
16:57
We're all here to celebratefeiern
the ageAlter of amazementErstaunen,
338
1005000
2856
Wir sind alle hier, um das Zeitalter
des Staunens zu feiern,
16:59
and I feel that its essenceWesen should lieLüge
in becomingWerden not overpoweredüberwältigt
339
1007880
4440
und ich meine, das Wesentliche dabei
sollte sein, nicht überwältigt zu werden,
17:05
but empoweredermächtigt by our technologyTechnologie.
340
1013240
2616
sondern durch unsere Technologie
gestärkt zu werden.
17:07
Thank you.
341
1015880
1376
Vielen Dank.
17:09
(ApplauseApplaus)
342
1017280
3080
(Beifall)
Translated by Andreas Herzog
Reviewed by Johannes Duschner

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com