ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Hogyan váljunk erőssé és nem leigázottá a mesterséges intelligencia által?

Filmed:
1,409,007 views

Számos mesterséges intelligencia kutató arra számít, hogy a mesterséges intelligencia évtizedeken belül minden munkahelyről és feladatvégzésből kiszorítja az embereket, lehetővé téve egy olyan jövőt, ahol csak a fizika törvényei korlátoznak bennünket, nem pedig intelligenciánk határai. Az MIT fizikus és mesterséges intelligencia kutató, Max Tegmark elválasztja a valós lehetőségeket és fenyegetéseket a mítoszoktól, leírva azokat a konkrét lépéseket, amelyeket ma meg kellene tennünk annak biztosítása érdekében, hogy a mesterséges intelligencia a legjobb, és ne a legrosszabb legyen, ami az emberiséggel történik.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionmilliárd, ezermillió yearsévek
of cosmickozmikus historytörténelem,
0
760
4416
13,8 milliárd év
kozmikus történelmét követően
00:17
our universevilágegyetem has wokenfelébredt up
1
5200
2096
univerzumunk életre kelt,
00:19
and becomeválik awaretudatában van of itselfmaga.
2
7320
1520
tudatára ébredt létezésének.
00:21
From a smallkicsi bluekék planetbolygó,
3
9480
1936
Egy kis kék bolygóról
00:23
tinyapró, conscioustudatos partsalkatrészek of our universevilágegyetem
have begunmegkezdett gazingkitekintve out into the cosmosvilágegyetem
4
11440
4136
világegyetemünk kicsiny, tudatos
összetevői kezdték bámulni a kozmoszt
00:27
with telescopestávcsövek,
5
15600
1376
teleszkópjaikkal,
00:29
discoveringfelfedezése something humblingmegalázó.
6
17000
1480
és felfedeztek valami lehangolót:
00:31
We'veMost már discoveredfelfedezett that our universevilágegyetem
is vastlymérhetetlenül grandergrandiózusabb
7
19320
2896
Rájöttek, hogy univerzumunk
mérhetetlenül nagyobb
00:34
than our ancestorselődök imaginedképzelt
8
22240
1336
az őseink által képzeltnél.
00:35
and that life seemsÚgy tűnik, to be an almostmajdnem
imperceptiblyÉszrevétlenül smallkicsi perturbationzavarok
9
23600
4256
Az élet észrevehetetlen
rendbontásnak tűnik
00:39
on an otherwisemásképp deadhalott universevilágegyetem.
10
27880
1720
az egyébként halott világmindenségben.
00:42
But we'vevoltunk alsois discoveredfelfedezett
something inspiringinspiráló,
11
30320
3016
Felfedeztünk azonban valami biztatót is,
00:45
whichmelyik is that the technologytechnológia
we're developingfejlesztés has the potentiallehetséges
12
33360
2976
hogy fejlődő technológiánk segítségével
00:48
to help life flourishfejlődik like never before,
13
36360
2856
az élet úgy fejlődhet, mint soha azelőtt,
00:51
not just for centuriesszázadok
but for billionsmilliárdokat of yearsévek,
14
39240
3096
évszázadok helyett évmilliárdokig
00:54
and not just on earthföld but throughoutegész
much of this amazingelképesztő cosmosvilágegyetem.
15
42360
4120
a Földön túl a csodás kozmoszban is.
00:59
I think of the earliestlegkorábbi life as "Life 1.0"
16
47680
3336
A kezdeti életre "Lét 1.0"-ként gondolok,
01:03
because it was really dumbnéma,
17
51040
1376
mivel igen ostoba volt,
01:04
like bacteriabaktériumok, unableképtelen to learntanul
anything duringalatt its lifetimeélettartam.
18
52440
4296
a baktériumokhoz hasonló,
tanulásra képtelen.
Az emberiségre "Lét 2.0"-ként gondolok,
mivel mi képesek vagyunk tanulni.
01:08
I think of us humansemberek as "Life 2.0"
because we can learntanul,
19
56760
3376
Kockaként ezt úgy értelmezhetjük,
01:12
whichmelyik we in nerdynerdy, geekkockafej speakbeszél,
20
60160
1496
01:13
mightesetleg think of as installingtelepítése
newúj softwareszoftver into our brainsagyvelő,
21
61680
3216
mintha agyunkba
új szoftvereket telepítenének:
01:16
like languagesnyelvek and jobmunka skillsszakértelem.
22
64920
2120
nyelveket és szaktudást.
01:19
"Life 3.0," whichmelyik can designtervezés not only
its softwareszoftver but alsois its hardwarehardver
23
67680
4296
"Lét 3.0", amely saját szoftverén túl
hardverét is meg tudja tervezni
01:24
of coursetanfolyam doesn't existlétezik yetmég.
24
72000
1656
természetesen nem létezik még.
01:25
But perhapstalán our technologytechnológia
has alreadymár madekészült us "Life 2.1,"
25
73680
3776
Eszközeinkkel talán a "Lét 2.1" vagyunk,
01:29
with our artificialmesterséges kneestérd,
pacemakersszívritmus-szabályozók and cochlearCsigás implantsimplantátumok.
26
77480
4336
térdprotézisekkel, szívritmus-
szabályzókkal, cochleáris implantátummal.
01:33
So let's take a closerközelebb look
at our relationshipkapcsolat with technologytechnológia, OK?
27
81840
3880
Nézzük meg alaposabban
kapcsolatunkat a technológiával!
01:38
As an examplepélda,
28
86800
1216
Például
01:40
the ApolloApollo 11 moonhold missionmisszió
was bothmindkét successfulsikeres and inspiringinspiráló,
29
88040
5296
az Apolló-11 holdra szállása
sikeres és biztató volt.
01:45
showingkiállítás that when we humansemberek
use technologytechnológia wiselybölcsen,
30
93360
3016
Megmutatta, hogy a technológiát
bölcsen használva
01:48
we can accomplishmegvalósítani, végrahajt things
that our ancestorselődök could only dreamálom of.
31
96400
3936
olyan dolgokat vihetünk véghez,
amelyről őseink csak álmodozhattak.
01:52
But there's an even more inspiringinspiráló journeyutazás
32
100360
2976
De van egy még lelkesítőbb utazás,
01:55
propelledmeghajtással by something
more powerfulerős than rocketrakéta enginesmotorok,
33
103360
2680
a rakétánál erősebb meghajtással,
01:59
where the passengersaz utasok
aren'tnem just threehárom astronautsűrhajósok
34
107200
2336
ahol nem csak három űrhajós utazik,
02:01
but all of humanityemberiség.
35
109560
1776
hanem az egész emberiség.
02:03
Let's talk about our collectivekollektív
journeyutazás into the futurejövő
36
111360
2936
Beszéljünk közös utazásunkról a jövőbe
02:06
with artificialmesterséges intelligenceintelligencia.
37
114320
2000
a mesterséges intelligenciával, az MI-vel!
02:08
My friendbarát JaanJaan TallinnTallinn likeskedvel to pointpont out
that just as with rocketryrakétatechnika,
38
116960
4536
Barátom, Jaan Tallinn szeret rámutatni,
hogy éppúgy, mint a rakétatechnikánál,
02:13
it's not enoughelég to make
our technologytechnológia powerfulerős.
39
121520
3160
nem elég az erős technológia.
02:17
We alsois have to figureábra out,
if we're going to be really ambitiousambiciózus,
40
125560
3175
Ha eltökéltek vagyunk,
azt is ki kell dolgozzuk,
02:20
how to steerSteer it
41
128759
1416
hogyan irányítsuk,
02:22
and where we want to go with it.
42
130199
1681
és mire használjuk.
02:24
So let's talk about all threehárom
for artificialmesterséges intelligenceintelligencia:
43
132880
2840
Beszéljünk az MI-vel kapcsolatosan
e három tényezőről:
02:28
the powererő, the steeringkormányzó
and the destinationrendeltetési hely.
44
136440
3056
az erőről, az irányításról és a célról.
02:31
Let's startRajt with the powererő.
45
139520
1286
Kezdjük az erővel.
02:33
I definemeghatározzák intelligenceintelligencia very inclusivelyösszetételének --
46
141600
3096
Intelligencián egyszerűen
02:36
simplyegyszerűen as our abilityképesség
to accomplishmegvalósítani, végrahajt complexösszetett goalscélok,
47
144720
4336
komplex céljaink megvalósítási
képességét értem,
02:41
because I want to includetartalmaz bothmindkét
biologicalbiológiai and artificialmesterséges intelligenceintelligencia.
48
149080
3816
belevéve a biológiai
és a mesterséges intelligenciát is.
02:44
And I want to avoidelkerül
the sillybolondos carbon-chauvinismszén-sovinizmus ideaötlet
49
152920
4016
Hagyjuk a buta szénsoviniszta elméletet,
02:48
that you can only be smartOkos
if you're madekészült of meathús.
50
156960
2360
hogy csak az lehet okos, ami élő.
02:52
It's really amazingelképesztő how the powererő
of AIAI has grownfelnőtt recentlymostanában.
51
160880
4176
Igazán meglepő, ahogy az MI ereje
növekedett mostanában!
02:57
Just think about it.
52
165080
1256
Gondoljuk csak meg.
02:58
Not long agoezelőtt, robotsrobotok couldn'tnem tudott walkséta.
53
166360
3200
Nemrég a robotok járni sem tudtak,
03:03
Now, they can do backflipsbackflips.
54
171040
1720
most hátraszaltót csinálnak.
03:06
Not long agoezelőtt,
55
174080
1816
Nemrég
03:07
we didn't have self-drivingönálló vezetés carsautók.
56
175920
1760
még nem volt önvezető autónk,
03:10
Now, we have self-flyingönrepülés rocketsrakéták.
57
178920
2480
ma automata rakétáink vannak.
03:15
Not long agoezelőtt,
58
183960
1416
Nemrég
03:17
AIAI couldn'tnem tudott do facearc recognitionelismerés.
59
185400
2616
az MI nem volt képes arcfelismerésre,
03:20
Now, AIAI can generategenerál fakehamisítvány facesarcok
60
188040
2976
ma képes hamis arcokat előállítani,
03:23
and simulateszimulálni your facearc
sayingmondás stuffdolog that you never said.
61
191040
4160
arcunkat szimulálva olyasmiket mondani,
amit sohasem mondanánk.
03:28
Not long agoezelőtt,
62
196400
1576
Nemrég
03:30
AIAI couldn'tnem tudott beatüt us at the gamejátszma, meccs of Go.
63
198000
1880
az MI nem győzött le minket góban,
03:32
Then, GoogleGoogle DeepMind'sDeepMind barátait AlphaZeroAz AlphaZero értéke AIAI
tookvett 3,000 yearsévek of humanemberi Go gamesjátékok
64
200400
5096
aztán a Google DeepMind AlphaZero MI
megtanulta 3000 év emberi gojátszmáit
03:37
and Go wisdombölcsesség,
65
205520
1256
és go-bölcsességét,
03:38
ignoredfigyelmen kívül hagyja it all and becamelett the world'svilág bestlegjobb
playerjátékos by just playingjátszik againstellen itselfmaga.
66
206800
4976
majd figyelmen kívül hagyva őket,
csak önmagával játszva vált világelsővé.
03:43
And the mosta legtöbb impressivehatásos featfeat here
wasn'tnem volt that it crushedszétzúzott humanemberi gamersjátékosok,
67
211800
3696
De a leglenyűgözőbb nem
az emberi játékosok legyőzése volt,
03:47
but that it crushedszétzúzott humanemberi AIAI researcherskutatók
68
215520
2576
hanem az MI-kutatóké,
03:50
who had spentköltött decadesévtizedekben
handcraftinghandcrafting game-playingjáték softwareszoftver.
69
218120
3680
akik évtizedeket töltöttek
a játék szoftverének fejlesztésével.
03:54
And AlphaZeroAz AlphaZero értéke crushedszétzúzott humanemberi AIAI researcherskutatók
not just in Go but even at chesssakk,
70
222200
4656
Az AlphaZero nem csak góban győzte le
az MI-kutatókat, hanem sakkban is,
03:58
whichmelyik we have been workingdolgozó on sincemivel 1950.
71
226880
2480
amin már 1950 óta dolgozunk.
04:02
So all this amazingelképesztő recentfriss progressHaladás in AIAI
really begskönyörög the questionkérdés:
72
230000
4240
Az MI e szédítő fejlődése
felveti a kérdést:
04:07
How farmessze will it go?
73
235280
1560
mit várhatunk még?
04:09
I like to think about this questionkérdés
74
237800
1696
Szeretek erről gondolkodni
04:11
in termsfeltételek of this abstractabsztrakt
landscapetájkép of tasksfeladatok,
75
239520
2976
a feladatok ezen elméleti tájképe alapján.
A magasság jelzi, milyen nehéz az MI-nek
04:14
where the elevationmagasság representsjelentése
how hardkemény it is for AIAI to do eachminden egyes taskfeladat
76
242520
3456
a feladat teljesítése emberi szinten.
04:18
at humanemberi levelszint,
77
246000
1216
04:19
and the seatenger levelszint representsjelentése
what AIAI can do todayMa.
78
247240
2760
A tengerszint az, ahol ma az MI tart.
04:23
The seatenger levelszint is risingemelkedő
as AIAI improvesjavítja,
79
251120
2056
A tengerszint nő az MI fejlődésével,
04:25
so there's a kindkedves of globalglobális warmingmelegítés
going on here in the taskfeladat landscapetájkép.
80
253200
3440
globális felmelegedés zajlik
a feladattérképen,
04:30
And the obviousnyilvánvaló takeawayelvihető
is to avoidelkerül careerskarrier at the waterfrontvízparton --
81
258040
3335
a nyilvánvaló következtetés,
hogy kerüljék a vízparti foglakozásokat,
04:33
(LaughterNevetés)
82
261399
1257
(Nevetés)
04:34
whichmelyik will soonhamar be
automatedautomatizált and disruptedfeloszlatott.
83
262680
2856
melyeket hamarosan
elér az automatizálás.
04:37
But there's a much
biggernagyobb questionkérdés as well.
84
265560
2976
Van egy sokkal nagyobb kérdés is:
04:40
How highmagas will the watervíz endvég up risingemelkedő?
85
268560
1810
Meddig emelkedik a víz?
04:43
Will it eventuallyvégül is riseemelkedik
to floodárvíz everything,
86
271440
3200
Elönt végül mindent,
04:47
matchingmegfelelő humanemberi intelligenceintelligencia at all tasksfeladatok.
87
275840
2496
emberi szinten végezve minden feladatot?
04:50
This is the definitionmeghatározás
of artificialmesterséges generalTábornok intelligenceintelligencia --
88
278360
3736
Ez a definíciója az általános
mesterséges intelligenciának,
04:54
AGIAGI,
89
282120
1296
az ÁMI-nak,
04:55
whichmelyik has been the holySzent grailGrál
of AIAI researchkutatás sincemivel its inceptionkezdet.
90
283440
3080
amely az MI-kutatók
Szent Grálja a kezdetek óta.
04:59
By this definitionmeghatározás, people who say,
91
287000
1776
Eszerint akik így beszélnek:
"Mindig lesznek foglalkozások,
amelyekben az emberek jobbak a gépeknél!",
05:00
"AhAh, there will always be jobsmunkahelyek
that humansemberek can do better than machinesgépek,"
92
288800
3416
05:04
are simplyegyszerűen sayingmondás
that we'lljól never get AGIAGI.
93
292240
2920
azt mondják, az ÁMI sosem jön létre.
05:07
Sure, we mightesetleg still chooseválaszt
to have some humanemberi jobsmunkahelyek
94
295680
3576
Lesz majd pár emberi foglalkozás,
05:11
or to give humansemberek incomejövedelem
and purposecélja with our jobsmunkahelyek,
95
299280
3096
vagy adhatunk jövedelmet és célt
az embereknek foglalkozásaikkal,
05:14
but AGIAGI will in any caseügy
transformátalakít life as we know it
96
302400
3736
de az ÁMI mindenképp átalakítja
az általunk ismert életet,
05:18
with humansemberek no longerhosszabb beinglény
the mosta legtöbb intelligentintelligens.
97
306160
2736
mikor nem mi leszünk
a legintelligensebbek.
05:20
Now, if the watervíz levelszint does reachelér AGIAGI,
98
308920
3696
Ha a vízszint eléri az ÁMI-t,
05:24
then furthertovábbi AIAI progressHaladás will be drivenhajtott
mainlyfőként not by humansemberek but by AIAI,
99
312640
5296
a további MI fejlődést főleg
maga az MI fogja irányítani,
05:29
whichmelyik meanseszközök that there's a possibilitylehetőség
100
317960
1856
ami azt jelenti, hogy lehetséges
05:31
that furthertovábbi AIAI progressHaladás
could be way fastergyorsabb
101
319840
2336
a további MI jelentősen
gyorsabb fejlődése
05:34
than the typicaltipikus humanemberi researchkutatás
and developmentfejlődés timescaleidőskálán of yearsévek,
102
322200
3376
mint az emberi kutatás és a fejlődés
években mérhető időtartama,
05:37
raisingemelés the controversialvitatott possibilitylehetőség
of an intelligenceintelligencia explosionrobbanás
103
325600
4016
felvetve az intelligencia kirobbanó
fejlődésének vitatott lehetőségét,
05:41
where recursivelyrekurzív self-improvingönálló javítása AIAI
104
329640
2296
amikor az önmagát ismétlődően fejlesztő MI
05:43
rapidlygyorsan leaveslevelek humanemberi
intelligenceintelligencia farmessze behindmögött,
105
331960
3416
gyorsan messze maga mögött hagyja
az emberi intelligenciát,
05:47
creatinglétrehozása what's knownismert
as superintelligencesuperintelligence.
106
335400
2440
és létrehozza a szuperintelligenciát.
05:51
AlrightRendben van, realityvalóság checkjelölje be:
107
339800
2280
Mi a valóság?
05:55
Are we going to get AGIAGI any time soonhamar?
108
343120
2440
Elérjük az ÁMI-t hamarosan?
05:58
Some famoushíres AIAI researcherskutatók,
like RodneyRodney BrooksBrooks,
109
346360
2696
Néhány híres MI-kutató,
pl. Rodney Brooks szerint,
06:01
think it won'tszokás happentörténik
for hundredsszáz of yearsévek.
110
349080
2496
ez nem következik be még pár száz évig.
06:03
But othersmások, like GoogleGoogle DeepMindDeepMind
founderalapító DemisDemis HassabisHassabis,
111
351600
3896
De mások – mint a Google DeepMind
alapítója Demis Hassabis –
06:07
are more optimisticoptimista
112
355520
1256
optimistábbak.
06:08
and are workingdolgozó to try to make
it happentörténik much soonerelőbb.
113
356800
2576
A gyors megvalósuláson dolgoznak.
06:11
And recentfriss surveysfelmérések have shownLátható
that mosta legtöbb AIAI researcherskutatók
114
359400
3296
Felmérések szerint a legtöbb MI kutató
06:14
actuallytulajdonképpen shareOssza meg Demis'sDemis 's optimismoptimizmus,
115
362720
2856
osztja Demis optimizmusát,
06:17
expectingvár that we will
get AGIAGI withinbelül decadesévtizedekben,
116
365600
3080
szerintük évtizedeken belül eljön az ÁMI.
06:21
so withinbelül the lifetimeélettartam of manysok of us,
117
369640
2256
Sokan megéljük ezt,
06:23
whichmelyik begskönyörög the questionkérdés -- and then what?
118
371920
1960
ami felveti a kérdést, mi lesz utána?
06:27
What do we want the roleszerep of humansemberek to be
119
375040
2216
Mi legyen az emberek szerepe,
06:29
if machinesgépek can do everything better
and cheaperolcsóbb than us?
120
377280
2680
ha a gépek mindent jobban
és olcsóbban végeznek el?
06:35
The way I see it, we facearc a choiceválasztás.
121
383000
2000
Úgy látom, választás előtt állunk.
06:38
One optionválasztási lehetőség is to be complacentönelégült.
122
386000
1576
Az egyik az önteltség.
06:39
We can say, "Oh, let's just buildépít machinesgépek
that can do everything we can do
123
387600
3776
Azt mondjuk: "Építsünk csak gépeket,
amik mindent meg tudnak tenni, amit mi,
06:43
and not worryaggodalom about the consequenceskövetkezményei.
124
391400
1816
ne aggódjunk a következmények miatt!
06:45
Come on, if we buildépít technologytechnológia
that makesgyártmányú all humansemberek obsoleteelavult,
125
393240
3256
Ha a gépek elavulttá teszik az embereket,
06:48
what could possiblyesetleg go wrongrossz?"
126
396520
2096
mi baj lehet belőle?"
06:50
(LaughterNevetés)
127
398640
1656
(Nevetés)
06:52
But I think that would be
embarrassinglykínosan lamebéna.
128
400320
2760
Szerintem ez kínosan ostoba dolog volna.
06:56
I think we should be more ambitiousambiciózus --
in the spiritszellem of TEDTED.
129
404080
3496
Nagyra kéne törnünk a TED szellemében.
06:59
Let's envisionelképzelni a trulyvalóban inspiringinspiráló
high-techcsúcstechnológia futurejövő
130
407600
3496
Képzeljünk el igazán biztató
csúcstechnológiás jövőt,
07:03
and try to steerSteer towardsfelé it.
131
411120
1400
és próbáljunk arra tartani.
07:05
This bringshoz us to the secondmásodik partrész
of our rocketrakéta metaphormetafora: the steeringkormányzó.
132
413720
3536
Ez rakétahasonlatunk második
részéhez vezet: az irányításhoz.
07:09
We're makinggyártás AIAI more powerfulerős,
133
417280
1896
Erősebbé tesszük az MI-t,
07:11
but how can we steerSteer towardsfelé a futurejövő
134
419200
3816
de hogyan irányítsuk olyan jövő felé,
07:15
where AIAI helpssegít humanityemberiség flourishfejlődik
ratherInkább than flounderérdes lepényhal?
135
423040
3080
ahol az MI nem vergődéshez,
hanem fejlődéshez segít bennünket?
Ennek előmozdítására
07:18
To help with this,
136
426760
1256
megalapítottuk az Élet Jövője Intézetet.
07:20
I cofoundedtársalapítója the FutureJövő of Life InstituteIntézet.
137
428040
1976
07:22
It's a smallkicsi nonprofitnonprofit promotingelőmozdítása
beneficialjótékony technologytechnológia use,
138
430040
2776
Nonprofit, jótékony technológiai
alkalmazásokat támogat.
07:24
and our goalcél is simplyegyszerűen
for the futurejövő of life to existlétezik
139
432840
2736
Célunk csak az élet jövőjének biztosítása,
07:27
and to be as inspiringinspiráló as possiblelehetséges.
140
435600
2056
és ösztönző, amennyire lehet.
07:29
You know, I love technologytechnológia.
141
437680
3176
Szeretem a technológiát.
07:32
TechnologyTechnológia is why todayMa
is better than the Stone AgeKor.
142
440880
2920
A technológia miatt jobb ma,
mint a kőkorszakban volt.
07:36
And I'm optimisticoptimista that we can createteremt
a really inspiringinspiráló high-techcsúcstechnológia futurejövő ...
143
444600
4080
Optimista vagyok, hogy létrehozhatunk
motiváló csúcstechnológiájú jövőt,
07:41
if -- and this is a bignagy if --
144
449680
1456
ha – és ez egy nagy "ha" –
07:43
if we wingyőzelem the wisdombölcsesség raceverseny --
145
451160
2456
megnyerjük a bölcsességversenyt:
07:45
the raceverseny betweenközött the growingnövekvő
powererő of our technologytechnológia
146
453640
2856
technológiánk növekvő erejének
07:48
and the growingnövekvő wisdombölcsesség
with whichmelyik we managekezel it.
147
456520
2200
és az őt irányító bölcsességünk
fejlődésének versenyét.
07:51
But this is going to requirekíván
a changeváltozás of strategystratégia
148
459240
2296
Ez azonban stratégiaváltoztatást igényel,
07:53
because our oldrégi strategystratégia
has been learningtanulás from mistakeshibák.
149
461560
3040
mert régi stratégiánk a hibákból tanulás.
07:57
We inventedfeltalált fireTűz,
150
465280
1536
Felfedeztük a tüzet –
07:58
screwedcsavart up a bunchcsokor of timesalkalommal --
151
466840
1536
csomószor elszúrtuk –,
08:00
inventedfeltalált the fireTűz extinguishertűzoltó.
152
468400
1816
hát feltaláltuk a tűzoltókészüléket.
08:02
(LaughterNevetés)
153
470240
1336
(Nevetés)
Feltaláltuk az autót –
csomószor elszúrtuk –,
08:03
We inventedfeltalált the carautó,
screwedcsavart up a bunchcsokor of timesalkalommal --
154
471600
2416
feltaláltuk a közlekedési lámpákat,
a biztonsági övet, a légzsákot.
08:06
inventedfeltalált the trafficforgalom lightfény,
the seatülés beltöv and the airbaglégzsák,
155
474040
2667
08:08
but with more powerfulerős technologytechnológia
like nuclearnukleáris weaponsfegyverek and AGIAGI,
156
476731
3845
De olyan hatalmas technológiákkal,
mint a nukleáris fegyverek és az ÁMI,
08:12
learningtanulás from mistakeshibák
is a lousytetves strategystratégia,
157
480600
3376
vacak stratégia a hibákból tanulni,
08:16
don't you think?
158
484000
1216
nem gondolják?
08:17
(LaughterNevetés)
159
485240
1016
(Nevetés)
08:18
It's much better to be proactiveproaktív
ratherInkább than reactivereaktív;
160
486280
2576
Jobb előrelátónak lenni,
mint utólag javítgatni;
08:20
planterv aheadelőre and get things
right the first time
161
488880
2296
tervezni, elsőre jól alkotni meg mindent,
08:23
because that mightesetleg be
the only time we'lljól get.
162
491200
2496
mert talán ez az egyetlen lehetőségünk.
08:25
But it is funnyvicces because
sometimesnéha people tell me,
163
493720
2336
Érdekes, hogy néha azt mondják nekem:
08:28
"MaxMax, shhhShhh, don't talk like that.
164
496080
2736
"Max, ne beszélj így,
08:30
That's LudditeLuddite scaremongeringa scaremongering."
165
498840
1720
ez gépromboló pánikkeltés!"
De ez nem pánikkeltés.
08:34
But it's not scaremongeringa scaremongering.
166
502040
1536
A Massachusettsi Technológiai Intézetnél
ezt biztonsági tervezésnek hívjuk.
08:35
It's what we at MITMIT
call safetybiztonság engineeringmérnöki.
167
503600
2880
08:39
Think about it:
168
507200
1216
Gondolják meg:
08:40
before NASANASA launchedindított
the ApolloApollo 11 missionmisszió,
169
508440
2216
mielőtt a NASA fellőtte az Apolló-11-et,
08:42
they systematicallyrendszeresen thought throughkeresztül
everything that could go wrongrossz
170
510680
3136
módszeresen átgondoltak
minden hibalehetőséget,
amikor embereket helyeznek
egy robbanóanyag-tartály fölé,
08:45
when you put people
on topfelső of explosiverobbanó fuelüzemanyag tankstartályok
171
513840
2376
08:48
and launchdob them somewherevalahol
where no one could help them.
172
516240
2616
és kilövik őket oda,
ahol senki nem segíthet nekik.
És sok hibalehetőség volt.
08:50
And there was a lot that could go wrongrossz.
173
518880
1936
08:52
Was that scaremongeringa scaremongering?
174
520840
1480
Ez pánikkeltés volt?
08:55
No.
175
523159
1217
Nem.
Ez pontosan a biztonsági tervezés volt,
08:56
That's was preciselypontosan
the safetybiztonság engineeringmérnöki
176
524400
2016
08:58
that ensuredbiztosítani the successsiker of the missionmisszió,
177
526440
1936
ami biztosította a küldetés sikerét,
09:00
and that is preciselypontosan the strategystratégia
I think we should take with AGIAGI.
178
528400
4176
és pontosan az a stratégia,
amit követnünk kéne az ÁMI-val.
09:04
Think throughkeresztül what can go wrongrossz
to make sure it goesmegy right.
179
532600
4056
Átgondolni az esetleges veszélyeket,
és biztosítani, hogy jól működjön.
09:08
So in this spiritszellem,
we'vevoltunk organizedszervezett conferenceskonferenciák,
180
536680
2536
Erre gondolva konferenciákat szerveztünk,
09:11
bringingfűződő togetheregyütt leadingvezető
AIAI researcherskutatók and other thinkersgondolkodók
181
539240
2816
összehozva a vezető MI-kutatókat
és más gondolkodókat,
09:14
to discussmegvitatása how to grow this wisdombölcsesség
we need to keep AIAI beneficialjótékony.
182
542080
3736
megvitatni, hogy fejlesszük bölcsen
jótékony irányba az MI-t.
09:17
Our last conferencekonferencia
was in AsilomarAsilomar Conference Grounds, CaliforniaCalifornia last yearév
183
545840
3296
Utolsó konferenciánk tavaly volt
a kaliforniai Asilomarban,
09:21
and producedelőállított this listlista of 23 principleselvek
184
549160
3056
összeállítottuk e 23
alapelvből álló listát,
09:24
whichmelyik have sincemivel been signedaláírt
by over 1,000 AIAI researcherskutatók
185
552240
2896
amelyet azóta aláírt
több mint 1000 MI-kutató
és kulcsfontosságú iparágak vezetői.
09:27
and keykulcs industryipar leadersvezetők,
186
555160
1296
09:28
and I want to tell you
about threehárom of these principleselvek.
187
556480
3176
Három alapelvet említenék önöknek.
09:31
One is that we should avoidelkerül an armsfegyver raceverseny
and lethalhalálos autonomousautonóm weaponsfegyverek.
188
559680
4960
Egy: ne legyen fegyverkezési verseny
és halálos önrendelkezésű fegyverek.
09:37
The ideaötlet here is that any sciencetudomány
can be used for newúj waysmódokon of helpingsegít people
189
565480
3616
Az alapgondolat, hogy bármely
új tudomány alkalmazható
az emberek segítésére
vagy károsítására egyaránt.
09:41
or newúj waysmódokon of harmingkárosítása people.
190
569120
1536
09:42
For examplepélda, biologybiológia and chemistrykémia
are much more likelyvalószínűleg to be used
191
570680
3936
Például a biológiát és kémiát
sokkal inkább használják
09:46
for newúj medicinesgyógyszerek or newúj cureskúrák
than for newúj waysmódokon of killinggyilkolás people,
192
574640
4856
új gyógyszerek, kezelések fejlesztésére,
mint emberek megölésére,
09:51
because biologistsbiológusok
and chemistskémikusok pushedmeglökött hardkemény --
193
579520
2176
mert a biológusok és kémikusok
09:53
and successfullysikeresen --
194
581720
1256
sikeresen léptek fel
09:55
for banstilalmak on biologicalbiológiai
and chemicalkémiai weaponsfegyverek.
195
583000
2176
a biológiai és vegyi
fegyverek betiltásáért.
09:57
And in the sameazonos spiritszellem,
196
585200
1256
Ugyanebben a szellemben
09:58
mosta legtöbb AIAI researcherskutatók want to stigmatizemegjelöl
and bantilalom lethalhalálos autonomousautonóm weaponsfegyverek.
197
586480
4440
most az MI-kutatók akarják betiltani
a halálos önrendelkező fegyvereket.
10:03
AnotherEgy másik AsilomarAsilomar Conference Grounds AIAI principleelv
198
591600
1816
Egy másik Asilomar MI-alapelv,
10:05
is that we should mitigateenyhítésére
AI-fueledAI-üzemű incomejövedelem inequalityegyenlőtlenség.
199
593440
3696
hogy enyhítenünk kéne
az MI-alapú jövedelmi egyenlőtlenséget.
10:09
I think that if we can grow
the economicgazdasági piepite dramaticallydrámaian with AIAI
200
597160
4456
Azt gondolom, ha drasztikusan megnöveljük
a gazdasági tortát az MI-vel,
10:13
and we still can't figureábra out
how to dividefeloszt this piepite
201
601640
2456
de nem oldjuk meg az elosztását úgy,
10:16
so that everyonemindenki is better off,
202
604120
1576
hogy mindenkinek jobb legyen,
10:17
then shameszégyen on us.
203
605720
1256
az szégyen ránk nézve.
10:19
(ApplauseTaps)
204
607000
4096
(Taps)
10:23
AlrightRendben van, now raiseemel your handkéz
if your computerszámítógép has ever crashedlezuhant.
205
611120
3600
Emeljék fel a kezüket, ha számítógépük
valaha is összeomlott!
10:27
(LaughterNevetés)
206
615480
1256
(Nevetés)
10:28
WowWow, that's a lot of handskezek.
207
616760
1656
Ez rengeteg kéz!
10:30
Well, then you'llazt is megtudhatod appreciateméltányol
this principleelv
208
618440
2176
Akkor értékelniük kell ezt az alapelvet,
10:32
that we should investbefektet much more
in AIAI safetybiztonság researchkutatás,
209
620640
3136
hogy többet kéne befektetni
az MI biztonságkutatásba,
10:35
because as we put AIAI in chargedíj
of even more decisionsdöntések and infrastructureinfrastruktúra,
210
623800
3656
mert egyre több döntés és infrastruktúra
irányítását bízzuk rá, így tudnunk kell,
10:39
we need to figureábra out how to transformátalakít
today'sa mai buggybricska and hackableHackable computersszámítógépek
211
627480
3616
hogy a mai hibás és feltörhető
számítógépeinket hogyan alakítsuk át
10:43
into robusterős AIAI systemsrendszerek
that we can really trustbizalom,
212
631120
2416
igazán megbízható MI-rendszerekbe,
10:45
because otherwisemásképp,
213
633560
1216
mivel különben
10:46
all this awesomefantasztikus newúj technologytechnológia
can malfunctionüzemzavar and harmsérelem us,
214
634800
2816
e remek technológiák meghibásodhatnak
és árthatnak nekünk,
10:49
or get hackedcsapkodott and be turnedfordult againstellen us.
215
637640
1976
vagy feltörve őket ellenünk fordíthatók.
10:51
And this AIAI safetybiztonság work
has to includetartalmaz work on AIAI valueérték alignmentigazítás,
216
639640
5696
Az MI-biztonsági munka magába kell
foglalja az MI-értékelés kidolgozását,
10:57
because the realigazi threatfenyegetés
from AGIAGI isn't malicerosszindulat,
217
645360
2816
mert a valódi ÁMI-veszély
nem a rosszindulat,
11:00
like in sillybolondos HollywoodHollywood moviesfilmek,
218
648200
1656
mint a buta hollywoodi filmekben,
11:01
but competenceszaktudás --
219
649880
1736
hanem a hozzáértés,
11:03
AGIAGI accomplishingmegvalósítására goalscélok
that just aren'tnem alignedigazított with oursa miénk.
220
651640
3416
amivel az ÁMI a mieinktől
eltérő célokat valósít meg.
11:07
For examplepélda, when we humansemberek drovehajtott, vezetett
the WestWest AfricanAfrikai blackfekete rhinoorrszarvú extinctkihalt,
221
655080
4736
Pl. amikor mi, emberek a nyugat-afrikai
fekete rinocéroszok kihalását okoztuk,
11:11
we didn't do it because we were a bunchcsokor
of evilgonosz rhinocerosorrszarvú hatersHaters, did we?
222
659840
3896
nem azért tettük, mert ördögien gyűlöljük
a rinocéroszokat, ugye?
11:15
We did it because
we were smarterintelligensebb than them
223
663760
2056
Hanem azért, mert okosabbak voltunk náluk,
11:17
and our goalscélok weren'tnem voltak alignedigazított with theirsövék.
224
665840
2576
és céljaink nem egyeztek az övékkel.
11:20
But AGIAGI is by definitionmeghatározás smarterintelligensebb than us,
225
668440
2656
Az ÁMI definíció szerint okosabb nálunk,
11:23
so to make sure that we don't put
ourselvesminket in the positionpozíció of those rhinosorrszarvú
226
671120
3576
ezért, hogy ne kerüljünk
a rinocéroszok helyzetébe,
11:26
if we createteremt AGIAGI,
227
674720
1976
amikor létrehozzuk az ÁMI-t,
11:28
we need to figureábra out how
to make machinesgépek understandmegért our goalscélok,
228
676720
4176
meg kell értetnünk vele céljainkat,
11:32
adoptelfogad our goalscélok and retainmegtartása our goalscélok.
229
680920
3160
el kell fogadtatni, és megőrizni őket.
11:37
And whoseakinek goalscélok should these be, anywayakárhogyan is?
230
685320
2856
Igen, de kinek a céljai legyenek ezek?
11:40
WhichAmely goalscélok should they be?
231
688200
1896
Milyen célok legyenek?
11:42
This bringshoz us to the thirdharmadik partrész
of our rocketrakéta metaphormetafora: the destinationrendeltetési hely.
232
690120
3560
Ez a rakétahasonlatunk harmadik részéhez
vezet bennünket: a cél meghatározásához.
11:47
We're makinggyártás AIAI more powerfulerős,
233
695160
1856
Egyre erősebbé tesszük az MI-t,
igyekszünk kitalálni, hogyan irányítsuk,
11:49
tryingmegpróbálja to figureábra out how to steerSteer it,
234
697040
1816
11:50
but where do we want to go with it?
235
698880
1680
de mit akarunk megvalósítani vele?
11:53
This is the elephantelefánt in the roomszoba
that almostmajdnem nobodysenki talksbeszél about --
236
701760
3656
Ez egy tabutéma,
amiről szinte senki sem beszél -
11:57
not even here at TEDTED --
237
705440
1856
még itt a TED-nél sem,
11:59
because we're so fixatedfixált
on short-termrövid időszak AIAI challengeskihívások.
238
707320
4080
mivel annyira el vagyunk foglalva
rövidtávú MI-kihívásokkal.
12:04
Look, our speciesfaj is tryingmegpróbálja to buildépít AGIAGI,
239
712080
4656
Fajunk próbálja létrehozni az ÁMI-t
12:08
motivatedmotivált by curiositykíváncsiság and economicsközgazdaságtan,
240
716760
3496
gazdasági érdekeink
és kíváncsiságunk által vezérelve,
12:12
but what sortfajta of futurejövő societytársadalom
are we hopingremélve for if we succeedsikerül?
241
720280
3680
de miféle jövőbeli társadalmat
remélünk felépíteni általa?
Közvélemény-kutatást végeztünk mostanában,
12:16
We did an opinionvélemény pollközvélemény-kutatás on this recentlymostanában,
242
724680
1936
és megdöbbentem,
12:18
and I was struckütött to see
243
726640
1216
hogy a legtöbben egyetértünk
egy szuperintelligencia építésében,
12:19
that mosta legtöbb people actuallytulajdonképpen
want us to buildépít superintelligencesuperintelligence:
244
727880
2896
amely minden tekintetben
messze okosabb nálunk.
12:22
AIAI that's vastlymérhetetlenül smarterintelligensebb
than us in all waysmódokon.
245
730800
3160
12:27
What there was the greatestlegnagyobb agreementmegegyezés on
was that we should be ambitiousambiciózus
246
735120
3416
A legnagyobb egyetértés abban volt,
hogy az életet terjesszük
a világegyetemben,
12:30
and help life spreadterjedését into the cosmosvilágegyetem,
247
738560
2016
12:32
but there was much lessKevésbé agreementmegegyezés
about who or what should be in chargedíj.
248
740600
4496
de sokkal kevésbé értettek egyet abban,
kinek vagy minek kellene irányítania.
12:37
And I was actuallytulajdonképpen quiteegészen amusedszórakozott
249
745120
1736
Elég jól szórakoztam,
12:38
to see that there's some some people
who want it to be just machinesgépek.
250
746880
3456
mikor láttam, vannak, akik azt akarják,
hogy ezek csupán gépek legyenek.
12:42
(LaughterNevetés)
251
750360
1696
(Nevetés)
12:44
And there was totalteljes disagreementnézeteltérés
about what the roleszerep of humansemberek should be,
252
752080
3856
Az emberek jövőbeli szerepét illetően
óriási volt a nézeteltérés
12:47
even at the mosta legtöbb basicalapvető levelszint,
253
755960
1976
még alapszinten is.
12:49
so let's take a closerközelebb look
at possiblelehetséges futureshatáridős
254
757960
2816
Nézzük meg alaposabban
a lehetséges jövőképeket,
12:52
that we mightesetleg chooseválaszt
to steerSteer towardfelé, alrightrendben?
255
760800
2736
amely felé tarthatunk!
12:55
So don't get be wrongrossz here.
256
763560
1336
Ne értsenek félre,
12:56
I'm not talkingbeszél about spacehely travelutazás,
257
764920
2056
nem az űrutazásról beszélek,
12:59
merelycsupán about humanity'semberiség
metaphoricalmetaforikus journeyutazás into the futurejövő.
258
767000
3200
csupán az emberiség
képzeletbeli jövőutazásáról.
13:02
So one optionválasztási lehetőség that some
of my AIAI colleagueskollégák like
259
770920
3496
Néhány munkatársam kedvelte lehetőség,
13:06
is to buildépít superintelligencesuperintelligence
and keep it underalatt humanemberi controlellenőrzés,
260
774440
3616
hogy emberi felügyelet alatt tartott
szuperintelligenciát építünk,
13:10
like an enslavedleigázott god,
261
778080
1736
egy rabszolga–istent,
13:11
disconnectedszétkapcsolt from the internetInternet
262
779840
1576
leválasztva az internetről,
13:13
and used to createteremt unimaginableelképzelhetetlen
technologytechnológia and wealthjólét
263
781440
3256
hihetetlen technológia és vagyon
megteremtésére használva,
13:16
for whoeverbárki controlsellenőrzések it.
264
784720
1240
bárki is irányítja azt.
De Lord Acton óva intett bennünket:
13:18
But LordÚr ActonActon warnedfigyelmeztet us
265
786800
1456
a hatalom megveszteget, az abszolút
hatalom abszolút mértékben is képes rá,
13:20
that powererő corruptselront,
and absoluteabszolút powererő corruptselront absolutelyteljesen,
266
788280
3616
13:23
so you mightesetleg worryaggodalom that maybe
we humansemberek just aren'tnem smartOkos enoughelég,
267
791920
4056
ezért aggódhatunk, hogy az emberiség
talán nem elég okos,
13:28
or wisebölcs enoughelég ratherInkább,
268
796000
1536
vagy inkább bölcs,
13:29
to handlefogantyú this much powererő.
269
797560
1240
hogy uralja ezt az óriási erőt.
13:31
AlsoIs, asidefélre from any
moralerkölcsi qualmsLelkiismeretfurdalás you mightesetleg have
270
799640
2536
Erkölcsi aggályaink mellett
a magasabb rendű elmék
szolgasorban tartását illetőleg
13:34
about enslavingrabszolgasorba superiorkiváló mindselmék,
271
802200
2296
13:36
you mightesetleg worryaggodalom that maybe
the superintelligencesuperintelligence could outsmarttúljár vki eszén us,
272
804520
3976
aggódhatunk, hogy ez a szuperintelligencia
talán túljár az eszünkön,
13:40
breakszünet out and take over.
273
808520
2240
kitör, és átveszi az uralmat.
Olyan kollégáim is vannak, akik szerint
ez a hatalomátvétel rendben van,
13:43
But I alsois have colleagueskollégák
who are fine with AIAI takingbevétel over
274
811560
3416
13:47
and even causingokozó humanemberi extinctionkihalás,
275
815000
2296
még ha az emberiség kihalását is okozza,
13:49
as long as we feel the the AIsAIs
are our worthyméltó descendantsleszármazottak,
276
817320
3576
ha az MI-k méltó leszármazottaink,
13:52
like our childrengyermekek.
277
820920
1736
gyermekeink.
13:54
But how would we know that the AIsAIs
have adoptedfogadott our bestlegjobb valuesértékeket
278
822680
5616
De honnan tudhatnánk, hogy az MI-k
magukévá tették értékrendünket,
14:00
and aren'tnem just unconsciousöntudatlan zombieszombik
trickingosztó us into anthropomorphizinganthropomorphizing them?
279
828320
4376
nem öntudatlan zombik, melyeket
emberi tulajdonságokkal ruházunk fel?
És nem kéne, hogy azoknak,
akik nem akarják az emberiség kihalását,
14:04
AlsoIs, shouldn'tne those people
who don't want humanemberi extinctionkihalás
280
832720
2856
14:07
have a say in the matterügy, too?
281
835600
1440
legyen szavuk az ügyben?
14:10
Now, if you didn't like eitherbármelyik
of those two high-techcsúcstechnológia optionslehetőségek,
282
838200
3376
Ha egyik fejlett technológiai
lehetőség sem nyerte el tetszésüket,
14:13
it's importantfontos to rememberemlékezik
that low-techlow-tech is suicideöngyilkosság
283
841600
3176
ne feledjék,
hogy a fejletlen technológia -
kozmikus nézetből - öngyilkosság.
14:16
from a cosmickozmikus perspectivetávlati,
284
844800
1256
14:18
because if we don't go farmessze
beyondtúl today'sa mai technologytechnológia,
285
846080
2496
Mivel ha nem haladjuk túl
a mai technológiát,
14:20
the questionkérdés isn't whetherakár humanityemberiség
is going to go extinctkihalt,
286
848600
2816
a kérdés nem az lesz,
hogy kihal-e az emberiség,
14:23
merelycsupán whetherakár
we're going to get takentett out
287
851440
2016
hanem az, hogy kihalásunkat
egy gyilkos aszteroida,
14:25
by the nextkövetkező killergyilkos asteroidkisbolygó, supervolcanoszupervulkán
288
853480
2136
egy szupervulkán,
vagy más katasztrófa okozza majd, melyet
a jobb technológia megoldhatott volna.
14:27
or some other problemprobléma
that better technologytechnológia could have solvedmegoldott.
289
855640
3096
14:30
So, how about havingamelynek
our caketorta and eatingenni it ...
290
858760
3576
Mi lenne, ha olyan ÁMI segítségével
jutnánk a tortánkhoz,
14:34
with AGIAGI that's not enslavedleigázott
291
862360
1840
amely nincs szolgaságban,
14:37
but treatskezel us well because its valuesértékeket
are alignedigazított with oursa miénk?
292
865120
3176
de jól viszonyul hozzánk,
mert értékrendje egyezik a miénkkel?
14:40
This is the gistRöviden of what EliezerEliezer YudkowskyYudkowszkij
has calledhívott "friendlybarátságos AIAI,"
293
868320
4176
Ez a lényege annak, amit Eliezer Yudkowsky
"barátságos MI"-nek nevezett el.
14:44
and if we can do this,
it could be awesomefantasztikus.
294
872520
2680
Ez nagyszerű volna, ha megvalósítanánk!
14:47
It could not only eliminatemegszüntetése negativenegatív
experiencestapasztalatok like diseasebetegség, povertyszegénység,
295
875840
4816
Nem csupán megszüntetné
a betegségeket, szegénységet,
bűnözést és más szenvedést hozó dolgokat,
14:52
crimebűn and other sufferingszenvedő,
296
880680
1456
14:54
but it could alsois give us
the freedomszabadság to chooseválaszt
297
882160
2816
de szabadon választhatnánk
14:57
from a fantasticfantasztikus newúj diversitysokféleség
of positivepozitív experiencestapasztalatok --
298
885000
4056
a pozitív élmények
fantasztikusan szélesedő skálájáról.
15:01
basicallyalapvetően makinggyártás us
the mastersmesterek of our ownsaját destinysors.
299
889080
3160
Saját sorsunk irányítóivá tenne minket.
15:06
So in summaryÖsszefoglaló,
300
894280
1376
Összegezve,
15:07
our situationhelyzet with technologytechnológia
is complicatedbonyolult,
301
895680
3096
kapcsolatunk a technológiával bonyolult,
15:10
but the bignagy picturekép is ratherInkább simpleegyszerű.
302
898800
2416
de a nagy kép egyszerű.
15:13
MostA legtöbb AIAI researcherskutatók
expectelvár AGIAGI withinbelül decadesévtizedekben,
303
901240
3456
Az ÁMI-t pár évtizeden belül
várja a legtöbb MI-kutató.
15:16
and if we just bumblezümmög
into this unpreparedfelkészületlen,
304
904720
3136
Ha felkészületlenül ér bennünket,
15:19
it will probablyvalószínűleg be
the biggestlegnagyobb mistakehiba in humanemberi historytörténelem --
305
907880
3336
az valószínűleg az emberi történelem
legnagyobb hibája lesz.
15:23
let's facearc it.
306
911240
1416
Nézzünk szembe vele!
15:24
It could enableengedélyezze brutalbrutális,
globalglobális dictatorshipdiktatúra
307
912680
2576
Brutális, globális diktatúrát hozhat létre
15:27
with unprecedentedpéldátlan inequalityegyenlőtlenség,
surveillancefelügyelet and sufferingszenvedő,
308
915280
3536
soha nem látott egyenlőtlenséggel,
felügyelettel és szenvedéssel,
15:30
and maybe even humanemberi extinctionkihalás.
309
918840
1976
és akár az emberiség kihalásával.
15:32
But if we steerSteer carefullygondosan,
310
920840
2320
De gondos irányítás mellett
15:36
we could endvég up in a fantasticfantasztikus futurejövő
where everybody'smindenkié better off:
311
924040
3896
fantasztikus jövőben találhatjuk magunk,
ahol mindenki élete jobb:
15:39
the poorszegény are richergazdagabb, the richgazdag are richergazdagabb,
312
927960
2376
a szegény gazdag, a gazdag még gazdagabb.
15:42
everybodymindenki is healthyegészséges
and freeingyenes to liveélő out theirazok dreamsálmok.
313
930360
3960
Mindenki egészséges,
és szabadon valósíthatja meg álmait.
15:47
Now, hanglóg on.
314
935000
1536
De várjunk csak!
15:48
Do you folksemberek want the futurejövő
that's politicallypolitikailag right or left?
315
936560
4576
Jobb- vagy baloldali politikát akarunk?
15:53
Do you want the piousJámbor societytársadalom
with strictszigorú moralerkölcsi rulesszabályok,
316
941160
2856
Istenfélő társadalmat
szigorú erkölcsi szabályokkal,
vagy hedonisztikusat, korlátozások nélkül,
15:56
or do you an hedonistichedonista free-for-allbunyó,
317
944040
1816
15:57
more like BurningÉgő Man 24/7?
318
945880
2216
akár a folyamatos Burning Man fesztivál.
Gyönyörű partok, erdők, tavak legyenek,
16:00
Do you want beautifulszép beachesstrandok,
forestserdők and lakestavak,
319
948120
2416
16:02
or would you preferjobban szeret to rearrangeátrendezése
some of those atomsatomok with the computersszámítógépek,
320
950560
3416
vagy inkább rendezzünk át
néhány ilyen részt számítógépekkel,
16:06
enablinglehetővé téve virtualtényleges experiencestapasztalatok?
321
954000
1715
virtuális élmények létrehozására?
16:07
With friendlybarátságos AIAI, we could simplyegyszerűen
buildépít all of these societiestársadalmak
322
955739
3157
Egy barátságos MI-vel
mindegyik társadalmat létrehozhatjuk,
16:10
and give people the freedomszabadság
to chooseválaszt whichmelyik one they want to liveélő in
323
958920
3216
szabadon választva, hol akarunk élni,
16:14
because we would no longerhosszabb
be limitedkorlátozott by our intelligenceintelligencia,
324
962160
3096
mivel már nem korlátoznának bennünket
intelligenciánk határai,
16:17
merelycsupán by the lawstörvények of physicsfizika.
325
965280
1456
csupán a fizikai törvények.
16:18
So the resourceserőforrások and spacehely
for this would be astronomicalcsillagászati --
326
966760
4616
Így a források és a hely erre szó szerint
csillagászati mértékű lenne.
16:23
literallyszó szerint.
327
971400
1320
16:25
So here'sitt our choiceválasztás.
328
973320
1200
Választhatunk.
16:27
We can eitherbármelyik be complacentönelégült
about our futurejövő,
329
975880
2320
Lehetünk önteltek a jövőt illetően,
16:31
takingbevétel as an articlecikk of blindvak faithhit
330
979440
2656
vak hittel,
16:34
that any newúj technologytechnológia
is guaranteedgarantált to be beneficialjótékony,
331
982120
4016
hogy bármely új technológia
garantáltan jót hoz számunkra,
16:38
and just repeatismétlés that to ourselvesminket
as a mantramantra over and over and over again
332
986160
4136
és ismételgethetjük ezt mantraként,
16:42
as we driftsodródás like a rudderlessa rudderless shiphajó
towardsfelé our ownsaját obsolescenceelavulás.
333
990320
3680
kormányát vesztett hajóként sodródva
saját elértéktelenedésünk felé,
16:46
Or we can be ambitiousambiciózus --
334
994920
1880
vagy lehetünk igényesek,
komolyan átgondolva,
hogyan irányítsuk technológiánkat
16:49
thinkinggondolkodás hardkemény about how
to steerSteer our technologytechnológia
335
997840
2456
16:52
and where we want to go with it
336
1000320
1936
és hova akarunk eljutni vele,
16:54
to createteremt the agekor of amazementcsodálkozva.
337
1002280
1760
létrehozva a csodák korát.
16:57
We're all here to celebrateünnepel
the agekor of amazementcsodálkozva,
338
1005000
2856
Mind azért vagyunk itt,
hogy ünnepeljük a csodák korát,
16:59
and I feel that its essencelényeg should liefekszik
in becomingegyre not overpoweredlegyőzte
339
1007880
4440
és úgy érzem, ennek lényege az,
hogy ne legyőzötté váljunk,
17:05
but empoweredfelhatalmazott by our technologytechnológia.
340
1013240
2616
hanem megerősödjünk technológiánk által.
17:07
Thank you.
341
1015880
1376
Köszönöm.
17:09
(ApplauseTaps)
342
1017280
3080
(Taps)
Translated by Zsuzsa Viola
Reviewed by Reka Lorinczy

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com