ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Létrehozhatunk olyan mesterséges intelligenciát [MI], amely felett nem veszítjük el az irányítást?

Filmed:
5,024,015 views

Rettegsz a szuperintelligens MI-tól? Jól teszed, állítja Sam Harris neurológus és filozófus -- és nem csupán elméleti síkon gondolja. Harris szerint olyan emberfeletti képességekkel rendelkező gépeket fogunk létrehozni, amik úgy bánnak majd velünk, ahogy mi bánunk a hangyákkal, az ebből fakadó aggályokra azonban még nem találtunk megoldást.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurehiba of intuitionintuíció
0
1000
2216
A hibás előérzetekről fogok beszélni,
00:15
that manysok of us sufferszenvedni from.
1
3240
1600
amitől oly sokan szenvedünk.
00:17
It's really a failurehiba
to detectfelismerni a certainbizonyos kindkedves of dangerveszély.
2
5480
3040
Valóban hibás egy bizonyos fajta
veszély felismerése.
00:21
I'm going to describeleírni a scenarioforgatókönyv
3
9360
1736
Felvázolok egy forgatókönyvet,
00:23
that I think is bothmindkét terrifyingfélelmetes
4
11120
3256
amelyről úgy gondolom egyszerre ijesztő,
00:26
and likelyvalószínűleg to occurelőfordul,
5
14400
1760
és bekövetkezése egyben valószínűsíthető,
és ez a kettő együtt nem jó kombináció,
00:28
and that's not a good combinationkombináció,
6
16840
1656
00:30
as it turnsmenetek out.
7
18520
1536
ahogy az bebizonyosodik majd.
00:32
And yetmég ratherInkább than be scaredmegrémült,
mosta legtöbb of you will feel
8
20080
2456
Ennek ellenére a többségetek
az ijedtség helyett úgy érzi majd,
00:34
that what I'm talkingbeszél about
is kindkedves of coolmenő.
9
22560
2080
hogy amiről beszélek, egy menő dolog.
00:37
I'm going to describeleírni
how the gainsnyereség we make
10
25200
2976
El fogom magyarázni,
hogy a mesterséges intelligencia fejlődése
00:40
in artificialmesterséges intelligenceintelligencia
11
28200
1776
00:42
could ultimatelyvégül destroyelpusztítani us.
12
30000
1776
miként semmisíthet meg bennünket.
00:43
And in facttény, I think it's very difficultnehéz
to see how they won'tszokás destroyelpusztítani us
13
31800
3456
Úgy vélem, nehezebb felismerni,
hogyan nem pusztítanak el minket,
00:47
or inspireinspirál us to destroyelpusztítani ourselvesminket.
14
35280
1680
vagy buzdítanak minket
önmagunk elpusztítására.
00:49
And yetmég if you're anything like me,
15
37400
1856
De ha kicsit is hasonlítasz rám,
00:51
you'llazt is megtudhatod find that it's funmóka
to think about these things.
16
39280
2656
rájössz majd, mennyire vicces dolog
ezeken elmélkedni.
00:53
And that responseválasz is partrész of the problemprobléma.
17
41960
3376
És ez a fajta reakció
szintén a probléma része.
00:57
OK? That responseválasz should worryaggodalom you.
18
45360
1720
Értitek ugye? A reakció miatt
aggódnotok kellene.
00:59
And if I were to convincemeggyőz you in this talk
19
47920
2656
Ha az előadással meg tudlak
győzni benneteket,
01:02
that we were likelyvalószínűleg
to sufferszenvedni a globalglobális famineéhínség,
20
50600
3416
hogy a globális éhínség várhatóan
bekövetkezik majd,
01:06
eitherbármelyik because of climateéghajlat changeváltozás
or some other catastrophekatasztrófa,
21
54040
3056
klímaváltozás vagy
más katasztrófa hatására,
01:09
and that your grandchildrenunokák,
or theirazok grandchildrenunokák,
22
57120
3416
és hogy az unokátokra, vagy az ő unokáikra
01:12
are very likelyvalószínűleg to liveélő like this,
23
60560
1800
nagy valószínűséggel hasonló élet vár,
01:15
you wouldn'tnem think,
24
63200
1200
magatokban nem gondolnátok:
01:17
"InterestingÉrdekes.
25
65440
1336
"Érdekes.
01:18
I like this TEDTED Talk."
26
66800
1200
Tetszik ez a TED előadás."
01:21
FamineÉhínség isn't funmóka.
27
69200
1520
Az éhínség nem vicc.
01:23
DeathHalál by sciencetudomány fictionkitalálás,
on the other handkéz, is funmóka,
28
71800
3376
A tudományos-fantasztikum általi halál
ezzel ellentétben vicces,
01:27
and one of the things that worriesgond me mosta legtöbb
about the developmentfejlődés of AIAI at this pointpont
29
75200
3976
de ami engem aggaszt leginkább,
a MI jelenlegi állapotát illetően,
01:31
is that we seemlátszik unableképtelen to marshalmarsall
an appropriatemegfelelő emotionalérzelmi responseválasz
30
79200
4096
hogy képtelenek vagyunk
az előttünk álló veszélyekhez
01:35
to the dangersveszélyeket that liefekszik aheadelőre.
31
83320
1816
megfelelő érzelmi reakciót párosítani.
01:37
I am unableképtelen to marshalmarsall this responseválasz,
and I'm givingígy this talk.
32
85160
3200
Képtelen vagyok irányítani a reakciót,
pedig én tartom az előadást.
01:42
It's as thoughbár we standállvány before two doorsajtók.
33
90120
2696
Olyan, mintha két ajtó előtt állnánk.
01:44
BehindMögött doorajtó numberszám one,
34
92840
1256
Az egyes számú ajtó mögött
01:46
we stop makinggyártás progressHaladás
in buildingépület intelligentintelligens machinesgépek.
35
94120
3296
leállunk az intelligens gépek
fejlesztésével.
Valamilyen okból a hardverek és
szoftverek fejlesztése leáll.
01:49
Our computerszámítógép hardwarehardver and softwareszoftver
just stopsmegálló gettingszerzés better for some reasonok.
36
97440
4016
01:53
Now take a momentpillanat
to considerfontolgat why this mightesetleg happentörténik.
37
101480
3000
Egy percre kérlek, gondoljatok bele,
miért történne ilyesmi.
01:57
I mean, givenadott how valuableértékes
intelligenceintelligencia and automationautomatizálás are,
38
105080
3656
Tudván, mekkora érték rejlik
az intelligenciában és automatizálásban,
02:00
we will continueFolytatni to improvejavul our technologytechnológia
if we are at all ableképes to.
39
108760
3520
ha mód van rá, folytatni fogjuk
a technológiai fejlesztéseket.
02:05
What could stop us from doing this?
40
113200
1667
Mi állhatna az utunkba?
02:07
A full-scaleteljes körű nuclearnukleáris warháború?
41
115800
1800
Egy mindent elsöprő nukleáris háború?
02:11
A globalglobális pandemicjárvány?
42
119000
1560
Egy globális járvány?
02:14
An asteroidkisbolygó impacthatás?
43
122320
1320
Egy aszteroida becsapódása?
02:17
JustinJustin BieberBieber becomingegyre
presidentelnök of the UnitedEgyesült StatesÁllamok?
44
125640
2576
Justin Biebert megválasztják elnöknek?
02:20
(LaughterNevetés)
45
128240
2280
(Nevetés)
02:24
The pointpont is, something would have to
destroyelpusztítani civilizationcivilizáció as we know it.
46
132760
3920
Bármi legyen is, az általunk ismert
civilizációt kellene megsemmisítse.
02:29
You have to imagineKépzeld el
how badrossz it would have to be
47
137360
4296
Képzeld el, mennyire borzasztónak
kellene lennie ahhoz,
02:33
to preventmegelőzése us from makinggyártás
improvementsfejlesztések in our technologytechnológia
48
141680
3336
hogy leálljunk a technológiai
fejlesztésekkel,
02:37
permanentlytartósan,
49
145040
1216
egyik nemzedék a másik után,
02:38
generationgeneráció after generationgeneráció.
50
146280
2016
mindörökre.
02:40
AlmostSzinte by definitionmeghatározás,
this is the worstlegrosszabb thing
51
148320
2136
Fogalmazhatnánk úgy is,
hogy ez a legrosszabb,
02:42
that's ever happenedtörtént in humanemberi historytörténelem.
52
150480
2016
ami valaha történhet
az emberiség történelmében.
02:44
So the only alternativealternatív,
53
152520
1296
Így az egyetlen alternatíva,
02:45
and this is what lieshazugságok
behindmögött doorajtó numberszám two,
54
153840
2336
és ez rejlik a kettes számú ajtó mögött,
02:48
is that we continueFolytatni
to improvejavul our intelligentintelligens machinesgépek
55
156200
3136
hogy folytatjuk
az intelligens gépek fejlesztését,
02:51
yearév after yearév after yearév.
56
159360
1600
egyik évről a másikra.
02:53
At a certainbizonyos pointpont, we will buildépít
machinesgépek that are smarterintelligensebb than we are,
57
161720
3640
És elérkezünk a ponthoz, amikor nálunk
okosabb gépeket hozunk létre.
02:58
and onceegyszer we have machinesgépek
that are smarterintelligensebb than we are,
58
166080
2616
És amint létrehoztuk
a minket meghaladó okos gépeket,
03:00
they will beginkezdődik to improvejavul themselvesmaguk.
59
168720
1976
megkezdik majd önmaguk fejlesztését.
03:02
And then we riskkockázat what
the mathematicianmatematikus IJIJ Good calledhívott
60
170720
2736
És ezzel megkockáztatjuk azt,
amit IJ Good matematikus
03:05
an "intelligenceintelligencia explosionrobbanás,"
61
173480
1776
úgy hívott: "intelligencia-robbanás".
03:07
that the processfolyamat could get away from us.
62
175280
2000
Amikor a fejlődésük
kicsúszik a kezünk közül.
03:10
Now, this is oftengyakran caricaturedcaricatured,
as I have here,
63
178120
2816
Sokszor kifigurázzák, mint én is itt,
03:12
as a fearfélelem that armieshadseregek of maliciousrosszindulatú robotsrobotok
64
180960
3216
miként rettegünk a rosszindulatú robotok
03:16
will attacktámadás us.
65
184200
1256
támadásától.
03:17
But that isn't the mosta legtöbb likelyvalószínűleg scenarioforgatókönyv.
66
185480
2696
De nem ez a legvalószínűbb forgatókönyv.
03:20
It's not that our machinesgépek
will becomeválik spontaneouslyspontán malevolentrosszindulatú.
67
188200
4856
A gépek nem fognak egyik pillanatról
a másikra gonosszá válni.
03:25
The concernvonatkozik is really
that we will buildépít machinesgépek
68
193080
2616
A valós aggály abban rejlik,
hogy olyan gépeket hozunk létre,
03:27
that are so much
more competentilletékes than we are
69
195720
2056
melyek meghaladják a mi képességeinket,
03:29
that the slightestlegkisebb divergenceeltérés
betweenközött theirazok goalscélok and our ownsaját
70
197800
3776
és a legapróbb összeférhetetlenség
az ő és saját céljaink között
03:33
could destroyelpusztítani us.
71
201600
1200
a végünket jelentheti.
03:35
Just think about how we relateviszonyul to antshangyák.
72
203960
2080
Csak gondoljatok bele, mi hogyan
viszonyulunk a hangyákhoz.
03:38
We don't hategyűlölet them.
73
206600
1656
Nem utáljuk őket.
Nem akarjuk szándékosan bántalmazni őket.
03:40
We don't go out of our way to harmsérelem them.
74
208280
2056
03:42
In facttény, sometimesnéha
we take painsfájdalmak not to harmsérelem them.
75
210360
2376
Sőt, néha megóvásukra
áldozatokat is hozunk értük.
03:44
We steplépés over them on the sidewalkjárda.
76
212760
2016
Kikerüljük őket a járdán.
03:46
But wheneverbármikor theirazok presencejelenlét
77
214800
2136
De amint összeütközik a jelenlétük
03:48
seriouslyKomolyan conflictskonfliktusok with one of our goalscélok,
78
216960
2496
a céljaink megvalósításával,
03:51
let's say when constructingépítése
a buildingépület like this one,
79
219480
2477
mint például egy ilyen
épület felhúzásakor,
03:53
we annihilatemegsemmisíteni them withoutnélkül a qualmlelkiismeret-furdalás.
80
221981
1960
szemrebbenés nélkül kiírtjuk valamennyit.
03:56
The concernvonatkozik is that we will
one day buildépít machinesgépek
81
224480
2936
A gond az, hogy egy napon
olyan gépeket hozunk létre,
03:59
that, whetherakár they're conscioustudatos or not,
82
227440
2736
amelyek, akár tudatosak akár nem,
04:02
could treatcsemege us with similarhasonló disregardfigyelmen kívül hagyása.
83
230200
2000
hasonlóképpen viszonyulnak majd hozzánk.
04:05
Now, I suspectgyanúsított this seemsÚgy tűnik,
far-fetchedtúlzás to manysok of you.
84
233760
2760
Gondolom, ez sokatok számára,
elképzelhetetlennek tűnik.
04:09
I bettét there are those of you who doubtkétség
that superintelligentsuperintelligent AIAI is possiblelehetséges,
85
237360
6336
Fogadni mernék, hogy egyesek a MI
lehetőségét is megkérdőjelezik,
04:15
much lessKevésbé inevitableelkerülhetetlen.
86
243720
1656
mintsem elkerülhetetlennek véljék.
04:17
But then you mustkell find something wrongrossz
with one of the followingkövetkező assumptionsfeltételezések.
87
245400
3620
De akkor valami mégsem stimmel
a következő feltevésekkel.
04:21
And there are only threehárom of them.
88
249044
1572
Amiből mindössze csak három van.
04:23
IntelligenceIntelligencia is a matterügy of informationinformáció
processingfeldolgozás in physicalfizikai systemsrendszerek.
89
251800
4719
Az intelligencia a fizikai rendszerekben
feldolgozott információból származik.
04:29
ActuallyValójában, this is a little bitbit more
than an assumptionfeltevés.
90
257320
2615
Tulajdonképpen, ez kicsivel
több puszta feltevésnél.
04:31
We have alreadymár builtépült
narrowkeskeny intelligenceintelligencia into our machinesgépek,
91
259959
3457
A közvetlen intelligenciát
már beépítettük a gépeinkbe,
04:35
and manysok of these machinesgépek performteljesít
92
263440
2016
mely gépek többsége már most
04:37
at a levelszint of superhumanemberfeletti
intelligenceintelligencia alreadymár.
93
265480
2640
emberfeletti teljesítményekre képes.
04:40
And we know that merepuszta matterügy
94
268840
2576
Azt is tudjuk, hogy az anyag önmagában
04:43
can give riseemelkedik to what is calledhívott
"generalTábornok intelligenceintelligencia,"
95
271440
2616
életre tudja hívni az úgynevezett
"alap intelligenciát,"
04:46
an abilityképesség to think flexiblyrugalmasan
acrossát multipletöbbszörös domainstartományok,
96
274080
3656
a különböző tartományokon belüli
rugalmas gondolkodás képességét,
04:49
because our brainsagyvelő have managedsikerült it. Right?
97
277760
3136
hiszen saját agyunk is
képes volt rá, nem igaz?
04:52
I mean, there's just atomsatomok in here,
98
280920
3936
Mivel itt legbelül csak atomok vannak,
04:56
and as long as we continueFolytatni
to buildépít systemsrendszerek of atomsatomok
99
284880
4496
és amíg atomokból álló
rendszereket építünk,
05:01
that displaykijelző more and more
intelligentintelligens behaviorviselkedés,
100
289400
2696
melyek egyre intelligensebb
viselkedést mutatnak,
05:04
we will eventuallyvégül is,
unlesshacsak we are interruptedmegszakított,
101
292120
2536
akkor egyszer, hacsak nem lépünk közbe,
05:06
we will eventuallyvégül is
buildépít generalTábornok intelligenceintelligencia
102
294680
3376
akkor egyszer megépítjük
az alap intelligenciával
05:10
into our machinesgépek.
103
298080
1296
rendelkező gépeket.
05:11
It's crucialalapvető to realizemegvalósítani
that the ratearány of progressHaladás doesn't matterügy,
104
299400
3656
Mindennél fontosabb azonban felismerni,
hogy a fejlődés üteme lényegtelen,
05:15
because any progressHaladás
is enoughelég to get us into the endvég zonezóna.
105
303080
3176
mert a fejlődés önmagában
elegendő ahhoz, hogy célba érjünk.
05:18
We don't need Moore'sMoore lawtörvény to continueFolytatni.
We don't need exponentialexponenciális progressHaladás.
106
306280
3776
Nincs szükségünk Moore-törvényre,
sem exponenciális növekedésre.
05:22
We just need to keep going.
107
310080
1600
Csak haladnunk kell tovább.
05:25
The secondmásodik assumptionfeltevés
is that we will keep going.
108
313480
2920
A második feltevés, hogy haladunk tovább.
05:29
We will continueFolytatni to improvejavul
our intelligentintelligens machinesgépek.
109
317000
2760
Egyre intelligensebb gépeket hozunk létre.
05:33
And givenadott the valueérték of intelligenceintelligencia --
110
321000
4376
És ami az intelligencia értékét illeti --
05:37
I mean, intelligenceintelligencia is eitherbármelyik
the sourceforrás of everything we valueérték
111
325400
3536
az intelligencia, vagy a forrása
a számunkra értékesnek,
05:40
or we need it to safeguardvédintézkedések
everything we valueérték.
112
328960
2776
vagy megóvja számunkra mindazt,
amit értékesnek tartunk.
05:43
It is our mosta legtöbb valuableértékes resourceforrás.
113
331760
2256
Az egyik legértékesebb erőforrásunk.
05:46
So we want to do this.
114
334040
1536
Szóval megakarjuk alkotni.
05:47
We have problemsproblémák
that we desperatelykétségbeesetten need to solvemegfejt.
115
335600
3336
Vannak problémák, melyeket
haladéktalanul meg kell oldanunk.
05:50
We want to curegyógymód diseasesbetegségek
like Alzheimer'sAlzheimer-kór and cancerrák.
116
338960
3200
Meg akarjuk gyógyítani az Alzheimert,
a rákot és hasonló betegségeket.
05:54
We want to understandmegért economicgazdasági systemsrendszerek.
We want to improvejavul our climateéghajlat sciencetudomány.
117
342960
3936
Érteni akarjuk a gazdasági rendszereket.
Javítani akarjuk a klímaismereteinket.
05:58
So we will do this, if we can.
118
346920
2256
Amint mód van rá, megtesszük ezeket.
06:01
The trainvonat is alreadymár out of the stationállomás,
and there's no brakefék to pullHúzni.
119
349200
3286
A vonat már elhagyta az állomást,
és nincs fék, amit behúzhatnánk.
06:05
FinallyVégül, we don't standállvány
on a peakcsúcs of intelligenceintelligencia,
120
353880
5456
Végül is nem vagyunk
az intelligencia tetőfokán,
06:11
or anywherebárhol nearközel it, likelyvalószínűleg.
121
359360
1800
de még csak a közelében sem járunk.
06:13
And this really is the crucialalapvető insightbepillantás.
122
361640
1896
És ez itt a lényeges momentum.
06:15
This is what makesgyártmányú
our situationhelyzet so precariousbizonytalan,
123
363560
2416
Ez teszi a helyzetünket
különösen bizonytalanná,
06:18
and this is what makesgyártmányú our intuitionsmegérzések
about riskkockázat so unreliablemegbízhatatlan.
124
366000
4040
és pont ezért megbízhatatlanok
a veszélyhez fűződő előérzeteink.
06:23
Now, just considerfontolgat the smartestlegokosabb personszemély
who has ever livedélt.
125
371120
2720
Képzeljük el a valaha élt
legokosabb embert.
06:26
On almostmajdnem everyone'smindenki shortlistszűkített lista here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Minden bizonnyal Neumann János
szerepel mindenki listáján.
06:30
I mean, the impressionbenyomás that vonvon NeumannNeumann
madekészült on the people around him,
127
378080
3336
Ahogy Neumann hatni tudott
a körülötte lévő emberekre,
06:33
and this includedbeleértve the greatestlegnagyobb
mathematiciansmatematikusok and physicistsfizikusok of his time,
128
381440
4056
többek között minden idők legjobb
matematikusaira és fizikusaira,
06:37
is fairlymeglehetősen well-documentedjól dokumentált.
129
385520
1936
annak bárki utánajárhat.
06:39
If only halffél the storiestörténetek
about him are halffél trueigaz,
130
387480
3776
Ha a róla szóló történeteknek
csak a fele is igaz,
06:43
there's no questionkérdés
131
391280
1216
akkor kétségkívül
06:44
he's one of the smartestlegokosabb people
who has ever livedélt.
132
392520
2456
ő a világon valaha élt legokosabb ember.
06:47
So considerfontolgat the spectrumszínkép of intelligenceintelligencia.
133
395000
2520
Képzeljük el az intelligencia tartományát.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Itt van Neumann János.
06:53
And then we have you and me.
135
401560
1334
És itt vagytok ti és én.
06:56
And then we have a chickencsirke.
136
404120
1296
Itt pedig egy csirke.
06:57
(LaughterNevetés)
137
405440
1936
(Nevetés)
06:59
Sorry, a chickencsirke.
138
407400
1216
Elnézést, egy kiscsirke.
07:00
(LaughterNevetés)
139
408640
1256
(Nevetés)
07:01
There's no reasonok for me to make this talk
more depressingnyomasztó than it needsigények to be.
140
409920
3736
Nem akarom ezt a beszédet
még lesújtóbbá tenni.
07:05
(LaughterNevetés)
141
413680
1600
(Nevetés)
07:08
It seemsÚgy tűnik, overwhelminglytúlnyomórészt likelyvalószínűleg, howeverazonban,
that the spectrumszínkép of intelligenceintelligencia
142
416339
3477
Valószínűsíthető,
hogy az intelligencia tartománya
07:11
extendsnyúlik much furthertovábbi
than we currentlyjelenleg conceiveelképzelni,
143
419840
3120
sokkalta tágabb,
mint ahogy azt gondolnánk,
07:15
and if we buildépít machinesgépek
that are more intelligentintelligens than we are,
144
423880
3216
és ha magunknál intelligensebb
gépeket építünk,
akkor azok valószínűleg olyan
területeket tárnak fel,
07:19
they will very likelyvalószínűleg
exploreFedezd fel this spectrumszínkép
145
427120
2296
07:21
in waysmódokon that we can't imagineKépzeld el,
146
429440
1856
melyeket elképzelni sem tudunk,
07:23
and exceedhaladhatja meg a us in waysmódokon
that we can't imagineKépzeld el.
147
431320
2520
és ott múlnak felül minket,
ahol nem is sejtjük.
07:27
And it's importantfontos to recognizeelismerik that
this is trueigaz by virtueerény of speedsebesség aloneegyedül.
148
435000
4336
Fontos belátni, hogy ez pusztán
a sebességet tekintve már igaz.
07:31
Right? So imagineKépzeld el if we just builtépült
a superintelligentsuperintelligent AIAI
149
439360
5056
Ugye? Mi lenne, ha olyan
szuperintelligens MI-t hoznánk létre,
07:36
that was no smarterintelligensebb
than your averageátlagos teamcsapat of researcherskutatók
150
444440
3456
ami semmivel sem okosabb
egy hétköznapi kutatócsoportnál
07:39
at StanfordStanford or MITMIT.
151
447920
2296
az MIT-n vagy a Stanford Egyetemen.
07:42
Well, electronicelektronikus circuitsáramkörök
functionfunkció about a millionmillió timesalkalommal fastergyorsabb
152
450240
2976
Az elektronikus áramkörök
milliószor gyorsabban működnek,
07:45
than biochemicalbiokémiai onesazok,
153
453240
1256
mint a biokémiaiak,
07:46
so this machinegép should think
about a millionmillió timesalkalommal fastergyorsabb
154
454520
3136
ezért ez a gép milliószor gyorsabb
gondolkodásra lesz képes,
07:49
than the mindselmék that builtépült it.
155
457680
1816
mind azok az elmék, akik ezt létrehozták.
07:51
So you setkészlet it runningfutás for a weekhét,
156
459520
1656
Szóval életre kelted,
és alig egy hét alatt
07:53
and it will performteljesít 20,000 yearsévek
of human-levelemberi-szint intellectualszellemi work,
157
461200
4560
20 000 évnyi emberi
szellemi munkát végez el.
07:58
weekhét after weekhét after weekhét.
158
466400
1960
És ezt hétről hétre megismétli.
08:01
How could we even understandmegért,
much lessKevésbé constrainkényszerít,
159
469640
3096
Képtelenség felfogni,
nemhogy kordában tartani
08:04
a mindelme makinggyártás this sortfajta of progressHaladás?
160
472760
2280
egy elmét, ami ilyen mértékű
fejlődésre képes.
08:08
The other thing that's worryingaggasztó, franklyőszintén,
161
476840
2136
A másik, ami aggodalomra ad okot,
őszintén szólva,
08:11
is that, imagineKépzeld el the bestlegjobb caseügy scenarioforgatókönyv.
162
479000
4976
ez a legjobb, ami megtörténhet velünk.
08:16
So imagineKépzeld el we hittalálat uponesetén a designtervezés
of superintelligentsuperintelligent AIAI
163
484000
4176
Képzeljük el, hogy olyan
szuperintelligens MI-t alkotunk,
08:20
that has no safetybiztonság concernsaggodalmak.
164
488200
1376
ami nem rejt biztonsági kockázatokat.
08:21
We have the perfecttökéletes designtervezés
the first time around.
165
489600
3256
Rögtön, elsőre létrehozzuk
a legtökéletesebb változatát.
08:24
It's as thoughbár we'vevoltunk been handedkezes an oraclejóslat
166
492880
2216
Mintha kezünkbe kapnánk a mindentudást,
08:27
that behavesúgy viselkedik exactlypontosan as intendedszándékolt.
167
495120
2016
ami pont úgy működik, ahogy kell.
08:29
Well, this machinegép would be
the perfecttökéletes labor-savingmunkaerő-megtakarító deviceeszköz.
168
497160
3720
Ez a gép lenne a leghatékonyabb
munkaerő-helyettesítő berendezés.
Létrehozná a gépet,
amely létrehozná azt a gépet,
08:33
It can designtervezés the machinegép
that can buildépít the machinegép
169
501680
2429
amely bármilyen fizikai munkát elvégez,
08:36
that can do any physicalfizikai work,
170
504133
1763
08:37
poweredhajtású by sunlightnapfény,
171
505920
1456
napenergia hajtja,
08:39
more or lessKevésbé for the costköltség
of rawnyers materialsanyagok.
172
507400
2696
és költségét csak az anyagköltség okozza.
08:42
So we're talkingbeszél about
the endvég of humanemberi drudgeryrabszolgamunka.
173
510120
3256
Az emberi robotolás végéről beszélünk.
08:45
We're alsois talkingbeszél about the endvég
of mosta legtöbb intellectualszellemi work.
174
513400
2800
De ez egyben a szellemi
munka végét is jelenti.
08:49
So what would apesmajmok like ourselvesminket
do in this circumstancekörülmény?
175
517200
3056
Vajon ilyen esetben mit tennének
a hozzánk hasonló emberszabásúak?
08:52
Well, we'dHázasodik be freeingyenes to playjáték FrisbeeFrizbi
and give eachminden egyes other massagesmasszázs.
176
520280
4080
Nos, bármikor frizbizhetnénk,
vagy masszírozhatnánk egymást.
08:57
AddAdd hozzá some LSDAZ LSD and some
questionablekérdéses wardroberuhásszekrény choicesválasztás,
177
525840
2856
Jöhet egy kis LSD,
pár extravagáns ruhadarab,
09:00
and the wholeegész worldvilág
could be like BurningÉgő Man.
178
528720
2176
és az egész világ
Burning Manné változhatna.
09:02
(LaughterNevetés)
179
530920
1640
(Nevetés)
09:06
Now, that mightesetleg soundhang prettyszép good,
180
534320
2000
Ez tényleg jó mókának hangzik,
09:09
but askkérdez yourselfsaját magad what would happentörténik
181
537280
2376
de tegyétek fel magatoknak a kérdést,
hogy mi történne a jelenlegi
gazdasági és politika rendszerekkel.
09:11
underalatt our currentjelenlegi economicgazdasági
and politicalpolitikai ordersorrend?
182
539680
2736
09:14
It seemsÚgy tűnik, likelyvalószínűleg that we would witnesstanú
183
542440
2416
Azt hiszem, szemtanúi lehetnénk
09:16
a levelszint of wealthjólét inequalityegyenlőtlenség
and unemploymenta munkanélküliség
184
544880
4136
egy soha nem látott mértékű
jóléti aránytalanságnak
és munkanélküliségnek.
09:21
that we have never seenlátott before.
185
549040
1496
09:22
AbsentHiányzik a willingnesshajlandóság
to immediatelyazonnal put this newúj wealthjólét
186
550560
2616
Hacsak nem állítanánk
ezt az újfajta jólétet
09:25
to the serviceszolgáltatás of all humanityemberiség,
187
553200
1480
az emberiség szolgálatába,
09:27
a fewkevés trillionairesTrillionaires could graceGrace
the coversburkolatok of our businessüzleti magazinesfolyóiratok
188
555640
3616
akkor pár milliárdos villogna
az üzleti magazinok címlapján,
09:31
while the restpihenés of the worldvilág
would be freeingyenes to starveéhen.
189
559280
2440
miközben a világ többi
része éhen pusztulna.
09:34
And what would the RussiansOroszok
or the Chinesekínai do
190
562320
2296
Vajon mit tennének
az oroszok vagy a kínaiak,
09:36
if they heardhallott that some companyvállalat
in SiliconSzilícium ValleyVölgy
191
564640
2616
ha megtudnák, hogy az egyik
Szilícium-völgyben lévő cég
09:39
was about to deploytelepítése a superintelligentsuperintelligent AIAI?
192
567280
2736
bevetni készül a szuperintelligens MI-t?
09:42
This machinegép would be capableképes
of wagingvív warháború,
193
570040
2856
Ez a gép a hadviselésre is képes lenne,
09:44
whetherakár terrestrialföldi or cyberCyber,
194
572920
2216
akár földön, akár a kibertérben,
09:47
with unprecedentedpéldátlan powererő.
195
575160
1680
soha nem tapasztalt erőfölénnyel.
09:50
This is a winner-take-allgyőztes mindent visz scenarioforgatókönyv.
196
578120
1856
Ez a győztes-mindent-visz forgatókönyv.
09:52
To be sixhat monthshónap aheadelőre
of the competitionverseny here
197
580000
3136
Ezt a versenyt hat hónappal beelőzni,
09:55
is to be 500,000 yearsévek aheadelőre,
198
583160
2776
minimum
09:57
at a minimumminimális.
199
585960
1496
500 000 év szükséges.
09:59
So it seemsÚgy tűnik, that even merepuszta rumorspletykák
of this kindkedves of breakthrougháttörés
200
587480
4736
Ezért már az ilyen áttörésről
szóló leghalványabb pletyka is
10:04
could causeok our speciesfaj to go berserkBerserk.
201
592240
2376
fajunk totális megvadulásába torkollhat.
10:06
Now, one of the mosta legtöbb frighteningijesztő things,
202
594640
2896
A legijesztőbb dolog azonban
10:09
in my viewKilátás, at this momentpillanat,
203
597560
2776
- az én meglátásom szerint -
jelen pillanatban az,
10:12
are the kindsféle of things
that AIAI researcherskutatók say
204
600360
4296
amit az MI-kutatók mondogatnak,
10:16
when they want to be reassuringmegnyugtató.
205
604680
1560
amikor meg akarnak nyugtatni minket.
10:19
And the mosta legtöbb commonközös reasonok
we're told not to worryaggodalom is time.
206
607000
3456
Az aggodalmakra adott
leggyakoribb válaszuk az idő.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Annyira messze van még,
hát nem tudjátok.
10:24
This is probablyvalószínűleg 50 or 100 yearsévek away.
208
612560
2440
50 vagy 100 év is eltelik addig.
10:27
One researcherkutató has said,
209
615720
1256
Az egyik kutató szerint:
10:29
"WorryingAggasztó about AIAI safetybiztonság
210
617000
1576
"A MI biztonsága miatt aggódni olyan,
10:30
is like worryingaggasztó
about overpopulationtúlnépesedés on MarsMars."
211
618600
2280
mintha a túlnépesedés
miatt aggódnánk a Marson."
10:34
This is the SiliconSzilícium ValleyVölgy versionváltozat
212
622116
1620
Ez a szilícium-völgyi változata annak,
10:35
of "don't worryaggodalom your
prettyszép little headfej about it."
213
623760
2376
hogy "ne törd ezen a szép kis buksidat".
10:38
(LaughterNevetés)
214
626160
1336
(Nevetés)
10:39
No one seemsÚgy tűnik, to noticeértesítés
215
627520
1896
Senkinek nem tűnik fel,
10:41
that referencingviszonyítási the time horizonhorizont
216
629440
2616
hogy az időhorizontra való hivatkozás,
10:44
is a totalteljes nonnem sequiturodatartozó.
217
632080
2576
totál nem passzol a képbe.
10:46
If intelligenceintelligencia is just a matterügy
of informationinformáció processingfeldolgozás,
218
634680
3256
Ha az intelligencia csupán
az információ feldolgozásából áll,
10:49
and we continueFolytatni to improvejavul our machinesgépek,
219
637960
2656
és mi folytatjuk a gépek fejlesztését,
10:52
we will producegyárt
some formforma of superintelligencesuperintelligence.
220
640640
2880
akkor létre fogunk hozni
valamiféle szuperintelligenciát.
10:56
And we have no ideaötlet
how long it will take us
221
644320
3656
És fogalmunk sincs mennyi
időbe telik majd megteremteni
11:00
to createteremt the conditionskörülmények
to do that safelybiztonságosan.
222
648000
2400
a biztonságos kivitelezés feltételeit.
11:04
Let me say that again.
223
652200
1296
Hadd ismételjem meg:
11:05
We have no ideaötlet how long it will take us
224
653520
3816
Fogalmunk sincs mennyi
időbe telik majd megteremteni
11:09
to createteremt the conditionskörülmények
to do that safelybiztonságosan.
225
657360
2240
a biztonságos kivitelezés feltételeit.
11:12
And if you haven'tnincs noticedészrevette,
50 yearsévek is not what it used to be.
226
660920
3456
Ha nem tűnt volna fel, az elmúlt
50 év sem olyan, mint az előzőek.
11:16
This is 50 yearsévek in monthshónap.
227
664400
2456
Ez az 50 év hónapokra bontva.
11:18
This is how long we'vevoltunk had the iPhoneiPhone.
228
666880
1840
Ilyen régóta létezik az iPhone.
11:21
This is how long "The SimpsonsSimpson család"
has been on televisiontelevízió.
229
669440
2600
Ilyen régóta megy a tévében a
"Simpson család".
11:24
FiftyÖtven yearsévek is not that much time
230
672680
2376
50 év nem egy hosszú idő,
11:27
to meettalálkozik one of the greatestlegnagyobb challengeskihívások
our speciesfaj will ever facearc.
231
675080
3160
hogy elérkezzünk fajunk egyik
legnagyobb kihívásához.
11:31
OnceEgyszer again, we seemlátszik to be failinghiányában
to have an appropriatemegfelelő emotionalérzelmi responseválasz
232
679640
4016
Ismétlem: képtelenek vagyunk
megfelelő érzelmi reakcióval kezelni,
11:35
to what we have everyminden reasonok
to believe is comingeljövetel.
233
683680
2696
ami minden kétséget kizáróan előttünk áll.
11:38
The computerszámítógép scientisttudós StuartStuart RussellRussell
has a niceszép analogyanalógia here.
234
686400
3976
Stuart Russell számítógéptudósnak
van egy szép analógiája.
11:42
He said, imagineKépzeld el that we receivedkapott
a messageüzenet from an alienidegen civilizationcivilizáció,
235
690400
4896
Azt mondta: Képzeljük el, hogy kapunk
egy üzenetet egy idegen civilizációtól,
11:47
whichmelyik readolvas:
236
695320
1696
amiben ez áll:
11:49
"People of EarthFöld,
237
697040
1536
"Földi népség,
11:50
we will arrivemegérkezik on your planetbolygó in 50 yearsévek.
238
698600
2360
50 év múlva érkezünk.
11:53
Get readykész."
239
701800
1576
Készüljetek fel!"
11:55
And now we're just countingszámolás down
the monthshónap untilamíg the mothershipanyahajó landsa földeket?
240
703400
4256
Elkezdenénk visszaszámlálni,
amíg meg nem érkezik az anyahajó?
11:59
We would feel a little
more urgencysürgős than we do.
241
707680
3000
Sokkal sürgetőbbnek éreznénk, mint most.
12:04
AnotherEgy másik reasonok we're told not to worryaggodalom
242
712680
1856
Az aggodalmakra adott másik válasz,
12:06
is that these machinesgépek
can't help but shareOssza meg our valuesértékeket
243
714560
3016
hogy ezek a gépek
osztják a mi nézeteinket,
12:09
because they will be literallyszó szerint
extensionskiterjesztések of ourselvesminket.
244
717600
2616
mivel ők a mi saját kiterjesztéseink.
12:12
They'llThey'll be graftedoltva onto-ra our brainsagyvelő,
245
720240
1816
Az agyunkba lesznek ültetve,
12:14
and we'lljól essentiallylényegében
becomeválik theirazok limbiclimbikus systemsrendszerek.
246
722080
2360
aminek folytán limbikus
rendszerükké válunk.
12:17
Now take a momentpillanat to considerfontolgat
247
725120
1416
Egyetlen pillanatra gondoljunk csak bele,
12:18
that the safestlegbiztonságosabb
and only prudentkörültekintő pathpálya forwardelőre,
248
726560
3176
azt javasolják,
12:21
recommendedajánlott,
249
729760
1336
hogy az egyetlen biztonságos
és megbízható módszer az,
12:23
is to implantimplantátum this technologytechnológia
directlyközvetlenül into our brainsagyvelő.
250
731120
2800
ha ezt a technológiát közvetlenül
az agyunkba ültetjük be.
12:26
Now, this maylehet in facttény be the safestlegbiztonságosabb
and only prudentkörültekintő pathpálya forwardelőre,
251
734600
3376
Nos, lehet, hogy az egyetlen
biztonságos és megbízható módszer,
12:30
but usuallyáltalában one'sazok safetybiztonság concernsaggodalmak
about a technologytechnológia
252
738000
3056
de a technológiák biztonsági kockázatait
12:33
have to be prettyszép much workeddolgozott out
before you stickrúd it insidebelül your headfej.
253
741080
3656
alaposan tesztelni kéne,
mielőtt bármit bárki fejébe ültetnék.
(Nevetés)
12:36
(LaughterNevetés)
254
744760
2016
12:38
The deepermélyebb problemprobléma is that
buildingépület superintelligentsuperintelligent AIAI on its ownsaját
255
746800
5336
A mélyebb probléma az, hogy egy
szuperintelligens MI létrehozása,
már önmagában is egyszerűbbnek bizonyul,
12:44
seemsÚgy tűnik, likelyvalószínűleg to be easierkönnyebb
256
752160
1736
12:45
than buildingépület superintelligentsuperintelligent AIAI
257
753920
1856
mint létrehozni a szuperintelligens MI-t,
12:47
and havingamelynek the completedbefejezték neuroscienceidegtudomány
258
755800
1776
és megalkotni hozzá
a szükséges idegtudományt,
12:49
that allowslehetővé tesz us to seamlesslyzökkenőmentesen
integrateegyesít our mindselmék with it.
259
757600
2680
amely lehetővé teszi a saját elménkkel
való gond nélküli összekapcsolását.
12:52
And givenadott that the companiesvállalatok
and governmentskormányok doing this work
260
760800
3176
És mivel az ezen dolgozó
vállalatok és kormányok
12:56
are likelyvalószínűleg to perceiveérzékeli themselvesmaguk
as beinglény in a raceverseny againstellen all othersmások,
261
764000
3656
vetélytársként tekintenek egymásra,
12:59
givenadott that to wingyőzelem this raceverseny
is to wingyőzelem the worldvilág,
262
767680
3256
mondván, hogy a verseny győzelme
egyben a világ feletti győzelem is,
13:02
providedbiztosítani you don't destroyelpusztítani it
in the nextkövetkező momentpillanat,
263
770960
2456
hacsak nem rombolják le
a következő pillanatban,
13:05
then it seemsÚgy tűnik, likelyvalószínűleg
that whatevertök mindegy is easierkönnyebb to do
264
773440
2616
akkor valószínűleg a könnyebb megoldás
13:08
will get doneKész first.
265
776080
1200
fog előbb megvalósulni.
13:10
Now, unfortunatelysajnálatos módon,
I don't have a solutionmegoldás to this problemprobléma,
266
778560
2856
Nos, sajnos a problémára
nem tudom a megoldást.
13:13
aparteltekintve from recommendingajánló
that more of us think about it.
267
781440
2616
Csak javasolni tudom, hogy minél
többen gondolkodjunk el ezen.
13:16
I think we need something
like a ManhattanManhattan ProjectProjekt
268
784080
2376
Úgy vélem, szükségünk lenne
a mesterséges intelligencia
13:18
on the topictéma of artificialmesterséges intelligenceintelligencia.
269
786480
2016
Manhattan-projektjére.
13:20
Not to buildépít it, because I think
we'lljól inevitablyelkerülhetetlenül do that,
270
788520
2736
Nem a megépítéséhez, mert azt hiszem,
ez elkerülhetetlen,
13:23
but to understandmegért
how to avoidelkerül an armsfegyver raceverseny
271
791280
3336
hanem hogy megértsük, hogyan kerüljük el
a fegyverkezési versenyt,
13:26
and to buildépít it in a way
that is alignedigazított with our interestsérdekek.
272
794640
3496
és hozzuk létre úgy, hogy összhangban
legyen az érdekeinkkel.
13:30
When you're talkingbeszél
about superintelligentsuperintelligent AIAI
273
798160
2136
Ha szuperintelligens MI-ról beszélünk,
13:32
that can make changesváltoztatások to itselfmaga,
274
800320
2256
amely önmaga megváltoztatására is képes,
13:34
it seemsÚgy tűnik, that we only have one chancevéletlen
to get the initiala kezdeti conditionskörülmények right,
275
802600
4616
akkor egyetlen esélyünk van a kezdeti
feltételek helyes meghatározására,
13:39
and even then we will need to absorbelnyel
276
807240
2056
és még akkor is szükség lesz az ezzel járó
13:41
the economicgazdasági and politicalpolitikai
consequenceskövetkezményei of gettingszerzés them right.
277
809320
3040
gazdasági és politikai
következmények elfogadására.
13:45
But the momentpillanat we admitbeismerni
278
813760
2056
És amint elfogadjuk,
13:47
that informationinformáció processingfeldolgozás
is the sourceforrás of intelligenceintelligencia,
279
815840
4000
hogy az intelligencia forrása az
információ feldolgozásában rejlik,
13:52
that some appropriatemegfelelő computationalszámítási systemrendszer
is what the basisbázis of intelligenceintelligencia is,
280
820720
4800
és hogy az intelligencia alapja
egy megfelelő számítógépes rendszer,
13:58
and we admitbeismerni that we will improvejavul
these systemsrendszerek continuouslyfolyamatosan,
281
826360
3760
és elfogadjuk, hogy ezeket a rendszereket
folyamatosan fejleszteni fogjuk,
14:03
and we admitbeismerni that the horizonhorizont
of cognitionmegismerés very likelyvalószínűleg farmessze exceedsmeghaladja a
282
831280
4456
és hogy a megismerés horizontja
messze meghaladja
14:07
what we currentlyjelenleg know,
283
835760
1200
jelenlegi tudásunkat,
14:10
then we have to admitbeismerni
284
838120
1216
akkor be kell majd látnunk,
14:11
that we are in the processfolyamat
of buildingépület some sortfajta of god.
285
839360
2640
hogy valamiféle isten
megalkotása felé haladunk.
14:15
Now would be a good time
286
843400
1576
Most van itt a pillanat,
14:17
to make sure it's a god we can liveélő with.
287
845000
1953
hogy olyan istent alkossunk,
amellyel együtt is tudunk élni.
14:20
Thank you very much.
288
848120
1536
Nagyon köszönöm.
14:21
(ApplauseTaps)
289
849680
5093
(Taps)
Translated by Csaba Lóki
Reviewed by Reka Lorinczy

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com