ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Putem crea Inteligență Artificială fără să o scăpăm de sub control?

Filmed:
5,024,015 views

Vă e teamă de Inteligența Artificială? Ar trebui, spune cercetătorul în neuroștiințe și filosoful Sam Harris -- nu doar teoretic. Vom construi mașinării supraumane, spune Harris, dar încă nu am realizat problemele asociate cu crearea unui obiect care ne-ar trata așa cum tratăm noi furnicile.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureeșec of intuitionintuiţie
0
1000
2216
Voi vorbi despre o greșeală de intuiție
00:15
that manymulți of us suffersuferi from.
1
3240
1600
de care mulți dintre noi suferim.
00:17
It's really a failureeșec
to detectdetecta a certainanumit kinddrăguț of dangerPericol.
2
5480
3040
E greșeala de a detecta
un anumit tip de pericol.
00:21
I'm going to describedescrie a scenarioscenariu
3
9360
1736
Voi descrie un scenariu
00:23
that I think is bothambii terrifyingînfricoșător
4
11120
3256
care cred că e înfricoșător
00:26
and likelyprobabil to occuravea loc,
5
14400
1760
și probabil să se întâmple,
00:28
and that's not a good combinationcombinaţie,
6
16840
1656
iar asta nu e o combinație bună
00:30
as it turnstransformă out.
7
18520
1536
după cum se pare.
00:32
And yetinca rathermai degraba than be scaredînspăimântat,
mostcel mai of you will feel
8
20080
2456
Totuși, în loc să fiți speriați,
majoritatea dintre voi
00:34
that what I'm talkingvorbind about
is kinddrăguț of coolmisto.
9
22560
2080
vor considera că e interesant.
00:37
I'm going to describedescrie
how the gainscâştigurile we make
10
25200
2976
Voi descrie cum progresele
pe care le facem
00:40
in artificialartificial intelligenceinteligență
11
28200
1776
în inteligența artificială (IA)
ne-ar putea distruge în final.
00:42
could ultimatelyîn cele din urmă destroydistruge us.
12
30000
1776
00:43
And in factfapt, I think it's very difficultdificil
to see how they won'tnu va destroydistruge us
13
31800
3456
De fapt, cred că e foarte greu
să vedem cum nu ne vor distruge
00:47
or inspirea inspira us to destroydistruge ourselvesnoi insine.
14
35280
1680
sau să ne inspire să ne distrugem.
00:49
And yetinca if you're anything like me,
15
37400
1856
Dar dacă sunteți ca mine,
00:51
you'llveți find that it's fundistracţie
to think about these things.
16
39280
2656
veți crede că e amuzant
să te gândești la astfel de lucruri.
00:53
And that responseraspuns is partparte of the problemproblemă.
17
41960
3376
Acest răspuns e parte din problemă.
00:57
OK? That responseraspuns should worryface griji you.
18
45360
1720
Această reacție
ar trebui să vă îngrijoreze.
00:59
And if I were to convinceconvinge you in this talk
19
47920
2656
Dacă v-aș convinge cu discursul meu
01:02
that we were likelyprobabil
to suffersuferi a globalglobal faminefoamete,
20
50600
3416
că ar fi probabil
să suferim o foamete globală,
01:06
eitherfie because of climateclimat changeSchimbare
or some other catastrophecatastrofă,
21
54040
3056
fie din cauza schimbării climatice
ori a altei catastrofe,
01:09
and that your grandchildrennepoți,
or theiral lor grandchildrennepoți,
22
57120
3416
și că nepoții voștri sau nepoții lor
01:12
are very likelyprobabil to livetrăi like this,
23
60560
1800
foarte probabil vor trăi așa,
01:15
you wouldn'tnu ar fi think,
24
63200
1200
nu v-ați gândi:
01:17
"InterestingInteresant.
25
65440
1336
„Interesant.
01:18
I like this TEDTED Talk."
26
66800
1200
Îmi place discursul ăsta.”
01:21
FamineFoamete isn't fundistracţie.
27
69200
1520
Foametea nu e amuzantă.
01:23
DeathMoartea by scienceştiinţă fictionfictiune,
on the other handmână, is fundistracţie,
28
71800
3376
Moartea cauzată de science-fiction,
pe de altă parte, e amuzantă,
01:27
and one of the things that worriesgriji me mostcel mai
about the developmentdezvoltare of AIAI at this pointpunct
29
75200
3976
iar ce mă îngrijorează cel mai mult
despre dezvoltarea IA în prezent
01:31
is that we seempărea unableincapabil to marshalmareșal
an appropriateadecvat emotionalemoţional responseraspuns
30
79200
4096
e că părem incapabili să avem
o reacție emoțională adecvată
01:35
to the dangerspericole that lieminciună aheadînainte.
31
83320
1816
pentru pericolului din fața noastră.
01:37
I am unableincapabil to marshalmareșal this responseraspuns,
and I'm givingoferindu- this talk.
32
85160
3200
Eu nu pot avea un răspuns adecvat,
și țin acest discurs.
01:42
It's as thoughdeşi we standstand before two doorsuşi.
33
90120
2696
E ca și cum am avea două uși în față.
01:44
BehindÎn spatele dooruşă numbernumăr one,
34
92840
1256
În spatele primei uși
01:46
we stop makingluare progressprogres
in buildingclădire intelligentinteligent machinesmaşini.
35
94120
3296
încetăm să progresăm
în construirea mașinăriilor inteligente.
01:49
Our computercomputer hardwarehardware- and softwaresoftware-ul
just stopsopriri gettingobtinerea better for some reasonmotiv.
36
97440
4016
Software-ul și hardware-ul
nu se mai îmbunătățesc.
01:53
Now take a momentmoment
to considerconsidera why this mightar putea happenîntâmpla.
37
101480
3000
Acum gândiți-vă de ce s-ar întâmpla asta.
01:57
I mean, givendat how valuablevaloros
intelligenceinteligență and automationautomatizare are,
38
105080
3656
Știind cât de importante sunt
inteligența și automatizarea,
02:00
we will continuecontinua to improveîmbunătăţi our technologytehnologie
if we are at all ablecapabil to.
39
108760
3520
vom continua să îmbunătățim
tehnologia cât putem.
02:05
What could stop us from doing this?
40
113200
1667
Ce ne-ar opri să facem asta?
02:07
A full-scalescară largă nuclearnuclear warrăzboi?
41
115800
1800
Un război nuclear la scară mare?
02:11
A globalglobal pandemicpandemie?
42
119000
1560
O pandemie globală?
02:14
An asteroidasteroid impactefect?
43
122320
1320
Un impact cu un asteroid?
02:17
JustinJustin BieberBieber becomingdevenire
presidentpreședinte of the UnitedMarea StatesStatele?
44
125640
2576
Justin Bieber devenind președintele SUA?
02:20
(LaughterRâs)
45
128240
2280
(Râsete)
02:24
The pointpunct is, something would have to
destroydistruge civilizationcivilizaţie as we know it.
46
132760
3920
Ideea e că ceva ar trebui să distrugă
civilizația pe care o știm noi.
02:29
You have to imagineimagina
how badrău it would have to be
47
137360
4296
Imaginați-vă cât de rău ar trebui să fie
02:33
to preventîmpiedica us from makingluare
improvementsîmbunătățiri in our technologytehnologie
48
141680
3336
încât să ne împiedice să mai facem
îmbunătățiri în tehnologie
02:37
permanentlypermanent,
49
145040
1216
permanent,
02:38
generationgeneraţie after generationgeneraţie.
50
146280
2016
generație după generație.
02:40
AlmostAproape by definitiondefiniție,
this is the worstcel mai rău thing
51
148320
2136
Aproape prin definiție,
ăsta e cel mai rău lucru
02:42
that's ever happeneds-a întâmplat in humanuman historyistorie.
52
150480
2016
care s-a întâmplat în istoria umană.
02:44
So the only alternativealternativă,
53
152520
1296
Deci singura alternativă,
02:45
and this is what liesminciuni
behindin spate dooruşă numbernumăr two,
54
153840
2336
și asta e după a doua ușă,
e să îmbunătățim în continuare
mașinăriile inteligente
02:48
is that we continuecontinua
to improveîmbunătăţi our intelligentinteligent machinesmaşini
55
156200
3136
an după an după an.
02:51
yearan after yearan after yearan.
56
159360
1600
02:53
At a certainanumit pointpunct, we will buildconstrui
machinesmaşini that are smartermai inteligent than we are,
57
161720
3640
La un moment dat, vom construi
mașinării mai inteligente decât noi
02:58
and onceo singura data we have machinesmaşini
that are smartermai inteligent than we are,
58
166080
2616
și odată ce avem mașinării
mai inteligente decât noi,
ele vor începe să se îmbunătățească.
03:00
they will beginÎNCEPE to improveîmbunătăţi themselvesînșiși.
59
168720
1976
03:02
And then we riskrisc what
the mathematicianmatematician IJIJ Good calleddenumit
60
170720
2736
Apoi există riscul
numit de matematicianul IJ Good
03:05
an "intelligenceinteligență explosionexplozie,"
61
173480
1776
o „explozie de inteligență”,
procesul ne-ar putea scăpa de sub control.
03:07
that the processproces could get away from us.
62
175280
2000
03:10
Now, this is oftende multe ori caricaturedcaricaturizat,
as I have here,
63
178120
2816
Scenariul ăsta e caricaturizat adesea
03:12
as a fearfrică that armiesarmatele of maliciousrău intenţionat robotsroboți
64
180960
3216
ca o frică față de o armată
de roboți răzbunători
03:16
will attackatac us.
65
184200
1256
care ne vor ataca.
03:17
But that isn't the mostcel mai likelyprobabil scenarioscenariu.
66
185480
2696
Dar nu ăsta e scenariul cel mai probabil.
03:20
It's not that our machinesmaşini
will becomedeveni spontaneouslyspontan malevolentrăuvoitoare.
67
188200
4856
Mașinăriile noastre
nu vor deveni brusc răzbunătoare.
Îngrijorarea e că vom construi mașinării
03:25
The concernîngrijorare is really
that we will buildconstrui machinesmaşini
68
193080
2616
03:27
that are so much
more competentcompetent than we are
69
195720
2056
care sunt mult mai competente decât noi
03:29
that the slightestCea mai mică divergencedivergenţă
betweenîntre theiral lor goalsgoluri and our ownpropriu
70
197800
3776
astfel că cea mai mică divergență
între scopurile lor și ale noastre
03:33
could destroydistruge us.
71
201600
1200
ne-ar putea distruge.
03:35
Just think about how we relateraporta to antsfurnici.
72
203960
2080
Gândiți-vă cum ne purtăm cu furnicile.
03:38
We don't hateură them.
73
206600
1656
Nu le urâm.
03:40
We don't go out of our way to harmdăuna them.
74
208280
2056
Nu ne străduim să le rănim.
03:42
In factfapt, sometimesuneori
we take painsdureri not to harmdăuna them.
75
210360
2376
De fapt, uneori ne străduim
să nu le rănim.
03:44
We stepEtapa over them on the sidewalktrotuar.
76
212760
2016
Le ocolim pe trotuar.
03:46
But wheneveroricând theiral lor presenceprezenţă
77
214800
2136
Dar oricând prezența lor
03:48
seriouslySerios conflictsconflicte with one of our goalsgoluri,
78
216960
2496
intră în conflict cu un scop de-al nostru,
03:51
let's say when constructingconstruirea
a buildingclădire like this one,
79
219480
2477
să zicem să construim o clădire ca asta,
03:53
we annihilateanihila them withoutfără a qualmremuşcare.
80
221981
1960
le anihilăm fără remușcări.
03:56
The concernîngrijorare is that we will
one day buildconstrui machinesmaşini
81
224480
2936
Îngrijorarea e că într-o zi
vom construi mașinării
03:59
that, whetherdacă they're consciousconştient or not,
82
227440
2736
care, conștiente sau nu,
04:02
could treattrata us with similarasemănător disregardNu ia în considerare.
83
230200
2000
ne-ar putea trata
cu o nepăsare asemănătoare.
04:05
Now, I suspectsuspect this seemspare
far-fetchedpedant to manymulți of you.
84
233760
2760
Cred că asta vi se pare exagerat,
04:09
I betpariu there are those of you who doubtîndoială
that superintelligentmotiv AIAI is possibleposibil,
85
237360
6336
pariez că unii dintre voi se îndoiesc
că IA superinteligentă e posibilă,
04:15
much lessMai puțin inevitableinevitabil.
86
243720
1656
cu atât mai puțin inevitabilă.
04:17
But then you musttrebuie sa find something wronggresit
with one of the followingca urmare a assumptionsipoteze.
87
245400
3620
Dar atunci trebuie să găsiți ceva greșit
în una din următoarele presupuneri.
04:21
And there are only threeTrei of them.
88
249044
1572
Sunt doar trei.
04:23
IntelligenceInteligenta is a mattermaterie of informationinformație
processingprelucrare in physicalfizic systemssisteme.
89
251800
4719
Inteligența e o problemă de procesare
a informației în sisteme fizice.
04:29
ActuallyDe fapt, this is a little bitpic more
than an assumptionpresupunere.
90
257320
2615
De fapt, asta e mai mult
decât o presupunere.
04:31
We have alreadydeja builtconstruit
narrowîngust intelligenceinteligență into our machinesmaşini,
91
259959
3457
Deja am construit inteligență îngustă
în mașinăriile noastre
04:35
and manymulți of these machinesmaşini performa executa
92
263440
2016
și multe dintre ele funcționează deja
04:37
at a levelnivel of superhumansupraomeneşti
intelligenceinteligență alreadydeja.
93
265480
2640
la un nivel de inteligență suprauman.
04:40
And we know that meredoar mattermaterie
94
268840
2576
Știm că simpla materie
04:43
can give risecreştere to what is calleddenumit
"generalgeneral intelligenceinteligență,"
95
271440
2616
poate da naștere așa-numitei
„inteligență generală”,
04:46
an abilityabilitate to think flexiblyflexibil
acrosspeste multiplemultiplu domainsdomenii,
96
274080
3656
o abilitate de a gândi flexibil
în diverse domenii
04:49
because our brainscreier have manageda reușit it. Right?
97
277760
3136
deoarece creierele noastre
sunt capabile de asta. Corect?
04:52
I mean, there's just atomsatomi in here,
98
280920
3936
Sunt doar atomi aici
04:56
and as long as we continuecontinua
to buildconstrui systemssisteme of atomsatomi
99
284880
4496
și atâta vreme cât continuăm
să construim sisteme de atomi
05:01
that displayafişa more and more
intelligentinteligent behaviorcomportament,
100
289400
2696
care prezintă comportament
din ce în ce mai inteligent,
05:04
we will eventuallyîn cele din urmă,
unlessdacă nu we are interruptedîntreruptă,
101
292120
2536
într-un final, dacă nu suntem întrerupți,
05:06
we will eventuallyîn cele din urmă
buildconstrui generalgeneral intelligenceinteligență
102
294680
3376
vom construi inteligență generală
05:10
into our machinesmaşini.
103
298080
1296
în mașinăriile noastre.
05:11
It's crucialcrucial to realizerealiza
that the raterată of progressprogres doesn't mattermaterie,
104
299400
3656
E crucial să realizăm
că rata progresului nu contează
05:15
because any progressprogres
is enoughdestul to get us into the endSfârşit zonezona.
105
303080
3176
deoarece orice progres e îndeajuns
să ne aducă la capăt de drum.
05:18
We don't need Moore'sMoore lawlege to continuecontinua.
We don't need exponentialexponențială progressprogres.
106
306280
3776
Nu ne trebuie legea lui Moore
să continuăm, nici progres exponențial.
05:22
We just need to keep going.
107
310080
1600
Trebuie doar să continuăm.
05:25
The secondal doilea assumptionpresupunere
is that we will keep going.
108
313480
2920
A doua presupunere e că vom continua.
05:29
We will continuecontinua to improveîmbunătăţi
our intelligentinteligent machinesmaşini.
109
317000
2760
Vom continua să îmbunătățim
mașinăriile inteligente.
05:33
And givendat the valuevaloare of intelligenceinteligență --
110
321000
4376
Dată fiind valoarea inteligenței --
05:37
I mean, intelligenceinteligență is eitherfie
the sourcesursă of everything we valuevaloare
111
325400
3536
inteligența fie e sursa
a tot ce valorăm,
05:40
or we need it to safeguardsalvgardare
everything we valuevaloare.
112
328960
2776
fie ne trebuie
ca să protejăm tot ce prețuim.
05:43
It is our mostcel mai valuablevaloros resourceresursă.
113
331760
2256
E resursa noastră cea mai prețioasă.
05:46
So we want to do this.
114
334040
1536
Deci asta vrem să facem.
Avem probleme pe care trebuie
să le rezolvăm urgent.
05:47
We have problemsProbleme
that we desperatelycu disperare need to solverezolva.
115
335600
3336
05:50
We want to curevindeca diseasesboli
like Alzheimer'sAlzheimer and cancercancer.
116
338960
3200
Vrem să vindecăm boli
ca Alzheimer și cancer.
05:54
We want to understanda intelege economiceconomic systemssisteme.
We want to improveîmbunătăţi our climateclimat scienceştiinţă.
117
342960
3936
Vrem să înțelegem sisteme economice.
Vrem să îmbunătățim știința climatică.
05:58
So we will do this, if we can.
118
346920
2256
Vom face asta dacă putem.
Trenul a plecat deja din stație
și nu are frâne.
06:01
The traintren is alreadydeja out of the stationstatie,
and there's no brakefrână to pullTrage.
119
349200
3286
06:05
FinallyÎn cele din urmă, we don't standstand
on a peakvârf of intelligenceinteligență,
120
353880
5456
În final, nu stăm în vârful inteligenței
06:11
or anywhereoriunde nearaproape it, likelyprobabil.
121
359360
1800
sau oriunde lângă el.
06:13
And this really is the crucialcrucial insightînțelegere.
122
361640
1896
Asta e o informație crucială.
06:15
This is what makesmărci
our situationsituatie so precariousprecare,
123
363560
2416
Asta ne face situația atât de precară
06:18
and this is what makesmărci our intuitionsintuiții
about riskrisc so unreliableNu este de încredere.
124
366000
4040
și de aceea nu ne putem baza
pe intuițiile noastre despre risc.
06:23
Now, just considerconsidera the smartestdeștept personpersoană
who has ever livedtrăit.
125
371120
2720
Acum gândiți-vă la persoana
cea mai deșteaptă.
06:26
On almostaproape everyone'stoată lumea e shortlistlista scurtă here
is JohnIoan vonvon NeumannNeumann.
126
374640
3416
În topul tuturor e John von Neumann.
06:30
I mean, the impressionimpresie that vonvon NeumannNeumann
madefăcut on the people around him,
127
378080
3336
Impresia pe care a lăsat-o
von Neumann celor din jurul său,
06:33
and this includedinclus the greatestcea mai mare
mathematiciansmatematicieni and physicistsfizicienii of his time,
128
381440
4056
inclusiv celor mai mari
matematicieni și fizicieni,
06:37
is fairlydestul de well-documentedbine documentat.
129
385520
1936
e bine documentată.
06:39
If only halfjumătate the storiespovestiri
about him are halfjumătate trueAdevărat,
130
387480
3776
Dacă doar jumătate din poveștile
despre el sunt pe jumătate adevărate,
06:43
there's no questionîntrebare
131
391280
1216
nu încape îndoială
06:44
he's one of the smartestdeștept people
who has ever livedtrăit.
132
392520
2456
că e unul din cei mai deștepți
oameni vreodată.
06:47
So considerconsidera the spectrumspectru of intelligenceinteligență.
133
395000
2520
Gândiți-vă la spectrul inteligenței.
06:50
Here we have JohnIoan vonvon NeumannNeumann.
134
398320
1429
Îl avem pe John von Neumann,
06:53
And then we have you and me.
135
401560
1334
apoi suntem eu și voi,
06:56
And then we have a chickenpui.
136
404120
1296
apoi o găină.
06:57
(LaughterRâs)
137
405440
1936
(Râsete)
06:59
Sorry, a chickenpui.
138
407400
1216
Scuze, o găină.
07:00
(LaughterRâs)
139
408640
1256
(Râsete)
07:01
There's no reasonmotiv for me to make this talk
more depressingdeprimant than it needsare nevoie to be.
140
409920
3736
Nu e nevoie să fac discursul
mai deprimant decât e deja.
07:05
(LaughterRâs)
141
413680
1600
(Râsete)
07:08
It seemspare overwhelminglyapăsător likelyprobabil, howeverin orice caz,
that the spectrumspectru of intelligenceinteligență
142
416339
3477
E copleșitor de probabil
că spectrul inteligenței
07:11
extendsextinde much furthermai departe
than we currentlyîn prezent conceiveconcepe,
143
419840
3120
se extinde mult după cât putem noi percepe
07:15
and if we buildconstrui machinesmaşini
that are more intelligentinteligent than we are,
144
423880
3216
și dacă construim mașinării
mai inteligente decât noi,
07:19
they will very likelyprobabil
exploreexplora this spectrumspectru
145
427120
2296
probabil vor explora acest spectru
07:21
in waysmoduri that we can't imagineimagina,
146
429440
1856
în moduri pe care nu le putem imagina
07:23
and exceedsă depăşească us in waysmoduri
that we can't imagineimagina.
147
431320
2520
și ne depășesc în moduri inimaginabile.
07:27
And it's importantimportant to recognizerecunoaşte that
this is trueAdevărat by virtuevirtutea of speedviteză alonesingur.
148
435000
4336
E important să recunoaștem
că e adevărat în virtutea vitezei.
07:31
Right? So imagineimagina if we just builtconstruit
a superintelligentmotiv AIAI
149
439360
5056
Imaginați-vă dacă am construi
o IA superinteligentă
07:36
that was no smartermai inteligent
than your averagein medie teamechipă of researcherscercetători
150
444440
3456
care n-ar fi mai inteligentă
decât echipa medie de cercetători
07:39
at StanfordStanford or MITMIT.
151
447920
2296
de la Stanford sau MIT.
Circuitele electronice funcționează
de un milion de ori mai rapid
07:42
Well, electronicelectronic circuitscircuite
functionfuncţie about a millionmilion timesori fastermai repede
152
450240
2976
07:45
than biochemicalbiochimic onescele,
153
453240
1256
decât cele biochimice,
07:46
so this machinemaşină should think
about a millionmilion timesori fastermai repede
154
454520
3136
deci mașinăria ar trebui să gândească
de un milion de ori mai rapid
07:49
than the mindsminți that builtconstruit it.
155
457680
1816
decât mințile care au construit-o.
07:51
So you seta stabilit it runningalergare for a weeksăptămână,
156
459520
1656
Dacă o pornești pentru o săptămână
07:53
and it will performa executa 20,000 yearsani
of human-levelomului la nivel intellectualintelectual work,
157
461200
4560
va face 20.000 de ani
de muncă intelectuală la nivel uman,
07:58
weeksăptămână after weeksăptămână after weeksăptămână.
158
466400
1960
săptămână după săptămână.
08:01
How could we even understanda intelege,
much lessMai puțin constrainconstrânge,
159
469640
3096
Cum am putea să înțelegem,
darămite să constrângem
08:04
a mindminte makingluare this sortfel of progressprogres?
160
472760
2280
o minte care face astfel de progrese?
08:08
The other thing that's worryingîngrijorătoare, franklysincer,
161
476840
2136
Celălalt lucru îngrijorător e următorul:
08:11
is that, imagineimagina the bestCel mai bun casecaz scenarioscenariu.
162
479000
4976
imaginați-vă cel mai bun scenariu posibil.
08:16
So imagineimagina we hitlovit uponpe a designproiecta
of superintelligentmotiv AIAI
163
484000
4176
Imaginați-vă că dăm peste un design
de IA superinteligentă
care nu are probleme de siguranță.
08:20
that has no safetySiguranță concernspreocupările.
164
488200
1376
08:21
We have the perfectperfect designproiecta
the first time around.
165
489600
3256
Avem designul perfect din prima încercare.
08:24
It's as thoughdeşi we'vene-am been handedhanded an oracleoracol
166
492880
2216
E ca și cum ne-ar fi dat un oracol
care se comportă așa cum vrem.
08:27
that behavesse comportă exactlyexact as intendeddestinate.
167
495120
2016
08:29
Well, this machinemaşină would be
the perfectperfect labor-savingeconomisirea forţei de muncă devicedispozitiv.
168
497160
3720
Această mașinărie ar fi aparatul perfect
de economisire a forței de muncă.
08:33
It can designproiecta the machinemaşină
that can buildconstrui the machinemaşină
169
501680
2429
Poate crea mașinăria
care poate construi mașinăria
08:36
that can do any physicalfizic work,
170
504133
1763
care poate face orice muncă fizică,
08:37
poweredalimentat by sunlightlumina soarelui,
171
505920
1456
folosind energie solară,
08:39
more or lessMai puțin for the costa costat
of rawbrut materialsmateriale.
172
507400
2696
aproape la costul materiilor prime.
08:42
So we're talkingvorbind about
the endSfârşit of humanuman drudgerycorvoadă.
173
510120
3256
Vorbim despre sfârșitul corvoadei umane.
08:45
We're alsode asemenea talkingvorbind about the endSfârşit
of mostcel mai intellectualintelectual work.
174
513400
2800
E și despre sfârșitul
majorității muncii intelectuale.
08:49
So what would apesmaimuțele like ourselvesnoi insine
do in this circumstancecircumstanţă?
175
517200
3056
Ce ar face maimuțe ca noi
în aceste circumstanțe?
08:52
Well, we'dne-am be freegratuit to playa juca FrisbeeFrisbee
and give eachfiecare other massagesmasaje.
176
520280
4080
Am fi liberi să jucăm frisbee
și să ne facem masaje.
08:57
AddAdauga some LSDLSD and some
questionablediscutabil wardrobedulap pentru haine choicesalegeri,
177
525840
2856
Adăugați niște LSD și niște haine ciudate
09:00
and the wholeîntreg worldlume
could be like BurningArdere Man.
178
528720
2176
și toată lumea ar putea fi
ca la Burning Man.
09:02
(LaughterRâs)
179
530920
1640
(Râsete)
09:06
Now, that mightar putea soundsunet prettyfrumos good,
180
534320
2000
Asta sună destul de bine,
09:09
but askcere yourselftu what would happenîntâmpla
181
537280
2376
dar întrebați-vă ce s-ar întâmpla
09:11
undersub our currentactual economiceconomic
and politicalpolitic orderOrdin?
182
539680
2736
în ordinea economică și politică actuală?
09:14
It seemspare likelyprobabil that we would witnessmartor
183
542440
2416
Pare probabil că vom fi martorii
09:16
a levelnivel of wealthbogatie inequalityinegalitate
and unemploymentşomajului
184
544880
4136
unui nivel de inegalitate de avere
și șomaj nemaivăzut.
09:21
that we have never seenvăzut before.
185
549040
1496
09:22
AbsentAbsente a willingnessdorinţa
to immediatelyimediat put this newnou wealthbogatie
186
550560
2616
Fără voința de a pune această nouă avere
09:25
to the serviceserviciu of all humanityumanitate,
187
553200
1480
în serviciul umanității,
09:27
a fewpuțini trillionairesTrillionaires could graceharul
the coverscapace of our businessAfaceri magazinesreviste
188
555640
3616
câțiva miliardari ar zâmbi
pe copertele revistelor de afaceri
09:31
while the restodihnă of the worldlume
would be freegratuit to starvemor de foame.
189
559280
2440
în timp ce restul lumii ar muri de foame.
09:34
And what would the RussiansRuşii
or the ChineseChineză do
190
562320
2296
Și ce ar face rușii sau chinezii
09:36
if they heardauzit that some companycompanie
in SiliconSiliciu ValleyValea
191
564640
2616
dacă ar auzi
că o companie din Silicon Valley
09:39
was about to deployimplementa a superintelligentmotiv AIAI?
192
567280
2736
ar fi pe cale să lanseze
o IA superinteligentă?
09:42
This machinemaşină would be capablecapabil
of wagingducerii warrăzboi,
193
570040
2856
Această mașinărie ar fi capabilă
să ducă un război,
09:44
whetherdacă terrestrialterestre or cyberCyber,
194
572920
2216
terestru sau cibernetic,
09:47
with unprecedentedfără precedent powerputere.
195
575160
1680
cu o putere nemaivăzută.
E un scenariu
în care câștigătorul ia tot.
09:50
This is a winner-take-allCâştigătorul-ia-tot scenarioscenariu.
196
578120
1856
09:52
To be sixşase monthsluni aheadînainte
of the competitioncompetiție here
197
580000
3136
Să fii cu șase luni înaintea competiției
09:55
is to be 500,000 yearsani aheadînainte,
198
583160
2776
înseamnă să fii cu 500.000 de ani înainte,
09:57
at a minimumminim.
199
585960
1496
cel puțin.
09:59
So it seemspare that even meredoar rumorszvonuri
of this kinddrăguț of breakthroughdescoperire
200
587480
4736
Se pare că doar zvonurile
despre acest fel de descoperire
10:04
could causecauza our speciesspecie to go berserkBerserk.
201
592240
2376
ar putea să înnebunească specia noastră.
10:06
Now, one of the mostcel mai frighteningînfricoşător things,
202
594640
2896
Unul din cele mai înfricoșătoare lucruri
10:09
in my viewvedere, at this momentmoment,
203
597560
2776
în acest moment, după părerea mea,
10:12
are the kindstipuri of things
that AIAI researcherscercetători say
204
600360
4296
sunt lucrurile
pe care le spun cercetătorii IA
10:16
when they want to be reassuringliniștitor.
205
604680
1560
când vor să ne liniștească.
10:19
And the mostcel mai commoncomun reasonmotiv
we're told not to worryface griji is time.
206
607000
3456
Cel mai comun motiv
să nu ne îngrijorăm e timpul.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Se va întâmpla peste mult timp.
10:24
This is probablyprobabil 50 or 100 yearsani away.
208
612560
2440
Probabil peste 50 sau 100 de ani.
10:27
One researchercercetător has said,
209
615720
1256
Un cercetător a spus:
10:29
"WorryingÎngrijorătoare about AIAI safetySiguranță
210
617000
1576
„Să vă îngrijorați din cauza IA
10:30
is like worryingîngrijorătoare
about overpopulationsuprapopulare on MarsMarte."
211
618600
2280
e ca și cum v-ați îngrijora
de suprapopulare pe Marte.”
10:34
This is the SiliconSiliciu ValleyValea versionversiune
212
622116
1620
Asta e versiunea de Silicon Valley
10:35
of "don't worryface griji your
prettyfrumos little headcap about it."
213
623760
2376
de „nu-ți bate căpșorul cu asta”.
10:38
(LaughterRâs)
214
626160
1336
(Râsete)
10:39
No one seemspare to noticeînștiințare
215
627520
1896
Nimeni nu pare să observe
10:41
that referencingcorelarea the time horizonorizont
216
629440
2616
că referința la acea perioadă de timp
10:44
is a totaltotal nonnon sequitursequitur.
217
632080
2576
nu e logică.
10:46
If intelligenceinteligență is just a mattermaterie
of informationinformație processingprelucrare,
218
634680
3256
Dacă inteligența e doar o problemă
de procesare a informației
10:49
and we continuecontinua to improveîmbunătăţi our machinesmaşini,
219
637960
2656
și noi continuăm
să îmbunătățim mașinăriile,
10:52
we will producelegume şi fructe
some formformă of superintelligencesuperinteligenţa.
220
640640
2880
vom produce o formă de superinteligență.
10:56
And we have no ideaidee
how long it will take us
221
644320
3656
Nu avem idee cât ne va lua
11:00
to createcrea the conditionscondiţii
to do that safelyîn condiţii de siguranţă.
222
648000
2400
să creăm condițiile de siguranță
pentru asta.
11:04
Let me say that again.
223
652200
1296
Lăsați-mă să repet.
11:05
We have no ideaidee how long it will take us
224
653520
3816
Nu avem idee cât ne va lua
11:09
to createcrea the conditionscondiţii
to do that safelyîn condiţii de siguranţă.
225
657360
2240
să creăm condițiile de siguranță
pentru asta.
11:12
And if you haven'tnu au noticeda observat,
50 yearsani is not what it used to be.
226
660920
3456
Dacă nu ați observat,
50 de ani nu mai sunt ce-au fost.
11:16
This is 50 yearsani in monthsluni.
227
664400
2456
Iată 50 de ani în luni.
11:18
This is how long we'vene-am had the iPhoneiPhone.
228
666880
1840
De atâta timp avem iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisionteleviziune.
229
669440
2600
De atâta timp The Simpsons
rulează la televizor.
11:24
FiftyCincizeci yearsani is not that much time
230
672680
2376
50 de ani nu e un timp lung
11:27
to meetîntâlni one of the greatestcea mai mare challengesprovocări
our speciesspecie will ever facefață.
231
675080
3160
pentru a rezolva una din cele mai mari
provocări ale speciei noastre.
11:31
OnceO dată again, we seempărea to be failingîn lipsa
to have an appropriateadecvat emotionalemoţional responseraspuns
232
679640
4016
Încă o dată, se pare că eșuăm
să avem o reacție emoțională adecvată
11:35
to what we have everyfiecare reasonmotiv
to believe is comingvenire.
233
683680
2696
la ce va veni, foarte probabil.
11:38
The computercomputer scientistom de stiinta StuartStuart RussellRussell
has a nicefrumos analogyanalogie here.
234
686400
3976
Informaticianul Stuart Russell
are o analogie bună.
11:42
He said, imagineimagina that we receivedprimit
a messagemesaj from an alienstrăin civilizationcivilizaţie,
235
690400
4896
A spus: să ne imaginăm că am primit
un mesaj de la o civilizație extraterestră
11:47
whichcare readcitit:
236
695320
1696
care zice:
11:49
"People of EarthPământ,
237
697040
1536
„Oameni de pe Pământ,
11:50
we will arriveajunge on your planetplanetă in 50 yearsani.
238
698600
2360
vom veni pe planeta voastră în 50 de ani.
11:53
Get readygata."
239
701800
1576
Pregătiți-vă.”
11:55
And now we're just countingsocoteală down
the monthsluni untilpana cand the mothershipMamă landsterenuri?
240
703400
4256
Acum rămânem să numărăm lunile
până aterizează nava?
11:59
We would feel a little
more urgencyurgenţă than we do.
241
707680
3000
Am simți nevoia să facem ceva mai urgent.
Alt motiv pentru care
ni se spune să nu ne îngrijorăm
12:04
AnotherUn alt reasonmotiv we're told not to worryface griji
242
712680
1856
12:06
is that these machinesmaşini
can't help but shareacțiune our valuesvalorile
243
714560
3016
e că aceste mașinării pot să aibă
doar aceleași valori ca noi
12:09
because they will be literallyliteralmente
extensionsextensii of ourselvesnoi insine.
244
717600
2616
deoarece vor fi practic
extensiile noastre.
12:12
They'llEle vor be graftedaltoit ontope our brainscreier,
245
720240
1816
Vor fi în creierele noastre
12:14
and we'llbine essentiallyin esenta
becomedeveni theiral lor limbiclimbic systemssisteme.
246
722080
2360
și noi vom deveni practic
sistemele lor limbice.
12:17
Now take a momentmoment to considerconsidera
247
725120
1416
Să ne gândim un moment
12:18
that the safestcel mai sigur
and only prudentprudent pathcale forwardredirecţiona,
248
726560
3176
la calea de viitor
cea mai sigură și prudentă,
12:21
recommendedrecomandat,
249
729760
1336
recomandată,
12:23
is to implantimplant this technologytehnologie
directlydirect into our brainscreier.
250
731120
2800
e să implantăm tehnologia
direct în creierele noastre.
12:26
Now, this mayMai in factfapt be the safestcel mai sigur
and only prudentprudent pathcale forwardredirecţiona,
251
734600
3376
Asta ar fi calea de viitor
cea mai sigură și prudentă,
dar de obicei măsurile de siguranță
ale unei tehnologii
12:30
but usuallyde obicei one'sunul e safetySiguranță concernspreocupările
about a technologytehnologie
252
738000
3056
12:33
have to be prettyfrumos much workeda lucrat out
before you stickbăț it insideinterior your headcap.
253
741080
3656
trebuie să fie clarificate
înainte de a ți-o pune în creier.
12:36
(LaughterRâs)
254
744760
2016
(Râsete)
12:38
The deeperMai adânc problemproblemă is that
buildingclădire superintelligentmotiv AIAI on its ownpropriu
255
746800
5336
Problema mai delicată e că
construcția unei IA superinteligente
12:44
seemspare likelyprobabil to be easierMai uşor
256
752160
1736
pare mai ușoară
12:45
than buildingclădire superintelligentmotiv AIAI
257
753920
1856
decât a unei IA superinteligente
12:47
and havingavând the completedterminat neuroscienceneurostiintele
258
755800
1776
și neuroștiința completă
12:49
that allowspermite us to seamlesslyperfect
integrateintegra our mindsminți with it.
259
757600
2680
care ne ajută să ne integrăm
mintea cu aceasta.
12:52
And givendat that the companiescompanii
and governmentsguvernele doing this work
260
760800
3176
Dat fiind că guvernele și companiile
care lucrează la asta
12:56
are likelyprobabil to perceivepercep themselvesînșiși
as beingfiind in a racerasă againstîmpotriva all othersalții,
261
764000
3656
probabil se cred într-o cursă
împotriva tuturor,
12:59
givendat that to wina castiga this racerasă
is to wina castiga the worldlume,
262
767680
3256
și câștigarea cursei
înseamnă câștigarea lumii,
13:02
providedprevăzut you don't destroydistruge it
in the nextUrmător → momentmoment,
263
770960
2456
dacă nu o distrugem în clipa următoare,
13:05
then it seemspare likelyprobabil
that whateverindiferent de is easierMai uşor to do
264
773440
2616
pare probabil că ce e mai ușor de făcut
13:08
will get doneTerminat first.
265
776080
1200
va fi făcut mai întâi.
13:10
Now, unfortunatelydin pacate,
I don't have a solutionsoluţie to this problemproblemă,
266
778560
2856
Din păcate, nu am o soluție
la această problemă,
13:13
apartseparat from recommendingRecomandarea
that more of us think about it.
267
781440
2616
alta decât să vă recomand
să vă gândiți la asta.
13:16
I think we need something
like a ManhattanManhattan ProjectProiect
268
784080
2376
Cred că ne trebuie
un fel de Manhattan Project
13:18
on the topicsubiect of artificialartificial intelligenceinteligență.
269
786480
2016
pe subiectul IA.
13:20
Not to buildconstrui it, because I think
we'llbine inevitablyinevitabil do that,
270
788520
2736
Nu s-o construim, deoarece
cred că inevitabil o vom face,
13:23
but to understanda intelege
how to avoidevita an armsarme racerasă
271
791280
3336
ci să înțelegem
cum să evităm cursa înarmărilor
13:26
and to buildconstrui it in a way
that is alignedaliniate with our interestsinterese.
272
794640
3496
și să o construim într-un fel
corespunzător valorilor noastre.
13:30
When you're talkingvorbind
about superintelligentmotiv AIAI
273
798160
2136
Când vorbiți despre IA superinteligentă,
13:32
that can make changesschimbări to itselfîn sine,
274
800320
2256
care se poate schimba pe sine,
13:34
it seemspare that we only have one chanceşansă
to get the initialiniţială conditionscondiţii right,
275
802600
4616
se pare că avem doar o șansă
să alegem condițiile inițiale corecte
13:39
and even then we will need to absorbabsorbi
276
807240
2056
și chiar și atunci va trebui să absorbim
13:41
the economiceconomic and politicalpolitic
consequencesconsecințe of gettingobtinerea them right.
277
809320
3040
consecințele economice și politice
ale alegerii corecte.
13:45
But the momentmoment we admitadmite
278
813760
2056
Dar momentul în care admitem
13:47
that informationinformație processingprelucrare
is the sourcesursă of intelligenceinteligență,
279
815840
4000
că procesarea informației
e sursa inteligenței,
13:52
that some appropriateadecvat computationalcomputațională systemsistem
is what the basisbază of intelligenceinteligență is,
280
820720
4800
că un sistem computațional adecvat
e baza inteligenței,
13:58
and we admitadmite that we will improveîmbunătăţi
these systemssisteme continuouslycontinuu,
281
826360
3760
și admitem că vom îmbunătăți
continuu aceste sisteme
14:03
and we admitadmite that the horizonorizont
of cognitioncunoaștere very likelyprobabil fardeparte exceedsdepăşeşte
282
831280
4456
și admitem că orizontul cogniției
foarte probabil depășește
14:07
what we currentlyîn prezent know,
283
835760
1200
ce știm noi acum,
14:10
then we have to admitadmite
284
838120
1216
atunci trebuie să admitem
14:11
that we are in the processproces
of buildingclădire some sortfel of god.
285
839360
2640
că suntem în procesul
de creare a unui fel de zeu.
14:15
Now would be a good time
286
843400
1576
Acum ar fi momentul potrivit
14:17
to make sure it's a god we can livetrăi with.
287
845000
1953
să ne asigurăm că e un zeu
cu care putem trăi.
14:20
Thank you very much.
288
848120
1536
Vă mulțumesc mult.
14:21
(ApplauseAplauze)
289
849680
5093
(Aplauze)
Translated by Lorena Ciutacu
Reviewed by Mirel-Gabriel Alexa

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com