ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Possiamo costruire IA senza perderne il controllo?

Filmed:
5,024,015 views

Avete paura della super intelligenza artificiale? Dovreste, come dice il neuroscienziato e filosofo Sam Harris, e non soltanto in via teorica. Secondo Harris arriveremo a costruire macchine superiori all'uomo, ma ancora non abbiamo afferrato i problemi che sorgeranno creando qualcosa che potrebbe trattarci allo stesso modo di come noi trattiamo le formiche.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurefallimento of intuitionintuizione
0
1000
2216
Vi parlerò della mancanza d'intuito
00:15
that manymolti of us suffersoffrire from.
1
3240
1600
di cui molti di noi soffrono
00:17
It's really a failurefallimento
to detectindividuare a certaincerto kindgenere of dangerPericolo.
2
5480
3040
è davvero un insuccesso non notare un certo tipo di pericolo
00:21
I'm going to describedescrivere a scenarioscenario
3
9360
1736
Vi descriverò uno scenario
00:23
that I think is bothentrambi terrifyingterrificante
4
11120
3256
che penso sia terrificante
00:26
and likelyprobabile to occursi verificano,
5
14400
1760
e allo stesso tempo molto probabile che accada,
00:28
and that's not a good combinationcombinazione,
6
16840
1656
una combinazione poco felice,
00:30
as it turnsgiri out.
7
18520
1536
a quanto pare.
00:32
And yetancora ratherpiuttosto than be scaredimpaurito,
mostmaggior parte of you will feel
8
20080
2456
Ma invece di essere spaventati,
molti di voi penseranno
00:34
that what I'm talkingparlando about
is kindgenere of coolfreddo.
9
22560
2080
che quello di cui sto parlando
è piuttosto figo.
00:37
I'm going to describedescrivere
how the gainsutile we make
10
25200
2976
Vi mostrerò che i progressi
che stiamo facendo
00:40
in artificialartificiale intelligenceintelligenza
11
28200
1776
nell'intelligenza artificiale
00:42
could ultimatelyin definitiva destroydistruggere us.
12
30000
1776
potrebbero distruggerci.
00:43
And in factfatto, I think it's very difficultdifficile
to see how they won'tnon lo farà destroydistruggere us
13
31800
3456
Penso sia difficile immaginare
come non possano distruggerci
00:47
or inspireispirare us to destroydistruggere ourselvesnoi stessi.
14
35280
1680
o indurci a distruggerci tra noi.
00:49
And yetancora if you're anything like me,
15
37400
1856
E tuttavia, se siete come me,
00:51
you'llpotrai find that it's fundivertimento
to think about these things.
16
39280
2656
penserete che sia divertente
pensare a queste cose.
00:53
And that responserisposta is partparte of the problemproblema.
17
41960
3376
Questa reazione è parte del problema.
00:57
OK? That responserisposta should worrypreoccupazione you.
18
45360
1720
Ok? Questa reazione dovrebbe preoccuparvi.
00:59
And if I were to convinceconvincere you in this talk
19
47920
2656
Se in questa conferenza
vi dovessi convincere
01:02
that we were likelyprobabile
to suffersoffrire a globalglobale faminecarestia,
20
50600
3416
che è molto probabile che si verifichi
una carestia globale,
01:06
eithero because of climateclima changemodificare
or some other catastrophecatastrofe,
21
54040
3056
o per i cambiamenti climatici
o per altre catastrofi,
01:09
and that your grandchildrennipoti,
or theirloro grandchildrennipoti,
22
57120
3416
e che i vostri nipoti, o i loro nipoti,
01:12
are very likelyprobabile to livevivere like this,
23
60560
1800
vivranno in queste condizioni,
01:15
you wouldn'tno think,
24
63200
1200
non pensereste:
01:17
"InterestingInteressante.
25
65440
1336
"Interessante.
01:18
I like this TEDTED Talk."
26
66800
1200
Bello questo TED Talk."
01:21
FamineCarestia isn't fundivertimento.
27
69200
1520
La carestia non è divertente.
01:23
DeathMorte by sciencescienza fictionfinzione,
on the other handmano, is fundivertimento,
28
71800
3376
Una morte fantascientifica,
d'altro canto, è divertente,
01:27
and one of the things that worriespreoccupazioni me mostmaggior parte
about the developmentsviluppo of AIAI at this pointpunto
29
75200
3976
e una delle cose che mi preoccupano di più
dello sviluppo dell'AI
01:31
is that we seemsembrare unableincapace to marshalMaresciallo
an appropriateadeguata emotionalemotivo responserisposta
30
79200
4096
è che non sembriamo in grado
di organizzare la giusta risposta emotiva
01:35
to the dangerspericoli that liemenzogna aheadavanti.
31
83320
1816
rispetto al pericolo che corriamo.
01:37
I am unableincapace to marshalMaresciallo this responserisposta,
and I'm givingdando this talk.
32
85160
3200
Nemmeno io ne sono in grado,
e sto facendo questo intervento.
01:42
It's as thoughanche se we standstare in piedi before two doorsporte.
33
90120
2696
È come se ci trovassimo
davanti a due porte.
Dietro la prima c'è questo:
01:44
BehindDietro doorporta numbernumero one,
34
92840
1256
01:46
we stop makingfabbricazione progressprogresso
in buildingcostruzione intelligentintelligente machinesmacchine.
35
94120
3296
smettiamo di fare progressi
nel costruire macchine intelligenti.
01:49
Our computercomputer hardwarehardware and softwareSoftware
just stopsfermate gettingottenere better for some reasonragionare.
36
97440
4016
Per qualche motivo gli hardware e software
dei nostri computer non migliorano più.
01:53
Now take a momentmomento
to considerprendere in considerazione why this mightpotrebbe happenaccadere.
37
101480
3000
Pensate un attimo per quale motivo
potrebbe succedere.
01:57
I mean, givendato how valuableprezioso
intelligenceintelligenza and automationautomazione are,
38
105080
3656
Insomma, visto quanto sono importanti
l'intelligenza e l'automazione,
02:00
we will continueContinua to improveMigliorare our technologytecnologia
if we are at all ablecapace to.
39
108760
3520
continueremo a migliorare
la nostra tecnologia, se possiamo.
02:05
What could stop us from doing this?
40
113200
1667
Cosa potrebbe impedircelo?
02:07
A full-scalescala reale nuclearnucleare warguerra?
41
115800
1800
Una guerra atomica su scala mondiale?
02:11
A globalglobale pandemicpandemia?
42
119000
1560
Una pandemia globale?
02:14
An asteroidasteroide impacturto?
43
122320
1320
L'impatto di un asteroide?
02:17
JustinJustin BieberBieber becomingdiventando
presidentPresidente of the UnitedUniti d'America StatesStati?
44
125640
2576
Justin Bieber che diventa
il primo presidente degli USA?
02:20
(LaughterRisate)
45
128240
2280
(Risate)
02:24
The pointpunto is, something would have to
destroydistruggere civilizationciviltà as we know it.
46
132760
3920
Qualcosa dovrebbe distruggere
la nostra civiltà, per come la conosciamo.
02:29
You have to imagineimmaginare
how badcattivo it would have to be
47
137360
4296
Dovete immaginare quanto
dovrebbe essere catastrofico
02:33
to preventimpedire us from makingfabbricazione
improvementsmiglioramenti in our technologytecnologia
48
141680
3336
per farci smettere di sviluppare
la nostra tecnologia,
02:37
permanentlypermanentemente,
49
145040
1216
per sempre,
02:38
generationgenerazione after generationgenerazione.
50
146280
2016
generazione dopo generazione.
02:40
AlmostQuasi by definitiondefinizione,
this is the worstpeggio thing
51
148320
2136
Sarebbe per definizione la cosa peggiore
02:42
that's ever happenedè accaduto in humanumano historystoria.
52
150480
2016
mai successa nella storia dell'uomo.
02:44
So the only alternativealternativa,
53
152520
1296
Perciò l'unica alternativa,
02:45
and this is what liesbugie
behinddietro a doorporta numbernumero two,
54
153840
2336
ovvero ciò che c'è
dietro la seconda porta,
02:48
is that we continueContinua
to improveMigliorare our intelligentintelligente machinesmacchine
55
156200
3136
è che continueremo a sviluppare
l'intelligenza artificiale,
02:51
yearanno after yearanno after yearanno.
56
159360
1600
anno dopo anno.
02:53
At a certaincerto pointpunto, we will buildcostruire
machinesmacchine that are smarterpiù intelligente than we are,
57
161720
3640
Arriverà un momento in cui costruiremo
macchine più intelligenti di noi,
02:58
and onceuna volta we have machinesmacchine
that are smarterpiù intelligente than we are,
58
166080
2616
e quando le macchine saranno
più intelligenti di noi
03:00
they will begininizio to improveMigliorare themselvesloro stessi.
59
168720
1976
inizieranno a migliorarsi da sole.
03:02
And then we riskrischio what
the mathematicianmatematico IJIJ Good calledchiamato
60
170720
2736
Allora rischieremo quello che
il matematico IJ Good chiama
03:05
an "intelligenceintelligenza explosionesplosione,"
61
173480
1776
"esplosione dell'intelligenza",
03:07
that the processprocesso could get away from us.
62
175280
2000
ovvero che potremmo perdere il controllo.
03:10
Now, this is oftenspesso caricaturedcaricaturale,
as I have here,
63
178120
2816
Come vedete, spesso questo viene reso
con una caricatura,
03:12
as a fearpaura that armieseserciti of maliciousdannoso robotsrobot
64
180960
3216
ovvero la paura che un esercito
di robot malvagi
03:16
will attackattacco us.
65
184200
1256
ci attacchi.
03:17
But that isn't the mostmaggior parte likelyprobabile scenarioscenario.
66
185480
2696
Ma questo non è lo scenario più probabile.
03:20
It's not that our machinesmacchine
will becomediventare spontaneouslyspontaneamente malevolentmalevoli.
67
188200
4856
Le nostre macchine non diventeranno
malvagie spontaneamente.
03:25
The concernpreoccupazione is really
that we will buildcostruire machinesmacchine
68
193080
2616
Il problema è che costruiremo macchine
03:27
that are so much
more competentcompetente than we are
69
195720
2056
che saranno tanto più capaci di noi
03:29
that the slightestminimo divergencedivergenza
betweenfra theirloro goalsobiettivi and our ownproprio
70
197800
3776
che la più piccola divergenza
tra i loro obiettivi e i nostri
03:33
could destroydistruggere us.
71
201600
1200
ci potrebbe distruggere.
03:35
Just think about how we relateriferirsi to antsformiche.
72
203960
2080
Pensate a come ci comportiamo
con le formiche.
03:38
We don't hateodiare them.
73
206600
1656
Non le odiamo.
03:40
We don't go out of our way to harmdanno them.
74
208280
2056
Non facciamo loro del male apposta.
03:42
In factfatto, sometimesa volte
we take painsdolori not to harmdanno them.
75
210360
2376
Alle volte facciamo attenzione
a non danneggiarle.
03:44
We steppasso over them on the sidewalkmarciapiede.
76
212760
2016
Le saltiamo, quando sono sul marciapiede.
03:46
But wheneverogni volta theirloro presencepresenza
77
214800
2136
Ma se la loro presenza
03:48
seriouslysul serio conflictsconflitti with one of our goalsobiettivi,
78
216960
2496
ci intralcia,
ad esempio se dobbiamo costruire
un edificio come questo,
03:51
let's say when constructingcostruzione
a buildingcostruzione like this one,
79
219480
2477
03:53
we annihilateannientare them withoutsenza a qualmQualm.
80
221981
1960
le distruggiamo senza battere ciglio.
03:56
The concernpreoccupazione is that we will
one day buildcostruire machinesmacchine
81
224480
2936
La mia preoccupazione è che un giorno
costruiremo delle macchine
03:59
that, whetherse they're consciousconsapevole or not,
82
227440
2736
che, consapevolmente o meno,
04:02
could treattrattare us with similarsimile disregardignorare.
83
230200
2000
possano trattarci
con la stessa noncuranza.
04:05
Now, I suspectsospettare this seemssembra
far-fetchedforzato to manymolti of you.
84
233760
2760
Penserete che tutto questo
sia inverosimile
04:09
I betscommessa there are those of you who doubtdubbio
that superintelligentsuper intelligente AIAI is possiblepossibile,
85
237360
6336
Scommetto che alcuni di voi dubitano
che una IA del genere sia possibile,
04:15
much lessDi meno inevitableinevitabile.
86
243720
1656
e ancor meno, che sia inevitabile.
04:17
But then you mustdovere find something wrongsbagliato
with one of the followinga seguire assumptionsassunzioni.
87
245400
3620
Ma per credere questo dovete trovare
qualcosa di sbagliato in questi assunti.
04:21
And there are only threetre of them.
88
249044
1572
Sono solo tre.
04:23
IntelligenceIntelligenza is a matterimporta of informationinformazione
processinglavorazione in physicalfisico systemssistemi.
89
251800
4719
L'intelligenza dipende dalle informazioni
elaborate in un sistema fisico.
04:29
ActuallyIn realtà, this is a little bitpo more
than an assumptionassunzione.
90
257320
2615
In realtà questo è più di un assunto.
04:31
We have alreadygià builtcostruito
narrowstretto intelligenceintelligenza into our machinesmacchine,
91
259959
3457
Abbiamo già inserito delle "IA deboli"
nelle nostre macchine,
04:35
and manymolti of these machinesmacchine performeseguire
92
263440
2016
e molte di queste hanno già dato risultati
04:37
at a levellivello of superhumansovrumana
intelligenceintelligenza alreadygià.
93
265480
2640
a livelli di una super intelligenza.
04:40
And we know that meresemplice matterimporta
94
268840
2576
Sappiamo che la sola materia
04:43
can give risesalire to what is calledchiamato
"generalgenerale intelligenceintelligenza,"
95
271440
2616
può dar vita alla "intelligenza generale",
04:46
an abilitycapacità to think flexiblyin modo flessibile
acrossattraverso multiplemultiplo domainsdomini,
96
274080
3656
l'abilità di pensare in modo flessibile
attraverso settori diversi,
04:49
because our brainsmente have managedgestito it. Right?
97
277760
3136
perché il nostro cervello
lo sa fare. Giusto?
04:52
I mean, there's just atomsatomi in here,
98
280920
3936
Alla fine, ci sono solo atomi qua dentro,
04:56
and as long as we continueContinua
to buildcostruire systemssistemi of atomsatomi
99
284880
4496
e finché continuiamo a costruire
dei sistemi fatti di atomi
05:01
that displaydisplay more and more
intelligentintelligente behaviorcomportamento,
100
289400
2696
che manifestano comportamenti
sempre più intelligenti,
05:04
we will eventuallyinfine,
unlesssalvo che we are interruptedinterrotto,
101
292120
2536
a meno che qualcosa non ce lo impedisca,
05:06
we will eventuallyinfine
buildcostruire generalgenerale intelligenceintelligenza
102
294680
3376
arriveremo a immettere
l'intelligenza generale
05:10
into our machinesmacchine.
103
298080
1296
nelle nostre macchine.
05:11
It's crucialcruciale to realizerendersi conto
that the rateVota of progressprogresso doesn't matterimporta,
104
299400
3656
È fondamentale capire
che il tasso di progresso non conta,
05:15
because any progressprogresso
is enoughabbastanza to get us into the endfine zonezona.
105
303080
3176
perché ogni progresso basta
ad avvicinarci al suo compimento.
05:18
We don't need Moore'sDi Moore lawlegge to continueContinua.
We don't need exponentialesponenziale progressprogresso.
106
306280
3776
Non c'è bisogno della legge di Moore,
o della crescita esponenziale.
05:22
We just need to keep going.
107
310080
1600
Basta proseguire.
05:25
The secondsecondo assumptionassunzione
is that we will keep going.
108
313480
2920
Il secondo assunto è che proseguiremo.
05:29
We will continueContinua to improveMigliorare
our intelligentintelligente machinesmacchine.
109
317000
2760
Continueremo a migliorare
le nostre macchine intelligenti.
05:33
And givendato the valuevalore of intelligenceintelligenza --
110
321000
4376
E data l'importanza dell'intelligenza...
05:37
I mean, intelligenceintelligenza is eithero
the sourcefonte of everything we valuevalore
111
325400
3536
O l'intelligenza è la fonte di tutto ciò
che per noi ha valore,
05:40
or we need it to safeguardsalvaguardia
everything we valuevalore.
112
328960
2776
o ne abbiamo bisogno per preservare
tutto ciò che ha valore.
05:43
It is our mostmaggior parte valuableprezioso resourcerisorsa.
113
331760
2256
È la nostra risorsa più importante.
05:46
So we want to do this.
114
334040
1536
Per questo lo facciamo.
05:47
We have problemsi problemi
that we desperatelydisperatamente need to solverisolvere.
115
335600
3336
Ci sono problemi che dobbiamo
risolvere disperatamente.
05:50
We want to curecura diseasesmalattie
like Alzheimer'sMorbo di Alzheimer and cancercancro.
116
338960
3200
Vogliamo curare malattie
come l'Alzheimer e il cancro.
05:54
We want to understandcapire economiceconomico systemssistemi.
We want to improveMigliorare our climateclima sciencescienza.
117
342960
3936
Vogliamo comprendere i sistemi economici,
migliorare le scienze del clima.
05:58
So we will do this, if we can.
118
346920
2256
Perciò lo faremo, se possiamo.
06:01
The traintreno is alreadygià out of the stationstazione,
and there's no brakefreno to pullTirare.
119
349200
3286
Il treno ha già lasciato la stazione
e non c'è nessun freno da tirare.
06:05
FinallyInfine, we don't standstare in piedi
on a peakpicco of intelligenceintelligenza,
120
353880
5456
Infine, non abbiamo ancora raggiunto
il culmine della nostra intelligenza,
06:11
or anywheredovunque nearvicino it, likelyprobabile.
121
359360
1800
nemmeno lontanamente.
06:13
And this really is the crucialcruciale insightintuizione.
122
361640
1896
Questa è l'intuizione fondamentale,
06:15
This is what makesfa
our situationsituazione so precariousprecario,
123
363560
2416
ciò che rende la nostra situazione
così precaria
06:18
and this is what makesfa our intuitionsintuizioni
about riskrischio so unreliableinaffidabile.
124
366000
4040
e la nostra percezione del rischio
così inaffidabile.
06:23
Now, just considerprendere in considerazione the smartestpiù intelligente personpersona
who has ever livedha vissuto.
125
371120
2720
Pensate alla persona più intelligente
che sia mai vissuta.
06:26
On almostquasi everyone'sdi tutti shortlistshortlist here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Quasi tutti inserirebbero
John von Neumann tra i primi posti.
06:30
I mean, the impressionimpressione that vonvon NeumannNeumann
madefatto on the people around him,
127
378080
3336
L'ottima impressione che von Neumann
fece sulle persone intorno a lui,
06:33
and this includedincluso the greatestpiù grande
mathematiciansmatematici and physicistsi fisici of his time,
128
381440
4056
tra cui c'erano i più grandi fisici
e matematici del suo tempo,
06:37
is fairlyabbastanza well-documentedben documentata.
129
385520
1936
è ben documentata.
06:39
If only halfmetà the storiesstorie
about him are halfmetà truevero,
130
387480
3776
Se solo metà delle storie su di lui
sono vere a metà,
non ci sono dubbi
06:43
there's no questiondomanda
131
391280
1216
che sia una delle persone
più intelligenti mai vissute.
06:44
he's one of the smartestpiù intelligente people
who has ever livedha vissuto.
132
392520
2456
06:47
So considerprendere in considerazione the spectrumspettro of intelligenceintelligenza.
133
395000
2520
Considerate una gamma di intelligenze.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Qui abbiamo John von Neumann.
06:53
And then we have you and me.
135
401560
1334
Qui ci siamo io e voi.
06:56
And then we have a chickenpollo.
136
404120
1296
E qui una gallina.
06:57
(LaughterRisate)
137
405440
1936
(Risate)
06:59
Sorry, a chickenpollo.
138
407400
1216
Scusate, una gallina.
07:00
(LaughterRisate)
139
408640
1256
(Risate)
07:01
There's no reasonragionare for me to make this talk
more depressingdeprimente than it needsesigenze to be.
140
409920
3736
Non rendiamo questo incontro
più deprimente di quanto non sia già.
07:05
(LaughterRisate)
141
413680
1600
(Risate)
07:08
It seemssembra overwhelminglyschiacciante likelyprobabile, howeverperò,
that the spectrumspettro of intelligenceintelligenza
142
416339
3477
È molto probabile, però,
che la gamma delle intelligenze
07:11
extendssi estende much furtherulteriore
than we currentlyattualmente conceiveconcepire,
143
419840
3120
sia molto più estesa di quando si pensi,
07:15
and if we buildcostruire machinesmacchine
that are more intelligentintelligente than we are,
144
423880
3216
e se costruiamo delle macchine
molto più intelligenti di noi,
07:19
they will very likelyprobabile
exploreEsplorare this spectrumspettro
145
427120
2296
finiranno con l'esplorare questa gamma
07:21
in waysmodi that we can't imagineimmaginare,
146
429440
1856
in modi che non possiamo prevedere,
07:23
and exceedsuperare us in waysmodi
that we can't imagineimmaginare.
147
431320
2520
e ci supereranno in modi
che non possiamo immaginare.
07:27
And it's importantimportante to recognizericonoscere that
this is truevero by virtuevirtù of speedvelocità aloneda solo.
148
435000
4336
È importante riconoscere che questo
sia vero anche in virtù della velocità.
07:31
Right? So imagineimmaginare if we just builtcostruito
a superintelligentsuper intelligente AIAI
149
439360
5056
Giusto? Immaginate che sia stata inventata
una IA super intelligente,
07:36
that was no smarterpiù intelligente
than your averagemedia teamsquadra of researchersricercatori
150
444440
3456
che non sia più brillante
di un normale gruppo di ricerca
07:39
at StanfordStanford or MITMIT.
151
447920
2296
a Stanford o al MIT.
07:42
Well, electronicelettronico circuitscircuiti
functionfunzione about a millionmilione timesvolte fasterPiù veloce
152
450240
2976
I circuiti elettronici funzionano
un milione di volte più veloci
07:45
than biochemicalbiochimica onesquelli,
153
453240
1256
di quelli biochimici,
07:46
so this machinemacchina should think
about a millionmilione timesvolte fasterPiù veloce
154
454520
3136
perciò questa macchina funzionerà
un milione di volte più velocemente
07:49
than the mindsmenti that builtcostruito it.
155
457680
1816
delle menti che l'hanno costruita.
07:51
So you setimpostato it runningin esecuzione for a weeksettimana,
156
459520
1656
In una settimana
07:53
and it will performeseguire 20,000 yearsanni
of human-levellivello umano intellectualintellettuale work,
157
461200
4560
avrà fatto il lavoro di 20 mila anni
di lavoro intellettuale umano,
07:58
weeksettimana after weeksettimana after weeksettimana.
158
466400
1960
settimana, dopo settimana.
08:01
How could we even understandcapire,
much lessDi meno constrainvincolare,
159
469640
3096
Come possiamo comprendere,
e figuriamoci contenere,
08:04
a mindmente makingfabbricazione this sortordinare of progressprogresso?
160
472760
2280
una mente che progredisce
così velocemente?
08:08
The other thing that's worryingpreoccupante, franklyfrancamente,
161
476840
2136
C'è un altro aspetto preoccupante,
08:11
is that, imagineimmaginare the bestmigliore casecaso scenarioscenario.
162
479000
4976
anche immaginando lo scenario
più ottimista.
08:16
So imagineimmaginare we hitcolpire uponsu a designdesign
of superintelligentsuper intelligente AIAI
163
484000
4176
Mettiamo che abbiamo realizzato
una IA super intelligente
08:20
that has no safetysicurezza concernspreoccupazioni.
164
488200
1376
senza problemi di sicurezza.
08:21
We have the perfectperfezionare designdesign
the first time around.
165
489600
3256
Abbiamo trovato alla prima
il design perfetto.
08:24
It's as thoughanche se we'venoi abbiamo been handedconsegnato an oracleoracolo
166
492880
2216
Come se ci avessero dato un oracolo
08:27
that behavessi comporta exactlydi preciso as intendeddestinato.
167
495120
2016
che si comporta proprio come dovrebbe.
08:29
Well, this machinemacchina would be
the perfectperfezionare labor-savingrisparmio di manodopera devicedispositivo.
168
497160
3720
Sarebbe lo strumento perfetto
per risparmiare fatica.
08:33
It can designdesign the machinemacchina
that can buildcostruire the machinemacchina
169
501680
2429
Può progettare la macchina
che ne costruisce un'altra
08:36
that can do any physicalfisico work,
170
504133
1763
che faccia qualsiasi lavoro fisico,
08:37
poweredmotorizzato by sunlightluce del sole,
171
505920
1456
azionata dalla luce solare,
08:39
more or lessDi meno for the costcosto
of rawcrudo materialsmateriale.
172
507400
2696
più o meno al costo della materia prima.
08:42
So we're talkingparlando about
the endfine of humanumano drudgerylavoro ingrato.
173
510120
3256
Per l'uomo, sarebbe la fine
del lavoro duro,
08:45
We're alsoanche talkingparlando about the endfine
of mostmaggior parte intellectualintellettuale work.
174
513400
2800
ma anche della maggior parte
dei lavori intellettuali.
08:49
So what would apesscimmie like ourselvesnoi stessi
do in this circumstancecircostanza?
175
517200
3056
Cosa farebbero degli scimmioni come siamo
in queste circostanze?
08:52
Well, we'dsaremmo be freegratuito to playgiocare FrisbeeFrisbee
and give eachogni other massagesmassaggi.
176
520280
4080
Saremmo liberi di giocare a frisbee
e farci i massaggi a vicenda.
08:57
AddAggiungere some LSDLSD and some
questionablediscutibile wardrobearmadio choicesscelte,
177
525840
2856
Aggiungete un po' di LSD, dei vestiti
di dubbio gusto,
09:00
and the wholetotale worldmondo
could be like BurningMasterizzazione Man.
178
528720
2176
e il mondo sarebbe come il Burning Man.
09:02
(LaughterRisate)
179
530920
1640
(Risate)
09:06
Now, that mightpotrebbe soundsuono prettybella good,
180
534320
2000
Tutto questo non suona male,
09:09
but askChiedere yourselfte stesso what would happenaccadere
181
537280
2376
ma pensate a come sarebbe se accadesse
09:11
undersotto our currentattuale economiceconomico
and politicalpolitico orderordine?
182
539680
2736
in un ordine economico
e politico come il nostro.
09:14
It seemssembra likelyprobabile that we would witnesstestimone
183
542440
2416
Assisteremmo
09:16
a levellivello of wealthricchezza inequalitydisuguaglianza
and unemploymentdisoccupazione
184
544880
4136
ad una disparità delle ricchezze
e ad una disoccupazione
09:21
that we have never seenvisto before.
185
549040
1496
senza precedenti.
09:22
AbsentAssente a willingnessdisponibilità
to immediatelysubito put this newnuovo wealthricchezza
186
550560
2616
Non ci sarebbe la volontà
di mettere questo nuovo benessere
09:25
to the serviceservizio of all humanityumanità,
187
553200
1480
al servizio di tutti,
09:27
a fewpochi trillionairestrillionaires could gracegrazia
the coverscoperture of our businessattività commerciale magazinesriviste
188
555640
3616
Pochi miliardari adornerebbero
le copertine di riviste di business,
09:31
while the restriposo of the worldmondo
would be freegratuito to starvemorire di fame.
189
559280
2440
mentre il resto del mondo
morirebbe di fame.
09:34
And what would the RussiansRussi
or the ChineseCinese do
190
562320
2296
Cosa farebbero, allora,
la Russia e la Cina
09:36
if they heardsentito that some companyazienda
in SiliconSilicio ValleyValle
191
564640
2616
se sapessero che nella Silicon Valley
delle compagnie
09:39
was about to deploydistribuire a superintelligentsuper intelligente AIAI?
192
567280
2736
fossero sul punto di rilasciare una IA
super intelligente?
09:42
This machinemacchina would be capablecapace
of wagingingaggiando warguerra,
193
570040
2856
Questa macchina
potrebbe scatenare una guerra,
09:44
whetherse terrestrialterrestre or cyberCyber,
194
572920
2216
terrestre o cibernetica,
09:47
with unprecedentedinaudito powerenergia.
195
575160
1680
disponendo di un potere senza pari.
09:50
This is a winner-take-allwinner-take-all scenarioscenario.
196
578120
1856
Uno scenario di vittoria assoluta.
09:52
To be sixsei monthsmesi aheadavanti
of the competitionconcorrenza here
197
580000
3136
Essere in vantaggio sulla competizione
anche solo di sei mesi
09:55
is to be 500,000 yearsanni aheadavanti,
198
583160
2776
è come essere avanti di 500 mila,
09:57
at a minimumminimo.
199
585960
1496
almeno.
09:59
So it seemssembra that even meresemplice rumorsvoci
of this kindgenere of breakthroughsfondamento
200
587480
4736
Perciò anche solo la voce
di una svolta simile
10:04
could causecausa our speciesspecie to go berserkBerserk.
201
592240
2376
potrebbe far impazzire la nostra specie.
10:06
Now, one of the mostmaggior parte frighteningspaventoso things,
202
594640
2896
Tra gli aspetti più inquietanti,
10:09
in my viewvista, at this momentmomento,
203
597560
2776
a mio parere, che ci sono al momento,
10:12
are the kindstipi of things
that AIAI researchersricercatori say
204
600360
4296
sono le risposte che danno
i ricercatori di IA
10:16
when they want to be reassuringrassicurante.
205
604680
1560
quando vogliono rassicurarci.
10:19
And the mostmaggior parte commonComune reasonragionare
we're told not to worrypreoccupazione is time.
206
607000
3456
Una delle rassicurazioni più comuni
è che abbiamo tempo.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Siamo ancora molto lontani, sapete.
10:24
This is probablyprobabilmente 50 or 100 yearsanni away.
208
612560
2440
Ci vorranno ancora 50 o 100 anni.
10:27
One researcherricercatore has said,
209
615720
1256
Un ricercatore ha detto:
"Preoccuparsi della sicurezza dell'IA
10:29
"WorryingPreoccupante about AIAI safetysicurezza
210
617000
1576
10:30
is like worryingpreoccupante
about overpopulationsovrappopolazione on MarsMars."
211
618600
2280
è come preoccuparsi
della sovrappopolazione su Marte."
La versione della Silicon Valley di:
10:34
This is the SiliconSilicio ValleyValle versionversione
212
622116
1620
10:35
of "don't worrypreoccupazione your
prettybella little headcapo about it."
213
623760
2376
"non turbare la tua bella testolina
con questi problemi".
10:38
(LaughterRisate)
214
626160
1336
(Risate)
10:39
No one seemssembra to noticeAvviso
215
627520
1896
Nessuno sembra notare
10:41
that referencingfare riferimento a the time horizonorizzonte
216
629440
2616
che far riferimento
all'orizzonte temporale
10:44
is a totaltotale nonnon sequitursequitur.
217
632080
2576
è del tutto illogico.
10:46
If intelligenceintelligenza is just a matterimporta
of informationinformazione processinglavorazione,
218
634680
3256
Se l'intelligenza è questione
di processare le informazioni
10:49
and we continueContinua to improveMigliorare our machinesmacchine,
219
637960
2656
e continueremo a migliorare
le nostre macchine,
10:52
we will produceprodurre
some formmodulo of superintelligencesuperintelligenza.
220
640640
2880
arriveremo a produrre una forma
di intelligenza superiore.
10:56
And we have no ideaidea
how long it will take us
221
644320
3656
E non abbiamo idea di quanto ci voglia
11:00
to createcreare the conditionscondizioni
to do that safelyin modo sicuro.
222
648000
2400
per crearla in condizioni di sicurezza.
11:04
Let me say that again.
223
652200
1296
Lo ripeto.
11:05
We have no ideaidea how long it will take us
224
653520
3816
Non abbiamo idea di quanto ci voglia
11:09
to createcreare the conditionscondizioni
to do that safelyin modo sicuro.
225
657360
2240
per crearla in condizioni di sicurezza.
11:12
And if you haven'tnon hanno noticedsi accorse,
50 yearsanni is not what it used to be.
226
660920
3456
E 50 di progresso, oggi,
non sono più come una volta.
11:16
This is 50 yearsanni in monthsmesi.
227
664400
2456
Questi sono 50 anni riportati in mesi.
11:18
This is how long we'venoi abbiamo had the iPhoneiPhone.
228
666880
1840
Questo è da quanto abbiamo l'iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevisione.
229
669440
2600
Questo è da quanto "I Simpson" sono in tv.
11:24
FiftyCinquanta yearsanni is not that much time
230
672680
2376
50 anni non sono poi così tanti
11:27
to meetincontrare one of the greatestpiù grande challengessfide
our speciesspecie will ever faceviso.
231
675080
3160
per affrontare una delle sfide maggiori
che l'uomo abbia affrontato.
11:31
OnceVolta again, we seemsembrare to be failingin mancanza di
to have an appropriateadeguata emotionalemotivo responserisposta
232
679640
4016
Ancora una volta, sembra che ci manchi
la giusta risposta emotiva
11:35
to what we have everyogni reasonragionare
to believe is comingvenuta.
233
683680
2696
a quello che, per vari motivi,
sappiamo che accadrà.
11:38
The computercomputer scientistscienziato StuartStuart RussellRussell
has a nicesimpatico analogyanalogia here.
234
686400
3976
L'informatico Stuart Russel
ha fatto una giusta analogia.
11:42
He said, imagineimmaginare that we receivedricevuto
a messagemessaggio from an alienalieno civilizationciviltà,
235
690400
4896
Ha detto di immaginare di ricevere
un messaggio dagli alieni
11:47
whichquale readleggere:
236
695320
1696
che dice:
11:49
"People of EarthTerra,
237
697040
1536
"Popolo della Terra,
11:50
we will arrivearrivo on your planetpianeta in 50 yearsanni.
238
698600
2360
arriveremo sul vostro pianeta fra 50 anni.
11:53
Get readypronto."
239
701800
1576
Preparatevi".
11:55
And now we're just countingconteggio down
the monthsmesi untilfino a the mothershipnave madre landsTerre?
240
703400
4256
Staremmo qui a fare il conto alla rovescia
finché non atterri la nave ammiraglia?
11:59
We would feel a little
more urgencyurgenza than we do.
241
707680
3000
O forse sentiremmo
un pochino più di urgenza?
12:04
AnotherUn altro reasonragionare we're told not to worrypreoccupazione
242
712680
1856
In più, ci dicono di non preoccuparci
12:06
is that these machinesmacchine
can't help but shareCondividere our valuesvalori
243
714560
3016
perché queste macchine
avrebbero i nostri stessi valori,
12:09
because they will be literallyletteralmente
extensionsestensioni of ourselvesnoi stessi.
244
717600
2616
essendo una vera e propria
estensione di noi stessi.
12:12
They'llChe faranno be graftedinnestate ontosu our brainsmente,
245
720240
1816
Ce le impianteremo nel cervello,
12:14
and we'llbene essentiallyessenzialmente
becomediventare theirloro limbiclimbica systemssistemi.
246
722080
2360
e diventeremo il loro sistema limbico.
12:17
Now take a momentmomento to considerprendere in considerazione
247
725120
1416
Pensate un attimo
12:18
that the safestpiù sicuro
and only prudentprudente pathsentiero forwardinoltrare,
248
726560
3176
che la via più sicura e prudente,
12:21
recommendedconsigliato,
249
729760
1336
quella raccomandata,
12:23
is to implantdell'impianto this technologytecnologia
directlydirettamente into our brainsmente.
250
731120
2800
è di impiantarci questa tecnologia
direttamente nel cervello.
12:26
Now, this maypuò in factfatto be the safestpiù sicuro
and only prudentprudente pathsentiero forwardinoltrare,
251
734600
3376
Ora, questa potrebbe essere
l'unica via più sicura e prudente,
12:30
but usuallygeneralmente one'suno è safetysicurezza concernspreoccupazioni
about a technologytecnologia
252
738000
3056
ma di solito uno dovrebbe
aver chiarito tutti i dubbi
12:33
have to be prettybella much workedlavorato out
before you stickbastone it insidedentro your headcapo.
253
741080
3656
su una tecnologia prima
di infilarsela in testa.
12:36
(LaughterRisate)
254
744760
2016
(Risate)
12:38
The deeperpiù profondo problemproblema is that
buildingcostruzione superintelligentsuper intelligente AIAI on its ownproprio
255
746800
5336
Il problema principale è che costruire
una IA super intelligente, a parte,
12:44
seemssembra likelyprobabile to be easierPiù facile
256
752160
1736
sembra molto più semplice
12:45
than buildingcostruzione superintelligentsuper intelligente AIAI
257
753920
1856
di costruirla
ed avere le conoscenze neuroscientifiche
12:47
and havingavendo the completedcompletato neuroscienceneuroscienza
258
755800
1776
12:49
that allowsconsente us to seamlesslysenza soluzione di continuità
integrateintegrare our mindsmenti with it.
259
757600
2680
che consentano di integrarla
completamente alla nostra mente.
12:52
And givendato that the companiesaziende
and governmentsi governi doing this work
260
760800
3176
Dato che le aziende e i governi
che ci lavorano
12:56
are likelyprobabile to perceivepercepire themselvesloro stessi
as beingessere in a racegara againstcontro all othersaltri,
261
764000
3656
sono in competizione
gli uni con gli altri,
12:59
givendato that to winvincere this racegara
is to winvincere the worldmondo,
262
767680
3256
e dato che vincere questa gara
equivale a dominare il mondo,
13:02
providedfornito you don't destroydistruggere it
in the nextIl prossimo momentmomento,
263
770960
2456
sempre che non venga distrutto
subito dopo,
13:05
then it seemssembra likelyprobabile
that whateverqualunque cosa is easierPiù facile to do
264
773440
2616
è probabile che verrà intrapresa
13:08
will get donefatto first.
265
776080
1200
la strada più facile.
13:10
Now, unfortunatelypurtroppo,
I don't have a solutionsoluzione to this problemproblema,
266
778560
2856
Purtroppo non ho soluzione
a questo problema,
13:13
aparta parte from recommendingraccomandare
that more of us think about it.
267
781440
2616
a parte raccomandare
che più persone ci pensino.
Credo che ci servirebbe una specie
di Progetto Manhattan
13:16
I think we need something
like a ManhattanManhattan ProjectProgetto
268
784080
2376
sull'intelligenza artificiale.
13:18
on the topicargomento of artificialartificiale intelligenceintelligenza.
269
786480
2016
Non per costruirla, perché penso
che ci arriveremo comunque,
13:20
Not to buildcostruire it, because I think
we'llbene inevitablyinevitabilmente do that,
270
788520
2736
13:23
but to understandcapire
how to avoidevitare an armsbraccia racegara
271
791280
3336
ma per capire come evitare
una corsa alle armi
13:26
and to buildcostruire it in a way
that is alignedallineati with our interestsinteressi.
272
794640
3496
e per svilupparla in modo che sia in linea
con i nostri interessi.
13:30
When you're talkingparlando
about superintelligentsuper intelligente AIAI
273
798160
2136
Quando si parla di una IA
super intelligente
13:32
that can make changesi cambiamenti to itselfsi,
274
800320
2256
che possa migliorarsi da sola,
13:34
it seemssembra that we only have one chanceopportunità
to get the initialiniziale conditionscondizioni right,
275
802600
4616
la nostra unica opzione è quella
di darle le giuste impostazioni iniziali,
13:39
and even then we will need to absorbassorbire
276
807240
2056
e anche allora dovremo comprendere
13:41
the economiceconomico and politicalpolitico
consequencesconseguenze of gettingottenere them right.
277
809320
3040
quali saranno le conseguenze
economiche e politiche.
13:45
But the momentmomento we admitammettere
278
813760
2056
Ma se ammettiamo che
13:47
that informationinformazione processinglavorazione
is the sourcefonte of intelligenceintelligenza,
279
815840
4000
l'elaborazione delle informazioni
è la fonte dell'intelligenza,
13:52
that some appropriateadeguata computationalcomputazionale systemsistema
is what the basisbase of intelligenceintelligenza is,
280
820720
4800
che un sistema computazionale idoneo
è alla base dell'intelligenza,
13:58
and we admitammettere that we will improveMigliorare
these systemssistemi continuouslycontinuamente,
281
826360
3760
se ammettiamo che svilupperemo
continuamente tali sistemi,
14:03
and we admitammettere that the horizonorizzonte
of cognitioncognizione very likelyprobabile farlontano exceedssupera
282
831280
4456
e che l'orizzonte cognitivo
è di gran lunga maggiore
14:07
what we currentlyattualmente know,
283
835760
1200
di ciò che sappiamo ora,
14:10
then we have to admitammettere
284
838120
1216
allora dobbiamo ammettere
14:11
that we are in the processprocesso
of buildingcostruzione some sortordinare of god.
285
839360
2640
che stiamo costruendo una sorta di dio.
14:15
Now would be a good time
286
843400
1576
Ora sarebbe il momento giusto
14:17
to make sure it's a god we can livevivere with.
287
845000
1953
per assicurarci che sia un dio
con cui possiamo vivere.
14:20
Thank you very much.
288
848120
1536
Grazie mille.
14:21
(ApplauseApplausi)
289
849680
5093
(Applausi)
Translated by Giulia Claudi

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com