ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Come non essere sopraffatti, ma responsabilizzati dall'IA

Filmed:
1,409,007 views

Molti ricercatori di intelligenza artificiale si aspettano che l'IA sia più furba degli essere umani in qualunque lavoro e compito nel giro di decenni, portando a un futuro in cui siamo vincolati solo dalle leggi della fisica, non i limiti della nostra intelligenza. Il fisico dell'MIT a ricercatore IA Max Tegmark separa le vere opportunità e minacce dai miti, descrivendo i passi concreti da fare oggi per garantire che l'IA finisca per essere la migliore cosa, invece della peggiore, che possa capitare all'umanità.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionmiliardo yearsanni
of cosmiccosmico historystoria,
0
760
4416
Dopo 13,8 miliardi di anni
di storia cosmica,
00:17
our universeuniverso has wokenSvegliati up
1
5200
2096
il nostro universo si è risvegliato
00:19
and becomediventare awareconsapevole of itselfsi.
2
7320
1520
e ha preso coscienza di se stesso.
00:21
From a smallpiccolo blueblu planetpianeta,
3
9480
1936
Da un piccolo pianeta blu,
00:23
tinyminuscolo, consciousconsapevole partsparti of our universeuniverso
have beguniniziato gazingGazing out into the cosmoscosmo
4
11440
4136
minuscole parti coscienti
del nostro universo
hanno iniziato a osservare il cosmo
00:27
with telescopestelescopi,
5
15600
1376
con telescopi,
00:29
discoveringscoprire something humblingumiliante.
6
17000
1480
scoprendo umiltà.
00:31
We'veAbbiamo discoveredscoperto that our universeuniverso
is vastlynotevolmente granderGrander
7
19320
2896
Abbiamo scoperto che il nostro universo
è molto più grande
00:34
than our ancestorsantenati imaginedimmaginato
8
22240
1336
di quanto abbiano immaginato
i nostri antenati
00:35
and that life seemssembra to be an almostquasi
imperceptiblyimpercettibilmente smallpiccolo perturbationperturbazione
9
23600
4256
e che la vita sembra essere
una perturbazione quasi impercettibile
00:39
on an otherwisealtrimenti deadmorto universeuniverso.
10
27880
1720
in un universo altrimenti morto.
00:42
But we'venoi abbiamo alsoanche discoveredscoperto
something inspiringispiratore,
11
30320
3016
Ma abbiamo anche scoperto
qualcosa di stimolante,
00:45
whichquale is that the technologytecnologia
we're developingin via di sviluppo has the potentialpotenziale
12
33360
2976
ossia che la tecnologia
che stiamo sviluppando
00:48
to help life flourishfiorire like never before,
13
36360
2856
può potenzialmente aiutare la vita
a fiorire come mai prima d'ora,
00:51
not just for centuriessecoli
but for billionsmiliardi of yearsanni,
14
39240
3096
non solo per secoli,
ma per miliardi di anni,
00:54
and not just on earthterra but throughoutper tutto
much of this amazingStupefacente cosmoscosmo.
15
42360
4120
e non solo sulla terra
ma in gran parte dell'universo.
00:59
I think of the earliestpiù presto life as "Life 1.0"
16
47680
3336
Vedo la vita precedente
come una "Vita 1.0"
01:03
because it was really dumbmuto,
17
51040
1376
perché era davvero stupida,
01:04
like bacteriabatteri, unableincapace to learnimparare
anything duringdurante its lifetimetutta la vita.
18
52440
4296
come i batteri, incapaci
di imparare alcunché.
01:08
I think of us humansgli esseri umani as "Life 2.0"
because we can learnimparare,
19
56760
3376
Vedo gli esseri umani come una "Vita 2.0"
perché possiamo imparare,
01:12
whichquale we in nerdynerd, geekdisadattato speakparlare,
20
60160
1496
che in linguaggio nerd o geek,
01:13
mightpotrebbe think of as installingl'installazione di
newnuovo softwareSoftware into our brainsmente,
21
61680
3216
significa installare
nuovi software nel cervello,
01:16
like languagesle lingue and joblavoro skillsabilità.
22
64920
2120
come le lingue
e le capacità lavorative.
01:19
"Life 3.0," whichquale can designdesign not only
its softwareSoftware but alsoanche its hardwarehardware
23
67680
4296
La "Vita 3.0", che può progettare
l'hardware oltre che il software
01:24
of coursecorso doesn't existesistere yetancora.
24
72000
1656
ovviamente non esiste ancora.
01:25
But perhapsForse our technologytecnologia
has alreadygià madefatto us "Life 2.1,"
25
73680
3776
Ma forse la nostra tecnologia
ci ha già resi "Vita 2.1",
01:29
with our artificialartificiale kneesginocchia,
pacemakerspacemaker and cochlearCochlear implantsimpianti.
26
77480
4336
con le ginocchia artificiali,
i pacemaker e gli apparecchi acustici.
01:33
So let's take a closerpiù vicino look
at our relationshiprelazione with technologytecnologia, OK?
27
81840
3880
Diamo uno sguardo più da vicino
alla nostra relazione con la tecnologia.
01:38
As an exampleesempio,
28
86800
1216
Ad esempio,
01:40
the ApolloApollo 11 moonLuna missionmissione
was bothentrambi successfulriuscito and inspiringispiratore,
29
88040
5296
la missione lunare Apollo 11
è riuscita ed è stata stimolante,
01:45
showingmostrando that when we humansgli esseri umani
use technologytecnologia wiselycon saggezza,
30
93360
3016
mostrando che quando gli esseri umani
usano la tecnologia con saggezza,
01:48
we can accomplishrealizzare things
that our ancestorsantenati could only dreamsognare of.
31
96400
3936
possiamo compiere cose
che i nostri antenati si sognavano.
01:52
But there's an even more inspiringispiratore journeyviaggio
32
100360
2976
Ma c'è un percorso ancora più stimolante
01:55
propelledautomotrici by something
more powerfulpotente than rocketrazzo enginesmotori,
33
103360
2680
spinto da qualcosa di ancora più forte
dei motori dei razzi,
01:59
where the passengerspasseggeri
aren'tnon sono just threetre astronautsastronauti
34
107200
2336
in cui i passeggeri
non sono solo tre astronauti
02:01
but all of humanityumanità.
35
109560
1776
ma tutta l'umanità.
02:03
Let's talk about our collectivecollettivo
journeyviaggio into the futurefuturo
36
111360
2936
Parliamo del nostro viaggio collettivo
nel futuro
02:06
with artificialartificiale intelligenceintelligenza.
37
114320
2000
con l'intelligenza artificiale.
02:08
My friendamico JaanJaan TallinnTallinn likespiace to pointpunto out
that just as with rocketryRocketry,
38
116960
4536
Il mio amico Jaan Tallinn
ama sottolineare che proprio come i razzi,
02:13
it's not enoughabbastanza to make
our technologytecnologia powerfulpotente.
39
121520
3160
non basta rendere potente la tecnologia.
02:17
We alsoanche have to figurefigura out,
if we're going to be really ambitiousambizioso,
40
125560
3175
Dobbiamo anche capire
se saremo davvero ambiziosi,
02:20
how to steerSteer it
41
128759
1416
dove indirizzarla
02:22
and where we want to go with it.
42
130199
1681
e dove vogliamo andarci.
02:24
So let's talk about all threetre
for artificialartificiale intelligenceintelligenza:
43
132880
2840
Parliamo di tutti e tre
per l'intelligenza artificiale:
02:28
the powerenergia, the steeringtimone
and the destinationdestinazione.
44
136440
3056
la potenza, la direzione
e la destinazione.
02:31
Let's startinizio with the powerenergia.
45
139520
1286
Iniziamo con la potenza.
02:33
I definedefinire intelligenceintelligenza very inclusivelyComplessivamente --
46
141600
3096
Definisco l'intelligenza
in modo molto inclusivo --
02:36
simplysemplicemente as our abilitycapacità
to accomplishrealizzare complexcomplesso goalsobiettivi,
47
144720
4336
semplicemente la nostra capacità
di realizzare obiettivi complessi,
02:41
because I want to includeincludere bothentrambi
biologicalbiologico and artificialartificiale intelligenceintelligenza.
48
149080
3816
perché voglio includere
sia l'intelligenza biologica
che quella artificiale.
02:44
And I want to avoidevitare
the sillysciocco carbon-chauvinismcarbonio-sciovinismo ideaidea
49
152920
4016
E voglio evitare
quella stupida idea carbonio-sciovinistica
02:48
that you can only be smartinteligente
if you're madefatto of meatcarne.
50
156960
2360
che si può essere intelligenti
solo se fatti di carne.
02:52
It's really amazingStupefacente how the powerenergia
of AIAI has growncresciuto recentlyrecentemente.
51
160880
4176
È incredibile
quanto sia migliorata l'IA ultimamente.
02:57
Just think about it.
52
165080
1256
Pensateci un po'.
02:58
Not long agofa, robotsrobot couldn'tnon poteva walkcamminare.
53
166360
3200
Non molto tempo fa,
i robot non potevano camminare.
03:03
Now, they can do backflipsbackflips.
54
171040
1720
Ora possono fare capriole.
03:06
Not long agofa,
55
174080
1816
Poco tempo fa,
03:07
we didn't have self-drivingSelf-Guida carsautomobili.
56
175920
1760
non avevamo le auto
a guida autonoma.
03:10
Now, we have self-flyingSelf-volo rocketsrazzi.
57
178920
2480
Ora abbiamo razzi a volo autonomo.
03:15
Not long agofa,
58
183960
1416
Poco tempo fa,
03:17
AIAI couldn'tnon poteva do faceviso recognitionriconoscimento.
59
185400
2616
l'IA non era capace
di riconoscimento facciale.
03:20
Now, AIAI can generatecreare fakefalso facesfacce
60
188040
2976
Ora l'IA può generare falsi visi
03:23
and simulatesimulare your faceviso
sayingdetto stuffcose that you never said.
61
191040
4160
e similare la vostra faccia
che dice cose che non avete mai detto.
03:28
Not long agofa,
62
196400
1576
Poco tempo fa,
03:30
AIAI couldn'tnon poteva beatbattere us at the gamegioco of Go.
63
198000
1880
l'IA non poteva batterci a Go.
03:32
Then, GoogleGoogle DeepMind'sDi DeepMind AlphaZeroAlphaZero AIAI
tookha preso 3,000 yearsanni of humanumano Go gamesi giochi
64
200400
5096
Poi, l'IA AlphaZero di Google DeepMind
ha preso 3000 anni di giochi di Go
03:37
and Go wisdomsaggezza,
65
205520
1256
e saggezza Go,
03:38
ignoredignorato it all and becamedivenne the world'sIl mondo di bestmigliore
playergiocatore by just playinggiocando againstcontro itselfsi.
66
206800
4976
li ha ignorati tutti ed è diventato
il miglior giocatore al mondo
giocando contro se stesso.
03:43
And the mostmaggior parte impressiveimpressionante featfeat here
wasn'tnon era that it crushedschiacciato humanumano gamersgiocatori,
67
211800
3696
E l'aspetto più impressionante
non è che ha stracciato gli umani,
03:47
but that it crushedschiacciato humanumano AIAI researchersricercatori
68
215520
2576
ma che ha stracciato i ricercatori di IA
03:50
who had spentspeso decadesdecenni
handcraftingHandcrafting game-playing-gioco softwareSoftware.
69
218120
3680
che avevano passato decenni
a creare il software di gioco.
03:54
And AlphaZeroAlphaZero crushedschiacciato humanumano AIAI researchersricercatori
not just in Go but even at chessscacchi,
70
222200
4656
E AlphaZero ha stracciato i ricercatori
di IA non solo a Go, ma anche a scacchi,
03:58
whichquale we have been workinglavoro on sinceda 1950.
71
226880
2480
su cui lavoriamo dal 1950.
04:02
So all this amazingStupefacente recentrecente progressprogresso in AIAI
really begsimplora the questiondomanda:
72
230000
4240
Questi straordinari progressi recenti
in IA sollevano la questione:
04:07
How farlontano will it go?
73
235280
1560
fin dove ci spingeremo?
04:09
I like to think about this questiondomanda
74
237800
1696
Mi piace pensare a questa domanda
04:11
in termscondizioni of this abstractastratto
landscapepaesaggio of taskscompiti,
75
239520
2976
in termini di astratto panorama di compiti
04:14
where the elevationelevazione representsrappresenta
how harddifficile it is for AIAI to do eachogni taskcompito
76
242520
3456
in cui l'elevazione rappresenta
la difficoltà di ogni compito per l'IA
04:18
at humanumano levellivello,
77
246000
1216
a livello umano,
04:19
and the seamare levellivello representsrappresenta
what AIAI can do todayoggi.
78
247240
2760
e il livello del mare rappresenta
quello che l'IA può fare oggi.
04:23
The seamare levellivello is risingcrescente
as AIAI improvesmigliora,
79
251120
2056
Il livello del mare si innalza
quando l'IA migliora,
04:25
so there's a kindgenere of globalglobale warmingriscaldamento
going on here in the taskcompito landscapepaesaggio.
80
253200
3440
c'è una specie di riscaldamento globale
nel panorama dei compiti.
04:30
And the obviousevidente takeawaya portar via
is to avoidevitare careerscarriere at the waterfrontlungomare --
81
258040
3335
Il risultato ovvio è evitare
carriere lungo la costa --
04:33
(LaughterRisate)
82
261399
1257
(Risate)
04:34
whichquale will soonpresto be
automatedautomatizzato and disruptedinterrotto.
83
262680
2856
che saranno presto
scombussolate e automatizzate.
04:37
But there's a much
biggerpiù grande questiondomanda as well.
84
265560
2976
Ma la questione è molto più ampia.
04:40
How highalto will the wateracqua endfine up risingcrescente?
85
268560
1810
Quanto si innalzerà l'acqua?
04:43
Will it eventuallyinfine risesalire
to floodalluvione everything,
86
271440
3200
Si innalzerà per inondare tutto,
04:47
matchingcorrispondenza humanumano intelligenceintelligenza at all taskscompiti.
87
275840
2496
arriverà a livello
di tutti i compiti umani.
04:50
This is the definitiondefinizione
of artificialartificiale generalgenerale intelligenceintelligenza --
88
278360
3736
Questa è la definizione
di intelligenza artificiale generale --
04:54
AGIAGI,
89
282120
1296
AGI,
04:55
whichquale has been the holySanto grailGraal
of AIAI researchricerca sinceda its inceptioninizio.
90
283440
3080
che è stato il santo graal
dell'IA fin dalla sua nascita.
04:59
By this definitiondefinizione, people who say,
91
287000
1776
Con questa definizione, la gente che dice,
05:00
"AhAh, there will always be jobslavori
that humansgli esseri umani can do better than machinesmacchine,"
92
288800
3416
"Ci saranno sempre lavori
che gli esseri umani
possono fare meglio delle macchine,
05:04
are simplysemplicemente sayingdetto
that we'llbene never get AGIAGI.
93
292240
2920
sta semplicemente dicendo
che non arriveremo mai all'AGI.
05:07
Sure, we mightpotrebbe still choosescegliere
to have some humanumano jobslavori
94
295680
3576
Certo, potremo anche scegliere
di avere lavori umani
05:11
or to give humansgli esseri umani incomereddito
and purposescopo with our jobslavori,
95
299280
3096
o di dare agli esseri umani reddito
e scopo con i nostri lavori,
05:14
but AGIAGI will in any casecaso
transformtrasformare life as we know it
96
302400
3736
ma l'AGI trasformerà comunque
la vita come la conosciamo
05:18
with humansgli esseri umani no longerpiù a lungo beingessere
the mostmaggior parte intelligentintelligente.
97
306160
2736
e gli esseri umani
non saranno più i più intelligenti.
05:20
Now, if the wateracqua levellivello does reachraggiungere AGIAGI,
98
308920
3696
Se il livello dell'acqua raggiunge l'AGI,
05:24
then furtherulteriore AIAI progressprogresso will be drivenguidato
mainlyprincipalmente not by humansgli esseri umani but by AIAI,
99
312640
5296
gli ulteriori progressi dell'IA
non saranno più guidati
dagli esseri umani, ma dalla IA,
05:29
whichquale meanssi intende that there's a possibilitypossibilità
100
317960
1856
che significa che c'è la possibilità
che un'ulteriore progresso dell'IA
sia ancora più veloce
05:31
that furtherulteriore AIAI progressprogresso
could be way fasterPiù veloce
101
319840
2336
05:34
than the typicaltipico humanumano researchricerca
and developmentsviluppo timescaletempi of yearsanni,
102
322200
3376
della tipica scala temporale
di ricerca e sviluppo umani di anni,
05:37
raisingraccolta the controversialcontroverso possibilitypossibilità
of an intelligenceintelligenza explosionesplosione
103
325600
4016
sollevando la possibile controversia
di un'esplosione di intelligenza
05:41
where recursivelyin modo ricorsivo self-improvingauto-miglioramento AIAI
104
329640
2296
in cui una IA che auto-migliora
in modo ricorrente
05:43
rapidlyrapidamente leavesle foglie humanumano
intelligenceintelligenza farlontano behinddietro a,
105
331960
3416
lascia rapidamente molto indietro
l'intelligenza umana,
05:47
creatingla creazione di what's knownconosciuto
as superintelligencesuperintelligenza.
106
335400
2440
creando quello che chiamiamo
una superintelligenza.
05:51
AlrightVa bene, realityla realtà checkdai un'occhiata:
107
339800
2280
Controllo della realtà:
05:55
Are we going to get AGIAGI any time soonpresto?
108
343120
2440
avremo a breve l'AGI?
05:58
Some famousfamoso AIAI researchersricercatori,
like RodneyRodney BrooksBrooks,
109
346360
2696
Alcuni famosi ricercatori di IA,
come Rodney Brooks,
06:01
think it won'tnon lo farà happenaccadere
for hundredscentinaia of yearsanni.
110
349080
2496
pensano che non succederà
per centinaia di anni.
06:03
But othersaltri, like GoogleGoogle DeepMindDeepMind
founderfondatore DemisDemis HassabisHassabis,
111
351600
3896
Ma altri, come il fondatore
di Google DeepMind Demis Hassabis,
06:07
are more optimisticottimista
112
355520
1256
sono più ottimisti
06:08
and are workinglavoro to try to make
it happenaccadere much soonerprima.
113
356800
2576
e stanno lavorando
per farlo accadere molto prima.
06:11
And recentrecente surveyssondaggi have shownmostrato
that mostmaggior parte AIAI researchersricercatori
114
359400
3296
Ricerche recenti hanno dimostrato
che molti ricercatori di IA
06:14
actuallyin realtà shareCondividere Demis'sDi Demis optimismottimismo,
115
362720
2856
condividono l'ottimismo di Demis,
06:17
expectingaspettandosi that we will
get AGIAGI withinentro decadesdecenni,
116
365600
3080
e si aspettano di vedere l'AGI
in qualche decennio,
06:21
so withinentro the lifetimetutta la vita of manymolti of us,
117
369640
2256
quindi durante le vita di molti di noi,
06:23
whichquale begsimplora the questiondomanda -- and then what?
118
371920
1960
il che solleva la domanda: e poi?
06:27
What do we want the roleruolo of humansgli esseri umani to be
119
375040
2216
Quale vogliamo che sia
il ruolo degli esseri umani
06:29
if machinesmacchine can do everything better
and cheaperpiù economico than us?
120
377280
2680
se le macchina possono fare tutto
meglio e a minor costo?
06:35
The way I see it, we faceviso a choicescelta.
121
383000
2000
La vedo così: abbiamo di fronte
una scelta.
06:38
One optionopzione is to be complacentcompiacente.
122
386000
1576
Un'opzione è esserne soddisfatti.
06:39
We can say, "Oh, let's just buildcostruire machinesmacchine
that can do everything we can do
123
387600
3776
Possiamo dire, "Dai, costruiamo macchine
che possano fare tutto
quel che facciamo noi
06:43
and not worrypreoccupazione about the consequencesconseguenze.
124
391400
1816
e non ci preoccupiamo delle conseguenze.
06:45
Come on, if we buildcostruire technologytecnologia
that makesfa all humansgli esseri umani obsoleteobsoleto,
125
393240
3256
Dai, se costruiamo tecnologie
che rendono gli umani obsoleti,
06:48
what could possiblypossibilmente go wrongsbagliato?"
126
396520
2096
cosa potrebbe andare storto?"
06:50
(LaughterRisate)
127
398640
1656
(Risate)
06:52
But I think that would be
embarrassinglyvergognosamente lamenoioso.
128
400320
2760
Ma credo che sarebbe
davvero poco convincente.
06:56
I think we should be more ambitiousambizioso --
in the spiritspirito of TEDTED.
129
404080
3496
Credo che dovremmo essere
più ambiziosi, nello spirito di TED.
06:59
Let's envisionEnvision a trulyveramente inspiringispiratore
high-techHigh Tech futurefuturo
130
407600
3496
Immaginiamo un futuro high-tech
davvero stimolante
07:03
and try to steerSteer towardsin direzione it.
131
411120
1400
e cerchiamo di andare
in quella direzione.
07:05
This bringsporta us to the secondsecondo partparte
of our rocketrazzo metaphormetafora: the steeringtimone.
132
413720
3536
Questo ci porta alla seconda parte
della metafora del razzo: la direzione.
07:09
We're makingfabbricazione AIAI more powerfulpotente,
133
417280
1896
Facciamo l'IA più potente,
07:11
but how can we steerSteer towardsin direzione a futurefuturo
134
419200
3816
ma come possiamo indirizzarci
verso un futuro
07:15
where AIAI helpsaiuta humanityumanità flourishfiorire
ratherpiuttosto than flounderpassera pianuzza?
135
423040
3080
in cui l'IA aiuti l'umanità
a progredire invece di annaspare?
07:18
To help with this,
136
426760
1256
Per aiutare,
07:20
I cofoundedha co-fondato the FutureFuturo of Life InstituteIstituto.
137
428040
1976
ho cofondato il Future of Life Institute.
07:22
It's a smallpiccolo nonprofitsenza scopo di lucro promotingpromuovere
beneficialbenefici technologytecnologia use,
138
430040
2776
È una piccola no profit che promuove
l'uso benefico della tecnologia,
07:24
and our goalobbiettivo is simplysemplicemente
for the futurefuturo of life to existesistere
139
432840
2736
e il nostro obiettivo è
il futuro della vita
07:27
and to be as inspiringispiratore as possiblepossibile.
140
435600
2056
e essere più stimolanti possibile.
07:29
You know, I love technologytecnologia.
141
437680
3176
Sapete che adoro la tecnologia.
07:32
TechnologyTecnologia is why todayoggi
is better than the StonePietra AgeEtà.
142
440880
2920
La tecnologia è il motivo per cui oggi
stiamo meglio che nell'età della pietra.
07:36
And I'm optimisticottimista that we can createcreare
a really inspiringispiratore high-techHigh Tech futurefuturo ...
143
444600
4080
E sono ottimista, possiamo creare
un futuro high-tech davvero stimolante...
07:41
if -- and this is a biggrande if --
144
449680
1456
se, ed è un grande se,
07:43
if we winvincere the wisdomsaggezza racegara --
145
451160
2456
se vinciamo la gara della saggezza,
07:45
the racegara betweenfra the growingin crescita
powerenergia of our technologytecnologia
146
453640
2856
la gara tra il potere crescente
della tecnologia
07:48
and the growingin crescita wisdomsaggezza
with whichquale we managegestire it.
147
456520
2200
e la saggezza crescente
con cui la gestiamo.
07:51
But this is going to requirerichiedere
a changemodificare of strategystrategia
148
459240
2296
Ma sarà necessario un cambio di strategia
07:53
because our oldvecchio strategystrategia
has been learningapprendimento from mistakeserrori.
149
461560
3040
perché la nostra vecchia strategia
prevedeva di imparare dagli errori.
07:57
We inventedinventato firefuoco,
150
465280
1536
Abbiamo inventato il fuoco,
07:58
screwedavvitato up a bunchmazzo of timesvolte --
151
466840
1536
abbiamo fatto qualche casino --
08:00
inventedinventato the firefuoco extinguisherestintore.
152
468400
1816
abbiamo inventato l'estintore.
08:02
(LaughterRisate)
153
470240
1336
(Risate)
08:03
We inventedinventato the carauto,
screwedavvitato up a bunchmazzo of timesvolte --
154
471600
2416
Abbiamo inventato la macchina,
fatto qualche casino --
08:06
inventedinventato the traffictraffico lightleggero,
the seatposto a sedere beltcintura and the airbagairbag,
155
474040
2667
abbiamo inventato i semafori,
le cinture e gli airbag,
08:08
but with more powerfulpotente technologytecnologia
like nuclearnucleare weaponsArmi and AGIAGI,
156
476731
3845
ma con una tecnologia più potente
come le armi nucleari e l'AGI,
08:12
learningapprendimento from mistakeserrori
is a lousyschifoso strategystrategia,
157
480600
3376
imparare dagli errori
è una strategia che fa schifo,
08:16
don't you think?
158
484000
1216
siete d'accordo?
08:17
(LaughterRisate)
159
485240
1016
(Risate)
08:18
It's much better to be proactiveproattivi
ratherpiuttosto than reactivereattiva;
160
486280
2576
È molto meglio essere proattivi
invece che reattivi;
08:20
planPiano aheadavanti and get things
right the first time
161
488880
2296
pianificare in anticipo
e fare le cose bene la prima volta
08:23
because that mightpotrebbe be
the only time we'llbene get.
162
491200
2496
perché potrebbe essere
la nostra unica occasione.
08:25
But it is funnydivertente because
sometimesa volte people tell me,
163
493720
2336
Ma è divertente perché talvolta
la gente mi dice,
08:28
"MaxMax, shhhShhh, don't talk like that.
164
496080
2736
"Max, shhh, non dire così.
08:30
That's LudditeLuddista scaremongeringallarmismo."
165
498840
1720
È allarmismo luddista."
08:34
But it's not scaremongeringallarmismo.
166
502040
1536
Ma non è allarmismo.
08:35
It's what we at MITMIT
call safetysicurezza engineeringingegneria.
167
503600
2880
È quello che noi all'MIT chiamiamo
ingegneria di sicurezza.
08:39
Think about it:
168
507200
1216
Pensateci:
08:40
before NASANASA launchedlanciato
the ApolloApollo 11 missionmissione,
169
508440
2216
prima del lancio della missione Apollo 11,
08:42
they systematicallysistematicamente thought throughattraverso
everything that could go wrongsbagliato
170
510680
3136
la NASA ha pensato sistematicamente
a tutto quello che poteva andare storto
08:45
when you put people
on topsuperiore of explosiveesplosivo fuelcarburante tankscarri armati
171
513840
2376
a mettere persone
su serbatoi carburante esplosivi
08:48
and launchlanciare them somewhereda qualche parte
where no one could help them.
172
516240
2616
e lanciarle dove nessuno
avrebbe potuto aiutarle.
08:50
And there was a lot that could go wrongsbagliato.
173
518880
1936
E molte cose potevano andare storte.
08:52
Was that scaremongeringallarmismo?
174
520840
1480
Era allarmismo?
08:55
No.
175
523159
1217
No.
08:56
That's was preciselyprecisamente
the safetysicurezza engineeringingegneria
176
524400
2016
Era esattamente l'ingegneria di sicurezza
08:58
that ensuredassicurato the successsuccesso of the missionmissione,
177
526440
1936
che assicurava il successo della missione,
09:00
and that is preciselyprecisamente the strategystrategia
I think we should take with AGIAGI.
178
528400
4176
ed è esattamente la strategia
che credo dovremmo adottare per l'AGI.
09:04
Think throughattraverso what can go wrongsbagliato
to make sure it goesva right.
179
532600
4056
Pensare a quello che potrebbe
andare storto per fare le cose giuste.
09:08
So in this spiritspirito,
we'venoi abbiamo organizedorganizzato conferencesconferenze,
180
536680
2536
Con questo spirito,
abbiamo organizzato conferenze,
09:11
bringingportando togetherinsieme leadingprincipale
AIAI researchersricercatori and other thinkerspensatori
181
539240
2816
riunito grandi ricercatori di IA
e altri esperti
09:14
to discussdiscutere how to growcrescere this wisdomsaggezza
we need to keep AIAI beneficialbenefici.
182
542080
3736
per discutere di come coltivare
la saggezza utile
perché l'IA sia vantaggiosa.
09:17
Our last conferenceconferenza
was in AsilomarAsilomar, CaliforniaCalifornia last yearanno
183
545840
3296
La nostra ultima conferenza è stata
a Asilomar, California, l'anno scorso
09:21
and producedprodotta this listelenco of 23 principlesi principi
184
549160
3056
e ha prodotto una lista di 23 principi
09:24
whichquale have sinceda been signedfirmato
by over 1,000 AIAI researchersricercatori
185
552240
2896
che da allora sono stati sottoscritti
da più di 1000 ricercatori di IA
09:27
and keychiave industryindustria leaderscapi,
186
555160
1296
e importanti leader industriali.
09:28
and I want to tell you
about threetre of these principlesi principi.
187
556480
3176
Voglio raccontarvi tre di questi principi.
09:31
One is that we should avoidevitare an armsbraccia racegara
and lethalletale autonomousautonomo weaponsArmi.
188
559680
4960
Uno è che dovremmo evitare
una corsa agli armamenti
e armi autonome letali.
09:37
The ideaidea here is that any sciencescienza
can be used for newnuovo waysmodi of helpingporzione people
189
565480
3616
L'idea è che qualunque scienza
può essere usata per aiutare la gente
09:41
or newnuovo waysmodi of harmingnuocere people.
190
569120
1536
o per armare la gente.
09:42
For exampleesempio, biologybiologia and chemistrychimica
are much more likelyprobabile to be used
191
570680
3936
Per esempio, è più probabile
che la biologia e la chimica vengano usate
09:46
for newnuovo medicinesfarmaci or newnuovo curescure
than for newnuovo waysmodi of killinguccisione people,
192
574640
4856
per nuovi medicinali o nuove cure
che per uccidere le persone,
09:51
because biologistsbiologi
and chemistschimici pushedspinto harddifficile --
193
579520
2176
perché biologi e chimici
fanno pressione,
09:53
and successfullycon successo --
194
581720
1256
in modo efficace,
09:55
for bansdivieti on biologicalbiologico
and chemicalchimico weaponsArmi.
195
583000
2176
per proibire armi chimiche e biologiche.
09:57
And in the samestesso spiritspirito,
196
585200
1256
Con lo stesso spirito,
09:58
mostmaggior parte AIAI researchersricercatori want to stigmatizestigmatizzare
and banbandire lethalletale autonomousautonomo weaponsArmi.
197
586480
4440
molti ricercatori vogliono stigmatizzare
e proibire le armi letali autonome.
10:03
AnotherUn altro AsilomarAsilomar AIAI principleprincipio
198
591600
1816
Un altro principio Asilomar dell'IA
10:05
is that we should mitigatemitigare
AI-fueledAI-alimentato incomereddito inequalitydisuguaglianza.
199
593440
3696
è che dovremmo mitigare
le disparità di reddito
alimentate dall'IA.
10:09
I think that if we can growcrescere
the economiceconomico piegrafico a torta dramaticallydrammaticamente with AIAI
200
597160
4456
Credo che se possiamo far crescere
significativamente l'economia con l'IA
10:13
and we still can't figurefigura out
how to dividedividere this piegrafico a torta
201
601640
2456
senza capire come dividerci questa torta
10:16
so that everyonetutti is better off,
202
604120
1576
in modo che tutti stiano meglio,
10:17
then shamevergogna on us.
203
605720
1256
è una vergogna.
10:19
(ApplauseApplausi)
204
607000
4096
(Applausi)
10:23
AlrightVa bene, now raiseaumentare your handmano
if your computercomputer has ever crashedincidentato.
205
611120
3600
Bene, ora alzate la mano
se vi si è mai impallato il computer.
10:27
(LaughterRisate)
206
615480
1256
(Risate)
10:28
WowWow, that's a lot of handsmani.
207
616760
1656
Wow, sono tante mani.
10:30
Well, then you'llpotrai appreciateapprezzare
this principleprincipio
208
618440
2176
Allora vi piacerà questo principio
10:32
that we should investinvestire much more
in AIAI safetysicurezza researchricerca,
209
620640
3136
per cui dovremmo investire
molto di più nella sicurezza dell'IA,
10:35
because as we put AIAI in chargecarica
of even more decisionsdecisioni and infrastructureinfrastruttura,
210
623800
3656
perché se cediamo il controllo all'IA
in sempre più decisioni e infrastrutture,
10:39
we need to figurefigura out how to transformtrasformare
today'sdi oggi buggypasseggino and hackablehackable computerscomputer
211
627480
3616
dobbiamo capire come trasformare
i bug e i computer attaccabili di oggi
10:43
into robustrobusto AIAI systemssistemi
that we can really trustfiducia,
212
631120
2416
in sistemi di IA solidi
in cui avere fiducia,
10:45
because otherwisealtrimenti,
213
633560
1216
perché altrimenti,
10:46
all this awesomeeccezionale newnuovo technologytecnologia
can malfunctionMalfunzionamento and harmdanno us,
214
634800
2816
questa meravigliosa nuova tecnologia,
può funzionare male e danneggiarci,
10:49
or get hackedHacked and be turnedtrasformato againstcontro us.
215
637640
1976
o essere attaccata
e rivoltarsi contro di noi.
10:51
And this AIAI safetysicurezza work
has to includeincludere work on AIAI valuevalore alignmentallineamento,
216
639640
5696
Questo lavoro di sicurezza sull'IA
deve includere un allineamento dei valori,
10:57
because the realvero threatminaccia
from AGIAGI isn't malicemalizia,
217
645360
2816
perché la vera minaccia dell'AGI
non è la malizia,
11:00
like in sillysciocco HollywoodHollywood moviesfilm,
218
648200
1656
come negli stupidi film hollywoodiani,
11:01
but competencecompetenza --
219
649880
1736
ma la competenza --
11:03
AGIAGI accomplishingrealizzazione di goalsobiettivi
that just aren'tnon sono alignedallineati with oursnostro.
220
651640
3416
l'AGI realizza obiettivi
che non sono allineati ai nostri.
11:07
For exampleesempio, when we humansgli esseri umani droveguidavo
the WestWest AfricanAfricano blacknero rhinoRhino extinctestinto,
221
655080
4736
Per esempio, quando noi umani
abbiamo portato
il rinoceronte all'estinzione,
11:11
we didn't do it because we were a bunchmazzo
of evilil male rhinocerosrinoceronte hatersHaters, did we?
222
659840
3896
non l'abbiamo fatto perché eravamo
nemici dei rinoceronti, no?
11:15
We did it because
we were smarterpiù intelligente than them
223
663760
2056
L'abbiamo fatto perché
eravamo più intelligenti di loro
11:17
and our goalsobiettivi weren'tnon erano alignedallineati with theirsloro.
224
665840
2576
e i nostri obiettivi
non erano allineati con i loro.
11:20
But AGIAGI is by definitiondefinizione smarterpiù intelligente than us,
225
668440
2656
Ma l'AGI per definizione
è più intelligente di noi,
11:23
so to make sure that we don't put
ourselvesnoi stessi in the positionposizione of those rhinosrinoceronti
226
671120
3576
quindi per essere sicuri di non metterci
nella posizione di quei rinoceronti
11:26
if we createcreare AGIAGI,
227
674720
1976
se creiamo l'AGI,
11:28
we need to figurefigura out how
to make machinesmacchine understandcapire our goalsobiettivi,
228
676720
4176
dobbiamo capire come fare macchine
che capiscano i nostri obiettivi,
11:32
adoptadottare our goalsobiettivi and retainconservare our goalsobiettivi.
229
680920
3160
li adottino e li memorizzino.
11:37
And whosedi chi goalsobiettivi should these be, anywaycomunque?
230
685320
2856
E comunque
di chi dovrebbero essere questi obiettivi?
11:40
WhichChe goalsobiettivi should they be?
231
688200
1896
Quali obiettivi dovrebbero essere?
11:42
This bringsporta us to the thirdterzo partparte
of our rocketrazzo metaphormetafora: the destinationdestinazione.
232
690120
3560
Questo ci porta
alla terza parte della nostra metafora
del razzo: la destinazione.
11:47
We're makingfabbricazione AIAI more powerfulpotente,
233
695160
1856
Facciamo IA più potente,
11:49
tryingprovare to figurefigura out how to steerSteer it,
234
697040
1816
per capire come indirizzarla,
11:50
but where do we want to go with it?
235
698880
1680
ma dove vogliamo andarci?
11:53
This is the elephantelefante in the roomcamera
that almostquasi nobodynessuno talkstrattativa about --
236
701760
3656
È l'elefante nella stanza
di cui quasi nessuno parla,
11:57
not even here at TEDTED --
237
705440
1856
nemmeno qui a TED,
11:59
because we're so fixatedfissata
on short-termbreve termine AIAI challengessfide.
238
707320
4080
perché siamo così fissati
sulle sfide a breve termine dell'IA.
12:04
Look, our speciesspecie is tryingprovare to buildcostruire AGIAGI,
239
712080
4656
La nostra specie
sta cercando di costruire l'AGI,
12:08
motivatedmotivato by curiositycuriosità and economicseconomia,
240
716760
3496
motivata da curiosità
e interessi economici,
12:12
but what sortordinare of futurefuturo societysocietà
are we hopingsperando for if we succeedavere successo?
241
720280
3680
ma in che tipo di società futura
speriamo se abbiamo successo?
12:16
We did an opinionopinione pollsondaggio on this recentlyrecentemente,
242
724680
1936
Di recente, abbiamo fatto un sondaggio,
12:18
and I was struckcolpito to see
243
726640
1216
sono stato colpito del fatto
12:19
that mostmaggior parte people actuallyin realtà
want us to buildcostruire superintelligencesuperintelligenza:
244
727880
2896
che in realtà molti vogliono
che si costruisca una superintelligenza:
12:22
AIAI that's vastlynotevolmente smarterpiù intelligente
than us in all waysmodi.
245
730800
3160
IA che sia molto più intelligente
di noi in tutti i sensi.
12:27
What there was the greatestpiù grande agreementaccordo on
was that we should be ambitiousambizioso
246
735120
3416
Il più grande accordo
è stato sull'ambizione
12:30
and help life spreaddiffusione into the cosmoscosmo,
247
738560
2016
e sull'aiutare la vita
a diffondersi nel cosmo,
12:32
but there was much lessDi meno agreementaccordo
about who or what should be in chargecarica.
248
740600
4496
ma c'è stato molto meno accordo
su chi o cosa fosse responsabile.
12:37
And I was actuallyin realtà quiteabbastanza amuseddivertito
249
745120
1736
E mi sono quasi divertito
12:38
to see that there's some some people
who want it to be just machinesmacchine.
250
746880
3456
a vedere che qualcuno
vorrebbe solo le macchine.
12:42
(LaughterRisate)
251
750360
1696
(Risate)
12:44
And there was totaltotale disagreementdisaccordo
about what the roleruolo of humansgli esseri umani should be,
252
752080
3856
C'era totale disaccordo su quale
debba essere il ruolo degli esseri umani,
12:47
even at the mostmaggior parte basicdi base levellivello,
253
755960
1976
anche a livello più basilare,
12:49
so let's take a closerpiù vicino look
at possiblepossibile futuresFutures
254
757960
2816
allora guardiamo più da vicino
i futuri possibili
12:52
that we mightpotrebbe choosescegliere
to steerSteer towardverso, alrighttutto apposto?
255
760800
2736
verso i quali potremmo andare.
12:55
So don't get be wrongsbagliato here.
256
763560
1336
Non fraintendetemi.
12:56
I'm not talkingparlando about spacespazio travelviaggio,
257
764920
2056
Non sto parlando di viaggio nello spazio,
12:59
merelysemplicemente about humanity'sL'umanità di
metaphoricalmetaforico journeyviaggio into the futurefuturo.
258
767000
3200
semplicemente di un metaforico viaggio
dell'umanità nel futuro.
13:02
So one optionopzione that some
of my AIAI colleaguescolleghi like
259
770920
3496
Un'opzione che piace ai miei colleghi IA
13:06
is to buildcostruire superintelligencesuperintelligenza
and keep it undersotto humanumano controlcontrollo,
260
774440
3616
è costruire una superintelligenza
e tenerla sotto controllo umano,
13:10
like an enslavedridotti in schiavitù god,
261
778080
1736
come un Dio schiavizzato,
13:11
disconnectedscollegato from the internetInternet
262
779840
1576
sconnesso da Internet
13:13
and used to createcreare unimaginableinimmaginabile
technologytecnologia and wealthricchezza
263
781440
3256
e usato per creare tecnologia
e ricchezza inimmaginabili
13:16
for whoeverchiunque controlscontrolli it.
264
784720
1240
per chiunque la controlli.
13:18
But LordSignore ActonActon warnedha avvertito us
265
786800
1456
Ma Lord Acton ci ha avvisati
13:20
that powerenergia corruptscorrompe,
and absoluteassoluto powerenergia corruptscorrompe absolutelyassolutamente,
266
788280
3616
che il potere corrompe,
e il potere assoluto
corrompe assolutamente,
13:23
so you mightpotrebbe worrypreoccupazione that maybe
we humansgli esseri umani just aren'tnon sono smartinteligente enoughabbastanza,
267
791920
4056
penserete che forse gli esseri umani
non sono abbastanza intelligenti,
13:28
or wisesaggio enoughabbastanza ratherpiuttosto,
268
796000
1536
o piuttosto abbastanza saggi,
13:29
to handlemaniglia this much powerenergia.
269
797560
1240
per gestire un tale potere.
13:31
AlsoAnche, asidea parte from any
moralmorale qualmsRemora you mightpotrebbe have
270
799640
2536
Inoltre, fatta eccezione
per gli scrupoli morali che potreste avere
13:34
about enslavingla riduzione in schiavitù superiorsuperiore mindsmenti,
271
802200
2296
sulla sottomissione di menti superiori,
13:36
you mightpotrebbe worrypreoccupazione that maybe
the superintelligencesuperintelligenza could outsmartsuperare in astuzia us,
272
804520
3976
potreste preoccuparvi
di un'intelligenza più furba di noi,
13:40
breakrompere out and take over.
273
808520
2240
che scappa e prende il controllo.
13:43
But I alsoanche have colleaguescolleghi
who are fine with AIAI takingpresa over
274
811560
3416
Ma ho anche colleghi a cui sta bene
una IA che prende il controllo
13:47
and even causingcausando humanumano extinctionestinzione,
275
815000
2296
che causa addirittura
l'estinzione dell'uomo,
13:49
as long as we feel the the AIsAIs
are our worthydegno descendantsdiscendenti,
276
817320
3576
purché sentiamo che l'IA
è un nostro degno discendente,
13:52
like our childrenbambini.
277
820920
1736
come i nostri figli.
13:54
But how would we know that the AIsAIs
have adoptedadottato our bestmigliore valuesvalori
278
822680
5616
Ma come sapremo che l'IA
ha adottato i nostri migliori valori
14:00
and aren'tnon sono just unconsciousinconscio zombieszombie
trickingingannando us into anthropomorphizinganthropomorphizing them?
279
828320
4376
e non è solo fatta di zombie inconsapevoli
che ci ingannano a antropomorfizzarli?
14:04
AlsoAnche, shouldn'tnon dovrebbe those people
who don't want humanumano extinctionestinzione
280
832720
2856
E quelli che non vogliono
l'estinzione della razza umana
14:07
have a say in the matterimporta, too?
281
835600
1440
non dovrebbero dire
qualcosa anche loro?
14:10
Now, if you didn't like eithero
of those two high-techHigh Tech optionsopzioni,
282
838200
3376
Se non vi piace nessuna
di queste opzioni high-tech,
14:13
it's importantimportante to rememberricorda
that low-techlow-tech is suicidesuicidio
283
841600
3176
è importante ricordare
che low-tech equivale a suicidio
14:16
from a cosmiccosmico perspectiveprospettiva,
284
844800
1256
da un punto di vista cosmico,
14:18
because if we don't go farlontano
beyondal di là today'sdi oggi technologytecnologia,
285
846080
2496
perché se non andiamo molto oltre
la tecnologia di oggi,
14:20
the questiondomanda isn't whetherse humanityumanità
is going to go extinctestinto,
286
848600
2816
la questione non è
se l'umanità si estinguerà,
14:23
merelysemplicemente whetherse
we're going to get takenprese out
287
851440
2016
ma se verremo spazzati via
14:25
by the nextIl prossimo killerkiller asteroidasteroide, supervolcanosupervulcano
288
853480
2136
dal prossimo asteroide killer,
supervulcano
14:27
or some other problemproblema
that better technologytecnologia could have solvedrisolto.
289
855640
3096
o qualche altro problema
che una migliore tecnologia
avrebbe potuto risolvere.
14:30
So, how about havingavendo
our caketorta and eatingmangiare it ...
290
858760
3576
Allora perché
non mangiarci la nostra torta...
14:34
with AGIAGI that's not enslavedridotti in schiavitù
291
862360
1840
con AGI non sottomessa
14:37
but treatsossequi us well because its valuesvalori
are alignedallineati with oursnostro?
292
865120
3176
ma ci tratta bene perché i suoi valori
sono allineati ai nostri?
14:40
This is the gistGIST of what EliezerEliezer YudkowskyYudkowsky
has calledchiamato "friendlyamichevole AIAI,"
293
868320
4176
Questo è il concetto di quello
che Eliezer Yudowsky chiama "IA amica,"
14:44
and if we can do this,
it could be awesomeeccezionale.
294
872520
2680
e se potessimo farlo,
sarebbe meraviglioso.
14:47
It could not only eliminateeliminare negativenegativo
experiencesesperienze like diseasemalattia, povertypovertà,
295
875840
4816
Potrebbe non solo eliminare
le esperienze negative
come malattie, povertà,
14:52
crimecrimine and other sufferingsofferenza,
296
880680
1456
crimini e altre sofferenze,
14:54
but it could alsoanche give us
the freedomla libertà to choosescegliere
297
882160
2816
ma potrebbe darci anche
la libertà di scelta
14:57
from a fantasticfantastico newnuovo diversitydiversità
of positivepositivo experiencesesperienze --
298
885000
4056
tra un fantastica nuova varietà
di esperienze positive --
15:01
basicallyfondamentalmente makingfabbricazione us
the mastersmaestri of our ownproprio destinydestino.
299
889080
3160
in sostanza rendendoci padroni
del nostro destino.
15:06
So in summaryRiepilogo,
300
894280
1376
Per riassumere,
15:07
our situationsituazione with technologytecnologia
is complicatedcomplicato,
301
895680
3096
la nostra situazione
con la tecnologia è complicata,
15:10
but the biggrande pictureimmagine is ratherpiuttosto simplesemplice.
302
898800
2416
ma il quadro generale
è piuttosto semplice.
15:13
MostMaggior parte AIAI researchersricercatori
expectaspettarsi AGIAGI withinentro decadesdecenni,
303
901240
3456
Molti ricercatori di IA si aspettano l'AGI
entro qualche decennio,
15:16
and if we just bumbleBumble
into this unpreparedimpreparati,
304
904720
3136
e se ci arriviamo impreparati,
15:19
it will probablyprobabilmente be
the biggestmaggiore mistakesbaglio in humanumano historystoria --
305
907880
3336
sarà probabilmente
il più grande errore della storia --
15:23
let's faceviso it.
306
911240
1416
accettiamolo.
15:24
It could enableabilitare brutalbrutale,
globalglobale dictatorshipdittatura
307
912680
2576
Potrebbe permettere
una dittatura globale brutale
15:27
with unprecedentedinaudito inequalitydisuguaglianza,
surveillancesorveglianza and sufferingsofferenza,
308
915280
3536
con ineguaglianze, sorveglianza
e sofferenza senza precedenti,
15:30
and maybe even humanumano extinctionestinzione.
309
918840
1976
e forse addirittura
l'estinzione del genere umano.
15:32
But if we steerSteer carefullyaccuratamente,
310
920840
2320
Ma se la indirizziamo attentamente,
15:36
we could endfine up in a fantasticfantastico futurefuturo
where everybody'sognuno è better off:
311
924040
3896
potremmo finire in un futuro fantastico
in cui tutti stanno meglio:
15:39
the poorpovero are richerpiù ricca, the richricco are richerpiù ricca,
312
927960
2376
i poveri sono più ricchi,
i ricchi sono più ricchi,
15:42
everybodytutti is healthysalutare
and freegratuito to livevivere out theirloro dreamssogni.
313
930360
3960
tutti sono più in salute
e liberi di vivere i loro sogni.
15:47
Now, hangappendere on.
314
935000
1536
Ora, tenetevi forte.
15:48
Do you folksgente want the futurefuturo
that's politicallypoliticamente right or left?
315
936560
4576
Volete un futuro politicamente
di destra o di sinistra?
15:53
Do you want the piousPia societysocietà
with strictrigoroso moralmorale rulesregole,
316
941160
2856
Volete la devota società
con regole morali rigide,
15:56
or do you an hedonisticedonistico free-for-alltutti contro tutti,
317
944040
1816
o ne volete una edonistica
gratis per tutti,
15:57
more like BurningMasterizzazione Man 24/7?
318
945880
2216
un po' come Burning Man H24?
16:00
Do you want beautifulbellissimo beachesspiagge,
forestsforeste and lakesLaghi,
319
948120
2416
Volete belle spiagge, foreste e laghi,
16:02
or would you preferpreferire to rearrangeridisporre
some of those atomsatomi with the computerscomputer,
320
950560
3416
o preferite risistemare
un po' di atomi con il computer,
16:06
enablingabilitare virtualvirtuale experiencesesperienze?
321
954000
1715
che apra a esperienze
di realtà virtuale?
16:07
With friendlyamichevole AIAI, we could simplysemplicemente
buildcostruire all of these societiessocietà
322
955739
3157
Con una IA amichevole, potremmo costruire
tutte queste società
16:10
and give people the freedomla libertà
to choosescegliere whichquale one they want to livevivere in
323
958920
3216
e dare alla gente la libertà
di scegliere in quale vivere
16:14
because we would no longerpiù a lungo
be limitedlimitato by our intelligenceintelligenza,
324
962160
3096
perché non saremmo più limitati
dalla nostra intelligenza,
16:17
merelysemplicemente by the lawslegislazione of physicsfisica.
325
965280
1456
solamente dalla leggi della fisica.
16:18
So the resourcesrisorse and spacespazio
for this would be astronomicalastronomico --
326
966760
4616
Quindi le risorse e lo spazio
diventerebbero astronomiche --
16:23
literallyletteralmente.
327
971400
1320
letteralmente.
16:25
So here'secco our choicescelta.
328
973320
1200
Ecco la scelta.
16:27
We can eithero be complacentcompiacente
about our futurefuturo,
329
975880
2320
Possiamo essere soddisfatti
del nostro futuro,
16:31
takingpresa as an articlearticolo of blindcieco faithfede
330
979440
2656
prendere come dato con fede cieca
16:34
that any newnuovo technologytecnologia
is guaranteedgarantita to be beneficialbenefici,
331
982120
4016
che qualunque nuova tecnologia
è garantita vantaggiosa,
16:38
and just repeatripetere that to ourselvesnoi stessi
as a mantraMantra over and over and over again
332
986160
4136
e ripetercelo come un mantra
in continuazione
16:42
as we driftderiva like a rudderlesssenza timone shipnave
towardsin direzione our ownproprio obsolescenceobsolescenza.
333
990320
3680
e andare alla deriva come una nave
senza timone verso l'obsolescenza.
16:46
Or we can be ambitiousambizioso --
334
994920
1880
O possiamo essere ambiziosi --
16:49
thinkingpensiero harddifficile about how
to steerSteer our technologytecnologia
335
997840
2456
pensare bene
a come indirizzare la tecnologia
16:52
and where we want to go with it
336
1000320
1936
e dove vogliamo andarci
16:54
to createcreare the ageetà of amazementstupore.
337
1002280
1760
per creare l'era della meraviglia.
16:57
We're all here to celebratecelebrare
the ageetà of amazementstupore,
338
1005000
2856
Siamo qui tutti per festeggiare
l'era della meraviglia,
16:59
and I feel that its essenceessenza should liemenzogna
in becomingdiventando not overpoweredsopraffatto
339
1007880
4440
e sento che la sua essenza
non dovrebbe stare nella sopraffazione
17:05
but empoweredpotere by our technologytecnologia.
340
1013240
2616
ma nella responsabilizzazione
da parte della nostra tecnologia.
17:07
Thank you.
341
1015880
1376
Grazie.
17:09
(ApplauseApplausi)
342
1017280
3080
(Applausi)
Translated by Anna Cristiana Minoli
Reviewed by Antonio Lambiase

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com