ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Will MacAskill: Quali sono i principali problemi morali del nostro tempo?

Filmed:
2,112,093 views

Di tutti i problemi che l'umanità deve affrontare, quali dovrebbero essere risolti per primi? In un coinvolgente discorso su come migliorare il mondo, il filosofo morale Will MacAskill fornisce una cornice di riferimento per rispondere a questa domanda basandosi sulla filosofia dell'"altruismo efficace" e condivide idee per affrontare tre questioni globali urgenti.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphgrafico
0
857
1479
Questo è un grafico
00:14
that representsrappresenta the economiceconomico historystoria
of humanumano civilizationciviltà.
1
2360
3659
che rappresenta la storia economica
della civiltà umana.
00:18
[WorldMondo GDPPIL perper capitacapite
over the last 200,000 yearsanni]
2
6043
2400
[PIL mondiale pro capite
negli ultimi 200.000 anni]
00:23
There's not much going on, is there.
3
11757
2003
Non succede granché, vero?
00:26
For the vastvasto majoritymaggioranza of humanumano historystoria,
4
14751
2347
Per la maggior parte della storia umana,
00:29
prettybella much everyonetutti livedha vissuto
on the equivalentequivalente of one dollardollaro perper day,
5
17835
4048
praticamente tutti hanno vissuto
con l'equivalente di un dollaro al giorno,
00:33
and not much changedcambiato.
6
21907
1286
e non è cambiato molto.
00:36
But then, something
extraordinarystraordinario happenedè accaduto:
7
24757
2777
Ma poi è successo
qualcosa di straordinario:
00:40
the ScientificScientifico and IndustrialIndustriale RevolutionsRivoluzioni.
8
28677
2811
la rivoluzione scientifica
e quella industriale.
00:43
And the basicallyfondamentalmente flatpiatto graphgrafico you just saw
9
31512
2785
E il grafico sostanzialmente piatto
che avete appena visto
00:46
transformstrasforma into this.
10
34321
2675
si trasforma in questo.
00:50
What this graphgrafico meanssi intende is that,
in termscondizioni of powerenergia to changemodificare the worldmondo,
11
38612
4635
Questo grafico significa che,
in quanto a capacità di cambiare il mondo,
00:55
we livevivere in an unprecedentedinaudito time
in humanumano historystoria,
12
43271
3438
viviamo in un tempo
che non ha precedenti nella storia umana,
00:58
and I believe our ethicaletico understandingcomprensione
hasn'tnon ha yetancora caughtcatturato up with this factfatto.
13
46733
3944
e credo che la nostra sensibilità etica
non si sia ancora adattata.
La rivoluzione scientifica
e quella industriale
01:03
The ScientificScientifico and IndustrialIndustriale RevolutionsRivoluzioni
14
51716
1984
01:05
transformedtrasformato bothentrambi
our understandingcomprensione of the worldmondo
15
53724
2909
hanno trasformato
sia la nostra comprensione del mondo
01:08
and our abilitycapacità to alterALTER it.
16
56657
1669
che la nostra capacità di cambiarlo.
01:11
What we need is an ethicaletico revolutionrivoluzione
17
59505
3667
Ora serve una rivoluzione etica
01:15
so that we can work out
18
63196
1548
che ci renda capaci di capire
01:16
how do we use this tremendousenorme
bountygenerosità of resourcesrisorse
19
64768
3152
come utilizzare questa enorme
quantità di risorse
01:19
to improveMigliorare the worldmondo.
20
67944
1395
per migliorare il mondo.
01:22
For the last 10 yearsanni,
21
70249
1591
Negli ultimi 10 anni,
01:23
my colleaguescolleghi and I have developedsviluppato
a philosophyfilosofia and researchricerca programprogramma
22
71864
3833
i miei colleghi ed io abbiamo sviluppato
un programma di filosofia e ricerca
01:27
that we call effectiveefficace altruismaltruismo.
23
75721
1835
che chiamiamo "altruismo efficace".
01:30
It triescerca to respondrispondere
to these radicalradicale changesi cambiamenti in our worldmondo,
24
78366
3595
Tenta di rispondere ai cambiamenti
radicali del nostro mondo,
01:33
usesusi evidenceprova and carefulattento reasoningragionamento
to try to answerrisposta this questiondomanda:
25
81985
4476
utilizza prove e un attento ragionamento
per tentare di rispondere alla domanda:
01:40
How can we do the mostmaggior parte good?
26
88173
2278
Come possiamo fare il massimo bene?
01:44
Now, there are manymolti issuesproblemi
you've got to addressindirizzo
27
92265
3221
Ci sono molte questioni da considerare
01:47
if you want to tackleaffrontare this problemproblema:
28
95510
2263
se si vuole affrontare il problema:
01:49
whetherse to do good throughattraverso your charitycarità
29
97797
2031
fare del bene attraverso la beneficenza
01:51
or your careercarriera
or your politicalpolitico engagementFidanzamento,
30
99852
2152
o la carriera, o l'impegno politico,
01:54
what programsprogrammi to focusmessa a fuoco on,
who to work with.
31
102028
2395
su quali programmi concentrarsi,
con chi collaborare.
01:57
But what I want to talk about
32
105624
1476
Ma ciò di cui voglio parlare
01:59
is what I think is the mostmaggior parte
fundamentalfondamentale problemproblema.
33
107124
2872
è ciò che per me
è il problema fondamentale.
02:02
Of all the manymolti problemsi problemi
that the worldmondo facesfacce,
34
110020
2693
Dei tanti problemi
che affliggono il mondo,
02:05
whichquale should we be focusedfocalizzata
on tryingprovare to solverisolvere first?
35
113962
2659
quali dovremmo cercare
di risolvere per primi?
02:10
Now, I'm going to give you a frameworkstruttura
for thinkingpensiero about this questiondomanda,
36
118668
3468
Vi offrirò una cornice di riferimento
per riflettere su questa domanda,
02:14
and the frameworkstruttura is very simplesemplice.
37
122160
1936
una cornice molto semplice.
02:16
A problem'sdi problema higherpiù alto prioritypriorità,
38
124842
1699
La priorità di un problema è maggiore,
02:19
the biggerpiù grande, the more easilyfacilmente solvablerisolvibili
and the more neglectedtrascurato it is.
39
127416
4063
quanto più esso è grande,
facilmente risolvibile e trascurato.
02:24
BiggerPiù grande is better,
40
132694
1642
Più grande è, meglio è,
02:26
because we'venoi abbiamo got more to gainguadagno
if we do solverisolvere the problemproblema.
41
134360
2841
perché abbiamo più
da guadagnare nel risolverlo.
Più risolvibile è, meglio è,
02:30
More easilyfacilmente solvablerisolvibili is better
42
138221
1569
02:31
because I can solverisolvere the problemproblema
with lessDi meno time or moneyi soldi.
43
139814
2824
perché lo si può risolvere
in poco tempo e meno denaro.
02:35
And mostmaggior parte subtlysottilmente,
44
143737
2063
E, inoltre,
02:38
more neglectedtrascurato is better,
because of diminishingdiminuzione returnsritorna.
45
146681
2849
più trascurato è, meglio è
a causa dei rendimenti decrescenti.
02:42
The more resourcesrisorse that have alreadygià been
investedinvestito into solvingsoluzione a problemproblema,
46
150285
3714
Più grandi sono le risorse già investite
nel risolvere un problema,
02:46
the harderPiù forte it will be
to make additionalUlteriori progressprogresso.
47
154023
2905
più difficile sarà
fare ulteriori progressi.
02:50
Now, the keychiave thing that I want
to leavepartire with you is this frameworkstruttura,
48
158560
4059
La cosa fondamentale che voglio lasciarvi
è questo riferimento,
02:54
so that you can think for yourselfte stesso
49
162643
1984
in modo che possiate scoprire da soli
02:56
what are the highestmassimo globalglobale prioritiespriorità.
50
164651
2321
quali sono le principali priorità globali.
02:59
But I and othersaltri
in the effectiveefficace altruismaltruismo communitycomunità
51
167954
2692
Ma io e altri membri della comunità
di altruismo efficace
03:02
have convergedconvergenti on threetre moralmorale issuesproblemi
that we believe are unusuallyinsolitamente importantimportante,
52
170670
5879
siamo confluiti su tre questioni morali
che riteniamo estremamente importanti
e che mostrano un elevato punteggio
nella cornice di riferimento.
03:08
scorePunto unusuallyinsolitamente well in this frameworkstruttura.
53
176573
2182
03:11
First is globalglobale healthSalute.
54
179151
2813
In primo luogo c'è la salute globale.
03:13
This is supersolvablesupersolvable.
55
181988
2411
Questione facilmente risolvibile.
03:16
We have an amazingStupefacente tracktraccia recorddisco
in globalglobale healthSalute.
56
184423
3397
Abbiamo una straordinaria esperienza
nel campo della salute globale.
03:19
RatesTariffe of deathmorte from measlesmorbillo,
malariamalaria, diarrhealdiarroiche diseasemalattia
57
187844
5420
I tassi di mortalità per morbillo,
malaria, malattia diarroica
03:25
are down by over 70 percentper cento.
58
193288
2246
sono diminuiti di oltre il 70%.
03:29
And in 1980, we eradicatedsradicato smallpoxvaiolo.
59
197534
2789
Nel 1980 abbiamo debellato il vaiolo,
03:33
I estimatestima we therebyin tal modo savedsalvato
over 60 millionmilione livesvite.
60
201815
3667
il che, secondo le mie stime,
ha salvato oltre 60 milioni di vite,
03:37
That's more livesvite savedsalvato
than if we'dsaremmo achievedraggiunto worldmondo peacepace
61
205506
3064
più di quante ne avrebbe potute salvare
la pace nel mondo
03:40
in that samestesso time periodperiodo.
62
208594
1697
in quello stesso periodo di tempo.
03:43
On our currentattuale bestmigliore estimatesstime,
63
211893
2325
Secondo le nostre migliori stime attuali,
possiamo salvare vite,
applicando ai letti delle zanzariere
03:46
we can savesalvare a life by distributingdistribuzione
long-lastinglunga durata insecticide-treatedtrattato con insetticida bedletto netsreti
64
214242
4128
trattate con insetticida di lunga durata,
per poche migliaia di dollari.
03:50
for just a fewpochi thousandmille dollarsdollari.
65
218394
1903
03:52
This is an amazingStupefacente opportunityopportunità.
66
220911
1667
È una straordinaria opportunità.
La seconda grande priorità
è l'allevamento industriale.
03:55
The secondsecondo biggrande prioritypriorità
is factoryfabbrica farmingagricoltura.
67
223594
2515
Questione estremamente trascurata.
03:58
This is superneglectedsuper trascurato.
68
226681
1563
04:00
There are 50 billionmiliardo landsbarcare animalsanimali
used everyogni yearanno for foodcibo,
69
228768
4143
Ci sono 50 miliardi di animali da pascolo
utilizzati ogni anno per il cibo
04:05
and the vastvasto majoritymaggioranza of them
are factoryfabbrica farmedd'allevamento,
70
233625
2548
che vivono in gran parte
in allevamenti intensivi,
in condizioni di terribile sofferenza.
04:08
livingvita in conditionscondizioni
of horrificorribile sufferingsofferenza.
71
236197
2380
04:10
They're probablyprobabilmente amongtra
the worst-offpeggiore creaturescreature on this planetpianeta,
72
238601
3151
Sono probabilmente tra le creature
più svantaggiate del pianeta
e spesso se ne potrebbe migliorare
in modo significativo la vita
04:13
and in manymolti casescasi, we could
significantlyin modo significativo improveMigliorare theirloro livesvite
73
241776
2858
04:16
for just penniesPenny perper animalanimale.
74
244658
1602
con pochi centesimi per animale.
04:19
YetAncora this is hugelyenormemente neglectedtrascurato.
75
247123
2082
Ma tutto ciò viene ampiamente ignorato.
04:21
There are 3,000 timesvolte
more animalsanimali in factoryfabbrica farmsaziende agricole
76
249229
3810
Ci sono 3.000 volte
più animali negli allevamenti intensivi
04:25
than there are strayrandagi petsanimali domestici,
77
253063
1561
rispetto al numero degli animali randagi,
04:28
but yetancora, factoryfabbrica farmingagricoltura getsprende one fiftiethcinquantesimo
of the philanthropicfilantropico fundingfinanziamento.
78
256600
4373
eppure l'allevamento intensivo ottiene
un cinquantesimo dei fondi filantropici.
Significa che disporre
di ulteriori risorse in questo settore
04:34
That meanssi intende additionalUlteriori
resourcesrisorse in this areala zona
79
262211
2128
04:36
could have a trulyveramente transformativetrasformativo impacturto.
80
264363
2150
potrebbe avere un impatto rivoluzionario.
04:39
Now the thirdterzo areala zona is the one
that I want to focusmessa a fuoco on the mostmaggior parte,
81
267458
2985
Il terzo settore è quello
su cui voglio concentrarmi di più.
04:42
and that's the categorycategoria
of existentialesistenziale risksrischi:
82
270467
2984
è la categoria del rischio esistenziale:
04:45
eventseventi like a nuclearnucleare warguerra
or a globalglobale pandemicpandemia
83
273475
3873
eventi come una guerra nucleare
o una pandemia globale
04:50
that could permanentlypermanentemente derailderagliare civilizationciviltà
84
278824
2611
che potrebbero far deragliare
definitivamente la civiltà
04:54
or even leadcondurre to the extinctionestinzione
of the humanumano racegara.
85
282156
2436
o portare addirittura all'estinzione
della razza umana.
Vi spiego perché penso
che questa sia una grande priorità
04:57
Let me explainspiegare why I think
this is suchcome a biggrande prioritypriorità
86
285882
2540
05:00
in termscondizioni of this frameworkstruttura.
87
288446
1337
in relazione a questo quadro.
05:02
First, sizedimensione.
88
290992
1412
Primo, la dimensione.
05:05
How badcattivo would it be if there were
a trulyveramente existentialesistenziale catastrophecatastrofe?
89
293341
3889
Quanto grave sarebbe il verificarsi
di una vera catastrofe esistenziale?
05:10
Well, it would involvecoinvolgere the deathsmorti
of all sevenSette billionmiliardo people on this planetpianeta
90
298920
6342
Comporterebbe la morte dei 7 miliardi
di persone di questo pianeta,
05:17
and that meanssi intende you
and everyonetutti you know and love.
91
305286
3119
significa voi e tutti quelli
che conoscete e amate.
05:21
That's just a tragedytragedia
of unimaginableinimmaginabile sizedimensione.
92
309214
2579
Una tragedia di dimensioni inimmaginabili.
05:25
But then, what's more,
93
313684
1976
Ma poi, peggio ancora,
05:27
it would alsoanche mean the curtailmentRiduzione
of humanity'sL'umanità di futurefuturo potentialpotenziale,
94
315684
3605
significherebbe anche la riduzione
del futuro potenziale dell'umanità,
05:31
and I believe that humanity'sL'umanità di
potentialpotenziale is vastvasto.
95
319313
2952
e credo che il potenziale
dell'umanità sia enorme.
05:35
The humanumano racegara has been around
for about 200,000 yearsanni,
96
323551
3451
La razza umana è in circolazione
da circa 200.000 anni
05:39
and if she livesvite as long
as a typicaltipico mammaliandei mammiferi speciesspecie,
97
327026
2883
e se vivesse quanto una tipica specie
di mammifero,
05:41
she would last
for about two millionmilione yearsanni.
98
329933
2298
arriverebbe a circa 2 milioni di anni.
05:46
If the humanumano racegara
were a singlesingolo individualindividuale,
99
334884
2691
Se la razza umana
fosse un singolo individuo,
05:49
she would be just 10 yearsanni oldvecchio todayoggi.
100
337599
2419
oggi avrebbe solo 10 anni.
05:53
And what's more, the humanumano racegara
isn't a typicaltipico mammaliandei mammiferi speciesspecie.
101
341526
4166
Inoltre, la razza umana
non è una tipica specie di mammifero.
Non c'è nessun motivo per cui,
se stiamo attenti,
05:58
There's no reasonragionare why, if we're carefulattento,
102
346950
1906
06:00
we should diemorire off
after only two millionmilione yearsanni.
103
348880
2205
dovremmo estinguerci
dopo soli 2 milioni di anni.
06:03
The earthterra will remainrimanere habitableabitabile
for 500 millionmilione yearsanni to come.
104
351839
4040
La terra resterà abitabile
per i prossimi 500 milioni di anni.
06:08
And if somedayun giorno, we tookha preso to the starsstelle,
105
356696
1944
E se un giorno arrivassimo alle stelle,
la civiltà potrebbe continuare
per miliardi di anni ancora.
06:11
the civilizationciviltà could continueContinua
for billionsmiliardi more.
106
359640
2516
06:16
So I think the futurefuturo
is going to be really biggrande,
107
364193
2388
Quindi penso che il futuro
sarà davvero grande,
06:19
but is it going to be good?
108
367669
1802
ma sarà buono?
06:21
Is the humanumano racegara
even really worthdi valore preservingconservazione?
109
369495
2817
La razza umana merita ancora
di essere conservata?
06:26
Well, we hearsentire all the time about
how things have been gettingottenere worsepeggio,
110
374540
3929
Sentiamo continuamente parlare
di come le cose stiano peggiorando,
06:31
but I think that when
we take the long runcorrere,
111
379459
2693
ma penso che, nel lungo periodo,
06:34
things have been gettingottenere radicallyradicalmente better.
112
382176
2031
le cose stiano radicalmente migliorando.
06:37
Here, for exampleesempio,
is life expectancyaspettativa over time.
113
385453
2294
Ecco, ad esempio, l'aspettativa di vita
nel corso del tempo.
Ecco la proporzione di persone
che non vivono in estrema povertà.
06:40
Here'sQui è the proportionproporzione of people
not livingvita in extremeestremo povertypovertà.
114
388892
3023
06:45
Here'sQui è the numbernumero of countriespaesi over time
that have decriminalizeddepenalizzato homosexualityomosessualità.
115
393106
4095
Ecco il numero di paesi che nel tempo
hanno depenalizzato l'omosessualità.
06:50
Here'sQui è the numbernumero of countriespaesi over time
that have becomediventare democraticdemocratico.
116
398848
3269
Ecco il numero di paesi che nel tempo
sono diventati democratici.
06:55
Then, when we look to the futurefuturo,
there could be so much more to gainguadagno again.
117
403015
4619
Poi, guardando al futuro,
potremmo ottenere così tanto ancora.
06:59
We'llWe'll be so much richerpiù ricca,
118
407658
1228
Saremo molto più ricchi,
07:00
we can solverisolvere so manymolti problemsi problemi
that are intractableintrattabile todayoggi.
119
408910
3595
potremo risolvere tanti problemi
che oggi sono inaffrontabili.
07:05
So if this is kindgenere of a graphgrafico
of how humanityumanità has progressedprogredito
120
413389
4445
Quindi, se questa è una sorta di grafico
di come l'umanità è progredita
07:09
in termscondizioni of totaltotale humanumano
flourishingfiorente over time,
121
417858
2890
in termini di crescita umana totale
nel tempo,
07:12
well, this is what we would expectaspettarsi
futurefuturo progressprogresso to look like.
122
420772
3355
ecco come potrebbe apparire
presumibilmente il progresso futuro.
07:16
It's vastvasto.
123
424881
1150
È vasto.
07:18
Here, for exampleesempio,
124
426953
1198
Qui, per esempio,
07:20
is where we would expectaspettarsi no one
to livevivere in extremeestremo povertypovertà.
125
428175
3746
è dove ci si può aspettare
che nessuno viva in estrema povertà.
07:25
Here is where we would expectaspettarsi
everyonetutti to be better off
126
433930
3202
Qui è dove ci si può aspettare
che tutti stiano meglio
07:29
than the richestpiù ricco personpersona alivevivo todayoggi.
127
437156
1853
della persona più ricca di oggi.
07:32
PerhapsForse here is where we would discoverscoprire
the fundamentalfondamentale naturalnaturale lawslegislazione
128
440081
3192
Forse è qui che scopriremo
le leggi fondamentali della natura
07:35
that governgovernare our worldmondo.
129
443297
1268
che governano il nostro mondo.
07:37
PerhapsForse here is where we discoverscoprire
an entirelyinteramente newnuovo formmodulo of artarte,
130
445516
3705
Forse è qui che scopriremo
una forma d'arte completamente nuova,
07:41
a formmodulo of musicmusica we currentlyattualmente lackmancanza
the earsorecchie to hearsentire.
131
449245
3040
una forma di musica
che ora non abbiamo orecchi per sentire.
07:45
And this is just
the nextIl prossimo fewpochi thousandmille yearsanni.
132
453072
2222
È solo nelle prossime migliaia di anni.
07:47
OnceVolta we think pastpassato that,
133
455827
2205
Se riusciamo a guardare oltre,
07:50
well, we can't even imagineimmaginare the heightsaltezza
that humanumano accomplishmentrealizzazione mightpotrebbe reachraggiungere.
134
458056
4167
scopriamo le inimmaginabili altezze
che la creazione umana potrebbe toccare.
07:54
So the futurefuturo could be very biggrande
and it could be very good,
135
462247
3040
Quindi, il futuro potrebbe essere
molto grande e molto positivo,
07:57
but are there waysmodi
we could loseperdere this valuevalore?
136
465311
2086
ma potremmo anche riuscire
a perderlo questo tesoro?
08:00
And sadlyPurtroppo, I think there are.
137
468366
1826
Purtroppo, penso di sì.
08:02
The last two centuriessecoli broughtportato
tremendousenorme technologicaltecnologico progressprogresso,
138
470216
4053
Gli ultimi due secoli hanno portato
un enorme progresso tecnologico,
ma hanno anche portato i rischi globali
di una guerra nucleare
08:06
but they alsoanche broughtportato
the globalglobale risksrischi of nuclearnucleare warguerra
139
474293
2622
08:08
and the possibilitypossibilità
of extremeestremo climateclima changemodificare.
140
476939
2157
e la possibilità di un estremo
cambiamento climatico.
08:11
When we look to the comingvenuta centuriessecoli,
141
479725
1767
Nel guardare ai prossimi secoli,
08:13
we should expectaspettarsi to see
the samestesso patternmodello again.
142
481516
2647
dovremmo aspettarci di vedere
di nuovo lo stesso schema.
08:16
And we can see some radicallyradicalmente
powerfulpotente technologiestecnologie on the horizonorizzonte.
143
484187
3356
Già si vedono all'orizzonte
tecnologie potentissime.
La biologia sintetica potrebbe darci
il potere di creare virus
08:20
SyntheticSintetico biologybiologia mightpotrebbe give us
the powerenergia to createcreare virusesvirus
144
488132
2849
08:23
of unprecedentedinaudito
contagiousnesscontagiosità and lethalityletalità.
145
491005
3047
di contagiosità e letalità
senza precedenti.
08:27
GeoengineeringGeoingegneria mightpotrebbe give us the powerenergia
to dramaticallydrammaticamente alterALTER the earth'sterra di climateclima.
146
495131
4643
La geoingegneria potrebbe consentirci
di alterare fortemente il clima terrestre.
08:31
ArtificialArtificiale intelligenceintelligenza mightpotrebbe give us
the powerenergia to createcreare intelligentintelligente agentsagenti
147
499798
4199
L'intelligenza artificiale potrebbe darci
il potere di creare agenti intelligenti
08:36
with abilitiesabilità greatermaggiore than our ownproprio.
148
504021
2142
con capacità maggiori delle nostre.
08:40
Now, I'm not sayingdetto that any
of these risksrischi are particularlysoprattutto likelyprobabile,
149
508222
3888
Non sto dicendo che questi siano rischi
particolarmente probabili,
08:44
but when there's so much at stakepalo,
150
512134
1644
ma quando c'è così tanto in gioco,
08:45
even smallpiccolo probabilitiesprobabilità
matterimporta a great dealaffare.
151
513802
2967
anche una piccola probabilità
ha molta importanza.
08:49
ImagineImmaginate if you're gettingottenere on a planeaereo
and you're kindgenere of nervousnervoso,
152
517568
3001
Immaginate di salire su un aereo
e di essere un po' nervosi,
e il pilota vi rassicura dicendo che:
08:52
and the pilotpilota reassuresrassicura you by sayingdetto,
153
520593
3444
08:56
"There's only a one-in-a-thousanduno-in-a-mila
chanceopportunità of crashingschiantarsi. Don't worrypreoccupazione."
154
524061
4634
"C'è solo una probabilità su mille
di schiantarsi. Non vi preoccupate."
09:02
Would you feel reassuredtranquillizzato?
155
530157
1554
Vi sentireste rassicurati?
09:04
For these reasonsmotivi, I think that preservingconservazione
the futurefuturo of humanityumanità
156
532509
4088
Per questi motivi, credo che
salvaguardare il futuro dell'umanità
09:08
is amongtra the mostmaggior parte importantimportante problemsi problemi
that we currentlyattualmente faceviso.
157
536621
2984
sia uno dei problemi più importanti
che dobbiamo affrontare oggi.
Ma continuiamo a usare
la cornice di riferimento.
09:12
But let's keep usingutilizzando this frameworkstruttura.
158
540546
2150
09:14
Is this problemproblema neglectedtrascurato?
159
542720
1310
È un problema trascurato?
[Quanto trascurati sono
i rischi esistenziali]
09:18
And I think the answerrisposta is yes,
160
546085
2282
Penso che la risposta sia sì
e questo succede perché i problemi
che riguardano le generazioni future
09:20
and that's because problemsi problemi
that affectinfluenzare futurefuturo generationsgenerazioni
161
548391
3325
09:23
are oftenspesso hugelyenormemente neglectedtrascurato.
162
551740
1651
vengono spesso trascurati.
09:26
Why?
163
554930
1406
Perché?
09:28
Because futurefuturo people
don't participatepartecipare in marketsmercati todayoggi.
164
556360
3478
Perché le persone future
non fanno parte dei mercati di oggi.
09:31
They don't have a votevotazione.
165
559862
1522
Non votano.
09:33
It's not like there's a lobbyatrio
representingche rappresentano the interestsinteressi
166
561931
2673
Non c'è una lobby
che rappresenti gli interessi
09:36
of those bornNato in 2300 ADANNUNCIO.
167
564628
2023
di quelli nati nel 2300 d.C.
09:40
They don't get to influenceinfluenza
the decisionsdecisioni we make todayoggi.
168
568313
3242
Non possono influenzare
le decisioni che prendiamo oggi.
09:43
They're voicelesschi non ha voce.
169
571995
1191
Non hanno voce.
09:46
And that meanssi intende we still spendtrascorrere
a paltryirrisorio amountquantità on these issuesproblemi:
170
574490
3445
Significa che spendiamo ancora
una quantità irrisoria su questi temi:
09:49
nuclearnucleare nonproliferationnon proliferazione,
171
577959
1799
non proliferazione nucleare,
09:51
geoengineeringGeoingegneria, bioriskbiorischio,
172
579782
2330
geoingegneria, rischio biologico,
09:55
artificialartificiale intelligenceintelligenza safetysicurezza.
173
583414
1642
sicurezza dell'intelligenza artificiale.
Sono questioni che ricevono
solo poche decine di milioni di dollari
09:57
All of these receivericevere
only a fewpochi tensdecine of millionsmilioni of dollarsdollari
174
585923
2874
10:00
of philanthropicfilantropico fundingfinanziamento everyogni yearanno.
175
588821
1927
di finanziamenti filantropici all'anno.
10:04
That's tinyminuscolo comparedrispetto
to the 390 billionmiliardo dollarsdollari
176
592044
3929
Che è molto poco
rispetto ai 390 miliardi di dollari
dedicati complessivamente
alla filantropia negli USA.
10:08
that's spentspeso on US philanthropyfilantropia in totaltotale.
177
596790
2261
10:13
The finalfinale aspectaspetto of our frameworkstruttura then:
178
601885
2484
E ora una considerazione finale:
10:17
Is this solvablerisolvibili?
179
605083
1190
è un problema risolvibile?
10:19
I believe it is.
180
607289
1289
Credo di sì.
10:21
You can contributecontribuire with your moneyi soldi,
181
609014
3047
Si può contribuire con soldi,
10:24
your careercarriera or your politicalpolitico engagementFidanzamento.
182
612085
2644
carriera o impegno politico.
10:28
With your moneyi soldi,
you can supportsupporto organizationsorganizzazioni
183
616225
2175
Con i soldi
si possono aiutare organizzazioni
che si concentrano su questi rischi,
10:30
that focusmessa a fuoco on these risksrischi,
184
618424
1302
10:31
like the NuclearNucleare ThreatMinaccia InitiativeIniziativa,
185
619750
2555
come l'iniziativa
contro la minaccia nucleare,
10:34
whichquale campaignscampagne to take nuclearnucleare weaponsArmi
off hair-triggerinnesco per capelli alertmettere in guardia,
186
622329
3660
che si batte per disattivare
le armi nucleari,
10:38
or the BlueBlu Ribbonnastro PanelPannello, whichquale
developssviluppa policypolitica to minimizeminimizzare the damagedanno
187
626013
3571
o il Blue Ribbon Panel, che sviluppa
politiche per ridurre al minimo i danni
10:41
from naturalnaturale and man-madeartificiali pandemicspandemie,
188
629608
2095
da pandemie naturali e artificiali,
10:45
or the CenterCentro for Human-CompatibleCompatibile con l'uomo AIAI,
whichquale does technicaltecnico researchricerca
189
633158
3260
o il centro per una IA umano-compatibile
che fa ricerca tecnica
10:48
to ensuregarantire that AIAI systemssistemi
are safesicuro and reliableaffidabile.
190
636442
2747
per garantire che i sistemi di IA
siano sicuri e affidabili.
10:52
With your politicalpolitico engagementFidanzamento,
191
640652
1516
Con il vostro impegno politico,
10:54
you can votevotazione for candidatescandidati
that carecura about these risksrischi,
192
642192
3096
potete votare per candidati
che si preoccupano di questi rischi,
10:57
and you can supportsupporto
greatermaggiore internationalinternazionale cooperationcooperazione.
193
645312
2586
e potete sostenere
una maggiore cooperazione internazionale.
11:01
And then with your careercarriera,
there is so much that you can do.
194
649767
3542
E poi con la vostra carriera,
c'è molto che si può fare.
11:05
Of coursecorso, we need scientistsscienziati
and policymakersresponsabili politici and organizationorganizzazione leaderscapi,
195
653333
3672
Certo, abbiamo bisogno di scienziati
e di politici e di capi d'azienda,
ma è altrettanto importante
11:09
but just as importantlyimportante,
196
657865
1152
11:11
we alsoanche need accountantscommercialisti
and managersmanager and assistantsassistenti
197
659041
4117
che commercialisti,
dirigenti e assistenti
11:16
to work in these organizationsorganizzazioni
that are tacklingaffrontare these problemsi problemi.
198
664691
3754
lavorino nelle organizzazioni
che cercano di affrontare questi problemi.
11:20
Now, the researchricerca programprogramma
of effectiveefficace altruismaltruismo
199
668469
3492
Il programma di ricerca
dell'altruismo efficace
11:25
is still in its infancyinfanzia,
200
673191
1444
è ancora agli inizi
11:27
and there's still a hugeenorme amountquantità
that we don't know.
201
675262
2524
e c'è ancora tanto che non sappiamo.
11:31
But even with what we'venoi abbiamo learnedimparato so farlontano,
202
679173
2343
Ma anche con ciò
che abbiamo imparato finora,
11:34
we can see that by thinkingpensiero carefullyaccuratamente
203
682748
2183
possiamo vedere che,
pensando attentamente
11:37
and by focusingmessa a fuoco on those problemsi problemi
that are biggrande, solvablerisolvibili and neglectedtrascurato,
204
685494
4873
e focalizzandosi sui problemi
che sono grandi, risolvibili e trascurati,
possiamo fare una differenza davvero
importante per il mondo
11:43
we can make a trulyveramente tremendousenorme
differencedifferenza to the worldmondo
205
691152
2708
11:45
for thousandsmigliaia of yearsanni to come.
206
693884
1631
per migliaia di anni a venire.
11:47
Thank you.
207
695963
1151
Grazie.
11:49
(ApplauseApplausi)
208
697138
4560
(Applausi)
Translated by Paola Forti
Reviewed by Elisabetta Siagri

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com