ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Will MacAskill: ¿Cuáles son los problemas morales más importantes de nuestro tiempo?

Filmed:
2,112,093 views

De todos los problemas a los que se enfrenta la humanidad, ¿en cuál debemos enfocarnos en resolver primero? En una charla convincente sobre cómo mejorar el mundo, el filósofo moral Will MacAskill proporciona un marco para responder a esta pregunta sobre la base de la filosofía del "altruismo efectivo", y comparte ideas para abordar tres temas globales apremiantes.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphgrafico
0
857
1479
Este es un gráfico
00:14
that representsrepresenta the economiceconómico historyhistoria
of humanhumano civilizationcivilización.
1
2360
3659
que representa la historia económica
de la civilización humana.
00:18
[WorldMundo GDPPIB perpor capitacapita
over the last 200,000 yearsaños]
2
6043
2400
[PBI mundial per cápita en
los últimos 200 000 años]
00:23
There's not much going on, is there.
3
11757
2003
No pasa mucho, está ahí.
00:26
For the vastvasto majoritymayoria of humanhumano historyhistoria,
4
14751
2347
Durante la mayor parte
de la historia humana,
00:29
prettybonita much everyonetodo el mundo livedvivió
on the equivalentequivalente of one dollardólar perpor day,
5
17835
4048
casi todos vivían con
el equivalente a un dólar por día,
00:33
and not much changedcambiado.
6
21907
1286
y no mucho cambiaba.
00:36
But then, something
extraordinaryextraordinario happenedsucedió:
7
24757
2777
Pero luego, sucedió algo extraordinario:
00:40
the ScientificCientífico and IndustrialIndustrial RevolutionsRevoluciones.
8
28677
2811
las Revoluciones Científica e Industrial.
00:43
And the basicallybásicamente flatplano graphgrafico you just saw
9
31512
2785
Y el gráfico básicamente plano
que acaban de ver
00:46
transformstransforma into this.
10
34321
2675
se transforma en esto.
00:50
What this graphgrafico meansmedio is that,
in termscondiciones of powerpoder to changecambio the worldmundo,
11
38612
4635
Lo que este gráfico significa es que, en
términos de poder para cambiar el mundo,
00:55
we livevivir in an unprecedentedsin precedentes time
in humanhumano historyhistoria,
12
43271
3438
vivimos en un tiempo sin precedentes
en la historia humana,
00:58
and I believe our ethicalético understandingcomprensión
hasn'tno tiene yettodavía caughtatrapado up with this facthecho.
13
46733
3944
y creo que nuestra comprensión ética
aún no ha alcanzado este hecho.
01:03
The ScientificCientífico and IndustrialIndustrial RevolutionsRevoluciones
14
51716
1984
Las revoluciones científica e industrial
01:05
transformedtransformado bothambos
our understandingcomprensión of the worldmundo
15
53724
2909
transformaron tanto
nuestra comprensión del mundo
01:08
and our abilitycapacidad to alteralterar it.
16
56657
1669
como nuestra habilidad para alterarlo.
01:11
What we need is an ethicalético revolutionrevolución
17
59505
3667
Lo que necesitamos es una revolución ética
01:15
so that we can work out
18
63196
1548
para que podamos entrenar
01:16
how do we use this tremendoustremendo
bountygenerosidad of resourcesrecursos
19
64768
3152
cómo usar esta tremenda
abundancia de recursos
01:19
to improvemejorar the worldmundo.
20
67944
1395
para mejorar el mundo.
01:22
For the last 10 yearsaños,
21
70249
1591
Durante los últimos 10 años,
01:23
my colleaguescolegas and I have developeddesarrollado
a philosophyfilosofía and researchinvestigación programprograma
22
71864
3833
mis colegas y yo hemos desarrollado una
filosofía y un programa de investigación
01:27
that we call effectiveeficaz altruismaltruismo.
23
75721
1835
que llamamos altruismo efectivo.
01:30
It triesintentos to respondresponder
to these radicalradical changescambios in our worldmundo,
24
78366
3595
Intenta responder a estos cambios
radicales en nuestro mundo,
01:33
usesusos evidenceevidencia and carefulcuidadoso reasoningrazonamiento
to try to answerresponder this questionpregunta:
25
81985
4476
usando evidencia y razonamiento cuidadoso
para intentar responder a esta pregunta:
01:40
How can we do the mostmás good?
26
88173
2278
¿Cómo podemos hacer el mayor bien?
01:44
Now, there are manymuchos issuescuestiones
you've got to addressdirección
27
92265
3221
Existen muchos problemas
que hay que abordar
01:47
if you want to tackleentrada this problemproblema:
28
95510
2263
si se quiere afrontar este problema:
01:49
whethersi to do good throughmediante your charitycaridad
29
97797
2031
haciendo el bien mediante caridad
01:51
or your careercarrera
or your politicalpolítico engagementcompromiso,
30
99852
2152
o mediante carrera, compromiso político,
01:54
what programsprogramas to focusatención on,
who to work with.
31
102028
2395
en qué programas enfocarse,
o con quién trabajar.
01:57
But what I want to talk about
32
105624
1476
Pero de lo que quiero hablar
01:59
is what I think is the mostmás
fundamentalfundamental problemproblema.
33
107124
2872
es de lo que creo que es
el problema más fundamental.
02:02
Of all the manymuchos problemsproblemas
that the worldmundo facescaras,
34
110020
2693
De todos los muchos problemas
que enfrenta el mundo,
02:05
whichcual should we be focusedcentrado
on tryingmolesto to solveresolver first?
35
113962
2659
¿cuál deberíamos
tratar de resolver primero?
02:10
Now, I'm going to give you a frameworkmarco de referencia
for thinkingpensando about this questionpregunta,
36
118668
3468
Ahora, voy a darles un marco
para pensar sobre esta pregunta,
02:14
and the frameworkmarco de referencia is very simplesencillo.
37
122160
1936
y el marco es muy simple.
02:16
A problem'sproblemas highermayor priorityprioridad,
38
124842
1699
La mayor prioridad de un problema,
02:19
the biggermás grande, the more easilyfácilmente solvablesoluble
and the more neglecteddescuidado it is.
39
127416
4063
cuanto más grande, más fácil
de resolver y más descuidado es.
02:24
BiggerMás grande is better,
40
132694
1642
Mas grande es mejor,
02:26
because we'venosotros tenemos got more to gainganancia
if we do solveresolver the problemproblema.
41
134360
2841
porque tenemos más que ganar
si resolvemos el problema.
02:30
More easilyfácilmente solvablesoluble is better
42
138221
1569
Más fácil de resolver es mejor
02:31
because I can solveresolver the problemproblema
with lessMenos time or moneydinero.
43
139814
2824
porque puedo resolver el problema
con menos tiempo o dinero.
02:35
And mostmás subtlysutilmente,
44
143737
2063
Y lo más sutil,
02:38
more neglecteddescuidado is better,
because of diminishingmenguante returnsdevoluciones.
45
146681
2849
más descuidado es mejor, debido
a los rendimientos decrecientes.
02:42
The more resourcesrecursos that have alreadyya been
investedinvertido into solvingresolviendo a problemproblema,
46
150285
3714
Cuantos más recursos ya se hayan
invertido para resolver un problema,
02:46
the harderMás fuerte it will be
to make additionaladicional progressProgreso.
47
154023
2905
más difícil será hacer
un progreso adicional.
02:50
Now, the keyllave thing that I want
to leavesalir with you is this frameworkmarco de referencia,
48
158560
4059
Ahora, la clave que quiero
dejarles es este marco,
02:54
so that you can think for yourselftú mismo
49
162643
1984
para que puedan pensar solos
02:56
what are the highestmás alto globalglobal prioritiesprioridades.
50
164651
2321
es cuáles son las prioridades
globales más altas.
02:59
But I and othersotros
in the effectiveeficaz altruismaltruismo communitycomunidad
51
167954
2692
Pero yo y otros en la
comunidad efectiva de altruismo
03:02
have convergedconvergido on threeTres moralmoral issuescuestiones
that we believe are unusuallyextraordinariamente importantimportante,
52
170670
5879
convergimos en tres cuestiones morales
que son inusualmente importantes,
03:08
scorePuntuación unusuallyextraordinariamente well in this frameworkmarco de referencia.
53
176573
2182
puntúan inusualmente bien en este marco.
03:11
First is globalglobal healthsalud.
54
179151
2813
Primero es la salud global.
03:13
This is supersolvablesuperresoluble.
55
181988
2411
Esto es supersolucionable.
03:16
We have an amazingasombroso trackpista recordgrabar
in globalglobal healthsalud.
56
184423
3397
Tenemos una increíble
trayectoria en salud global.
03:19
RatesPrecios of deathmuerte from measlessarampión,
malariamalaria, diarrhealde diarrea diseaseenfermedad
57
187844
5420
Tasas de mortalidad por sarampión,
malaria y enfermedad diarreica
03:25
are down by over 70 percentpor ciento.
58
193288
2246
han bajado en más del 70 %.
03:29
And in 1980, we eradicatederradicado smallpoxviruela.
59
197534
2789
Y en 1980 erradicamos la viruela.
03:33
I estimateestimar we therebyde este modo savedsalvado
over 60 millionmillón livesvive.
60
201815
3667
Estimo que salvamos más
de 60 millones de vidas.
03:37
That's more livesvive savedsalvado
than if we'dmie achievedlogrado worldmundo peacepaz
61
205506
3064
Son más vidas salvadas que si
hubiéramos logrado la paz mundial
03:40
in that samemismo time periodperíodo.
62
208594
1697
en ese mismo período de tiempo.
03:43
On our currentcorriente bestmejor estimatesestimados,
63
211893
2325
En nuestras mejores estimaciones actuales,
podemos salvar una vida distribuyendo
03:46
we can savesalvar a life by distributingdistribuido
long-lastingduradero insecticide-treatedmosquiteros tratados con insecticida bedcama netsredes
64
214242
4128
mosquiteros tratados con
insecticida de larga duración
03:50
for just a fewpocos thousandmil dollarsdólares.
65
218394
1903
por solo unos pocos miles de dólares.
03:52
This is an amazingasombroso opportunityoportunidad.
66
220911
1667
Esta es una oportunidad increíble.
03:55
The secondsegundo biggrande priorityprioridad
is factoryfábrica farmingagricultura.
67
223594
2515
La segunda gran prioridad
es la agricultura industrial.
03:58
This is superneglectedsuperneglected.
68
226681
1563
Esto está supernegado.
04:00
There are 50 billionmil millones landtierra animalsanimales
used everycada yearaño for foodcomida,
69
228768
4143
Hay 50 mil millones de animales terrestres
que se consumen anualmente para comida,
04:05
and the vastvasto majoritymayoria of them
are factoryfábrica farmedcultivado,
70
233625
2548
y la gran mayoría
de esa producción industrial,
04:08
livingvivo in conditionscondiciones
of horrifichorrendo sufferingsufrimiento.
71
236197
2380
vive en condiciones
de sufrimiento horrible.
04:10
They're probablyprobablemente amongentre
the worst-offpeores condiciones creaturescriaturas on this planetplaneta,
72
238601
3151
Quizá estén entre las criaturas
más desfavorecidas de este planeta,
04:13
and in manymuchos casescasos, we could
significantlysignificativamente improvemejorar theirsu livesvive
73
241776
2858
y en muchos casos, podríamos
mejorar significativamente sus vidas
04:16
for just penniescentavos perpor animalanimal.
74
244658
1602
por solo centavos por animal.
04:19
YetTodavía this is hugelyenormemente neglecteddescuidado.
75
247123
2082
Sin embargo, esto está muy descuidado.
04:21
There are 3,000 timesveces
more animalsanimales in factoryfábrica farmsgranjas
76
249229
3810
Hay 3000 veces más animales
en granjas industriales
04:25
than there are strayextraviado petsmascotas,
77
253063
1561
que mascotas callejeras
04:28
but yettodavía, factoryfábrica farmingagricultura getsse pone one fiftiethquincuagésimo
of the philanthropicfilantrópico fundingfondos.
78
256600
4373
pero, aun así,
la agricultura industrial logra
el 15 % de los fondos filantrópicos.
04:34
That meansmedio additionaladicional
resourcesrecursos in this areazona
79
262211
2128
Eso significa que recursos
adicionales aquí
04:36
could have a trulyverdaderamente transformativetransformador impactimpacto.
80
264363
2150
tendrían un impacto
verdaderamente transformador.
04:39
Now the thirdtercero areazona is the one
that I want to focusatención on the mostmás,
81
267458
2985
Ahora, la tercera área es
en la que me quiero enfocar más,
04:42
and that's the categorycategoría
of existentialexistencial risksriesgos:
82
270467
2984
y esa es la categoría
de riesgos existenciales:
04:45
eventseventos like a nuclearnuclear warguerra
or a globalglobal pandemicpandemia
83
273475
3873
eventos como una guerra nuclear
o una pandemia global
04:50
that could permanentlypermanentemente derailhacer descarrilar civilizationcivilización
84
278824
2611
que podría descarrilar
definitivamente la civilización
04:54
or even leaddirigir to the extinctionextinción
of the humanhumano racecarrera.
85
282156
2436
o incluso llevar a la extinción
de la raza humana.
04:57
Let me explainexplique why I think
this is suchtal a biggrande priorityprioridad
86
285882
2540
Permítanme explicar por qué creo
que es una gran prioridad
05:00
in termscondiciones of this frameworkmarco de referencia.
87
288446
1337
en términos de este marco.
05:02
First, sizetamaño.
88
290992
1412
Primero, tamaño.
05:05
How badmalo would it be if there were
a trulyverdaderamente existentialexistencial catastrophecatástrofe?
89
293341
3889
¿Qué tan malo sería si hubiera
una verdadera catástrofe existencial?
05:10
Well, it would involveinvolucrar the deathsmuertes
of all sevensiete billionmil millones people on this planetplaneta
90
298920
6342
Eso implicaría la muerte de los 7 mil
millones de personas de este planeta
05:17
and that meansmedio you
and everyonetodo el mundo you know and love.
91
305286
3119
y eso incluye a Ud.
y a todos los que conoce y ama.
05:21
That's just a tragedytragedia
of unimaginableno imaginable sizetamaño.
92
309214
2579
Es sencillamente una tragedia
de tamaño inimaginable.
05:25
But then, what's more,
93
313684
1976
Pero aún no queda ahí,
05:27
it would alsoademás mean the curtailmentreducción
of humanity'sla humanidad futurefuturo potentialpotencial,
94
315684
3605
también implicaría la reducción
del potencial futuro de la humanidad,
05:31
and I believe that humanity'sla humanidad
potentialpotencial is vastvasto.
95
319313
2952
y creo que el potencial
de la humanidad es enorme.
05:35
The humanhumano racecarrera has been around
for about 200,000 yearsaños,
96
323551
3451
La raza humana ha existido
por alrededor de 200 000 años,
05:39
and if she livesvive as long
as a typicaltípico mammalianmamífero speciesespecies,
97
327026
2883
y si vive tanto como
una típica especie de mamífero,
05:41
she would last
for about two millionmillón yearsaños.
98
329933
2298
duraría alrededor de 2 millones de años.
05:46
If the humanhumano racecarrera
were a singlesoltero individualindividual,
99
334884
2691
Si la raza humana fuera un solo individuo,
05:49
she would be just 10 yearsaños oldantiguo todayhoy.
100
337599
2419
tendría solo 10 años hoy.
05:53
And what's more, the humanhumano racecarrera
isn't a typicaltípico mammalianmamífero speciesespecies.
101
341526
4166
Y lo que es más, la raza humana
no es una especie típica de mamíferos.
05:58
There's no reasonrazón why, if we're carefulcuidadoso,
102
346950
1906
No hay razón por la cual,
si tenemos cuidado,
06:00
we should diemorir off
after only two millionmillón yearsaños.
103
348880
2205
debamos morir después de
solo 2 millones de años.
06:03
The earthtierra will remainpermanecer habitablehabitable
for 500 millionmillón yearsaños to come.
104
351839
4040
La Tierra seguirá siendo habitable
durante 500 millones de años por venir.
06:08
And if somedayalgún día, we tooktomó to the starsestrellas,
105
356696
1944
Y si algún día, llegamos a las estrellas,
06:11
the civilizationcivilización could continuecontinuar
for billionsmiles de millones more.
106
359640
2516
la civilización podría continuar
miles de millones más.
06:16
So I think the futurefuturo
is going to be really biggrande,
107
364193
2388
Y, creo que el futuro será muy grande
06:19
but is it going to be good?
108
367669
1802
pero ¿va a ser bueno?
06:21
Is the humanhumano racecarrera
even really worthvalor preservingconservación?
109
369495
2817
¿Es realmente digna de
preservación la raza humana?
06:26
Well, we hearoír all the time about
how things have been gettingconsiguiendo worsepeor,
110
374540
3929
Escuchamos todo el tiempo
cómo las cosas han empeorado,
06:31
but I think that when
we take the long runcorrer,
111
379459
2693
pero creo que cuando
tomamos el largo plazo,
06:34
things have been gettingconsiguiendo radicallyradicalmente better.
112
382176
2031
las cosas han ido mejorando radicalmente.
06:37
Here, for exampleejemplo,
is life expectancyexpectativa over time.
113
385453
2294
Aquí, por ejemplo, la esperanza
de vida en el tiempo.
06:40
Here'sAquí está the proportionproporción of people
not livingvivo in extremeextremo povertypobreza.
114
388892
3023
Aquí la proporción de personas
que no viven en la pobreza extrema.
06:45
Here'sAquí está the numbernúmero of countriespaíses over time
that have decriminalizeddespenalizado homosexualityhomosexualidad.
115
393106
4095
Aquí el número de países que con el tiempo
han despenalizado la homosexualidad.
06:50
Here'sAquí está the numbernúmero of countriespaíses over time
that have becomevolverse democraticdemocrático.
116
398848
3269
Aquí la cantidad de países que se han
vuelto democracias a lo largo del tiempo.
06:55
Then, when we look to the futurefuturo,
there could be so much more to gainganancia again.
117
403015
4619
Y, al mirar al futuro, podría haber
mucho más para ganar nuevamente.
06:59
We'llBien be so much richermás rico,
118
407658
1228
Seremos mucho más ricos,
07:00
we can solveresolver so manymuchos problemsproblemas
that are intractableintratable todayhoy.
119
408910
3595
podremos resolver muchos problemas
que son intratables hoy.
07:05
So if this is kindtipo of a graphgrafico
of how humanityhumanidad has progressedprogresado
120
413389
4445
Así, si esto es una especie de gráfico
de cómo la humanidad ha progresado
07:09
in termscondiciones of totaltotal humanhumano
flourishingfloreciente over time,
121
417858
2890
en términos de florecimiento
humano total en el tiempo,
07:12
well, this is what we would expectesperar
futurefuturo progressProgreso to look like.
122
420772
3355
bueno, esto es lo que esperaríamos
que fuera el progreso futuro.
07:16
It's vastvasto.
123
424881
1150
Es vasto
07:18
Here, for exampleejemplo,
124
426953
1198
Aquí, por ejemplo,
07:20
is where we would expectesperar no one
to livevivir in extremeextremo povertypobreza.
125
428175
3746
es donde no esperaríamos que
nadie viviera en la pobreza extrema.
07:25
Here is where we would expectesperar
everyonetodo el mundo to be better off
126
433930
3202
Aquí es donde esperamos
que todos estén mejor
07:29
than the richestmás rico personpersona aliveviva todayhoy.
127
437156
1853
que la persona más rica viva hoy.
07:32
PerhapsQuizás here is where we would discoverdescubrir
the fundamentalfundamental naturalnatural lawsleyes
128
440081
3192
Quizás aquí es donde descubriríamos
las leyes naturales fundamentales
07:35
that governgobernar our worldmundo.
129
443297
1268
que gobiernan nuestro mundo.
07:37
PerhapsQuizás here is where we discoverdescubrir
an entirelyenteramente newnuevo formformar of artart,
130
445516
3705
Quizás aquí es donde descubrimos
una forma de arte completamente nueva,
07:41
a formformar of musicmúsica we currentlyactualmente lackausencia
the earsorejas to hearoír.
131
449245
3040
una forma de música que actualmente
no tenemos oídos para escuchar.
07:45
And this is just
the nextsiguiente fewpocos thousandmil yearsaños.
132
453072
2222
Y esto solo son
los próximos miles de años.
07:47
OnceUna vez we think pastpasado that,
133
455827
2205
Una vez que pensamos
más allá de eso, bueno,
07:50
well, we can't even imagineimagina the heightsalturas
that humanhumano accomplishmentlogro mightpodría reachalcanzar.
134
458056
4167
ni siquiera podemos imaginar las alturas
que el logro humano podría alcanzar.
07:54
So the futurefuturo could be very biggrande
and it could be very good,
135
462247
3040
El futuro podría ser muy grande
y podría ser muy bueno,
07:57
but are there waysformas
we could loseperder this valuevalor?
136
465311
2086
pero ¿hay formas en que podamos
perder este valor?
08:00
And sadlytristemente, I think there are.
137
468366
1826
Y lamentablemente, creo que las hay.
08:02
The last two centuriessiglos broughttrajo
tremendoustremendo technologicaltecnológico progressProgreso,
138
470216
4053
Los últimos dos siglos trajeron
un tremendo progreso tecnológico,
pero también trajeron los riesgos
globales de la guerra nuclear
08:06
but they alsoademás broughttrajo
the globalglobal risksriesgos of nuclearnuclear warguerra
139
474293
2622
08:08
and the possibilityposibilidad
of extremeextremo climateclima changecambio.
140
476939
2157
y la posibilidad de
un cambio climático extremo.
08:11
When we look to the comingviniendo centuriessiglos,
141
479725
1767
Cuando miramos a los siglos venideros,
08:13
we should expectesperar to see
the samemismo patternpatrón again.
142
481516
2647
deberíamos esperar ver
el mismo patrón de nuevo.
08:16
And we can see some radicallyradicalmente
powerfulpoderoso technologiestecnologías on the horizonhorizonte.
143
484187
3356
Y podemos ver algunas tecnologías
radicalmente poderosas en el horizonte.
08:20
SyntheticSintético biologybiología mightpodría give us
the powerpoder to createcrear virusesvirus
144
488132
2849
La biología sintética podría darnos
el poder de crear virus
08:23
of unprecedentedsin precedentes
contagiousnesscontagiosidad and lethalityletalidad.
145
491005
3047
de contagio y letalidad sin precedentes.
08:27
GeoengineeringGeoingeniería mightpodría give us the powerpoder
to dramaticallydramáticamente alteralterar the earth'sla tierra climateclima.
146
495131
4643
La geoingeniería podría darnos el poder de
alterar drásticamente el clima terrestre.
08:31
ArtificialArtificial intelligenceinteligencia mightpodría give us
the powerpoder to createcrear intelligentinteligente agentsagentes
147
499798
4199
La inteligencia artificial podría darnos
el poder de crear agentes inteligentes
08:36
with abilitieshabilidades greatermayor than our ownpropio.
148
504021
2142
con habilidades mayores que la nuestra.
08:40
Now, I'm not sayingdiciendo that any
of these risksriesgos are particularlyparticularmente likelyprobable,
149
508222
3888
No estoy diciendo que ninguno de estos
riesgos sea particularmente probable,
pero cuando hay mucho en juego,
08:44
but when there's so much at stakeestaca,
150
512134
1644
08:45
even smallpequeña probabilitiesprobabilidades
matterimportar a great dealacuerdo.
151
513802
2967
incluso las pequeñas
probabilidades importan mucho.
08:49
ImagineImagina if you're gettingconsiguiendo on a planeavión
and you're kindtipo of nervousnervioso,
152
517568
3001
Imaginen si se suben a un avión
y están nerviosos,
y el piloto los tranquiliza diciendo,
08:52
and the pilotpiloto reassurestranquiliza you by sayingdiciendo,
153
520593
3444
08:56
"There's only a one-in-a-thousanduno en mil
chanceoportunidad of crashingestrellarse. Don't worrypreocupación."
154
524061
4634
"Solo hay una posibilidad de chocar
entre mil. No se preocupen".
09:02
Would you feel reassuredTranquilizado?
155
530157
1554
¿Se sentirían seguros?
09:04
For these reasonsrazones, I think that preservingconservación
the futurefuturo of humanityhumanidad
156
532509
4088
Por estas razones, creo que preservar
el futuro de la humanidad
09:08
is amongentre the mostmás importantimportante problemsproblemas
that we currentlyactualmente facecara.
157
536621
2984
es uno de los problemas más importantes
que enfrentamos actualmente.
09:12
But let's keep usingutilizando this frameworkmarco de referencia.
158
540546
2150
Pero sigamos usando este marco.
09:14
Is this problemproblema neglecteddescuidado?
159
542720
1310
¿Este problema se descuida?
09:18
And I think the answerresponder is yes,
160
546085
2282
Creo que la respuesta es sí,
09:20
and that's because problemsproblemas
that affectafectar futurefuturo generationsgeneraciones
161
548391
3325
y eso es porque los problemas que
afectan a las generaciones futuras
09:23
are oftena menudo hugelyenormemente neglecteddescuidado.
162
551740
1651
a menudo son enormemente descuidados.
09:26
Why?
163
554930
1406
¿Por qué?
09:28
Because futurefuturo people
don't participateparticipar in marketsmercados todayhoy.
164
556360
3478
Porque la gente del futuro
no participa en los mercados de hoy.
09:31
They don't have a votevotar.
165
559862
1522
No tienen voto.
09:33
It's not like there's a lobbyvestíbulo
representingrepresentando the interestsintereses
166
561931
2673
No es que haya algo como un lobby
que represente los intereses
09:36
of those bornnacido in 2300 ADANUNCIO.
167
564628
2023
de los nacidos en 2300 AD.
09:40
They don't get to influenceinfluencia
the decisionsdecisiones we make todayhoy.
168
568313
3242
No influyen en las decisiones
que tomamos hoy.
09:43
They're voicelesssin voz.
169
571995
1191
No tienen voz.
09:46
And that meansmedio we still spendgastar
a paltrymiserable amountcantidad on these issuescuestiones:
170
574490
3445
Y eso significa que aún gastamos una
cantidad miserable en estos temas:
09:49
nuclearnuclear nonproliferationno proliferación,
171
577959
1799
no proliferación nuclear,
09:51
geoengineeringgeoingeniería, bioriskbiorisk,
172
579782
2330
geoingeniería, riesgo biológico,
09:55
artificialartificial intelligenceinteligencia safetyla seguridad.
173
583414
1642
inteligencia artificial segura.
09:57
All of these receiverecibir
only a fewpocos tensdecenas of millionsmillones of dollarsdólares
174
585923
2874
Todos estos reciben solo unas pocas
decenas de millones de dólares
10:00
of philanthropicfilantrópico fundingfondos everycada yearaño.
175
588821
1927
de financiación filantrópica cada año.
10:04
That's tinyminúsculo comparedcomparado
to the 390 billionmil millones dollarsdólares
176
592044
3929
Eso es muy pequeño en comparación
con los USD 390 mil millones
10:08
that's spentgastado on US philanthropyfilantropía in totaltotal.
177
596790
2261
que se gasta en filantropía
estadounidense en total.
10:13
The finalfinal aspectaspecto of our frameworkmarco de referencia then:
178
601885
2484
El aspecto final de nuestro marco
10:17
Is this solvablesoluble?
179
605083
1190
¿es solucionable?
10:19
I believe it is.
180
607289
1289
Yo creo que lo es.
10:21
You can contributecontribuir with your moneydinero,
181
609014
3047
Pueden contribuir con su dinero,
10:24
your careercarrera or your politicalpolítico engagementcompromiso.
182
612085
2644
su carrera o su compromiso político.
10:28
With your moneydinero,
you can supportapoyo organizationsorganizaciones
183
616225
2175
Con su dinero, pueden
apoyar organizaciones
que se enfocan en estos riesgos,
10:30
that focusatención on these risksriesgos,
184
618424
1302
10:31
like the NuclearNuclear ThreatAmenaza InitiativeIniciativa,
185
619750
2555
como la Iniciativa de Amenaza Nuclear,
10:34
whichcual campaignscampañas to take nuclearnuclear weaponsarmas
off hair-triggerpendía alertalerta,
186
622329
3660
que hace campaña para sacar las
armas nucleares de la alerta de disparo,
10:38
or the BlueAzul RibbonCinta PanelPanel, whichcual
developsdesarrolla policypolítica to minimizeminimizar the damagedañar
187
626013
3571
o el Blue Ribbon Panel, que desarrolla
políticas para minimizar el daño
10:41
from naturalnatural and man-madeartificial pandemicspandemias,
188
629608
2095
de pandemias naturales y artificiales,
10:45
or the CenterCentrar for Human-CompatibleHumanos compatibles con AIAI,
whichcual does technicaltécnico researchinvestigación
189
633158
3260
o el Centro para la IA humana-compatible,
que hace investigación técnica
10:48
to ensureasegurar that AIAI systemssistemas
are safeseguro and reliablede confianza.
190
636442
2747
para garantizar que los sistemas
de IA sean seguros y confiables.
10:52
With your politicalpolítico engagementcompromiso,
191
640652
1516
Con su compromiso político,
10:54
you can votevotar for candidatescandidatos
that carecuidado about these risksriesgos,
192
642192
3096
pueden votar por candidatos
que se preocupan por estos riesgos,
10:57
and you can supportapoyo
greatermayor internationalinternacional cooperationcooperación.
193
645312
2586
y pueden apoyar
una mayor cooperación internacional.
11:01
And then with your careercarrera,
there is so much that you can do.
194
649767
3542
Y luego, con su carrera,
hay mucho que pueden hacer.
11:05
Of coursecurso, we need scientistscientíficos
and policymakersResponsables políticos and organizationorganización leaderslíderes,
195
653333
3672
Por supuesto, necesitamos científicos,
políticos y líderes de organizaciones,
11:09
but just as importantlyen tono rimbombante,
196
657865
1152
pero igual de importante,
11:11
we alsoademás need accountantscontadores
and managersgerentes and assistantsasistentes
197
659041
4117
también necesitamos contadores,
gerentes y asistentes
11:16
to work in these organizationsorganizaciones
that are tacklingabordando these problemsproblemas.
198
664691
3754
para trabajar en estas organizaciones
que están abordando estos problemas.
11:20
Now, the researchinvestigación programprograma
of effectiveeficaz altruismaltruismo
199
668469
3492
Ahora, el programa de investigación
de altruismo efectivo
11:25
is still in its infancyinfancia,
200
673191
1444
todavía está en su infancia,
11:27
and there's still a hugeenorme amountcantidad
that we don't know.
201
675262
2524
y todavía hay una gran cantidad
que no sabemos.
11:31
But even with what we'venosotros tenemos learnedaprendido so farlejos,
202
679173
2343
Pero incluso con lo que
hemos aprendido hasta ahora,
11:34
we can see that by thinkingpensando carefullycuidadosamente
203
682748
2183
podemos ver eso pensando con cuidado
11:37
and by focusingenfoque on those problemsproblemas
that are biggrande, solvablesoluble and neglecteddescuidado,
204
685494
4873
y al enfocarnos en aquellos problemas que
son grandes, solucionables y descuidados,
11:43
we can make a trulyverdaderamente tremendoustremendo
differencediferencia to the worldmundo
205
691152
2708
podemos marcar
una gran diferencia en el mundo
11:45
for thousandsmiles of yearsaños to come.
206
693884
1631
para los miles de años por venir.
11:47
Thank you.
207
695963
1151
Gracias.
11:49
(ApplauseAplausos)
208
697138
4560
(Aplausos)
Translated by Ciro Gomez
Reviewed by Lidia Cámara de la Fuente

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com