ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Will MacAskill: Quels sont les problèmes moraux les plus importants de notre époque ?

Filmed:
2,112,093 views

Parmi tous les problèmes auxquels l'humanité fait face, sur la résolution desquels devrions-nous d'abord nous concentrer ? Dans une intervention fascinante sur la manière dont nous pouvons rendre le monde meilleur, le philosophe spécialiste d'éthique Will MacAskill nous offre un cadre pour répondre à cette question, en se basant sur la philosophie de « l'altruisme efficace » et partage des idées sur la manière dont nous pouvons nous attaquer à trois problèmes mondiaux très urgents.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphgraphique
0
857
1479
Voici un graphique
00:14
that representsreprésente the economicéconomique historyhistoire
of humanHumain civilizationcivilisation.
1
2360
3659
qui représente l'histoire économique
de la civilisation humaine.
00:18
[WorldMonde GDPPIB perpar capitatête
over the last 200,000 yearsannées]
2
6043
2400
[PIB mondial par habitant
durant les 200 000 dernières années]
00:23
There's not much going on, is there.
3
11757
2003
On n'y voit pas grand chose,
n'est-ce pas ?
00:26
For the vastvaste majoritymajorité of humanHumain historyhistoire,
4
14751
2347
Durant la grande majorité
de l'histoire humaine,
00:29
prettyjoli much everyonetoutes les personnes livedvivait
on the equivalentéquivalent of one dollardollar perpar day,
5
17835
4048
presque tout le monde a vécu
avec l'équivalent d'un dollar par jour
00:33
and not much changedmodifié.
6
21907
1286
et peu de choses changeaient.
00:36
But then, something
extraordinaryextraordinaire happenedarrivé:
7
24757
2777
Mais il s'est ensuite produit
quelque chose d'extraordinaire :
00:40
the ScientificScientifique and IndustrialIndustriel RevolutionsRévolutions.
8
28677
2811
les révolutions scientifique
et industrielle.
00:43
And the basicallyen gros flatappartement graphgraphique you just saw
9
31512
2785
Et le graphique franchement plat
que vous venez de voir
00:46
transformsse transforme into this.
10
34321
2675
s'est transformé en ceci.
00:50
What this graphgraphique meansveux dire is that,
in termstermes of powerPuissance to changechangement the worldmonde,
11
38612
4635
Ce graphique signifie qu'en termes
de capacité à changer le monde,
00:55
we livevivre in an unprecedentedsans précédent time
in humanHumain historyhistoire,
12
43271
3438
nous vivons une ère sans précédent
dans l'histoire de l'humanité
00:58
and I believe our ethicaléthique understandingcompréhension
hasn'tn'a pas yetencore caughtpris up with this factfait.
13
46733
3944
et, selon moi, notre compréhension éthique
n'a pas encore rattrapé son retard.
01:03
The ScientificScientifique and IndustrialIndustriel RevolutionsRévolutions
14
51716
1984
Les révolutions scientifique
et industrielle
01:05
transformedtransformé bothtous les deux
our understandingcompréhension of the worldmonde
15
53724
2909
ont transformé
notre compréhension du monde
01:08
and our abilitycapacité to altermodifier it.
16
56657
1669
et notre capacité à le changer.
01:11
What we need is an ethicaléthique revolutionrévolution
17
59505
3667
Nous avons besoin d'une révolution éthique
01:15
so that we can work out
18
63196
1548
afin de pouvoir déterminer
01:16
how do we use this tremendousénorme
bountyprime of resourcesRessources
19
64768
3152
comment utiliser cette extraordinaire
abondance de ressources
01:19
to improveaméliorer the worldmonde.
20
67944
1395
pour améliorer le monde.
01:22
For the last 10 yearsannées,
21
70249
1591
Pendant ces 10 dernières années,
01:23
my colleaguescollègues and I have developeddéveloppé
a philosophyphilosophie and researchrecherche programprogramme
22
71864
3833
mes collègues et moi avons développé
un programme de philosophie
et de recherche
01:27
that we call effectiveefficace altruismaltruisme.
23
75721
1835
que nous appelons altruisme efficace.
01:30
It triesessais to respondrépondre
to these radicalradical changeschangements in our worldmonde,
24
78366
3595
Il essaie de répondre
à ces changements radicaux de notre monde
01:33
usesles usages evidencepreuve and carefulprudent reasoningraisonnement
to try to answerrépondre this questionquestion:
25
81985
4476
en utilisant des indices
et un raisonnement minutieux
pour essayer de répondre
à cette question :
01:40
How can we do the mostles plus good?
26
88173
2278
comment pouvons-nous
faire le plus de bien ?
01:44
Now, there are manybeaucoup issuesproblèmes
you've got to addressadresse
27
92265
3221
Il y a beaucoup de questions à aborder
01:47
if you want to tackletacle this problemproblème:
28
95510
2263
si vous voulez vous attaquer
à ce problème :
01:49
whetherqu'il s'agisse to do good throughpar your charitycharité
29
97797
2031
faire du bien de façon caritative,
01:51
or your careercarrière
or your politicalpolitique engagementengagement,
30
99852
2152
par votre carrière
ou votre engagement politique,
01:54
what programsprogrammes to focusconcentrer on,
who to work with.
31
102028
2395
sur quels programmes se concentrer,
avec qui travailler.
01:57
But what I want to talk about
32
105624
1476
Mais ce dont je veux parler
01:59
is what I think is the mostles plus
fundamentalfondamental problemproblème.
33
107124
2872
est ce qui est, à mon avis,
le problème le plus fondamental.
02:02
Of all the manybeaucoup problemsproblèmes
that the worldmonde facesvisages,
34
110020
2693
De tous les problèmes
auxquels le monde fait face,
02:05
whichlequel should we be focusedconcentré
on tryingen essayant to solverésoudre first?
35
113962
2659
sur la résolution duquel
devrions-nous nous concentrer ?
02:10
Now, I'm going to give you a frameworkcadre
for thinkingen pensant about this questionquestion,
36
118668
3468
Je vais vous donner un cadre
pour réfléchir à cette question
02:14
and the frameworkcadre is very simplesimple.
37
122160
1936
et ce cadre est très simple.
02:16
A problem'sde problème higherplus haute prioritypriorité,
38
124842
1699
La priorité d'un problème
se définit en fonction
02:19
the biggerplus gros, the more easilyfacilement solvablerésoluble
and the more neglectednégligé it is.
39
127416
4063
de son importance,
de sa facilité de résolution,
et de la manière dont il est négligé.
02:24
BiggerPlus grand is better,
40
132694
1642
Plus il est important, mieux c'est,
02:26
because we'venous avons got more to gainGain
if we do solverésoudre the problemproblème.
41
134360
2841
car nous avons plus à gagner
à résoudre le problème.
02:30
More easilyfacilement solvablerésoluble is better
42
138221
1569
Plus sa résolution est simple,
mieux c'est,
02:31
because I can solverésoudre the problemproblème
with lessMoins time or moneyargent.
43
139814
2824
car je peux résoudre le problème
avec moins de temps et d'argent.
02:35
And mostles plus subtlysubtilement,
44
143737
2063
Et de façon plus subtile,
02:38
more neglectednégligé is better,
because of diminishingdiminuer returnsrésultats.
45
146681
2849
moins on s'y intéresse, mieux c'est,
du fait des rendements décroissants.
02:42
The more resourcesRessources that have alreadydéjà been
investedinvesti into solvingrésoudre a problemproblème,
46
150285
3714
Plus il y a eu de ressources investies
dans la résolution d'un problème,
02:46
the harderPlus fort it will be
to make additionalsupplémentaires progressle progrès.
47
154023
2905
plus il sera difficile de progresser.
02:50
Now, the keyclé thing that I want
to leavelaisser with you is this frameworkcadre,
48
158560
4059
Ce que je veux que vous reteniez
c'est ce cadre,
02:54
so that you can think for yourselftoi même
49
162643
1984
afin que vous réfléchissiez par vous-même
02:56
what are the highestle plus élevé globalglobal prioritiespriorités.
50
164651
2321
aux priorités mondiales.
02:59
But I and othersautres
in the effectiveefficace altruismaltruisme communitycommunauté
51
167954
2692
Mais des gens de la communauté
de l'altruisme efficace et moi-même
03:02
have convergedconvergé on threeTrois moralmoral issuesproblèmes
that we believe are unusuallyinhabituellement importantimportant,
52
170670
5879
sommes tombés d'accord
sur trois questions morales
que nous pensons
particulièrement importantes,
03:08
scoreBut unusuallyinhabituellement well in this frameworkcadre.
53
176573
2182
qui obtiennent un score
très élevé dans ce cadre.
03:11
First is globalglobal healthsanté.
54
179151
2813
Tout d'abord, la santé mondiale.
03:13
This is supersolvablesupersolvable.
55
181988
2411
Cela peut tout à fait être résolu.
03:16
We have an amazingincroyable trackPiste recordrecord
in globalglobal healthsanté.
56
184423
3397
Nous avons un excellent palmarès
en ce qui concerne la santé mondiale.
03:19
RatesTarifs of deathdécès from measlesrougeole,
malariapaludisme, diarrhealdiarrhéiques diseasemaladie
57
187844
5420
Les taux de mortalité liés à la rougeole,
à la malaria, aux maladies diarrhéiques
03:25
are down by over 70 percentpour cent.
58
193288
2246
ont chuté de plus de 70%.
03:29
And in 1980, we eradicatedéradiqué smallpoxvariole.
59
197534
2789
En 1980, nous avons éradiqué la variole.
03:33
I estimateestimation we therebyainsi savedenregistré
over 60 millionmillion livesvies.
60
201815
3667
J'estime que nous avons ainsi
sauvé plus de 60 millions de vies.
03:37
That's more livesvies savedenregistré
than if we'dmer achievedatteint worldmonde peacepaix
61
205506
3064
Ce sont plus de vies sauvées
qu'avec la paix dans le monde
03:40
in that sameMême time periodpériode.
62
208594
1697
obtenue durant la même période.
03:43
On our currentactuel bestmeilleur estimatesestimations,
63
211893
2325
D'après nos meilleures estimations,
03:46
we can saveenregistrer a life by distributingdistribution
long-lastinglongue durée insecticide-treatedmoustiquaires imprégnées d’insecticide bedlit netsfilets
64
214242
4128
nous pouvons sauver une vie en distribuant
des moustiquaires traitées durablement
03:50
for just a fewpeu thousandmille dollarsdollars.
65
218394
1903
pour seulement quelques milliers
de dollars.
03:52
This is an amazingincroyable opportunityopportunité.
66
220911
1667
C'est une super opportunité.
03:55
The secondseconde biggros prioritypriorité
is factoryusine farmingagriculture.
67
223594
2515
La deuxième priorité
est l'élevage industriel.
03:58
This is superneglectedsuperneglected.
68
226681
1563
Personne ne s'y intéresse.
04:00
There are 50 billionmilliard landterre animalsanimaux
used everychaque yearan for foodaliments,
69
228768
4143
Cinquante milliards d'animaux terrestres
sont utilisés par an pour l'alimentation
et la majorité d'entre eux
sont élevés industriellement,
04:05
and the vastvaste majoritymajorité of them
are factoryusine farmedd’élevage,
70
233625
2548
04:08
livingvivant in conditionsconditions
of horrifichorrible sufferingSouffrance.
71
236197
2380
en vivant dans d'atroces souffrances.
04:10
They're probablyProbablement amongparmi
the worst-offplus démunis creaturescréatures on this planetplanète,
72
238601
3151
Ils font probablement partie
des créatures les plus mal loties
04:13
and in manybeaucoup casescas, we could
significantlysignificativement improveaméliorer theirleur livesvies
73
241776
2858
et souvent, nous pourrions
grandement améliorer leur vie
04:16
for just penniesquelques centimes perpar animalanimal.
74
244658
1602
pour quelques centimes par animal.
04:19
YetEncore this is hugelyénormement neglectednégligé.
75
247123
2082
Mais très peu de gens s'y intéressent.
04:21
There are 3,000 timesfois
more animalsanimaux in factoryusine farmsfermes
76
249229
3810
Il y a 3 000 fois plus d'animaux
en élevage industriel
04:25
than there are strayerrants petsanimaux de compagnie,
77
253063
1561
qu'il n'y a d'animaux errants
04:28
but yetencore, factoryusine farmingagriculture getsobtient one fiftiethcinquantième
of the philanthropicphilanthropique fundingfinancement.
78
256600
4373
mais l'élevage industriel
n'obtient qu'un cinquantième
du financement philanthrope.
04:34
That meansveux dire additionalsupplémentaires
resourcesRessources in this arearégion
79
262211
2128
Des ressources supplémentaires
dans ce domaine
04:36
could have a trulyvraiment transformativetransformatrices impactimpact.
80
264363
2150
pourraient avoir un effet transformateur.
04:39
Now the thirdtroisième arearégion is the one
that I want to focusconcentrer on the mostles plus,
81
267458
2985
Le troisième domaine est celui sur lequel
je veux me concentrer,
04:42
and that's the categoryCatégorie
of existentialexistentiel risksrisques:
82
270467
2984
et c'est la catégorie
des risques existentiels :
04:45
eventsévénements like a nuclearnucléaire warguerre
or a globalglobal pandemicpandémie
83
273475
3873
des événements tels
qu'une guerre nucléaire
ou une pandémie mondiale,
04:50
that could permanentlyen permanence derailDérailleur civilizationcivilisation
84
278824
2611
qui pourraient faire altérer
définitivement la civilisation
04:54
or even leadconduire to the extinctionextinction
of the humanHumain racecourse.
85
282156
2436
ou mener à l'extinction
de la race humaine.
04:57
Let me explainExplique why I think
this is suchtel a biggros prioritypriorité
86
285882
2540
Laissez-moi vous expliquer pourquoi
c'est une telle priorité
05:00
in termstermes of this frameworkcadre.
87
288446
1337
dans ce cadre.
05:02
First, sizeTaille.
88
290992
1412
Un : son importance.
05:05
How badmal would it be if there were
a trulyvraiment existentialexistentiel catastrophecatastrophe?
89
293341
3889
Quel serait vraiment l'impact s'il y avait
une catastrophe existentielle ?
05:10
Well, it would involveimpliquer the deathsdes morts
of all sevenSept billionmilliard people on this planetplanète
90
298920
6342
Cela impliquerait la mort
des sept milliards de personnes sur Terre,
05:17
and that meansveux dire you
and everyonetoutes les personnes you know and love.
91
305286
3119
cela signifie vous et tous ceux
que vous connaissez et aimez.
05:21
That's just a tragedyla tragédie
of unimaginableinimaginable sizeTaille.
92
309214
2579
C'est une tragédie
dont l'importance est inimaginable.
05:25
But then, what's more,
93
313684
1976
En plus de ça,
05:27
it would alsoaussi mean the curtailmentréduction
of humanity'sl'humanité futureavenir potentialpotentiel,
94
315684
3605
cela signifierait aussi une réduction
du futur potentiel humain
05:31
and I believe that humanity'sl'humanité
potentialpotentiel is vastvaste.
95
319313
2952
et je crois que le potentiel
de l'humanité est vaste.
05:35
The humanHumain racecourse has been around
for about 200,000 yearsannées,
96
323551
3451
La race humaine existe
depuis environ 200 000 ans
05:39
and if she livesvies as long
as a typicaltypique mammalianchez les mammifères speciesespèce,
97
327026
2883
et si elle vivait aussi longtemps
qu'un mammifère en général,
05:41
she would last
for about two millionmillion yearsannées.
98
329933
2298
elle subsisterait environ
deux millions d'années.
05:46
If the humanHumain racecourse
were a singleunique individualindividuel,
99
334884
2691
Si la race humaine était un seul individu,
05:49
she would be just 10 yearsannées oldvieux todayaujourd'hui.
100
337599
2419
elle aurait environ 10 ans aujourd'hui.
05:53
And what's more, the humanHumain racecourse
isn't a typicaltypique mammalianchez les mammifères speciesespèce.
101
341526
4166
Et, en réalité, l'Humain n'est pas
un mammifère comme les autres.
05:58
There's no reasonraison why, if we're carefulprudent,
102
346950
1906
Si nous faisons attention,
il n'y a pas de raison
06:00
we should diemourir off
after only two millionmillion yearsannées.
103
348880
2205
que nous nous éteignions
après deux millions d'années.
06:03
The earthTerre will remainrester habitablehabitables
for 500 millionmillion yearsannées to come.
104
351839
4040
La Terre restera encore habitable
pendant 500 millions d'années.
06:08
And if somedayun jour, we tooka pris to the starsétoiles,
105
356696
1944
Et si nous allions dans les étoiles,
06:11
the civilizationcivilisation could continuecontinuer
for billionsdes milliards more.
106
359640
2516
la civilisation pourrait continuer
des milliards d'années.
06:16
So I think the futureavenir
is going to be really biggros,
107
364193
2388
Je pense que l'avenir sera très long,
06:19
but is it going to be good?
108
367669
1802
mais sera-t-il un bel avenir ?
06:21
Is the humanHumain racecourse
even really worthvaut preservingpréservant?
109
369495
2817
La race humaine mérite-t-elle
d'être sauvée ?
06:26
Well, we hearentendre all the time about
how things have been gettingobtenir worsepire,
110
374540
3929
Nous entendons dire constamment
combien les choses empirent,
06:31
but I think that when
we take the long runcourir,
111
379459
2693
mais quand nous considérons le long terme,
06:34
things have been gettingobtenir radicallyradicalement better.
112
382176
2031
les choses se sont
radicalement améliorées.
06:37
Here, for exampleExemple,
is life expectancyattente over time.
113
385453
2294
Voici, par exemple,
l'espérance de vie au cours du temps.
06:40
Here'sVoici the proportionproportion of people
not livingvivant in extremeextrême povertyla pauvreté.
114
388892
3023
Voici la proportion de la population
ne vivant pas dans l'extrême pauvreté.
06:45
Here'sVoici the numbernombre of countriesdes pays over time
that have decriminalizeddépénalisée homosexualityhomosexualité.
115
393106
4095
Voici le nombre de pays qui ont
décriminalisé l'homosexualité.
06:50
Here'sVoici the numbernombre of countriesdes pays over time
that have becomedevenir democraticdémocratique.
116
398848
3269
Voici le nombre de pays
qui sont devenus démocratiques.
06:55
Then, when we look to the futureavenir,
there could be so much more to gainGain again.
117
403015
4619
En nous tournant vers l'avenir,
il pourrait y avoir tant à gagner.
Nous serons tellement plus riches,
06:59
We'llNous allons be so much richerplus riche,
118
407658
1228
07:00
we can solverésoudre so manybeaucoup problemsproblèmes
that are intractableinsolubles todayaujourd'hui.
119
408910
3595
nous pourrons résoudre tant de problèmes
qui sont insolubles aujourd'hui.
07:05
So if this is kindgentil of a graphgraphique
of how humanityhumanité has progresseda progressé
120
413389
4445
Voici un graphique représentant
la manière dont l'humanité a progressé
07:09
in termstermes of totaltotal humanHumain
flourishingen plein essor over time,
121
417858
2890
en termes d'épanouissement
humain au fil du temps.
07:12
well, this is what we would expectattendre
futureavenir progressle progrès to look like.
122
420772
3355
Voici ce à quoi nous espérons que
les progrès futurs ressembleront.
07:16
It's vastvaste.
123
424881
1150
C'est immense !
07:18
Here, for exampleExemple,
124
426953
1198
Ici, par exemple,
07:20
is where we would expectattendre no one
to livevivre in extremeextrême povertyla pauvreté.
125
428175
3746
nous nous attendons à ce que personne
ne vive dans une extrême pauvreté.
07:25
Here is where we would expectattendre
everyonetoutes les personnes to be better off
126
433930
3202
Ici, nous nous attendons
à ce que tout le monde soit mieux loti
07:29
than the richestle plus riche personla personne alivevivant todayaujourd'hui.
127
437156
1853
que la personne la plus riche
actuellement en vie.
07:32
PerhapsPeut-être here is where we would discoverdécouvrir
the fundamentalfondamental naturalNaturel lawslois
128
440081
3192
Peut-être qu'ici nous découvrirons
les lois fondamentales de la nature
07:35
that governgouverne our worldmonde.
129
443297
1268
qui régissent notre monde.
07:37
PerhapsPeut-être here is where we discoverdécouvrir
an entirelyentièrement newNouveau formforme of artart,
130
445516
3705
Peut-être qu'ici nous découvrirons
une toute nouvelle forme d'art,
07:41
a formforme of musicla musique we currentlyactuellement lackmanquer de
the earsoreilles to hearentendre.
131
449245
3040
une forme de musique
que nos oreilles n'entendent pas.
07:45
And this is just
the nextprochain fewpeu thousandmille yearsannées.
132
453072
2222
Ce ne sont que les quelques
prochains milliers d'années.
07:47
OnceFois we think pastpassé that,
133
455827
2205
Si nous voyons au-delà,
07:50
well, we can't even imagineimaginer the heightshauteurs
that humanHumain accomplishmentaccomplissement mightpourrait reachatteindre.
134
458056
4167
nous ne pouvons pas imaginer les sommets
atteints par les exploits de l'humanité.
07:54
So the futureavenir could be very biggros
and it could be very good,
135
462247
3040
L'avenir pourrait être long et très beau,
07:57
but are there waysfaçons
we could loseperdre this valuevaleur?
136
465311
2086
mais pourrions-nous perdre cette qualité ?
08:00
And sadlyMalheureusement, I think there are.
137
468366
1826
Malheureusement, je crois que oui.
08:02
The last two centuriesdes siècles broughtapporté
tremendousénorme technologicaltechnologique progressle progrès,
138
470216
4053
Les deux derniers siècles ont apporté
des progrès technologiques énormes
08:06
but they alsoaussi broughtapporté
the globalglobal risksrisques of nuclearnucléaire warguerre
139
474293
2622
mais aussi les risques mondiaux
d'une guerre nucléaire
08:08
and the possibilitypossibilité
of extremeextrême climateclimat changechangement.
140
476939
2157
et la possibilité d'un changement
climatique extrême.
08:11
When we look to the comingvenir centuriesdes siècles,
141
479725
1767
Quand nous pensons aux siècles à venir,
08:13
we should expectattendre to see
the sameMême patternmodèle again.
142
481516
2647
nous devrions nous attendre
à revoir cette tendance.
08:16
And we can see some radicallyradicalement
powerfulpuissant technologiesles technologies on the horizonhorizon.
143
484187
3356
Nous pouvons voir les technologies
extrêmement puissantes à venir.
08:20
SyntheticSynthétique biologyla biologie mightpourrait give us
the powerPuissance to createcréer virusesles virus
144
488132
2849
La biologie synthétique
nous permettra de créer des virus
08:23
of unprecedentedsans précédent
contagiousnesscontagiosité and lethalitylétalité.
145
491005
3047
d'une capacité à contaminer
et à tuer sans précédent.
08:27
GeoengineeringGéo-ingénierie mightpourrait give us the powerPuissance
to dramaticallydramatiquement altermodifier the earth'sTerre climateclimat.
146
495131
4643
La géo-ingénierie nous permettra
de changer drastiquement
le climat de la Terre.
08:31
ArtificialArtificiel intelligenceintelligence mightpourrait give us
the powerPuissance to createcréer intelligentintelligent agentsagents
147
499798
4199
L'intelligence artificielle nous permettra
de créer des agents intelligents
08:36
with abilitiescapacités greaterplus grand than our ownposséder.
148
504021
2142
aux capacités bien supérieures aux nôtres.
08:40
Now, I'm not sayingen disant that any
of these risksrisques are particularlyparticulièrement likelyprobable,
149
508222
3888
Je ne dis pas qu'un de ces risques
est particulièrement probable,
08:44
but when there's so much at stakepieu,
150
512134
1644
mais il y a tant de choses en jeu
08:45
even smallpetit probabilitiesprobabilités
mattermatière a great dealtraiter.
151
513802
2967
que même les plus faibles probabilités
comptent beaucoup.
08:49
ImagineImaginez if you're gettingobtenir on a planeavion
and you're kindgentil of nervousnerveux,
152
517568
3001
Imaginez que vous preniez l'avion,
que vous soyez stressé
08:52
and the pilotpilote reassuresrassure you by sayingen disant,
153
520593
3444
et que le pilote vous rassure en disant :
08:56
"There's only a one-in-a-thousanddans-un-mille
chancechance of crashings’écraser. Don't worryinquiéter."
154
524061
4634
« Il n'y a qu'une chance sur 1 000
de s'écraser, pas d'inquiétude. »
09:02
Would you feel reassureda rassuré?
155
530157
1554
Seriez-vous rassuré ?
09:04
For these reasonsles raisons, I think that preservingpréservant
the futureavenir of humanityhumanité
156
532509
4088
C'est pour ces raisons que je crois
que protéger l'avenir de l'humanité
09:08
is amongparmi the mostles plus importantimportant problemsproblèmes
that we currentlyactuellement facevisage.
157
536621
2984
fait partie des problèmes
les plus importants
auxquels nous faisons face.
09:12
But let's keep usingen utilisant this frameworkcadre.
158
540546
2150
Mais continuons à utiliser ce cadre.
09:14
Is this problemproblème neglectednégligé?
159
542720
1310
S'intéresse-t-on à ce problème ?
09:18
And I think the answerrépondre is yes,
160
546085
2282
Je crois que la réponse est non
09:20
and that's because problemsproblèmes
that affectaffecter futureavenir generationsgénérations
161
548391
3325
et c'est parce que les problèmes
qui touchent les générations futures
09:23
are oftensouvent hugelyénormement neglectednégligé.
162
551740
1651
sont souvent énormément négligés.
09:26
Why?
163
554930
1406
Pourquoi ?
09:28
Because futureavenir people
don't participateparticiper in marketsles marchés todayaujourd'hui.
164
556360
3478
Les futures générations ne participent pas
aux marchés d'aujourd'hui.
09:31
They don't have a votevote.
165
559862
1522
Ils n'ont pas le droit de vote.
09:33
It's not like there's a lobbyhall
representingreprésentant the interestsintérêts
166
561931
2673
Il n'y a pas de lobby
représentant les intérêts
09:36
of those bornnée in 2300 ADAD.
167
564628
2023
de ceux qui naîtront en 2 300 après J.-C.
09:40
They don't get to influenceinfluence
the decisionsles décisions we make todayaujourd'hui.
168
568313
3242
Ils ne peuvent pas influencer
les décisions prises aujourd'hui.
09:43
They're voicelessConsonne occlusive.
169
571995
1191
Ils n'ont pas de voix.
09:46
And that meansveux dire we still spenddépenser
a paltrydérisoire amountmontant on these issuesproblèmes:
170
574490
3445
Cela signifie que nous dépensons
une somme dérisoire pour ces questions :
09:49
nuclearnucléaire nonproliferationnon prolifération,
171
577959
1799
la non prolifération des armes nucléaires,
09:51
geoengineeringgéo-ingénierie, bioriskrisques biologiques,
172
579782
2330
la géo-ingénierie,
les risques biologiques,
09:55
artificialartificiel intelligenceintelligence safetysécurité.
173
583414
1642
la sûreté de l'intelligence artificielle.
09:57
All of these receiverecevoir
only a fewpeu tensdizaines of millionsdes millions of dollarsdollars
174
585923
2874
Ils ne reçoivent que quelques
dizaines de millions de dollars
10:00
of philanthropicphilanthropique fundingfinancement everychaque yearan.
175
588821
1927
de financement philantropique par an.
10:04
That's tinyminuscule comparedpar rapport
to the 390 billionmilliard dollarsdollars
176
592044
3929
C'est très faible, comparé
aux 390 milliards de dollars
10:08
that's spentdépensé on US philanthropyphilanthropie in totaltotal.
177
596790
2261
investis par les philantropes américains.
10:13
The finalfinal aspectaspect of our frameworkcadre then:
178
601885
2484
Le dernier aspect de notre cadre, donc :
10:17
Is this solvablerésoluble?
179
605083
1190
cela peut-il être résolu ?
10:19
I believe it is.
180
607289
1289
Je crois que oui.
10:21
You can contributecontribuer with your moneyargent,
181
609014
3047
Vous pouvez contribuer par votre argent,
10:24
your careercarrière or your politicalpolitique engagementengagement.
182
612085
2644
par votre carrière
ou votre engagement politique.
10:28
With your moneyargent,
you can supportsoutien organizationsorganisations
183
616225
2175
Votre argent peut
soutenir des organisations
10:30
that focusconcentrer on these risksrisques,
184
618424
1302
qui se concentrent sur ces risques
10:31
like the NuclearNucléaire ThreatMenace InitiativeInitiative,
185
619750
2555
telles que l'Initiative
contre la menace nucléaire,
10:34
whichlequel campaignscampagnes to take nuclearnucléaire weaponsarmes
off hair-triggerfleur de peau alertalerte,
186
622329
3660
militant pour que
les armes nucléaires ne soient plus
en état d'alerte instantanée,
10:38
or the BlueBleu RibbonRuban PanelGroupe d’experts, whichlequel
developsdéveloppe policypolitique to minimizeminimiser the damagedommage
187
626013
3571
ou le comité d'experts qui élabore
des politiques pour minimiser les dégâts
10:41
from naturalNaturel and man-madesynthétiques ou artificielles pandemicspandémies,
188
629608
2095
des pandémies naturelles et anthropiques,
10:45
or the CenterCentre for Human-CompatibleL’homme-Compatible AIAI,
whichlequel does technicaltechnique researchrecherche
189
633158
3260
ou le Centre pour une IA
compatible avec l'Homme
réalisant des recherches
10:48
to ensureassurer that AIAI systemssystèmes
are safesûr and reliablefiable.
190
636442
2747
pour s'assurer que les systèmes d'IA
sont sûrs et fiables.
10:52
With your politicalpolitique engagementengagement,
191
640652
1516
Avec votre engagement politique,
10:54
you can votevote for candidatescandidats
that carese soucier about these risksrisques,
192
642192
3096
vous pouvez voter pour des candidats
à qui ces risques importent
10:57
and you can supportsoutien
greaterplus grand internationalinternational cooperationla coopération.
193
645312
2586
et soutenir une meilleure
coopération internationale.
11:01
And then with your careercarrière,
there is so much that you can do.
194
649767
3542
Avec votre carrière,
vous pouvez faire tant de choses.
11:05
Of coursecours, we need scientistsscientifiques
and policymakersdécideurs and organizationorganisation leadersdirigeants,
195
653333
3672
Bien sûr, nous avons besoin
de scientifiques, de décisionnaires,
de dirigeants,
11:09
but just as importantlyimportant,
196
657865
1152
mais aussi, tout autant,
11:11
we alsoaussi need accountantscomptables
and managersles gestionnaires and assistantsassistants
197
659041
4117
de comptables,
de gestionnaires, d'assistants
11:16
to work in these organizationsorganisations
that are tacklings’attaquer aux these problemsproblèmes.
198
664691
3754
pour travailler dans ces organisations
qui abordent ces problèmes.
11:20
Now, the researchrecherche programprogramme
of effectiveefficace altruismaltruisme
199
668469
3492
Le programme de recherche
sur l'altruisme efficace
11:25
is still in its infancypetite enfance,
200
673191
1444
en est à ses débuts
11:27
and there's still a hugeénorme amountmontant
that we don't know.
201
675262
2524
et nous ignorons encore
beaucoup de choses.
11:31
But even with what we'venous avons learnedappris so farloin,
202
679173
2343
Mais même avec ce que
nous avons appris jusqu'ici,
11:34
we can see that by thinkingen pensant carefullysoigneusement
203
682748
2183
nous voyons qu'en réfléchissant
minutieusement
11:37
and by focusingse concentrer on those problemsproblèmes
that are biggros, solvablerésoluble and neglectednégligé,
204
685494
4873
et en nous concentrant sur ces problèmes
qui sont importants,
résolubles et négligés,
11:43
we can make a trulyvraiment tremendousénorme
differencedifférence to the worldmonde
205
691152
2708
nous pouvons faire changer
les choses dans le monde
11:45
for thousandsmilliers of yearsannées to come.
206
693884
1631
pour les milliers d'années à venir.
11:47
Thank you.
207
695963
1151
Merci.
11:49
(ApplauseApplaudissements)
208
697138
4560
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Jérémie Pinguet

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com