ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Will MacAskill: Hoe kunnen we het meest goed doen voor de wereld?

Filmed:
2,112,093 views

Welke problemen van de mensheid moeten het dringendst worden opgelost? In een boeiende talk over hoe de wereld beter te maken, biedt moraalfilosoof Will MacAskill een denkraam voor het beantwoorden van deze vraag op basis van de filosofie van 'effectief altruïsme' -- en deelt hij ideeën om drie dringende mondiale problemen aan te pakken.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphdiagram
0
857
1479
Dit is een grafiek
00:14
that representsvertegenwoordigt the economiceconomisch historygeschiedenis
of humanmenselijk civilizationbeschaving.
1
2360
3659
van de economische geschiedenis
van de menselijke beschaving.
00:18
[WorldWereld GDPBBP perper capitacapita
over the last 200,000 yearsjaar]
2
6043
2400
[Wereld-bbp per hoofd
in de laatste 200.000 jaar]
00:23
There's not much going on, is there.
3
11757
2003
Er gebeurt niet veel, hè?
Voor het grootste deel
van de menselijke geschiedenis
00:26
For the vastgroot majoritymeerderheid of humanmenselijk historygeschiedenis,
4
14751
2347
00:29
prettymooi much everyoneiedereen livedleefden
on the equivalentgelijkwaardig of one dollardollar perper day,
5
17835
4048
leefde vrijwel iedereen
op één dollar per dag
00:33
and not much changedveranderd.
6
21907
1286
en veranderde er niet veel.
00:36
But then, something
extraordinarybuitengewoon happenedgebeurd:
7
24757
2777
Maar dan gebeurde er iets bijzonders:
00:40
the ScientificWetenschappelijke and IndustrialIndustriële RevolutionsRevoluties.
8
28677
2811
de wetenschappelijke
en industriële revoluties.
00:43
And the basicallyeigenlijk flatvlak graphdiagram you just saw
9
31512
2785
En de in principe
vlakke grafiek van daarnet
00:46
transformstransformaties into this.
10
34321
2675
transformeert in dit.
00:50
What this graphdiagram meansmiddelen is that,
in termstermen of powermacht to changeverandering the worldwereld-,
11
38612
4635
Deze grafiek toont dat we in termen
van ons vermogen de wereld te veranderen,
00:55
we liveleven in an unprecedentedzonder precedent time
in humanmenselijk historygeschiedenis,
12
43271
3438
in een onvergelijkelijke tijd
in de menselijke geschiedenis leven
00:58
and I believe our ethicalethisch understandingbegrip
hasn'theeft niet yetnog caughtgevangen up with this factfeit.
13
46733
3944
en ik geloof dat ons ethisch denken
dit feit nog niet heeft verwerkt.
De wetenschappelijke
en industriële revoluties
01:03
The ScientificWetenschappelijke and IndustrialIndustriële RevolutionsRevoluties
14
51716
1984
01:05
transformedgetransformeerd bothbeide
our understandingbegrip of the worldwereld-
15
53724
2909
transformeerden zowel
ons begrip van de wereld
01:08
and our abilityvermogen to alterwijzigen it.
16
56657
1669
als ons vermogen om hem te veranderen.
01:11
What we need is an ethicalethisch revolutionrevolutie
17
59505
3667
Wat we nodig hebben,
is een ethische revolutie,
01:15
so that we can work out
18
63196
1548
zodat we kunnen weten
01:16
how do we use this tremendousenorme
bountygave of resourcesmiddelen
19
64768
3152
hoe deze enorme overvloed
van middelen te gebruiken
01:19
to improveverbeteren the worldwereld-.
20
67944
1395
om de wereld te verbeteren.
01:22
For the last 10 yearsjaar,
21
70249
1591
In de laatste 10 jaar
ontwikkelden mijn collega's en ik
01:23
my colleaguescollega's and I have developedontwikkelde
a philosophyfilosofie and researchOnderzoek programprogramma
22
71864
3833
een filosofie en onderzoeksprogramma
01:27
that we call effectiveeffectief altruismaltruïsme.
23
75721
1835
die we effectief altruïsme noemen.
01:30
It triesprobeert to respondreageren
to these radicalradicaal changesveranderingen in our worldwereld-,
24
78366
3595
Het probeert te reageren op deze
radicale veranderingen in onze wereld,
01:33
usestoepassingen evidencebewijsmateriaal and carefulvoorzichtig reasoningredenering
to try to answerantwoord this questionvraag:
25
81985
4476
gebruikt bewijsmateriaal
en zorgvuldig denken
om deze vraag te proberen te beantwoorden:
01:40
How can we do the mostmeest good?
26
88173
2278
hoe kunnen we het meest goed doen?
01:44
Now, there are manyveel issueskwesties
you've got to addressadres
27
92265
3221
Nu zijn er veel zaken
waar je aan moet denken,
01:47
if you want to tackleaanpakken this problemprobleem:
28
95510
2263
wil je dit probleem aanpakken:
01:49
whetherof to do good throughdoor your charitygoed doel
29
97797
2031
moet je goed doen door liefdadigheid,
01:51
or your careercarrière
or your politicalpolitiek engagementverloving,
30
99852
2152
door carrière of politieke betrokkenheid,
01:54
what programsprogramma's to focusfocus on,
who to work with.
31
102028
2395
op welke programma's richt je je,
met wie werk je samen?
01:57
But what I want to talk about
32
105624
1476
Maar ik wil praten over het volgens mij
meest fundamentele probleem.
01:59
is what I think is the mostmeest
fundamentalfundamenteel problemprobleem.
33
107124
2872
02:02
Of all the manyveel problemsproblemen
that the worldwereld- facesgezichten,
34
110020
2693
Welke van de vele problemen in de wereld
02:05
whichwelke should we be focusedgefocust
on tryingproberen to solveoplossen first?
35
113962
2659
moeten we het eerst oplossen?
02:10
Now, I'm going to give you a frameworkkader
for thinkinghet denken about this questionvraag,
36
118668
3468
Nu ga ik jullie een denkraam geven
om over deze vraag na te denken
02:14
and the frameworkkader is very simpleeenvoudig.
37
122160
1936
en dat denkraam is zeer eenvoudig.
02:16
A problem'sprobleem van higherhoger priorityprioriteit,
38
124842
1699
De prioriteit van een probleem is hoger
02:19
the biggergroter, the more easilygemakkelijk solvableoplosbaar
and the more neglectedverwaarloosd it is.
39
127416
4063
naarmate het groter, eenvoudiger
op te lossen en meer verwaarloosd is.
02:24
BiggerGrotere is better,
40
132694
1642
Groter is beter,
02:26
because we'vewij hebben got more to gainkrijgen
if we do solveoplossen the problemprobleem.
41
134360
2841
omdat we meer winnen
als we het probleem oplossen.
02:30
More easilygemakkelijk solvableoplosbaar is better
42
138221
1569
Eenvoudiger op te lossen is beter,
02:31
because I can solveoplossen the problemprobleem
with lessminder time or moneygeld.
43
139814
2824
want dan ik kan het oplossen
met minder tijd of geld.
02:35
And mostmeest subtlysubtiel,
44
143737
2063
En het meeste subtiel:
meer verwaarloosd is beter
door de afnemende meeropbrengst.
02:38
more neglectedverwaarloosd is better,
because of diminishingvermindering returnskomt terug.
45
146681
2849
02:42
The more resourcesmiddelen that have alreadynu al been
investedinvesteerde into solvingoplossen a problemprobleem,
46
150285
3714
Hoe meer middelen we al hebben
geïnvesteerd in het oplossen,
02:46
the harderharder it will be
to make additionalextra progressvooruitgang.
47
154023
2905
hoe moeilijker het zal zijn
om nieuwe vooruitgang te boeken.
02:50
Now, the keysleutel thing that I want
to leavehet verlof with you is this frameworkkader,
48
158560
4059
Nu is dit denkraam het belangrijkste
dat ik jullie wil bijbrengen,
02:54
so that you can think for yourselfjezelf
49
162643
1984
zodat jullie zelf kunnen uitvissen
02:56
what are the highesthoogst globalglobaal prioritiesprioriteiten.
50
164651
2321
welke de hoogste
mondiale prioriteiten zijn.
02:59
But I and othersanderen
in the effectiveeffectief altruismaltruïsme communitygemeenschap
51
167954
2692
Maar ik en anderen in de gemeenschap
voor effectief altruïsme
03:02
have convergedgeconvergeerd on threedrie moralMoreel issueskwesties
that we believe are unusuallyongewoon importantbelangrijk,
52
170670
5879
kwamen uit bij drie morele kwesties
waarvan we geloven
dat ze buitengewoon belangrijk zijn
03:08
scorepartituur unusuallyongewoon well in this frameworkkader.
53
176573
2182
en hoge cijfers halen in dit denkraam.
03:11
First is globalglobaal healthGezondheid.
54
179151
2813
Het eerste is wereldgezondheid.
03:13
This is supersolvablesupersolvable.
55
181988
2411
Dat is super oplosbaar.
03:16
We have an amazingverbazingwekkend trackspoor recordrecord
in globalglobaal healthGezondheid.
56
184423
3397
We hebben een geweldig palmares
wat wereldgezondheid aangaat.
03:19
RatesTarieven of deathdood from measlesmazelen,
malariamalaria-, diarrhealdiarree diseaseziekte
57
187844
5420
De cijfers voor sterfte
door mazelen, malaria en diarree
03:25
are down by over 70 percentprocent.
58
193288
2246
zijn met meer dan 70 procent gedaald.
03:29
And in 1980, we eradicateduitgeroeid smallpoxpokken.
59
197534
2789
In 1980 roeiden we de pokken uit.
03:33
I estimateschatting we therebydaarbij savedgered
over 60 millionmiljoen liveslevens.
60
201815
3667
Ik schat dat we daardoor meer
dan 60 miljoen levens hebben gered.
Dat zijn meer gespaarde levens
03:37
That's more liveslevens savedgered
than if we'dwij hadden achievedbereikt worldwereld- peacevrede
61
205506
3064
dan wanneer we wereldvrede
hadden bereikt in dezelfde periode.
03:40
in that samedezelfde time periodperiode.
62
208594
1697
Volgens onze huidige beste schattingen
kunnen we een leven redden
03:43
On our currentactueel bestbeste estimatesramingen,
63
211893
2325
03:46
we can savebesparen a life by distributingdistributie
long-lastinglangdurige insecticide-treatedinsecticide behandeld bedbed netsnetten
64
214242
4128
door het verstrekken van lang meegaande,
insecticidehoudende muskietennetten
03:50
for just a fewweinig thousandduizend dollarsdollars.
65
218394
1903
voor slechts een paar duizend dollar.
03:52
This is an amazingverbazingwekkend opportunitykans.
66
220911
1667
Dit is een geweldige kans.
03:55
The secondtweede biggroot priorityprioriteit
is factoryfabriek farminglandbouw.
67
223594
2515
De tweede grote prioriteit
is de bio-industrie.
03:58
This is superneglectedsuperneglected.
68
226681
1563
Die is super verwaarloosd.
04:00
There are 50 billionmiljard landland- animalsdieren
used everyelk yearjaar for foodeten,
69
228768
4143
Elk jaar gebruiken we 50 miljard
landdieren als voedsel
04:05
and the vastgroot majoritymeerderheid of them
are factoryfabriek farmedgekweekt,
70
233625
2548
en de overgrote meerderheid
komt van de bio-industrie,
04:08
livingleven in conditionsvoorwaarden
of horrificgruwelijk sufferinglijden.
71
236197
2380
waar ze in verschrikkelijke
omstandigheden leven.
04:10
They're probablywaarschijnlijk amongtussen
the worst-offslechtst creaturesschepsels on this planetplaneet,
72
238601
3151
Ze zijn mogelijk de wezens die er
het slechtst aan toe zijn op deze planeet.
04:13
and in manyveel casesgevallen, we could
significantlyaanzienlijk improveverbeteren theirhun liveslevens
73
241776
2858
Vaak zouden we hun leven
aanzienlijk kunnen verbeteren
04:16
for just penniescenten perper animaldier.
74
244658
1602
voor een paar centen per dier.
04:19
YetNog this is hugelyenorm neglectedverwaarloosd.
75
247123
2082
Toch wordt dit enorm verwaarloosd.
04:21
There are 3,000 timestijden
more animalsdieren in factoryfabriek farmsboerderijen
76
249229
3810
Er zijn 3.000 keer meer
dieren in de bio-industrie
04:25
than there are strayverdwaalde petshuisdieren,
77
253063
1561
dan er zwerfdieren zijn,
04:28
but yetnog, factoryfabriek farminglandbouw getskrijgt one fiftiethvijftigste
of the philanthropicfilantropisch fundingfinanciering.
78
256600
4373
maar toch krijgt de bio-industrie
slechts één vijftigste
van de filantropische financiering.
Dat betekent dat extra
middelen op dit gebied
04:34
That meansmiddelen additionalextra
resourcesmiddelen in this areaGebied
79
262211
2128
04:36
could have a trulywerkelijk transformativetransformatieve impactbotsing.
80
264363
2150
een werkelijk transformerende
impact zouden hebben.
04:39
Now the thirdderde areaGebied is the one
that I want to focusfocus on the mostmeest,
81
267458
2985
Het derde gebied is dat waar ik me
het meest wil op concentreren
04:42
and that's the categorycategorie
of existentialexistentiële risksrisico's:
82
270467
2984
en dat is de categorie
van de existentiële risico's:
04:45
eventsevents like a nuclearnucleair waroorlog
or a globalglobaal pandemicpandemisch
83
273475
3873
gebeurtenissen als een nucleaire oorlog
of een wereldwijde pandemie
04:50
that could permanentlypermanent derailontsporen civilizationbeschaving
84
278824
2611
die de beschaving permanent
kunnen laten ontsporen
04:54
or even leadlood to the extinctionuitdoving
of the humanmenselijk racerace.
85
282156
2436
of zelfs kunnen leiden
tot het uitsterven van de mensheid.
Laat me uitleggen waarom ik denk
04:57
Let me explainuitleg geven why I think
this is suchzodanig a biggroot priorityprioriteit
86
285882
2540
dat dit volgens dit denkraam
zo'n grote prioriteit heeft.
05:00
in termstermen of this frameworkkader.
87
288446
1337
05:02
First, sizegrootte.
88
290992
1412
Ten eerste: de grootte.
05:05
How badslecht would it be if there were
a trulywerkelijk existentialexistentiële catastrophecatastrofe?
89
293341
3889
Hoe erg zou het zijn als er een echt
existentiële ramp zou plaatsvinden?
05:10
Well, it would involvebetrekken bij the deathssterfgevallen
of all sevenzeven billionmiljard people on this planetplaneet
90
298920
6342
Het zou de dood van de zeven miljard
mensen op deze planeet betekenen
05:17
and that meansmiddelen you
and everyoneiedereen you know and love.
91
305286
3119
en dat betekent jij en iedereen
die je kent en waar je van houdt.
05:21
That's just a tragedytragedie
of unimaginableondenkbaar sizegrootte.
92
309214
2579
Dat is gewoon een tragedie
van onvoorstelbare omvang.
05:25
But then, what's more,
93
313684
1976
Maar dat niet alleen,
het zou ook het einde van het toekomstige
potentieel van de mensheid inhouden
05:27
it would alsoook mean the curtailmentbelangrijke inperking
of humanity'sde mensheid futuretoekomst potentialpotentieel,
94
315684
3605
05:31
and I believe that humanity'sde mensheid
potentialpotentieel is vastgroot.
95
319313
2952
en ik denk dat het potentieel
van de mensheid enorm is.
05:35
The humanmenselijk racerace has been around
for about 200,000 yearsjaar,
96
323551
3451
Het menselijk ras bestaat
al ongeveer 200.000 jaar
05:39
and if she liveslevens as long
as a typicaltypisch mammalianzoogdieren speciessoorten,
97
327026
2883
en als het zo lang meegaat
als een typische zoogdiersoort,
05:41
she would last
for about two millionmiljoen yearsjaar.
98
329933
2298
heeft het nog ongeveer
twee miljoen jaar te gaan.
Als je het menselijk ras zou herleiden
tot één enkel individu,
05:46
If the humanmenselijk racerace
were a singlesingle individualindividu,
99
334884
2691
05:49
she would be just 10 yearsjaar oldoud todayvandaag.
100
337599
2419
zou het nu slechts 10 jaar oud zijn.
05:53
And what's more, the humanmenselijk racerace
isn't a typicaltypisch mammalianzoogdieren speciessoorten.
101
341526
4166
Sterker nog, het menselijk ras
is geen typische zoogdiersoort.
Er is geen reden waarom we,
als we voorzichtig zijn,
05:58
There's no reasonreden why, if we're carefulvoorzichtig,
102
346950
1906
06:00
we should diedood gaan off
after only two millionmiljoen yearsjaar.
103
348880
2205
zouden uitsterven
na slechts twee miljoen jaar.
06:03
The earthaarde will remainblijven habitablebewoonbaar
for 500 millionmiljoen yearsjaar to come.
104
351839
4040
De aarde zal nog 500 miljoen
jaren bewoonbaar blijven.
06:08
And if somedaysomeday, we tooknam to the starssterren,
105
356696
1944
En als we ooit
naar de sterren zouden reizen,
06:11
the civilizationbeschaving could continuevoortzetten
for billionsmiljarden more.
106
359640
2516
kan de beschaving nog
miljarden jaren voortduren.
06:16
So I think the futuretoekomst
is going to be really biggroot,
107
364193
2388
Dus denk ik dat de toekomst
echt enorm gaat zijn,
06:19
but is it going to be good?
108
367669
1802
maar gaat ze ook goed zijn?
06:21
Is the humanmenselijk racerace
even really worthwaard preservingbehoud van?
109
369495
2817
Is de mensheid het zelfs waard
om te blijven bestaan?
06:26
Well, we hearhoren all the time about
how things have been gettingkrijgen worseerger,
110
374540
3929
Nu horen we de hele tijd
over hoe alles erop achteruitgaat,
06:31
but I think that when
we take the long runrennen,
111
379459
2693
maar ik denk dat op de lange termijn
alles altijd maar
radicaal beter is geworden.
06:34
things have been gettingkrijgen radicallyradicaal better.
112
382176
2031
06:37
Here, for examplevoorbeeld,
is life expectancyverwachting over time.
113
385453
2294
Hier bijvoorbeeld zie je
de levensverwachting in de tijd;
06:40
Here'sHier is the proportionproportie of people
not livingleven in extremeextreem povertyarmoede.
114
388892
3023
hier het aantal mensen
dat niet meer in extreme armoede leeft;
06:45
Here'sHier is the numberaantal of countrieslanden over time
that have decriminalizeddecriminalized homosexualityhomoseksualiteit.
115
393106
4095
hier het aantal landen
waar homoseksualiteit
niet strafbaar meer is;
06:50
Here'sHier is the numberaantal of countrieslanden over time
that have becomeworden democraticdemocratisch.
116
398848
3269
hier het aantal landen in de tijd
die democratisch werden.
06:55
Then, when we look to the futuretoekomst,
there could be so much more to gainkrijgen again.
117
403015
4619
In de toekomst kunnen we dus
nog een heleboel dingen verbeteren.
06:59
We'llWe zullen be so much richerrijker,
118
407658
1228
We zullen veel rijker zijn
07:00
we can solveoplossen so manyveel problemsproblemen
that are intractablehardnekkige todayvandaag.
119
408910
3595
en zoveel vandaag nog hardnekkige
problemen kunnen oplossen.
07:05
So if this is kindsoort of a graphdiagram
of how humanityde mensheid has progressedgevorderd
120
413389
4445
Als dit een grafiek is
van hoe de mensheid is gevorderd
07:09
in termstermen of totaltotaal humanmenselijk
flourishingbloeiende over time,
121
417858
2890
in termen van totaal menselijk
geluk in de loop van de tijd,
07:12
well, this is what we would expectverwachten
futuretoekomst progressvooruitgang to look like.
122
420772
3355
dan is dit de toekomstige vooruitgang
die we kunnen verwachten.
07:16
It's vastgroot.
123
424881
1150
Het is enorm.
07:18
Here, for examplevoorbeeld,
124
426953
1198
Hier bijvoorbeeld
07:20
is where we would expectverwachten no one
to liveleven in extremeextreem povertyarmoede.
125
428175
3746
is waar we kunnen verwachten dat
niemand nog in extreme armoede zal leven.
07:25
Here is where we would expectverwachten
everyoneiedereen to be better off
126
433930
3202
Hier waar we zouden verwachten
dat iedereen beter af zal zijn
07:29
than the richestrijkste personpersoon alivelevend todayvandaag.
127
437156
1853
dan de rijkste persoon vandaag.
Misschien ontdekken we hier
07:32
PerhapsMisschien here is where we would discoverontdekken
the fundamentalfundamenteel naturalnatuurlijk lawswetten
128
440081
3192
de fundamentele natuurwetten
die onze wereld regeren.
07:35
that governregeren our worldwereld-.
129
443297
1268
07:37
PerhapsMisschien here is where we discoverontdekken
an entirelygeheel newnieuwe formformulier of artkunst,
130
445516
3705
Misschien ontdekken we hier
een geheel nieuwe vorm van kunst,
07:41
a formformulier of musicmuziek- we currentlymomenteel lackgebrek
the earsoren to hearhoren.
131
449245
3040
een vorm van muziek waarvoor we momenteel
de oren niet hebben om ze te horen.
07:45
And this is just
the nextvolgende fewweinig thousandduizend yearsjaar.
132
453072
2222
En dit zijn slechts
de komende paar duizend jaar.
07:47
OnceEenmaal we think pastverleden that,
133
455827
2205
Als we nog verder vooruit denken,
07:50
well, we can't even imaginestel je voor the heightshoogten
that humanmenselijk accomplishmentprestatie mightmacht reachberijk.
134
458056
4167
kunnen we ons niet eens meer voorstellen
tot wat mensen in staat zullen zijn.
07:54
So the futuretoekomst could be very biggroot
and it could be very good,
135
462247
3040
Dus zou de toekomst geweldig
en heel goed kunnen zijn,
07:57
but are there waysmanieren
we could loseverliezen this valuewaarde?
136
465311
2086
maar zijn er manieren waarop dit
ons allemaal zou kunnen ontglippen?
08:00
And sadlyHelaas, I think there are.
137
468366
1826
Ik denk helaas van wel.
08:02
The last two centurieseeuwen broughtbracht
tremendousenorme technologicaltechnologisch progressvooruitgang,
138
470216
4053
De laatste twee eeuwen brachten
een enorme technologische vooruitgang,
08:06
but they alsoook broughtbracht
the globalglobaal risksrisico's of nuclearnucleair waroorlog
139
474293
2622
maar ook de mondiale risico's
van een nucleaire oorlog
08:08
and the possibilitymogelijkheid
of extremeextreem climateklimaat changeverandering.
140
476939
2157
en de kans op extreme klimaatverandering.
08:11
When we look to the comingkomt eraan centurieseeuwen,
141
479725
1767
Als we kijken naar de komende eeuwen,
08:13
we should expectverwachten to see
the samedezelfde patternpatroon again.
142
481516
2647
kunnen we hetzelfde patroon verwachten.
08:16
And we can see some radicallyradicaal
powerfulkrachtig technologiestechnologieën on the horizonhorizon.
143
484187
3356
Er kunnen opnieuw radicaal krachtige
technologieën aan de horizon opduiken.
08:20
SyntheticSynthetische biologybiologie mightmacht give us
the powermacht to createcreëren virusesvirussen
144
488132
2849
Synthetische biologie
zou virussen kunnen creëren
08:23
of unprecedentedzonder precedent
contagiousnesscontagiousness and lethalitydodelijkheid.
145
491005
3047
van ongekende besmettelijkheid
en dodelijkheid.
08:27
GeoengineeringGeoengineering mightmacht give us the powermacht
to dramaticallydramatisch alterwijzigen the earth'saarde climateklimaat.
146
495131
4643
Met geo-engineering zouden we
het klimaat drastisch kunnen veranderen.
08:31
ArtificialKunstmatige intelligenceintelligentie- mightmacht give us
the powermacht to createcreëren intelligentintelligent agentsagenten
147
499798
4199
Met kunstmatige intelligentie zouden we
intelligente entiteiten kunnen creëren
08:36
with abilitiescapaciteiten greatergroter than our owneigen.
148
504021
2142
met capaciteiten groter
dan die van onszelf.
08:40
Now, I'm not sayinggezegde that any
of these risksrisico's are particularlyvooral likelywaarschijnlijk,
149
508222
3888
Nu zeg ik niet dat een van deze risico’s
erg waarschijnlijk is,
maar als er zoveel op het spel staat,
08:44
but when there's so much at stakeinzet,
150
512134
1644
08:45
even smallklein probabilitieswaarschijnlijkheden
matterer toe doen a great dealtransactie.
151
513802
2967
worden zelfs kleine kansen erg belangrijk.
08:49
ImagineStel je voor if you're gettingkrijgen on a planevlak
and you're kindsoort of nervousnerveus,
152
517568
3001
Stel dat je het vliegtuig neemt
en je nogal zenuwachtig bent.
08:52
and the pilotpiloot reassuresverzekert you by sayinggezegde,
153
520593
3444
De piloot probeert je
gerust te stellen door te zeggen:
08:56
"There's only a one-in-a-thousandin-a-duizend
chancekans of crashingcrashen. Don't worryzorgen."
154
524061
4634
"Er is maar een kans van één op duizend
dat we crashen. Maak je geen zorgen."
09:02
Would you feel reassuredgerustgesteld?
155
530157
1554
Zou jij je dan gerustgesteld voelen?
09:04
For these reasonsredenen, I think that preservingbehoud van
the futuretoekomst of humanityde mensheid
156
532509
4088
Daarom denk ik dat het behoud
van de toekomst van de mensheid
09:08
is amongtussen the mostmeest importantbelangrijk problemsproblemen
that we currentlymomenteel facegezicht.
157
536621
2984
een van de belangrijkste problemen is
waarmee we momenteel
worden geconfronteerd.
09:12
But let's keep usinggebruik makend van this frameworkkader.
158
540546
2150
Maar laten we dit denkraam
blijven gebruiken.
09:14
Is this problemprobleem neglectedverwaarloosd?
159
542720
1310
Is dit een verwaarloosd probleem?
09:18
And I think the answerantwoord is yes,
160
546085
2282
Ik denk dat het antwoord ja is
09:20
and that's because problemsproblemen
that affectaantasten futuretoekomst generationsgeneraties
161
548391
3325
en dat komt omdat problemen
die de toekomstige generaties beïnvloeden
09:23
are oftenvaak hugelyenorm neglectedverwaarloosd.
162
551740
1651
vaak enorm verwaarloosd zijn.
09:26
Why?
163
554930
1406
Waarom?
09:28
Because futuretoekomst people
don't participatedeelnemen in marketsmarkten todayvandaag.
164
556360
3478
Omdat de toekomstige mensen
niet deelnemen aan de markten van vandaag.
09:31
They don't have a votestemmen.
165
559862
1522
Ze hebben er geen stem.
09:33
It's not like there's a lobbylobby
representingvertegenwoordigen the interestsbelangen
166
561931
2673
Er is geen lobby die de belangen behartigt
09:36
of those borngeboren in 2300 ADAD.
167
564628
2023
van wie in 2300 geboren zal worden.
09:40
They don't get to influenceinvloed
the decisionsbeslissingen we make todayvandaag.
168
568313
3242
Ze kunnen de beslissingen
die we vandaag maken niet beïnvloeden.
09:43
They're voicelessStemloze.
169
571995
1191
Ze zijn stemloos.
En daarom besteden we nog steeds
slechts een schamel bedrag
09:46
And that meansmiddelen we still spendbesteden
a paltryschamel amountbedrag on these issueskwesties:
170
574490
3445
aan zaken als nucleaire non-proliferatie,
09:49
nuclearnucleair nonproliferationnon-proliferatie,
171
577959
1799
09:51
geoengineeringgeoengineering, bioriskbiorisico,
172
579782
2330
geo-engineering, biorisico,
09:55
artificialkunstmatig intelligenceintelligentie- safetyveiligheid.
173
583414
1642
veiligheid van kunstmatige intelligentie.
09:57
All of these receivete ontvangen
only a fewweinig tenstientallen of millionsmiljoenen of dollarsdollars
174
585923
2874
Deze krijgen slechts
een paar tientallen miljoenen dollars
10:00
of philanthropicfilantropisch fundingfinanciering everyelk yearjaar.
175
588821
1927
van filantropische financiering per jaar.
10:04
That's tinyklein comparedvergeleken
to the 390 billionmiljard dollarsdollars
176
592044
3929
Dat is weinig in vergelijking
met de 390 miljard dollar
10:08
that's spentdoorgebracht on US philanthropyfilantropie in totaltotaal.
177
596790
2261
uitgegeven aan de Amerikaanse
filantropie in totaal.
10:13
The finallaatste aspectaspect of our frameworkkader then:
178
601885
2484
Het laatste aspect van ons denkraam dan:
10:17
Is this solvableoplosbaar?
179
605083
1190
is dit oplosbaar?
10:19
I believe it is.
180
607289
1289
Ik denk van wel.
10:21
You can contributebijdragen with your moneygeld,
181
609014
3047
Je kan bijdragen met je geld,
10:24
your careercarrière or your politicalpolitiek engagementverloving.
182
612085
2644
je werk of je politieke engagement.
Met geld kan je organisaties ondersteunen
10:28
With your moneygeld,
you can supportondersteuning organizationsorganisaties
183
616225
2175
die zich bezighouden met deze risico's,
10:30
that focusfocus on these risksrisico's,
184
618424
1302
10:31
like the NuclearNucleaire ThreatBedreiging InitiativeInitiatief,
185
619750
2555
zoals de Nuclear Threat Initiative,
10:34
whichwelke campaignscampagnes to take nuclearnucleair weaponswapens
off hair-triggerHair-trigger alertalarm,
186
622329
3660
die campagne voert om nucleaire wapens
niet meer in de aanslag te houden,
10:38
or the BlueBlauw RibbonLint PanelDeelvenster, whichwelke
developsontwikkelt policyhet beleid to minimizeverkleinen the damageschade
187
626013
3571
of Blue Ribbon Panel, dat het beleid
ontwikkelt om de schade te beperken
10:41
from naturalnatuurlijk and man-madedoor de mens veroorzaakte pandemicspandemieën,
188
629608
2095
van natuurlijke en door de mens
veroorzaakte pandemieën,
10:45
or the CenterCenter for Human-CompatibleMens-compatibel AIAI,
whichwelke does technicaltechnisch researchOnderzoek
189
633158
3260
of het Centrum voor Menscompatibele KI,
dat technisch onderzoek doet
10:48
to ensureervoor zorgen that AIAI systemssystemen
are safeveilig and reliablebetrouwbaar.
190
636442
2747
om ervoor te zorgen dat KI-systemen
veilig en betrouwbaar zijn.
10:52
With your politicalpolitiek engagementverloving,
191
640652
1516
Met je politieke betrokkenheid
10:54
you can votestemmen for candidateskandidaten
that carezorg about these risksrisico's,
192
642192
3096
kun je stemmen voor kandidaten
die inzitten met deze risico's
10:57
and you can supportondersteuning
greatergroter internationalInternationale cooperationsamenwerking.
193
645312
2586
en kun je ijveren voor grotere
internationale samenwerking.
11:01
And then with your careercarrière,
there is so much that you can do.
194
649767
3542
En met je werk is er
zo veel dat je kunt doen.
11:05
Of courseCursus, we need scientistswetenschappers
and policymakersbeleidsmakers and organizationorganisatie leadersleiders,
195
653333
3672
Natuurlijk hebben we wetenschappers,
beleidsmakers en leiders nodig,
11:09
but just as importantlybelangrijker,
196
657865
1152
maar we hebben net zo hard accountants,
managers en assistenten nodig
11:11
we alsoook need accountantsaccountants
and managersmanagers and assistantsassistenten
197
659041
4117
om te werken in de organisaties
die deze problemen aanpakken.
11:16
to work in these organizationsorganisaties
that are tacklingaan te pakken these problemsproblemen.
198
664691
3754
11:20
Now, the researchOnderzoek programprogramma
of effectiveeffectief altruismaltruïsme
199
668469
3492
Het onderzoeksprogramma
van effectief altruïsme
staat nog in de kinderschoenen
11:25
is still in its infancykinderschoenen,
200
673191
1444
11:27
and there's still a hugereusachtig amountbedrag
that we don't know.
201
675262
2524
en er is nog steeds
een enorme leemte in onze kennis.
11:31
But even with what we'vewij hebben learnedgeleerd so farver,
202
679173
2343
Maar zelfs met wat we
tot nu toe hebben geleerd,
kunnen we zien
dat door zorgvuldig denken
11:34
we can see that by thinkinghet denken carefullyvoorzichtig
203
682748
2183
11:37
and by focusingscherpstellen on those problemsproblemen
that are biggroot, solvableoplosbaar and neglectedverwaarloosd,
204
685494
4873
en door te focussen op grote,
oplosbare en verwaarloosde problemen,
we echt een enorm verschil
kunnen maken voor de wereld
11:43
we can make a trulywerkelijk tremendousenorme
differenceverschil to the worldwereld-
205
691152
2708
voor de komende duizenden jaren.
11:45
for thousandsduizenden of yearsjaar to come.
206
693884
1631
Dank je.
11:47
Thank you.
207
695963
1151
(Applaus)
11:49
(ApplauseApplaus)
208
697138
4560
Translated by Rik Delaet
Reviewed by Peter Van de Ven

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com