ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Will MacAskill: Melyek napjaink legfontosabb morális problémái?

Filmed:
2,112,093 views

Az emberiséget fenyegető problémák közül melyiknek a megoldását helyezzük előtérbe? A világ jobbá tételéről szóló érdekfeszítő előadásában Will MacAskill erkölcsfilozófus a hatékony altruizmus filozófiája alapján egy elméleti keretet szolgáltat a kérdés megválaszolásához – és három sürgető globális probléma támogatására hívja fel a figyelmet.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphgrafikon
0
857
1479
Ez a grafikon
00:14
that representsjelentése the economicgazdasági historytörténelem
of humanemberi civilizationcivilizáció.
1
2360
3659
az emberi civilizáció
gazdaságtörténetét ábrázolja.
00:18
[WorldVilág GDPGDP perper capita
over the last 200,000 yearsévek]
2
6043
2400
[A világ egy főre eső GDP-je
az elmúlt 200 000 évben]
00:23
There's not much going on, is there.
3
11757
2003
Nem nagy a mozgás, igaz?
00:26
For the vasthatalmas majoritytöbbség of humanemberi historytörténelem,
4
14751
2347
Az emberiség történetének nagy részében
00:29
prettyszép much everyonemindenki livedélt
on the equivalentegyenértékű of one dollardollár perper day,
5
17835
4048
jóformán mindenki napi egy dollárnak
megfelelő összegből élt,
00:33
and not much changedmegváltozott.
6
21907
1286
és nem sok minden változott.
00:36
But then, something
extraordinaryrendkívüli happenedtörtént:
7
24757
2777
De aztán valami rendkívüli történt:
00:40
the ScientificTudományos and IndustrialIpari RevolutionsForradalmak.
8
28677
2811
a tudományos és ipari forradalom.
00:43
And the basicallyalapvetően flatlakás graphgrafikon you just saw
9
31512
2785
Az egyenletes vonal, amit az imént láttak,
00:46
transformstranszformáció into this.
10
34321
2675
hirtelen felszökken.
00:50
What this graphgrafikon meanseszközök is that,
in termsfeltételek of powererő to changeváltozás the worldvilág,
11
38612
4635
A grafikonon látszik, hogy a világ
befolyásolhatósága szempontjából
00:55
we liveélő in an unprecedentedpéldátlan time
in humanemberi historytörténelem,
12
43271
3438
az emberiség történetének
példa nélküli időszakát éljük,
00:58
and I believe our ethicaletikai understandingmegértés
hasn'tmég nem yetmég caughtelkapott up with this facttény.
13
46733
3944
és úgy gondolom, etikailag
még nem ismertük fel ezt a tényt.
01:03
The ScientificTudományos and IndustrialIpari RevolutionsForradalmak
14
51716
1984
A tudományos és ipari forradalmak
átalakították a világról alkotott
képünket és azt a képességünket,
01:05
transformedtranszformált bothmindkét
our understandingmegértés of the worldvilág
15
53724
2909
01:08
and our abilityképesség to alterAlter it.
16
56657
1669
hogy magunk is alakítsuk a világot.
01:11
What we need is an ethicaletikai revolutionforradalom
17
59505
3667
Etikai forradalomra van szükségünk,
01:15
so that we can work out
18
63196
1548
hogy kidolgozzuk,
01:16
how do we use this tremendousborzasztó
bountynagylelkűség of resourceserőforrások
19
64768
3152
hogyan használjuk fel
ezt a mérhetetlen anyagi forrást
01:19
to improvejavul the worldvilág.
20
67944
1395
a világ jobbá tételére.
01:22
For the last 10 yearsévek,
21
70249
1591
Az elmúlt tíz évben
01:23
my colleagueskollégák and I have developedfejlett
a philosophyfilozófia and researchkutatás programprogram
22
71864
3833
kollégáimmal kialakítottunk
egy filozófiát és kutatási programot,
01:27
that we call effectivehatékony altruismönzetlenség.
23
75721
1835
amit hatékony altruizmusnak nevezünk.
01:30
It triespróbálkozás to respondreagál
to these radicalradikális changesváltoztatások in our worldvilág,
24
78366
3595
Megközelítésünk próbál igazodni
a világ radikális változásaihoz,
01:33
usesfelhasználások evidencebizonyíték and carefulóvatos reasoningérvelés
to try to answerválasz this questionkérdés:
25
81985
4476
és tényekkel, körültekintő érveléssel
igyekszik megválaszolni a kérdést:
01:40
How can we do the mosta legtöbb good?
26
88173
2278
Hogyan tehetjük a lehető legtöbb jót?
01:44
Now, there are manysok issueskérdések
you've got to addresscím
27
92265
3221
Sokféle területet kell megvizsgálni,
01:47
if you want to tacklefelszerelés this problemprobléma:
28
95510
2263
hogy eldönthessük a kérdést:
01:49
whetherakár to do good throughkeresztül your charityadomány
29
97797
2031
milyen programokat támogassunk,
kinek dolgozzunk,
01:51
or your careerkarrier
or your politicalpolitikai engagementeljegyzés,
30
99852
2152
hogy adományunkkal, munkánkkal,
politikai részvételünkkel
01:54
what programsprogramok to focusfókusz on,
who to work with.
31
102028
2395
jót cselekedjünk?
01:57
But what I want to talk about
32
105624
1476
De amiről beszélni szeretnék,
01:59
is what I think is the mosta legtöbb
fundamentalalapvető problemprobléma.
33
107124
2872
az a legalapvetőbb kérdés, úgy gondolom.
02:02
Of all the manysok problemsproblémák
that the worldvilág facesarcok,
34
110020
2693
A sok probléma közül,
amellyel a világ szembesül,
02:05
whichmelyik should we be focusedösszpontosított
on tryingmegpróbálja to solvemegfejt first?
35
113962
2659
melyiket próbáljuk megoldani először?
02:10
Now, I'm going to give you a frameworkkeretrendszer
for thinkinggondolkodás about this questionkérdés,
36
118668
3468
Adok önöknek egy elméleti keretet,
hogy mérlegeljék ezt a kérdést,
02:14
and the frameworkkeretrendszer is very simpleegyszerű.
37
122160
1936
a keret pedig igen egyszerű.
02:16
A problem'sprobléma highermagasabb prioritykiemelten fontos,
38
124842
1699
Minél súlyosabb, minél könnyebben
megoldható vagy elhanyagoltabb
02:19
the biggernagyobb, the more easilykönnyen solvablemegoldható
and the more neglectedelhanyagolt it is.
39
127416
4063
egy probléma, annál nagyobb
prioritást kap.
02:24
BiggerNagyobb is better,
40
132694
1642
A nagyobb azért jobb,
02:26
because we'vevoltunk got more to gainnyereség
if we do solvemegfejt the problemprobléma.
41
134360
2841
mert jelentősebb változást érünk el,
ha sikerül megoldanunk a problémát.
A könnyebben megoldható azért jobb,
02:30
More easilykönnyen solvablemegoldható is better
42
138221
1569
02:31
because I can solvemegfejt the problemprobléma
with lessKevésbé time or moneypénz.
43
139814
2824
mert a megoldás kevesebb időt
és pénzt vesz igénybe.
02:35
And mosta legtöbb subtlyfinoman,
44
143737
2063
És különösképpen
02:38
more neglectedelhanyagolt is better,
because of diminishingcsökkenő returnsvisszatér.
45
146681
2849
az elhanyagoltabb probléma jobb
a megtérülés szempontjából.
02:42
The more resourceserőforrások that have alreadymár been
investedbefektetett into solvingmegoldó a problemprobléma,
46
150285
3714
Minél több erőforrást fektettünk
ez idáig egy probléma megoldásába,
02:46
the hardernehezebb it will be
to make additionalTovábbi progressHaladás.
47
154023
2905
annál nehezebb további haladást elérni.
02:50
Now, the keykulcs thing that I want
to leaveszabadság with you is this frameworkkeretrendszer,
48
158560
4059
Ez az elméleti keret a lényeg,
amit szeretnék átadni,
02:54
so that you can think for yourselfsaját magad
49
162643
1984
hogy megítéljék,
milyen globális ügyek számítanak
elsődleges fontosságúnak.
02:56
what are the highestlegmagasabb globalglobális prioritiesprioritások.
50
164651
2321
02:59
But I and othersmások
in the effectivehatékony altruismönzetlenség communityközösség
51
167954
2692
Hatékony altruista mozgalmunkban
nagyjából egyetértünk abban,
03:02
have convergedkonvergált on threehárom moralerkölcsi issueskérdések
that we believe are unusuallyszokatlanul importantfontos,
52
170670
5879
hogy három morális kérdés van,
melyek különösen fontosak,
ezek kiemelt helyet kapnak
ebben a keretben.
03:08
scorepontszám unusuallyszokatlanul well in this frameworkkeretrendszer.
53
176573
2182
03:11
First is globalglobális healthEgészség.
54
179151
2813
Az első a globális egészségügy.
03:13
This is supersolvablea supersolvable.
55
181988
2411
Megoldása végtelenül egyszerű.
03:16
We have an amazingelképesztő tracknyomon követni recordrekord
in globalglobális healthEgészség.
56
184423
3397
Csodálatos eredményeink vannak
a globális egészségügy terén.
03:19
RatesÁrak of deathhalál from measleskanyaró,
malariamalária, diarrhealhasmenéses diseasebetegség
57
187844
5420
A kanyaró, a malária, a hasmenéses
járványok halálozási aránya
03:25
are down by over 70 percentszázalék.
58
193288
2246
70 százalékkal csökkent.
03:29
And in 1980, we eradicatedfelszámolták smallpoxhimlő.
59
197534
2789
1980-ban felszámoltuk a himlőt,
03:33
I estimatebecslés we therebyezáltal savedmentett
over 60 millionmillió liveséletét.
60
201815
3667
ezzel becslésem szerint
60 millió életet mentettünk meg.
03:37
That's more liveséletét savedmentett
than if we'dHázasodik achievedelért worldvilág peacebéke
61
205506
3064
Többet, mintha elértük volna a világbékét
03:40
in that sameazonos time periodidőszak.
62
208594
1697
abban az időszakban.
03:43
On our currentjelenlegi bestlegjobb estimatesbecsléseket,
63
211893
2325
Jelenlegi becslésünk szerint
03:46
we can savementés a life by distributingterjesztése
long-lastingtartós insecticide-treatedrovarirtóval kezelt bedágy netshálók
64
214242
4128
– tartós, rovarirtóval kezelt
szúnyoghálók terjesztésével –
pár ezer dollárból
megmenthetünk egy életet.
03:50
for just a fewkevés thousandezer dollarsdollár.
65
218394
1903
03:52
This is an amazingelképesztő opportunitylehetőség.
66
220911
1667
Ez nagyszerű lehetőség!
03:55
The secondmásodik bignagy prioritykiemelten fontos
is factorygyár farmingmezőgazdasági.
67
223594
2515
A másik kiemelt ügy
a nagyüzemi állattartás.
03:58
This is superneglectedszuperelhanyagolt.
68
226681
1563
Ez végtelenül elhanyagolt.
04:00
There are 50 billionmilliárd, ezermillió landföld animalsállatok
used everyminden yearév for foodélelmiszer,
69
228768
4143
Évente 50 milliárd szárazföldi állatot
használunk fel étkezési célra.
04:05
and the vasthatalmas majoritytöbbség of them
are factorygyár farmedtenyésztett,
70
233625
2548
Döntő többségüket
állattartó üzemekben nevelik,
04:08
livingélő in conditionskörülmények
of horrificrettenetes sufferingszenvedő.
71
236197
2380
rettenetes szenvedést okozó
körülmények között.
04:10
They're probablyvalószínűleg amongközött
the worst-offlegrosszabb-off creatureslények on this planetbolygó,
72
238601
3151
A legrosszabb sorsú teremtmények
közé tartoznak ezen a bolygón,
04:13
and in manysok casesesetek, we could
significantlyszignifikánsan improvejavul theirazok liveséletét
73
241776
2858
pedig sok esetben elenyésző összegből
04:16
for just penniesfillérekért perper animalállat.
74
244658
1602
jelentősen javíthatnánk az életükön.
04:19
YetMég this is hugelyrendkívül neglectedelhanyagolt.
75
247123
2082
Mégis roppantul elhanyagolt ez a kérdés.
04:21
There are 3,000 timesalkalommal
more animalsállatok in factorygyár farmsgazdaságok
76
249229
3810
3000-szer több állat él
nagyüzemi tartásban,
04:25
than there are strayKóbor petsHáziállat,
77
253063
1561
mint amennyi kóbor állat van,
04:28
but yetmég, factorygyár farmingmezőgazdasági getsjelentkeznek one fiftiethÖtvenedik
of the philanthropicfilantróp fundingfinanszírozás.
78
256600
4373
mégis a nagyüzemi állattartás
a felajánlások egyötvened részét kapja.
04:34
That meanseszközök additionalTovábbi
resourceserőforrások in this areaterület
79
262211
2128
Tehát további erőforrások ezen a területen
04:36
could have a trulyvalóban transformativeátalakító impacthatás.
80
264363
2150
valódi, gyökeres változást
idézhetnének elő.
A harmadik terület az, amire
leginkább szeretnék összpontosítani,
04:39
Now the thirdharmadik areaterület is the one
that I want to focusfókusz on the mosta legtöbb,
81
267458
2985
04:42
and that's the categorykategória
of existentialegzisztenciális riskskockázatok:
82
270467
2984
ez pedig az egzisztenciális
kockázatok kategóriája:
04:45
eventsesemények like a nuclearnukleáris warháború
or a globalglobális pandemicjárvány
83
273475
3873
olyan események, mint például
nukleáris háború, globális járvány,
04:50
that could permanentlytartósan derailkisiklik a civilizationcivilizáció
84
278824
2611
amelyek végleg zátonyra
futtathatják a civilizációt,
04:54
or even leadvezet to the extinctionkihalás
of the humanemberi raceverseny.
85
282156
2436
vagy akár az emberi faj
kihalásához vezethetnek.
04:57
Let me explainmegmagyarázni why I think
this is suchilyen a bignagy prioritykiemelten fontos
86
285882
2540
Elmagyarázom, miért gondolom,
hogy ez kiemelt ügy
05:00
in termsfeltételek of this frameworkkeretrendszer.
87
288446
1337
a mi elméleti keretünkben.
05:02
First, sizeméret.
88
290992
1412
Először is a nagyságrendje miatt.
05:05
How badrossz would it be if there were
a trulyvalóban existentialegzisztenciális catastrophekatasztrófa?
89
293341
3889
Mekkora baj lenne, ha lesújtana ránk
egy valódi egzisztenciális katasztrófa?
05:10
Well, it would involvevonja the deathshaláleset
of all sevenhét billionmilliárd, ezermillió people on this planetbolygó
90
298920
6342
A bolygó hétmilliárd fős
népességének halálát okozná,
05:17
and that meanseszközök you
and everyonemindenki you know and love.
91
305286
3119
beleértve magunkat
és mindenkit, akit szeretünk.
05:21
That's just a tragedytragédia
of unimaginableelképzelhetetlen sizeméret.
92
309214
2579
Elképzelhetetlen mértékű tragédia lenne.
De ennél is nagyobb baj,
05:25
But then, what's more,
93
313684
1976
05:27
it would alsois mean the curtailmentmegszorítás
of humanity'semberiség futurejövő potentiallehetséges,
94
315684
3605
hogy megfosztaná az emberiséget
jövőbeli potenciáljától,
05:31
and I believe that humanity'semberiség
potentiallehetséges is vasthatalmas.
95
319313
2952
ami úgy gondolom, hatalmas.
05:35
The humanemberi raceverseny has been around
for about 200,000 yearsévek,
96
323551
3451
Az emberi faj mintegy 200 000 éve létezik,
05:39
and if she liveséletét as long
as a typicaltipikus mammalianemlős speciesfaj,
97
327026
2883
és ha addig él,
mint az emlősfajok általában,
05:41
she would last
for about two millionmillió yearsévek.
98
329933
2298
akkor még kb. 2 millió évig fennmarad.
05:46
If the humanemberi raceverseny
were a singleegyetlen individualEgyedi,
99
334884
2691
Ha az emberi fajt
egyetlen személynek vennénk,
05:49
she would be just 10 yearsévek oldrégi todayMa.
100
337599
2419
akkor most 10 éves lenne.
05:53
And what's more, the humanemberi raceverseny
isn't a typicaltipikus mammalianemlős speciesfaj.
101
341526
4166
Ráadásul az emberi faj
nem egy átlagos emlősfaj.
Ha vigyázunk, semmi sem indokolja,
05:58
There's no reasonok why, if we're carefulóvatos,
102
346950
1906
06:00
we should diemeghal off
after only two millionmillió yearsévek.
103
348880
2205
hogy 2 millió év után kihaljunk.
06:03
The earthföld will remainmarad habitablelakható
for 500 millionmillió yearsévek to come.
104
351839
4040
A Föld még 500 millió évig lakható lesz.
06:08
And if somedaymajd egyszer, we tookvett to the starscsillagok,
105
356696
1944
És ha egy nap eljutunk a csillagokig,
06:11
the civilizationcivilizáció could continueFolytatni
for billionsmilliárdokat more.
106
359640
2516
civilizációnk még több milliárd
évig folytatódhat.
06:16
So I think the futurejövő
is going to be really bignagy,
107
364193
2388
Tehát igen hosszú jövő vár ránk,
06:19
but is it going to be good?
108
367669
1802
de vajon jó lesz-e?
06:21
Is the humanemberi raceverseny
even really worthérdemes preservingmegőrzése?
109
369495
2817
Érdemes egyáltalán
fenntartani az emberi fajt?
06:26
Well, we hearhall all the time about
how things have been gettingszerzés worserosszabb,
110
374540
3929
Folyton azt halljuk, hogy a dolgok
egyre rosszabbra fordulnak,
06:31
but I think that when
we take the long runfuss,
111
379459
2693
de ha hosszú távon nézzük,
06:34
things have been gettingszerzés radicallyradikálisan better.
112
382176
2031
a dolgok lényegesen jobbra fordulnak.
06:37
Here, for examplepélda,
is life expectancyvárakozás over time.
113
385453
2294
Nézzük például
a várható élettartam alakulását.
06:40
Here'sItt van the proportionarány of people
not livingélő in extremeszélső povertyszegénység.
114
388892
3023
Itt azok arányát látjuk,
akik nem súlyos szegénységben élnek,
06:45
Here'sItt van the numberszám of countriesországok over time
that have decriminalizeddecriminalized homosexualityhomoszexualitás.
115
393106
4095
itt azon országok grafikonját, amelyek
dekriminalizálták a homoszexualitást,
06:50
Here'sItt van the numberszám of countriesországok over time
that have becomeválik democraticdemokratikus.
116
398848
3269
itt pedig azokét, amelyek
a demokrácia útjára léptek.
06:55
Then, when we look to the futurejövő,
there could be so much more to gainnyereség again.
117
403015
4619
Ha a jövőbe tekintünk,
annyi mindent érhetünk még el.
Sokkal gazdagabbak leszünk,
06:59
We'llMi lesz be so much richergazdagabb,
118
407658
1228
07:00
we can solvemegfejt so manysok problemsproblémák
that are intractablemegoldhatatlan todayMa.
119
408910
3595
képesek leszünk megoldani
számos, ma még kezelhetetlen problémát.
07:05
So if this is kindkedves of a graphgrafikon
of how humanityemberiség has progressedhaladt
120
413389
4445
Tehát, ha ez az ábra
az emberiség fejlődését mutatja
07:09
in termsfeltételek of totalteljes humanemberi
flourishingvirágzó over time,
121
417858
2890
civilizációnk egészének
felvirágzása szempontjából,
07:12
well, this is what we would expectelvár
futurejövő progressHaladás to look like.
122
420772
3355
akkor nézzük, milyen fejlődésre
számíthatunk a jövőben.
07:16
It's vasthatalmas.
123
424881
1150
Hatalmasra!
07:18
Here, for examplepélda,
124
426953
1198
Itt például eljutunk oda,
07:20
is where we would expectelvár no one
to liveélő in extremeszélső povertyszegénység.
125
428175
3746
amikor már senki nem él
súlyos szegénységben.
07:25
Here is where we would expectelvár
everyonemindenki to be better off
126
433930
3202
Itt eljutunk oda, amikor várhatóan
mindenki jobban él,
07:29
than the richestleggazdagabb personszemély aliveélő todayMa.
127
437156
1853
mint a leggazdagabb ember ma.
07:32
PerhapsTalán here is where we would discoverfelfedez
the fundamentalalapvető naturaltermészetes lawstörvények
128
440081
3192
Itt talán felfedezzük
a természet alapvető törvényeit,
07:35
that governszabályozzák our worldvilág.
129
443297
1268
amelyek szabályozzák a világ működését.
07:37
PerhapsTalán here is where we discoverfelfedez
an entirelyteljesen newúj formforma of artművészet,
130
445516
3705
Itt talán felfedezzük
a művészet egyik új formáját,
07:41
a formforma of musiczene we currentlyjelenleg lackhiány
the earsfülek to hearhall.
131
449245
3040
olyan zenét, amit jelenleg
nem hallhatunk a fülünkkel.
07:45
And this is just
the nextkövetkező fewkevés thousandezer yearsévek.
132
453072
2222
És ez csak a következő néhány ezer év.
07:47
OnceEgyszer we think pastmúlt that,
133
455827
2205
Ha még messzebbre tekintünk,
07:50
well, we can't even imagineKépzeld el the heightsmagasságok
that humanemberi accomplishmentteljesítmény mightesetleg reachelér.
134
458056
4167
el sem tudjuk képzelni, milyen vívmányokat
érhet el az emberiség.
07:54
So the futurejövő could be very bignagy
and it could be very good,
135
462247
3040
Tehát hosszú jövő várhat ránk,
ami nagyon jó is lehet,
07:57
but are there waysmódokon
we could loseelveszít this valueérték?
136
465311
2086
de alakulhat-e úgy, hogy elveszítjük?
08:00
And sadlySajnos, I think there are.
137
468366
1826
Sajnos igen.
08:02
The last two centuriesszázadok broughthozott
tremendousborzasztó technologicaltechnikai progressHaladás,
138
470216
4053
Az elmúlt két évszázad
hatalmas technológiai fejlődést hozott,
08:06
but they alsois broughthozott
the globalglobális riskskockázatok of nuclearnukleáris warháború
139
474293
2622
de magával hozta a nukleáris háború
globális kockázatát,
08:08
and the possibilitylehetőség
of extremeszélső climateéghajlat changeváltozás.
140
476939
2157
a szélsőséges klímaváltozás
lehetőségét is.
Ha az eljövendő évszázadokra tekintünk,
08:11
When we look to the comingeljövetel centuriesszázadok,
141
479725
1767
08:13
we should expectelvár to see
the sameazonos patternminta again.
142
481516
2647
ugyanilyen fejleményekre számíthatunk.
08:16
And we can see some radicallyradikálisan
powerfulerős technologiestechnológiák on the horizonhorizont.
143
484187
3356
Áttörést jelentő technológiákat
látunk kialakulóban.
08:20
SyntheticSzintetikus biologybiológia mightesetleg give us
the powererő to createteremt virusesvírusok
144
488132
2849
A szintetikus biológia segítségével
08:23
of unprecedentedpéldátlan
contagiousnesscontagiousness and lethalityhalálozást.
145
491005
3047
minden eddiginél fertőzőbb
és halálosabb vírusokat hozhatunk létre.
08:27
GeoengineeringGeoengineering mightesetleg give us the powererő
to dramaticallydrámaian alterAlter the earth'sföld climateéghajlat.
146
495131
4643
A bolygómérnökség segítségével érdemben
megváltoztathatjuk a Föld klímáját.
08:31
ArtificialMesterséges intelligenceintelligencia mightesetleg give us
the powererő to createteremt intelligentintelligens agentsszerek
147
499798
4199
A mesterséges intelligencia segítségével
magunknál jobb képességekkel rendelkező
08:36
with abilitiesképességek greaternagyobb than our ownsaját.
148
504021
2142
intelligens ágenseket hozhatunk létre.
08:40
Now, I'm not sayingmondás that any
of these riskskockázatok are particularlykülönösen likelyvalószínűleg,
149
508222
3888
Nem állítom, hogy ezek a kockázatok
kifejezetten valószínűek,
08:44
but when there's so much at staketét,
150
512134
1644
de ha ilyen hatalmas a tét,
08:45
even smallkicsi probabilitiesvalószínűség
matterügy a great dealüzlet.
151
513802
2967
a kis valószínűség is
nagyon sokat számít.
08:49
ImagineKépzeld el if you're gettingszerzés on a planerepülőgép
and you're kindkedves of nervousideges,
152
517568
3001
Képzeljék el, hogy repülőn utaznak,
és kissé aggódnak,
08:52
and the pilotpilóta reassuresmegnyugtatja a you by sayingmondás,
153
520593
3444
a pilóta pedig megnyugtatásul közli:
08:56
"There's only a one-in-a-thousandegy-az-egy-ezer
chancevéletlen of crashingösszetörő. Don't worryaggodalom."
154
524061
4634
"Csak egy az ezerhez a valószínűsége,
hogy lezuhanunk. Ne aggódjanak!"
09:02
Would you feel reassuredmegnyugtatta?
155
530157
1554
Megnyugodnának?
09:04
For these reasonsokok, I think that preservingmegőrzése
the futurejövő of humanityemberiség
156
532509
4088
Úgy gondolom emiatt,
hogy az emberiség jövőjének megvédése
09:08
is amongközött the mosta legtöbb importantfontos problemsproblémák
that we currentlyjelenleg facearc.
157
536621
2984
a jelenleg előttünk álló
egyik legfontosabb probléma.
09:12
But let's keep usinghasználva this frameworkkeretrendszer.
158
540546
2150
Nézzük meg elméleti keretünk
szempontjából.
09:14
Is this problemprobléma neglectedelhanyagolt?
159
542720
1310
Elhanyagolt-e ez a probléma?
09:18
And I think the answerválasz is yes,
160
546085
2282
Szerintem a válasz igen,
09:20
and that's because problemsproblémák
that affectérint futurejövő generationsgenerációk
161
548391
3325
mégpedig azért, mert a jövő
generációit érintő problémákat
09:23
are oftengyakran hugelyrendkívül neglectedelhanyagolt.
162
551740
1651
gyakran súlyosan elhanyagoljuk.
09:26
Why?
163
554930
1406
Miért?
09:28
Because futurejövő people
don't participaterészt venni in marketspiacok todayMa.
164
556360
3478
Mert a jövőbeli emberek
ma nem piaci szereplők.
09:31
They don't have a voteszavazás.
165
559862
1522
Nincs szavazatuk.
09:33
It's not like there's a lobbyelőcsarnok
representingképviselő the interestsérdekek
166
561931
2673
Semmilyen lobbicsoport
nem képviseli azok érdekeit,
09:36
of those bornszületett in 2300 ADHIRDETÉS.
167
564628
2023
akik mondjuk 2300-ban születtek.
09:40
They don't get to influencebefolyás
the decisionsdöntések we make todayMa.
168
568313
3242
Nincs ráhatásuk napjaink döntéseire.
09:43
They're voicelesszöngétlen.
169
571995
1191
Nincs beleszólásuk.
Emiatt még mindig csekély összeget
költünk olyan ügyekre,
09:46
And that meanseszközök we still spendtölt
a paltrycsekély amountösszeg on these issueskérdések:
170
574490
3445
09:49
nuclearnukleáris nonproliferationNonproliferation,
171
577959
1799
mint a nukleáris leszerelés,
09:51
geoengineeringgeoengineering, bioriskBiorisk a,
172
579782
2330
bolygómérnökség, biológiai kockázat,
mesterséges intelligencia biztonsága.
09:55
artificialmesterséges intelligenceintelligencia safetybiztonság.
173
583414
1642
09:57
All of these receivekap
only a fewkevés tenstíz of millionsTöbb millió of dollarsdollár
174
585923
2874
Ezek az ügyek évente
csak pár tízmillió dollárt kapnak
10:00
of philanthropicfilantróp fundingfinanszírozás everyminden yearév.
175
588821
1927
a jótékonysági felajánlásokból.
10:04
That's tinyapró comparedahhoz képest
to the 390 billionmilliárd, ezermillió dollarsdollár
176
592044
3929
Elenyésző a 390 milliárd
dollárhoz képest,
10:08
that's spentköltött on US philanthropyJótékonyság in totalteljes.
177
596790
2261
amit az USA-ban jótékonyságra fordítanak.
10:13
The finalvégső aspectvonatkozás of our frameworkkeretrendszer then:
178
601885
2484
A keretünk utolsó szempontját tekintve:
10:17
Is this solvablemegoldható?
179
605083
1190
Megoldható ez a probléma?
10:19
I believe it is.
180
607289
1289
Azt hiszem, igen.
10:21
You can contributehozzájárul with your moneypénz,
181
609014
3047
Hozzájárulhatunk pénzzel,
10:24
your careerkarrier or your politicalpolitikai engagementeljegyzés.
182
612085
2644
munkánkkal, politikai részvétellel.
Pénzünkkel támogathatjuk
10:28
With your moneypénz,
you can supporttámogatás organizationsszervezetek
183
616225
2175
az említett kockázatokra
összpontosító szervezeteket:
10:30
that focusfókusz on these riskskockázatok,
184
618424
1302
10:31
like the NuclearNukleáris ThreatFenyegetés InitiativeKezdeményezés,
185
619750
2555
a Nuclear Threat Initiative például
10:34
whichmelyik campaignskampányok to take nuclearnukleáris weaponsfegyverek
off hair-triggerhajkioldó alertéber,
186
622329
3660
a nukleáris fenyegetettség ellen harcol,
10:38
or the BlueKék RibbonSzalag PanelPanel, whichmelyik
developsfejleszt policyirányelv to minimizeminimalizálása the damagekár
187
626013
3571
a Blue Ribbon Panel programot dolgozott ki
a természetes és ember okozta járványok
10:41
from naturaltermészetes and man-mademesterséges pandemicsjárványok,
188
629608
2095
következményeinek enyhítésére,
10:45
or the CenterKözpont for Human-CompatibleEmberi-összeegyeztethető AIAI,
whichmelyik does technicalműszaki researchkutatás
189
633158
3260
a Center for Human-Compatible AI
kutatásokat folytat
10:48
to ensurebiztosít that AIAI systemsrendszerek
are safebiztonságos and reliablemegbízható.
190
636442
2747
az MI-rendszerek biztonságáért,
megbízhatóságáért.
10:52
With your politicalpolitikai engagementeljegyzés,
191
640652
1516
Politikai részvételünkkel
10:54
you can voteszavazás for candidatesjelöltek
that caregondoskodás about these riskskockázatok,
192
642192
3096
olyan jelöltekre szavazhatunk,
akik törődnek e kockázatokkal,
10:57
and you can supporttámogatás
greaternagyobb internationalnemzetközi cooperationegyüttműködés.
193
645312
2586
és nagyobb nemzetközi együttműködést
szorgalmazhatunk.
11:01
And then with your careerkarrier,
there is so much that you can do.
194
649767
3542
Munkánkkal is rengeteget segíthetünk.
11:05
Of coursetanfolyam, we need scientiststudósok
and policymakerspolitikai döntéshozók and organizationszervezet leadersvezetők,
195
653333
3672
Természetesen szükségünk van tudósokra,
politikaalkotókra, szervezeti vezetőkre,
de legalább ilyen fontos,
11:09
but just as importantlyfontosabb,
196
657865
1152
11:11
we alsois need accountantskönyvelők
and managersmenedzserek and assistantsasszisztensek
197
659041
4117
hogy legyenek könyvelők,
menedzserek, asszisztensek is
11:16
to work in these organizationsszervezetek
that are tacklingkezelése these problemsproblémák.
198
664691
3754
ezekben a szervezetekben,
amelyek e problémák megoldásán dolgoznak.
11:20
Now, the researchkutatás programprogram
of effectivehatékony altruismönzetlenség
199
668469
3492
A hatékony altruizmus kutatási programja
11:25
is still in its infancycsecsemőkorban,
200
673191
1444
egyelőre gyerekcipőben jár,
11:27
and there's still a hugehatalmas amountösszeg
that we don't know.
201
675262
2524
és rengeteg dolog van még,
amit nem tudunk.
11:31
But even with what we'vevoltunk learnedtanult so farmessze,
202
679173
2343
De már abból is, amit eddig megtanultunk,
11:34
we can see that by thinkinggondolkodás carefullygondosan
203
682748
2183
láthatjuk, hogy körültekintő
gondolkodással,
11:37
and by focusingösszpontosítás on those problemsproblémák
that are bignagy, solvablemegoldható and neglectedelhanyagolt,
204
685494
4873
a nagy, megoldható és elhanyagolt
problémákra összpontosítva
11:43
we can make a trulyvalóban tremendousborzasztó
differencekülönbség to the worldvilág
205
691152
2708
mélyreható változást
érhetünk el a világban
11:45
for thousandsTöbb ezer of yearsévek to come.
206
693884
1631
az elkövetkező évezredek számára.
11:47
Thank you.
207
695963
1151
Köszönöm.
11:49
(ApplauseTaps)
208
697138
4560
(Taps)
Translated by Zsuzsanna Lőrincz
Reviewed by Andrea Vida

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com