ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Will MacAskill: Dünyaya en çok faydayı nasıl sağlarız?

Filmed:
2,112,093 views

İnsanlığın yüz yüze olduğu onca sorun arasından önce hangisini çözmeye odaklanmalıyız? Dünyayı daha iyi bir yer yapmak üzerine bu göz alıcı konuşmada, etik filozofu Will MacAskill ''etkili fedakârlık'' felsefesi temeline dayanarak bu soruya bir bakış açısı sunuyor ve önde gelen üç küresel soruna dair fikirlerini paylaşıyor.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphgrafik
0
857
1479
Bu gördüğünüz grafik,
00:14
that representstemsil the economicekonomik historytarih
of humaninsan civilizationmedeniyet.
1
2360
3659
insan medeniyetinin ekonomik
tarihini temsil ediyor.
00:18
[WorldDünya GDPGSYİH perbaşına capitadüşen
over the last 200,000 yearsyıl]
2
6043
2400
[Son 200.000 yıl içinde
kişi başına düşen GSMH.]
00:23
There's not much going on, is there.
3
11757
2003
Aslında pek de önemli bir şey yok.
00:26
For the vastgeniş majorityçoğunluk of humaninsan historytarih,
4
14751
2347
İnsanlık tarihinin büyük çoğunluğu boyunca
00:29
prettygüzel much everyoneherkes livedyaşamış
on the equivalenteşdeğer of one dollardolar perbaşına day,
5
17835
4048
herkes günde bir dolara eşdeğer
bir düzeyde hayatını sürdürdü
00:33
and not much changeddeğişmiş.
6
21907
1286
ve pek bir şey değişmedi.
00:36
But then, something
extraordinaryolağanüstü happenedolmuş:
7
24757
2777
Sonra olağanüstü bir şey oldu:
00:40
the ScientificBilimsel and IndustrialEndüstriyel RevolutionsDevrimler.
8
28677
2811
Bilim ve Sanayi Devrimleri.
00:43
And the basicallytemel olarak flatdüz graphgrafik you just saw
9
31512
2785
Az önce gördüğünüz hareketsiz grafik
00:46
transformsdönüşümler into this.
10
34321
2675
işte buna dönüştü.
00:50
What this graphgrafik meansanlamına geliyor is that,
in termsşartlar of powergüç to changedeğişiklik the worldDünya,
11
38612
4635
Bunun anlamı şu ki
dünyayı değiştirme gücü konusunda
00:55
we livecanlı in an unprecedentedeşi görülmemiş time
in humaninsan historytarih,
12
43271
3438
insanlık tarihinde daha önce
öngörülmemiş bir devirde yaşıyoruz
00:58
and I believe our ethicalahlâki understandinganlayış
hasn'tdeğil sahiptir yethenüz caughtyakalandı up with this factgerçek.
13
46733
3944
ve ben etik düşünce şeklimizin
buna henüz ayak uyduramadığı kanısındayım.
01:03
The ScientificBilimsel and IndustrialEndüstriyel RevolutionsDevrimler
14
51716
1984
Bilim ve Sanayi Devrimleri
01:05
transformeddönüştürülmüş bothher ikisi de
our understandinganlayış of the worldDünya
15
53724
2909
hem dünyayı anlayış şeklimizi
dönüşüme uğrattı
01:08
and our abilitykabiliyet to alterALTER it.
16
56657
1669
hem de onu değiştirme yeteneğimizi.
01:11
What we need is an ethicalahlâki revolutiondevrim
17
59505
3667
İhtiyacımız olan şey etik bir devrim,
01:15
so that we can work out
18
63196
1548
çünkü ancak bu sayede
01:16
how do we use this tremendousmuazzam
bountycömertlik of resourceskaynaklar
19
64768
3152
bu muazzam kaynakları
dünyayı geliştirmek adına
01:19
to improveiyileştirmek the worldDünya.
20
67944
1395
nasıl kullanacağımızı anlarız.
01:22
For the last 10 yearsyıl,
21
70249
1591
Son 10 yıldır
01:23
my colleaguesmeslektaşlar and I have developedgelişmiş
a philosophyFelsefe and researchAraştırma programprogram
22
71864
3833
iş arkadaşlarımla birlikte bir felsefe
ve araştırma programı geliştiriyorum,
01:27
that we call effectiveetkili altruismözgecilik.
23
75721
1835
adı etkili fedakârlık.
01:30
It triesçalışır to respondyanıtlamak
to these radicalradikal changesdeğişiklikler in our worldDünya,
24
78366
3595
Dünyadaki bu radikal değişiklikere
yanıt vermeye çalışıyor,
01:33
useskullanımları evidencekanıt and carefuldikkatli reasoningmuhakeme
to try to answerCevap this questionsoru:
25
81985
4476
kanıt ve dikkatli mantık kullanarak
şu soruya cevap vermeye çalışıyor:
01:40
How can we do the mostçoğu good?
26
88173
2278
En çok faydayı nasıl sağlarız?
01:44
Now, there are manyçok issuessorunlar
you've got to addressadres
27
92265
3221
Bu sorunu aşmak istiyorsanız
01:47
if you want to tackleele almak this problemsorun:
28
95510
2263
yönelmeniz gereken pek çok nokta var:
01:49
whetherolup olmadığını to do good throughvasitasiyla your charitysadaka
29
97797
2031
Bağış yoluyla mı fayda sağlarsınız,
01:51
or your careerkariyer
or your politicalsiyasi engagementnişan,
30
99852
2152
kariyeriniz veya siyasi bağlılığınızla mı?
01:54
what programsprogramlar to focusodak on,
who to work with.
31
102028
2395
Hangi programlara odaklanmalı
veya kiminle çalışılmalı gibi.
01:57
But what I want to talk about
32
105624
1476
Ancak benim konuşmak istediğim,
01:59
is what I think is the mostçoğu
fundamentaltemel problemsorun.
33
107124
2872
bence en temel sorun.
02:02
Of all the manyçok problemssorunlar
that the worldDünya facesyüzleri,
34
110020
2693
Dünyanın yüz yüze olduğu
onca sorun arasından
02:05
whichhangi should we be focusedodaklı
on tryingçalışıyor to solveçözmek first?
35
113962
2659
önce hangisini çözmeye odaklanmalıyız?
02:10
Now, I'm going to give you a frameworkiskelet
for thinkingdüşünme about this questionsoru,
36
118668
3468
Bu soruyu düşünmek için
size bir alt yapı vermeye çalışacağım,
02:14
and the frameworkiskelet is very simplebasit.
37
122160
1936
oldukça basit bir alt yapı.
02:16
A problem'ssorun higherdaha yüksek priorityöncelik,
38
124842
1699
Sorunun önceliği ne kadar büyükse
02:19
the biggerDaha büyük, the more easilykolayca solvableçözülebilir
and the more neglectedbakımsız it is.
39
127416
4063
çözümü de o kadar kolay
ama bir o kadar da ihmal ediliyor.
02:24
BiggerDaha büyük is better,
40
132694
1642
Büyük sorun daha iyi
02:26
because we'vebiz ettik got more to gainkazanç
if we do solveçözmek the problemsorun.
41
134360
2841
çünkü çözmeyi başarırsak
kazanacağımız fayda daha fazla.
02:30
More easilykolayca solvableçözülebilir is better
42
138221
1569
Çözümünün kolay olması daha iyi
02:31
because I can solveçözmek the problemsorun
with lessaz time or moneypara.
43
139814
2824
çünkü daha az zaman ve parayla
bu sorunu çözebilirim.
02:35
And mostçoğu subtlyustaca,
44
143737
2063
Bir de en üstü kapalı olanı,
02:38
more neglectedbakımsız is better,
because of diminishingazalan returnsdöner.
45
146681
2849
daha çok ihmal edilmesi daha iyi
çünkü azalan verim kanunu var.
02:42
The more resourceskaynaklar that have alreadyzaten been
investedyatırım into solvingçözme a problemsorun,
46
150285
3714
Bir sorunu çözmeye yönelik
kullanılan kaynaklar arttıkça
02:46
the harderDaha güçlü it will be
to make additionalek progressilerleme.
47
154023
2905
ek ilerlemele kaydetmek de
bir o kadar zor olur.
02:50
Now, the keyanahtar thing that I want
to leaveayrılmak with you is this frameworkiskelet,
48
158560
4059
Burada size sunmak istediğim
ana fikir bu alt yapı,
02:54
so that you can think for yourselfkendin
49
162643
1984
böylece kendiniz de düşünerek
02:56
what are the highesten yüksek globalglobal prioritiesöncelikler.
50
164651
2321
en büyük önceliklerin
ne olduğunu anlayabilirsiniz.
02:59
But I and othersdiğerleri
in the effectiveetkili altruismözgecilik communitytoplum
51
167954
2692
Ancak etkili fedakârlık
topluluğunda ben ve diğerleri
03:02
have convergedbirleştirdi on threeüç moralmanevi issuessorunlar
that we believe are unusuallyOlağandışı importantönemli,
52
170670
5879
bilhassa önemli olduğunu düşündüğümüz
üç etik hususta fikir birliği yaptık,
03:08
scoreGol unusuallyOlağandışı well in this frameworkiskelet.
53
176573
2182
bu alt yapıda alışılmışın dışındalar.
03:11
First is globalglobal healthsağlık.
54
179151
2813
Birincisi küresel sağlık.
03:13
This is supersolvablesupersolvable.
55
181988
2411
Bunu çözmek süper kolay.
03:16
We have an amazingşaşırtıcı trackiz recordkayıt
in globalglobal healthsağlık.
56
184423
3397
Küresel sağlıkta inanılmaz
bir takip sistemimiz var.
03:19
RatesOranları of deathölüm from measlesKızamık,
malariasıtma, diarrhealishal diseasehastalık
57
187844
5420
Kızamık, sıtma, ishal
hastalıklarından can kaybı oranları
03:25
are down by over 70 percentyüzde.
58
193288
2246
en az yüzde 70 oranında düşüşte.
03:29
And in 1980, we eradicatederadike smallpoxÇiçek hastalığı.
59
197534
2789
1980 yılında çiçek hastalığını yok ettik.
03:33
I estimatetahmin we therebyböylece savedkaydedilmiş
over 60 millionmilyon liveshayatları.
60
201815
3667
O yüzden 60 milyonun üzerinde
hayat kurtardığımızı düşünüyorum.
03:37
That's more liveshayatları savedkaydedilmiş
than if we'devlenmek achievedelde worldDünya peaceBarış
61
205506
3064
Aynı zaman dilimi içinde
dünya barışını sağlamış olsak
03:40
in that sameaynı time perioddönem.
62
208594
1697
kurtaracağımız can sayısından daha fazla.
03:43
On our currentşimdiki besten iyi estimatestahminler,
63
211893
2325
Şu anki en iyi tahminlerimize göre
03:46
we can savekayıt etmek a life by distributingdağıtma
long-lastinguzun ömürlü insecticide-treatedböcek-tedavi bedyatak netsfileler
64
214242
4128
yalnızca birkaç bin dolar maliyetle
böcekgillere karşı dayanıklı cibinlikler
dağıtarak hayat kurtarabiliriz.
03:50
for just a fewaz thousandbin dollarsdolar.
65
218394
1903
03:52
This is an amazingşaşırtıcı opportunityfırsat.
66
220911
1667
Bu harika bir fırsat.
03:55
The secondikinci bigbüyük priorityöncelik
is factoryfabrika farmingtarım.
67
223594
2515
İkinci büyük öncelik fabrika çiftçiliği.
03:58
This is superneglectedsuperneglected.
68
226681
1563
Bu da aşırı ihmal ediliyor.
04:00
There are 50 billionmilyar landarazi animalshayvanlar
used everyher yearyıl for foodGıda,
69
228768
4143
Her yıl 50 milyar kara hayvanı
besin için kullanılıyor
04:05
and the vastgeniş majorityçoğunluk of them
are factoryfabrika farmedçiftlik,
70
233625
2548
ve bunların büyük çoğunluğu
fabrika çiftçiliğine tabi,
04:08
livingyaşam in conditionskoşullar
of horrifickorkunç sufferingçile.
71
236197
2380
çok kötü koşullarda acı çekiyorlar.
04:10
They're probablymuhtemelen amongarasında
the worst-offWorst-off creaturesyaratıklar on this planetgezegen,
72
238601
3151
Muhtemelen gezegendeki
durumu en kötü yaratıklar arasındalar
04:13
and in manyçok casesvakalar, we could
significantlyanlamlı improveiyileştirmek theironların liveshayatları
73
241776
2858
ve pek çok durumda birkaç kuruşla
hayatlarını büyük
ölçüde iyileştirebiliriz.
04:16
for just penniespeni perbaşına animalhayvan.
74
244658
1602
04:19
YetHenüz this is hugelyderece neglectedbakımsız.
75
247123
2082
Bu çok ihmal edilen bir konu.
04:21
There are 3,000 timeszamanlar
more animalshayvanlar in factoryfabrika farmsçiftlikleri
76
249229
3810
Sokak hayvanlarına kıyasla
fabrika çiftliklerde
üç bin kat daha fazla hayvan var
04:25
than there are straysokak petsEvcil hayvan,
77
253063
1561
04:28
but yethenüz, factoryfabrika farmingtarım getsalır one fiftiethfiftieth
of the philanthropichayırsever fundingfinansman.
78
256600
4373
ama buna rağmen fabrika çiftçiliği
hayırsever fonların 50'de birini alıyor.
04:34
That meansanlamına geliyor additionalek
resourceskaynaklar in this areaalan
79
262211
2128
Bu da demek oluyor ki
bu alandaki ek kaynaklar
04:36
could have a trulygerçekten transformativedönüştürücü impactdarbe.
80
264363
2150
gerçekten dönüşümsel bir etki yapabilir.
04:39
Now the thirdüçüncü areaalan is the one
that I want to focusodak on the mostçoğu,
81
267458
2985
Üçüncü alan en çok
odaklanmak istediğim alan
04:42
and that's the categorykategori
of existentialvaroluşsal risksriskler:
82
270467
2984
ve mevcut riskleri içine alan kategori bu:
04:45
eventsolaylar like a nuclearnükleer warsavaş
or a globalglobal pandemicyaygın
83
273475
3873
medeniyete kalıcı olarak
sarsıntı yaşatabilecek
04:50
that could permanentlykalıcı olarak derailraydan civilizationmedeniyet
84
278824
2611
ve hatta insan ırkı neslinin
tükenmesine yol açabilecek
04:54
or even leadöncülük etmek to the extinctionsönme
of the humaninsan raceyarış.
85
282156
2436
nükleer savaş veya küresel
bir salgın gibi olaylar.
04:57
Let me explainaçıklamak why I think
this is suchböyle a bigbüyük priorityöncelik
86
285882
2540
Bu alt yapı çerçevesinde
bunun neden önemli bir husus
olduğunu açıklamak istiyorum.
05:00
in termsşartlar of this frameworkiskelet.
87
288446
1337
05:02
First, sizeboyut.
88
290992
1412
Öncelikle büyüklük.
05:05
How badkötü would it be if there were
a trulygerçekten existentialvaroluşsal catastropheafet?
89
293341
3889
Gerçekten varoluşsal bir felaket olsa
durum ne kadar vahim olurdu?
05:10
Well, it would involvedahil the deathsölümler
of all sevenYedi billionmilyar people on this planetgezegen
90
298920
6342
Gezegendeki yedi milyar insanın
hayatını kaybetmesi demek olurdu,
05:17
and that meansanlamına geliyor you
and everyoneherkes you know and love.
91
305286
3119
buna siz ve tanıdığınız
ve sevdiğiniz herkes dâhil.
05:21
That's just a tragedytrajedi
of unimaginabledüşünülemez sizeboyut.
92
309214
2579
Hayal bile edilemeyecek
boyutta bir felaket.
05:25
But then, what's more,
93
313684
1976
Ancak dahası var,
05:27
it would alsoAyrıca mean the curtailmenttalihsizlikti
of humanity'sinsanlığın futuregelecek potentialpotansiyel,
94
315684
3605
bu ayrıca insanoğlunun gelecekteki
potansiyelinin kesilmesi demek
05:31
and I believe that humanity'sinsanlığın
potentialpotansiyel is vastgeniş.
95
319313
2952
ve ben insanoğlu potansiyelinin
devasa olduğu kanısındayım.
05:35
The humaninsan raceyarış has been around
for about 200,000 yearsyıl,
96
323551
3451
İnsan ırkı 200 bin yıldır var
05:39
and if she liveshayatları as long
as a typicaltipik mammalianmemeli speciesTürler,
97
327026
2883
ve eğer tipik bir memeli türü kadar
uzun süre var olacaksak
05:41
she would last
for about two millionmilyon yearsyıl.
98
329933
2298
yaklaşık iki milyon yıl
var olacağız demektir.
05:46
If the humaninsan raceyarış
were a singletek individualbireysel,
99
334884
2691
İnsan ırkı eğer tek bir birey olsaydı
05:49
she would be just 10 yearsyıl oldeski todaybugün.
100
337599
2419
bugün henüz 10 yaşında olurdu.
05:53
And what's more, the humaninsan raceyarış
isn't a typicaltipik mammalianmemeli speciesTürler.
101
341526
4166
Dahası, insan ırkı
tipik bir memeli türü değil.
05:58
There's no reasonneden why, if we're carefuldikkatli,
102
346950
1906
Dikkatli olduğumuz takdirde
06:00
we should dieölmek off
after only two millionmilyon yearsyıl.
103
348880
2205
iki milyon yıl sonra
yok olmamız için hiçbir neden yok.
06:03
The earthtoprak will remainkalmak habitableyaşanabilir
for 500 millionmilyon yearsyıl to come.
104
351839
4040
Dünya 500 milyon yıl daha süreyle
yaşanabilir olacak.
06:08
And if somedaybirgün, we tookaldı to the starsyıldızlar,
105
356696
1944
Bir gün yıldızlara ulaşabilirsek
06:11
the civilizationmedeniyet could continuedevam et
for billionsmilyarlarca more.
106
359640
2516
medeniyetimiz milyarlarca
yıl daha sürebilir.
06:16
So I think the futuregelecek
is going to be really bigbüyük,
107
364193
2388
O yüzden bence geleceğimiz
çok büyük olacak,
06:19
but is it going to be good?
108
367669
1802
peki güzel olacak mı?
06:21
Is the humaninsan raceyarış
even really worthdeğer preservingkoruma?
109
369495
2817
İnsan ırkı korumaya bile değer mi?
06:26
Well, we hearduymak all the time about
how things have been gettingalma worsedaha da kötüsü,
110
374540
3929
Sürekli her şeyin
daha kötüye gittiğini duyuyoruz
06:31
but I think that when
we take the long runkoş,
111
379459
2693
ama bence uzun vadede
06:34
things have been gettingalma radicallykökünden better.
112
382176
2031
her şey kökten daha iyiye gidiyor.
06:37
Here, for exampleörnek,
is life expectancybeklenti over time.
113
385453
2294
Örneğin zaman içindeki insan ömrü.
06:40
Here'sİşte the proportionoran of people
not livingyaşam in extremeaşırı povertyyoksulluk.
114
388892
3023
Bu, aşırı yoksulluk içinde
yaşamayan insanların oranı.
06:45
Here'sİşte the numbernumara of countriesülkeler over time
that have decriminalizedÖğrencilerime homosexualityeşcinsellik.
115
393106
4095
Zaman içinde eşcinselliği
suç olmaktan çıkaran ülkelerin sayısı.
06:50
Here'sİşte the numbernumara of countriesülkeler over time
that have becomeolmak democraticdemokratik.
116
398848
3269
Bu da zaman içinde demokratik sistemi
benimseyen ülkelerin sayısı.
06:55
Then, when we look to the futuregelecek,
there could be so much more to gainkazanç again.
117
403015
4619
Sonra geleceğe baktığımızda
kazanılacak çok daha şey olabilir.
06:59
We'llWe'll be so much richerzengin,
118
407658
1228
Çok daha zengin olacağız,
07:00
we can solveçözmek so manyçok problemssorunlar
that are intractablezorlu todaybugün.
119
408910
3595
bugün çok zorlu olan
pek çok sorunu çözebiliriz.
07:05
So if this is kindtür of a graphgrafik
of how humanityinsanlık has progressedilerledi
120
413389
4445
Zaman içinde toplam
insan gelişimi konusunda
07:09
in termsşartlar of totalGenel Toplam humaninsan
flourishingBayındır over time,
121
417858
2890
insanlığın ne kadar geliştiğini
gösteren bir grafik olsaydı
07:12
well, this is what we would expectbeklemek
futuregelecek progressilerleme to look like.
122
420772
3355
geleceğe dair ilerleme
işte bu şekilde görünürdü.
07:16
It's vastgeniş.
123
424881
1150
Bu muhteşem.
07:18
Here, for exampleörnek,
124
426953
1198
Burada gördüğünüz
07:20
is where we would expectbeklemek no one
to livecanlı in extremeaşırı povertyyoksulluk.
125
428175
3746
hiç kimsenin aşırı yoksulluk içinde
yaşamasını istemediğiz nokta.
07:25
Here is where we would expectbeklemek
everyoneherkes to be better off
126
433930
3202
Bu herkesin yaşayan en zengin insandan
07:29
than the richestEn zengin personkişi alivecanlı todaybugün.
127
437156
1853
daha iyi şartlarda olduğu nokta.
07:32
PerhapsBelki de here is where we would discoverkeşfetmek
the fundamentaltemel naturaldoğal lawsyasalar
128
440081
3192
Bu muhtemelen dünyayı yöneten
temel doğa yasalarını keşfettiğimiz nokta.
07:35
that governyönetmek our worldDünya.
129
443297
1268
07:37
PerhapsBelki de here is where we discoverkeşfetmek
an entirelyBaştan sona newyeni formform of artSanat,
130
445516
3705
Bu ise sanatın tamamen
yeni bir şeklini keşfettiğimiz nokta,
07:41
a formform of musicmüzik we currentlyşu anda lackeksiklik
the earskulaklar to hearduymak.
131
449245
3040
kulaklarımızın şu an
duyamadığı bir müzik türü.
07:45
And this is just
the nextSonraki fewaz thousandbin yearsyıl.
132
453072
2222
Üstelik bunlar sadece
gelecek birkaç bin yıl.
07:47
OnceBir kez we think pastgeçmiş that,
133
455827
2205
Bunun da ötesini düşündüğümüzde
07:50
well, we can't even imaginehayal etmek the heightsyükseklikleri
that humaninsan accomplishmentbaşarı mightbelki reachulaşmak.
134
458056
4167
insan başarısının ulaştığı noktayı
tahmin bile edemeyiz.
07:54
So the futuregelecek could be very bigbüyük
and it could be very good,
135
462247
3040
Yani gelecek çok büyük
ve çok güzel olabilir
07:57
but are there waysyolları
we could losekaybetmek this valuedeğer?
136
465311
2086
ama bu değeri kaybedebileceğimiz
nedenler var mı?
08:00
And sadlyNe yazık ki, I think there are.
137
468366
1826
Ne yazık ki evet var.
08:02
The last two centuriesyüzyıllar broughtgetirdi
tremendousmuazzam technologicalteknolojik progressilerleme,
138
470216
4053
Son iki yüzyılda çok büyük ölçüde
teknolojik ilerleme kaydedildi
08:06
but they alsoAyrıca broughtgetirdi
the globalglobal risksriskler of nuclearnükleer warsavaş
139
474293
2622
ancak nükleer savaş
ve aşırı iklim değişikliği gibi
08:08
and the possibilityolasılık
of extremeaşırı climateiklim changedeğişiklik.
140
476939
2157
beraberinde küresel riskler getirdi.
08:11
When we look to the cominggelecek centuriesyüzyıllar,
141
479725
1767
Gelecek yüzyıllara baktığımızda
08:13
we should expectbeklemek to see
the sameaynı patternmodel again.
142
481516
2647
aynı modeli görmek mümkün.
08:16
And we can see some radicallykökünden
powerfulgüçlü technologiesteknolojiler on the horizonufuk.
143
484187
3356
Ayrıca ufukta çok güçlü
teknolojiler de görebiliriz.
08:20
SyntheticSentetik biologyBiyoloji mightbelki give us
the powergüç to createyaratmak virusesvirüsler
144
488132
2849
Sentetik biyolojiyi kullanarak
08:23
of unprecedentedeşi görülmemiş
contagiousnesscontagiousness and lethalityÖlümcüllik.
145
491005
3047
bulaşıcı ve öldürücü virüsler
yaratma gücünü elde edebiliriz.
08:27
GeoengineeringGeoengineering mightbelki give us the powergüç
to dramaticallydramatik alterALTER the earth'sToprak en climateiklim.
146
495131
4643
Genetik mühendislikle Dünya iklimini
ciddi şekilde değiştirebiliriz.
08:31
ArtificialYapay intelligencezeka mightbelki give us
the powergüç to createyaratmak intelligentakıllı agentsajanları
147
499798
4199
Yapay zekâ kendi
yeteneklerimizden daha üstün
08:36
with abilitiesyetenekleri greaterbüyük than our ownkendi.
148
504021
2142
akıllı modeller yapmamızı sağlayabilir.
08:40
Now, I'm not sayingsöz that any
of these risksriskler are particularlyözellikle likelymuhtemelen,
149
508222
3888
Bu risklerinin hiçbirinin
özellikle yüksek olduğunu söylemiyorum
08:44
but when there's so much at stakekazık,
150
512134
1644
ama kaybedilecek bu kadar şey varken
08:45
even smallküçük probabilitiesolasılıklar
mattermadde a great dealanlaştık mı.
151
513802
2967
küçük ihtimallerin bile büyük önemi var.
08:49
ImagineHayal if you're gettingalma on a planeuçak
and you're kindtür of nervoussinir,
152
517568
3001
Bir uçağa bindiğinizi
ve gergin olduğunuzu hayal edin.
08:52
and the pilotpilot reassuresgüven veriyor you by sayingsöz,
153
520593
3444
Pilot sizi teselli edecek
şu sözleri söylüyor:
08:56
"There's only a one-in-a-thousandbin içinde tane
chanceşans of crashinggürültüyle çarpmak. Don't worryendişelenmek."
154
524061
4634
''Düşme ihtimali yalnızca binde bir.
Endişelenmeyin.''
09:02
Would you feel reassuredgüvence verdi?
155
530157
1554
Teselli olur muydunuz?
09:04
For these reasonsnedenleri, I think that preservingkoruma
the futuregelecek of humanityinsanlık
156
532509
4088
Bu sebeplerden ötürü
insan geleceğinin korunması
09:08
is amongarasında the mostçoğu importantönemli problemssorunlar
that we currentlyşu anda faceyüz.
157
536621
2984
şu an yüz yüze olduğumuz
en önemli sorunlar arasında.
09:12
But let's keep usingkullanma this frameworkiskelet.
158
540546
2150
Ancak bu alt yapıya devam edelim.
09:14
Is this problemsorun neglectedbakımsız?
159
542720
1310
Sorun ihmal mi ediliyor?
09:18
And I think the answerCevap is yes,
160
546085
2282
Bence bunun cevabı evet,
09:20
and that's because problemssorunlar
that affectetkilemek futuregelecek generationsnesiller
161
548391
3325
çünkü insan nesillerini etkileyen sorunlar
09:23
are oftensık sık hugelyderece neglectedbakımsız.
162
551740
1651
genellikle büyük ölçüde ihmal ediliyor.
09:26
Why?
163
554930
1406
Neden mi?
09:28
Because futuregelecek people
don't participatekatılmak in marketspiyasalar todaybugün.
164
556360
3478
Çünkü gelecekteki insanlar
bugün pazarlara katılım göstermiyorlar.
09:31
They don't have a voteoy.
165
559862
1522
Oy hakları yok.
09:33
It's not like there's a lobbylobi
representingtemsil eden the interestsilgi
166
561931
2673
M.Ö. 2300 yılında doğan insanların
09:36
of those borndoğmuş in 2300 ADREKLAM.
167
564628
2023
menfaatlerini gözetecek bir lobi yok.
09:40
They don't get to influenceetki
the decisionskararlar we make todaybugün.
168
568313
3242
Bugün verdiğimiz kararları etkilemiyorlar.
09:43
They're voicelesssessiz.
169
571995
1191
Sesleri yok.
09:46
And that meansanlamına geliyor we still spendharcamak
a paltryÖnemsiz amounttutar on these issuessorunlar:
170
574490
3445
Bu da demek oluyor ki
şu sorunlara gereksiz zaman harcıyorlar:
09:49
nuclearnükleer nonproliferationyayılmasını önleme,
171
577959
1799
nükleer proliferasyon,
09:51
geoengineeringgeoengineering, bioriskbiorisk,
172
579782
2330
genetik mühendislik, biyo risk,
09:55
artificialyapay intelligencezeka safetyemniyet.
173
583414
1642
yapay zekâ güvenlliği.
09:57
All of these receiveteslim almak
only a fewaz tensonlarca of millionsmilyonlarca of dollarsdolar
174
585923
2874
Tüm bunlar her yıl filantropik fonlardan
10:00
of philanthropichayırsever fundingfinansman everyher yearyıl.
175
588821
1927
yalnızca birkaç milyon dolar alıyorlar.
10:04
That's tinyminik comparedkarşılaştırıldığında
to the 390 billionmilyar dollarsdolar
176
592044
3929
ABD filantropisinde toplam harcanan
390 milyar dolarla kıyaslandığında
10:08
that's spentharcanmış on US philanthropyhayırseverlik in totalGenel Toplam.
177
596790
2261
bu çok küçük bir oran.
10:13
The finalnihai aspectGörünüş of our frameworkiskelet then:
178
601885
2484
O hâlde alt yapıya son bakış açısı:
10:17
Is this solvableçözülebilir?
179
605083
1190
Sorun çözülebilir mi?
10:19
I believe it is.
180
607289
1289
Çözülebileceğine inanıyorum.
10:21
You can contributekatkıda bulunmak with your moneypara,
181
609014
3047
Paranızla katkı koyabilirsiniz,
10:24
your careerkariyer or your politicalsiyasi engagementnişan.
182
612085
2644
kariyeriniz veya siyasi eğilimizle de.
10:28
With your moneypara,
you can supportdestek organizationsorganizasyonlar
183
616225
2175
Bu riskler üzerinde
çalışan organizasyonları
parayla destekleyebilirsiniz,
10:30
that focusodak on these risksriskler,
184
618424
1302
10:31
like the NuclearNükleer ThreatTehdit InitiativeGirişimi,
185
619750
2555
Nükleer Tehdit Hareketi gibi,
10:34
whichhangi campaignskampanyalar to take nuclearnükleer weaponssilahlar
off hair-triggertetikleyici alertAlarm,
186
622329
3660
bu hareket nükleer silahların tetikte
bekletilmesine karşı çıkıyor,
10:38
or the BlueMavi RibbonŞerit PanelPaneli, whichhangi
developsgeliştirir policypolitika to minimizeküçültmek the damagehasar
187
626013
3571
bir de Blue Ribbon Panel var,
doğal ve insan eseri salgınların zararını
10:41
from naturaldoğal and man-madeinsan yapımı pandemicssalgınlar,
188
629608
2095
minimize edecek düzenleme geliştiriyorlar.
10:45
or the CenterMerkezi for Human-Compatibleİnsan uyumlu AIAI,
whichhangi does technicalteknik researchAraştırma
189
633158
3260
Yapay Zekâ İnsan Uyumu Merkezi,
tüm yapay zekâ sistemlerinin
10:48
to ensuresağlamak that AIAI systemssistemler
are safekasa and reliabledürüst.
190
636442
2747
güvenilirliğinden emin olmak için
teknik araştırmalar yürütüyor.
10:52
With your politicalsiyasi engagementnişan,
191
640652
1516
Politik bağlılığınızla da
10:54
you can voteoy for candidatesadaylar
that carebakım about these risksriskler,
192
642192
3096
bu riskleri önemseyen
adaylara oy verebilir
10:57
and you can supportdestek
greaterbüyük internationalUluslararası cooperationişbirliği.
193
645312
2586
ve daha büyük bir uluslararası
işbirliğine destek olabilirsiniz.
11:01
And then with your careerkariyer,
there is so much that you can do.
194
649767
3542
Kariyerinizle de
yapabileceğiniz çok şey var.
11:05
Of coursekurs, we need scientistsBilim adamları
and policymakerspolitika and organizationorganizasyon leadersliderler,
195
653333
3672
Elbette bilim insanları, yasa yapıcılar
ve organizasyon liderleri lazım,
11:09
but just as importantlyönemlisi,
196
657865
1152
ama aynı önemde,
11:11
we alsoAyrıca need accountantsmuhasebeciler
and managersyöneticileri and assistantsyardımcıları
197
659041
4117
bu sorunlarla baş etmekte olan
organizasyonlarda çalışacak
11:16
to work in these organizationsorganizasyonlar
that are tacklingmücadele these problemssorunlar.
198
664691
3754
muhasebeci, yönetici
ve asistanlara da ihtiyacımız var.
11:20
Now, the researchAraştırma programprogram
of effectiveetkili altruismözgecilik
199
668469
3492
Etkili fedakârlık araştırma programı
11:25
is still in its infancybebeklik,
200
673191
1444
hâlâ ilk evresinde
11:27
and there's still a hugeKocaman amounttutar
that we don't know.
201
675262
2524
ve hâlâ bilmediğimiz
çok büyük bir miktar var.
11:31
But even with what we'vebiz ettik learnedbilgili so faruzak,
202
679173
2343
Ancak öğrendiğimiz bunca şeye rağmen
11:34
we can see that by thinkingdüşünme carefullydikkatlice
203
682748
2183
dikkatli düşünerek şunu görüyoruz,
11:37
and by focusingodaklanma on those problemssorunlar
that are bigbüyük, solvableçözülebilir and neglectedbakımsız,
204
685494
4873
büyük, çözülebilir ve ihmal edilen
sorunlar üzerinde odaklanarak
11:43
we can make a trulygerçekten tremendousmuazzam
differencefark to the worldDünya
205
691152
2708
gelecek binlerce yıl boyunca
dünyada inanılmaz bir fark yaratabiliriz
11:45
for thousandsbinlerce of yearsyıl to come.
206
693884
1631
11:47
Thank you.
207
695963
1151
Teşekkürler.
11:49
(ApplauseAlkış)
208
697138
4560
(Alkışlar)
Translated by Cihan Ekmekçi
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com