ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

ウィル・マカスキル: この時代の最も重要な倫理的課題は何か?

Filmed:
2,112,093 views

人類が対峙する数々の問題の中で、最初に取り組むべきは何か?世界をどのように良くすべきかを語る説得力のあるトークで、倫理哲学者のウィル・マカスキルは「効果的利他主義」という哲学に基づいてこの問題を解く枠組みを示し、喫緊の3つの地球規模の課題への取り組み方を皆さんと共有します。
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphグラフ
0
857
1479
このグラフは
00:14
that representsは表す the economic経済的 history歴史
of human人間 civilization文明.
1
2360
3659
人類文明の経済史を表しています
00:18
[World世界 GDPGDP per〜ごと capita一人
over the last 200,000 years]
2
6043
2400
[過去20万年間の
世界の1人当たりのGDP推移]
00:23
There's not much going on, is there.
3
11757
2003
あまり変化がありませんよね
00:26
For the vast広大 majority多数 of human人間 history歴史,
4
14751
2347
人類史の大部分において
00:29
prettyかなり much everyoneみんな lived住んでいました
on the equivalent同等 of one dollarドル per〜ごと day,
5
17835
4048
ほぼすべての人が1日1ドル相当の生活をし
00:33
and not much changedかわった.
6
21907
1286
あまり変わっていません
00:36
But then, something
extraordinary特別な happened起こった:
7
24757
2777
しかしその後
驚くべきことが起こりました
00:40
the Scientific科学的 and Industrial産業 Revolutions革命.
8
28677
2811
科学革命そして産業革命です
00:43
And the basically基本的に flat平らな graphグラフ you just saw
9
31512
2785
ご覧になった
基本的に平坦だったグラフが
00:46
transforms変換 into this.
10
34321
2675
このように変化します
00:50
What this graphグラフ means手段 is that,
in terms条項 of powerパワー to change変化する the world世界,
11
38612
4635
このグラフが意味するのは
世界を変革する力という点では
00:55
we liveライブ in an unprecedented前例のない time
in human人間 history歴史,
12
43271
3438
私たちは今 人類史の新たな局面を
生きているということです
00:58
and I believe our ethical倫理的な understanding理解
hasn't持っていない yetまだ caught捕らえられた up with this fact事実.
13
46733
3944
倫理的な理解力はこの事実に
まだ追い付けていないと思います
01:03
The Scientific科学的 and Industrial産業 Revolutions革命
14
51716
1984
科学革命と産業革命は
01:05
transformed変形した bothどちらも
our understanding理解 of the world世界
15
53724
2909
私たちの世界に対する理解と
変化をもたらす力を
01:08
and our ability能力 to alter変更する it.
16
56657
1669
すっかり変えてしまいました
01:11
What we need is an ethical倫理的な revolution革命
17
59505
3667
私たちが必要としているのは倫理改革で
01:15
so that we can work out
18
63196
1548
それにより
01:16
how do we use this tremendousすばらしい
bounty賞金 of resourcesリソース
19
64768
3152
世界を改善するために
莫大な資源を どう活用するか
01:19
to improve改善する the world世界.
20
67944
1395
考えることが可能になります
01:22
For the last 10 years,
21
70249
1591
これまでの10年間に
01:23
my colleagues同僚 and I have developed発展した
a philosophy哲学 and research研究 programプログラム
22
71864
3833
私と同僚とで「効果的利他主義」という
哲学と研究プログラムを
01:27
that we call effective効果的な altruism利他主義.
23
75721
1835
開発しました
01:30
It tries試行する to respond応答する
to these radicalラジカル changes変更 in our world世界,
24
78366
3595
世界の急進的な変化に対処しようと試み
01:33
uses用途 evidence証拠 and careful慎重に reasoning推論
to try to answer回答 this question質問:
25
81985
4476
根拠と慎重な推論に基づいて
これに答えようとするものです
01:40
How can we do the most最も good?
26
88173
2278
どうすれば最大の善を行えるのか?
01:44
Now, there are manyたくさんの issues問題
you've got to address住所
27
92265
3221
まず この問題に立ち向うためには
01:47
if you want to tackleタックル this problem問題:
28
95510
2263
扱うべき課題がたくさんあります
01:49
whetherかどうか to do good throughを通して your charity慈善団体
29
97797
2031
善い行いを 慈善活動で実践するのか
01:51
or your careerキャリア
or your political政治的 engagementエンゲージメント,
30
99852
2152
仕事や政治活動を通して進めるのか—
01:54
what programsプログラム to focusフォーカス on,
who to work with.
31
102028
2395
どのプログラムに重点を置き
誰と協力すべきか などです
01:57
But what I want to talk about
32
105624
1476
でもここでお話ししたいのは
01:59
is what I think is the most最も
fundamental基本的な problem問題.
33
107124
2872
私が考える最も根本的な問題です
02:02
Of all the manyたくさんの problems問題
that the world世界 faces,
34
110020
2693
世界が直面する全ての問題の中でも
02:05
whichどの should we be focused集中した
on trying試す to solve解決する first?
35
113962
2659
最初に着目し解決を試みるべき
問題は何でしょうか?
02:10
Now, I'm going to give you a frameworkフレームワーク
for thinking考え about this question質問,
36
118668
3468
この問題を考えるための
フレームワークを示しましょう
02:14
and the frameworkフレームワーク is very simple単純.
37
122160
1936
それはとてもシンプルです
02:16
A problem's問題の higher高い priority優先,
38
124842
1699
優先順位が高い問題とは
02:19
the biggerより大きい, the more easily簡単に solvable解決可能な
and the more neglected無視された it is.
39
127416
4063
より大きく より簡単に解決でき
より見過ごされているものです
02:24
Biggerより大きい is better,
40
132694
1642
大きい方が良いのは
02:26
because we've私たちは got more to gain利得
if we do solve解決する the problem問題.
41
134360
2841
その問題が解決すると
リターンがより大きいからです
02:30
More easily簡単に solvable解決可能な is better
42
138221
1569
より簡単に解決できる方が良いのは
02:31
because I can solve解決する the problem問題
with lessもっと少なく time or moneyお金.
43
139814
2824
少ない時間と費用で
問題を解決できるからです
02:35
And most最も subtly微妙,
44
143737
2063
そして絶妙な点は
「収穫逓減」の観点から
02:38
more neglected無視された is better,
because of diminishing減少する returns返品.
45
146681
2849
見過ごされた手付かずの
問題の方が良いのです
02:42
The more resourcesリソース that have already既に been
invested投資した into solving解決する a problem問題,
46
150285
3714
既に問題解決に費やされた
リソースが大きいほど
02:46
the harderもっと強く it will be
to make additional追加 progress進捗.
47
154023
2905
更なる進歩を生み出すのは
難しくなります
02:50
Now, the keyキー thing that I want
to leave離れる with you is this frameworkフレームワーク,
48
158560
4059
今日お話しする
このフレームワークで
02:54
so that you can think for yourselfあなた自身
49
162643
1984
世界の最優先課題を
02:56
what are the highest最高 globalグローバル priorities優先順位.
50
164651
2321
自分の事として考えられるようになります
02:59
But I and othersその他
in the effective効果的な altruism利他主義 communityコミュニティ
51
167954
2692
効果的利他主義の研究コミュニティの
私たちは
03:02
have converged収束した on three moral道徳 issues問題
that we believe are unusually異常に important重要,
52
170670
5879
このフレームワークで著しくスコアが高く
他に抜きん出て重要と考える倫理課題を
03:08
scoreスコア unusually異常に well in this frameworkフレームワーク.
53
176573
2182
3つに収束しました
03:11
First is globalグローバル health健康.
54
179151
2813
第1は国際保健です
03:13
This is supersolvable超溶解可能.
55
181988
2411
これは解決可能性がきわめて高いです
03:16
We have an amazing素晴らしい trackトラック record記録
in globalグローバル health健康.
56
184423
3397
国際保健問題については
素晴らしい実績があります
03:19
Rates料金 of death from measles麻疹,
malariaマラリア, diarrheal下痢 disease疾患
57
187844
5420
はしか マラリア
下痢性疾患による死亡率は
03:25
are down by over 70 percentパーセント.
58
193288
2246
70%以上も低下しました
03:29
And in 1980, we eradicated根絶された smallpox天然痘.
59
197534
2789
1980年には天然痘を根絶しました
03:33
I estimate推定 we therebyそれによって saved保存された
over 60 million百万 lives人生.
60
201815
3667
これは 6,000万人以上の
命を救ったと推定します
03:37
That's more lives人生 saved保存された
than if we'd結婚した achieved達成された world世界 peace平和
61
205506
3064
同じ期間に世界平和を実現したとしたら
救えたはずの命の数を
03:40
in that same同じ time period期間.
62
208594
1697
上回ります
03:43
On our current現在 bestベスト estimates見積り,
63
211893
2325
現時点でのベストな推定では
03:46
we can saveセーブ a life by distributing配布する
long-lasting長持ちする insecticide-treated殺虫剤処理 bedベッド netsネット
64
214242
4128
わずか数千ドルで購入できる
長期間効く殺虫剤が塗布された蚊帳で
03:50
for just a few少数 thousand dollarsドル.
65
218394
1903
ひとつの命が救えます
03:52
This is an amazing素晴らしい opportunity機会.
66
220911
1667
これは驚くべきチャンスです
03:55
The second二番 big大きい priority優先
is factory工場 farming農業.
67
223594
2515
2番目の重要優先課題は工場式畜産です
03:58
This is superneglected超無視.
68
226681
1563
非常に見過ごされています
04:00
There are 50 billion land土地 animals動物
used everyすべて year for foodフード,
69
228768
4143
毎年500億もの陸生動物が食料にされ
04:05
and the vast広大 majority多数 of them
are factory工場 farmed養殖された,
70
233625
2548
その大部分は凄惨な苦しみの伴う
04:08
living生活 in conditions条件
of horrific恐ろしい suffering苦しみ.
71
236197
2380
工場飼育をされています
04:10
They're probably多分 among
the worst-off最悪のオフ creatures生き物 on this planet惑星,
72
238601
3151
そのような動物は地球上
最も虐げられた生き物に含まれ
04:13
and in manyたくさんの cases症例, we could
significantly有意に improve改善する their彼らの lives人生
73
241776
2858
多くの場合 一匹当り数セントで
彼らの生活環境を
04:16
for just penniesペニー per〜ごと animal動物.
74
244658
1602
著しく改善できるのです
04:19
Yetまだ this is hugely大いに neglected無視された.
75
247123
2082
非常に見過ごされていることです
04:21
There are 3,000 times
more animals動物 in factory工場 farms農場
76
249229
3810
保護犬猫の3,000倍の数の動物が
04:25
than there are stray迷い petsペット,
77
253063
1561
工場飼育されていますが
04:28
but yetまだ, factory工場 farming農業 gets取得 one fiftieth50番目
of the philanthropic慈善事業 funding資金調達.
78
256600
4373
工場式畜産動物が受ける慈善的支援金額は
犬猫の50分の1に過ぎません
04:34
That means手段 additional追加
resourcesリソース in this areaエリア
79
262211
2128
この分野での追加資源が
04:36
could have a truly真に transformative変形的 impact影響.
80
264363
2150
革新的なインパクトを持つということです
04:39
Now the third三番 areaエリア is the one
that I want to focusフォーカス on the most最も,
81
267458
2985
3つ目の分野は私が最も着目したい分野で
04:42
and that's the categoryカテゴリー
of existential存在 risksリスク:
82
270467
2984
人類存続の危機というカテゴリーです
04:45
eventsイベント like a nuclear war戦争
or a globalグローバル pandemicパンデミック
83
273475
3873
例えば核戦争や世界的な疫病のように
04:50
that could permanently永久に derail脱線 civilization文明
84
278824
2611
文明を永久に停滞させたり
04:54
or even lead to the extinction絶滅
of the human人間 raceレース.
85
282156
2436
一歩誤ると人類を滅亡に
導きかねないリスクのことです
04:57
Let me explain説明する why I think
this is suchそのような a big大きい priority優先
86
285882
2540
このフレームワークで
なぜこれが優先されるか
05:00
in terms条項 of this frameworkフレームワーク.
87
288446
1337
説明させてください
05:02
First, sizeサイズ.
88
290992
1412
第1にその規模です
05:05
How bad悪い would it be if there were
a truly真に existential存在 catastrophe災害?
89
293341
3889
真に人類存続に関わる大災害があるとしたら
如何に凄まじい事になるのか?
05:10
Well, it would involve関与する the deaths
of all sevenセブン billion people on this planet惑星
90
298920
6342
おそらく地球上の70億人全てが
死滅することになるでしょうし
05:17
and that means手段 you
and everyoneみんな you know and love.
91
305286
3119
その中にはあなたや
あなたの知人や愛する人が皆含まれます
05:21
That's just a tragedy悲劇
of unimaginable想像を絶する sizeサイズ.
92
309214
2579
想像できない規模の悲劇です
05:25
But then, what's more,
93
313684
1976
そして更に悪いことには
05:27
it would alsoまた、 mean the curtailment削減
of humanity's人類 future未来 potential潜在的な,
94
315684
3605
それは人類が持つ未来の可能性が
狭まることを意味しますが
05:31
and I believe that humanity's人類
potential潜在的な is vast広大.
95
319313
2952
私は人類には とても大きな
可能性があると信じています
05:35
The human人間 raceレース has been around
for about 200,000 years,
96
323551
3451
人類は約20万年生息していますが
05:39
and if she lives人生 as long
as a typical典型的な mammalian哺乳類 species,
97
327026
2883
典型的な哺乳類の種として生息を続けた場合
05:41
she would last
for about two million百万 years.
98
329933
2298
その寿命は約200万年程です
05:46
If the human人間 raceレース
were a singleシングル individual個人,
99
334884
2691
人類の歴史を人生に置き換えると
05:49
she would be just 10 years old古い today今日.
100
337599
2419
今は10歳くらいでしょう
05:53
And what's more, the human人間 raceレース
isn't a typical典型的な mammalian哺乳類 species.
101
341526
4166
更に人類は典型的な哺乳類ではありません
05:58
There's no reason理由 why, if we're careful慎重に,
102
346950
1906
注意深く行動すれば
06:00
we should die死ぬ off
after only two million百万 years.
103
348880
2205
たった200万年で
絶滅する理由などありません
06:03
The earth地球 will remain残る habitable住みやすい
for 500 million百万 years to come.
104
351839
4040
地球は後5億年は居住可能でしょう
06:08
And if somedayいつか, we took取った to the stars,
105
356696
1944
そしていつか私たちが他の星に行けば
06:11
the civilization文明 could continue持続する
for billions何十億 more.
106
359640
2516
更に何十億年も文明を維持できるでしょう
06:16
So I think the future未来
is going to be really big大きい,
107
364193
2388
未来はとても大きくなると私は思います
06:19
but is it going to be good?
108
367669
1802
でも 良くなっていくのでしょうか?
06:21
Is the human人間 raceレース
even really worth価値 preserving保存?
109
369495
2817
人類は存続する価値があるのでしょうか?
06:26
Well, we hear聞く all the time about
how things have been getting取得 worse悪化する,
110
374540
3929
ことある毎に
物事が悪くなるのを耳にしますが
06:31
but I think that when
we take the long run走る,
111
379459
2693
私が思うに長い目で見れば
06:34
things have been getting取得 radically根本的に better.
112
382176
2031
物事は劇的に良くなっています
06:37
Here, for example,
is life expectancy期待 over time.
113
385453
2294
例えばこれは 平均余命の推移です
06:40
Here'sここにいる the proportion割合 of people
not living生活 in extreme極端な poverty貧困.
114
388892
3023
極貧生活をしていない人口の割合
06:45
Here'sここにいる the number of countries over time
that have decriminalized非犯罪化された homosexuality同性愛.
115
393106
4095
同性愛が合法化された国の数
06:50
Here'sここにいる the number of countries over time
that have become〜になる democratic民主的.
116
398848
3269
民主化された国の数の推移
06:55
Then, when we look to the future未来,
there could be so much more to gain利得 again.
117
403015
4619
未来を見通したときには
もっと向上するでしょう
06:59
We'll私たちは be so much richerより豊かな,
118
407658
1228
私たちはもっと裕福になり
07:00
we can solve解決する so manyたくさんの problems問題
that are intractable扱いにくい today今日.
119
408910
3595
現在では手に負えない
多くの問題を解決できるでしょう
07:05
So if this is kind種類 of a graphグラフ
of how humanity人類 has progressed進んだ
120
413389
4445
このグラフが
総合的な人類の繁栄という観点で
07:09
in terms条項 of total合計 human人間
flourishing繁栄する over time,
121
417858
2890
人類の進歩を示すとすると
07:12
well, this is what we would expect期待する
future未来 progress進捗 to look like.
122
420772
3355
私たちが予想する未来の進展は
このようなものです
07:16
It's vast広大.
123
424881
1150
大規模なのです
07:18
Here, for example,
124
426953
1198
これがその例で
07:20
is where we would expect期待する no one
to liveライブ in extreme極端な poverty貧困.
125
428175
3746
誰も極端な貧困で生活する人がいない世界です
07:25
Here is where we would expect期待する
everyoneみんな to be better off
126
433930
3202
誰もがこんにちの最も裕福な人よりも
良い生活ができるであろう
07:29
than the richest最も豊かな person alive生きている today今日.
127
437156
1853
そんな世界です
07:32
Perhapsおそらく here is where we would discover発見する
the fundamental基本的な naturalナチュラル laws法律
128
440081
3192
私達の住む世界を支配する
自然の法則を発見できる
07:35
that govern支配する our world世界.
129
443297
1268
そんな世界です
07:37
Perhapsおそらく here is where we discover発見する
an entirely完全に new新しい form of artアート,
130
445516
3705
もしかしたらまったく新しい形式の芸術や
07:41
a form of music音楽 we currently現在 lack欠如
the ears to hear聞く.
131
449245
3040
今はまだ理解できない新しい音楽を
発見できるかもしれません
07:45
And this is just
the next few少数 thousand years.
132
453072
2222
それらはたった数千年先の話です
07:47
Once一度 we think past過去 that,
133
455827
2205
その先を考えてみると
07:50
well, we can't even imagine想像する the heightsハイツ
that human人間 accomplishment達成 mightかもしれない reachリーチ.
134
458056
4167
人類の成果が到達できるかもしれない高みは
想像さえできません
07:54
So the future未来 could be very big大きい
and it could be very good,
135
462247
3040
未来はとても壮大で
とても素晴らしいものになり得るのです
07:57
but are there ways方法
we could lose失う this value?
136
465311
2086
でもこの価値を失う道筋は
あるのでしょうか?
08:00
And sadly悲しいことに, I think there are.
137
468366
1826
残念なことにあるのです
08:02
The last two centuries世紀 brought持ってきた
tremendousすばらしい technological技術的 progress進捗,
138
470216
4053
過去2世紀は途轍もない
科学技術の進歩をもたらしました
08:06
but they alsoまた、 brought持ってきた
the globalグローバル risksリスク of nuclear war戦争
139
474293
2622
それと同時に世界的な核戦争の脅威や
08:08
and the possibility可能性
of extreme極端な climate気候 change変化する.
140
476939
2157
極端な気候変動の可能性をもたらしたのです
08:11
When we look to the coming到来 centuries世紀,
141
479725
1767
来たるべき世紀を展望すると
08:13
we should expect期待する to see
the same同じ patternパターン again.
142
481516
2647
同じパターンが見えることを
想定すべきです
08:16
And we can see some radically根本的に
powerful強力な technologiesテクノロジー on the horizon地平線.
143
484187
3356
劇的に強力な科学技術が興るでしょう
08:20
Synthetic合成 biology生物学 mightかもしれない give us
the powerパワー to create作成する virusesウイルス
144
488132
2849
合成生物学により かつてない
伝染性と致死性を持つ
08:23
of unprecedented前例のない
contagiousness伝染性 and lethality致死性.
145
491005
3047
ウィルスを作り出すことが
可能になるかもしれません
08:27
Geoengineeringジオエンジニアリング mightかもしれない give us the powerパワー
to dramatically劇的に alter変更する the earth's地球の climate気候.
146
495131
4643
地球工学で劇的に地球の気候を
変えられるようになるかもしれません
08:31
Artificial人工的な intelligenceインテリジェンス mightかもしれない give us
the powerパワー to create作成する intelligentインテリジェントな agentsエージェント
147
499798
4199
人工知能で人類より優れた能力を持つ
知的エージェントを
08:36
with abilities能力 greater大きい than our own自分の.
148
504021
2142
作れるようになるかもしれません
08:40
Now, I'm not saying言って that any
of these risksリスク are particularly特に likelyおそらく,
149
508222
3888
ただし どの脅威が特に実現しやすいかが
問題なのではなく
08:44
but when there's so much at stakeステーク,
150
512134
1644
及ぼす影響の大きさを考えると
08:45
even small小さい probabilities確率
matter問題 a great deal対処.
151
513802
2967
可能性が低くてもそれは大変なことなのです
08:49
Imagine想像する if you're getting取得 on a plane飛行機
and you're kind種類 of nervous神経質な,
152
517568
3001
航空機に乗ることを想像してください
不安になった皆さんを
08:52
and the pilotパイロット reassures安心する you by saying言って,
153
520593
3444
安心させようと
パイロットがこう言います
08:56
"There's only a one-in-a-thousand1000人に1人
chanceチャンス of crashingクラッシュ. Don't worry心配."
154
524061
4634
「事故に遭う確率はたった1,000分の1です
心配はいりません」
09:02
Would you feel reassured安心して?
155
530157
1554
安心できたでしょうか?
09:04
For these reasons理由, I think that preserving保存
the future未来 of humanity人類
156
532509
4088
このような理由から
人類の生存を保障することが
09:08
is among the most最も important重要 problems問題
that we currently現在 face.
157
536621
2984
私たちが現在直面する
最も重要な問題の一つだと考えます
09:12
But let's keep usingを使用して this frameworkフレームワーク.
158
540546
2150
ではこのフレームワークを
使い続けましょう
09:14
Is this problem問題 neglected無視された?
159
542720
1310
これは見過ごされた問題か?
09:18
And I think the answer回答 is yes,
160
546085
2282
その答えは「Yes」だと思います
09:20
and that's because problems問題
that affect影響を与える future未来 generations世代
161
548391
3325
なぜなら未来の世代に影響する問題は
しばしば容易に
09:23
are oftenしばしば hugely大いに neglected無視された.
162
551740
1651
見過ごされてしまうからです
09:26
Why?
163
554930
1406
なぜでしょう?
09:28
Because future未来 people
don't participate参加する in markets市場 today今日.
164
556360
3478
それは未来の人がこんにちの市場には
存在しないからです
09:31
They don't have a vote投票.
165
559862
1522
選挙権も持ちません
09:33
It's not like there's a lobbyロビー
representing代理人 the interests関心
166
561931
2673
2300年に生まれてくる人の
利益を代弁する
09:36
of those bornうまれた in 2300 AD広告.
167
564628
2023
ロビー活動もありません
09:40
They don't get to influence影響
the decisions決定 we make today今日.
168
568313
3242
彼らは こんにち我々が行う判断に
干渉することができません
09:43
They're voiceless無声.
169
571995
1191
訴えるすべがないのです
09:46
And that means手段 we still spend費やす
a paltry骨抜きな amount on these issues問題:
170
574490
3445
そう考えると いろいろな問題への投資は
まだわずかなものです
09:49
nuclear nonproliferation不拡散,
171
577959
1799
核拡散防止
09:51
geoengineeringジオエンジニアリング, bioriskバイオリスク,
172
579782
2330
地球工学
バイオリスク
09:55
artificial人工的な intelligenceインテリジェンス safety安全性.
173
583414
1642
人工知能の安全性などです
09:57
All of these receive受け取る
only a few少数 tens数十 of millions何百万 of dollarsドル
174
585923
2874
今挙げたことに費やされる額は
毎年慈善団体の基金からの
10:00
of philanthropic慈善事業 funding資金調達 everyすべて year.
175
588821
1927
数千万ドルに過ぎません
10:04
That's tiny小さな compared比較した
to the 390 billion dollarsドル
176
592044
3929
米国の慈善活動への支出総額は
3,900億ドルですから
10:08
that's spent過ごした on US philanthropy慈善事業 in total合計.
177
596790
2261
それに比較すれば微々たるものです
10:13
The final最後の aspectアスペクト of our frameworkフレームワーク then:
178
601885
2484
このフレームワークの
最後の側面 それは
10:17
Is this solvable解決可能な?
179
605083
1190
解決可能かどうかです
10:19
I believe it is.
180
607289
1289
私は可能だと思います
10:21
You can contribute貢献する with your moneyお金,
181
609014
3047
皆さんは寄付をして
貢献することができます
10:24
your careerキャリア or your political政治的 engagementエンゲージメント.
182
612085
2644
あるいは仕事や
政治的活動を通して貢献できます
10:28
With your moneyお金,
you can supportサポート organizations組織
183
616225
2175
このようなリスクに取り組む団体を
10:30
that focusフォーカス on these risksリスク,
184
618424
1302
資金面で支援できます
10:31
like the Nuclear Threat脅威 Initiativeイニシアチブ,
185
619750
2555
例えば核脅威イニシアティブです
10:34
whichどの campaignsキャンペーン to take nuclear weapons兵器
off hair-triggerヘアトリガー alertアラート,
186
622329
3660
この団体は核兵器を一触即発の状況から
引き離す活動をしていますし
10:38
or the Blue Ribbonリボン Panelパネル, whichどの
develops発展する policyポリシー to minimize最小化する the damage損傷
187
626013
3571
ブルーリボン・パネルは自然現象や
人為的な原因のパンデミック被害を
10:41
from naturalナチュラル and man-made人工 pandemicsパンデミック,
188
629608
2095
最小化するための政策立案をしていますし
10:45
or the Centerセンター for Human-Compatible人間と互換性のある AIAI,
whichどの does technicalテクニカル research研究
189
633158
3260
Center for Human-Compatible AI では
人工知能を安全で信頼できるシステムに
10:48
to ensure確実に that AIAI systemsシステム
are safe安全 and reliable信頼性のある.
190
636442
2747
するための技術研究を行っています
10:52
With your political政治的 engagementエンゲージメント,
191
640652
1516
皆さんが政治に参加すれば
10:54
you can vote投票 for candidates候補者
that careお手入れ about these risksリスク,
192
642192
3096
それらのリスクに
関心を持つ候補者に投票でき
10:57
and you can supportサポート
greater大きい international国際 cooperation協力.
193
645312
2586
さらに大きな国際協力活動を支援できます
11:01
And then with your careerキャリア,
there is so much that you can do.
194
649767
3542
また 仕事を通してできることも
たくさんあります
11:05
Of courseコース, we need scientists科学者
and policymakers政策立案者 and organization組織 leaders指導者,
195
653333
3672
もちろん研究者や政治家や
組織のリーダーは必要ですが
11:09
but just as importantly重要なこと,
196
657865
1152
同様に重要なことは
11:11
we alsoまた、 need accountants会計士
and managersマネージャー and assistantsアシスタント
197
659041
4117
そうした問題に取り組む組織には
11:16
to work in these organizations組織
that are tacklingタックル these problems問題.
198
664691
3754
会計士やマネージャーや
アシスタントも必要なのです
11:20
Now, the research研究 programプログラム
of effective効果的な altruism利他主義
199
668469
3492
現在 効果的利他主義の研究プログラムは
11:25
is still in its infancy幼児期,
200
673191
1444
始まって間もなく
11:27
and there's still a huge巨大 amount
that we don't know.
201
675262
2524
まだ わからないことが沢山あります
11:31
But even with what we've私たちは learned学んだ so far遠い,
202
679173
2343
しかしこれまで学びとったことだけでも
11:34
we can see that by thinking考え carefully慎重に
203
682748
2183
慎重に熟考し 重大で解決可能な
11:37
and by focusingフォーカス on those problems問題
that are big大きい, solvable解決可能な and neglected無視された,
204
685494
4873
見過ごされてきた問題に焦点を当てることで
11:43
we can make a truly真に tremendousすばらしい
difference to the world世界
205
691152
2708
これからの数千年にわたる大きな変革を
11:45
for thousands of years to come.
206
693884
1631
世界にもたらすことができるのです
11:47
Thank you.
207
695963
1151
ありがとうございました
11:49
(Applause拍手)
208
697138
4560
(拍手)
Translated by Hiroshi Uchiyama
Reviewed by Eriko Tsukamoto

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com