ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

윌 맥어스킬 (Will MacAskill): 오늘날 우리에게 가장 중요한 도덕적 문제는 무엇일까요?

Filmed:
2,112,093 views

인류가 직면한 많은 문제들 중, 먼저 해결해야 할 것은 무엇일까요? 윤리학자 윌 맥어스킬은 강렬한 강연에서 어떻게 하면 더 좋은 세상을 만들 수 있는지 생각하게 하고, 그 해법으로 "효율적 이타주의"라는 이념에 바탕을 둔 기본 틀을 제시하며, 세 가지의 긴급한 국제적 문제에 대처할 방법에 대해 이야기합니다.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graph그래프
0
857
1479
이 그래프는
00:14
that represents대표하다 the economic간결한 history역사
of human인간의 civilization문명.
1
2360
3659
인류 문명의 경제사를 보여줍니다.
00:18
[World세계 GDPGDP per capita1 인당
over the last 200,000 years연령]
2
6043
2400
[과거 20만 년간의
전 세계 1인당 국내총생산]
00:23
There's not much going on, is there.
3
11757
2003
별 움직임이 없죠?
00:26
For the vast거대한 majority과반수 of human인간의 history역사,
4
14751
2347
인류 역사의 대부분
00:29
pretty예쁜 much everyone각자 모두 lived살았던
on the equivalent동등한 of one dollar달러 per day,
5
17835
4048
거의 모든 사람들이
하루 1달러 정도로 살아왔고
00:33
and not much changed변경된.
6
21907
1286
크게 달라진 게 없었죠.
00:36
But then, something
extraordinary이상한 happened일어난:
7
24757
2777
그러다 놀라운 일이 생깁니다.
00:40
the Scientific과학 and Industrial산업 Revolutions혁명.
8
28677
2811
바로 과학 및 산업 혁명이죠.
00:43
And the basically원래 flat플랫 graph그래프 you just saw
9
31512
2785
방금 본 것처럼 평평하던 그래프가
00:46
transforms변환 into this.
10
34321
2675
이렇게 변합니다.
00:50
What this graph그래프 means방법 is that,
in terms자귀 of power to change변화 the world세계,
11
38612
4635
이 그래프는 인간이
세상을 바꾸는 힘에 있어
00:55
we live살고 있다 in an unprecedented새로운 time
in human인간의 history역사,
12
43271
3438
역사상 유례없는 시기에
우리가 살고 있음을 보여 주지만
00:58
and I believe our ethical윤리적 인 understanding이해
hasn't~하지 않았다. yet아직 caught잡힌 up with this fact.
13
46733
3944
전 그에 걸맞은 도덕적 인식은
한참 부족하다고 생각합니다.
01:03
The Scientific과학 and Industrial산업 Revolutions혁명
14
51716
1984
과학 및 산업혁명은
01:05
transformed변형 된 both양자 모두
our understanding이해 of the world세계
15
53724
2909
우리들이 세상을 알고
01:08
and our ability능력 to alter바꾸다 it.
16
56657
1669
바꿀 수도 있는 힘을 줬죠.
01:11
What we need is an ethical윤리적 인 revolution혁명
17
59505
3667
이제 우리에게 필요한 건
도덕적 혁명입니다.
01:15
so that we can work out
18
63196
1548
더 좋은 세상을 만들기 위해
01:16
how do we use this tremendous거대한
bounty하사품 of resources자원
19
64768
3152
이 엄청난 자원들을 어떻게 사용할지
01:19
to improve돌리다 the world세계.
20
67944
1395
잘 따져봐야 합니다.
01:22
For the last 10 years연령,
21
70249
1591
지난 10년 동안
01:23
my colleagues동료들 and I have developed개발 된
a philosophy철학 and research연구 program프로그램
22
71864
3833
저는 동료들과 함께 하나의 이념이자
연구인 프로그램을 개발했는데
01:27
that we call effective유효한 altruism애타 주의.
23
75721
1835
효율적 이타주의라고 부릅니다.
01:30
It tries시도하다 to respond응창 성가
to these radical근본적인 changes변화들 in our world세계,
24
78366
3595
급변하는 세상에서
증거와 신중한 추론 등을 바탕으로
01:33
uses용도 evidence증거 and careful꼼꼼한 reasoning추리
to try to answer대답 this question문제:
25
81985
4476
다음과 같은 질문에 답을 제시합니다.
01:40
How can we do the most가장 good?
26
88173
2278
어떻게 최대한 선을 행할 수 있을까?
01:44
Now, there are many많은 issues문제
you've got to address주소
27
92265
3221
이 문제에 뛰어들기 전에
01:47
if you want to tackle태클 this problem문제:
28
95510
2263
먼저 생각해봐야 할 것들은
01:49
whether인지 어떤지 to do good through...을 통하여 your charity자선
29
97797
2031
자선단체 혹은 직장
01:51
or your career직업
or your political주재관 engagement약혼,
30
99852
2152
아니면 정치적 관여를 통할 것인지
01:54
what programs프로그램들 to focus초점 on,
who to work with.
31
102028
2395
어떤 프로그램, 또 어떤 사람들과
함께 할 것인지 등이겠죠.
01:57
But what I want to talk about
32
105624
1476
하지만 지금 얘기하려는 건
01:59
is what I think is the most가장
fundamental기본적인 problem문제.
33
107124
2872
제 생각에 가장 근본적인
문제에 관한 것입니다.
02:02
Of all the many많은 problems문제들
that the world세계 faces얼굴들,
34
110020
2693
세상에 있는 많은 문제들 중
02:05
which어느 should we be focused초점을 맞춘
on trying견딜 수 없는 to solve풀다 first?
35
113962
2659
과연 무엇에 먼저
초점을 맞춰야 할까요?
02:10
Now, I'm going to give you a framework뼈대
for thinking생각 about this question문제,
36
118668
3468
그 생각에 도움이 될
기본 틀을 보여드릴 텐데
02:14
and the framework뼈대 is very simple단순한.
37
122160
1936
사실 아주 간단합니다.
02:16
A problem's문제의 higher더 높은 priority우선 순위,
38
124842
1699
문제의 우선순위가 클수록
02:19
the bigger더 큰, the more easily용이하게 solvable풀 수 있는
and the more neglected방치 된 it is.
39
127416
4063
해결하기도, 방치되기도
더 쉽다는 겁니다.
02:24
Bigger is better,
40
132694
1642
문제가 클수록 더 좋은 건
02:26
because we've우리는 got more to gain이득
if we do solve풀다 the problem문제.
41
134360
2841
해결만 하면 더 많이 얻기 때문이죠.
02:30
More easily용이하게 solvable풀 수 있는 is better
42
138221
1569
좀 더 쉽게 해결할 수 있어 좋은 건
02:31
because I can solve풀다 the problem문제
with less적게 time or money.
43
139814
2824
시간과 비용이 절약되기 때문입니다.
02:35
And most가장 subtly미묘하게,
44
143737
2063
그리고 아주 묘하게도
02:38
more neglected방치 된 is better,
because of diminishing점감하는 returns보고.
45
146681
2849
수확 체감의 법칙 대로라면
방치됐을수록 더 좋겠죠.
02:42
The more resources자원 that have already이미 been
invested투자 한 into solving해결 a problem문제,
46
150285
3714
어떤 문제의 해결에
이미 많은 투자를 한 상태라면
02:46
the harder열심히 it will be
to make additional추가의 progress진행.
47
154023
2905
추가적 성과를 내기는
더 어렵기 마련이니까요.
02:50
Now, the key thing that I want
to leave휴가 with you is this framework뼈대,
48
158560
4059
오늘 이야기의 핵심은
바로 이 기본 틀입니다.
02:54
so that you can think for yourself당신 자신
49
162643
1984
세상에서 가장 중요한 문제가 무엇인지
02:56
what are the highest제일 높은 global글로벌 priorities우선 순위.
50
164651
2321
여러분 스스로 생각해 보는데
도움이 될 거예요.
02:59
But I and others다른 사람
in the effective유효한 altruism애타 주의 community커뮤니티
51
167954
2692
저와 함께 효율적 이타주의에
동참하는 사람들은
03:02
have converged수렴 된 on three moral사기 issues문제
that we believe are unusually비정상적으로 important중대한,
52
170670
5879
전에 없이 중요하고
이 기본 틀에도 잘 들어맞는
03:08
score점수 unusually비정상적으로 well in this framework뼈대.
53
176573
2182
세 가지 도덕적 문제에
몰두해 왔습니다.
03:11
First is global글로벌 health건강.
54
179151
2813
첫째, 세계 보건입니다.
03:13
This is supersolvablesupersolvable.
55
181988
2411
확실히 해결 가능한 문제죠.
03:16
We have an amazing놀랄 만한 track선로 record기록
in global글로벌 health건강.
56
184423
3397
지금까지 성과 또한
대단히 좋았습니다.
03:19
Rates요금 of death죽음 from measles흥역,
malaria말라리아, diarrheal설사 disease질병
57
187844
5420
홍역, 말라리아,
설사병 등으로 인한 사망률이
03:25
are down by over 70 percent퍼센트.
58
193288
2246
70% 넘게 줄었고
03:29
And in 1980, we eradicated근절 된 smallpox천연두.
59
197534
2789
1980년엔 천연두를 박멸했죠.
03:33
I estimate견적 we thereby그것에 의하여 saved저장된
over 60 million백만 lives.
60
201815
3667
이렇게 구한 사람의 수는
6천만 명 이상으로 추산됩니다.
03:37
That's more lives saved저장된
than if we'd우리는 achieved달성 된 world세계 peace평화
61
205506
3064
그 기간 동안 세상에 전쟁이 없었더라도
더 많은 사람을 살리진 못 했겠죠.
03:40
in that same같은 time period기간.
62
208594
1697
03:43
On our current흐름 best베스트 estimates견적,
63
211893
2325
현재 가장 근접한 추산으로
03:46
we can save구하다 a life by distributing배포
long-lasting오래 지속되는 insecticide-treated살충제 처리 bed침대 nets그물
64
214242
4128
수천 달러면, 장시간의
살충효과를 가진 모기장을 보급해
03:50
for just a few조금 thousand dollars불화.
65
218394
1903
생명을 구할 수 있습니다.
03:52
This is an amazing놀랄 만한 opportunity기회.
66
220911
1667
정말 놀라운 일이죠.
03:55
The second둘째 big priority우선 순위
is factory공장 farming농업.
67
223594
2515
두 번째 우선순위는 공장식 사육입니다.
03:58
This is superneglectedsuperneglected.
68
226681
1563
너무 방치되고 있는 문제죠.
04:00
There are 50 billion십억 land animals동물
used every...마다 year for food식품,
69
228768
4143
매년 식용으로 소비되는
5백억 마리의 가축 대부분은
04:05
and the vast거대한 majority과반수 of them
are factory공장 farmed양식장,
70
233625
2548
공장식 사육장에서 공급되는데
04:08
living생활 in conditions정황
of horrific무서운 suffering괴로움.
71
236197
2380
정말 끔찍한 환경에서
사육되고 있습니다.
04:10
They're probably아마 among사이에
the worst-offworst-off creatures생물 on this planet행성,
72
238601
3151
아마도 지구 상에서
가장 불쌍한 생명체 중 하나지만
04:13
and in many많은 cases사례, we could
significantly현저하게 improve돌리다 their그들의 lives
73
241776
2858
많은 경우, 그들의 삶은
현저히 개선될 수 있습니다.
04:16
for just pennies동전 per animal동물.
74
244658
1602
한 마리당 몇 푼이면 되는데
04:19
Yet아직 this is hugely엄청나게 neglected방치 된.
75
247123
2082
너무 방치되고 있죠.
04:21
There are 3,000 times타임스
more animals동물 in factory공장 farms전원
76
249229
3810
버려진 애완동물들보다
공장식 농장에서 사육되는 가축들이
04:25
than there are stray흩어진 pets애완 동물,
77
253063
1561
3천 배나 많지만
04:28
but yet아직, factory공장 farming농업 gets도착 one fiftieth쉰 번째
of the philanthropic박애주의 funding자금.
78
256600
4373
자선 기금은 50분의 1 정도
밖에 안됩니다.
04:34
That means방법 additional추가의
resources자원 in this area지역
79
262211
2128
그렇기 때문에 여기에
조금만 더 투자를 하면
04:36
could have a truly진실로 transformative변형 적 impact충격.
80
264363
2150
정말 획기적인 변화를
가져올 수 있는 것이죠.
04:39
Now the third제삼 area지역 is the one
that I want to focus초점 on the most가장,
81
267458
2985
세 번째 영역은 제가 가장
관심이 많은 것으로
04:42
and that's the category범주
of existential실존 적 risks위험:
82
270467
2984
실존적 위험의 범주에 속하는
04:45
events사건 like a nuclear핵무기 war전쟁
or a global글로벌 pandemic세계적 유행병
83
273475
3873
핵전쟁이나 전 세계적인 유행병과 같이
04:50
that could permanently영구히 derail탈선하다 civilization문명
84
278824
2611
한 문명을 말살시킬 수도
04:54
or even lead리드 to the extinction소멸
of the human인간의 race경주.
85
282156
2436
인류의 종말을 가져올 수도
있는 것들입니다.
04:57
Let me explain설명 why I think
this is such이러한 a big priority우선 순위
86
285882
2540
이것이 왜 그토록 중요한지
05:00
in terms자귀 of this framework뼈대.
87
288446
1337
이 기본 틀에서 말씀드리죠.
05:02
First, size크기.
88
290992
1412
첫째, 규모입니다.
05:05
How bad나쁜 would it be if there were
a truly진실로 existential실존 적 catastrophe대단원?
89
293341
3889
실제로 실존적 재앙이 닥친다면
도대체 얼마나 심각한 것일까요?
05:10
Well, it would involve감다 the deaths사망자
of all seven일곱 billion십억 people on this planet행성
90
298920
6342
지구 상의 70억 명 모두를
죽음으로 몰아넣을 텐데
05:17
and that means방법 you
and everyone각자 모두 you know and love.
91
305286
3119
여러분과 여러분이 알고, 사랑하는
모든 이들을 포함하죠.
05:21
That's just a tragedy비극
of unimaginable상상할 수 없는 size크기.
92
309214
2579
상상하기 힘든 규모의 비극입니다.
05:25
But then, what's more,
93
313684
1976
하지만 더한 것은
05:27
it would also또한 mean the curtailment감축
of humanity's인류의 future미래 potential가능성,
94
315684
3605
정말 엄청난 인류의 미래 잠재력마저
05:31
and I believe that humanity's인류의
potential가능성 is vast거대한.
95
319313
2952
둔화시키는 결과를 낳겠죠.
05:35
The human인간의 race경주 has been around
for about 200,000 years연령,
96
323551
3451
인류는 약 20만 년 동안이나
존재해 왔고
05:39
and if she lives as long
as a typical전형적인 mammalian포유 동물 species,
97
327026
2883
일반적 포유류의 기준으로
05:41
she would last
for about two million백만 years연령.
98
329933
2298
앞으로 약 2백만 년의 시간은
더 있을 거라고 봅니다.
05:46
If the human인간의 race경주
were a single단일 individual개인,
99
334884
2691
인류를 한 개인으로 생각하면
05:49
she would be just 10 years연령 old늙은 today오늘.
100
337599
2419
이제 겨우 10살 정도인 거죠.
05:53
And what's more, the human인간의 race경주
isn't a typical전형적인 mammalian포유 동물 species.
101
341526
4166
게다가, 다른 포유류들과
인류를 비교할 순 없겠죠.
05:58
There's no reason이유 why, if we're careful꼼꼼한,
102
346950
1906
잘만 한다면, 인류가 겨우
06:00
we should die주사위 off
after only two million백만 years연령.
103
348880
2205
2백만 년 후에
멸종할 이유는 없습니다.
06:03
The earth지구 will remain남아있는 habitable거주 가능
for 500 million백만 years연령 to come.
104
351839
4040
지구는 앞으로 5억 년은
생명체가 살기에 적합할 것이고
06:08
And if someday언젠가, we took~했다 to the stars,
105
356696
1944
언젠가 다른 행성들을 찾게 되면
06:11
the civilization문명 could continue잇다
for billions수십억 more.
106
359640
2516
인류 문명은 수억 년 더
지속할 수 있겠죠.
06:16
So I think the future미래
is going to be really big,
107
364193
2388
이렇게 미래의 가능성은
무궁무진하다고 생각하지만
06:19
but is it going to be good?
108
367669
1802
그 미래가 과연 좋은 것일까요?
06:21
Is the human인간의 race경주
even really worth가치 preserving보존?
109
369495
2817
인류가 지속되어야 할 가치가
정말 있는 걸까요?
06:26
Well, we hear듣다 all the time about
how things have been getting점점 worse보다 나쁜,
110
374540
3929
살기 힘들어졌다는 얘기를
늘 듣고 있지만
06:31
but I think that when
we take the long run운영,
111
379459
2693
사실 오랜 시간을 놓고 보면
06:34
things have been getting점점 radically본래 better.
112
382176
2031
세상은 정말 살기 좋아졌습니다.
06:37
Here, for example,
is life expectancy기대 over time.
113
385453
2294
한 예로 평균수명을 보죠.
06:40
Here's여기에 the proportion비율 of people
not living생활 in extreme극단 poverty가난.
114
388892
3023
극빈층에 속하지 않는
사람들의 비율입니다.
06:45
Here's여기에 the number번호 of countries국가 over time
that have decriminalized비범죄 화 된 homosexuality동성애.
115
393106
4095
더 이상 동성애를 범죄로
취급하지 않는 나라들의 숫자죠.
06:50
Here's여기에 the number번호 of countries국가 over time
that have become지다 democratic민주주의의.
116
398848
3269
시간을 거치며 민주화된 나라들입니다.
06:55
Then, when we look to the future미래,
there could be so much more to gain이득 again.
117
403015
4619
따라서, 미래를 바라보면
역시 얻는 것들이 훨씬 더 많겠죠.
06:59
We'll be so much richer더 부자 인,
118
407658
1228
훨씬 더 부유해질 테고
07:00
we can solve풀다 so many많은 problems문제들
that are intractable다루기 힘든 today오늘.
119
408910
3595
현재 어려움을 겪고 있는
많은 문제 또한 해결할 수 있겠죠.
07:05
So if this is kind종류 of a graph그래프
of how humanity인류 has progressed진보 된
120
413389
4445
시간을 거치며
전체적인 인간의 번영에 있어
07:09
in terms자귀 of total합계 human인간의
flourishing번성하는 over time,
121
417858
2890
인류가 얼마나 발전을 거두는지
이 그래프가 보여준다면
07:12
well, this is what we would expect배고 있다
future미래 progress진행 to look like.
122
420772
3355
미래에는 이 정도쯤 되리란
예상이 가능합니다.
07:16
It's vast거대한.
123
424881
1150
엄청나죠.
07:18
Here, for example,
124
426953
1198
예를 들어 이쯤에선
07:20
is where we would expect배고 있다 no one
to live살고 있다 in extreme극단 poverty가난.
125
428175
3746
누구도 극심한 빈곤에
시달리지 않습니다.
07:25
Here is where we would expect배고 있다
everyone각자 모두 to be better off
126
433930
3202
이쯤에선 모든 사람들이
오늘날 가장 부유한 사람보다
07:29
than the richest가장 부유 한 person사람 alive살아 있는 today오늘.
127
437156
1853
더 나은 삶을 누리게 됩니다.
07:32
Perhaps혹시 here is where we would discover발견하다
the fundamental기본적인 natural자연스러운 laws법률
128
440081
3192
아마도 이쯤에선
근본적인 자연의 법칙을 발견해
07:35
that govern통치하다 our world세계.
129
443297
1268
세상을 운영하는데 활용하겠죠.
07:37
Perhaps혹시 here is where we discover발견하다
an entirely전적으로 new새로운 form형태 of art미술,
130
445516
3705
아마도 이 쯤에선, 아주 새로운
예술의 형태가 소개될 텐데
07:41
a form형태 of music음악 we currently현재 lack결핍
the ears to hear듣다.
131
449245
3040
지금은 들을 수 없는
종류의 음악입니다.
07:45
And this is just
the next다음 것 few조금 thousand years연령.
132
453072
2222
앞으로 수천 년 내에 벌어질 일들이죠.
07:47
Once일단 we think past과거 that,
133
455827
2205
과거를 생각해 보면
07:50
well, we can't even imagine상상하다 the heights높이
that human인간의 accomplishment성취 might reach범위.
134
458056
4167
인간의 한계를
가늠하기란 쉽지 않습니다.
07:54
So the future미래 could be very big
and it could be very good,
135
462247
3040
미래는 아주 거창하고 좋을 수도 있지만
07:57
but are there ways
we could lose잃다 this value?
136
465311
2086
우리가 그 가치를 상실할 수 있을까요?
08:00
And sadly슬프게도, I think there are.
137
468366
1826
안타깝게도, 전 그렇다고 생각합니다.
08:02
The last two centuries세기 brought가져온
tremendous거대한 technological기술적 인 progress진행,
138
470216
4053
지난 두 세기 동안의
엄청난 과학기술의 발전은
08:06
but they also또한 brought가져온
the global글로벌 risks위험 of nuclear핵무기 war전쟁
139
474293
2622
전 세계에 핵전쟁의 위협과
08:08
and the possibility가능성
of extreme극단 climate기후 change변화.
140
476939
2157
극심한 기후변화를 야기했습니다.
08:11
When we look to the coming오는 centuries세기,
141
479725
1767
앞으로 수백 년 동안
08:13
we should expect배고 있다 to see
the same같은 pattern무늬 again.
142
481516
2647
같은 상황이 반복될 거라고
생각해야겠죠.
08:16
And we can see some radically본래
powerful강한 technologies기술 on the horizon수평선.
143
484187
3356
벌써 아주 급진적인 기술들이
소개되고 있습니다.
08:20
Synthetic인조 biology생물학 might give us
the power to create몹시 떠들어 대다 viruses바이러스
144
488132
2849
합성생물학은 우리에게
전에 없는 전염성과 치사율을 가진
08:23
of unprecedented새로운
contagiousnesscontagiousness and lethality치사.
145
491005
3047
바이러스를 만들어 낼
능력을 줄 수도 있겠죠.
08:27
GeoengineeringGeoengineering might give us the power
to dramatically극적으로 alter바꾸다 the earth's지구의 climate기후.
146
495131
4643
지구공학은 기후를 현저히
바꿀 능력을 줄 수도 있습니다.
08:31
Artificial인공 intelligence지성 might give us
the power to create몹시 떠들어 대다 intelligent지적인 agents자치령 대표
147
499798
4199
인공지능은 인간보다 우월한
지적 개체를 만들어 낼
08:36
with abilities능력 greater더 큰 than our own개인적인.
148
504021
2142
능력을 줄 수도 있습니다.
08:40
Now, I'm not saying속담 that any
of these risks위험 are particularly특별히 likely아마도,
149
508222
3888
이런 위험 요소들 중 특별히
어떤 게 실현될거 라는 건 아니지만
08:44
but when there's so much at stake말뚝,
150
512134
1644
위험부담이 크다면
08:45
even small작은 probabilities확률
matter문제 a great deal거래.
151
513802
2967
아주 작은 확률이라도
신중히 고려해야겠죠.
08:49
Imagine상상해 보라. if you're getting점점 on a plane평면
and you're kind종류 of nervous강한,
152
517568
3001
조금 긴장한 상태에서 비행기를 탔는데
08:52
and the pilot조종사 reassures안심시키다 you by saying속담,
153
520593
3444
기장이 이렇게 말한다고 상상해 보세요.
08:56
"There's only a one-in-a-thousand하나에 천
chance기회 of crashing부서지는. Don't worry걱정."
154
524061
4634
"추락률은 천분의 일밖에 안되니
걱정하지 마십시오."
09:02
Would you feel reassured안심시키다?
155
530157
1554
과연 안심이 될까요?
09:04
For these reasons원인, I think that preserving보존
the future미래 of humanity인류
156
532509
4088
이런 이유 때문에
인류의 미래를 지키는 건
09:08
is among사이에 the most가장 important중대한 problems문제들
that we currently현재 face얼굴.
157
536621
2984
현재 당면한 가장 중요한
문제들 중 하나입니다.
09:12
But let's keep using~을 사용하여 this framework뼈대.
158
540546
2150
이 기본 틀을 계속 이용해 보죠.
09:14
Is this problem문제 neglected방치 된?
159
542720
1310
이것은 방치된 문제일까요?
09:18
And I think the answer대답 is yes,
160
546085
2282
제 생각엔 그렇습니다.
09:20
and that's because problems문제들
that affect감정 future미래 generations세대
161
548391
3325
미래 세대가 겪을 수 있는 문제들은
09:23
are often자주 hugely엄청나게 neglected방치 된.
162
551740
1651
보통 방치되기 마련이니까요.
09:26
Why?
163
554930
1406
왜 그럴까요?
09:28
Because future미래 people
don't participate어느 정도 가지다 in markets시장 today오늘.
164
556360
3478
미래의 사람들이 현재 경제활동이나
09:31
They don't have a vote투표.
165
559862
1522
정치에 참여하지 않기 때문입니다.
09:33
It's not like there's a lobby로비
representing대표하는 the interests이해
166
561931
2673
2300년대에 태어날 이들을 위해
누군가 로비를
09:36
of those born타고난 in 2300 AD광고.
167
564628
2023
해줄 수 있는 것도 아니죠.
09:40
They don't get to influence영향
the decisions결정들 we make today오늘.
168
568313
3242
오늘날 우리가 내리는 결정에
그들은 영향을 주지 못합니다.
09:43
They're voiceless무성의.
169
571995
1191
선택의 여지가 없죠.
09:46
And that means방법 we still spend보내
a paltry보잘것 amount on these issues문제:
170
574490
3445
다음과 같은 문제들에
여전히 관심이 적은 이유입니다:
09:49
nuclear핵무기 nonproliferation확산,
171
577959
1799
핵 확산 방지,
09:51
geoengineering지구 공학, bioriskbiorisk,
172
579782
2330
지구공학, 생물학적 위협,
09:55
artificial인공의 intelligence지성 safety안전.
173
583414
1642
안전한 인공지능.
09:57
All of these receive받다
only a few조금 tens수십 of millions수백만 of dollars불화
174
585923
2874
이 모든 것들에 지원되는 자선 기금은
10:00
of philanthropic박애주의 funding자금 every...마다 year.
175
588821
1927
매년 수천만 달러에 불과한데
10:04
That's tiny작은 compared비교하다
to the 390 billion십억 dollars불화
176
592044
3929
미국에서 지출되는
연 3,900억 달러의 기금에
10:08
that's spent지출하다 on US philanthropy박애 in total합계.
177
596790
2261
비하면 정말 적습니다.
10:13
The final결정적인 aspect양상 of our framework뼈대 then:
178
601885
2484
이 기본 틀의 마지막 측면인
10:17
Is this solvable풀 수 있는?
179
605083
1190
해결할 수 있는가?
10:19
I believe it is.
180
607289
1289
전 그렇다고 믿습니다.
10:21
You can contribute기여하다 with your money,
181
609014
3047
여러분은 돈을 기부하거나
10:24
your career직업 or your political주재관 engagement약혼.
182
612085
2644
직장 혹은 정치적 관여를 통해
동참할 수 있습니다.
10:28
With your money,
you can support지원하다 organizations조직
183
616225
2175
여러분의 기부금은
이런 문제들의 해결을 위해 애쓰는
10:30
that focus초점 on these risks위험,
184
618424
1302
단체들에 지원됩니다.
10:31
like the Nuclear핵무기 Threat위협 Initiative발의,
185
619750
2555
'핵 위협 방지 구상'처럼
10:34
which어느 campaigns캠페인 to take nuclear핵무기 weapons무기
off hair-triggerhair-trigger alert경보,
186
622329
3660
핵무기 사용을 막기 위한
캠페인을 벌이는 곳이나
10:38
or the Blue푸른 Ribbon리본 Panel패널, which어느
develops발전하다 policy정책 to minimize최소화하다 the damage손해
187
626013
3571
푸른 리본 패널처럼
자연 또는 인간으로부터 발생하는
10:41
from natural자연스러운 and man-made인공의 pandemics전염병,
188
629608
2095
유행병의 피해를 최소화하기 위한
정책을 개발하는 곳도 있고,
10:45
or the Center센터 for Human-Compatible인간 호환 AIAI,
which어느 does technical전문인 research연구
189
633158
3260
인간과 공존하는 인공지능 센터처럼
안전하고 신뢰할 수 있는
10:48
to ensure안전하게 하다 that AIAI systems시스템
are safe안전한 and reliable신뢰할 수있는.
190
636442
2747
인공지능 시스템을 위해
기술 연구하는 곳도 있습니다.
10:52
With your political주재관 engagement약혼,
191
640652
1516
정치적 관여를 통해
10:54
you can vote투표 for candidates후보자
that care케어 about these risks위험,
192
642192
3096
이런 문제들에 신경 쓰는
정치인들에 투표하고
10:57
and you can support지원하다
greater더 큰 international국제 노동자 동맹 cooperation협력.
193
645312
2586
더 나아가 국제적 협력까지
지원할 수 있겠죠.
11:01
And then with your career직업,
there is so much that you can do.
194
649767
3542
여러분들의 직업 또한
유용하게 쓰일 수 있습니다.
11:05
Of course코스, we need scientists과학자들
and policymakers정책 입안자 and organization조직 leaders지도자들,
195
653333
3672
과학자, 국회의원,
각계각층의 지도자들이
11:09
but just as importantly중요하게,
196
657865
1152
물론 필요하지만
11:11
we also또한 need accountants회계사
and managers관리자 and assistants비서
197
659041
4117
회계사, 관리자, 대리들도
11:16
to work in these organizations조직
that are tackling태클 these problems문제들.
198
664691
3754
이런 문제 해결에 힘쓰는
단체들에겐 아주 중요한 거죠.
11:20
Now, the research연구 program프로그램
of effective유효한 altruism애타 주의
199
668469
3492
효율적 이타주의를 연구하는 프로그램은
11:25
is still in its infancy초기,
200
673191
1444
이제 걸음마 단계이고
11:27
and there's still a huge거대한 amount
that we don't know.
201
675262
2524
배워야 할 것들이 아직 많습니다.
11:31
But even with what we've우리는 learned배운 so far멀리,
202
679173
2343
하지만 지금까지 쌓아온 지식으로도
11:34
we can see that by thinking생각 carefully면밀히
203
682748
2183
우리는 신중하게 생각할 수 있고
11:37
and by focusing집중 on those problems문제들
that are big, solvable풀 수 있는 and neglected방치 된,
204
685494
4873
크고, 해결할 수 있고, 방치되어 온
문제들에 접근한다면
11:43
we can make a truly진실로 tremendous거대한
difference to the world세계
205
691152
2708
세상에 정말 엄청난
변화를 가져올 수 있습니다.
11:45
for thousands수천 of years연령 to come.
206
693884
1631
앞으로 수천 년 동안 말이죠.
11:47
Thank you.
207
695963
1151
감사합니다.
11:49
(Applause박수 갈채)
208
697138
4560
(박수)
Translated by TJ Kim
Reviewed by Yoonyoung Chang

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com