ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Уилл Макаскилл: Важнейшие моральные проблемы нашего времени

Filmed:
2,112,093 views

Среди всех проблем, с которыми сталкивается человечество, какие являются первостепенными? В своём убедительном выступлении о том, как изменить мир к лучшему, этический философ Уилл Макаскилл приводит схему для ответа на этот вопрос, основанную на философии «эффективного альтруизма», и делится идеями, как можно решить три самые актуальные мировые проблемы.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graphграфик
0
857
1479
Это график
00:14
that representsпредставляет the economicэкономической historyистория
of humanчеловек civilizationцивилизация.
1
2360
3659
экономического развития человечества.
00:18
[WorldМир GDPВВП perв capitaна душу населения
over the last 200,000 yearsлет]
2
6043
2400
[Мировой ВВП на душу населения
за последние 200 000 лет]
00:23
There's not much going on, is there.
3
11757
2003
Ничего особо не происходит, верно?
00:26
For the vastогромный majorityбольшинство of humanчеловек historyистория,
4
14751
2347
Подавляющую часть истории человечества
00:29
prettyСимпатичная much everyoneвсе livedжил
on the equivalentэквивалент of one dollarдоллар perв day,
5
17835
4048
практически каждый жил
примерно на один доллар в день,
00:33
and not much changedизменено.
6
21907
1286
и мало что менялось.
00:36
But then, something
extraordinaryнеобычайный happenedполучилось:
7
24757
2777
Но потом произошло нечто выдающееся:
00:40
the Scientificнаучный and Industrialпромышленные Revolutionsобороты.
8
28677
2811
научная и промышленная революции.
00:43
And the basicallyв основном flatквартира graphграфик you just saw
9
31512
2785
И плоский график,
который вы только что видели,
00:46
transformsпрообразы into this.
10
34321
2675
превратился вот в это.
00:50
What this graphграфик meansозначает is that,
in termsсроки of powerмощность to changeизменение the worldМир,
11
38612
4635
Этот график означает, что с точки зрения
возможности изменить мир,
00:55
we liveжить in an unprecedentedбеспрецедентный time
in humanчеловек historyистория,
12
43271
3438
мы живём в беспрецедентное время.
00:58
and I believe our ethicalэтический understandingпонимание
hasn'tне имеет yetвсе же caughtпойманный up with this factфакт.
13
46733
3944
И на мой взгляд, наше понимание этики
ещё не успело осознать этот факт.
01:03
The Scientificнаучный and Industrialпромышленные Revolutionsобороты
14
51716
1984
Научная и промышленная революции
01:05
transformedтрансформировали bothи то и другое
our understandingпонимание of the worldМир
15
53724
2909
изменили наше понимание мира
01:08
and our abilityспособность to alterизменять it.
16
56657
1669
и способность на него влиять.
01:11
What we need is an ethicalэтический revolutionреволюция
17
59505
3667
И теперь нужна этическая революция,
01:15
so that we can work out
18
63196
1548
чтобы найти способ
01:16
how do we use this tremendousогромный
bountyщедрость of resourcesРесурсы
19
64768
3152
использовать этот щедрый источник ресурсов
01:19
to improveулучшать the worldМир.
20
67944
1395
и сделать мир лучше.
01:22
For the last 10 yearsлет,
21
70249
1591
В течение последних 10 лет
01:23
my colleaguesколлеги and I have developedразвитая
a philosophyфилософия and researchисследование programпрограмма
22
71864
3833
мы с коллегами разработали
философию и программу исследований,
01:27
that we call effectiveэффективный altruismальтруизм.
23
75721
1835
которую назвали
эффективным альтруизмом.
01:30
It triesпытается to respondотвечать
to these radicalрадикал changesизменения in our worldМир,
24
78366
3595
Она отражает
эти кардинальные изменения в мире
01:33
usesиспользования evidenceдоказательства and carefulосторожный reasoningрассуждения
to try to answerответ this questionвопрос:
25
81985
4476
и, используя факты и подробные
рассуждения, пытается ответить на вопрос:
01:40
How can we do the mostбольшинство good?
26
88173
2278
«Как принести больше всего пользы?»
01:44
Now, there are manyмногие issuesвопросы
you've got to addressадрес
27
92265
3221
Существует множество аспектов,
которые необходимо учитывать,
01:47
if you want to tackleснасти this problemпроблема:
28
95510
2263
если вы хотите решить эту проблему:
01:49
whetherбудь то to do good throughчерез your charityблаготворительная деятельность
29
97797
2031
творить ли добро
через благотворительность,
01:51
or your careerкарьера
or your politicalполитическая engagementпомолвка,
30
99852
2152
карьеру или участие в политике,
01:54
what programsпрограммы to focusфокус on,
who to work with.
31
102028
2395
какие программы выбрать, с кем работать.
01:57
But what I want to talk about
32
105624
1476
Однако я хочу поговорить о самой,
01:59
is what I think is the mostбольшинство
fundamentalфундаментальный problemпроблема.
33
107124
2872
по моему мнению, насущной проблеме.
02:02
Of all the manyмногие problemsпроблемы
that the worldМир facesлица,
34
110020
2693
Среди всего множества проблем,
с которыми сталкивается мир,
02:05
whichкоторый should we be focusedсосредоточены
on tryingпытаясь to solveрешать first?
35
113962
2659
какие именно необходимо решить первыми?
02:10
Now, I'm going to give you a frameworkфреймворк
for thinkingмышление about this questionвопрос,
36
118668
3468
Я предлагаю схему
для размышлений над этим вопросом,
02:14
and the frameworkфреймворк is very simpleпросто.
37
122160
1936
и эта схема очень проста.
02:16
A problem'sпроблемы higherвыше priorityприоритет,
38
124842
1699
Приоритет проблемы тем больше,
02:19
the biggerбольше, the more easilyбез труда solvableразрешимый
and the more neglectedпренебрегли it is.
39
127416
4063
чем больше её величина,
решаемость и степень запущенности.
02:24
BiggerБольше is better,
40
132694
1642
Крупная проблема — это прекрасно,
02:26
because we'veмы в got more to gainусиление
if we do solveрешать the problemпроблема.
41
134360
2841
потому что, решив её,
мы получим огромную отдачу.
Легко решаемая — тоже,
02:30
More easilyбез труда solvableразрешимый is better
42
138221
1569
02:31
because I can solveрешать the problemпроблема
with lessМеньше time or moneyДеньги.
43
139814
2824
чтобы справиться с ней
понадобится меньше времени и денег.
02:35
And mostбольшинство subtlyтонко,
44
143737
2063
И самое интересное,
02:38
more neglectedпренебрегли is better,
because of diminishingуменьшающийся returnsвозвращается.
45
146681
2849
запущенные проблемы тоже хороши
благодаря убывающей доходности.
02:42
The more resourcesРесурсы that have alreadyуже been
investedинвестированный into solvingрешение a problemпроблема,
46
150285
3714
Чем больше ресурсов
уже вложено в решение проблемы,
02:46
the harderСильнее it will be
to make additionalдополнительный progressпрогресс.
47
154023
2905
тем сложнее получить
дополнительный прогресс.
02:50
Now, the keyключ thing that I want
to leaveоставлять with you is this frameworkфреймворк,
48
158560
4059
Я хочу, чтобы вы поразмышляли,
02:54
so that you can think for yourselfсам
49
162643
1984
опираясь на эту схему,
02:56
what are the highestнаибольший globalГлобальный prioritiesприоритеты.
50
164651
2321
какие мировые проблемы самые важные.
02:59
But I and othersдругие
in the effectiveэффективный altruismальтруизм communityсообщество
51
167954
2692
Однако мы в сообществе
эффективного альтруизма
03:02
have convergedсходились on threeтри moralморальный issuesвопросы
that we believe are unusuallyнеобычно importantважный,
52
170670
5879
сошлись на трёх моральных проблемах,
которые считаем необычайно важными
03:08
scoreГол unusuallyнеобычно well in this frameworkфреймворк.
53
176573
2182
и согласно этой схеме
они крайне актуальны.
03:11
First is globalГлобальный healthздоровье.
54
179151
2813
Во-первых, глобальное здравоохранение.
03:13
This is supersolvableсверхразрешимыми.
55
181988
2411
Это легко решаемая задача.
03:16
We have an amazingудивительно trackтрек recordзапись
in globalГлобальный healthздоровье.
56
184423
3397
Человечество добилось
потрясающих успехов в этой области.
03:19
RatesСтавки of deathсмерть from measlesкорь,
malariaмалярия, diarrhealвызывающий понос diseaseболезнь
57
187844
5420
Смертность от кори, малярии и диареи
03:25
are down by over 70 percentпроцент.
58
193288
2246
снизилась больше чем на 70%.
03:29
And in 1980, we eradicatedискоренена smallpoxоспа.
59
197534
2789
В 1980 году была ликвидирована оспа.
03:33
I estimateоценить we therebyтем самым savedсохранены
over 60 millionмиллиона livesжизни.
60
201815
3667
Так были спасены
более 60 миллионов человек.
03:37
That's more livesжизни savedсохранены
than if we'dмы б achievedдостигнутый worldМир peaceмир
61
205506
3064
Это больше, чем если бы
мы добились мира во всём мире
03:40
in that sameодна и та же time periodпериод.
62
208594
1697
в тот же период времени.
03:43
On our currentтекущий bestЛучший estimatesоценки,
63
211893
2325
По нашей оценке, мы можем спасти жизни,
03:46
we can saveспасти a life by distributingраспределительный
long-lastingдолгоиграющий insecticide-treatedинсектицидами bedпостель netsсети
64
214242
4128
раздавая прочные
противомоскитные надкроватные сетки,
которые обойдутся лишь
в несколько тысяч долларов.
03:50
for just a fewмало thousandтысяча dollarsдолларов.
65
218394
1903
Это потрясающая возможность.
03:52
This is an amazingудивительно opportunityвозможность.
66
220911
1667
03:55
The secondвторой bigбольшой priorityприоритет
is factoryзавод farmingсельское хозяйство.
67
223594
2515
Наш второй важный приоритет —
промышленное животноводство.
Эта проблема очень сильно запущена.
03:58
This is superneglectedsuperneglected.
68
226681
1563
04:00
There are 50 billionмиллиард landземельные участки animalsживотные
used everyкаждый yearгод for foodпитание,
69
228768
4143
Ежегодно в пищу употребляются
50 миллиардов наземных животных,
подавляющая часть которых
выращена на промышленных фермах
04:05
and the vastогромный majorityбольшинство of them
are factoryзавод farmedвыращиваемых,
70
233625
2548
04:08
livingживой in conditionsусловия
of horrificужасающий sufferingстрадающий.
71
236197
2380
и живёт в ужасных страдания.
04:10
They're probablyвероятно amongсреди
the worst-offмалоимущие creaturesсущества on this planetпланета,
72
238601
3151
Пожалуй, это самые несчастные
существа на планете,
04:13
and in manyмногие casesслучаи, we could
significantlyсущественно improveулучшать theirих livesжизни
73
241776
2858
и во многих случаях можно
значительно улучшить их жизнь,
04:16
for just penniesпенсы perв animalживотное.
74
244658
1602
потратив лишь несколько центов
на каждое животное.
04:19
YetВсе же this is hugelyочень neglectedпренебрегли.
75
247123
2082
И тем не менее этим никто не занимается.
04:21
There are 3,000 timesраз
more animalsживотные in factoryзавод farmsфермы
76
249229
3810
На промышленных фермах
содержится в 3 000 раз больше животных,
04:25
than there are strayбездомный petsдомашние питомцы,
77
253063
1561
чем существует бродячих,
04:28
but yetвсе же, factoryзавод farmingсельское хозяйство getsполучает one fiftiethПятидесятая
of the philanthropicчеловеколюбивый fundingфинансирование.
78
256600
4373
но лишь 1/50 часть денег благотворителей
идёт на промышленное животноводство.
04:34
That meansозначает additionalдополнительный
resourcesРесурсы in this areaплощадь
79
262211
2128
Дополнительные средства в этой области
04:36
could have a trulyдействительно transformativeпреобразующей impactвлияние.
80
264363
2150
могут совершить настоящий переворот.
04:39
Now the thirdв третьих areaплощадь is the one
that I want to focusфокус on the mostбольшинство,
81
267458
2985
На третьей проблеме я хочу
особенно заострить внимание,
04:42
and that's the categoryкатегория
of existentialэкзистенциальный risksриски:
82
270467
2984
и это категория экзистенциального риска:
04:45
eventsМероприятия like a nuclearядерной warвойна
or a globalГлобальный pandemicпандемия
83
273475
3873
такие события, как ядерная война
или глобальная пандемия,
04:50
that could permanentlyпостоянно derailпускать под откос civilizationцивилизация
84
278824
2611
которые могут навсегда
разрушить цивилизацию
04:54
or even leadвести to the extinctionвымирание
of the humanчеловек raceраса.
85
282156
2436
или даже привести
к исчезновению человечества.
04:57
Let me explainобъяснять why I think
this is suchтакие a bigбольшой priorityприоритет
86
285882
2540
Я объясню, почему считаю
эту проблему такой важной
05:00
in termsсроки of this frameworkфреймворк.
87
288446
1337
с точки зрения нашей схемы.
05:02
First, sizeразмер.
88
290992
1412
Первое, размер.
05:05
How badПлохо would it be if there were
a trulyдействительно existentialэкзистенциальный catastropheкатастрофа?
89
293341
3889
Насколько ужасно, если случится
настоящая экзистенциальная катастрофа?
05:10
Well, it would involveвключать the deathsсмертей
of all sevenсемь billionмиллиард people on this planetпланета
90
298920
6342
Это приведёт к смерти всех
семи миллиардов человек на планете,
05:17
and that meansозначает you
and everyoneвсе you know and love.
91
305286
3119
в том числе вашей и всех,
кого вы знаете и любите.
05:21
That's just a tragedyтрагедия
of unimaginableневообразимый sizeразмер.
92
309214
2579
Это трагедия невообразимых размеров.
05:25
But then, what's more,
93
313684
1976
И что ещё хуже,
05:27
it would alsoтакже mean the curtailmentограничение
of humanity'sчеловечества futureбудущее potentialпотенциал,
94
315684
3605
это означает сокращение
будущего потенциала человечества,
05:31
and I believe that humanity'sчеловечества
potentialпотенциал is vastогромный.
95
319313
2952
а я верю, что человеческий
потенциал огромен.
05:35
The humanчеловек raceраса has been around
for about 200,000 yearsлет,
96
323551
3451
Человечество существует около 200 000 лет,
и если оно проживёт так же долго,
как типичный вид млекопитающих,
05:39
and if she livesжизни as long
as a typicalтипичный mammalianмлекопитающим speciesвид,
97
327026
2883
05:41
she would last
for about two millionмиллиона yearsлет.
98
329933
2298
то сможет достигнуть возраста
порядка двух миллионов лет.
05:46
If the humanчеловек raceраса
were a singleОдин individualиндивидуальный,
99
334884
2691
Если представить,
что человечество — это один человек,
05:49
she would be just 10 yearsлет oldстарый todayCегодня.
100
337599
2419
то ей сегодня всего лишь 10 лет.
05:53
And what's more, the humanчеловек raceраса
isn't a typicalтипичный mammalianмлекопитающим speciesвид.
101
341526
4166
Но что ещё важнее, человечество
не типичный вид млекопитающих.
Если мы будем осторожны, то нет причин,
05:58
There's no reasonпричина why, if we're carefulосторожный,
102
346950
1906
06:00
we should dieумереть off
after only two millionмиллиона yearsлет.
103
348880
2205
для вымирания
всего лишь через два миллиона лет.
06:03
The earthЗемля will remainоставаться habitableобитаемый
for 500 millionмиллиона yearsлет to come.
104
351839
4040
Земля останется пригодной для жизни
ещё 500 миллионов лет.
06:08
And if somedayкогда-нибудь, we tookвзял to the starsзвезды,
105
356696
1944
И если однажды мы полетим к звёздам,
06:11
the civilizationцивилизация could continueПродолжать
for billionsмиллиарды more.
106
359640
2516
наша цивилизация сможет существовать
ещё много миллиардов лет.
06:16
So I think the futureбудущее
is going to be really bigбольшой,
107
364193
2388
У нас большое будущее,
06:19
but is it going to be good?
108
367669
1802
но будет ли оно светлым?
06:21
Is the humanчеловек raceраса
even really worthстоимость preservingсохранение?
109
369495
2817
Да и стоит ли человечество спасения?
06:26
Well, we hearзаслушивать all the time about
how things have been gettingполучение worseхуже,
110
374540
3929
Мы постоянно слышим,
что всё становится только хуже,
06:31
but I think that when
we take the long runбег,
111
379459
2693
но если рассматривать длительные периоды,
06:34
things have been gettingполучение radicallyрадикально better.
112
382176
2031
всё становится гораздо лучше.
06:37
Here, for exampleпример,
is life expectancyожидание over time.
113
385453
2294
Возьмём, к примеру,
продолжительность жизни.
06:40
Here'sВот the proportionдоля of people
not livingживой in extremeэкстремальный povertyбедность.
114
388892
3023
А это процент людей, которые не живут
в условиях крайней нищеты.
06:45
Here'sВот the numberномер of countriesстраны over time
that have decriminalizedдекриминализация homosexualityгомосексуализм.
115
393106
4095
Это число стран, которые
декриминализировали гомосексуальность.
06:50
Here'sВот the numberномер of countriesстраны over time
that have becomeстали democraticдемократической.
116
398848
3269
Это число стран, которые
пришли к демократии.
06:55
Then, when we look to the futureбудущее,
there could be so much more to gainусиление again.
117
403015
4619
Если заглянуть в будущее, окажется,
что мы можем достичь гораздо большего.
06:59
We'llЧто ж be so much richerбогаче,
118
407658
1228
Мы будем гораздо богаче,
07:00
we can solveрешать so manyмногие problemsпроблемы
that are intractableнеподатливый todayCегодня.
119
408910
3595
мы сможем решить множество проблем,
которые сегодня непреодолимы.
07:05
So if this is kindсвоего рода of a graphграфик
of how humanityчеловечество has progressedпрогрессировала
120
413389
4445
И если это график прогресса человечества
07:09
in termsсроки of totalВсего humanчеловек
flourishingпроцветающий over time,
121
417858
2890
с точки зрения общего процветания,
07:12
well, this is what we would expectожидать
futureбудущее progressпрогресс to look like.
122
420772
3355
тогда вот как, по нашим прогнозам,
может выглядеть будущий прогресс.
07:16
It's vastогромный.
123
424881
1150
Он огромен.
07:18
Here, for exampleпример,
124
426953
1198
Здесь, например,
07:20
is where we would expectожидать no one
to liveжить in extremeэкстремальный povertyбедность.
125
428175
3746
ожидается, что никто не будет
жить в крайней нищете.
07:25
Here is where we would expectожидать
everyoneвсе to be better off
126
433930
3202
Здесь, что все будут жить лучше,
07:29
than the richestбогатейший personчеловек aliveв живых todayCегодня.
127
437156
1853
чем самый богатый человек сегодня.
07:32
Perhapsвозможно here is where we would discoverобнаружить
the fundamentalфундаментальный naturalнатуральный lawsзаконы
128
440081
3192
Возможно, здесь мы откроем
фундаментальные законы природы,
07:35
that governправить our worldМир.
129
443297
1268
которые управляют миром.
07:37
Perhapsвозможно here is where we discoverобнаружить
an entirelyполностью newновый formформа of artИзобразительное искусство,
130
445516
3705
Возможно, здесь мы откроем
абсолютно новую форму искусства,
07:41
a formформа of musicМузыка we currentlyВ данный момент lackотсутствие
the earsуши to hearзаслушивать.
131
449245
3040
как вид музыки, которую сейчас
органы чувств не могут воспринять.
07:45
And this is just
the nextследующий fewмало thousandтысяча yearsлет.
132
453072
2222
И это всего лишь
ближайшие несколько тысяч лет.
07:47
Onceоднажды we think pastмимо that,
133
455827
2205
Если смотреть дальше,
07:50
well, we can't even imagineпредставить the heightsвысоты
that humanчеловек accomplishmentдостижение mightмог бы reachдостичь.
134
458056
4167
мы даже не можем представить тех высот,
которые человечество сможет покорить.
07:54
So the futureбудущее could be very bigбольшой
and it could be very good,
135
462247
3040
Итак, будущее может быть
огромным и прекрасным,
07:57
but are there waysпути
we could loseпотерять this valueстоимость?
136
465311
2086
но есть ли шанс,
что мы можем этого лишиться?
08:00
And sadlyгрустно, I think there are.
137
468366
1826
К сожалению, думаю, что да.
08:02
The last two centuriesвека broughtпривел
tremendousогромный technologicalтехнологический progressпрогресс,
138
470216
4053
Последние два столетия ознаменовались
потрясающим технологическим прогрессом,
08:06
but they alsoтакже broughtпривел
the globalГлобальный risksриски of nuclearядерной warвойна
139
474293
2622
но также появились
глобальный риск ядерной войны
08:08
and the possibilityвозможность
of extremeэкстремальный climateклимат changeизменение.
140
476939
2157
и возможность экстремального
изменения климата.
08:11
When we look to the comingприход centuriesвека,
141
479725
1767
И от будущего нам, скорее всего,
08:13
we should expectожидать to see
the sameодна и та же patternшаблон again.
142
481516
2647
стоит ожидать сохранения этой тенденции.
08:16
And we can see some radicallyрадикально
powerfulмощный technologiesтехнологии on the horizonгоризонт.
143
484187
3356
Возникают новые могущественные технологии.
08:20
Syntheticсинтетика biologyбиология mightмог бы give us
the powerмощность to createСоздайте virusesвирусы
144
488132
2849
Синтетическая биология может
привести к созданию вирусов
08:23
of unprecedentedбеспрецедентный
contagiousnessЗаразность and lethalityлетальность.
145
491005
3047
которые будут беспрецедентно
заразны и смертельны.
08:27
GeoengineeringГеоинженерия mightмог бы give us the powerмощность
to dramaticallyдраматично alterизменять the earth'sземной climateклимат.
146
495131
4643
Геоинженерия может дать нам способность
радикально менять климат.
08:31
Artificialискусственный intelligenceинтеллект mightмог бы give us
the powerмощность to createСоздайте intelligentумный agentsагенты
147
499798
4199
Искусственный интеллект — наделить силой
создавать разумных существ,
08:36
with abilitiesспособности greaterбольшая than our ownсвоя.
148
504021
2142
возможности которых
превзойдут наши собственные.
08:40
Now, I'm not sayingпоговорка that any
of these risksриски are particularlyв частности likelyвероятно,
149
508222
3888
Я не утверждаю,
что эти риски очень вероятны,
но когда так много поставлено на карту,
08:44
but when there's so much at stakeдоля,
150
512134
1644
08:45
even smallмаленький probabilitiesвероятности
matterдело a great dealпо рукам.
151
513802
2967
даже маленькая вероятность
имеет огромное значение.
08:49
ImagineПредставить if you're gettingполучение on a planeсамолет
and you're kindсвоего рода of nervousнервное,
152
517568
3001
Представьте, вы садитесь в самолёт
и немного волнуетесь,
08:52
and the pilotпилот reassuresуспокаивает you by sayingпоговорка,
153
520593
3444
и чтобы успокоить вас, пилот говорит:
08:56
"There's only a one-in-a-thousandв тысячу
chanceшанс of crashingгрохот. Don't worryбеспокоиться."
154
524061
4634
«Есть лишь один шанс из тысячи,
что мы разобьёмся. Не волнуйтесь».
09:02
Would you feel reassuredуспокоило?
155
530157
1554
Вам бы стало спокойнее?
09:04
For these reasonsпричины, I think that preservingсохранение
the futureбудущее of humanityчеловечество
156
532509
4088
Поэтому я считаю, что сохранение
будущего человечества —
09:08
is amongсреди the mostбольшинство importantважный problemsпроблемы
that we currentlyВ данный момент faceлицо.
157
536621
2984
одна из важнейших проблем,
которые стоят перед нами.
09:12
But let's keep usingс помощью this frameworkфреймворк.
158
540546
2150
Но давайте вернёмся к нашей схеме.
09:14
Is this problemпроблема neglectedпренебрегли?
159
542720
1310
Эта проблема запущена?
09:18
And I think the answerответ is yes,
160
546085
2282
Думаю, что ответ — да,
09:20
and that's because problemsпроблемы
that affectаффект futureбудущее generationsпоколения
161
548391
3325
потому что проблемы,
которые повлияют на будущие поколения,
09:23
are oftenдовольно часто hugelyочень neglectedпренебрегли.
162
551740
1651
очень часто остаются без внимания.
09:26
Why?
163
554930
1406
Почему?
09:28
Because futureбудущее people
don't participateпринимать участие in marketsрынки todayCегодня.
164
556360
3478
Потому что люди будущего
не участвуют в современной жизни.
09:31
They don't have a voteголос.
165
559862
1522
Они не могут проголосовать.
09:33
It's not like there's a lobbyлобби
representingпредставляющий the interestsинтересы
166
561931
2673
Никто не лоббирует интересы тех,
09:36
of those bornРодился in 2300 ADОБЪЯВЛЕНИЕ.
167
564628
2023
кто родится в 2300 году.
09:40
They don't get to influenceвлияние
the decisionsрешения we make todayCегодня.
168
568313
3242
Они не могут повлиять на решения,
которые принимаются сегодня.
09:43
They're voicelessбезмолвный.
169
571995
1191
У них нет права голоса.
А это значит, что мы всё ещё уделяем
ничтожное внимание таким проблемам,
09:46
And that meansозначает we still spendпроводить
a paltryпустяковый amountколичество on these issuesвопросы:
170
574490
3445
09:49
nuclearядерной nonproliferationнераспространения ядерного оружия,
171
577959
1799
как нераспространение ядерного оружия,
09:51
geoengineeringгеоинженерия, bioriskбиорисками,
172
579782
2330
геоинженерия и биориск,
09:55
artificialискусственный intelligenceинтеллект safetyбезопасность.
173
583414
1642
безопасность искусственного интеллекта.
Эти проблемы получают лишь
несколько десятков миллионов долларов
09:57
All of these receiveПолучать
only a fewмало tensдесятки of millionsмиллионы of dollarsдолларов
174
585923
2874
10:00
of philanthropicчеловеколюбивый fundingфинансирование everyкаждый yearгод.
175
588821
1927
благотворительных пожертвований в год.
10:04
That's tinyкрошечный comparedв сравнении
to the 390 billionмиллиард dollarsдолларов
176
592044
3929
Это крошечная цифра в сравнении
с 390 миллиардами долларов,
10:08
that's spentпотраченный on US philanthropyфилантропия in totalВсего.
177
596790
2261
которые в США тратятся
на благотворительность в целом.
10:13
The finalокончательный aspectаспект of our frameworkфреймворк then:
178
601885
2484
И, наконец, последний вопрос —
10:17
Is this solvableразрешимый?
179
605083
1190
решаемо ли это?
10:19
I believe it is.
180
607289
1289
Я считаю, что да.
10:21
You can contributeделать вклад with your moneyДеньги,
181
609014
3047
Вы можете помочь деньгами,
10:24
your careerкарьера or your politicalполитическая engagementпомолвка.
182
612085
2644
карьерой или участием в политике.
10:28
With your moneyДеньги,
you can supportподдержка organizationsорганизации
183
616225
2175
Деньгами вы может поддержать организации,
10:30
that focusфокус on these risksриски,
184
618424
1302
занимающиеся этими рисками,
10:31
like the Nuclearядерной Threatугроза Initiativeинициатива,
185
619750
2555
например, «Инициативу
по сокращению ядерной угрозы»,
10:34
whichкоторый campaignsкампании to take nuclearядерной weaponsоружие
off hair-triggerповышенной alertбдительный,
186
622329
3660
которая борется за вывод ядерного оружия
из состояния повышенной готовности.
10:38
or the Blueсиний RibbonЛента Panelпанель, whichкоторый
developsразвивается policyполитика to minimizeминимизировать the damageнаносить ущерб
187
626013
3571
Или полномочные комиссии, работающие
над политикой минимизации ущерба
10:41
from naturalнатуральный and man-madeискусственный pandemicsпандемий,
188
629608
2095
от природных
и созданных человеком пандемий.
10:45
or the CenterЦентр for Human-CompatibleЧеловека совместимый AIискусственный интеллект,
whichкоторый does technicalтехнический researchисследование
189
633158
3260
Или Центр совместимого с человеком ИИ,
проводящий технические исследования,
10:48
to ensureобеспечивать that AIискусственный интеллект systemsсистемы
are safeбезопасно and reliableнадежный.
190
636442
2747
чтобы убедиться в надёжности
и безопасности систем ИИ.
10:52
With your politicalполитическая engagementпомолвка,
191
640652
1516
Участвуя в политической жизни,
вы можете голосовать за кандидатов,
уделяющих внимание этим рискам,
10:54
you can voteголос for candidatesкандидаты
that careзабота about these risksриски,
192
642192
3096
10:57
and you can supportподдержка
greaterбольшая internationalМеждународный cooperationсотрудничество.
193
645312
2586
и поддерживать
широкое международное сотрудничество.
11:01
And then with your careerкарьера,
there is so much that you can do.
194
649767
3542
И, наконец, своей карьерой
вы также можете сделать очень много.
11:05
Of courseкурс, we need scientistsученые
and policymakersполитики and organizationорганизация leadersлидеры,
195
653333
3672
Конечно, нам нужны учёные,
политики и лидеры организаций,
11:09
but just as importantlyважно,
196
657865
1152
но точно также
11:11
we alsoтакже need accountantsбухгалтеров
and managersменеджеры and assistantsассистенты
197
659041
4117
нам нужны бухгалтеры,
менеджеры и ассистенты
11:16
to work in these organizationsорганизации
that are tacklingTackling these problemsпроблемы.
198
664691
3754
для работы в организациях,
которые занимаются этими проблемами.
11:20
Now, the researchисследование programпрограмма
of effectiveэффективный altruismальтруизм
199
668469
3492
Исследовательская программа
эффективного альтруизма
11:25
is still in its infancyмладенчество,
200
673191
1444
ещё только зарождается,
11:27
and there's still a hugeогромный amountколичество
that we don't know.
201
675262
2524
и очень многое нам пока неизвестно.
11:31
But even with what we'veмы в learnedнаучился so farдалеко,
202
679173
2343
Но даже то, что мы уже выяснили,
11:34
we can see that by thinkingмышление carefullyвнимательно
203
682748
2183
позволяет нам увидеть,
что тщательно всё продумывая
11:37
and by focusingфокусирование on those problemsпроблемы
that are bigбольшой, solvableразрешимый and neglectedпренебрегли,
204
685494
4873
и концентрируясь на крупных,
решаемых и запущенных проблемах,
можно сделать мир фантастически лучше
11:43
we can make a trulyдействительно tremendousогромный
differenceразница to the worldМир
205
691152
2708
11:45
for thousandsтысячи of yearsлет to come.
206
693884
1631
на грядущие тысячелетия.
11:47
Thank you.
207
695963
1151
Спасибо.
11:49
(ApplauseАплодисменты)
208
697138
4560
(Аплодисменты)
Translated by Anastasia Melnikova
Reviewed by Olga Babeeva

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com