ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com
TED2018

Will MacAskill: What are the most important moral problems of our time?

Вил МакАскил: Како можеме да го направиме најдоброто за светот?

Filmed:
2,112,093 views

Од сите проблеми со кои се соочува човештвото, на кој би требало најпрво да се фокусираме и да го решиме? Во убедливиот говор за тоа како да го направиме светот подобар, моралниот филозоф Вил МакАскил ни дава рамка за одговор на ова прашање врз основа на филозофијата на ,,ефективен алтруизам,, - и споделува идеи за фокусирање на три најкритични прашања.
- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

Double-click the English transcript below to play the video.

00:12
This is a graph
0
857
1479
Ова е графикон
00:14
that represents the economic history
of human civilization.
1
2360
3659
кој ја претставува економската историја
на човековата цивилизација.
00:18
[World GDP per capita
over the last 200,000 years]
2
6043
2400
[Светски БДП по глава на жител
во последните 200.000 години]
00:23
There's not much going on, is there.
3
11757
2003
Ако некаде не се случува ништо,
тоа е овде.
00:26
For the vast majority of human history,
4
14751
2347
Зa мнозинството во човечката историја,
кога речиси сите живееле во просек
со еден долар на ден,
00:29
pretty much everyone lived
on the equivalent of one dollar per day,
5
17835
4048
00:33
and not much changed.
6
21907
1286
не се променило многу.
00:36
But then, something
extraordinary happened:
7
24757
2777
Но тогаш, се случило нешто неочекувано:
00:40
the Scientific and Industrial Revolutions.
8
28677
2811
научната и индустриската револуција.
00:43
And the basically flat graph you just saw
9
31512
2785
И всушност рамниот графикон што го видовте
00:46
transforms into this.
10
34321
2675
се претвора во ова.
00:50
What this graph means is that,
in terms of power to change the world,
11
38612
4635
Графиконот покажува дека во услови
на моќ за да го промениме светот,
00:55
we live in an unprecedented time
in human history,
12
43271
3438
живееме во невиден момент
на човековата историја
00:58
and I believe our ethical understanding
hasn't yet caught up with this fact.
13
46733
3944
и верувам дека нашето етичко разбирање
се`уште не се помирило со овој факт.
01:03
The Scientific and Industrial Revolutions
14
51716
1984
Научните и индустриски револуции
01:05
transformed both
our understanding of the world
15
53724
2909
го променија нашето разбирање за светот
01:08
and our ability to alter it.
16
56657
1669
и нашата умешност да го промениме.
01:11
What we need is an ethical revolution
17
59505
3667
Она што ни треба е етичка револуција
01:15
so that we can work out
18
63196
1548
за да можеме да откриеме
01:16
how do we use this tremendous
bounty of resources
19
64768
3152
како да го искористиме ова
огромно богатство на ресурси
01:19
to improve the world.
20
67944
1395
за да го подобриме светот.
01:22
For the last 10 years,
21
70249
1591
Во последните 10 години,
01:23
my colleagues and I have developed
a philosophy and research program
22
71864
3833
со моите колеги создадовме филозофија
и истражувачка програма
01:27
that we call effective altruism.
23
75721
1835
која ја нарековме Ефективен алтруизам.
01:30
It tries to respond
to these radical changes in our world,
24
78366
3595
Тој се труди да одговори на радикалните
промени во светот,
01:33
uses evidence and careful reasoning
to try to answer this question:
25
81985
4476
користи евиденција и внимателно се обидува
да одговори на следното прашање:
01:40
How can we do the most good?
26
88173
2278
Како може да го направиме најдоброто?
01:44
Now, there are many issues
you've got to address
27
92265
3221
Сега, овде има многу прашања
кои треба да се земат во предвид
01:47
if you want to tackle this problem:
28
95510
2263
ако сакате да се справите со овој проблем:
Дали да го сторите тоа со вашата
добротворна организација
01:49
whether to do good through your charity
29
97797
2031
01:51
or your career
or your political engagement,
30
99852
2152
или преку кариера или политички ангажман,
01:54
what programs to focus on,
who to work with.
31
102028
2395
на кои програми да се фокусирате,
со кој ќе работите.
01:57
But what I want to talk about
32
105624
1476
Но она за што сакам да зборувам
01:59
is what I think is the most
fundamental problem.
33
107124
2872
е она што мислам дека е
најфундаментален проблем.
02:02
Of all the many problems
that the world faces,
34
110020
2693
Од сите проблеми со кои светот се соочува,
02:05
which should we be focused
on trying to solve first?
35
113962
2659
на кој треба да се фокусираме
за да да го решиме прв?
02:10
Now, I'm going to give you a framework
for thinking about this question,
36
118668
3468
Сега, ќе ви дадам рамка за размислување
околу ова прашање
02:14
and the framework is very simple.
37
122160
1936
а рамката е многу едноставна.
02:16
A problem's higher priority,
38
124842
1699
Најважниот приоритет на проблемот,
02:19
the bigger, the more easily solvable
and the more neglected it is.
39
127416
4063
колку е поголем, толку е полесен
за решавање и позапоставен е.
02:24
Bigger is better,
40
132694
1642
Подобро да е поголем,
02:26
because we've got more to gain
if we do solve the problem.
41
134360
2841
затоа што имаме поголема корист
ако го решиме проблемот.
Лесно решливиот проблем е подобар
02:30
More easily solvable is better
42
138221
1569
02:31
because I can solve the problem
with less time or money.
43
139814
2824
бидејќи можеме да го решеме
со помалку време или пари.
02:35
And most subtly,
44
143737
2063
И она што е најсуптилно,
02:38
more neglected is better,
because of diminishing returns.
45
146681
2849
ако е запоставен е подобро
зашто поретко се враќа назад.
02:42
The more resources that have already been
invested into solving a problem,
46
150285
3714
Колку повеќе извори се инвестирани
во решавање на проблем,
толку потешко ќе биде да направиме
дополнителен напредок.
02:46
the harder it will be
to make additional progress.
47
154023
2905
02:50
Now, the key thing that I want
to leave with you is this framework,
48
158560
4059
Сега, клучната работа која сакам
да ја споделам со вас е оваа рамка,
02:54
so that you can think for yourself
49
162643
1984
па така ќе можете да размислите
02:56
what are the highest global priorities.
50
164651
2321
кој се највисоките глобални
приоритети според вас.
02:59
But I and others
in the effective altruism community
51
167954
2692
Но јас и другите од заедницата
на Ефективен алтруизам
03:02
have converged on three moral issues
that we believe are unusually important,
52
170670
5879
се фокусиравме на три морални прашања
кои веруваме дека се мошне значајни
03:08
score unusually well in this framework.
53
176573
2182
и чии резултати се прилилно
добри во рамката.
03:11
First is global health.
54
179151
2813
Прво е глобалното здравје.
03:13
This is supersolvable.
55
181988
2411
Ова е суперрешавачко.
03:16
We have an amazing track record
in global health.
56
184423
3397
Имаме неверојатен учинок
во глобалното здравје.
03:19
Rates of death from measles,
malaria, diarrheal disease
57
187844
5420
Стапките на смртност од мали сипаници,
маларија, дијареа
03:25
are down by over 70 percent.
58
193288
2246
се намалени за повеќе од 70 проценти.
03:29
And in 1980, we eradicated smallpox.
59
197534
2789
И во 1980, ги искоренавме малите сипаници.
03:33
I estimate we thereby saved
over 60 million lives.
60
201815
3667
Моја проценка е дека така зачувавме
преку 60 милиони животи.
Тоа се повеќе зачувани животи
отколку ако достигневме светски мир
03:37
That's more lives saved
than if we'd achieved world peace
61
205506
3064
03:40
in that same time period.
62
208594
1697
во истиот временски период.
03:43
On our current best estimates,
63
211893
2325
Според нашите најдобри сегашни проценки,
03:46
we can save a life by distributing
long-lasting insecticide-treated bed nets
64
214242
4128
може да спасиме живот со дистрибуција
на долготрајни инсектицидни мрежи
03:50
for just a few thousand dollars.
65
218394
1903
за само неколку илјади долари.
03:52
This is an amazing opportunity.
66
220911
1667
Ова е неверојатна можност.
03:55
The second big priority
is factory farming.
67
223594
2515
Вториот голем приоритет
е фабричкото земјоделство.
03:58
This is superneglected.
68
226681
1563
Ова е натприродно.
04:00
There are 50 billion land animals
used every year for food,
69
228768
4143
50 милијарди копнени животни
се искористуваат за храна секоја година,
04:05
and the vast majority of them
are factory farmed,
70
233625
2548
и големо мнозинство од нив
се во фабрички фарми,
04:08
living in conditions
of horrific suffering.
71
236197
2380
живеат во услови на ужасни страдања.
04:10
They're probably among
the worst-off creatures on this planet,
72
238601
3151
Тие се веројатно меѓу најлошо одгледаните
суштества на планетата
и во многу случаи, би можеле значително
да ги подобриме нивните животи
04:13
and in many cases, we could
significantly improve their lives
73
241776
2858
04:16
for just pennies per animal.
74
244658
1602
за само еден денар по животно.
04:19
Yet this is hugely neglected.
75
247123
2082
Сепак, ова е многу запоставено.
04:21
There are 3,000 times
more animals in factory farms
76
249229
3810
Постојат 3.000 пати повеќе животни
во фабричките фарми
04:25
than there are stray pets,
77
253063
1561
отколку што има скитници,
04:28
but yet, factory farming gets one fiftieth
of the philanthropic funding.
78
256600
4373
но, фабричкото фармерство добива 1/50
од филантропското финансирање.
04:34
That means additional
resources in this area
79
262211
2128
Тоа значи, додатните извори во оваа област
04:36
could have a truly transformative impact.
80
264363
2150
може да имаат трансформирачко влијание.
04:39
Now the third area is the one
that I want to focus on the most,
81
267458
2985
Третата област е таа на која
сакам да се фокусирам најмногу,
04:42
and that's the category
of existential risks:
82
270467
2984
а тоа е категоријата на постоечки
ризици:
04:45
events like a nuclear war
or a global pandemic
83
273475
3873
настаните како нуклеарната војна
или глобалната пандемија
04:50
that could permanently derail civilization
84
278824
2611
кој би можеле трајно да ја
потиснат цивилизацијата.
04:54
or even lead to the extinction
of the human race.
85
282156
2436
дури и да доведат до истребување
на човечката раса.
04:57
Let me explain why I think
this is such a big priority
86
285882
2540
Ќе објаснам зошто мислам
дека ова голем приоритет
05:00
in terms of this framework.
87
288446
1337
во однос на оваа рамка.
05:02
First, size.
88
290992
1412
Прво, големината.
05:05
How bad would it be if there were
a truly existential catastrophe?
89
293341
3889
Колку би било лошо ако навистина
би имало катастрофа?
05:10
Well, it would involve the deaths
of all seven billion people on this planet
90
298920
6342
Па, тоа би било смрт за сите седум
милијарди луѓе на оваа планета
05:17
and that means you
and everyone you know and love.
91
305286
3119
а тоа значи вие и сите
што ги познавате и сакате.
05:21
That's just a tragedy
of unimaginable size.
92
309214
2579
Тоа е трагедија од незамисливи размери.
05:25
But then, what's more,
93
313684
1976
Но, што е уште поважно,
05:27
it would also mean the curtailment
of humanity's future potential,
94
315684
3605
тоа би значело ограничување
на идниот потенцијал на човештвото
05:31
and I believe that humanity's
potential is vast.
95
319313
2952
а јас верувам дека човечкиот
потенцијал е огромен.
05:35
The human race has been around
for about 200,000 years,
96
323551
3451
Човечката раса постои
околу 200.000 години
05:39
and if she lives as long
as a typical mammalian species,
97
327026
2883
и ако живее толку долго како
типичен вид на цицачи,
05:41
she would last
for about two million years.
98
329933
2298
таа ќе трае околу две милиони години.
05:46
If the human race
were a single individual,
99
334884
2691
Ако човечката раса беше поединец
05:49
she would be just 10 years old today.
100
337599
2419
таа би имала само 10 години денес.
05:53
And what's more, the human race
isn't a typical mammalian species.
101
341526
4166
И што е поважно, човечката раса
не е типичен вид на цицачи.
05:58
There's no reason why, if we're careful,
102
346950
1906
Ако внимаваме, не постои причина зошто
06:00
we should die off
after only two million years.
103
348880
2205
би изумреле после само милиони години.
06:03
The earth will remain habitable
for 500 million years to come.
104
351839
4040
Земјата ќе остане погодна за живеење
за следните 500 милиони години.
06:08
And if someday, we took to the stars,
105
356696
1944
И ако некој ден, стигнеме до ѕвездите.
06:11
the civilization could continue
for billions more.
106
359640
2516
цивилизацијата ќе може
да продолжи повеќе милијарди.
06:16
So I think the future
is going to be really big,
107
364193
2388
Сметам дека иднината
ќе биде навистина голема,
06:19
but is it going to be good?
108
367669
1802
но дали ќе биде добра?
06:21
Is the human race
even really worth preserving?
109
369495
2817
Дали човечката раса
навистина вреди да се зачува?
06:26
Well, we hear all the time about
how things have been getting worse,
110
374540
3929
Па, цело време слушаме
како работите одат на полошо,
06:31
but I think that when
we take the long run,
111
379459
2693
но јас мислам дека на подолг временски рок
06:34
things have been getting radically better.
112
382176
2031
работите се радикално подобри.
06:37
Here, for example,
is life expectancy over time.
113
385453
2294
Овде, на пример, е животниот
век низ времето.
06:40
Here's the proportion of people
not living in extreme poverty.
114
388892
3023
Ова е процентот на луѓе кои не живеат
во екстремна сиромаштија.
06:45
Here's the number of countries over time
that have decriminalized homosexuality.
115
393106
4095
Овие се државите кои со текот на времето
ја декриминализираа хомосексуалноста.
06:50
Here's the number of countries over time
that have become democratic.
116
398848
3269
Овде е бројот на држави кои со текот
на времето станаа демократски.
06:55
Then, when we look to the future,
there could be so much more to gain again.
117
403015
4619
Значи, ако погледнеме во иднината, има
многу повеќе што би можеле да добиеме.
06:59
We'll be so much richer,
118
407658
1228
Ќе бидеме многу побогати,
07:00
we can solve so many problems
that are intractable today.
119
408910
3595
ќе можеме да решиме толку многу проблеми
кои се неподносливи денес.
07:05
So if this is kind of a graph
of how humanity has progressed
120
413389
4445
Ова е вид на графикон за тоа
колку човештвото напредувало
07:09
in terms of total human
flourishing over time,
121
417858
2890
во услови на целосен човечки напредок,
07:12
well, this is what we would expect
future progress to look like.
122
420772
3355
и ова е како би изгледал
напредокот во иднина.
07:16
It's vast.
123
424881
1150
Ова е многу.
07:18
Here, for example,
124
426953
1198
Овде на пример,
07:20
is where we would expect no one
to live in extreme poverty.
125
428175
3746
е кога никој не би живеел
во екстремна сиромаштија.
07:25
Here is where we would expect
everyone to be better off
126
433930
3202
Овде, би требало сите да бидат побогати
07:29
than the richest person alive today.
127
437156
1853
од најбогатиот жив човек денес.
07:32
Perhaps here is where we would discover
the fundamental natural laws
128
440081
3192
Можеби овде би ги откриле
основните закони на природата
07:35
that govern our world.
129
443297
1268
кои владеат во светот.
07:37
Perhaps here is where we discover
an entirely new form of art,
130
445516
3705
Можеби овде е местото каде би откриле
сосема нова форма на уметност,
07:41
a form of music we currently lack
the ears to hear.
131
449245
3040
форма на музика за која
во моментов немаме слух.
07:45
And this is just
the next few thousand years.
132
453072
2222
Ова е само за следните
неколку илјади години.
07:47
Once we think past that,
133
455827
2205
Кога ќе помислиме на минатото,
07:50
well, we can't even imagine the heights
that human accomplishment might reach.
134
458056
4167
не можеме ниту да ги замислиме височините
на човечките достигнувања.
07:54
So the future could be very big
and it could be very good,
135
462247
3040
Значи, иднината може да е многу голема,
и тоа ќе е добро
07:57
but are there ways
we could lose this value?
136
465311
2086
но, можеме да ја изгубиме оваа вредност?
08:00
And sadly, I think there are.
137
468366
1826
За жал, мислам дека можеме.
08:02
The last two centuries brought
tremendous technological progress,
138
470216
4053
Последните два века донесоа огромен
технолошки напредок,
08:06
but they also brought
the global risks of nuclear war
139
474293
2622
но донесоа и глобални ризици
од нуклеарна војна
08:08
and the possibility
of extreme climate change.
140
476939
2157
и можнност за екстремни климатски промени.
08:11
When we look to the coming centuries,
141
479725
1767
Ако погледнеме кон идните векови,
08:13
we should expect to see
the same pattern again.
142
481516
2647
би очекувале да ја видиме
истата шема повторно.
08:16
And we can see some radically
powerful technologies on the horizon.
143
484187
3356
И можеме да видиме радикално
моќни технологии на хоризонтот.
08:20
Synthetic biology might give us
the power to create viruses
144
488132
2849
Синтетичката биологија ни
овозможува да креираме вируси
08:23
of unprecedented
contagiousness and lethality.
145
491005
3047
со невидена заразност и леталност.
08:27
Geoengineering might give us the power
to dramatically alter the earth's climate.
146
495131
4643
Геоинжинеринг ни дава моќ драстично
да ја смениме климата на земјата.
08:31
Artificial intelligence might give us
the power to create intelligent agents
147
499798
4199
Вештачката интелигенција ни дава моќ
да создадеме интелигентни агенти
08:36
with abilities greater than our own.
148
504021
2142
со способности поголеми од нашите.
08:40
Now, I'm not saying that any
of these risks are particularly likely,
149
508222
3888
Сега, не велам дека сите овие ризици
се веројатно можни,
08:44
but when there's so much at stake,
150
512134
1644
но кога се толку многу во прашање,
08:45
even small probabilities
matter a great deal.
151
513802
2967
дури и најмалата веројатност
е многу важна.
08:49
Imagine if you're getting on a plane
and you're kind of nervous,
152
517568
3001
Замислете, се качувате на авион
и имате малку паника.
08:52
and the pilot reassures you by saying,
153
520593
3444
и пилотот ве уверува со зборовите,
08:56
"There's only a one-in-a-thousand
chance of crashing. Don't worry."
154
524061
4634
,,Има само една во илјада шанси
за уривање. Не грижете се.“
09:02
Would you feel reassured?
155
530157
1554
Би се чуствувале ли сигурно?
09:04
For these reasons, I think that preserving
the future of humanity
156
532509
4088
Поради овие причини, мислам дека
зачувувањето на иднината на човештвото
09:08
is among the most important problems
that we currently face.
157
536621
2984
е меѓу најважните проблеми со кој
моментално се соочуваме.
Но, да продолжиме со употребата
на оваа рамка.
09:12
But let's keep using this framework.
158
540546
2150
09:14
Is this problem neglected?
159
542720
1310
Дали овој проблем е занемарен?
09:18
And I think the answer is yes,
160
546085
2282
Мислам дека одговорот е да,
09:20
and that's because problems
that affect future generations
161
548391
3325
а тоа е така затоа што проблемите
кои ги засегаат идните генерации
09:23
are often hugely neglected.
162
551740
1651
често се занемаруваат.
09:26
Why?
163
554930
1406
Зошто?
09:28
Because future people
don't participate in markets today.
164
556360
3478
Затоа што идните луѓе не учествуваат
на пазарите денес.
09:31
They don't have a vote.
165
559862
1522
Тие немаат глас.
09:33
It's not like there's a lobby
representing the interests
166
561931
2673
Тоа е како да нема лоби кое
ги претставува интересите
09:36
of those born in 2300 AD.
167
564628
2023
на оние родени во 2300 н.е.
09:40
They don't get to influence
the decisions we make today.
168
568313
3242
Тие не можат да влијаат на одлуките
кои ги носиме денес.
09:43
They're voiceless.
169
571995
1191
Тие се безгласни.
09:46
And that means we still spend
a paltry amount on these issues:
170
574490
3445
А тоа значи дека ние сеуште трошиме
несоодветен износ на овие прашања:
09:49
nuclear nonproliferation,
171
577959
1799
нуклеарно неширење,
09:51
geoengineering, biorisk,
172
579782
2330
геоинжинеринг, биоризик,
09:55
artificial intelligence safety.
173
583414
1642
безбедност од вештачка интелигенција.
09:57
All of these receive
only a few tens of millions of dollars
174
585923
2874
Сите овие добиваат само неколку
десетици милиони од доларите
10:00
of philanthropic funding every year.
175
588821
1927
на филантропското финансирање
секоја година.
Тоа не може да се спореди
со 390 милијарди долари
10:04
That's tiny compared
to the 390 billion dollars
176
592044
3929
кои се трошат на вкупната
американска филантропија.
10:08
that's spent on US philanthropy in total.
177
596790
2261
10:13
The final aspect of our framework then:
178
601885
2484
Последниот аспект од нашата рамка:
10:17
Is this solvable?
179
605083
1190
Дали ова може да се реши?
10:19
I believe it is.
180
607289
1289
Јас верувам дека е.
10:21
You can contribute with your money,
181
609014
3047
Можете да придонесете со вашите пари,
10:24
your career or your political engagement.
182
612085
2644
вашата кариера или вашиот
политички ангажман.
10:28
With your money,
you can support organizations
183
616225
2175
Со вашите пари, може
да поддржите организации
10:30
that focus on these risks,
184
618424
1302
фокусирани на овие ризици,
10:31
like the Nuclear Threat Initiative,
185
619750
2555
како што е Инцијативата
за нуклеарната закана,
10:34
which campaigns to take nuclear weapons
off hair-trigger alert,
186
622329
3660
која се залага за отстранување
на нуклеарното оружје,
10:38
or the Blue Ribbon Panel, which
develops policy to minimize the damage
187
626013
3571
или Панелот сина лента, кој води
политика за минимизирање на штетите
10:41
from natural and man-made pandemics,
188
629608
2095
од природните и вештачки пандемии,
или Центарот за човечки компатибилен ПИ,
кој врши техничко истражување
10:45
or the Center for Human-Compatible AI,
which does technical research
189
633158
3260
10:48
to ensure that AI systems
are safe and reliable.
190
636442
2747
да ја утврди сигурноста и безбедноста
на ПИ системите.
10:52
With your political engagement,
191
640652
1516
Со вашиот политички ангажман,
10:54
you can vote for candidates
that care about these risks,
192
642192
3096
можете да гласате за кандидати
кои се грижат за овие ризици,
10:57
and you can support
greater international cooperation.
193
645312
2586
и можете да поддржите поголема
меѓународна соработка.
11:01
And then with your career,
there is so much that you can do.
194
649767
3542
И за крај, со вашата кариера, има многу
нешта кои можете да ги направите.
11:05
Of course, we need scientists
and policymakers and organization leaders,
195
653333
3672
Се разбира, нам ни се потребни научници
и почитичари и организатори,
11:09
but just as importantly,
196
657865
1152
но исто важно е дека,
11:11
we also need accountants
and managers and assistants
197
659041
4117
имаме потреба од книговодители,
менаџери и асистенти
11:16
to work in these organizations
that are tackling these problems.
198
664691
3754
да работат во организациите кои
се справуваат со овие проблеми.
11:20
Now, the research program
of effective altruism
199
668469
3492
Сега, истражувачката програма
на ефективен алтруизам
11:25
is still in its infancy,
200
673191
1444
е се`уште во зачеток,
11:27
and there's still a huge amount
that we don't know.
201
675262
2524
и се`уште има многу работи
кои не ни се познати.
11:31
But even with what we've learned so far,
202
679173
2343
Но, дури и со ова што го научивме досега,
11:34
we can see that by thinking carefully
203
682748
2183
ако размислуваме внимателно
11:37
and by focusing on those problems
that are big, solvable and neglected,
204
685494
4873
и се фокусираме на проблемите кои
се големи, решливи и запоставени
11:43
we can make a truly tremendous
difference to the world
205
691152
2708
можеме да направиме навистина
огромна разлика во светот
11:45
for thousands of years to come.
206
693884
1631
за илјадниците години кои доаѓаат.
11:47
Thank you.
207
695963
1151
Ви благодарам.
11:49
(Applause)
208
697138
4560
(Аплауз)
Translated by Marina Karova
Reviewed by Julia Pascal Kalaputi

▲Back to top

ABOUT THE SPEAKER
Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com