English-Video.net comment policy

The comment field is common to all languages

Let's write comments in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2018

Will MacAskill: What are the most important moral problems of our time?

Вил МакАскил: Како можеме да го направиме најдоброто за светот?

Filmed:
1,385,969 views

Од сите проблеми со кои се соочува човештвото, на кој би требало најпрво да се фокусираме и да го решиме? Во убедливиот говор за тоа како да го направиме светот подобар, моралниот филозоф Вил МакАскил ни дава рамка за одговор на ова прашање врз основа на филозофијата на ,,ефективен алтруизам,, - и споделува идеи за фокусирање на три најкритични прашања.

- Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible? Full bio

This is a graph
Ова е графикон
00:12
that represents the economic history
of human civilization.
кој ја претставува економската историја
на човековата цивилизација.
00:14
[World GDP per capita
over the last 200,000 years]
[Светски БДП по глава на жител
во последните 200.000 години]
00:18
There's not much going on, is there.
Ако некаде не се случува ништо,
тоа е овде.
00:23
For the vast majority of human history,
Зa мнозинството во човечката историја,
00:26
pretty much everyone lived
on the equivalent of one dollar per day,
кога речиси сите живееле во просек
со еден долар на ден,
00:29
and not much changed.
не се променило многу.
00:33
But then, something
extraordinary happened:
Но тогаш, се случило нешто неочекувано:
00:36
the Scientific and Industrial Revolutions.
научната и индустриската револуција.
00:40
And the basically flat graph you just saw
И всушност рамниот графикон што го видовте
00:43
transforms into this.
се претвора во ова.
00:46
What this graph means is that,
in terms of power to change the world,
Графиконот покажува дека во услови
на моќ за да го промениме светот,
00:50
we live in an unprecedented time
in human history,
живееме во невиден момент
на човековата историја
00:55
and I believe our ethical understanding
hasn't yet caught up with this fact.
и верувам дека нашето етичко разбирање
се`уште не се помирило со овој факт.
00:58
The Scientific and Industrial Revolutions
Научните и индустриски револуции
01:03
transformed both
our understanding of the world
го променија нашето разбирање за светот
01:05
and our ability to alter it.
и нашата умешност да го промениме.
01:08
What we need is an ethical revolution
Она што ни треба е етичка револуција
01:11
so that we can work out
за да можеме да откриеме
01:15
how do we use this tremendous
bounty of resources
како да го искористиме ова
огромно богатство на ресурси
01:16
to improve the world.
за да го подобриме светот.
01:19
For the last 10 years,
Во последните 10 години,
01:22
my colleagues and I have developed
a philosophy and research program
со моите колеги создадовме филозофија
и истражувачка програма
01:23
that we call effective altruism.
која ја нарековме Ефективен алтруизам.
01:27
It tries to respond
to these radical changes in our world,
Тој се труди да одговори на радикалните
промени во светот,
01:30
uses evidence and careful reasoning
to try to answer this question:
користи евиденција и внимателно се обидува
да одговори на следното прашање:
01:33
How can we do the most good?
Како може да го направиме најдоброто?
01:40
Now, there are many issues
you've got to address
Сега, овде има многу прашања
кои треба да се земат во предвид
01:44
if you want to tackle this problem:
ако сакате да се справите со овој проблем:
01:47
whether to do good through your charity
Дали да го сторите тоа со вашата
добротворна организација
01:49
or your career
or your political engagement,
или преку кариера или политички ангажман,
01:51
what programs to focus on,
who to work with.
на кои програми да се фокусирате,
со кој ќе работите.
01:54
But what I want to talk about
Но она за што сакам да зборувам
01:57
is what I think is the most
fundamental problem.
е она што мислам дека е
најфундаментален проблем.
01:59
Of all the many problems
that the world faces,
Од сите проблеми со кои светот се соочува,
02:02
which should we be focused
on trying to solve first?
на кој треба да се фокусираме
за да да го решиме прв?
02:05
Now, I'm going to give you a framework
for thinking about this question,
Сега, ќе ви дадам рамка за размислување
околу ова прашање
02:10
and the framework is very simple.
а рамката е многу едноставна.
02:14
A problem's higher priority,
Најважниот приоритет на проблемот,
02:16
the bigger, the more easily solvable
and the more neglected it is.
колку е поголем, толку е полесен
за решавање и позапоставен е.
02:19
Bigger is better,
Подобро да е поголем,
02:24
because we've got more to gain
if we do solve the problem.
затоа што имаме поголема корист
ако го решиме проблемот.
02:26
More easily solvable is better
Лесно решливиот проблем е подобар
02:30
because I can solve the problem
with less time or money.
бидејќи можеме да го решеме
со помалку време или пари.
02:31
And most subtly,
И она што е најсуптилно,
02:35
more neglected is better,
because of diminishing returns.
ако е запоставен е подобро
зашто поретко се враќа назад.
02:38
The more resources that have already been
invested into solving a problem,
Колку повеќе извори се инвестирани
во решавање на проблем,
02:42
the harder it will be
to make additional progress.
толку потешко ќе биде да направиме
дополнителен напредок.
02:46
Now, the key thing that I want
to leave with you is this framework,
Сега, клучната работа која сакам
да ја споделам со вас е оваа рамка,
02:50
so that you can think for yourself
па така ќе можете да размислите
02:54
what are the highest global priorities.
кој се највисоките глобални
приоритети според вас.
02:56
But I and others
in the effective altruism community
Но јас и другите од заедницата
на Ефективен алтруизам
02:59
have converged on three moral issues
that we believe are unusually important,
се фокусиравме на три морални прашања
кои веруваме дека се мошне значајни
03:02
score unusually well in this framework.
и чии резултати се прилилно
добри во рамката.
03:08
First is global health.
Прво е глобалното здравје.
03:11
This is supersolvable.
Ова е суперрешавачко.
03:13
We have an amazing track record
in global health.
Имаме неверојатен учинок
во глобалното здравје.
03:16
Rates of death from measles,
malaria, diarrheal disease
Стапките на смртност од мали сипаници,
маларија, дијареа
03:19
are down by over 70 percent.
се намалени за повеќе од 70 проценти.
03:25
And in 1980, we eradicated smallpox.
И во 1980, ги искоренавме малите сипаници.
03:29
I estimate we thereby saved
over 60 million lives.
Моја проценка е дека така зачувавме
преку 60 милиони животи.
03:33
That's more lives saved
than if we'd achieved world peace
Тоа се повеќе зачувани животи
отколку ако достигневме светски мир
03:37
in that same time period.
во истиот временски период.
03:40
On our current best estimates,
Според нашите најдобри сегашни проценки,
03:43
we can save a life by distributing
long-lasting insecticide-treated bed nets
може да спасиме живот со дистрибуција
на долготрајни инсектицидни мрежи
03:46
for just a few thousand dollars.
за само неколку илјади долари.
03:50
This is an amazing opportunity.
Ова е неверојатна можност.
03:52
The second big priority
is factory farming.
Вториот голем приоритет
е фабричкото земјоделство.
03:55
This is superneglected.
Ова е натприродно.
03:58
There are 50 billion land animals
used every year for food,
50 милијарди копнени животни
се искористуваат за храна секоја година,
04:00
and the vast majority of them
are factory farmed,
и големо мнозинство од нив
се во фабрички фарми,
04:05
living in conditions
of horrific suffering.
живеат во услови на ужасни страдања.
04:08
They're probably among
the worst-off creatures on this planet,
Тие се веројатно меѓу најлошо одгледаните
суштества на планетата
04:10
and in many cases, we could
significantly improve their lives
и во многу случаи, би можеле значително
да ги подобриме нивните животи
04:13
for just pennies per animal.
за само еден денар по животно.
04:16
Yet this is hugely neglected.
Сепак, ова е многу запоставено.
04:19
There are 3,000 times
more animals in factory farms
Постојат 3.000 пати повеќе животни
во фабричките фарми
04:21
than there are stray pets,
отколку што има скитници,
04:25
but yet, factory farming gets one fiftieth
of the philanthropic funding.
но, фабричкото фармерство добива 1/50
од филантропското финансирање.
04:28
That means additional
resources in this area
Тоа значи, додатните извори во оваа област
04:34
could have a truly transformative impact.
може да имаат трансформирачко влијание.
04:36
Now the third area is the one
that I want to focus on the most,
Третата област е таа на која
сакам да се фокусирам најмногу,
04:39
and that's the category
of existential risks:
а тоа е категоријата на постоечки
ризици:
04:42
events like a nuclear war
or a global pandemic
настаните како нуклеарната војна
или глобалната пандемија
04:45
that could permanently derail civilization
кој би можеле трајно да ја
потиснат цивилизацијата.
04:50
or even lead to the extinction
of the human race.
дури и да доведат до истребување
на човечката раса.
04:54
Let me explain why I think
this is such a big priority
Ќе објаснам зошто мислам
дека ова голем приоритет
04:57
in terms of this framework.
во однос на оваа рамка.
05:00
First, size.
Прво, големината.
05:02
How bad would it be if there were
a truly existential catastrophe?
Колку би било лошо ако навистина
би имало катастрофа?
05:05
Well, it would involve the deaths
of all seven billion people on this planet
Па, тоа би било смрт за сите седум
милијарди луѓе на оваа планета
05:10
and that means you
and everyone you know and love.
а тоа значи вие и сите
што ги познавате и сакате.
05:17
That's just a tragedy
of unimaginable size.
Тоа е трагедија од незамисливи размери.
05:21
But then, what's more,
Но, што е уште поважно,
05:25
it would also mean the curtailment
of humanity's future potential,
тоа би значело ограничување
на идниот потенцијал на човештвото
05:27
and I believe that humanity's
potential is vast.
а јас верувам дека човечкиот
потенцијал е огромен.
05:31
The human race has been around
for about 200,000 years,
Човечката раса постои
околу 200.000 години
05:35
and if she lives as long
as a typical mammalian species,
и ако живее толку долго како
типичен вид на цицачи,
05:39
she would last
for about two million years.
таа ќе трае околу две милиони години.
05:41
If the human race
were a single individual,
Ако човечката раса беше поединец
05:46
she would be just 10 years old today.
таа би имала само 10 години денес.
05:49
And what's more, the human race
isn't a typical mammalian species.
И што е поважно, човечката раса
не е типичен вид на цицачи.
05:53
There's no reason why, if we're careful,
Ако внимаваме, не постои причина зошто
05:58
we should die off
after only two million years.
би изумреле после само милиони години.
06:00
The earth will remain habitable
for 500 million years to come.
Земјата ќе остане погодна за живеење
за следните 500 милиони години.
06:03
And if someday, we took to the stars,
И ако некој ден, стигнеме до ѕвездите.
06:08
the civilization could continue
for billions more.
цивилизацијата ќе може
да продолжи повеќе милијарди.
06:11
So I think the future
is going to be really big,
Сметам дека иднината
ќе биде навистина голема,
06:16
but is it going to be good?
но дали ќе биде добра?
06:19
Is the human race
even really worth preserving?
Дали човечката раса
навистина вреди да се зачува?
06:21
Well, we hear all the time about
how things have been getting worse,
Па, цело време слушаме
како работите одат на полошо,
06:26
but I think that when
we take the long run,
но јас мислам дека на подолг временски рок
06:31
things have been getting radically better.
работите се радикално подобри.
06:34
Here, for example,
is life expectancy over time.
Овде, на пример, е животниот
век низ времето.
06:37
Here's the proportion of people
not living in extreme poverty.
Ова е процентот на луѓе кои не живеат
во екстремна сиромаштија.
06:40
Here's the number of countries over time
that have decriminalized homosexuality.
Овие се државите кои со текот на времето
ја декриминализираа хомосексуалноста.
06:45
Here's the number of countries over time
that have become democratic.
Овде е бројот на држави кои со текот
на времето станаа демократски.
06:50
Then, when we look to the future,
there could be so much more to gain again.
Значи, ако погледнеме во иднината, има
многу повеќе што би можеле да добиеме.
06:55
We'll be so much richer,
Ќе бидеме многу побогати,
06:59
we can solve so many problems
that are intractable today.
ќе можеме да решиме толку многу проблеми
кои се неподносливи денес.
07:00
So if this is kind of a graph
of how humanity has progressed
Ова е вид на графикон за тоа
колку човештвото напредувало
07:05
in terms of total human
flourishing over time,
во услови на целосен човечки напредок,
07:09
well, this is what we would expect
future progress to look like.
и ова е како би изгледал
напредокот во иднина.
07:12
It's vast.
Ова е многу.
07:16
Here, for example,
Овде на пример,
07:18
is where we would expect no one
to live in extreme poverty.
е кога никој не би живеел
во екстремна сиромаштија.
07:20
Here is where we would expect
everyone to be better off
Овде, би требало сите да бидат побогати
07:25
than the richest person alive today.
од најбогатиот жив човек денес.
07:29
Perhaps here is where we would discover
the fundamental natural laws
Можеби овде би ги откриле
основните закони на природата
07:32
that govern our world.
кои владеат во светот.
07:35
Perhaps here is where we discover
an entirely new form of art,
Можеби овде е местото каде би откриле
сосема нова форма на уметност,
07:37
a form of music we currently lack
the ears to hear.
форма на музика за која
во моментов немаме слух.
07:41
And this is just
the next few thousand years.
Ова е само за следните
неколку илјади години.
07:45
Once we think past that,
Кога ќе помислиме на минатото,
07:47
well, we can't even imagine the heights
that human accomplishment might reach.
не можеме ниту да ги замислиме височините
на човечките достигнувања.
07:50
So the future could be very big
and it could be very good,
Значи, иднината може да е многу голема,
и тоа ќе е добро
07:54
but are there ways
we could lose this value?
но, можеме да ја изгубиме оваа вредност?
07:57
And sadly, I think there are.
За жал, мислам дека можеме.
08:00
The last two centuries brought
tremendous technological progress,
Последните два века донесоа огромен
технолошки напредок,
08:02
but they also brought
the global risks of nuclear war
но донесоа и глобални ризици
од нуклеарна војна
08:06
and the possibility
of extreme climate change.
и можнност за екстремни климатски промени.
08:08
When we look to the coming centuries,
Ако погледнеме кон идните векови,
08:11
we should expect to see
the same pattern again.
би очекувале да ја видиме
истата шема повторно.
08:13
And we can see some radically
powerful technologies on the horizon.
И можеме да видиме радикално
моќни технологии на хоризонтот.
08:16
Synthetic biology might give us
the power to create viruses
Синтетичката биологија ни
овозможува да креираме вируси
08:20
of unprecedented
contagiousness and lethality.
со невидена заразност и леталност.
08:23
Geoengineering might give us the power
to dramatically alter the earth's climate.
Геоинжинеринг ни дава моќ драстично
да ја смениме климата на земјата.
08:27
Artificial intelligence might give us
the power to create intelligent agents
Вештачката интелигенција ни дава моќ
да создадеме интелигентни агенти
08:31
with abilities greater than our own.
со способности поголеми од нашите.
08:36
Now, I'm not saying that any
of these risks are particularly likely,
Сега, не велам дека сите овие ризици
се веројатно можни,
08:40
but when there's so much at stake,
но кога се толку многу во прашање,
08:44
even small probabilities
matter a great deal.
дури и најмалата веројатност
е многу важна.
08:45
Imagine if you're getting on a plane
and you're kind of nervous,
Замислете, се качувате на авион
и имате малку паника.
08:49
and the pilot reassures you by saying,
и пилотот ве уверува со зборовите,
08:52
"There's only a one-in-a-thousand
chance of crashing. Don't worry."
,,Има само една во илјада шанси
за уривање. Не грижете се.“
08:56
Would you feel reassured?
Би се чуствувале ли сигурно?
09:02
For these reasons, I think that preserving
the future of humanity
Поради овие причини, мислам дека
зачувувањето на иднината на човештвото
09:04
is among the most important problems
that we currently face.
е меѓу најважните проблеми со кој
моментално се соочуваме.
09:08
But let's keep using this framework.
Но, да продолжиме со употребата
на оваа рамка.
09:12
Is this problem neglected?
Дали овој проблем е занемарен?
09:14
And I think the answer is yes,
Мислам дека одговорот е да,
09:18
and that's because problems
that affect future generations
а тоа е така затоа што проблемите
кои ги засегаат идните генерации
09:20
are often hugely neglected.
често се занемаруваат.
09:23
Why?
Зошто?
09:26
Because future people
don't participate in markets today.
Затоа што идните луѓе не учествуваат
на пазарите денес.
09:28
They don't have a vote.
Тие немаат глас.
09:31
It's not like there's a lobby
representing the interests
Тоа е како да нема лоби кое
ги претставува интересите
09:33
of those born in 2300 AD.
на оние родени во 2300 н.е.
09:36
They don't get to influence
the decisions we make today.
Тие не можат да влијаат на одлуките
кои ги носиме денес.
09:40
They're voiceless.
Тие се безгласни.
09:43
And that means we still spend
a paltry amount on these issues:
А тоа значи дека ние сеуште трошиме
несоодветен износ на овие прашања:
09:46
nuclear nonproliferation,
нуклеарно неширење,
09:49
geoengineering, biorisk,
геоинжинеринг, биоризик,
09:51
artificial intelligence safety.
безбедност од вештачка интелигенција.
09:55
All of these receive
only a few tens of millions of dollars
Сите овие добиваат само неколку
десетици милиони од доларите
09:57
of philanthropic funding every year.
на филантропското финансирање
секоја година.
10:00
That's tiny compared
to the 390 billion dollars
Тоа не може да се спореди
со 390 милијарди долари
10:04
that's spent on US philanthropy in total.
кои се трошат на вкупната
американска филантропија.
10:08
The final aspect of our framework then:
Последниот аспект од нашата рамка:
10:13
Is this solvable?
Дали ова може да се реши?
10:17
I believe it is.
Јас верувам дека е.
10:19
You can contribute with your money,
Можете да придонесете со вашите пари,
10:21
your career or your political engagement.
вашата кариера или вашиот
политички ангажман.
10:24
With your money,
you can support organizations
Со вашите пари, може
да поддржите организации
10:28
that focus on these risks,
фокусирани на овие ризици,
10:30
like the Nuclear Threat Initiative,
како што е Инцијативата
за нуклеарната закана,
10:31
which campaigns to take nuclear weapons
off hair-trigger alert,
која се залага за отстранување
на нуклеарното оружје,
10:34
or the Blue Ribbon Panel, which
develops policy to minimize the damage
или Панелот сина лента, кој води
политика за минимизирање на штетите
10:38
from natural and man-made pandemics,
од природните и вештачки пандемии,
10:41
or the Center for Human-Compatible AI,
which does technical research
или Центарот за човечки компатибилен ПИ,
кој врши техничко истражување
10:45
to ensure that AI systems
are safe and reliable.
да ја утврди сигурноста и безбедноста
на ПИ системите.
10:48
With your political engagement,
Со вашиот политички ангажман,
10:52
you can vote for candidates
that care about these risks,
можете да гласате за кандидати
кои се грижат за овие ризици,
10:54
and you can support
greater international cooperation.
и можете да поддржите поголема
меѓународна соработка.
10:57
And then with your career,
there is so much that you can do.
И за крај, со вашата кариера, има многу
нешта кои можете да ги направите.
11:01
Of course, we need scientists
and policymakers and organization leaders,
Се разбира, нам ни се потребни научници
и почитичари и организатори,
11:05
but just as importantly,
но исто важно е дека,
11:09
we also need accountants
and managers and assistants
имаме потреба од книговодители,
менаџери и асистенти
11:11
to work in these organizations
that are tackling these problems.
да работат во организациите кои
се справуваат со овие проблеми.
11:16
Now, the research program
of effective altruism
Сега, истражувачката програма
на ефективен алтруизам
11:20
is still in its infancy,
е се`уште во зачеток,
11:25
and there's still a huge amount
that we don't know.
и се`уште има многу работи
кои не ни се познати.
11:27
But even with what we've learned so far,
Но, дури и со ова што го научивме досега,
11:31
we can see that by thinking carefully
ако размислуваме внимателно
11:34
and by focusing on those problems
that are big, solvable and neglected,
и се фокусираме на проблемите кои
се големи, решливи и запоставени
11:37
we can make a truly tremendous
difference to the world
можеме да направиме навистина
огромна разлика во светот
11:43
for thousands of years to come.
за илјадниците години кои доаѓаат.
11:45
Thank you.
Ви благодарам.
11:47
(Applause)
(Аплауз)
11:49
Translated by Marina Karova
Reviewed by Julia Pascal Kalaputi

▲Back to top

About the speaker:

Will MacAskill - Moral philosopher, writer
Will MacAskill is a cofounder of the effective altruism movement, a philosophy that tries to answer the question: How can we do as much good as possible?

Why you should listen

Will MacAskill is the author of Doing Good Better and the cofounder of the organization Giving What We Can and the social-impact-career advice project 80,000 Hours. He is a trustee of the Centre for Effective Altruism. As he writes: "I'm an associate professor of moral philosophy at Oxford University. I helped to create the philosophy of effective altruism: the use of evidence and reason to figure out how to do the most good we can.

"While growing up, I tried my best to do good things: I donated to high street charities, I worked at an old folks' home, I taught English in Ethiopia. But when I was a graduate student I realized that I'd never asked myself the question of whether these were the truly best ways of improving the world. So, being a nerd, I started doing some research to try to find out what activities would do the most to make the world a better place. Ten years later, I'm still asking that question.

"I'm still far from certain about what the best ways of doing good are, but I have learned that each and every one of us can do a tremendous amount to make the world a better place, whether that's by donating to buy bednets to protect children from malaria, campaigning to improve living conditions for animals in factory farms or working to ensure that the benefits of new technology are harnessed while avoiding the risks."

More profile about the speaker
Will MacAskill | Speaker | TED.com