ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom fala sobre nossos maiores problemas

Filmed:
967,767 views

O filósofo e trans-humanista de Oxford, Nick Bostrom examina o futuro da humanidade e questiona se poderíamos alterar a própria essência da humanidade para solucionar nossos problemas intrínsecos.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk today about --
0
0
3000
Eu gostaria de falar hoje sobre...
00:27
I've been asked to take the long view, and I'm going to tell you what
1
3000
6000
Me pediram que fizessem uma análise bem detalhada, então...
00:33
I think are the three biggest problems for humanity
2
9000
4000
Acho que há três grandes problemas na humanidade
00:37
from this long point of view.
3
13000
3000
nessa análise detalhada.
00:40
Some of these have already been touched upon by other speakers,
4
16000
3000
Outros palestrantes já falaram sobre alguns deles,
00:43
which is encouraging.
5
19000
2000
e isso é encorajador.
00:45
It seems that there's not just one person
6
21000
2000
Parece que não são poucos
00:47
who thinks that these problems are important.
7
23000
2000
os que pensam que esses problemas são importantes.
00:49
The first is -- death is a big problem.
8
25000
4000
O primeiro é - a morte, grande problema.
00:53
If you look at the statistics,
9
29000
3000
Se olharmos as estatísticas,
00:56
the odds are not very favorable to us.
10
32000
2000
veremos que não são muito favoráveis a nós.
00:58
So far, most people who have lived have also died.
11
34000
4000
Até agora, todas as pessoas que viveram, também morreram.
01:02
Roughly 90 percent of everybody who has been alive has died by now.
12
38000
4000
Aproximadamente 90% de todos que já viveram estão agora mortos.
01:06
So the annual death rate adds up to 150,000 --
13
42000
6000
A taxa anual de mortalidade chega a 150.000...
01:12
sorry, the daily death rate -- 150,000 people per day,
14
48000
3000
perdão, a taxa diária - 150.000 pessoas por dia,
01:15
which is a huge number by any standard.
15
51000
3000
o que é um número estarrecedor.
01:18
The annual death rate, then, becomes 56 million.
16
54000
5000
A taxa anual, então, é de 56 milhões.
01:23
If we just look at the single, biggest cause of death -- aging --
17
59000
5000
Se observarmos a maior causa das mortes - o envelhecimento -
01:29
it accounts for roughly two-thirds of all human people who die.
18
65000
5000
mais ou menos dois terços da população morre disso.
01:34
That adds up to an annual death toll
19
70000
3000
Isso chega a uma taxa de mortalidade anual
01:37
of greater than the population of Canada.
20
73000
2000
maior que toda a população do Canadá.
01:39
Sometimes, we don't see a problem
21
75000
2000
Às vezes, não vemos um problema
01:41
because either it's too familiar or it's too big.
22
77000
4000
ou porque é muito corriqueiro, ou porque é muito grande.
01:45
Can't see it because it's too big.
23
81000
2000
Não vemos porque é muito grande.
01:47
I think death might be both too familiar and too big
24
83000
3000
A morte deveria ser muito corriqueira e muito grande
01:50
for most people to see it as a problem.
25
86000
3000
para que as pessoas a vissem como um problema.
01:53
Once you think about it, you see this is not statistical points;
26
89000
2000
Quando se pensa sobre isso, percebe-se que não são só estatísticas.
01:55
these are -- let's see, how far have I talked?
27
91000
2000
São... vamos ver, estou falando há quanto tempo?
01:57
I've talked for three minutes.
28
93000
3000
Já falei por três minutos.
02:00
So that would be, roughly, 324 people have died since I've begun speaking.
29
96000
7000
Então, mais ou menos 324 pessoas morreram desde que comecei a falar.
02:07
People like -- it's roughly the population in this room has just died.
30
103000
4000
Mais ou menos o número de pessoas que estão aqui nessa sala.
02:12
Now, the human cost of that is obvious,
31
108000
2000
O custo humano disso é óbvio.
02:14
once you start to think about it -- the suffering, the loss --
32
110000
3000
Quando começamos a pensar sobre isso - o sofrimento, a perda -
02:17
it's also, economically, enormously wasteful.
33
113000
3000
a perda em termos econômicos também é imensa.
02:20
I just look at the information, and knowledge, and experience
34
116000
3000
Eu penso nas informações, no conhecimento, na experiência
02:23
that is lost due to natural causes of death in general,
35
119000
3000
que se perdem por causa da morte em geral,
02:26
and aging, in particular.
36
122000
2000
e do envelhecimento em particular.
02:28
Suppose we approximated one person with one book?
37
124000
3000
Imagine comparar uma pessoa a um livro.
02:31
Now, of course, this is an underestimation.
38
127000
2000
Claro que estou subestimando um pouco.
02:33
A person's lifetime of learning and experience
39
129000
6000
Toda uma vida de aprendizado e experiência
02:39
is a lot more than you could put into a single book.
40
135000
2000
não caberia em um único livro.
02:41
But let's suppose we did this.
41
137000
2000
Mas vamos imaginar a comparação.
02:44
52 million people die of natural causes each year
42
140000
5000
52 milhões de pessoas morrem de causas naturais por ano,
02:49
corresponds, then, to 52 million volumes destroyed.
43
145000
4000
o que corresponde a 52 milhões de volumes destruídos.
02:53
Library of Congress holds 18 million volumes.
44
149000
3000
A Biblioteca do Congresso tem 18 milhões de livros.
02:57
We are upset about the burning of the Library of Alexandria.
45
153000
3000
Nós ficamos transtornados com o incêndio da Biblioteca de Alexandria.
03:00
It's one of the great cultural tragedies
46
156000
2000
É uma das maiores tragédias culturais
03:02
that we remember, even today.
47
158000
3000
que se tem notícia, até hoje.
03:06
But this is the equivalent of three Libraries of Congress --
48
162000
2000
Só que isso equivale a três Bibliotecas do Congresso...
03:08
burnt down, forever lost -- each year.
49
164000
3000
destruídas e perdidas para sempre - a cada ano.
03:11
So that's the first big problem.
50
167000
2000
Esse é o primeiro grande problema.
03:13
And I wish Godspeed to Aubrey de Grey,
51
169000
3000
E desejo boa sorte a Aubrey de Grey,
03:16
and other people like him,
52
172000
2000
e outras pessoas como ele,
03:18
to try to do something about this as soon as possible.
53
174000
3000
que estão tentando fazer alguma coisa o mais rápido possível.
03:22
Existential risk -- the second big problem.
54
178000
3000
Risco existencial - o segundo grande problema.
03:25
Existential risk is a threat to human survival, or to the long-term potential of our species.
55
181000
7000
O risco existencial ameaça a sobrevivência, o potencial de nossa espécie.
03:32
Now, why do I say that this is a big problem?
56
188000
2000
Por que digo que isso é um grande problema?
03:34
Well, let's first look at the probability --
57
190000
4000
Primeiro, vamos estudar a probabilidade...
03:38
and this is very, very difficult to estimate --
58
194000
3000
e isso é muito difícil de estimar,
03:41
but there have been only four studies on this in recent years,
59
197000
3000
pois só houve quatro estudos sobre isso recentemente,
03:44
which is surprising.
60
200000
2000
o que é surpreendente.
03:46
You would think that it would be of some interest
61
202000
3000
Deveria haver mais interesse nisso,
03:49
to try to find out more about this given that the stakes are so big,
62
205000
4000
tentar saber mais, já que há tanta coisa em risco,
03:53
but it's a very neglected area.
63
209000
2000
mas é uma área negligenciada.
03:55
But there have been four studies --
64
211000
2000
Mas há esses quatro estudos...
03:57
one by John Lesley, wrote a book on this.
65
213000
2000
um de John Lesley, que escreveu um livro.
03:59
He estimated a probability that we will fail
66
215000
2000
Ele estimou a probabilidade de falha
04:01
to survive the current century: 50 percent.
67
217000
3000
em sobreviver ao século atual - 50%.
04:04
Similarly, the Astronomer Royal, whom we heard speak yesterday,
68
220000
5000
Da mesma forma, o Astrônomo Real, que ouvimos ontem,
04:09
also has a 50 percent probability estimate.
69
225000
3000
também fez a mesma estimativa de 50%.
04:12
Another author doesn't give any numerical estimate,
70
228000
3000
Outro autor não dá uma estimativa numérica,
04:15
but says the probability is significant that it will fail.
71
231000
3000
mas diz que há uma significante probabilidade de falha.
04:18
I wrote a long paper on this.
72
234000
3000
Eu escrevi um longo ensaio sobre isso.
04:21
I said assigning a less than 20 percent probability would be a mistake
73
237000
4000
Afirmo que uma probabilidade menor que 20% seria um erro
04:25
in light of the current evidence we have.
74
241000
3000
face às evidências que temos.
04:28
Now, the exact figures here,
75
244000
2000
Os números exatos aqui
04:30
we should take with a big grain of salt,
76
246000
2000
devem ser vistos com certa reserva,
04:32
but there seems to be a consensus that the risk is substantial.
77
248000
3000
mas parece haver um consenso que o risco é substancial.
04:35
Everybody who has looked at this and studied it agrees.
78
251000
3000
Todos que já estudaram isso concordam.
04:38
Now, if we think about what just reducing
79
254000
2000
Se pensarmos sobre a redução
04:40
the probability of human extinction by just one percentage point --
80
256000
5000
da probabilidade da extinção humana em apenas um ponto percentual -
04:45
not very much -- so that's equivalent to 60 million lives saved,
81
261000
5000
o que não é muito - seria equivalente a 60 milhões de vidas salvas.
04:50
if we just count the currently living people, the current generation.
82
266000
4000
Se contarmos apenas as pessoas que vivem agora, a geração atual.
04:54
Now one percent of six billion people is equivalent to 60 million.
83
270000
4000
Um por cento de seis bilhões de pessoas é 60 milhões.
04:58
So that's a large number.
84
274000
2000
É um número significativo.
05:00
If we were to take into account future generations
85
276000
3000
Se levarmos em conta as gerações futuras,
05:03
that will never come into existence if we blow ourselves up,
86
279000
5000
que não chegarão a existir se nos destruirmos,
05:08
then the figure becomes astronomical.
87
284000
3000
os números se tornam astronômicos.
05:11
If we could eventually colonize a chunk of the universe --
88
287000
3000
Se pudéssemos colonizar um pedaço do universo...
05:14
the Virgo supercluster --
89
290000
2000
O superaglomerado de Virgem...
05:16
maybe it will take us 100 million years to get there,
90
292000
2000
talvez demore 100 milhões de anos para chegarmos lá,
05:18
but if we go extinct we never will.
91
294000
3000
mas se formos extintos, nunca chegaremos.
05:21
Then, even a one percentage point reduction
92
297000
3000
Então, até uma redução de um ponto percentual
05:24
in the extinction risk could be equivalent
93
300000
4000
no risco de extinção poderia equivaler
05:28
to this astronomical number -- 10 to the power of 32.
94
304000
3000
a esse número astronômico - 10 à 32ª potência.
05:31
So if you take into account future generations as much as our own,
95
307000
4000
Se levarmos em consideração as gerações futuras e a nossa,
05:35
every other moral imperative of philanthropic cost just becomes irrelevant.
96
311000
5000
qualquer imperativo moral de custo filantrópico se torna irrelevante.
05:40
The only thing you should focus on
97
316000
2000
A única coisa que temos que enfocar
05:42
would be to reduce existential risk
98
318000
2000
seria a redução do risco existencial,
05:44
because even the tiniest decrease in existential risk
99
320000
4000
porque até a mais ínfima diminuição desse risco
05:48
would just overwhelm any other benefit you could hope to achieve.
100
324000
4000
seria muito mais benéfico que qualquer outra conquista.
05:52
And even if you just look at the current people,
101
328000
2000
E se tomarmos apenas as pessoas vivas agora,
05:54
and ignore the potential that would be lost if we went extinct,
102
330000
5000
e ignorar o potencial que seria perdido se formos extintos,
05:59
it should still have a high priority.
103
335000
2000
ainda assim teríamos uma prioridade alta.
06:01
Now, let me spend the rest of my time on the third big problem,
104
337000
5000
Vou usar o resto do tempo para falar sobre o terceiro grande problema,
06:06
because it's more subtle and perhaps difficult to grasp.
105
342000
5000
porque ele é mais sutil e difícil de captar.
06:12
Think about some time in your life --
106
348000
4000
Pensem em algum momento da sua vida...
06:16
some people might never have experienced it -- but some people,
107
352000
3000
que algumas pessoas podem nunca ter experimentado - mas para outras,
06:19
there are just those moments that you have experienced
108
355000
3000
tem aqueles momentos únicos que você experimentou
06:22
where life was fantastic.
109
358000
2000
em que a vida foi fantástica.
06:24
It might have been at the moment of some great, creative inspiration
110
360000
7000
Pode ter sido um momento de grande inspiração criativa
06:31
you might have had when you just entered this flow stage.
111
367000
2000
que você teve quando entrou nesse estágio.
06:33
Or when you understood something you had never done before.
112
369000
2000
Ou quando você finalmente compreendeu alguma coisa.
06:35
Or perhaps in the ecstasy of romantic love.
113
371000
4000
Ou talvez o êxtase do amor romântico.
06:39
Or an aesthetic experience -- a sunset or a great piece of art.
114
375000
5000
Ou uma experiência estética - um por-do-sol ou uma obra de arte.
06:44
Every once in a while we have these moments,
115
380000
2000
De vez em quando temos esses momentos,
06:46
and we realize just how good life can be when it's at its best.
116
382000
4000
e percebemos o quanto a vida pode ser boa.
06:50
And you wonder, why can't it be like that all the time?
117
386000
5000
E você se pergunta por que não pode ser assim todo o tempo?
06:55
You just want to cling onto this.
118
391000
2000
Você quer que isto dure para sempre.
06:57
And then, of course, it drifts back into ordinary life and the memory fades.
119
393000
4000
E, claro, voltamos à vida normal e essa memória desaparece.
07:01
And it's really difficult to recall, in a normal frame of mind,
120
397000
4000
E é muito difícil lembrar, numa disposição mental normal,
07:05
just how good life can be at its best.
121
401000
3000
como a vida pode ser boa.
07:08
Or how bad it can be at its worst.
122
404000
3000
Ou como pode ser ruim em certos momentos.
07:11
The third big problem is that life isn't usually
123
407000
3000
O terceiro grande problema é que a vida não é
07:14
as wonderful as it could be.
124
410000
2000
tão maravilhosa como poderia ser.
07:16
I think that's a big, big problem.
125
412000
4000
Eu acho que esse é um grande problema.
07:20
It's easy to say what we don't want.
126
416000
2000
É fácil falar o que não queremos.
07:23
Here are a number of things that we don't want --
127
419000
3000
Eis aqui algumas coisas que não queremos...
07:26
illness, involuntary death, unnecessary suffering, cruelty,
128
422000
3000
doença, morte involuntária, sofrimento desnecessário, crueldade,
07:29
stunted growth, memory loss, ignorance, absence of creativity.
129
425000
5000
atrofia, perda de memória, ignorância, falta de criatividade.
07:35
Suppose we fixed these things -- we did something about all of these.
130
431000
3000
Imaginem que possamos consertar isso - fazer algo em relação a isso.
07:38
We were very successful.
131
434000
2000
Fomos bem sucedidos.
07:40
We got rid of all of these things.
132
436000
2000
Nos livramos de tudo isso.
07:42
We might end up with something like this,
133
438000
3000
Podemos acabar assim.
07:45
which is -- I mean, it's a heck of a lot better than that.
134
441000
4000
Quer dizer, é muito melhor que isso.
07:49
But is this really the best we can dream of?
135
445000
5000
Mas isso é tudo que conseguimos - que sonhamos?
07:54
Is this the best we can do?
136
450000
2000
É o melhor que podemos fazer?
07:56
Or is it possible to find something a little bit more inspiring to work towards?
137
452000
6000
Ou seria possível aspirar a alguma coisa mais inspiradora?
08:02
And if we think about this,
138
458000
2000
Se pensarmos sobre isso,
08:04
I think it's very clear that there are ways
139
460000
4000
acho que está bem claro que há maneiras
08:08
in which we could change things, not just by eliminating negatives,
140
464000
3000
de mudar as coisas, não só eliminando as negativas,
08:11
but adding positives.
141
467000
2000
mas adicionando positivas.
08:13
On my wish list, at least, would be:
142
469000
2000
Em minha lista de desejos, pelo menos,
08:15
much longer, healthier lives, greater subjective well-being,
143
471000
5000
vidas mais longas e saudáveis, maior bem-estar,
08:20
enhanced cognitive capacities, more knowledge and understanding,
144
476000
5000
capacidades cognitivas ampliadas, mais conhecimento e compreensão,
08:25
unlimited opportunity for personal growth
145
481000
2000
oportunidades ilimitadas de crescimento pessoal
08:27
beyond our current biological limits, better relationships,
146
483000
4000
além de nossos limites biológicos, melhores relacionamentos,
08:31
an unbounded potential for spiritual, moral
147
487000
2000
um potencial incrível para desenvolvimento
08:33
and intellectual development.
148
489000
2000
espiritual, moral e intelectual.
08:35
If we want to achieve this, what, in the world, would have to change?
149
491000
8000
Se quisermos alcançar isso, o que teríamos que mudar?
08:43
And this is the answer -- we would have to change.
150
499000
5000
E essa é a resposta - teríamos que mudar.
08:48
Not just the world around us, but we, ourselves.
151
504000
3000
Não só o mundo em nossa volta, mas nós mesmos.
08:51
Not just the way we think about the world, but the way we are -- our very biology.
152
507000
4000
Não só a maneira de vermos o mundo, mas o que somos - nossa biologia.
08:55
Human nature would have to change.
153
511000
2000
A natureza humana teria que mudar.
08:57
Now, when we think about changing human nature,
154
513000
2000
Quando pensamos em mudar a natureza humana,
08:59
the first thing that comes to mind
155
515000
2000
a primeira coisa que vem à mente
09:01
are these human modification technologies --
156
517000
4000
são as tecnologias de modificação humana...
09:05
growth hormone therapy, cosmetic surgery,
157
521000
2000
terapia hormonal, cirurgia cosmética,
09:07
stimulants like Ritalin, Adderall, anti-depressants,
158
523000
3000
estimulantes como o Ritalina, o Adderall, anti-depressivos,
09:10
anabolic steroids, artificial hearts.
159
526000
2000
esteróides anabolizantes, corações artificiais.
09:12
It's a pretty pathetic list.
160
528000
3000
É uma lista realmente patética.
09:15
They do great things for a few people
161
531000
2000
Podem trazer grandes mudanças para algumas pessoas
09:17
who suffer from some specific condition,
162
533000
2000
que sofrem de alguma doença específica.
09:19
but for most people, they don't really transform
163
535000
5000
Mas para a maioria das pessoas, elas não modificam
09:24
what it is to be human.
164
540000
2000
o que realmente é ser humano.
09:26
And they also all seem a little bit --
165
542000
2000
E elas também parecem ser um pouco...
09:28
most people have this instinct that, well, sure,
166
544000
3000
muitas pessoas acham que, bem, claro,
09:31
there needs to be anti-depressants for the really depressed people.
167
547000
2000
há a necessidade de anti-depressivos para quem realmente tem depressão.
09:33
But there's a kind of queasiness
168
549000
2000
Mas há um tipo de constrangimento
09:35
that these are unnatural in some way.
169
551000
3000
de que isso não é natural.
09:38
It's worth recalling that there are a lot of other
170
554000
2000
É bom lembrar que há outras
09:40
modification technologies and enhancement technologies that we use.
171
556000
3000
tecnologias de modificação e melhoria que usamos.
09:43
We have skin enhancements, clothing.
172
559000
4000
Temos tecnologias para a pele, para roupas.
09:47
As far as I can see, all of you are users of this
173
563000
4000
Pelo que posso perceber, todos vocês são usuários
09:51
enhancement technology in this room, so that's a great thing.
174
567000
5000
de tecnologias de aprimoramento, então deve ser uma coisa boa.
09:56
Mood modifiers have been used from time immemorial --
175
572000
3000
Modificadores de humor são usados desde tempos imemoriais...
09:59
caffeine, alcohol, nicotine, immune system enhancement,
176
575000
5000
cafeína, álcool, nicotina, intensificadores do sistema imunológico,
10:04
vision enhancement, anesthetics --
177
580000
2000
aprimoramento da visão, anestésicos.
10:06
we take that very much for granted,
178
582000
2000
Nós não damos muito valor a tudo isso,
10:08
but just think about how great progress that is --
179
584000
4000
mas parem para pensar a magnitude desse progresso.
10:12
like, having an operation before anesthetics was not fun.
180
588000
4000
Uma cirurgia antes da anestesia não era nada agradável.
10:16
Contraceptives, cosmetics and brain reprogramming techniques --
181
592000
6000
Contraceptivos, cosméticos e técnicas de reprogramação cerebral...
10:22
that sounds ominous,
182
598000
2000
tudo isso parece muito nefasto.
10:24
but the distinction between what is a technology --
183
600000
4000
Mas a distinção entre o que é uma tecnologia...
10:28
a gadget would be the archetype --
184
604000
2000
uma engenhoca seria o arquétipo.
10:30
and other ways of changing and rewriting human nature is quite subtle.
185
606000
4000
Outras maneiras de mudar e reescrever a natureza humana são muito sutis.
10:34
So if you think about what it means to learn arithmetic or to learn to read,
186
610000
4000
Se você pensar o que significa aprender aritmética ou aprender a ler,
10:38
you're actually, literally rewriting your own brain.
187
614000
3000
você estará, literalmente, reescrevendo seu próprio cérebro.
10:41
You're changing the microstructure of your brain as you go along.
188
617000
3000
Você estará mudando a micro-estrutura de seu cérebro no processo.
10:45
So in a broad sense, we don't need to think about technology
189
621000
3000
Então, em termos gerais, não precisamos pensar em tecnologia
10:48
as only little gadgets, like these things here,
190
624000
2000
apenas como engenhocas, como essas aqui.
10:50
but even institutions and techniques,
191
626000
4000
Mas também instituições e técnicas,
10:54
psychological methods and so forth.
192
630000
2000
métodos psicológicos e assim por diante.
10:56
Forms of organization can have a profound impact on human nature.
193
632000
5000
Formas de organização podem ter grande impacto na natureza humana.
11:01
Looking ahead, there is a range of technologies
194
637000
2000
Pensando à frente, há uma série de tecnologias
11:03
that are almost certain to be developed sooner or later.
195
639000
3000
que certamente serão desenvolvidas mais cedo ou mais tarde.
11:06
We are very ignorant about what the time scale for these things are,
196
642000
4000
Nós desconhecemos a programação para essas coisas,
11:10
but they all are consistent with everything we know
197
646000
2000
mas são consistentes com tudo o que sabemos
11:12
about physical laws, laws of chemistry, etc.
198
648000
4000
sobre leis da física, da química, etc.
11:16
It's possible to assume,
199
652000
2000
É certo presumir,
11:18
setting aside a possibility of catastrophe,
200
654000
3000
deixando de lado a possibilidade de catástrofe,
11:21
that sooner or later we will develop all of these.
201
657000
3000
que cedo ou tarde desenvolveremos tudo isso.
11:24
And even just a couple of these would be enough
202
660000
3000
E apenas alguns deles seriam suficientes
11:27
to transform the human condition.
203
663000
2000
para transformar a condição humana.
11:29
So let's look at some of the dimensions of human nature
204
665000
5000
Então vamos ver algumas dimensões da natureza humana
11:34
that seem to leave room for improvement.
205
670000
3000
que podem ser melhoradas.
11:37
Health span is a big and urgent thing,
206
673000
2000
A saúde é uma melhoria grande e urgente,
11:39
because if you're not alive,
207
675000
2000
pois se não estamos vivos,
11:41
then all the other things will be to little avail.
208
677000
3000
então nada mais terá valia.
11:44
Intellectual capacity -- let's take that box,
209
680000
2000
A capacidade intelectual - vamos analisar essa vertente,
11:46
which falls into a lot of different sub-categories:
210
682000
5000
que tem diferentes sub-categorias...
11:51
memory, concentration, mental energy, intelligence, empathy.
211
687000
3000
memória, concentração, energia mental, inteligência, empatia.
11:54
These are really great things.
212
690000
2000
São coisas excelentes.
11:56
Part of the reason why we value these traits
213
692000
2000
A razão pela qual valorizamos essas características
11:58
is that they make us better at competing with other people --
214
694000
4000
é porque elas nos tornam melhores competidores;
12:02
they're positional goods.
215
698000
2000
são bens de posicionamento.
12:04
But part of the reason --
216
700000
2000
Mas parte da razão...
12:06
and that's the reason why we have ethical ground for pursuing these --
217
702000
4000
e essa é a razão pela qual essa busca é ética...
12:10
is that they're also intrinsically valuable.
218
706000
3000
é que elas também são intrinsecamente valiosas.
12:13
It's just better to be able to understand more of the world around you
219
709000
4000
É muito bom ser capaz de entender mais do mundo a sua volta
12:17
and the people that you are communicating with,
220
713000
2000
e as pessoas com quem está se comunicando,
12:19
and to remember what you have learned.
221
715000
4000
e lembrar do que aprendeu.
12:23
Modalities and special faculties.
222
719000
2000
Modalidades e aptidões especiais.
12:25
Now, the human mind is not a single unitary information processor,
223
721000
5000
A mente humana não é um processador de informações unitário,
12:30
but it has a lot of different, special, evolved modules
224
726000
4000
mas sim um conjunto de módulos diferentes, especiais e evoluídos
12:34
that do specific things for us.
225
730000
2000
que fazem coisas específicas para nós.
12:36
If you think about what we normally take as giving life a lot of its meaning --
226
732000
4000
Se pensarmos no que normalmente dá sentido à vida...
12:40
music, humor, eroticism, spirituality, aesthetics,
227
736000
4000
música, humor, erotismo, espiritualidade, estética,
12:44
nurturing and caring, gossip, chatting with people --
228
740000
5000
carinho e atenção, fofoca, bate-papos.
12:49
all of these, very likely, are enabled by a special circuitry
229
745000
4000
Tudo isso, provavelmente, faz parte de um circuito
12:53
that we humans have,
230
749000
2000
que nós humanos temos,
12:55
but that you could have another intelligent life form that lacks these.
231
751000
3000
mas outras formas de vida inteligente não possuem.
12:58
We're just lucky that we have the requisite neural machinery
232
754000
3000
Temos a sorte de ter o maquinário neural necessário
13:01
to process music and to appreciate it and enjoy it.
233
757000
4000
para processar a música e apreciá-la.
13:05
All of these would enable, in principle -- be amenable to enhancement.
234
761000
3000
Tudo isso, em princípio, é favorável ao aperfeiçoamento.
13:08
Some people have a better musical ability
235
764000
2000
Algumas pessoas têm habilidade musicais mais apuradas
13:10
and ability to appreciate music than others have.
236
766000
2000
e mais habilidade de apreciar música que outras.
13:12
It's also interesting to think about what other things are --
237
768000
3000
É interessante pensar sobre outras coisas...
13:15
so if these all enabled great values,
238
771000
3000
então se tudo isso possibilitou grandes valores,
13:19
why should we think that evolution has happened to provide us
239
775000
3000
por que pensaríamos que a evolução aconteceu para nos dar
13:22
with all the modalities we would need to engage
240
778000
3000
todas as modalidades que precisamos para combinar
13:25
with other values that there might be?
241
781000
2000
com outros valores que possam vir a existir?
13:27
Imagine a species
242
783000
2000
Imaginem uma espécie
13:29
that just didn't have this neural machinery for processing music.
243
785000
4000
que não tivesse o maquinário neural para processar música.
13:33
And they would just stare at us with bafflement
244
789000
3000
Eles só ficariam nos observando, confusos,
13:36
when we spend time listening to a beautiful performance,
245
792000
4000
enquanto ouvimos uma linda apresentação,
13:40
like the one we just heard -- because of people making stupid movements,
246
796000
2000
como a que acabamos de ouvir - porque as pessoas fizeram coisas estúpidas.
13:42
and they would be really irritated and wouldn't see what we were up to.
247
798000
3000
E elas estariam irritadas e não veriam o que nós veríamos.
13:45
But maybe they have another faculty, something else
248
801000
3000
Mas talvez elas tivessem outra capacidade, outra coisa
13:48
that would seem equally irrational to us,
249
804000
3000
que nos pareceria irracional,
13:51
but they actually tap into some great possible value there.
250
807000
3000
mas que poderia ter grande valor.
13:54
But we are just literally deaf to that kind of value.
251
810000
4000
Mas nós seríamos literalmente surdos a esse tipo de valor.
13:58
So we could think of adding on different,
252
814000
2000
Então poderíamos pensar em adicionar
14:00
new sensory capacities and mental faculties.
253
816000
4000
novas e diferentes capacidades e faculdades mentais.
14:04
Bodily functionality and morphology and affective self-control.
254
820000
5000
Funcionalidade e morfologia corporal e auto-controle efetivo.
14:09
Greater subjective well-being.
255
825000
2000
Maior bem-estar subjetivo.
14:11
Be able to switch between relaxation and activity --
256
827000
3000
Ser capaz de passar do relaxamento à atividade...
14:14
being able to go slow when you need to do that, and to speed up.
257
830000
4000
ser capaz de desacelerar quando preciso, e acelerar também.
14:18
Able to switch back and forth more easily
258
834000
2000
Ser capaz de avançar e recuar com mais facilidade
14:20
would be a neat thing to be able to do --
259
836000
2000
seria muito interessante,
14:22
easier to achieve the flow state,
260
838000
2000
mais fácil de alcançar um estágio fluido,
14:24
when you're totally immersed in something you are doing.
261
840000
4000
onde você estará realmente imerso no que está fazendo.
14:28
Conscientiousness and sympathy.
262
844000
2000
Conscientização e simpatia.
14:30
The ability to -- it's another interesting application
263
846000
3000
A habilidade de... essa é outra aplicação interessante
14:33
that would have large social ramification, perhaps.
264
849000
3000
que acarretaria grandes problemas sociais.
14:36
If you could actually choose to preserve your romantic attachments to one person,
265
852000
6000
Se você pudesse escolher por preservar seus relacionamentos românticos com alguém,
14:42
undiminished through time,
266
858000
2000
sem diminuir com o tempo,
14:44
so that wouldn't have to -- love would never have to fade if you didn't want it to.
267
860000
3000
de forma que o amor não desaparecesse se você não quisesse.
14:49
That's probably not all that difficult.
268
865000
3000
Isso provavelmente não é tão difícil.
14:52
It might just be a simple hormone or something that could do this.
269
868000
3000
Pode ser apenas um hormônio ou alguma coisa parecida.
14:57
It's been done in voles.
270
873000
2000
Já foi feito com arganazes.
15:01
You can engineer a prairie vole to become monogamous
271
877000
3000
Você pode fazer com que um arganaz se torne monógamo,
15:04
when it's naturally polygamous.
272
880000
2000
ainda que ele seja polígamo por natureza.
15:06
It's just a single gene.
273
882000
2000
É apenas um gene.
15:08
Might be more complicated in humans, but perhaps not that much.
274
884000
2000
Pode ser mais complicado para humanos, mas talvez nem tanto.
15:10
This is the last picture that I want to --
275
886000
2000
Esse é o último quadro que quero...
15:13
now we've got to use the laser pointer.
276
889000
2000
agora tenho que usar a caneta laser.
15:16
A possible mode of being here would be a way of life --
277
892000
3000
Um motivo possível, estar aqui, seria um modo de vida...
15:19
a way of being, experiencing, thinking, seeing,
278
895000
4000
um modo de ser, experimentar, pensar, ver,
15:23
interacting with the world.
279
899000
2000
interagir com o mundo.
15:25
Down here in this little corner, here, we have the little sub-space
280
901000
5000
Aqui embaixo, nesse cantinho, há esse pequeno sub-espaço
15:30
of this larger space that is accessible to human beings --
281
906000
4000
desse espaço maior que é acessível a seres humanos...
15:34
beings with our biological capacities.
282
910000
3000
seres com nossas capacidades biológicas.
15:37
It's a part of the space that's accessible to animals;
283
913000
3000
É parte do espaço acessível a animais...
15:40
since we are animals, we are a subset of that.
284
916000
3000
porque nós somos animais, somos um sub-grupo deles.
15:43
And then you can imagine some enhancements of human capacities.
285
919000
4000
E podemos imaginar algumas melhorias nas capacidades humanas.
15:47
There would be different modes of being you could experience
286
923000
3000
Haveria diferentes tipos de ser que poderíamos experimentar
15:50
if you were able to stay alive for, say, 200 years.
287
926000
3000
se pudéssemos viver por 200 anos.
15:53
Then you could live sorts of lives and accumulate wisdoms
288
929000
4000
Então poderíamos viver vidas diferentes e acumular sabedoria,
15:57
that are just not possible for humans as we currently are.
289
933000
3000
o que não é possível para os humanos da maneira que são atualmente.
16:00
So then, you move off to this larger sphere of "human +,"
290
936000
4000
Quando nos mudarmos para essa esfera maior de humanidade,
16:04
and you could continue that process and eventually
291
940000
3000
poderemos continuar o processo
16:07
explore a lot of this larger space of possible modes of being.
292
943000
4000
e explorar mais esse grande espaço de seres possíveis.
16:11
Now, why is that a good thing to do?
293
947000
2000
E por que isso seria uma coisa boa?
16:13
Well, we know already that in this little human circle there,
294
949000
4000
Bem, já sabemos que nesse pequeno círculo humano
16:17
there are these enormously wonderful and worthwhile modes of being --
295
953000
4000
há esses modos de ser maravilhosos que valem a pena...
16:21
human life at its best is wonderful.
296
957000
3000
a vida humana em sua plenitude é maravilhosa.
16:24
We have no reason to believe that within this much, much larger space
297
960000
5000
Não há razão para acreditarmos que dentro desse grande espaço
16:29
there would not also be extremely worthwhile modes of being,
298
965000
4000
não haja modos de ser extremamente valiosos.
16:33
perhaps ones that would be way beyond our wildest ability
299
969000
6000
Talvez alguns que estejam além de nossas habilidades,
16:39
even to imagine or dream about.
300
975000
2000
que nem conseguimos imaginar ou sonhar.
16:41
And so, to fix this third problem,
301
977000
2000
Então, para corrigir o terceiro problema,
16:43
I think we need -- slowly, carefully, with ethical wisdom and constraint --
302
979000
6000
acho que precisamos - devagar, com cuidado e sabedoria ética -
16:49
develop the means that enable us to go out in this larger space and explore it
303
985000
5000
desenvolver meios que nos possibilitem explorar esse grande espaço.
16:54
and find the great values that might hide there.
304
990000
2000
E encontrar os grandes valores que podem estar escondidos lá.
16:56
Thanks.
305
992000
2000
Obrigado.
Translated by Cláudia Almeida
Reviewed by Eduardo Carvalho

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com