ABOUT THE SPEAKER
Juan Enriquez - Futurist
Juan Enriquez thinks and writes about the profound changes that genomics and other life sciences will bring in business, technology, politics and society.

Why you should listen

A broad thinker who studies the intersections of these fields, Enriquez has a talent for bridging disciplines to build a coherent look ahead. He is the managing director of Excel Venture Management, a life sciences VC firm. He recently published (with Steve Gullans) Evolving Ourselves: How Unnatural Selection and Nonrandom Mutation Are Shaping Life on Earth. The book describes a world where humans increasingly shape their environment, themselves and other species.

Enriquez is a member of the board of Synthetic Genomics, which recently introduced the smallest synthetic living cell. Called “JCVI-syn 3.0,” it has 473 genes (about half the previous smallest cell). The organism would die if one of the genes is removed. In other words, this is the minimum genetic instruction set for a living organism.

More profile about the speaker
Juan Enriquez | Speaker | TED.com
TEDSummit

Juan Enriquez: What will humans look like in 100 years?

Juan Enriquez: Qual será a aparência dos humanos em 100 anos?

Filmed:
3,026,029 views

Podemos desenvolver bactérias, plantas e animais -- o futurista Juan Enriquez pergunta: é ético aprimorar o corpo humano? Numa conversa visionária que vai das próteses medievais aos dias da neuroengenharia atuais e ciência do DNA artificial, Enriquez classifica a ética associada à evolução humana e imagina as maneiras que teremos para transformar nossos próprios corpos se tivermos esperança de explorar e viver em outros lugares que não na Terra.
- Futurist
Juan Enriquez thinks and writes about the profound changes that genomics and other life sciences will bring in business, technology, politics and society. Full bio

Double-click the English transcript below to play the video.

00:14
Here's a question that matters.
0
2760
1520
Eis uma pergunta importante.
[É ético aprimorar o corpo humano?]
00:16
[Is it ethical to evolve the human body?]
1
4880
1976
É que estamos começando a ter
todas as ferramentas para aprimorá-lo.
00:18
Because we're beginning to get all
the tools together to evolve ourselves.
2
6880
3496
00:22
And we can evolve bacteria
and we can evolve plants
3
10400
2416
Podemos desenvolver bactérias,
plantas e animais
00:24
and we can evolve animals,
4
12840
1416
00:26
and we're now reaching a point
where we really have to ask,
5
14280
2816
e estamos atingindo o ponto
em que devemos nos perguntar:
00:29
is it really ethical
and do we want to evolve human beings?
6
17120
2840
é realmente ético e queremos
aprimorar os seres humanos?
00:33
And as you're thinking about that,
7
21440
1896
Enquanto pensamos nessa questão,
00:35
let me talk about that
in the context of prosthetics,
8
23360
3736
vou falar disso no contexto das próteses,
00:39
prosthetics past, present, future.
9
27120
2680
do passado, do presente e do futuro delas.
00:42
So this is the iron hand
10
30920
1576
Esta é uma mão de ferro
que pertenceu a algum conde alemão.
00:44
that belonged to one of the German counts.
11
32520
2336
Ele adorava lutar e perdeu
seu braço numa dessas batalhas.
00:46
Loved to fight, lost his arm
in one of these battles.
12
34880
4416
00:51
No problem, he just made a suit of armor,
13
39320
2456
Sem problemas, ele apenas
fez uma armadura,
00:53
put it on,
14
41800
1336
a colocou,
00:55
perfect prosthetic.
15
43160
1256
uma prótese perfeita.
00:56
That's where the concept
of ruling with an iron fist comes from.
16
44440
3920
Daí vem o conceito
"governar com punho de ferro".
01:01
And of course these prosthetics
have been getting more and more useful,
17
49600
3456
Claro, essas próteses vêm sendo
cada vez mais úteis e modernas.
01:05
more and more modern.
18
53080
1256
01:06
You can hold soft-boiled eggs.
19
54360
2456
Com elas, é possível segurar
ovos levemente cozidos
01:08
You can have all types of controls,
and as you're thinking about that,
20
56840
3496
e ter todo tipo de controle,
e enquanto pensamos nisso,
01:12
there are wonderful people like Hugh Herr
21
60360
2016
há pessoas maravilhosas como Hugh Herr,
01:14
who have been building
absolutely extraordinary prosthetics.
22
62400
2839
que tem construído próteses
absolutamente extraordinárias.
01:17
So the wonderful Aimee Mullins
will go out and say,
23
65720
2816
O fantástico Aimee Mullins irá perguntar:
01:20
how tall do I want to be tonight?
24
68560
1680
"Que altura quero ter essa noite?"
01:23
Or he will say what type of cliff
do I want to climb?
25
71040
2896
Ou mesmo: "Que tipo de montanha
eu quero escalar?"
01:25
Or does somebody want to run a marathon,
or does somebody want to ballroom dance?
26
73960
4496
Ou se alguém quer correr uma maratona,
ou quer uma dança de salão?
01:30
And as you adapt these things,
27
78480
1976
E ao adaptarmos as próteses,
01:32
the interesting thing about prosthetics
is they've been coming inside the body.
28
80480
4136
é interessante observar que elas
estão indo para dentro do corpo.
01:36
So these external prosthetics
have now become artificial knees.
29
84640
2976
As próteses externas agora se tornaram
joelhos e quadris artificiais.
01:39
They've become artificial hips.
30
87640
2056
Elas também evoluíram ainda mais,
01:41
And then they've evolved further
31
89720
2216
01:43
to become not just nice to have
32
91960
2016
se tornaram não apenas úteis,
mas essenciais de se ter.
01:46
but essential to have.
33
94000
1200
Quando falamos sobre
marca-passos como próteses,
01:47
So when you're talking
about a heart pacemaker as a prosthetic,
34
95920
3856
01:51
you're talking about something
that isn't just, "I'm missing my leg,"
35
99800
3696
falamos de algo que não é apenas:
"Sinto falta da minha perna",
01:55
it's, "if I don't have this, I can die."
36
103520
2416
é algo como: "Se não tiver isso,
eu posso morrer".
01:57
And at that point, a prosthetic
becomes a symbiotic relationship
37
105960
4096
E nesse sentido, uma prótese
se torna uma relação simbiótica
02:02
with the human body.
38
110080
1200
com o corpo humano.
02:04
And four of the smartest people
that I've ever met --
39
112560
2536
Quatro das pessoas
mais inteligentes que já conheci:
Ed Boyden, Hugh Herr,
02:07
Ed Boyden, Hugh Herr,
Joe Jacobson, Bob Lander --
40
115120
5256
Joe Jacobson, Bob Lander,
estão trabalhando
no Center for Extreme Bionics.
02:12
are working on a Center
for Extreme Bionics.
41
120400
2576
02:15
And the interesting thing
of what you're seeing here is
42
123000
2616
E o interessante é que as próteses
agora estão integradas aos ossos,
02:17
these prosthetics
now get integrated into the bone.
43
125640
2416
à pele e aos músculos.
02:20
They get integrated into the skin.
44
128080
1655
02:21
They get integrated into the muscle.
45
129759
1716
02:24
And one of the other sides of Ed
46
132360
2976
E um dos outros lados do Ed
02:27
is he's been thinking
about how to connect the brain
47
135360
2896
é que ele tem pensado
em como conectar o cérebro
02:30
using light or other mechanisms
48
138280
2696
usando a luz ou outros mecanismos,
02:33
directly to things like these prosthetics.
49
141000
2280
diretamente a essas próteses.
02:36
And if you can do that,
50
144520
1256
Se isso for possível,
02:37
then you can begin changing
fundamental aspects of humanity.
51
145800
3200
então é possível mudar aspectos
fundamentais da humanidade.
02:41
So how quickly you react to something
depends on the diameter of a nerve.
52
149840
4000
A rapidez com que se reage a algo
depende do diâmetro de um nervo.
02:46
And of course, if you have nerves
that are external or prosthetic,
53
154920
3880
E claro, se você tem nervos
que são externos ou próteses,
02:51
say with light or liquid metal,
54
159600
1880
digamos, que com luz ou metal líquido,
02:54
then you can increase that diameter
55
162280
1696
é possível aumentar seu diâmentro
02:56
and you could even increase it
theoretically to the point where,
56
164000
3056
ou até mesmo aumentá-lo,
teoricamente, ao ponto em que
02:59
as long as you could see the muzzle flash,
you could step out of the way of a bullet.
57
167080
4040
enquanto você vê o disparo de uma arma,
poderia desviar do projétil.
03:03
Those are the order of magnitude
of changes you're talking about.
58
171840
3120
Essas são as ordens de grandeza
das mudanças das quais falamos.
03:08
This is a fourth
sort of level of prosthetics.
59
176200
2576
Este é o quarto nível de próteses.
03:10
These are Phonak hearing aids,
60
178800
2536
São os aparelhos auditivos Phonak,
03:13
and the reason
why these are so interesting
61
181360
2056
e eles são muito interessantes
03:15
is because they cross the threshold
from where prosthetics are something
62
183440
3416
porque transcendem o limite
das próteses como algo
03:18
for somebody who is "disabled"
63
186880
1429
para alguém que é "deficiente"
03:21
and they become something
that somebody who is "normal"
64
189560
4056
e elas se tornam algo
para alguém que é "normal"
03:25
might want to actually have,
65
193640
1896
possa, de fato, querer tê-las.
03:27
because what this prosthetic does,
which is really interesting,
66
195560
2976
O interessante nessas próteses
é que não apenas ajudam a ouvir,
mas você pode focar a audição,
03:30
is not only does it help you hear,
67
198560
1656
03:32
you can focus your hearing,
68
200240
1336
e ouvir uma conversa
vinda de qualquer lugar.
03:33
so it can hear the conversation
going on over there.
69
201600
2456
Pode ter superaudição ou ouvir
em 360 graus e ter o ruído branco,
03:36
You can have superhearing.
70
204080
1256
03:37
You can have hearing in 360 degrees.
You can have white noise.
71
205360
2936
pode gravar e, a propósito,
podem até colocar um telefone nisso.
03:40
You can record, and oh, by the way,
they also put a phone into this.
72
208320
3200
03:44
So this functions as your hearing aid
and also as your phone.
73
212440
2880
Assim, ela tem as funções de audição
e também de um telefone.
03:47
And at that point, somebody might actually
want to have a prosthetic voluntarily.
74
215920
5160
E a partir daí, alguém pode de fato
querer ter próteses, voluntariamente.
03:54
All of these thousands
of loosely connected little pieces
75
222400
2696
Essas milhares de pequenas
partes conectadas estão se juntando
03:57
are coming together,
76
225120
1200
e é questão de tempo perguntarmos:
03:59
and it's about time we ask the question,
77
227120
1936
04:01
how do we want to evolve human beings
over the next century or two?
78
229080
3160
como queremos desenvolver os seres
humanos em um ou dois séculos?
04:05
And for that we turn
to a great philosopher
79
233640
2040
Para isso, vamos para um grande filósofo
04:08
who was a very smart man
despite being a Yankee fan.
80
236920
3056
que era muito inteligente,
apesar de ser fã dos Yankees.
04:12
(Laughter)
81
240000
1880
(Risos)
04:14
And Yogi Berra used to say, of course,
that it's very tough to make predictions,
82
242800
3816
E Yogi Berra costumava dizer, claro,
que é difícil fazer previsões,
04:18
especially about the future.
83
246640
1376
especialmente sobre o futuro.
04:20
(Laughter)
84
248040
1096
(Risos)
04:21
So instead of making a prediction
about the future to begin with,
85
249160
3056
Então, ao invés de fazer previsões
sobre como o futuro será,
04:24
let's take what's happening in the present
with people like Tony Atala,
86
252240
3336
vamos ver o que está acontecendo
agora com pessoas como Tony Atala,
04:27
who is redesigning 30-some-odd organs.
87
255600
2239
que está redesenhando
uns 30 órgãos inusitados.
04:31
And maybe the ultimate prosthetic
isn't having something external, titanium.
88
259200
3576
Talvez a prótese mais atual
não seja algo externo, como titânio.
04:34
Maybe the ultimate prosthetic
is take your own gene code,
89
262800
2696
Talvez seja uma prótese
com o seu código genético,
04:37
remake your own body parts,
90
265520
1320
que refaça suas próprias partes do corpo,
porque isso é muito mais efetivo
do que qualquer tipo de prótese.
04:39
because that's a whole lot more effective
than any kind of a prosthetic.
91
267920
3600
04:44
But while you're at it, then you can take
the work of Craig Venter and Ham Smith.
92
272440
4016
Enquanto falamos disso, podemos ver
o trabalho de Craig Venter e Ham Smith:
04:48
And one of the things
that we've been doing
93
276480
2056
estamos tentando descobrir
como reprogramar as células.
04:50
is trying to figure out
how to reprogram cells.
94
278560
2560
04:54
And if you can reprogram a cell,
95
282280
1576
Se for possível reprogramar uma célula,
é possível mudar as células desses órgãos.
04:55
then you can change the cells
in those organs.
96
283880
2240
Se pudermos mudar
as células desses órgãos,
04:59
So if you can change
the cells in those organs,
97
287400
2216
05:01
maybe you make those organs
more radiation-resistant.
98
289640
2496
talvez possamos fazê-los mais resistentes
à radiação e eles absorvam mais oxigênio,
05:04
Maybe you make them absorb more oxygen.
99
292160
1896
tornando-os mais eficientes para filtrar
impurezas que não se queira no corpo.
05:06
Maybe you make them more efficient
100
294080
1656
05:07
to filter out stuff
that you don't want in your body.
101
295760
2480
E nas últimas semanas, George Church
tem estado em evidência,
05:11
And over the last few weeks,
George Church has been in the news a lot
102
299440
3656
05:15
because he's been talking about taking
one of these programmable cells
103
303120
3296
porque está falando sobre pegar
uma dessas células programáveis
05:18
and inserting an entire human genome
104
306440
1736
e inserir todo um genoma
humano nessa célula.
05:20
into that cell.
105
308200
1200
05:22
And once you can insert
an entire human genome into a cell,
106
310480
3816
E uma vez que seja possível inserir
todo um genoma humano numa célula,
05:26
then you begin to ask the question,
107
314320
2136
então se começa a questionar:
05:28
would you want
to enhance any of that genome?
108
316480
2680
"Queremos aprimorar algo nesse genoma?"
05:33
Do you want to enhance a human body?
109
321440
2336
"Queremos aprimorar o corpo humano?"
05:35
How would you want
to enhance a human body?
110
323800
2296
"Como nós o aprimoraríamos?"
05:38
Where is it ethical
to enhance a human body
111
326120
2096
Até onde é ético aprimorar o corpo humano
05:40
and where is it not ethical
to enhance a human body?
112
328240
3256
e até onde não é ético
aprimorar o corpo humano?
05:43
And all of a sudden, what we're doing
113
331520
1896
E de repente, tudo que temos feito
05:45
is we've got this
multidimensional chess board
114
333440
2936
é chegar neste tabuleiro de xadrez,
05:48
where we can change
human genetics by using viruses
115
336400
3256
no qual podemos mudar a genética
humana usando vírus
05:51
to attack things like AIDS,
116
339680
1440
para atacar doenças como a AIDS,
ou mudar o código genético
através de terapia de gene
05:54
or we can change the gene code
through gene therapy
117
342120
2416
05:56
to do away with some hereditary diseases,
118
344560
2936
para eliminar algumas
doenças hereditárias,
05:59
or we can change the environment,
119
347520
1616
ou podemos mudar o ambiente,
06:01
and change the expression
of those genes in the epigenome
120
349160
2667
e mudar a expressão desses genes
no epigenoma humano
06:03
and pass that on to the next generations.
121
351851
1960
e passar isso para as próximas gerações.
06:07
And all of a sudden,
it's not just one little bit,
122
355320
3136
E de repente, não é apenas um pedaço,
06:10
it's all these stacked little bits
123
358480
1856
são todos esses pequenos pedaços
06:12
that allow you
to take little portions of it
124
360360
2080
que nos permitem ter
pequenas porções disso,
06:15
until all the portions coming together
125
363280
2000
até que todas as partes se juntem
06:18
lead you to something
that's very different.
126
366160
2080
nos levando a algo que é muito diferente.
06:21
And a lot of people
are very scared by this stuff.
127
369600
2736
E muitas pessoas têm medo
desse tipo de coisa.
06:24
And it does sound scary,
and there are risks to this stuff.
128
372360
2920
Parece assustador e há riscos
envolvidos nisso.
06:28
So why in the world would you
ever want to do this stuff?
129
376040
2696
Então por que afinal
iríamos querer fazer isso?
06:30
Why would we really want
to alter the human body
130
378760
3016
Por que iríamos querer
alterar o corpo humano
06:33
in a fundamental way?
131
381800
1200
de forma significativa?
06:37
The answer lies in part
132
385040
2296
A resposta repousa em parte
06:39
with Lord Rees,
133
387360
1200
com Lord Rees,
06:41
astronomer royal of Great Britain.
134
389240
1680
astrônomo real da Grã Bretanha.
06:44
And one of his favorite sayings
is the universe is 100 percent malevolent.
135
392560
3816
E uma das suas falas favoritas
é que o universo é 100% mau.
06:48
So what does that mean?
136
396400
1216
E o que isso significa?
06:49
It means if you take
any one of your bodies at random,
137
397640
2896
Se pegarmos qualquer um dos
seus corpos, de forma aleatória,
e jogarmos em qualquer lugar do universo:
06:52
drop it anywhere in the universe,
138
400560
1896
06:54
drop it in space, you die.
139
402480
1720
jogue-o no espaço, você morre,
06:56
Drop it on the Sun, you die.
140
404720
1376
jogue-o no Sol ou em Mercúrio
e você morre,
06:58
Drop it on the surface
of Mercury, you die.
141
406120
2016
07:00
Drop it near a supernova, you die.
142
408160
1640
ou próximo de uma Supernova, você morre.
07:02
But fortunately, it's only
about 80 percent effective.
143
410240
3120
Mas felizmente, isso é apenas 80% efetivo.
07:06
So as a great physicist once said,
144
414640
2040
Então como já disse um famoso físico,
07:10
there's these little
upstream eddies of biology
145
418000
4136
existem pequenos caminhos da biologia
07:14
that create order
in this rapid torrent of entropy.
146
422160
4640
que criam ordem numa corrente de entropia.
07:20
So as the universe dissipates energy,
147
428080
2976
Enquanto o universo dissipa energia,
07:23
there's these upstream eddies
that create biological order.
148
431080
3480
existem turbilhões de correntes
contrárias que criam a ordem biológica.
O problema com essas correntes
é que elas tendem a desaparecer.
07:27
Now, the problem with eddies is,
149
435960
2416
07:30
they tend to disappear.
150
438400
1496
Elas mudam, se movem nos rios.
07:31
They shift. They move in rivers.
151
439920
1880
07:34
And because of that, when an eddy shifts,
152
442680
1976
Por isso, quando uma corrente muda,
07:36
when the Earth becomes a snowball,
when the Earth becomes very hot,
153
444680
3536
quando a Terra se transforma
numa bola de neve, fica muito quente,
07:40
when the Earth gets hit by an asteroid,
when you have supervolcanoes,
154
448240
3256
ou é atingida por um asteroide,
ou temos supervulcões,
07:43
when you have solar flares,
155
451520
1856
quando há dilatações solares,
07:45
when you have potentially
extinction-level events
156
453400
3336
quando temos potencialmente
eventos de nível de extinção,
07:48
like the next election --
157
456760
1216
como a próxima eleição...
07:50
(Laughter)
158
458000
2160
(Risos)
07:53
then all of a sudden,
you can have periodic extinctions.
159
461440
3240
então, de repente, podemos
ter extinções periódicas.
07:57
And by the way, that's happened
five times on Earth,
160
465400
2440
E a propósito, isso aconteceu
cinco vezes na Terra
08:00
and therefore it is very likely
161
468360
2096
e portanto é muito plausível
08:02
that the human species on Earth
is going to go extinct someday.
162
470480
3040
que a espécie humana da Terra
seja extinta algum dia.
08:06
Not next week,
163
474440
1496
Não na próxima semana,
08:07
not next month,
164
475960
1816
não no próximo mês,
08:09
maybe in November,
but maybe 10,000 years after that.
165
477800
2880
talvez em novembro,
mas talvez 10 mil anos após isso.
(Risos)
08:13
As you're thinking
of the consequence of that,
166
481880
2816
Enquanto estamos pensando
nas consequências disso,
08:16
if you believe that extinctions
are common and natural
167
484720
3416
se acreditamos que essas extinções
são comuns, naturais e normais
08:20
and normal and occur periodically,
168
488160
2296
e ocorrem periodicamente,
08:22
it becomes a moral imperative
to diversify our species.
169
490480
2880
se torna um imperativo moral
diversificar nossa espécie.
08:26
And it becomes a moral imperative
170
494520
1616
Torna-se um imperativo moral
08:28
because it's going to be
really hard to live on Mars
171
496160
2976
porque será muito difícil viver em Marte
08:31
if we don't fundamentally
modify the human body.
172
499160
2720
se não modificarmos
fundamentalmente o corpo humano.
08:34
Right?
173
502880
1216
Certo?
08:36
You go from one cell,
174
504120
1336
Se partirmos de uma célula,
08:37
mom and dad coming together
to make one cell,
175
505480
2216
mãe e pai juntos para fazer uma célula,
08:39
in a cascade to 10 trillion cells.
176
507720
2176
numa cascata de 10 trilhões de células.
08:41
We don't know, if you change
the gravity substantially,
177
509920
4456
Não sabemos, se mudarmos
substancialmente a gravidade,
08:46
if the same thing will happen
to create your body.
178
514400
2480
se a mesma coisa acontecerá
para criar nossos corpos.
08:50
We do know that if you expose
our bodies as they currently are
179
518159
3057
Nós sabemos que se expusermos
nossos corpos, como são agora,
08:53
to a lot of radiation, we will die.
180
521240
2120
a muita radiação, morreremos.
08:57
So as you're thinking of that,
you have to really redesign things
181
525040
3056
Então, pensando nisso,
é preciso redesenhar as coisas
09:00
just to get to Mars.
182
528120
1256
para poder ir a Marte.
09:01
Forget about the moons
of Neptune or Jupiter.
183
529400
2920
Esqueçam sobre as luas
de Netuno ou Júpiter.
09:05
And to borrow from Nikolai Kardashev,
184
533000
2456
E como diria Nikolai Kardashev,
09:07
let's think about life
in a series of scales.
185
535480
2176
pensemos sobre a vida
numa série de camadas.
09:09
So Life One civilization
186
537680
2496
Então a civilização Vida Um
09:12
is a civilization that begins
to alter his or her looks.
187
540200
3000
é uma civilização que começa
a alterar a sua aparência.
09:16
And we've been doing that
for thousands of years.
188
544080
2296
E temos feito isso por milhares de anos.
09:18
You've got tummy tucks
and you've got this and you've got that.
189
546400
3160
Temos a cirurgia de abdominoplastia;
09:22
You alter your looks, and I'm told
190
550280
2416
alteramos nossas aparências,
e dizem que nem todas essas mudanças
são feitas por motivos médicos.
09:24
that not all of those alterations
take place for medical reasons.
191
552720
3320
09:28
(Laughter)
192
556680
2056
(Risos)
09:30
Seems odd.
193
558760
1200
Parece peculiar.
09:32
A Life Two civilization
is a different civilization.
194
560360
2520
A civilização Vida Dois é diferente.
09:36
A Life Two civilization alters
fundamental aspects of the body.
195
564320
4560
Ela altera aspectos fundamentais do corpo.
09:41
So you put human growth hormone in,
the person grows taller,
196
569840
2856
Colocamos hormônio de crescimento
humano e ficamos mais altos
09:44
or you put x in and the person
gets fatter or loses metabolism
197
572720
3936
ou colocamos X e uma pessoa fica
mais gorda ou perde metabolismo
09:48
or does a whole series of things,
198
576680
1616
ou fazemos uma série de coisas,
09:50
but you're altering the functions
in a fundamental way.
199
578320
2696
mas estamos alterando funções
de uma forma substantiva.
09:53
To become an intrasolar civilization,
200
581040
2616
Para nos tornarmos
uma civilização intrasolar,
09:55
we're going to have to create
a Life Three civilization,
201
583680
2720
teremos de criar a civilização Vida Três,
09:59
and that looks very different
from what we've got here.
202
587720
2600
e isso parece muito diferente
do que vimos até agora.
Talvez se juntem bactérias
resistentes à radiação
10:02
Maybe you splice in
Deinococcus radiodurans
203
590840
2216
10:05
so that the cells can resplice
after a lot of exposure to radiation.
204
593080
4120
e então as células podem se rejuntar
após muita exposição à radiação.
10:10
Maybe you breathe by having oxygen
flow through your blood
205
598320
3016
Talvez respiremos tendo o fluxo
de oxigênio através do sangue,
10:13
instead of through your lungs.
206
601360
1440
ao invés dos pulmões.
10:15
But you're talking about
really radical redesigns,
207
603600
2720
Mas estamos falando sobre
um redesenho realmente radical
10:19
and one of the interesting things
that's happened in the last decade
208
607480
3216
e uma das coisas mais interessantes
que aconteceu na última década
10:22
is we've discovered
a whole lot of planets out there.
209
610720
2736
é que se descobriu toda
uma gama de planetas lá fora.
10:25
And some of them may be Earth-like.
210
613480
1680
Muitos podem ser parecidos com a Terra.
10:29
The problem is, if we ever
want to get to these planets,
211
617440
3616
O problema é que se quisermos
um dia ir a esses planetas,
10:33
the fastest human objects --
212
621080
1656
os objetos humanos mais rápidos,
10:34
Juno and Voyager
and the rest of this stuff --
213
622760
2576
Juno, Voyager e todas estas outras coisas,
10:37
take tens of thousands of years
214
625360
2496
demoram dezenas de milhares de anos
para chegar ao sistema solar mais próximo.
10:39
to get from here
to the nearest solar system.
215
627880
2120
10:42
So if you want to start exploring
beaches somewhere else,
216
630720
2960
Se queremos começar a explorar
praias em algum outro lugar
10:46
or you want to see two-sun sunsets,
217
634400
2400
ou ver dois pores do sol,
10:49
then you're talking
about something that is very different,
218
637840
3136
então estamos falando
sobre algo bem diferente,
10:53
because you have to change
the timescale and the body of humans
219
641000
5056
porque é necessário mudar
a escala de tempo
e o corpo humano
10:58
in ways which may be
absolutely unrecognizable.
220
646080
2920
de formas que podem ser
absolutamente irreconhecíveis.
11:02
And that's a Life Four civilization.
221
650000
1840
E essa é a civilização Vida Quatro.
11:05
Now, we can't even begin
to imagine what that might look like,
222
653720
2936
Não se pode ainda começar
a imaginar como isso pode parecer,
11:08
but we're beginning to get glimpses
223
656680
2336
mas estamos começando a ter vislumbres
11:11
of instruments that might
take us even that far.
224
659040
3360
de instrumentos que podem
nos levar mesmo até lá.
11:14
And let me give you two examples.
225
662960
1616
E vou dar-lhes dois exemplos.
Este é o maravilhoso Floyd Romesberg
11:16
So this is the wonderful Floyd Romesberg,
226
664600
1953
11:19
and one of the things
that Floyd's been doing
227
667200
2136
e ele tem brincado
com a química básica da vida.
11:21
is he's been playing
with the basic chemistry of life.
228
669360
2536
Toda vida desse planeta é feita de ATCGs,
as quarto letras do DNA.
11:23
So all life on this planet
is made in ATCGs, the four letters of DNA.
229
671920
4856
11:28
All bacteria, all plants,
all animals, all humans, all cows,
230
676800
3136
Toda bactéria, planta, animal,
humano, as vacas e tudo mais.
11:31
everything else.
231
679960
1200
11:34
And what Floyd did is he changed out
two of those base pairs,
232
682440
4176
O Floyd mudou dois dos nossos pares base,
11:38
so it's ATXY.
233
686640
1520
então é um ATXY.
11:41
And that means that you now have
a parallel system to make life,
234
689760
5696
E isso quer dizer que agora temos
um sistema paralelo para fazer vida,
11:47
to make babies, to reproduce, to evolve,
235
695480
4296
para fazer bebês, reproduzir, evoluir,
11:51
that doesn't mate
with most things on Earth
236
699800
2176
que não se enquadra
com muitas coisas da Terra
11:54
or in fact maybe with nothing on Earth.
237
702000
1880
ou de fato, talvez com nada na Terra.
11:56
Maybe you make plants
that are immune to all bacteria.
238
704880
2536
Talvez façamos plantas imunes
à toda bactéria ou a qualquer vírus.
11:59
Maybe you make plants
that are immune to all viruses.
239
707440
2496
12:01
But why is that so interesting?
240
709960
1536
Por que isso é tão interessante?
12:03
It means that we
are not a unique solution.
241
711520
3160
Significa que não somos a única solução,
12:07
It means you can create
alternate chemistries to us
242
715400
3736
e que podemos criar outras
alternativas químicas a nós,
12:11
that could be chemistries
adaptable to a very different planet
243
719160
4816
que poderiam ser químicas adaptáveis
a muitos planetas diferentes
12:16
that could create life and heredity.
244
724000
2360
que poderiam criar vida e hereditariedade.
12:20
The second experiment,
245
728120
1240
O segundo experimento,
12:22
or the other implication
of this experiment,
246
730480
2080
ou a outra implicação desse experimento,
12:25
is that all of you, all life
is based on 20 amino acids.
247
733360
4216
é que todos nós, toda vida
é baseada em 20 aminoácidos.
12:29
If you don't substitute two amino acids,
248
737600
2456
Se não substituímos dois aminoácidos,
12:32
if you don't say ATXY,
if you say ATCG + XY,
249
740080
5576
se você não diz ATXY, se diz ATCG + XY,
12:37
then you go from
20 building blocks to 172,
250
745680
2760
passa de uma construção de 20 blocos,
para uma de 172,
12:41
and all of a sudden you've got
172 building blocks of amino acids
251
749520
3136
e de repente você tem
172 blocos de aminoácidos
12:44
to build life-forms
in very different shapes.
252
752680
2800
para construir vida de vários
diferentes formatos.
12:49
The second experiment to think about
is a really weird experiment
253
757480
3056
O segundo experimento para pensar
é um experimento muito estranho
12:52
that's been taking place in China.
254
760560
2080
que está ocorrendo na China.
12:55
So this guy has been transplanting
hundreds of mouse heads.
255
763920
4040
Uma pessoa tem transplantado
centenas de cabeças de ratos.
13:00
Right?
256
768920
1376
Certo?
13:02
And why is that an interesting experiment?
257
770320
2080
Por que é um experimento interessante?
Pensem nos primeiros
transplantes de coração.
13:05
Well, think of the first
heart transplants.
258
773440
2056
13:07
One of the things they used to do
259
775520
1616
Costumava-se trazer
a esposa ou a filha do doador,
13:09
is they used to bring in
the wife or the daughter of the donor
260
777160
3536
13:12
so the donee could tell the doctors,
261
780720
3896
então o receptor poderia
responder aos médicos às perguntas:
13:16
"Do you recognize this person?
Do you love this person?
262
784640
2616
"Você reconhece essa pessoa?
Você a ama? Sente algo por ela?"
13:19
Do you feel anything for this person?"
263
787280
1856
13:21
We laugh about that today.
264
789160
1480
Nós rimos disso hoje.
13:23
We laugh because we know
the heart is a muscle,
265
791560
2216
Rimos por sabermos
que o coração é um músculo,
13:25
but for hundreds of thousands of years,
or tens of thousands of years,
266
793800
3496
mas por séculos nós ouvimos:
"Dei a ela meu coração.
Ela destruiu meu coração".
13:29
"I gave her my heart.
She took my heart. She broke my heart."
267
797320
2896
Pensávamos que era emoção
13:32
We thought this was emotion
268
800240
1376
e que talvez as emoções fossem
transplantadas com o coração. Não.
13:33
and we thought maybe emotions
were transplanted with the heart. Nope.
269
801640
3240
13:38
So how about the brain?
270
806000
1480
E o que falar do cérebro?
13:41
Two possible outcomes to this experiment.
271
809040
2080
Dois possíveis resultados
desse experimento.
13:43
If you can get a mouse
272
811880
2416
Se você pegar um rato
13:46
that is functional,
273
814320
1616
que é funcional
13:47
then you can see,
274
815960
1200
então poderá ver:
13:50
is the new brain a blank slate?
275
818040
1600
o novo cérebro é um quadro em branco?
13:53
And boy, does that have implications.
276
821280
2040
E pessoal, isso tem implicações.
13:57
Second option:
277
825120
1200
Segunda opção:
13:58
the new mouse recognizes Minnie Mouse.
278
826800
2120
o novo rato reconhece Minnie Mouse.
14:01
The new mouse
remembers what it's afraid of,
279
829760
2096
O novo rato se lembra do que ele temia,
14:03
remembers how to navigate the maze,
280
831880
1696
de como andar pelo labirinto,
e se isso for verdade,
14:05
and if that is true,
281
833600
1200
14:08
then you can transplant
memory and consciousness.
282
836040
3320
então podemos transplantar
memória e consciência.
14:13
And then the really
interesting question is,
283
841080
2416
A questão realmente interessante é:
14:15
if you can transplant this,
is the only input-output mechanism
284
843520
3936
se for possível transplantar isso,
o único mecanismo de entrada
e saída é este corpo?
14:19
this down here?
285
847480
1200
Ou poderíamos transplantar
essa consciência para outra coisa
14:21
Or could you transplant
that consciousness into something
286
849440
2696
14:24
that would be very different,
287
852160
1976
que fosse muito diferente,
14:26
that would last in space,
288
854160
1256
que resistiria no espaço,
poderia sobreviver por séculos,
14:27
that would last
tens of thousands of years,
289
855440
2056
que seria um corpo totalmente redesenhado
14:29
that would be a completely redesigned body
290
857520
2000
14:31
that could hold consciousness
for a long, long period of time?
291
859544
3680
e poderia manter a consciência
por um longo período de tempo?
14:38
And let's come back to the first question:
292
866040
2040
Voltemos à primeira questão:
14:40
Why would you ever want to do that?
293
868560
1880
porque iríamos querer fazer isso?
14:44
Well, I'll tell you why.
294
872320
1256
Eu lhes direi o porquê.
14:45
Because this is the ultimate selfie.
295
873600
1720
Porque essa é a mais moderna selfie.
14:48
(Laughter)
296
876000
1800
(Risos)
14:50
This is taken from six billion miles away,
297
878440
2560
Essa foto foi tirada
a 6 bilhões de milhas de distância
14:54
and that's Earth.
298
882040
1200
e ali está a Terra.
14:56
And that's all of us.
299
884800
1200
E somos todos nós.
14:59
And if that little thing goes,
all of humanity goes.
300
887240
3520
E se essa pequena coisa acabar,
toda a humanidade acaba também.
15:04
And the reason you want
to alter the human body
301
892320
2216
E você quer alterar o corpo humano
15:06
is because you eventually
want a picture that says,
302
894560
2776
porque você finalmente
quer uma foto que diga,
15:09
that's us, and that's us,
303
897360
1936
somos nós, e esses somos nós,
15:11
and that's us,
304
899320
1416
e esses somos nós,
15:12
because that's the way humanity
survives long-term extinction.
305
900760
3120
porque é como a humanidade
sobrevive a extinção de longo prazo.
15:17
And that's the reason why it turns out
306
905440
2256
E é por isso que, de fato,
15:19
it's actually unethical
not to evolve the human body
307
907720
3936
é antiético não aprimorar o corpo humano,
15:23
even though it can be scary,
even though it can be challenging,
308
911680
3336
mesmo que isso possa
ser assustador e desafiador,
15:27
but it's what's going
to allow us to explore, live
309
915040
3376
mas é isso que nos permitirá
explorar, viver e chegar
15:30
and get to places
we can't even dream of today,
310
918440
2520
a lugares que nem mesmo
sonhamos hoje,
mas nos quais os filhos de nossos
tataranetos poderão chegar algum dia.
15:33
but which our great-great-great-great-
grandchildren might someday.
311
921760
3736
15:37
Thank you very much.
312
925520
1216
Muito obrigado.
15:38
(Applause)
313
926760
5520
(Aplausos)
Translated by Valmir Campos Araujo
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Juan Enriquez - Futurist
Juan Enriquez thinks and writes about the profound changes that genomics and other life sciences will bring in business, technology, politics and society.

Why you should listen

A broad thinker who studies the intersections of these fields, Enriquez has a talent for bridging disciplines to build a coherent look ahead. He is the managing director of Excel Venture Management, a life sciences VC firm. He recently published (with Steve Gullans) Evolving Ourselves: How Unnatural Selection and Nonrandom Mutation Are Shaping Life on Earth. The book describes a world where humans increasingly shape their environment, themselves and other species.

Enriquez is a member of the board of Synthetic Genomics, which recently introduced the smallest synthetic living cell. Called “JCVI-syn 3.0,” it has 473 genes (about half the previous smallest cell). The organism would die if one of the genes is removed. In other words, this is the minimum genetic instruction set for a living organism.

More profile about the speaker
Juan Enriquez | Speaker | TED.com