ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Como dominar e não ser dominado pela IA

Filmed:
1,409,007 views

Muitos investigadores da inteligência artificial acreditam que a IA irá superar os humanos em todas as tarefas e trabalhos dentro de décadas, permitindo um futuro em que nós seremos limitados somente pelas leis da Física e não pelos limites da nossa inteligência. Max Tegmark, físico do ITM e investigador de IA, separa as reais oportunidades e ameaças, dos mitos, descrevendo os passos que nós devemos dar hoje para garantir que a IA acabe por ser a melhor - e não a pior - coisa a acontecer para a humanidade.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionbilhão yearsanos
of cosmiccósmico historyhistória,
0
760
4416
Após 13 800 milhões de anos
de história cósmica
00:17
our universeuniverso has wokenacordado up
1
5200
2096
o nosso universo acordou
00:19
and becometornar-se awareconsciente of itselfem si.
2
7320
1520
e tomou consciência de si mesmo.
00:21
From a smallpequeno blueazul planetplaneta,
3
9480
1936
De um pequeno planeta azul,
00:23
tinyminúsculo, consciousconsciente partspartes of our universeuniverso
have beguncomeçou gazingcontemplando out into the cosmoscosmos
4
11440
4136
minúsculas partículas conscientes
do nosso universo
começaram a explorar
o cosmos com telescópios,
00:27
with telescopestelescópios,
5
15600
1376
00:29
discoveringdescobrindo something humblinghumilhando.
6
17000
1480
descobrindo uma coisa humilhante.
00:31
We'veTemos discovereddescobriu that our universeuniverso
is vastlymuito grandermais grandioso
7
19320
2896
Descobrimos que o nosso universo
é muito maior do que imaginavam
os nossos antepassados
00:34
than our ancestorsantepassados imaginedimaginou
8
22240
1336
00:35
and that life seemsparece to be an almostquase
imperceptiblyimperceptivelmente smallpequeno perturbationperturbação
9
23600
4256
e que a vida parecia ser
uma perturbação quase impercetível
00:39
on an otherwisede outra forma deadmorto universeuniverso.
10
27880
1720
num universo que parecia morto.
00:42
But we'venós temos alsoAlém disso discovereddescobriu
something inspiringinspirador,
11
30320
3016
Mas descobrimos também
uma coisa inspiradora,
00:45
whichqual is that the technologytecnologia
we're developingem desenvolvimento has the potentialpotencial
12
33360
2976
a tecnologia que estamos
a desenvolver tem o potencial
de ajudar a vida a florescer
como nunca anteriormente,
00:48
to help life flourishflorescer like never before,
13
36360
2856
00:51
not just for centuriesséculos
but for billionsbilhões of yearsanos,
14
39240
3096
não só durante séculos,
mas durante milhares de milhões de anos,
00:54
and not just on earthterra but throughoutao longo
much of this amazingsurpreendente cosmoscosmos.
15
42360
4120
e não só na Terra,
mas por esse incrível universo lá fora.
Vejo o início da vida como " Vida 1.0",
00:59
I think of the earliestmais cedo life as "Life 1.0"
16
47680
3336
01:03
because it was really dumbburro,
17
51040
1376
porque era muito burra
01:04
like bacteriabactérias, unableincapaz to learnaprender
anything duringdurante its lifetimetempo de vida.
18
52440
4296
como as bactérias, incapaz de aprender
o que fosse, durante a sua vida.
01:08
I think of us humanshumanos as "Life 2.0"
because we can learnaprender,
19
56760
3376
Vejo os seres humanos como "Vida 2.0",
porque nós podemos aprender,
o que, na nossa forma "nerd" de falar,
01:12
whichqual we in nerdynerd, geeknerd speakfalar,
20
60160
1496
01:13
mightpoderia think of as installingInstalando
newNovo softwareProgramas into our brainscérebro,
21
61680
3216
podemos pensar como a instalação
de um novo "software" no cérebro,
01:16
like languageslínguas and jobtrabalho skillsHabilidades.
22
64920
2120
como os idiomas
e as competências profissionais,
01:19
"Life 3.0," whichqual can designdesenhar not only
its softwareProgramas but alsoAlém disso its hardwarehardware
23
67680
4296
A "Vida 3.0", que pode conceber, não só
o "software", mas também o "hardware"
01:24
of coursecurso doesn't existexistir yetainda.
24
72000
1656
claramente ainda não existe.
01:25
But perhapspossivelmente our technologytecnologia
has already madefeito us "Life 2.1,"
25
73680
3776
Mas talvez a nossa tecnologia
já nos tenha criado a "Vida 2.1",
01:29
with our artificialartificial kneesjoelhos,
pacemakersmarca-passos and cochlearcoclear implantsimplantes.
26
77480
4336
com joelhos artificiais, "pacemakers"
e transplantes cocleares.
01:33
So let's take a closermais perto look
at our relationshiprelação with technologytecnologia, OK?
27
81840
3880
Então, olhemos mais atentamente
para a nossa relação com a tecnologia.
01:38
As an exampleexemplo,
28
86800
1216
Um exemplo:
01:40
the ApolloApollo 11 moonlua missionmissão
was bothambos successfulbem sucedido and inspiringinspirador,
29
88040
5296
A missão à Lua Apollo 11
foi bem sucedida e inspiradora,
01:45
showingmostrando that when we humanshumanos
use technologytecnologia wiselysabiamente,
30
93360
3016
mostrando que, quando usamos
a tecnologia com sabedoria,
01:48
we can accomplishrealizar things
that our ancestorsantepassados could only dreamSonhe of.
31
96400
3936
podemos realizar coisas com que
os nossos antepassados só podiam sonhar.
01:52
But there's an even more inspiringinspirador journeyviagem
32
100360
2976
Mas há uma viagem ainda mais inspiradora,
01:55
propelledimpulsionado by something
more powerfulpoderoso than rocketfoguete enginesmotores,
33
103360
2680
propulsionada por algo muito mais potente
que os motores de um foguetão,
na qual os passageiros não são
apenas três astronautas,
01:59
where the passengerspassageiros
aren'tnão são just threetrês astronautsastronautas
34
107200
2336
02:01
but all of humanityhumanidade.
35
109560
1776
mas toda a humanidade.
02:03
Let's talk about our collectivecoletivo
journeyviagem into the futurefuturo
36
111360
2936
Vamos falar sobre a nossa viagem
coletiva para o futuro
02:06
with artificialartificial intelligenceinteligência.
37
114320
2000
com inteligência artificial.
02:08
My friendamigos JaanJaan TallinnTallinn likesgosta to pointponto out
that just as with rocketryfoguetes,
38
116960
4536
O meu amigo Jaan Tallin costuma salientar
que construir apenas foguetões
02:13
it's not enoughsuficiente to make
our technologytecnologia powerfulpoderoso.
39
121520
3160
não é o suficiente para tornar
a nossa tecnologia poderosa.
02:17
We alsoAlém disso have to figurefigura out,
if we're going to be really ambitiousambicioso,
40
125560
3175
Se queremos ser realmente ambiciosos,
também precisamos de descobrir
como conduzi-los
02:20
how to steerboi it
41
128759
1416
02:22
and where we want to go with it.
42
130199
1681
e onde queremos ir com eles.
02:24
So let's talk about all threetrês
for artificialartificial intelligenceinteligência:
43
132880
2840
Portanto, vamos falar dos três tipos
de inteligência artificial:
02:28
the powerpoder, the steeringdireção
and the destinationdestino.
44
136440
3056
a potência, a condução e o destino.
02:31
Let's startcomeçar with the powerpoder.
45
139520
1286
Vamos começar pela potência.
02:33
I definedefinir intelligenceinteligência very inclusivelyinclusive --
46
141600
3096
Eu defino inteligência
de forma bastante abrangente
02:36
simplysimplesmente as our abilityhabilidade
to accomplishrealizar complexcomplexo goalsmetas,
47
144720
4336
- simplesmente como a nossa capacidade
de concretizar objetivos complexos -
02:41
because I want to includeincluir bothambos
biologicalbiológico and artificialartificial intelligenceinteligência.
48
149080
3816
porque eu quero incluir a inteligência
biológica e a artificial.
02:44
And I want to avoidevitar
the sillyboba carbon-chauvinismcarbono-chauvinismo ideaidéia
49
152920
4016
E quero afastar
essa estúpida ideia chauvinista
02:48
that you can only be smartinteligente
if you're madefeito of meatcarne.
50
156960
2360
de que só podemos ser inteligentes,
se formos feitos de carne e osso.
02:52
It's really amazingsurpreendente how the powerpoder
of AIAI has growncrescido recentlyrecentemente.
51
160880
4176
É incrível como a potência da IA
vem crescendo ultimamente.
02:57
Just think about it.
52
165080
1256
Pensem nisso.
02:58
Not long agoatrás, robotsrobôs couldn'tnão podia walkandar.
53
166360
3200
Há pouco tempo ainda,
os robôs não andavam.
03:03
Now, they can do backflipsbackflips.
54
171040
1720
Agora, podem dar mortais para trás.
03:06
Not long agoatrás,
55
174080
1816
Há pouco tempo ainda,
03:07
we didn't have self-drivingauto-condução carscarros.
56
175920
1760
não tínhamos carros autónomos.
03:10
Now, we have self-flyingauto voando rocketsfoguetes.
57
178920
2480
Agora, temos foguetões autónomos.
03:15
Not long agoatrás,
58
183960
1416
Há pouco tempo ainda,
03:17
AIAI couldn'tnão podia do facecara recognitionreconhecimento.
59
185400
2616
a IA não sabia fazer
reconhecimento facial.
03:20
Now, AIAI can generategerar fakefalso facesrostos
60
188040
2976
Agora, pode produzir rostos falsos
03:23
and simulatesimular your facecara
sayingdizendo stuffcoisa that you never said.
61
191040
4160
e simular o nosso rosto,
a dizer coisas que nunca dissemos.
03:28
Not long agoatrás,
62
196400
1576
Há pouco tempo ainda,
03:30
AIAI couldn'tnão podia beatbatida us at the gamejogos of Go.
63
198000
1880
a IA não conseguia vencer-nos
numa partida de Go.
03:32
Then, GoogleGoogle DeepMind'sDo DeepMind AlphaZeroAlphaZero AIAI
tooktomou 3,000 yearsanos of humanhumano Go gamesjogos
64
200400
5096
Depois, a IA Alfa Zero do Google DeepMind
absorveu 3000 anos de partidas humanas
e os conhecimentos de Go,
03:37
and Go wisdomsabedoria,
65
205520
1256
03:38
ignoredignorado it all and becamepassou a ser the world'sos mundos bestmelhor
playerjogador by just playingjogando againstcontra itselfem si.
66
206800
4976
ignorou tudo isso e tornou-se
o melhor jogador do mundo,
jogando apenas contra si mesmo.
03:43
And the mosta maioria impressiveimpressionante featfaçanha here
wasn'tnão foi that it crushedesmagado humanhumano gamersjogadores,
67
211800
3696
O mais impressionante não é
ela ter derrotado jogadores humanos,
03:47
but that it crushedesmagado humanhumano AIAI researcherspesquisadores
68
215520
2576
mas é ter derrotado
os investigadores da IA
03:50
who had spentgasto decadesdécadas
handcraftingartesanato game-playingjogo softwareProgramas.
69
218120
3680
que tinham passado décadas
a trabalhar em "software" de jogos.
03:54
And AlphaZeroAlphaZero crushedesmagado humanhumano AIAI researcherspesquisadores
not just in Go but even at chessxadrez,
70
222200
4656
O Alfa Zero não só derrotou
os investigadores de IA no Go
como também no xadrez
em que temos vindo a trabalhar desde 1950.
03:58
whichqual we have been workingtrabalhando on sinceDesde a 1950.
71
226880
2480
04:02
So all this amazingsurpreendente recentrecente progressprogresso in AIAI
really begsimplora the questionquestão:
72
230000
4240
Portanto, este incrível progresso
recente da IA leva-nos a perguntar:
04:07
How farlonge will it go?
73
235280
1560
Até aonde irá?
04:09
I like to think about this questionquestão
74
237800
1696
Gosto de pensar nesta pergunta
04:11
in termstermos of this abstractabstrato
landscapepanorama of taskstarefas,
75
239520
2976
como uma paisagem abstrata de tarefas,
em que o nível elevado representa
a dificuldade que a IA tem
04:14
where the elevationelevação representsrepresenta
how hardDifícil it is for AIAI to do eachcada tasktarefa
76
242520
3456
para realizar cada tarefa a nível humano.
04:18
at humanhumano levelnível,
77
246000
1216
04:19
and the seamar levelnível representsrepresenta
what AIAI can do todayhoje.
78
247240
2760
e o nível do mar representa
o que a IA pode fazer hoje.
O nível do mar vai subindo
à medida que a IA evolui,
04:23
The seamar levelnível is risingAumentar
as AIAI improvesmelhora,
79
251120
2056
04:25
so there's a kindtipo of globalglobal warmingaquecimento
going on here in the tasktarefa landscapepanorama.
80
253200
3440
Assim, há uma espécie de aquecimento
global nesta paisagem de tarefas.
04:30
And the obviousóbvio takeawaycomida para levar
is to avoidevitar careerscarreiras at the waterfrontbeira-mar --
81
258040
3335
A conclusão óbvia é evitar
seguir carreiras aquáticas
04:33
(LaughterRiso)
82
261399
1257
(Risos)
04:34
whichqual will soonem breve be
automatedautomatizado and disruptedinterrompido.
83
262680
2856
que em breve serão
automatizadas e extintas.
Mas ainda há uma pergunta mais relevante.
04:37
But there's a much
biggerMaior questionquestão as well.
84
265560
2976
04:40
How highAlto will the wateragua endfim up risingAumentar?
85
268560
1810
Até que altura pode chegar a água?
04:43
Will it eventuallyeventualmente risesubir
to floodinundar everything,
86
271440
3200
Será que sobe o suficiente
para acabar por inundar tudo,
04:47
matchingcorrespondência humanhumano intelligenceinteligência at all taskstarefas.
87
275840
2496
igualando a inteligência humana
em todas as tarefas?
04:50
This is the definitiondefinição
of artificialartificial generalgeral intelligenceinteligência --
88
278360
3736
Esta é a definição
de inteligência artificial geral
04:54
AGIAPARECIDA,
89
282120
1296
a IAG,
04:55
whichqual has been the holySanto grailSanto Graal
of AIAI researchpesquisa sinceDesde a its inceptioncomeço.
90
283440
3080
que tem sido o Santo Graal
da investigação da IA desde o seu início.
Com esta definição, as pessoas que dizem:
04:59
By this definitiondefinição, people who say,
91
287000
1776
05:00
"AhAh, there will always be jobsempregos
that humanshumanos can do better than machinesmáquinas,"
92
288800
3416
"Sempre haverá tarefas que os humanos
podem fazer melhor que as máquinas,"
05:04
are simplysimplesmente sayingdizendo
that we'llbem never get AGIAPARECIDA.
93
292240
2920
estão a afirmar que nunca teremos IAG.
05:07
Sure, we mightpoderia still chooseescolher
to have some humanhumano jobsempregos
94
295680
3576
Claro, nós ainda podemos optar
por usar mão-de-obra humana
05:11
or to give humanshumanos incomerenda
and purposepropósito with our jobsempregos,
95
299280
3096
ou dar aos seres humanos
receitas ou um objetivo sem empregos,
05:14
but AGIAPARECIDA will in any casecaso
transformtransformar life as we know it
96
302400
3736
mas a IAG irá, de qualquer forma,
transformar a vida como a conhecemos
05:18
with humanshumanos no longermais longo beingser
the mosta maioria intelligentinteligente.
97
306160
2736
em que os seres humanos
já não serão os mais inteligentes.
05:20
Now, if the wateragua levelnível does reachalcance AGIAPARECIDA,
98
308920
3696
Mas, se, de facto, o nível da água
alcançar a IAG,
05:24
then furthermais distante AIAI progressprogresso will be drivendirigido
mainlyprincipalmente not by humanshumanos but by AIAI,
99
312640
5296
então, o progresso futuro da IA estará,
principalmente, nas suas próprias mãos.
05:29
whichqual meanssignifica that there's a possibilitypossibilidade
100
317960
1856
Sendo assim, existe uma possibilidade
05:31
that furthermais distante AIAI progressprogresso
could be way fasterMais rápido
101
319840
2336
de que o progresso da IA
seja muito mais rápido
05:34
than the typicaltípica humanhumano researchpesquisa
and developmentdesenvolvimento timescaleescala de tempo of yearsanos,
102
322200
3376
do que a escala temporal em anos
da investigação realizada pelos homens.
05:37
raisingcriando the controversialcontroverso possibilitypossibilidade
of an intelligenceinteligência explosionexplosão
103
325600
4016
criando a possibilidade controversa
de uma explosão de inteligência
em que, novamente, uma IA
que evolui por si mesma,
05:41
where recursivelyrecursivamente self-improvingSelf melhoria AIAI
104
329640
2296
05:43
rapidlyrapidamente leavessai humanhumano
intelligenceinteligência farlonge behindatrás,
105
331960
3416
rapidamente deixará para trás
a inteligência humana,
05:47
creatingcriando what's knownconhecido
as superintelligencesuperinteligência.
106
335400
2440
criando o que é conhecido
por superinteligência.
05:51
AlrightTudo bem, realityrealidade checkVerifica:
107
339800
2280
Ok, verifiquemos a realidade:
05:55
Are we going to get AGIAPARECIDA any time soonem breve?
108
343120
2440
Teremos uma IAG em breve?
Alguns investigadores famosos de IA,
como Rodney Brooks,
05:58
Some famousfamoso AIAI researcherspesquisadores,
like RodneyRodney BrooksBrooks,
109
346360
2696
pensam que isso não acontecerá
nas próximas centenas de anos.
06:01
think it won'tnão vai happenacontecer
for hundredscentenas of yearsanos.
110
349080
2496
06:03
But othersoutras, like GoogleGoogle DeepMindDeepMind
founderfundador DemisDemis HassabisHassabis,
111
351600
3896
Mas outros, como Demis Hassabis,
o fundador do Google DeepMind,
06:07
are more optimisticotimista
112
355520
1256
são mais otimistas
06:08
and are workingtrabalhando to try to make
it happenacontecer much soonermais cedo.
113
356800
2576
e trabalham para fazer
que isso aconteça muito mais cedo.
06:11
And recentrecente surveyspesquisas have shownmostrando
that mosta maioria AIAI researcherspesquisadores
114
359400
3296
Pesquisas recentes mostram que a maioria
dos investigadores de IA,
06:14
actuallyna realidade sharecompartilhar Demis'sDo Demis optimismotimismo,
115
362720
2856
partilham do otimismo de Demis,
06:17
expectingesperando that we will
get AGIAPARECIDA withindentro decadesdécadas,
116
365600
3080
defendendo que teremos uma IAG
dentro de décadas,
06:21
so withindentro the lifetimetempo de vida of manymuitos of us,
117
369640
2256
ou seja, durante a vida
de muitos de nós,
06:23
whichqual begsimplora the questionquestão -- and then what?
118
371920
1960
o que nos levar a perguntar: e depois?
06:27
What do we want the roleFunção of humanshumanos to be
119
375040
2216
Que papel queremos para o ser humano
06:29
if machinesmáquinas can do everything better
and cheapermais barato than us?
120
377280
2680
se as máquinas puderem fazer tudo
melhor e mais barato que nós?
06:35
The way I see it, we facecara a choiceescolha.
121
383000
2000
Na minha opinião, temos que escolher.
06:38
One optionopção is to be complacentcomplacentes.
122
386000
1576
Uma opção é ser complacente.
06:39
We can say, "Oh, let's just buildconstruir machinesmáquinas
that can do everything we can do
123
387600
3776
Dizemos: "Só vamos construir máquinas
que façam tudo o que nós fazemos.
06:43
and not worrypreocupação about the consequencesconsequências.
124
391400
1816
"Não nos preocupemos
com as consequências,
06:45
Come on, if we buildconstruir technologytecnologia
that makesfaz com que all humanshumanos obsoleteobsoleto,
125
393240
3256
"A sério, se criarmos uma tecnologia
que torne obsoletos os seres humanos,
06:48
what could possiblypossivelmente go wrongerrado?"
126
396520
2096
"o que é que pode correr mal?"
06:50
(LaughterRiso)
127
398640
1656
(Risos)
06:52
But I think that would be
embarrassinglyembaraçosamente lamecoxo.
128
400320
2760
Mas eu acho que isso seria
terrivelmente patético.
06:56
I think we should be more ambitiousambicioso --
in the spiritespírito of TEDTED.
129
404080
3496
Acho que nós devemos ser
mais ambiciosos - no espírito da TED.
06:59
Let's envisionenVision a trulyverdadeiramente inspiringinspirador
high-techalta tecnologia futurefuturo
130
407600
3496
Imaginemos um futuro com alta tecnologia,
verdadeiramente inspirador
07:03
and try to steerboi towardsem direção it.
131
411120
1400
e vamos tentar chegar até lá.
07:05
This bringstraz us to the secondsegundo partparte
of our rocketfoguete metaphormetáfora: the steeringdireção.
132
413720
3536
Isso leva-nos à segunda parte
da nossa teoria do foguetão: a condução.
07:09
We're makingfazer AIAI more powerfulpoderoso,
133
417280
1896
Nós estamos a tornar a IA mais poderosa,
07:11
but how can we steerboi towardsem direção a futurefuturo
134
419200
3816
mas como podemos guiar para um futuro,
07:15
where AIAI helpsajuda humanityhumanidade flourishflorescer
ratherem vez than floundersolha?
135
423040
3080
em que a IA ajude a humanidade
a prosperar e a não se debater?
07:18
To help with this,
136
426760
1256
Para ajudar nessa questão,
07:20
I cofoundedco-fundou the FutureFuturo of Life InstituteInstituto.
137
428040
1976
fui cofundador
do Instituto Futuro da Vida.
07:22
It's a smallpequeno nonprofitsem fins lucrativos promotingpromovendo
beneficialbenéfico technologytecnologia use,
138
430040
2776
É uma organização sem fins lucrativos,
que promove o uso benéfico da tecnologia.
07:24
and our goalobjetivo is simplysimplesmente
for the futurefuturo of life to existexistir
139
432840
2736
Queremos que exista
futuro para a vida
07:27
and to be as inspiringinspirador as possiblepossível.
140
435600
2056
e seja o mais inspiradora possível.
07:29
You know, I love technologytecnologia.
141
437680
3176
Sabem, eu adoro a tecnologia.
07:32
TechnologyTecnologia is why todayhoje
is better than the StonePedra AgeIdade.
142
440880
2920
A tecnologia é a razão de o presente
ser melhor que a Idade da Pedra.
07:36
And I'm optimisticotimista that we can createcrio
a really inspiringinspirador high-techalta tecnologia futurefuturo ...
143
444600
4080
E eu acredito que nós podemos criar
um futuro de alta tecnologia
verdadeiramente inspirador
07:41
if -- and this is a biggrande if --
144
449680
1456
se - e este é um grande se -
07:43
if we winganhar the wisdomsabedoria racecorrida --
145
451160
2456
se nós vencermos
a corrida dos conhecimentos,
07:45
the racecorrida betweenentre the growingcrescendo
powerpoder of our technologytecnologia
146
453640
2856
a corrida entre o crescente poder
da nossa tecnologia
07:48
and the growingcrescendo wisdomsabedoria
with whichqual we managegerir it.
147
456520
2200
e a crescente sabedoria
com que a vamos controlando.
07:51
But this is going to requireexigem
a changemudança of strategyestratégia
148
459240
2296
Mas isso vai exigir
uma mudança de estratégia,
07:53
because our oldvelho strategyestratégia
has been learningAprendendo from mistakeserros.
149
461560
3040
pois a estratégia antiga
era aprender com os erros
07:57
We inventedinventado firefogo,
150
465280
1536
Nós inventámos o fogo,
07:58
screwedparafusado up a bunchgrupo of timesvezes --
151
466840
1536
fizemos erros muitas vezes,
08:00
inventedinventado the firefogo extinguisherextintor.
152
468400
1816
inventámos o extintor de incêndios.
08:02
(LaughterRiso)
153
470240
1336
(Risos)
08:03
We inventedinventado the carcarro,
screwedparafusado up a bunchgrupo of timesvezes --
154
471600
2416
Inventámos o automóvel,
fizemos erros muitas vezes,
08:06
inventedinventado the traffictráfego lightluz,
the seatassento beltcinto and the airbagairbag,
155
474040
2667
inventámos os semáforos,
o cinto de segurança e o "airbag".
08:08
but with more powerfulpoderoso technologytecnologia
like nuclearnuclear weaponsarmas and AGIAPARECIDA,
156
476731
3845
Mas com uma tecnologia mais potente,
como a das armas nucleares e a da IAG,
08:12
learningAprendendo from mistakeserros
is a lousynojento strategyestratégia,
157
480600
3376
aprender com os erros
é uma estratégia péssima, não acham?
08:16
don't you think?
158
484000
1216
(Risos)
08:17
(LaughterRiso)
159
485240
1016
É muito melhor ser proativo
do que reativo,
08:18
It's much better to be proactiveproativo
ratherem vez than reactivereativa;
160
486280
2576
planear o futuro e acertar à primeira,
08:20
planplano aheadadiante and get things
right the first time
161
488880
2296
08:23
because that mightpoderia be
the only time we'llbem get.
162
491200
2496
porque essa pode ser
a nossa única oportunidade.
Mas é engraçado porque,
às vezes, as pessoas dizem-me:
08:25
But it is funnyengraçado because
sometimesas vezes people tell me,
163
493720
2336
08:28
"MaxMax, shhhShhh, don't talk like that.
164
496080
2736
"Max, chiu, não fales assim.
08:30
That's LudditeLuddite scaremongeringalarmismo."
165
498840
1720
"Isso é um alarmismo ludita."
08:34
But it's not scaremongeringalarmismo.
166
502040
1536
Mas não é alarmismo.
08:35
It's what we at MITMIT
call safetysegurança engineeringEngenharia.
167
503600
2880
Isto é aquilo a que o ITM chama
engenharia de segurança.
08:39
Think about it:
168
507200
1216
Pensem nisto.
08:40
before NASANASA launchedlançado
the ApolloApollo 11 missionmissão,
169
508440
2216
Antes de a NASA lançar
a missão Apollo 11,
pensaram, sistematicamente,
em tudo o que podia correr mal,
08:42
they systematicallysistematicamente thought throughatravés
everything that could go wrongerrado
170
510680
3136
quando colocaram pessoas em cima
de tanques de combustível explosivo
08:45
when you put people
on toptopo of explosiveexplosivo fuelcombustível tankstanques
171
513840
2376
08:48
and launchlançamento them somewherealgum lugar
where no one could help them.
172
516240
2616
e as lançaram para onde
ninguém as podia ajudar.
08:50
And there was a lot that could go wrongerrado.
173
518880
1936
E havia muitas coisas
que podiam correr mal.
08:52
Was that scaremongeringalarmismo?
174
520840
1480
Isso foi alarmismo?
08:55
No.
175
523159
1217
Não.
Foi precisamente
a engenharia de segurança
08:56
That's was preciselyprecisamente
the safetysegurança engineeringEngenharia
176
524400
2016
que garantiu o sucesso da missão.
08:58
that ensuredassegurou the successsucesso of the missionmissão,
177
526440
1936
09:00
and that is preciselyprecisamente the strategyestratégia
I think we should take with AGIAPARECIDA.
178
528400
4176
É essa a estratégia que eu penso
que devemos adotar com a IAG.
09:04
Think throughatravés what can go wrongerrado
to make sure it goesvai right.
179
532600
4056
Pensar no que pode correr mal,
para garantir que corra bem.
09:08
So in this spiritespírito,
we'venós temos organizedorganizado conferencesconferências,
180
536680
2536
Com esse pensamento,
organizámos conferências,
reunindo os melhores investigadores
de IA e outros estudiosos
09:11
bringingtrazendo togetherjuntos leadingconduzindo
AIAI researcherspesquisadores and other thinkerspensadores
181
539240
2816
para analisar como desenvolver o saber
para manter os benefícios da IA.
09:14
to discussdiscutir how to growcrescer this wisdomsabedoria
we need to keep AIAI beneficialbenéfico.
182
542080
3736
09:17
Our last conferenceconferência
was in AsilomarAsilomar, CaliforniaCalifórnia last yearano
183
545840
3296
A nossa última conferência foi
no ano passado, em Asilomar, na Califórnia
09:21
and producedproduzido this listLista of 23 principlesprincípios
184
549160
3056
e dela saiu uma lista
com 23 princípios,
09:24
whichqual have sinceDesde a been signedassinado
by over 1,000 AIAI researcherspesquisadores
185
552240
2896
que já foi assinada por mais
de mil investigadores de IA
e por importantes líderes da indústria.
09:27
and keychave industryindústria leaderslíderes,
186
555160
1296
09:28
and I want to tell you
about threetrês of these principlesprincípios.
187
556480
3176
Vou falar um pouco
sobre três desses princípios.
09:31
One is that we should avoidevitar an armsbraços racecorrida
and lethalletal autonomousAutônomo weaponsarmas.
188
559680
4960
Um, é que devemos evitar uma corrida
às armas e armas letais autónomas.
09:37
The ideaidéia here is that any scienceCiência
can be used for newNovo waysmaneiras of helpingajudando people
189
565480
3616
A ideia aqui é que nenhuma ciência
pode ser usada como uma nova forma
de ajudar ou de prejudicar as pessoas,
09:41
or newNovo waysmaneiras of harmingprejudicando people.
190
569120
1536
09:42
For exampleexemplo, biologybiologia and chemistryquímica
are much more likelyprovável to be used
191
570680
3936
Por exemplo, a Biologia e a Química,
provavelmente, serão mais usadas
09:46
for newNovo medicinesmedicamentos or newNovo curescura
than for newNovo waysmaneiras of killingmatando people,
192
574640
4856
em novos medicamentos ou novas curas
do que em novas formas de matar pessoas,
09:51
because biologistsbiólogos
and chemistsquímicos pushedempurrado hardDifícil --
193
579520
2176
já que biólogos e químicos lutaram
- e com sucesso -
09:53
and successfullycom êxito --
194
581720
1256
pela proibição de armas
químicas e biológicas.
09:55
for bansproibições on biologicalbiológico
and chemicalquímico weaponsarmas.
195
583000
2176
09:57
And in the samemesmo spiritespírito,
196
585200
1256
Dentro desse mesmo espírito,
a maioria dos investigadores de IA
09:58
mosta maioria AIAI researcherspesquisadores want to stigmatizeestigmatizar
and banbanimento lethalletal autonomousAutônomo weaponsarmas.
197
586480
4440
gostaria de estigmatizar e banir
as armas letais autónomas.
Outro princípio criado em Asilomar
determina que devemos reduzir
10:03
AnotherOutro AsilomarAsilomar AIAI principleprincípio
198
591600
1816
10:05
is that we should mitigateatenuar os
AI-fueledAI-abastecido incomerenda inequalitydesigualdade.
199
593440
3696
a desigualdade de receitas
impulsionada pela IA.
Acho que, se o bolo da economia
aumentar drasticamente, com a IA,
10:09
I think that if we can growcrescer
the economiceconômico pietorta dramaticallydramaticamente with AIAI
200
597160
4456
mas não conseguirmos imaginar
como dividir esse bolo,
10:13
and we still can't figurefigura out
how to dividedividir this pietorta
201
601640
2456
10:16
so that everyonetodos is better off,
202
604120
1576
para beneficiar toda a gente,
10:17
then shamevergonha on us.
203
605720
1256
será uma vergonha para nós.
10:19
(ApplauseAplausos)
204
607000
4096
(Aplausos)
10:23
AlrightTudo bem, now raiselevantar your handmão
if your computercomputador has ever crashedcaiu.
205
611120
3600
Então, levante a mão quem já sofreu
uma falha de sistema no computador.
10:27
(LaughterRiso)
206
615480
1256
(Risos)
10:28
WowUau, that's a lot of handsmãos.
207
616760
1656
Meu Deus, quantas mãos!
10:30
Well, then you'llvocê vai appreciateapreciar
this principleprincípio
208
618440
2176
Então vocês vão gostar deste princípio
de que devemos investir muito mais
na investigação da segurança de IA,
10:32
that we should investinvestir much more
in AIAI safetysegurança researchpesquisa,
209
620640
3136
10:35
because as we put AIAI in chargecarregar
of even more decisionsdecisões and infrastructurea infraestrutura,
210
623800
3656
pois, quando colocamos a IA responsável
por mais decisões e infraestruturas,
10:39
we need to figurefigura out how to transformtransformar
today'shoje buggybuggy and hackablehackable computerscomputadores
211
627480
3616
precisamos de imaginar como transformar
esses computadores defeituosos e frágeis
10:43
into robustrobusto AIAI systemssistemas
that we can really trustConfiar em,
212
631120
2416
em sistemas de IA robustos,
em que podemos confiar.
10:45
because otherwisede outra forma,
213
633560
1216
Caso contrário, toda essa
nova tecnologia incrível
10:46
all this awesomeimpressionante newNovo technologytecnologia
can malfunctiondefeituoso and harmprejuízo us,
214
634800
2816
pode funcionar mal e prejudicar-nos
ou ser pirateada e voltar-se contra nós.
10:49
or get hackedhackeado and be turnedvirou againstcontra us.
215
637640
1976
10:51
And this AIAI safetysegurança work
has to includeincluir work on AIAI valuevalor alignmentalinhamento,
216
639640
5696
Esse trabalho de segurança de IA
tem que incluir um alinhamento de valores,
10:57
because the realreal threatameaça
from AGIAPARECIDA isn't malicemalícia,
217
645360
2816
pois a verdadeira ameaça
da IAG não é a maldade,
como nos filmes idiotas de Hollywood,
11:00
like in sillyboba HollywoodHollywood moviesfilmes,
218
648200
1656
11:01
but competencecompetência --
219
649880
1736
mas a competência
11:03
AGIAPARECIDA accomplishingrealizar goalsmetas
that just aren'tnão são alignedalinhado with oursnosso.
220
651640
3416
- os objetivos da IAG não estarem
alinhados com os nossos.
11:07
For exampleexemplo, when we humanshumanos drovedirigiu
the WestOeste AfricanAfricano blackPreto rhinoRinoceronte extinctextinto,
221
655080
4736
Por exemplo, quando nós causámos
a extinção do Rinoceronte Negro africano
11:11
we didn't do it because we were a bunchgrupo
of evilmal rhinocerosRinoceronte hatershaters, did we?
222
659840
3896
não o fizemos
porque odiamos os rinocerontes,
11:15
We did it because
we were smartermais esperto than them
223
663760
2056
mas porque somos
mais inteligentes que eles
11:17
and our goalsmetas weren'tnão foram alignedalinhado with theirsdeles.
224
665840
2576
e os nossos objetivos não estavam
alinhados com os deles.
11:20
But AGIAPARECIDA is by definitiondefinição smartermais esperto than us,
225
668440
2656
Mas, por definição, a IAG
é mais inteligente que nós.
11:23
so to make sure that we don't put
ourselvesnós mesmos in the positionposição of those rhinosrinocerontes
226
671120
3576
Assim, para garantir que não acabamos
como os rinocerontes,
11:26
if we createcrio AGIAPARECIDA,
227
674720
1976
se criarmos a IAG,
11:28
we need to figurefigura out how
to make machinesmáquinas understandCompreendo our goalsmetas,
228
676720
4176
precisamos de descobrir como fazer
com que as máquinas entendam,
11:32
adoptadotar our goalsmetas and retainreter our goalsmetas.
229
680920
3160
adotem e mantenham os nossos objetivos.
11:37
And whosede quem goalsmetas should these be, anywayde qualquer forma?
230
685320
2856
Aliás, de quem devem ser esses objetivos?
11:40
WhichQue goalsmetas should they be?
231
688200
1896
Quais devem ser esses objetivos?
11:42
This bringstraz us to the thirdterceiro partparte
of our rocketfoguete metaphormetáfora: the destinationdestino.
232
690120
3560
Isto leva-nos à terceira parte
da nossa metáfora do foguetão: o destino.
11:47
We're makingfazer AIAI more powerfulpoderoso,
233
695160
1856
Estamos a tornar a IA mais poderosa,
11:49
tryingtentando to figurefigura out how to steerboi it,
234
697040
1816
tentando descobrir como a guiar.
11:50
but where do we want to go with it?
235
698880
1680
Mas onde queremos chegar com ela?
11:53
This is the elephantelefante in the roomquarto
that almostquase nobodyninguém talksfala about --
236
701760
3656
Este é o elefante na sala
de que quase ninguém fala
11:57
not even here at TEDTED --
237
705440
1856
- nem mesmo aqui na TED -
11:59
because we're so fixatedfixado
on short-termtermo curto AIAI challengesdesafios.
238
707320
4080
porque estamos muito focados
nos desafios da IA a curto prazo.
12:04
Look, our speciesespécies is tryingtentando to buildconstruir AGIAPARECIDA,
239
712080
4656
A nossa espécie está a tentar
criar uma IAG,
12:08
motivatedmotivado by curiositycuriosidade and economicseconomia,
240
716760
3496
motivada pela curiosidade
e pela economia,
12:12
but what sortordenar of futurefuturo societysociedade
are we hopingna esperança for if we succeedter sucesso?
241
720280
3680
mas que tipo de sociedade futura
estamos a esperar, se o conseguirmos?
Fizemos uma sondagem de opinião
sobre isso recentemente.
12:16
We did an opinionopinião pollEnquete on this recentlyrecentemente,
242
724680
1936
12:18
and I was struckatingiu to see
243
726640
1216
Fiquei surpreendido ao ver
12:19
that mosta maioria people actuallyna realidade
want us to buildconstruir superintelligencesuperinteligência:
244
727880
2896
que a maioria das pessoas quer
a criação de uma superinteligência,
12:22
AIAI that's vastlymuito smartermais esperto
than us in all waysmaneiras.
245
730800
3160
a IA que, seja como for,
é muito mais inteligente do que nós.
12:27
What there was the greatestmaior agreementacordo on
was that we should be ambitiousambicioso
246
735120
3416
O maior consenso era
que devemos ser ambiciosos
12:30
and help life spreadespalhar into the cosmoscosmos,
247
738560
2016
e ajudar a vida a espalhar-se pelo cosmos.
12:32
but there was much lessMenos agreementacordo
about who or what should be in chargecarregar.
248
740600
4496
Mas houve muito menos consenso
sobre quem ou o quê deve ser o responsável.
12:37
And I was actuallyna realidade quitebastante amusedse divertiu
249
745120
1736
Na verdade, fiquei bastante divertido
12:38
to see that there's some some people
who want it to be just machinesmáquinas.
250
746880
3456
ao ver que há pessoas que querem
que sejam apenas as máquinas
12:42
(LaughterRiso)
251
750360
1696
(Risos)
12:44
And there was totaltotal disagreementdesacordo
about what the roleFunção of humanshumanos should be,
252
752080
3856
E não houve consenso algum
sobre o papel do ser humano,
12:47
even at the mosta maioria basicbásico levelnível,
253
755960
1976
mesmo ao nível mais básico.
12:49
so let's take a closermais perto look
at possiblepossível futuresFutures
254
757960
2816
Então, vamos olhar com mais atenção
para os possíveis futuros
12:52
that we mightpoderia chooseescolher
to steerboi towardem direção a, alrightbem?
255
760800
2736
que podemos escolher.
12:55
So don't get be wrongerrado here.
256
763560
1336
Não me interpretem mal.
12:56
I'm not talkingfalando about spaceespaço travelviagem,
257
764920
2056
Eu não estou a falar
de uma viagem espacial,
12:59
merelyapenas about humanity'shumanidade
metaphoricalmetafórico journeyviagem into the futurefuturo.
258
767000
3200
mas de uma viagem metafórica
da humanidade para o futuro.
13:02
So one optionopção that some
of my AIAI colleaguescolegas like
259
770920
3496
Uma opção que alguns
dos meus colegas de IA gostam
13:06
is to buildconstruir superintelligencesuperinteligência
and keep it undersob humanhumano controlao controle,
260
774440
3616
é a de criar uma superinteligência
e mantê-la sob o controlo humano,
13:10
like an enslavedescravizados god,
261
778080
1736
como um deus escravizado,
13:11
disconnecteddesconectado from the internetInternet
262
779840
1576
desligado da Internet
13:13
and used to createcrio unimaginableinimaginável
technologytecnologia and wealthriqueza
263
781440
3256
e usado para criar uma riqueza
e uma tecnologia inimagináveis
13:16
for whoeverquem quer que seja controlscontroles it.
264
784720
1240
para quem a controlar.
13:18
But LordSenhor ActonActon warnedavisado us
265
786800
1456
Mas Lorde Acton avisou-nos
que o poder corrompe
13:20
that powerpoder corruptscorrompe,
and absoluteabsoluto powerpoder corruptscorrompe absolutelyabsolutamente,
266
788280
3616
e o poder absoluto
corrompe absolutamente.
13:23
so you mightpoderia worrypreocupação that maybe
we humanshumanos just aren'tnão são smartinteligente enoughsuficiente,
267
791920
4056
Assim, podemos temer que talvez
não sejamos inteligentes o suficiente,
13:28
or wisesensato enoughsuficiente ratherem vez,
268
796000
1536
ou sábios o bastante,
13:29
to handlelidar com this much powerpoder.
269
797560
1240
para lidar com tanto poder.
Além disso, para além de qualquer
receio moral que possamos ter
13:31
AlsoTambém, asidea parte, de lado from any
moralmoral qualmsescrúpulos you mightpoderia have
270
799640
2536
13:34
about enslavingescravizar superiorsuperior mindsmentes,
271
802200
2296
de escravizar mentes superiores,
13:36
you mightpoderia worrypreocupação that maybe
the superintelligencesuperinteligência could outsmartmais esperto que us,
272
804520
3976
podemos temer que talvez
a superinteligência nos possa ultrapassar,
13:40
breakpausa out and take over.
273
808520
2240
libertar-se e assumir o controlo.
13:43
But I alsoAlém disso have colleaguescolegas
who are fine with AIAI takinglevando over
274
811560
3416
Mas eu também tenho colegas
que aceitam que a IA assuma o controlo
13:47
and even causingcausando humanhumano extinctionextinção,
275
815000
2296
e, até mesmo, cause a extinção humana,
13:49
as long as we feel the the AIsAIs
are our worthydigno descendantsdescendentes,
276
817320
3576
contanto que vejamos a IA
como nossos descendentes diretos,
13:52
like our childrencrianças.
277
820920
1736
tal como os nossos filhos.
13:54
But how would we know that the AIsAIs
have adoptedadotado our bestmelhor valuesvalores
278
822680
5616
Mas como é que sabemos se as IAs
adotaram os nossos melhores valores
14:00
and aren'tnão são just unconsciousinconsciente zombieszumbis
trickingenganando us into anthropomorphizingantropomorfismo them?
279
828320
4376
e não são apenas zombies inconscientes
que nos enganam com a sua forma humana?
14:04
AlsoTambém, shouldn'tnão deveria those people
who don't want humanhumano extinctionextinção
280
832720
2856
Além do mais, aqueles que não querem
a extinção humana
14:07
have a say in the matterimportam, too?
281
835600
1440
não deviam também ter algo
a dizer sobre essa questão?
14:10
Now, if you didn't like eitherou
of those two high-techalta tecnologia optionsopções,
282
838200
3376
Se nós não gostamos de nenhuma
destas duas opções de alta tecnologia,
14:13
it's importantimportante to rememberlembrar
that low-techde baixa tecnologia is suicidesuicídio
283
841600
3176
é importante lembrar
que a baixa tecnologia é um suicídio,
numa perspetiva cósmica,
14:16
from a cosmiccósmico perspectiveperspectiva,
284
844800
1256
14:18
because if we don't go farlonge
beyondalém today'shoje technologytecnologia,
285
846080
2496
porque, se não formos muito além
da tecnologia de hoje,
14:20
the questionquestão isn't whetherse humanityhumanidade
is going to go extinctextinto,
286
848600
2816
a questão não será apenas
se a humanidade será extinta,
14:23
merelyapenas whetherse
we're going to get takenocupado out
287
851440
2016
mas se nós seremos dizimados
14:25
by the nextPróximo killerassassino asteroidasteróide, supervolcanosupervulcão
288
853480
2136
por um asteroide assassino,
por um super vulcão
14:27
or some other problemproblema
that better technologytecnologia could have solvedresolvido.
289
855640
3096
ou por qualquer outra coisa
que uma tecnologia melhor podia resolver.
14:30
So, how about havingtendo
our cakebolo and eatingcomendo it ...
290
858760
3576
Então, que tal conciliarmos
as duas coisas?
14:34
with AGIAPARECIDA that's not enslavedescravizados
291
862360
1840
Com uma IGA, que não seja escrava,
mas que nos trate bem,
14:37
but treatsTrata us well because its valuesvalores
are alignedalinhado with oursnosso?
292
865120
3176
porque os valores estão
alinhados com os nossos?
14:40
This is the gistessência of what EliezerEliezer YudkowskyYudkowsky
has calledchamado "friendlyamigáveis AIAI,"
293
868320
4176
É esta a essência do que Eliezer Yudkowsky
chamou uma "IA amigável".
14:44
and if we can do this,
it could be awesomeimpressionante.
294
872520
2680
Se o conseguirmos, será maravilhoso.
14:47
It could not only eliminateeliminar negativenegativo
experiencesexperiências like diseasedoença, povertypobreza,
295
875840
4816
Poderíamos eliminar experiências negativas,
como as doenças, a pobreza,
o crime e outros sofrimentos
14:52
crimecrime and other sufferingsofrimento,
296
880680
1456
14:54
but it could alsoAlém disso give us
the freedomliberdade to chooseescolher
297
882160
2816
e também poderíamos ter
a liberdade de escolha
a partir de novas experiências
fantásticas e positivas
14:57
from a fantasticfantástico newNovo diversitydiversidade
of positivepositivo experiencesexperiências --
298
885000
4056
15:01
basicallybasicamente makingfazer us
the mastersmestres of our ownpróprio destinydestino.
299
889080
3160
tornando-nos, basicamente,
nos mestres do nosso próprio destino.
15:06
So in summaryResumo,
300
894280
1376
Em resumo,
15:07
our situationsituação with technologytecnologia
is complicatedcomplicado,
301
895680
3096
a nossa situação com a tecnologia
é complicada,
15:10
but the biggrande picturecenário is ratherem vez simplesimples.
302
898800
2416
mas o cenário geral é bastante simples.
15:13
MostMaioria AIAI researcherspesquisadores
expectEspero AGIAPARECIDA withindentro decadesdécadas,
303
901240
3456
A maioria dos investigadores de IA
esperam a IAG dentro de décadas.
15:16
and if we just bumblebumble
into this unprepareddespreparados,
304
904720
3136
Se nós não estivermos preparados,
15:19
it will probablyprovavelmente be
the biggestmaior mistakeerro in humanhumano historyhistória --
305
907880
3336
será, provavelmente, o maior erro
na história da humanidade,
15:23
let's facecara it.
306
911240
1416
convenhamos.
15:24
It could enablehabilitar brutalbrutal,
globalglobal dictatorshipditadura
307
912680
2576
Ela poderá permitir
uma brutal ditadura global,
15:27
with unprecedentedsem precedente inequalitydesigualdade,
surveillancevigilância and sufferingsofrimento,
308
915280
3536
com desigualdade, vigilância
e sofrimento sem precedentes,
15:30
and maybe even humanhumano extinctionextinção.
309
918840
1976
e talvez, até mesmo a extinção humana.
15:32
But if we steerboi carefullycuidadosamente,
310
920840
2320
Mas, se conduzirmos com cuidado,
15:36
we could endfim up in a fantasticfantástico futurefuturo
where everybody'stodo mundo better off:
311
924040
3896
podemos chegar a um futuro fantástico
onde toda a gente fica a ganhar:
os pobres ficam mais ricos
e os ricos ficam mais ricos,
15:39
the poorpobre are richermais rico, the richrico are richermais rico,
312
927960
2376
15:42
everybodytodo mundo is healthysaudável
and freelivre to liveviver out theirdeles dreamssonhos.
313
930360
3960
toda a gente é mais saudável e livre
para viver os seus sonhos.
15:47
Now, hangaguentar on.
314
935000
1536
Agora, esperem um pouco.
15:48
Do you folkspessoal want the futurefuturo
that's politicallypoliticamente right or left?
315
936560
4576
Vocês querem um futuro político
de esquerda ou de direita?
15:53
Do you want the piouspiedosa societysociedade
with strictrigoroso moralmoral rulesregras,
316
941160
2856
Vocês querem uma sociedade obediente
às normas morais rigorosas
15:56
or do you an hedonistichedonista free-for-alllivre para todos,
317
944040
1816
ou querem uma liberdade hedonista,
tipo Burning Man,
permanentemente?
15:57
more like BurningQueima de Man 24/7?
318
945880
2216
Vocês querem belas praias,
florestas e lagos,
16:00
Do you want beautifulbonita beachespraias,
forestsflorestas and lakesLagos,
319
948120
2416
16:02
or would you preferpreferem to rearrangereorganizar
some of those atomsátomos with the computerscomputadores,
320
950560
3416
ou preferem reorganizar alguns
desses átomos com os computadores,
16:06
enablingpossibilitando virtualvirtual experiencesexperiências?
321
954000
1715
permitindo experiências virtuais?
16:07
With friendlyamigáveis AIAI, we could simplysimplesmente
buildconstruir all of these societiessociedades
322
955739
3157
Com uma IA amigável nós podemos
construir todas essas sociedades
16:10
and give people the freedomliberdade
to chooseescolher whichqual one they want to liveviver in
323
958920
3216
e dar às pessoas a liberdade
de escolher em qual delas querem viver,
16:14
because we would no longermais longo
be limitedlimitado by our intelligenceinteligência,
324
962160
3096
porque deixamos de estar limitados
pela nossa inteligência,
mas apenas pelas leis da Física.
16:17
merelyapenas by the lawsleis of physicsfísica.
325
965280
1456
16:18
So the resourcesRecursos and spaceespaço
for this would be astronomicalastronômico --
326
966760
4616
Os recursos e o espaço
para isso serão astronómicos,
16:23
literallyliteralmente.
327
971400
1320
literalmente.
16:25
So here'saqui está our choiceescolha.
328
973320
1200
Então eis as nossas opções.
16:27
We can eitherou be complacentcomplacentes
about our futurefuturo,
329
975880
2320
Podemos ser complacentes
sobre o nosso futuro,
16:31
takinglevando as an articleartigo of blindcego faith
330
979440
2656
aceitando cegamente
16:34
that any newNovo technologytecnologia
is guaranteedGarantidas to be beneficialbenéfico,
331
982120
4016
que nenhuma nova tecnologia
garante ser benéfica,
16:38
and just repeatrepetir that to ourselvesnós mesmos
as a mantramantra over and over and over again
332
986160
4136
e repetir isso várias vezes,
como um mantra, vezes sem conta,
16:42
as we driftderiva like a rudderlessà deriva shipnavio
towardsem direção our ownpróprio obsolescenceobsolescência.
333
990320
3680
enquanto andamos à deriva
como um navio sem leme,
em direção a nossa própria obsolescência.
16:46
Or we can be ambitiousambicioso --
334
994920
1880
Ou podemos ser ambiciosos.
16:49
thinkingpensando hardDifícil about how
to steerboi our technologytecnologia
335
997840
2456
analisando como dominar a nossa tecnologia
16:52
and where we want to go with it
336
1000320
1936
e onde queremos chegar com ela
16:54
to createcrio the ageera of amazementespanto.
337
1002280
1760
para criar a era da admiração.
16:57
We're all here to celebratecomemoro
the ageera of amazementespanto,
338
1005000
2856
Estamos todos aqui para festejar
a era da admiração,
16:59
and I feel that its essenceessência should liementira
in becomingtornando-se not overpowereddominado
339
1007880
4440
e eu sinto que a sua essência
não deve ser superada,
17:05
but empoweredhabilitado by our technologytecnologia.
340
1013240
2616
mas dominar o poder pela nossa tecnologia.
17:07
Thank you.
341
1015880
1376
Obrigado.
(Aplausos)
17:09
(ApplauseAplausos)
342
1017280
3080
Translated by Leticia Faria Garcia
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com