ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Podemos construir IA sem perder o controlo?

Filmed:
5,024,015 views

Assustado com a IA superinteligente? Devia estar, diz o neurocientista e filosofo Sam Harris — e não apenas teoricamente. Vamos construir máquinas super-humanas, diz Harris, mas ainda não lidámos com os problemas associados com a criação de uma coisa que nos poderá tratar do mesmo modo como tratamos as formigas.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurefalha of intuitionintuição
0
1000
2216
Eu vou falar de uma falha de intuição
00:15
that manymuitos of us sufferSofra from.
1
3240
1600
de que muitos de nós sofremos.
00:17
It's really a failurefalha
to detectdetectar a certaincerto kindtipo of dangerperigo.
2
5480
3040
É uma falha em detetar
um certo tipo de perigo.
00:21
I'm going to describedescrever a scenariocenário
3
9360
1736
Vou descrever um cenário
00:23
that I think is bothambos terrifyingaterrorizante
4
11120
3256
que considero tão aterrador
00:26
and likelyprovável to occurocorrer,
5
14400
1760
como provável de acontecer.
00:28
and that's not a good combinationcombinação,
6
16840
1656
Acontece que isto
não é uma boa combinação.
00:30
as it turnsgira out.
7
18520
1536
00:32
And yetainda ratherem vez than be scaredassustada,
mosta maioria of you will feel
8
20080
2456
No entanto, em vez de assustados,
a maioria de vocês acha
que aquilo de que estou a falar é fixe.
00:34
that what I'm talkingfalando about
is kindtipo of coollegal.
9
22560
2080
00:37
I'm going to describedescrever
how the gainsganhos we make
10
25200
2976
Eu vou descrever
como as vantagens obtidas
00:40
in artificialartificial intelligenceinteligência
11
28200
1776
com a inteligência artificial
00:42
could ultimatelyem última análise destroydestruir us.
12
30000
1776
podem acabar por nos destruir.
00:43
And in factfacto, I think it's very difficultdifícil
to see how they won'tnão vai destroydestruir us
13
31800
3456
Penso que é muito difícil
ver como não nos vão destruir
ou inspirar a destruirmo-nos a nós mesmos.
00:47
or inspireinspirar us to destroydestruir ourselvesnós mesmos.
14
35280
1680
00:49
And yetainda if you're anything like me,
15
37400
1856
Mas se vocês forem
minimamente como eu,
00:51
you'llvocê vai find that it's funDiversão
to think about these things.
16
39280
2656
vão descobrir que é divertido
pensar nestas coisas.
00:53
And that responseresposta is partparte of the problemproblema.
17
41960
3376
Essa resposta faz parte do problema.
00:57
OK? That responseresposta should worrypreocupação you.
18
45360
1720
Essa resposta devia preocupar-vos.
00:59
And if I were to convinceconvencer you in this talk
19
47920
2656
Se eu vos convencesse nesta palestra
01:02
that we were likelyprovável
to sufferSofra a globalglobal faminefome,
20
50600
3416
que vamos, provavelmente,
sofrer uma fome mundial,
01:06
eitherou because of climateclima changemudança
or some other catastrophecatástrofe,
21
54040
3056
devido à mudança climática
ou devido a alguma outra catástrofe,
01:09
and that your grandchildrennetos,
or theirdeles grandchildrennetos,
22
57120
3416
e que os vossos netos,
ou os netos deles,
01:12
are very likelyprovável to liveviver like this,
23
60560
1800
têm a probabilidade de viver assim,
01:15
you wouldn'tnão seria think,
24
63200
1200
não pensariam:
01:17
"InterestingInteressante.
25
65440
1336
"Que interessante.
01:18
I like this TEDTED Talk."
26
66800
1200
"Gosto desta palestra TED."
01:21
FamineFome isn't funDiversão.
27
69200
1520
A fome não tem graça.
01:23
DeathMorte by scienceCiência fictionficção,
on the other handmão, is funDiversão,
28
71800
3376
Mas a morte pela ficção científica
é divertida.
01:27
and one of the things that worriespreocupações me mosta maioria
about the developmentdesenvolvimento of AIAI at this pointponto
29
75200
3976
Uma das coisas que mais me preocupa
no desenvolvimento da IA, neste ponto,
é que parecemos incapazes de mobilizar
uma resposta emocional apropriada
01:31
is that we seemparecem unableincapaz to marshalMarechal
an appropriateadequado emotionalemocional responseresposta
30
79200
4096
01:35
to the dangersperigos that liementira aheadadiante.
31
83320
1816
para os perigos que nos esperam.
01:37
I am unableincapaz to marshalMarechal this responseresposta,
and I'm givingdando this talk.
32
85160
3200
Sou incapaz de conseguir esta resposta,
e estou a fazer esta palestra.
01:42
It's as thoughApesar we standficar de pé before two doorsportas.
33
90120
2696
É como se estivéssemos diante
de duas portas.
01:44
BehindPara trás doorporta numbernúmero one,
34
92840
1256
Atrás da porta número um,
01:46
we stop makingfazer progressprogresso
in buildingconstrução intelligentinteligente machinesmáquinas.
35
94120
3296
deixamos de fazer progressos
na construção de máquinas inteligentes.
01:49
Our computercomputador hardwarehardware and softwareProgramas
just stopspára gettingobtendo better for some reasonrazão.
36
97440
4016
O hardware e o software dos computadores
deixam de melhorar, por alguma razão.
01:53
Now take a momentmomento
to considerconsiderar why this mightpoderia happenacontecer.
37
101480
3000
Agora, pensem um momento
na razão de isto poder acontecer.
01:57
I mean, givendado how valuablevalioso
intelligenceinteligência and automationautomação are,
38
105080
3656
Ou seja, sendo a inteligência
e a automação tão valiosas,
02:00
we will continuecontinuar to improvemelhorar our technologytecnologia
if we are at all ablecapaz to.
39
108760
3520
vamos continuar a melhorar
a tecnologia, se formos capazes disso.
02:05
What could stop us from doing this?
40
113200
1667
O que é que nos pode impedir de o fazer?
02:07
A full-scaleem grande escala nuclearnuclear warguerra?
41
115800
1800
Uma guerra nuclear a larga escala?
02:11
A globalglobal pandemicpandemia?
42
119000
1560
Uma pandemia mundial?
02:14
An asteroidasteróide impactimpacto?
43
122320
1320
O impacto de um asteroide?
02:17
JustinJustin BieberBieber becomingtornando-se
presidentPresidente of the UnitedUnidos StatesEstados-Membros?
44
125640
2576
Justin Bieber tornar-se
presidente dos EUA?
02:20
(LaughterRiso)
45
128240
2280
(Risos)
02:24
The pointponto is, something would have to
destroydestruir civilizationcivilização as we know it.
46
132760
3920
A questão é, algo teria de destruir
a civilização, tal como a conhecemos
02:29
You have to imagineImagine
how badmau it would have to be
47
137360
4296
Temos que imaginar
quão mau teria que ser
02:33
to preventevita us from makingfazer
improvementsmelhorias in our technologytecnologia
48
141680
3336
para nos impedir de fazer
melhoramentos na tecnologia
02:37
permanentlypermanentemente,
49
145040
1216
de forma permanente,
02:38
generationgeração after generationgeração.
50
146280
2016
geração após geração.
02:40
AlmostQuase by definitiondefinição,
this is the worstpior thing
51
148320
2136
Quase por definição,
isto é a pior coisa
02:42
that's ever happenedaconteceu in humanhumano historyhistória.
52
150480
2016
que já aconteceu na história
da Humanidade.
02:44
So the only alternativealternativa,
53
152520
1296
Por isso, a única alternativa,
02:45
and this is what liesmentiras
behindatrás doorporta numbernúmero two,
54
153840
2336
— e é o que está detrás da porta dois —
02:48
is that we continuecontinuar
to improvemelhorar our intelligentinteligente machinesmáquinas
55
156200
3136
é que continuemos a melhorar
as nossas máquinas inteligentes
02:51
yearano after yearano after yearano.
56
159360
1600
ano após ano após ano.
02:53
At a certaincerto pointponto, we will buildconstruir
machinesmáquinas that are smartermais esperto than we are,
57
161720
3640
A certa altura, iremos construir
máquinas mais inteligentes que nós,
02:58
and onceuma vez we have machinesmáquinas
that are smartermais esperto than we are,
58
166080
2616
e assim que tivermos máquinas
mais inteligentes que nós,
03:00
they will begininício to improvemelhorar themselvessi mesmos.
59
168720
1976
elas vão começar
a melhorar-se a si mesmas.
03:02
And then we riskrisco what
the mathematicianmatemático IJIJ Good calledchamado
60
170720
2736
Então arriscamo-nos ao que
o matemático I.J. Good chamou
03:05
an "intelligenceinteligência explosionexplosão,"
61
173480
1776
uma "explosão de inteligência,"
03:07
that the processprocesso could get away from us.
62
175280
2000
que o processo poderá
sair das nossas mãos.
03:10
Now, this is oftenfrequentemente caricaturedcaricaturado,
as I have here,
63
178120
2816
Isto é normalmente caricaturado,
como vemos aqui,
03:12
as a fearmedo that armiesexércitos of maliciousmalicioso robotsrobôs
64
180960
3216
como o medo de que tropas
de robôs malignos nos vão atacar.
03:16
will attackataque us.
65
184200
1256
03:17
But that isn't the mosta maioria likelyprovável scenariocenário.
66
185480
2696
Mas este não é o cenário
mais provável.
03:20
It's not that our machinesmáquinas
will becometornar-se spontaneouslyespontaneamente malevolentmalévolo.
67
188200
4856
As nossas máquinas não se tornarão
espontaneamente maléficas.
03:25
The concernpreocupação is really
that we will buildconstruir machinesmáquinas
68
193080
2616
O problema é se
construímos máquinas
03:27
that are so much
more competentcompetente than we are
69
195720
2056
que são muito mais
competentes que nós
03:29
that the slightestmenor divergencedivergência
betweenentre theirdeles goalsmetas and our ownpróprio
70
197800
3776
que à mínima divergência
entre os seus objetivos e os nossos
03:33
could destroydestruir us.
71
201600
1200
podem destruir-nos.
03:35
Just think about how we relaterelacionar to antsformigas.
72
203960
2080
Basta pensar na nossa
ligação às formigas.
03:38
We don't hateódio them.
73
206600
1656
Não as odiamos.
03:40
We don't go out of our way to harmprejuízo them.
74
208280
2056
Não saímos do nosso caminho
para as magoar.
03:42
In factfacto, sometimesas vezes
we take painsdores not to harmprejuízo them.
75
210360
2376
Até fazemos o necessário
para não as magoar.
03:44
We stepdegrau over them on the sidewalkcalçada.
76
212760
2016
Passamos por cima delas
no passeio.
03:46
But wheneversempre que theirdeles presencepresença
77
214800
2136
Mas quando a sua presença
03:48
seriouslya sério conflictsconflitos with one of our goalsmetas,
78
216960
2496
representa um conflito
com um dos nossos objetivos,
03:51
let's say when constructingconstruindo
a buildingconstrução like this one,
79
219480
2477
digamos, quando construindo
um edifício como este,
03:53
we annihilateaniquilar them withoutsem a qualmQualm.
80
221981
1960
eliminamo-las sem hesitação.
03:56
The concernpreocupação is that we will
one day buildconstruir machinesmáquinas
81
224480
2936
O problema é que iremos
um dia construir máquinas
03:59
that, whetherse they're consciousconsciente or not,
82
227440
2736
que, conscientes ou não,
04:02
could treattratar us with similarsemelhante disregarddesrespeito.
83
230200
2000
podem tratar-nos com
o mesmo desprezo.
04:05
Now, I suspectsuspeito this seemsparece
far-fetchedexagerado to manymuitos of you.
84
233760
2760
Suspeito que isto pareça
exagerado para a maioria.
04:09
I betaposta there are those of you who doubtdúvida
that superintelligentsuperinteligentes AIAI is possiblepossível,
85
237360
6336
Aposto que são os mesmos que duvidam
da possibilidade duma IA superinteligente,
04:15
much lessMenos inevitableinevitável.
86
243720
1656
e, mais ainda, inevitável.
04:17
But then you mustdevo find something wrongerrado
with one of the followingSegue assumptionspremissas.
87
245400
3620
Então, devem encontrar algo de errado
nas seguintes premissas.
04:21
And there are only threetrês of them.
88
249044
1572
Só existem três.
04:23
IntelligenceInteligência is a matterimportam of informationem formação
processingem processamento in physicalfisica systemssistemas.
89
251800
4719
A inteligência é uma questão
de processamento de informação
em sistemas físicos.
04:29
ActuallyNa verdade, this is a little bitpouco more
than an assumptionsuposição.
90
257320
2615
Na verdade, isto é mais
que uma premissa.
Já construímos inteligência
limitada nas nossas máquinas,
04:31
We have already builtconstruído
narrowlimitar intelligenceinteligência into our machinesmáquinas,
91
259959
3457
04:35
and manymuitos of these machinesmáquinas performexecutar
92
263440
2016
e muitas dessas máquinas já funcionam
04:37
at a levelnível of superhumansobre-humana
intelligenceinteligência already.
93
265480
2640
a um nível de inteligência super-humana.
04:40
And we know that meremero matterimportam
94
268840
2576
Sabemos que mera matéria
04:43
can give risesubir to what is calledchamado
"generalgeral intelligenceinteligência,"
95
271440
2616
pode dar origem ao que chamamos
"inteligência geral,"
04:46
an abilityhabilidade to think flexiblyflexìvel
acrossatravés multiplemúltiplo domainsdomínios,
96
274080
3656
a capacidade de pensar flexivelmente
em múltiplos domínios,
04:49
because our brainscérebro have managedgerenciou it. Right?
97
277760
3136
porque o nosso cérebros conseguiu isso.
04:52
I mean, there's just atomsátomos in here,
98
280920
3936
Quero dizer, aqui só há átomos.
04:56
and as long as we continuecontinuar
to buildconstruir systemssistemas of atomsátomos
99
284880
4496
Enquanto continuamos a construir
sistemas de átomos
05:01
that displayexibição more and more
intelligentinteligente behaviorcomportamento,
100
289400
2696
que demonstram cada vez mais
um comportamento inteligente,
05:04
we will eventuallyeventualmente,
unlessa menos que we are interruptedinterrompido,
101
292120
2536
acabaremos — a não ser
que sejamos interrompidos —
05:06
we will eventuallyeventualmente
buildconstruir generalgeral intelligenceinteligência
102
294680
3376
acabaremos por construir
inteligência geral
05:10
into our machinesmáquinas.
103
298080
1296
nas nossas máquinas.
05:11
It's crucialcrucial to realizeperceber
that the ratetaxa of progressprogresso doesn't matterimportam,
104
299400
3656
É crucial entender que a velocidade
do progresso não importa,
05:15
because any progressprogresso
is enoughsuficiente to get us into the endfim zonezona.
105
303080
3176
pois qualquer progresso
é suficiente para nos levar ao final.
05:18
We don't need Moore'sMoore lawlei to continuecontinuar.
We don't need exponentialexponencial progressprogresso.
106
306280
3776
Não precisamos da Lei de Moore
nem de progresso exponencial
para continuar.
05:22
We just need to keep going.
107
310080
1600
Só precisamos de continuar.
05:25
The secondsegundo assumptionsuposição
is that we will keep going.
108
313480
2920
A segunda premissa
é que iremos continuar.
05:29
We will continuecontinuar to improvemelhorar
our intelligentinteligente machinesmáquinas.
109
317000
2760
Continuaremos a melhorar
as nossas máquinas inteligentes.
05:33
And givendado the valuevalor of intelligenceinteligência --
110
321000
4376
E devido ao valor da inteligência
— quer dizer, inteligência ou é
a fonte de tudo que valorizamos
05:37
I mean, intelligenceinteligência is eitherou
the sourcefonte of everything we valuevalor
111
325400
3536
05:40
or we need it to safeguardsalvaguarda
everything we valuevalor.
112
328960
2776
ou precisamos dela para
salvaguardar tudo o que valorizamos.
05:43
It is our mosta maioria valuablevalioso resourcerecurso.
113
331760
2256
É o nosso recurso mais valioso.
05:46
So we want to do this.
114
334040
1536
Por isso, queremos fazer isto.
05:47
We have problemsproblemas
that we desperatelydesesperadamente need to solveresolver.
115
335600
3336
Temos problemas que queremos
desesperadamente resolver.
05:50
We want to curecura diseasesdoenças
like Alzheimer'sA doença de Alzheimer and cancerCâncer.
116
338960
3200
Queremos curar doenças
como Alzheimer ou cancro.
05:54
We want to understandCompreendo economiceconômico systemssistemas.
We want to improvemelhorar our climateclima scienceCiência.
117
342960
3936
Queremos entender sistemas económicos
e melhorar a nossa ciência climatérica.
05:58
So we will do this, if we can.
118
346920
2256
Por isso iremos fazê-lo,
se conseguirmos,
06:01
The traintrem is already out of the stationestação,
and there's no brakefreio to pullpuxar.
119
349200
3286
O comboio já saiu da estação,
e não há travão para acionar.
06:05
FinallyFinalmente, we don't standficar de pé
on a peakpico of intelligenceinteligência,
120
353880
5456
Finalmente, não estamos
num pico da inteligência,
06:11
or anywherequalquer lugar nearperto it, likelyprovável.
121
359360
1800
provavelmente, nem perto dela.
06:13
And this really is the crucialcrucial insightdiscernimento.
122
361640
1896
E isto é a visão crucial.
06:15
This is what makesfaz com que
our situationsituação so precariousprecária,
123
363560
2416
Isto é o que torna
a nossa situação tão precária.
06:18
and this is what makesfaz com que our intuitionsintuições
about riskrisco so unreliableNão confiável.
124
366000
4040
Isto é o que torna tão incertas
as nossas intuições de risco.
06:23
Now, just considerconsiderar the smartestmais inteligente personpessoa
who has ever livedvivia.
125
371120
2720
Agora, pensem na pessoa
mais inteligente de sempre.
06:26
On almostquase everyone'stodos shortlistlista de projectos seleccionados here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Na lista de quase toda a gente
está John von Neumann.
06:30
I mean, the impressionimpressão that vonvon NeumannNeumann
madefeito on the people around him,
127
378080
3336
A impressão que von Neumann
deixou nas pessoas ao seu redor,
06:33
and this includedincluído the greatestmaior
mathematiciansmatemáticos and physicistsfísicos of his time,
128
381440
4056
incluindo os melhores
matemáticos e físicos do seu tempo,
06:37
is fairlybastante well-documentedbem documentado.
129
385520
1936
está bem documentada.
06:39
If only halfmetade the storieshistórias
about him are halfmetade trueverdade,
130
387480
3776
Se metade das histórias sobre ele
são meio verdadeiras,
06:43
there's no questionquestão
131
391280
1216
não há dúvida
que ele foi uma das pessoas
mais inteligentes que existiu.
06:44
he's one of the smartestmais inteligente people
who has ever livedvivia.
132
392520
2456
06:47
So considerconsiderar the spectrumespectro of intelligenceinteligência.
133
395000
2520
Considerem o espetro da inteligência.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Aqui temos John von Neumann.
06:53
And then we have you and me.
135
401560
1334
E aqui estamos nós.
06:56
And then we have a chickenfrango.
136
404120
1296
E aqui temos uma galinha.
06:57
(LaughterRiso)
137
405440
1936
(Risos)
06:59
Sorry, a chickenfrango.
138
407400
1216
Desculpem, uma galinha.
07:00
(LaughterRiso)
139
408640
1256
(Risos)
07:01
There's no reasonrazão for me to make this talk
more depressingdeprimente than it needsprecisa to be.
140
409920
3736
Não preciso de tornar esta palestra
ainda mais deprimente.
(Risos)
07:05
(LaughterRiso)
141
413680
1600
07:08
It seemsparece overwhelminglyesmagadoramente likelyprovável, howeverContudo,
that the spectrumespectro of intelligenceinteligência
142
416339
3477
Mas parece muito provável
que o espetro da inteligência
07:11
extendsse estende much furthermais distante
than we currentlyatualmente conceiveconceber,
143
419840
3120
se alargue muito mais além
do que imaginamos.
07:15
and if we buildconstruir machinesmáquinas
that are more intelligentinteligente than we are,
144
423880
3216
Se construirmos máquinas
mais inteligentes que nós,
07:19
they will very likelyprovável
exploreexplorar this spectrumespectro
145
427120
2296
iremos muito provavelmente
explorar este espetro
07:21
in waysmaneiras that we can't imagineImagine,
146
429440
1856
de formas inimagináveis,
07:23
and exceedexceder us in waysmaneiras
that we can't imagineImagine.
147
431320
2520
e superar-nos em formas,
que não imaginávamos.
07:27
And it's importantimportante to recognizereconhecer that
this is trueverdade by virtuevirtude of speedRapidez alonesozinho.
148
435000
4336
É importante reconhecer que isto é verdade
só por virtude da velocidade.
07:31
Right? So imagineImagine if we just builtconstruído
a superintelligentsuperinteligentes AIAI
149
439360
5056
Imaginem que construímos
uma IA superinteligente
07:36
that was no smartermais esperto
than your averagemédia teamequipe of researcherspesquisadores
150
444440
3456
que não é mais inteligente que
uma equipa normal de investigadores
07:39
at StanfordStanford or MITMIT.
151
447920
2296
de Stanford ou do MIT.
Os circuitos eletrónicos funcionam
um milhão de vezes mais depressa
07:42
Well, electroniceletrônico circuitscircuitos
functionfunção about a millionmilhão timesvezes fasterMais rápido
152
450240
2976
07:45
than biochemicalbioquímico onesuns,
153
453240
1256
do que os circuitos bioquímicos,
07:46
so this machinemáquina should think
about a millionmilhão timesvezes fasterMais rápido
154
454520
3136
por isso essa máquina iria
pensar um milhão de vezes mais rápido
07:49
than the mindsmentes that builtconstruído it.
155
457680
1816
do que as mentes que a construíram.
07:51
So you setconjunto it runningcorrida for a weeksemana,
156
459520
1656
Pomo-la a funcionar
durante uma semana,
07:53
and it will performexecutar 20,000 yearsanos
of human-levelhumanos-nível intellectualintelectual work,
157
461200
4560
e ela irá realizar 20 000 anos
de trabalho intelectual humano,
07:58
weeksemana after weeksemana after weeksemana.
158
466400
1960
semana após semana.
08:01
How could we even understandCompreendo,
much lessMenos constrainrestringindo,
159
469640
3096
Como podemos entender,
e muito menos restringir,
08:04
a mindmente makingfazer this sortordenar of progressprogresso?
160
472760
2280
uma mente que faz tal progresso?
08:08
The other thing that's worryingpreocupante, franklyfrancamente,
161
476840
2136
A outra coisa preocupante, honestamente...
08:11
is that, imagineImagine the bestmelhor casecaso scenariocenário.
162
479000
4976
Imaginem o melhor cenário possível.
08:16
So imagineImagine we hitacertar uponsobre a designdesenhar
of superintelligentsuperinteligentes AIAI
163
484000
4176
Imaginem que chegamos ao "design"
de uma IA superinteligente
08:20
that has no safetysegurança concernspreocupações.
164
488200
1376
sem problemas de segurança.
08:21
We have the perfectperfeito designdesenhar
the first time around.
165
489600
3256
Temos o "design" perfeito
na primeira tentativa.
08:24
It's as thoughApesar we'venós temos been handedentregue an oracleoráculo
166
492880
2216
Seria como se nos tivessem dado um oráculo
08:27
that behavescomporta-se exactlyexatamente as intendedpretendido.
167
495120
2016
cujo comportamento seria o esperado.
08:29
Well, this machinemáquina would be
the perfectperfeito labor-savingeconomia de mão de obra devicedispositivo.
168
497160
3720
Esta máquina poderia ser
a máquina perfeita para poupar trabalho.
08:33
It can designdesenhar the machinemáquina
that can buildconstruir the machinemáquina
169
501680
2429
Poderia conceber a máquina
para construir a máquina
08:36
that can do any physicalfisica work,
170
504133
1763
que pode fazer qualquer
trabalho físico,
08:37
poweredalimentado by sunlightluz solar,
171
505920
1456
usando energia solar,
08:39
more or lessMenos for the costcusto
of rawcru materialsmateriais.
172
507400
2696
mais ou menos ao custo
das matérias-primas.
08:42
So we're talkingfalando about
the endfim of humanhumano drudgerytrabalho penoso.
173
510120
3256
Estamos a falar do fim
do trabalho duro humano
08:45
We're alsoAlém disso talkingfalando about the endfim
of mosta maioria intellectualintelectual work.
174
513400
2800
Estamos também a falar do fim
de maior parte do trabalho intelectual.
08:49
So what would apesmacacos like ourselvesnós mesmos
do in this circumstancecircunstância?
175
517200
3056
O que fariam macacos como nós
nestas circunstâncias?
08:52
Well, we'dqua be freelivre to playToque FrisbeeFrisbee
and give eachcada other massagesmassagens.
176
520280
4080
Teríamos tempo para jogar ao disco,
e dar massagens uns aos outros.
08:57
AddAdicionar some LSDLSD and some
questionablequestionável wardrobeguarda roupa choicesescolhas,
177
525840
2856
Adicionem LSD e algumas
escolhas duvidosas de roupa,
09:00
and the wholetodo worldmundo
could be like BurningQueima de Man.
178
528720
2176
e seria como o festival Burning Man
por todo o mundo.
09:02
(LaughterRiso)
179
530920
1640
(Risos)
09:06
Now, that mightpoderia soundsom prettybonita good,
180
534320
2000
Isto até pode soar bem,
09:09
but askpergunte yourselfvocê mesmo what would happenacontecer
181
537280
2376
mas questionem-se o que poderia aconteceu
09:11
undersob our currentatual economiceconômico
and politicalpolítico orderordem?
182
539680
2736
na nossa ordem atual
económica e política?
09:14
It seemsparece likelyprovável that we would witnesstestemunha
183
542440
2416
Parece que poderíamos testemunhar
09:16
a levelnível of wealthriqueza inequalitydesigualdade
and unemploymentdesemprego
184
544880
4136
um nível de desigualdade de riqueza
e desemprego como nunca vimos antes.
09:21
that we have never seenvisto before.
185
549040
1496
09:22
AbsentAusente a willingnessboa vontade
to immediatelyimediatamente put this newNovo wealthriqueza
186
550560
2616
Se não existir a vontade
de colocar essa riqueza
imediatamente ao serviço
de toda a humanidade,
09:25
to the serviceserviço of all humanityhumanidade,
187
553200
1480
09:27
a fewpoucos trillionairestrillionaires could gracegraça
the coverscobre of our businesso negócio magazinesrevistas
188
555640
3616
alguns multimilionários poderiam figurar
nas capas das nossas revistas de negócios
09:31
while the restdescansar of the worldmundo
would be freelivre to starvemorrer de fome.
189
559280
2440
enquanto o resto do mundo
estaria à fome.
09:34
And what would the RussiansRussos
or the ChineseChinês do
190
562320
2296
E o que fariam os russos
ou os chineses
09:36
if they heardouviu that some companyempresa
in SiliconSilício ValleyVale
191
564640
2616
se soubessem que alguma companhia
em Silicon Valley
09:39
was about to deployimplantar a superintelligentsuperinteligentes AIAI?
192
567280
2736
estaria prestes a implementar
uma IA superinteligente?
09:42
This machinemáquina would be capablecapaz
of wagingwaging warguerra,
193
570040
2856
Essa máquina seria capaz
de fazer a guerra,
terrestre ou cibernética,
09:44
whetherse terrestrialterrestre or cyberCyber,
194
572920
2216
09:47
with unprecedentedsem precedente powerpoder.
195
575160
1680
com um poder inédito.
09:50
This is a winner-take-allvencedor leva tudo scenariocenário.
196
578120
1856
Isto é um cenário de
"o vencedor leva tudo".
09:52
To be sixseis monthsmeses aheadadiante
of the competitionconcorrência here
197
580000
3136
Estar seis meses adiantado
nesta competição
09:55
is to be 500,000 yearsanos aheadadiante,
198
583160
2776
é como estar 500 000 anos adiantado,
09:57
at a minimummínimo.
199
585960
1496
no mínimo.
09:59
So it seemsparece that even meremero rumorsrumores
of this kindtipo of breakthroughavançar
200
587480
4736
Parece que os meros rumores
deste tipo de inovação
10:04
could causecausa our speciesespécies to go berserkBerserk.
201
592240
2376
poderiam descontrolar a nossa espécie.
10:06
Now, one of the mosta maioria frighteningassustador things,
202
594640
2896
Uma das coisas mais assustadoras,
10:09
in my viewVisão, at this momentmomento,
203
597560
2776
na minha perspetiva, neste momento,
10:12
are the kindstipos of things
that AIAI researcherspesquisadores say
204
600360
4296
são o tipo de coisas
que os investigadores da IA dizem
10:16
when they want to be reassuringtranquilizador.
205
604680
1560
quando querem tranquilizar-nos.
10:19
And the mosta maioria commoncomum reasonrazão
we're told not to worrypreocupação is time.
206
607000
3456
O motivo mais comum que invocam
para não nos preocuparmos é o tempo.
10:22
This is all a long way off,
don't you know.
207
610480
2056
"Não sabem que isto ainda vem longe?
10:24
This is probablyprovavelmente 50 or 100 yearsanos away.
208
612560
2440
"Só daqui a 50 ou 100 anos".
10:27
One researcherPesquisador has said,
209
615720
1256
Um investigador disse:
10:29
"WorryingSe preocupar about AIAI safetysegurança
210
617000
1576
"Preocupar-se com a segurança da IA
10:30
is like worryingpreocupante
about overpopulationsuperpopulação on MarsMarte."
211
618600
2280
"é como preocupar-se com
o excesso de população em Marte."
10:34
This is the SiliconSilício ValleyVale versionversão
212
622116
1620
Esta é a versão de Silicon Valley
10:35
of "don't worrypreocupação your
prettybonita little headcabeça about it."
213
623760
2376
de "não preocupem a vossa
cabeça com isto."
10:38
(LaughterRiso)
214
626160
1336
(Risos)
10:39
No one seemsparece to noticeaviso prévio
215
627520
1896
Ninguém parece notar
10:41
that referencingfazendo referência a the time horizonhorizonte
216
629440
2616
que mencionar o horizonte do tempo
10:44
is a totaltotal nonNão sequitursequitur.
217
632080
2576
é um total "não se segue".
10:46
If intelligenceinteligência is just a matterimportam
of informationem formação processingem processamento,
218
634680
3256
Se a inteligência é apenas uma questão
de processamento de informação,
10:49
and we continuecontinuar to improvemelhorar our machinesmáquinas,
219
637960
2656
e continuarmos a melhorar
as nossas máquinas,
10:52
we will produceproduzir
some formFormato of superintelligencesuperinteligência.
220
640640
2880
iremos produzir
alguma forma de superinteligência.
10:56
And we have no ideaidéia
how long it will take us
221
644320
3656
Não fazemos ideia
quanto tempo iremos demorar
11:00
to createcrio the conditionscondições
to do that safelycom segurança.
222
648000
2400
a criar as condições
para o fazer em segurança.
11:04
Let me say that again.
223
652200
1296
Vou repetir.
11:05
We have no ideaidéia how long it will take us
224
653520
3816
Não sabemos quanto tempo vamos demorar
11:09
to createcrio the conditionscondições
to do that safelycom segurança.
225
657360
2240
para criar as condições
para fazê-lo em segurança.
11:12
And if you haven'tnão tem noticednotado,
50 yearsanos is not what it used to be.
226
660920
3456
Se ainda não repararam,
50 anos não é o que era dantes.
11:16
This is 50 yearsanos in monthsmeses.
227
664400
2456
Isto são 50 anos em meses.
11:18
This is how long we'venós temos had the iPhoneiPhone.
228
666880
1840
Isto é o tempo desde que temos o iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevisão.
229
669440
2600
Isto é o tempo em que "Os Simpsons"
têm estado na TV.
11:24
FiftyCinquenta yearsanos is not that much time
230
672680
2376
50 anos não é assim tanto tempo
11:27
to meetConheça one of the greatestmaior challengesdesafios
our speciesespécies will ever facecara.
231
675080
3160
para ir de encontro aos maiores desafios
que a nossa espécie irá enfrentar.
11:31
OnceVez again, we seemparecem to be failingfalhando
to have an appropriateadequado emotionalemocional responseresposta
232
679640
4016
Mais uma vez, parecemos estar a falhar
em ter uma resposta emocional apropriada
11:35
to what we have everycada reasonrazão
to believe is comingchegando.
233
683680
2696
para o que acreditamos
que está para vir.
11:38
The computercomputador scientistcientista StuartStuart RussellRussell
has a nicebom analogyanalogia here.
234
686400
3976
O cientista informático Stuart Russell
tem uma boa analogia para isto.
11:42
He said, imagineImagine that we receivedrecebido
a messagemensagem from an alienestrangeiro civilizationcivilização,
235
690400
4896
Disse: "Imaginem que recebemos
uma mensagem de uma civilização alienígena,
11:47
whichqual readler:
236
695320
1696
"que diz:
11:49
"People of EarthTerra,
237
697040
1536
" 'Habitantes da Terra,
11:50
we will arrivechegar on your planetplaneta in 50 yearsanos.
238
698600
2360
" vamos chegar ao vosso planeta
dentro de 50 anos.
11:53
Get readypronto."
239
701800
1576
" 'Preparem-se'."
11:55
And now we're just countingcontando down
the monthsmeses untilaté the mothershipnave-mãe landsterras?
240
703400
4256
Vamos contar os meses
até a nave-mãe aterrar?
11:59
We would feel a little
more urgencyurgência than we do.
241
707680
3000
Sentiríamos mais urgência
do que o habitual.
Outro motivo que nos dão
para não nos preocuparmos
12:04
AnotherOutro reasonrazão we're told not to worrypreocupação
242
712680
1856
12:06
is that these machinesmáquinas
can't help but sharecompartilhar our valuesvalores
243
714560
3016
é que estas máquinas
vão partilhar os nossos valores
12:09
because they will be literallyliteralmente
extensionsextensões of ourselvesnós mesmos.
244
717600
2616
pois serão literalmente
extensões de nós próprios.
12:12
They'llEles pensarão be graftedenxertadas ontopara our brainscérebro,
245
720240
1816
Serão implantadas no nosso cérebro,
12:14
and we'llbem essentiallyessencialmente
becometornar-se theirdeles limbicsistema límbico systemssistemas.
246
722080
2360
e seremos os seus sistemas límbicos.
12:17
Now take a momentmomento to considerconsiderar
247
725120
1416
Parem um momento para considerar
12:18
that the safestmais seguro
and only prudentprudente pathcaminho forwardprogressivo,
248
726560
3176
que o caminho mais prudente e seguro,
12:21
recommendedrecomendado,
249
729760
1336
o caminho recomendado,
12:23
is to implantimplante this technologytecnologia
directlydiretamente into our brainscérebro.
250
731120
2800
é implantar esta tecnologia
diretamente no nosso cérebro.
12:26
Now, this maypode in factfacto be the safestmais seguro
and only prudentprudente pathcaminho forwardprogressivo,
251
734600
3376
Isso poderá de facto ser
o caminho mais prudente e seguro,
12:30
but usuallygeralmente one'suns safetysegurança concernspreocupações
about a technologytecnologia
252
738000
3056
mas normalmente as questões
de segurança de uma tecnologia
12:33
have to be prettybonita much workedtrabalhou out
before you stickbastão it insidedentro your headcabeça.
253
741080
3656
devem estar bem trabalhadas
antes de serem enfiadas na nossa cabeça.
12:36
(LaughterRiso)
254
744760
2016
(Risos)
12:38
The deeperDeeper problemproblema is that
buildingconstrução superintelligentsuperinteligentes AIAI on its ownpróprio
255
746800
5336
O maior problema é que
construir IA superinteligente, por si só,
12:44
seemsparece likelyprovável to be easierMais fácil
256
752160
1736
parece ser mais fácil
12:45
than buildingconstrução superintelligentsuperinteligentes AIAI
257
753920
1856
do que construir IA superinteligente
12:47
and havingtendo the completedcompletado neuroscienceneurociência
258
755800
1776
e ter a neurociência completa
12:49
that allowspermite us to seamlesslyperfeitamente
integrateintegrar our mindsmentes with it.
259
757600
2680
que nos permita integrar facilmente
as nossas mentes com isso.
12:52
And givendado that the companiesempresas
and governmentsgovernos doing this work
260
760800
3176
Sabendo que as companhias
e os governos que fazem este trabalho
12:56
are likelyprovável to perceiveperceber themselvessi mesmos
as beingser in a racecorrida againstcontra all othersoutras,
261
764000
3656
provavelmente se consideram
numa corrida contra todos os outros,
12:59
givendado that to winganhar this racecorrida
is to winganhar the worldmundo,
262
767680
3256
sendo que ganhar esta corrida,
é ganhar o mundo,
13:02
providedforneceu you don't destroydestruir it
in the nextPróximo momentmomento,
263
770960
2456
desde que não o destruam
logo a seguir,
13:05
then it seemsparece likelyprovável
that whatevertanto faz is easierMais fácil to do
264
773440
2616
então é evidente que
o que for mais fácil
13:08
will get donefeito first.
265
776080
1200
será o primeiro a ser feito.
13:10
Now, unfortunatelyinfelizmente,
I don't have a solutionsolução to this problemproblema,
266
778560
2856
Infelizmente, não tenho
a solução para este problema,
13:13
apartseparados from recommendingrecomendar
that more of us think about it.
267
781440
2616
apenas posso recomendar
que pensemos mais nisto.
Acho que precisamos de algo
como o Projeto Manhattan
13:16
I think we need something
like a ManhattanManhattan ProjectProjeto
268
784080
2376
13:18
on the topictema of artificialartificial intelligenceinteligência.
269
786480
2016
no tópico da inteligência artificial.
13:20
Not to buildconstruir it, because I think
we'llbem inevitablyinevitavelmente do that,
270
788520
2736
Não para a construir —acho
que o faremos inevitavelmente —
13:23
but to understandCompreendo
how to avoidevitar an armsbraços racecorrida
271
791280
3336
mas para compreender
como evitar uma corrida ao armamento
13:26
and to buildconstruir it in a way
that is alignedalinhado with our interestsinteresses.
272
794640
3496
e para a construir de forma
a estar alinhada com os nossos interesses.
13:30
When you're talkingfalando
about superintelligentsuperinteligentes AIAI
273
798160
2136
Quando falamos na IA superinteligente
13:32
that can make changesalterar to itselfem si,
274
800320
2256
que pode alterar-se a si mesma,
13:34
it seemsparece that we only have one chancechance
to get the initialinicial conditionscondições right,
275
802600
4616
parece que só temos uma hipótese
para conseguir
as condições iniciais corretas,
13:39
and even then we will need to absorbabsorver
276
807240
2056
e mesmo assim precisaremos de absorver
13:41
the economiceconômico and politicalpolítico
consequencesconsequências of gettingobtendo them right.
277
809320
3040
as consequências económicas e politicas
para conseguir tal.
13:45
But the momentmomento we admitAdmitem
278
813760
2056
Mas a partir do momento em que admitirmos
13:47
that informationem formação processingem processamento
is the sourcefonte of intelligenceinteligência,
279
815840
4000
que o processamento de informação
é a fonte de inteligência,
13:52
that some appropriateadequado computationalcomputacional systemsistema
is what the basisbase of intelligenceinteligência is,
280
820720
4800
que algum sistema informático apropriado
é a base de inteligência,
13:58
and we admitAdmitem that we will improvemelhorar
these systemssistemas continuouslycontinuamente,
281
826360
3760
e admitirmos que iremos melhorar
estes sistemas de forma contínua,
14:03
and we admitAdmitem that the horizonhorizonte
of cognitionconhecimento very likelyprovável farlonge exceedsexcede
282
831280
4456
e admitirmos que o horizonte da cognição
provavelmente ultrapassa
o que conhecemos agora,
14:07
what we currentlyatualmente know,
283
835760
1200
14:10
then we have to admitAdmitem
284
838120
1216
então temos de admitir
14:11
that we are in the processprocesso
of buildingconstrução some sortordenar of god.
285
839360
2640
que estamos no processo
de construir uma espécie de deus.
14:15
Now would be a good time
286
843400
1576
Agora seria uma boa altura
de certificarmo-nos
14:17
to make sure it's a god we can liveviver with.
287
845000
1953
que seja um deus
com quem queremos viver.
14:20
Thank you very much.
288
848120
1536
Muito obrigado.
14:21
(ApplauseAplausos)
289
849680
5093
(Aplausos)
Translated by Carla Berjano
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com