ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Não temam a Inteligência Artificial superinteligente

Filmed:
2,866,438 views

A tecnologia nova gera ansiedades novas, diz o cientista e filósofo Grady Booch, mas não precisamos de temer a Inteligência Artificial todo-poderosa e insensível. Booch tranquiliza os nossos piores temores (induzidos pela ficção científica) sobre computadores superinteligentes, explicando como vamos ensiná-los, não a programá-los, a partilhar os nossos valores. Em vez de se preocupar com uma improvável ameaça existencial, ele exorta-nos a considerar como é que a inteligência artificial vai melhorar a vida humana.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidcriança,
I was the quintessentialpor excelência nerdnerd.
0
760
3840
Quando eu era miúdo,
era um grandessíssimo "nerd".
00:17
I think some of you were, too.
1
5320
2176
Acho que alguns de vocês também eram.
00:19
(LaughterRiso)
2
7520
1216
(Risos)
00:20
And you, sirSenhor, who laughedriu the loudestmais alto,
you probablyprovavelmente still are.
3
8760
3216
E o senhor, que riu mais alto,
provavelmente ainda é.
00:24
(LaughterRiso)
4
12000
2256
(Risos)
00:26
I grewcresceu up in a smallpequeno townCidade
in the dustyempoeirado plainsplanícies of northnorte TexasTexas,
5
14280
3496
Cresci numa cidade pequena
nas planícies empoeiradas
do norte do Texas,
00:29
the sonfilho of a sheriffXerife
who was the sonfilho of a pastorPastor.
6
17800
3336
filho de um xerife
que era filho de um pastor.
00:33
GettingFicando into troubleproblema was not an optionopção.
7
21160
1920
Meter-me em sarilhos estava fora de causa.
00:36
And so I startedcomeçado readingleitura
calculuscálculo bookslivros for funDiversão.
8
24040
3256
Por isso, comecei a ler
livros de cálculo por diversão.
00:39
(LaughterRiso)
9
27320
1536
(Risos)
00:40
You did, too.
10
28880
1696
Vocês também fizeram isso.
00:42
That led me to buildingconstrução a laserlaser
and a computercomputador and modelmodelo rocketsfoguetes,
11
30600
3736
Isso levou-me a construir um laser,
um computador e modelos de foguetões
00:46
and that led me to makingfazer
rocketfoguete fuelcombustível in my bedroomquarto.
12
34360
3000
e levou-me a fazer combustível
para foguetões, no meu quarto.
00:49
Now, in scientificcientífico termstermos,
13
37960
3656
Em termos científicos,
00:53
we call this a very badmau ideaidéia.
14
41640
3256
chamamos a isso uma ideia muito má.
00:56
(LaughterRiso)
15
44920
1216
(Risos)
00:58
Around that samemesmo time,
16
46160
2176
Por volta dessa época,
01:00
StanleyStanley Kubrick'sDe Kubrick "2001: A SpaceEspaço OdysseyOdisseia"
cameveio to the theatersteatros,
17
48360
3216
"2001: A Odisseia no Espaço", de
Stanley Kubrick, chegou ao cinema
01:03
and my life was foreverpara sempre changedmudou.
18
51600
2200
e a minha vida mudou para sempre.
01:06
I lovedAmado everything about that moviefilme,
19
54280
2056
Adorei tudo naquele filme,
01:08
especiallyespecialmente the HALHAL 9000.
20
56360
2536
especialmente o HAL 9000,
01:10
Now, HALHAL was a sentientconsciente computercomputador
21
58920
2056
O HAL era um computador sensível
01:13
designedprojetado to guideguia the DiscoveryDescoberta spacecraftnave espacial
22
61000
2456
concebido para guiar a astronave Discovery
01:15
from the EarthTerra to JupiterJúpiter.
23
63480
2536
da Terra para Júpiter.
01:18
HALHAL was alsoAlém disso a flawedfalho characterpersonagem,
24
66040
2056
O HAL também era
um personagem com defeitos,
01:20
for in the endfim he choseescolheu
to valuevalor the missionmissão over humanhumano life.
25
68120
4280
porque, no final, preferiu valorizar
a missão em vez da vida humana.
01:24
Now, HALHAL was a fictionalfictício characterpersonagem,
26
72840
2096
O HAL era uma personagem fictícia,
01:26
but nonethelessNão obstante he speaksfala to our fearsmedos,
27
74960
2656
mas, mesmo assim,
fala dos nossos medos,
01:29
our fearsmedos of beingser subjugatedsubjugados
28
77640
2096
dos nossos medos de sermos subjugados
01:31
by some unfeelinginsensível, artificialartificial intelligenceinteligência
29
79760
3016
por alguma inteligência
insensível, artificial
01:34
who is indifferentindiferente to our humanityhumanidade.
30
82800
1960
que é indiferente à nossa humanidade.
01:37
I believe that suchtal fearsmedos are unfoundedsem fundamento.
31
85880
2576
Acredito que tais medos são infundados.
01:40
IndeedNa verdade, we standficar de pé at a remarkablenotável time
32
88480
2696
Na verdade, estamos numa época notável
01:43
in humanhumano historyhistória,
33
91200
1536
da história humana,
01:44
where, drivendirigido by refusalrecusa to acceptaceitar
the limitslimites of our bodiescorpos and our mindsmentes,
34
92760
4976
em que, impelidos pela recusa de aceitar
os limites do nosso corpo e da nossa mente,
01:49
we are buildingconstrução machinesmáquinas
35
97760
1696
estamos a construir máquinas
01:51
of exquisiterequintado, beautifulbonita
complexitycomplexidade and gracegraça
36
99480
3616
de complexidade e graça
requintada e bonita
01:55
that will extendampliar the humanhumano experienceexperiência
37
103120
2056
que alargará a experiência humana
01:57
in waysmaneiras beyondalém our imaginingimaginando.
38
105200
1680
de formas para além da nossa imaginação.
Depois duma carreira que me levou
da Academia da Força Aérea
01:59
After a careercarreira that led me
from the AirAr ForceForça AcademyAcademia
39
107720
2576
02:02
to SpaceEspaço CommandComando to now,
40
110320
1936
até ao Comando Espacial, agora,
02:04
I becamepassou a ser a systemssistemas engineerengenheiro,
41
112280
1696
tornei-me engenheiro de sistemas,
02:06
and recentlyrecentemente I was drawndesenhado
into an engineeringEngenharia problemproblema
42
114000
2736
e recentemente, envolvi-me
num problema de engenharia
02:08
associatedassociado with NASA'sA NASA missionmissão to MarsMarte.
43
116760
2576
associado à missão da NASA em Marte.
02:11
Now, in spaceespaço flightsvôos to the MoonLua,
44
119360
2496
Em voos espaciais para a Lua,
02:13
we can relycontar com uponsobre
missionmissão controlao controle in HoustonHouston
45
121880
3136
podemos confiar no controlo
da missão em Houston
02:17
to watch over all aspectsaspectos of a flightvoar.
46
125040
1976
para observar todos os aspetos dum voo.
02:19
HoweverNo entanto, MarsMarte is 200 timesvezes furthermais distante away,
47
127040
3536
No entanto, Marte está
200 vezes mais longe
02:22
and as a resultresultado it takes
on averagemédia 13 minutesminutos
48
130600
3216
e, em resultado, são precisos
13 minutos, em média,
02:25
for a signalsinal to travelviagem
from the EarthTerra to MarsMarte.
49
133840
3136
para um sinal viajar
da Terra até Marte.
02:29
If there's troubleproblema,
there's not enoughsuficiente time.
50
137000
3400
Se houver problemas,
não há tempo suficiente.
02:32
And so a reasonablerazoável engineeringEngenharia solutionsolução
51
140840
2496
Assim, uma solução razoável de engenharia
02:35
callschamadas for us to put missionmissão controlao controle
52
143360
2576
pede-nos para pôr o controlo da missão
02:37
insidedentro the wallsparedes of the OrionOrion spacecraftnave espacial.
53
145960
3016
dentro das paredes
da astronave Orion.
02:41
AnotherOutro fascinatingfascinante ideaidéia
in the missionmissão profilePerfil
54
149000
2896
Uma outra ideia fascinante,
no perfil da missão,
02:43
placeslocais humanoidhumanoide robotsrobôs
on the surfacesuperfície of MarsMarte
55
151920
2896
coloca robôs humanoides
na superfície de Marte
02:46
before the humanshumanos themselvessi mesmos arrivechegar,
56
154840
1856
antes de os seres humanos chegarem,
02:48
first to buildconstruir facilitiesinstalações
57
156720
1656
primeiro para construir instalações
02:50
and latermais tarde to serveservir as collaborativecolaborativo
membersmembros of the scienceCiência teamequipe.
58
158400
3360
e depois, para servir como membros
colaborativos da equipa de ciência
02:55
Now, as I lookedolhou at this
from an engineeringEngenharia perspectiveperspectiva,
59
163400
2736
Como olhei para isto
numa perspetiva de engenharia
02:58
it becamepassou a ser very clearClaro to me
that what I needednecessário to architectarquiteto
60
166160
3176
percebi rapidamente que aquilo
de que precisava para arquitetar
03:01
was a smartinteligente, collaborativecolaborativo,
61
169360
2176
era de uma inteligência artificial,
03:03
sociallysocialmente intelligentinteligente
artificialartificial intelligenceinteligência.
62
171560
2376
esperta, colaborativa
e socialmente inteligente.
03:05
In other wordspalavras, I needednecessário to buildconstruir
something very much like a HALHAL
63
173960
4296
Por outras palavras, tinha de construir
algo muito parecido com um HAL
03:10
but withoutsem the homicidalhomicida tendenciestendências.
64
178280
2416
mas sem tendências homicidas.
03:12
(LaughterRiso)
65
180720
1360
(Risos)
03:14
Let's pausepausa for a momentmomento.
66
182920
1816
Vamos fazer uma pausa por um momento
03:16
Is it really possiblepossível to buildconstruir
an artificialartificial intelligenceinteligência like that?
67
184760
3896
Será realmente possível construir
uma inteligência artificial assim?
03:20
ActuallyNa verdade, it is.
68
188680
1456
Na verdade, é.
03:22
In manymuitos waysmaneiras,
69
190160
1256
De muitas formas,
03:23
this is a hardDifícil engineeringEngenharia problemproblema
70
191440
1976
isso é um árduo problema de engenharia
03:25
with elementselementos of AIAI,
71
193440
1456
com elementos de inteligência artificial,
03:26
not some wetmolhado haircabelo ballbola of an AIAI problemproblema
that needsprecisa to be engineeredprojetado.
72
194920
4696
não um problema complicado de IA
que precisa de ser projetado.
03:31
To paraphraseparáfrase AlanAlan TuringTuring,
73
199640
2656
Parafraseando Alan Turing,
não estou interessado
em construir uma máquina sensível.
03:34
I'm not interestedinteressado
in buildingconstrução a sentientconsciente machinemáquina.
74
202320
2376
03:36
I'm not buildingconstrução a HALHAL.
75
204720
1576
Não estou a construir um HAL.
03:38
All I'm after is a simplesimples braincérebro,
76
206320
2416
Só estou a procurar um cérebro simples,
03:40
something that offersofertas
the illusionilusão of intelligenceinteligência.
77
208760
3120
algo que ofereça a ilusão de inteligência.
03:45
The artarte and the scienceCiência of computingInformática
have come a long way
78
213000
3136
A arte e a ciência da informática
têm percorrido um longo caminho
03:48
sinceDesde a HALHAL was onscreenna tela,
79
216160
1496
desde que o HAL esteve no ecrã
03:49
and I'd imagineImagine if his inventorinventor
DrDr. ChandraChandra were here todayhoje,
80
217680
3216
e imagino que, se o seu inventor
Dr. Chandra estivesse aqui hoje,
03:52
he'dele teria have a wholetodo lot of questionsquestões for us.
81
220920
2336
teria um monte de questões para nós.
03:55
Is it really possiblepossível for us
82
223280
2096
Será realmente possível
03:57
to take a systemsistema of millionsmilhões
uponsobre millionsmilhões of devicesdispositivos,
83
225400
4016
termos um sistema de milhões
e milhões de dispositivos,
04:01
to readler in theirdeles datadados streamscórregos,
84
229440
1456
para ler nos fluxos de dados,
04:02
to predictprever theirdeles failuresfalhas
and actAja in advanceavançar?
85
230920
2256
prever as suas falhas
e agir com antecedência?
04:05
Yes.
86
233200
1216
É, sim.
04:06
Can we buildconstruir systemssistemas that converseConverse
with humanshumanos in naturalnatural languagelíngua?
87
234440
3176
Podemos construir sistemas que conversam
com humanos em língua natural?
04:09
Yes.
88
237640
1216
Podemos, sim.
04:10
Can we buildconstruir systemssistemas
that recognizereconhecer objectsobjetos, identifyidentificar emotionsemoções,
89
238880
2976
Podemos construir sistemas que
reconheçam objetos, identifiquem emoções,
04:13
emoteemote themselvessi mesmos,
playToque gamesjogos and even readler lipslábios?
90
241880
3376
se emocionem,
joguem jogos e até leiam lábios?
04:17
Yes.
91
245280
1216
Podemos, sim.
04:18
Can we buildconstruir a systemsistema that setsconjuntos goalsmetas,
92
246520
2136
Podemos construir um sistema
que estabeleça metas,
04:20
that carriescarrega out plansplanos againstcontra those goalsmetas
and learnsaprende alongao longo the way?
93
248680
3616
que execute planos para essas metas
e aprenda ao longo do caminho?
04:24
Yes.
94
252320
1216
Podemos, sim.
04:25
Can we buildconstruir systemssistemas
that have a theoryteoria of mindmente?
95
253560
3336
Podemos construir sistemas
que tenham uma teoria de pensamento?
04:28
This we are learningAprendendo to do.
96
256920
1496
Estamos a aprender a fazer isso.
04:30
Can we buildconstruir systemssistemas that have
an ethicalético and moralmoral foundationFundação?
97
258440
3480
Podemos construir sistemas que têm
um fundamento ético e moral?
04:34
This we mustdevo learnaprender how to do.
98
262480
2040
Temos de aprender a fazer isso.
04:37
So let's acceptaceitar for a momentmomento
99
265360
1376
Vamos aceitar, por instantes,
04:38
that it's possiblepossível to buildconstruir
suchtal an artificialartificial intelligenceinteligência
100
266760
2896
que é possível construir
essa inteligência artificial
04:41
for this kindtipo of missionmissão and othersoutras.
101
269680
2136
para este tipo de missão e outros.
04:43
The nextPróximo questionquestão
you mustdevo askpergunte yourselfvocê mesmo is,
102
271840
2536
A pergunta seguinte
que devemos fazer é:
04:46
should we fearmedo it?
103
274400
1456
Devemos ter medo dela?
04:47
Now, everycada newNovo technologytecnologia
104
275880
1976
Cada nova tecnologia
04:49
bringstraz with it
some measurea medida of trepidationtrepidação.
105
277880
2896
traz consigo uma certa trepidação.
04:52
When we first saw carscarros,
106
280800
1696
Quando viram carros pela primeira vez,
04:54
people lamentedlamentou that we would see
the destructiondestruição of the familyfamília.
107
282520
4016
as pessoas queixaram-se
de que veríamos a destruição da família.
04:58
When we first saw telephonestelefones come in,
108
286560
2696
Quando viram os telefones,
pela primeira vez,
05:01
people were worriedpreocupado it would destroydestruir
all civilCivil conversationconversação.
109
289280
2896
as pessoas recearam que fossem
destruir toda a conversação civil.
05:04
At a pointponto in time we saw
the writtenescrito wordpalavra becometornar-se pervasivepenetrante,
110
292200
3936
A certa altura, vimos a palavra escrita
tornar-se universal.
05:08
people thought we would loseperder
our abilityhabilidade to memorizememorizar.
111
296160
2496
As pessoas pensaram perder
a capacidade de memorizar.
05:10
These things are all trueverdade to a degreegrau,
112
298680
2056
Tudo isto é verdade, até certo ponto,
05:12
but it's alsoAlém disso the casecaso
that these technologiestecnologias
113
300760
2416
mas acontece também que essas tecnologias
05:15
broughttrouxe to us things
that extendedestendido the humanhumano experienceexperiência
114
303200
3376
trouxeram-nos coisas
que ampliaram a experiência humana
05:18
in some profoundprofundo waysmaneiras.
115
306600
1880
de formas profundas.
05:21
So let's take this a little furthermais distante.
116
309840
2280
Então, vamos levar isso
um pouco mais longe.
05:25
I do not fearmedo the creationcriação
of an AIAI like this,
117
313120
4736
Eu não temo a criação
duma IA como esta,
05:29
because it will eventuallyeventualmente
embodyincorporar some of our valuesvalores.
118
317880
3816
porque ela acabará por incorporar
alguns dos nossos valores.
05:33
ConsiderConsidere this: buildingconstrução a cognitivecognitivo systemsistema
is fundamentallyfundamentalmente differentdiferente
119
321720
3496
Considerem isto: construir um sistema
cognitivo é totalmente diferente
05:37
than buildingconstrução a traditionaltradicional
software-intensivesoftware-intensivo systemsistema of the pastpassado.
120
325240
3296
de construir um sistema tradicional
de software intensivo do passado.
05:40
We don't programprograma them. We teachEnsinar them.
121
328560
2456
Não os programamos. Ensinamo-los.
05:43
In orderordem to teachEnsinar a systemsistema
how to recognizereconhecer flowersflores,
122
331040
2656
Para ensinar um sistema
a reconhecer flores,
05:45
I showexposição it thousandsmilhares of flowersflores
of the kindstipos I like.
123
333720
3016
mostro-lhe milhares de flores
dos tipos que gosto.
05:48
In orderordem to teachEnsinar a systemsistema
how to playToque a gamejogos --
124
336760
2256
Para ensinar um sistema
a jogar um jogo...
05:51
Well, I would. You would, too.
125
339040
1960
— bem, eu ensinaria,
vocês também ensinariam.
05:54
I like flowersflores. Come on.
126
342600
2040
Adoro flores. Vamos lá.
05:57
To teachEnsinar a systemsistema
how to playToque a gamejogos like Go,
127
345440
2856
Para ensinar um sistema
a jogar um jogo como o Go,
06:00
I'd have it playToque thousandsmilhares of gamesjogos of Go,
128
348320
2056
deixá-lo-ia jogar
milhares de jogos do Go,
06:02
but in the processprocesso I alsoAlém disso teachEnsinar it
129
350400
1656
mas no processo também lhe ensino
06:04
how to discerndiscernir
a good gamejogos from a badmau gamejogos.
130
352080
2416
como discernir um jogo bom
de um jogo mau.
06:06
If I want to createcrio an artificiallyartificialmente
intelligentinteligente legallegal assistantAssistente,
131
354520
3696
Se eu quiser criar um assistente legal
artificialmente inteligente,
06:10
I will teachEnsinar it some corpuscorpus of lawlei
132
358240
1776
vou ensinar-lhe algumas noções de leis
06:12
but at the samemesmo time I am fusingde fusão with it
133
360040
2856
mas, ao mesmo tempo,
estou a introduzir-lhe
06:14
the sensesentido of mercymisericórdia and justicejustiça
that is partparte of that lawlei.
134
362920
2880
o sentido de piedade e de justiça
que faz parte dessas leis.
06:18
In scientificcientífico termstermos,
this is what we call groundchão truthverdade,
135
366560
2976
Em termos científicos, é aquilo
a que chamamos verdade fundamental,
06:21
and here'saqui está the importantimportante pointponto:
136
369560
2016
e este é o ponto importante:
06:23
in producingproduzindo these machinesmáquinas,
137
371600
1456
ao produzir estas máquinas,
06:25
we are thereforeassim sendo teachingensino them
a sensesentido of our valuesvalores.
138
373080
3416
estamos a ensinar-lhes
um sentido dos nossos valores.
06:28
To that endfim, I trustConfiar em
an artificialartificial intelligenceinteligência
139
376520
3136
Para esse fim, confio tanto
numa inteligência artificial,
06:31
the samemesmo, if not more,
as a humanhumano who is well-trainedbem treinados.
140
379680
3640
— ou mesmo mais — do que
num ser humano que é bem formado.
06:36
But, you maypode askpergunte,
141
384080
1216
Mas podem perguntar:
06:37
what about roguedesonestos agentsagentes,
142
385320
2616
"E quanto a agentes desonestos,
06:39
some well-fundedbem financiado
nongovernmentnão-governamentais organizationorganização?
143
387960
3336
"a alguma organização
não governamental bem financiada?"
06:43
I do not fearmedo an artificialartificial intelligenceinteligência
in the handmão of a lonesolitário wolfLobo.
144
391320
3816
Eu não temo uma inteligência artificial
na mão de um lobo solitário.
06:47
ClearlyClaramente, we cannotnão podes protectproteger ourselvesnós mesmos
againstcontra all randomaleatória actsatos of violenceviolência,
145
395160
4536
Claramente, não conseguimos proteger-nos
contra todos os atos
fortuitos de violência,
06:51
but the realityrealidade is suchtal a systemsistema
146
399720
2136
mas a realidade é que um sistema destes
06:53
requiresexige substantialsubstancial trainingTreinamento
and subtlesutil trainingTreinamento
147
401880
3096
requer formação substancial
e formação subtil
06:57
farlonge beyondalém the resourcesRecursos of an individualIndividual.
148
405000
2296
muito para além
dos recursos de um indivíduo.
06:59
And furthermorealém disso,
149
407320
1216
E além disso,
07:00
it's farlonge more than just injectinginjetando
an internetInternet virusvírus to the worldmundo,
150
408560
3256
é muito mais do que injetar
um vírus de Internet no mundo
07:03
where you pushempurrar a buttonbotão,
all of a suddende repente it's in a millionmilhão placeslocais
151
411840
3096
em que apertamos um botão,
e ele aparece num milhão de lugares
07:06
and laptopslaptops startcomeçar blowingsopro up
all over the placeLugar, colocar.
152
414960
2456
e os portáteis começam a explodir
por toda a parte.
07:09
Now, these kindstipos of substancessubstâncias
are much largermaior,
153
417440
2816
Estes tipos de substância
são muito maiores,
07:12
and we'llbem certainlyCertamente see them comingchegando.
154
420280
1715
e certamente vamos vê-los chegar.
07:14
Do I fearmedo that suchtal
an artificialartificial intelligenceinteligência
155
422520
3056
Será que receio
que essa inteligência artificial
07:17
mightpoderia threatenameaçam a all of humanityhumanidade?
156
425600
1960
possa ameaçar toda a humanidade?
07:20
If you look at moviesfilmes
suchtal as "The MatrixMatriz," "MetropolisMetrópolis,"
157
428280
4376
Se olharmos para filmes
como "The Matrix", "Metropolis",
"O Exterminador Implacável",
séries como "Westworld",
07:24
"The TerminatorExterminador do futuro,"
showsmostra suchtal as "WestworldWestworld,"
158
432680
3176
07:27
they all speakfalar of this kindtipo of fearmedo.
159
435880
2136
todos falam desse tipo de medo.
07:30
IndeedNa verdade, in the booklivro "SuperintelligenceSuperinteligência"
by the philosopherfilósofo NickNick BostromBostrom,
160
438040
4296
De facto, no livro "Superintelligence"
do filósofo Nick Bostrom,
07:34
he pickspicaretas up on this themetema
161
442360
1536
ele pega neste tema
07:35
and observesobserva that a superintelligencesuperinteligência
mightpoderia not only be dangerousperigoso,
162
443920
4016
e nota que uma superinteligência
pode não só ser perigosa,
07:39
it could representrepresentar an existentialexistencial threatameaça
to all of humanityhumanidade.
163
447960
3856
pode representar uma ameaça existencial
para toda a humanidade.
07:43
DrDr. Bostrom'sDo Bostrom basicbásico argumentargumento
164
451840
2216
O argumento básico do Dr. Bostrom
07:46
is that suchtal systemssistemas will eventuallyeventualmente
165
454080
2736
é que tais sistemas vão acabar por ter
07:48
have suchtal an insatiableinsaciável
thirstsede for informationem formação
166
456840
3256
uma tal ânsia insaciável de informação
07:52
that they will perhapspossivelmente learnaprender how to learnaprender
167
460120
2896
que talvez aprendam como aprender
07:55
and eventuallyeventualmente discoverdescobrir
that they maypode have goalsmetas
168
463040
2616
e acabem por descobrir
que podem ter metas
07:57
that are contrarycontrário to humanhumano needsprecisa.
169
465680
2296
que são contrárias
às necessidades humanas.
08:00
DrDr. BostromBostrom has a numbernúmero of followersseguidores.
170
468000
1856
O Dr. Bostrom tem muitos seguidores.
08:01
He is supportedapoiado by people
suchtal as ElonElon MuskAlmíscar and StephenStephen HawkingHawking.
171
469880
4320
É apoiado por pessoas como
Elon Musk e Stephen Hawking.
08:06
With all duevencimento respectrespeito
172
474880
2400
Com o devido respeito
08:10
to these brilliantbrilhante mindsmentes,
173
478160
2016
a essas mentes brilhantes,
08:12
I believe that they
are fundamentallyfundamentalmente wrongerrado.
174
480200
2256
acho que estão fundamentalmente errados.
08:14
Now, there are a lot of piecespeças
of DrDr. Bostrom'sDo Bostrom argumentargumento to unpackdescompactar,
175
482480
3176
Há muitas peças do argumento
do Dr. Bostrom para desmontar,
08:17
and I don't have time to unpackdescompactar them all,
176
485680
2136
mas não tenho tempo
para desmontá-las a todas,
08:19
but very brieflybrevemente, considerconsiderar this:
177
487840
2696
mas muito rapidamente,
considerem isto:
08:22
supersuper knowingsabendo is very differentdiferente
than supersuper doing.
178
490560
3736
o super conhecimento
é muito diferente da super ação.
08:26
HALHAL was a threatameaça to the DiscoveryDescoberta crewequipe técnica
179
494320
1896
O HAL só foi uma ameaça
para a tripulação do Discovery
08:28
only insofarna medida em que as HALHAL commandedcomandou
all aspectsaspectos of the DiscoveryDescoberta.
180
496240
4416
na medida em que o HAL comandava
todos os aspetos do Discovery.
08:32
So it would have to be
with a superintelligencesuperinteligência.
181
500680
2496
Então teria de ser com
superinteligência.
08:35
It would have to have dominiondomínio
over all of our worldmundo.
182
503200
2496
Teria que ter o domínio
sobre todo o nosso mundo.
08:37
This is the stuffcoisa of SkynetSkynet
from the moviefilme "The TerminatorExterminador do futuro"
183
505720
2816
Isto é o material do Skynet
de “O Exterminador Implacável”
08:40
in whichqual we had a superintelligencesuperinteligência
184
508560
1856
em que tínhamos uma superinteligência
08:42
that commandedcomandou humanhumano will,
185
510440
1376
que comandava a vontade humana,
08:43
that directeddirigido everycada devicedispositivo
that was in everycada cornercanto of the worldmundo.
186
511840
3856
que dirigia todos os dispositivos
que estavam pelo mundo inteiro.
08:47
PracticallyPraticamente speakingFalando,
187
515720
1456
Em termos práticos,
08:49
it ain'tnão é gonna happenacontecer.
188
517200
2096
isso não vai acontecer.
08:51
We are not buildingconstrução AIsAIs
that controlao controle the weatherclima,
189
519320
3056
Não estamos a construir IA
que controlam o tempo,
08:54
that directdireto the tidesmarés,
190
522400
1336
que dirigem as marés,
08:55
that commandcomando us
capriciouscaprichoso, chaoticcaótico humanshumanos.
191
523760
3376
que comandam os seres humanos
caprichosos e caóticos.
08:59
And furthermorealém disso, if suchtal
an artificialartificial intelligenceinteligência existedexistia,
192
527160
3896
E além disso, se existisse
tal inteligência artificial,
teria de competir com economias humanas,
09:03
it would have to competecompetir
with humanhumano economieseconomias,
193
531080
2936
09:06
and therebyassim competecompetir for resourcesRecursos with us.
194
534040
2520
e, portanto, competir connosco
pelos recursos.
09:09
And in the endfim --
195
537200
1216
E, no final,
09:10
don't tell SiriSiri this --
196
538440
1240
— não digam isto ao Siri —
09:12
we can always unplugDesligue them.
197
540440
1376
podemos sempre desligá-los.
09:13
(LaughterRiso)
198
541840
2120
(Risos)
09:17
We are on an incredibleincrível journeyviagem
199
545360
2456
Estamos numa viagem incrível
09:19
of coevolutioncoevolução with our machinesmáquinas.
200
547840
2496
de coevolução com as nossas máquinas.
09:22
The humanshumanos we are todayhoje
201
550360
2496
Os seres humanos que somos hoje
09:24
are not the humanshumanos we will be then.
202
552880
2536
não são os seres humanos
que seremos depois.
09:27
To worrypreocupação now about the risesubir
of a superintelligencesuperinteligência
203
555440
3136
Preocuparmo-nos agora com o aparecimento
duma superinteligência
09:30
is in manymuitos waysmaneiras a dangerousperigoso distractionDistração
204
558600
3056
é, em muitos aspetos,
uma diversão perigosa.
09:33
because the risesubir of computingInformática itselfem si
205
561680
2336
porque o aparecimento
da própria informática
09:36
bringstraz to us a numbernúmero
of humanhumano and societalsocietal issuesproblemas
206
564040
3016
traz-nos uma série
de questões humanas e sociais
09:39
to whichqual we mustdevo now attendassistir.
207
567080
1640
às quais devemos agora dar atenção.
09:41
How shalldeve I bestmelhor organizeorganizar societysociedade
208
569360
2816
Como é que organizo melhor a sociedade
09:44
when the need for humanhumano labortrabalho diminishesdiminui?
209
572200
2336
quando a necessidade
de trabalho humano diminui?
09:46
How can I bringtrazer understandingcompreensão
and educationEducação throughoutao longo the globeglobo
210
574560
3816
Como posso trazer compreensão
e educação a todo o mundo
09:50
and still respectrespeito our differencesdiferenças?
211
578400
1776
sem desrespeitar as nossas diferenças?
09:52
How mightpoderia I extendampliar and enhancerealçar humanhumano life
throughatravés cognitivecognitivo healthcarecuidados de saúde?
212
580200
4256
Como posso ampliar e melhorar a vida humana
através da assistência médica cognitiva?
09:56
How mightpoderia I use computingInformática
213
584480
2856
Como posso usar a informática
09:59
to help take us to the starsestrelas?
214
587360
1760
para nos levar às estrelas?
10:01
And that's the excitingemocionante thing.
215
589760
2040
E esta é a coisa excitante.
10:04
The opportunitiesoportunidades to use computingInformática
216
592400
2336
As oportunidades de usar a informática
10:06
to advanceavançar the humanhumano experienceexperiência
217
594760
1536
para fazer avançar a experiência humana
10:08
are withindentro our reachalcance,
218
596320
1416
estão ao nosso alcance,
aqui e agora,
10:09
here and now,
219
597760
1856
10:11
and we are just beginningcomeçando.
220
599640
1680
e estamos apenas a começar.
10:14
Thank you very much.
221
602280
1216
Muito obrigado.
10:15
(ApplauseAplausos)
222
603520
4286
(Aplausos)
Translated by Yali Gao
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com