ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky sobre a saúde e a mente humana

Filmed:
606,909 views

Listen closely -- Marvin Minsky's arch, eclectic, charmingly offhand talk on health, overpopulation and the human mind is packed with subtlety: wit, wisdom and just an ounce of wily, is-he-joking? advice.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you ask people about what part of psychology do they think is hard,
0
0
6000
Se você perguntar às pessoas sobre que parte da psicologia elas consideram difícil,
00:24
and you say, "Well, what about thinking and emotions?"
1
6000
3000
e você disser, bem, que tal raciocínio e emoções,
00:27
Most people will say, "Emotions are terribly hard.
2
9000
3000
a maioria das pessoas vai dizer, "Emoções são terrivelmente difíceis.
00:30
They're incredibly complex. They can't -- I have no idea of how they work.
3
12000
6000
Elas são incrivelmente complexas, elas não -- eu não tenho idéia de como funcionam.
00:36
But thinking is really very straightforward:
4
18000
2000
Mas o raciocínio é mesmo muito simples.
00:38
it's just sort of some kind of logical reasoning, or something.
5
20000
4000
É apenas um tipo de racionalização lógica ou algo assim.
00:42
But that's not the hard part."
6
24000
3000
Mas essa não é a parte difícil."
00:45
So here's a list of problems that come up.
7
27000
2000
Mas aqui está uma lista de problemas que aparecem.
00:47
One nice problem is, what do we do about health?
8
29000
3000
Um belo problema é: o que fazer sobre a saúde?
00:50
The other day, I was reading something, and the person said
9
32000
4000
Outro dia eu estava lendo algo, e a pessoa dizia
00:54
probably the largest single cause of disease is handshaking in the West.
10
36000
6000
provavelmente a principal causa individual de doenças no ocidente é o aperto de mão.
01:00
And there was a little study about people who don't handshake,
11
42000
4000
E havia um pequeno estudo sobre pessoas que não dão aperto de mão,
01:04
and comparing them with ones who do handshake.
12
46000
3000
e comparava elas com as que dão,
01:07
And I haven't the foggiest idea of where you find the ones that don't handshake,
13
49000
5000
e eu não tenho a mínima idéia de onde você encontra pessoas que recusam o aperto de mão,
01:12
because they must be hiding.
14
54000
3000
porque elas devem se esconder.
01:15
And the people who avoid that
15
57000
4000
E as pessoas que o evitam
01:19
have 30 percent less infectious disease or something.
16
61000
4000
têm 30% menos doenças infecciosas, ou perto disso.
01:23
Or maybe it was 31 and a quarter percent.
17
65000
3000
Ou talvez era 31,25%.
01:26
So if you really want to solve the problem of epidemics and so forth,
18
68000
4000
Então se você realmente quer resolver o problema de epidemias e etc.
01:30
let's start with that. And since I got that idea,
19
72000
4000
comecemos com isso. E uma vez que tive esta idéia,
01:34
I've had to shake hundreds of hands.
20
76000
4000
Eu tive de apertar centenas de mãos.
01:38
And I think the only way to avoid it
21
80000
5000
E eu acho que o único modo de evitar isso
01:43
is to have some horrible visible disease,
22
85000
2000
é ter alguma doença visível horrível,
01:45
and then you don't have to explain.
23
87000
3000
e então você não tem de dar explicações.
01:48
Education: how do we improve education?
24
90000
4000
Educação: como melhoramos a educação?
01:52
Well, the single best way is to get them to understand
25
94000
4000
Bem, a melhor forma é fazê-los endender
01:56
that what they're being told is a whole lot of nonsense.
26
98000
3000
que o que eles estão aprendendo é um monte de coisas sem sentido.
01:59
And then, of course, you have to do something
27
101000
2000
E então, é claro, você tem de fazer algo
02:01
about how to moderate that, so that anybody can -- so they'll listen to you.
28
103000
5000
para moderar isso, para que todos possam dar ouvidos a você.
02:06
Pollution, energy shortage, environmental diversity, poverty.
29
108000
4000
Poluição, escassez de energia, diversidade ambiental, pobreza --
02:10
How do we make stable societies? Longevity.
30
112000
4000
como criamos sociedades estáveis? Longevidade.
02:14
Okay, there're lots of problems to worry about.
31
116000
3000
OK, existem muitos problemas com que se preocupar.
02:17
Anyway, the question I think people should talk about --
32
119000
2000
De qualquer modo, a questão sobre a qual acho que deveria se falar --
02:19
and it's absolutely taboo -- is, how many people should there be?
33
121000
5000
e é um tabu absoluto -- é, quantas pessoas deveriam existir?
02:24
And I think it should be about 100 million or maybe 500 million.
34
126000
7000
E eu acho que deveria ser entre 100 milhões ou talvez 500 milhões.
02:31
And then notice that a great many of these problems disappear.
35
133000
5000
E então veja que muitos destes problemas desapareceriam.
02:36
If you had 100 million people
36
138000
2000
Se você tivesse 100 milhões de pessoas
02:38
properly spread out, then if there's some garbage,
37
140000
6000
devidamente espalhadas, então, se existe algum lixo,
02:44
you throw it away, preferably where you can't see it, and it will rot.
38
146000
7000
você joga fora, preferivelmente onde você não pode ver, e vai apodrecer.
02:51
Or you throw it into the ocean and some fish will benefit from it.
39
153000
5000
Ou você joga ele no oceano e algum peixe vai se beneficiar dele.
02:56
The problem is, how many people should there be?
40
158000
2000
O problema é, quantas pessoas deveriam existir?
02:58
And it's a sort of choice we have to make.
41
160000
3000
E é uma escolha que temos de fazer.
03:01
Most people are about 60 inches high or more,
42
163000
3000
A maioria das pessoas tem em torno de 1m80 ou mais,
03:04
and there's these cube laws. So if you make them this big,
43
166000
4000
e existe uma perda cúbica. Então se você os fizesse deste tamanho --
03:08
by using nanotechnology, I suppose --
44
170000
3000
usando nanotecnologia, suponho --
03:11
(Laughter)
45
173000
1000
(risos)
03:12
-- then you could have a thousand times as many.
46
174000
2000
-- então você poderia ter mil vezes mais.
03:14
That would solve the problem, but I don't see anybody
47
176000
2000
Isto resolveria o problema, mas não vejo ninguém
03:16
doing any research on making people smaller.
48
178000
3000
fazendo qualquer pesquisa sobre como tornar as pessoas menores.
03:19
Now, it's nice to reduce the population, but a lot of people want to have children.
49
181000
5000
É legal reduzir a população, mas muitas pessoas querem ter filhos.
03:24
And there's one solution that's probably only a few years off.
50
186000
3000
E existe uma solução que provavelmente está a alguns anos de existir.
03:27
You know you have 46 chromosomes. If you're lucky, you've got 23
51
189000
5000
Vocês sabem que têm 46 cromossomos. Se tiveram sorte, ganharam 23
03:32
from each parent. Sometimes you get an extra one or drop one out,
52
194000
6000
de cada um dos pais; às vezes você ganha um extra ou perde um,
03:38
but -- so you can skip the grandparent and great-grandparent stage
53
200000
4000
mas -- então você pode pular o estágio do avô e bisavô
03:42
and go right to the great-great-grandparent. And you have 46 people
54
204000
5000
e ir direto ao tataravô. E você tem 46 pessoas
03:47
and you give them a scanner, or whatever you need,
55
209000
3000
e você dá a eles um scanner, ou o que quer que precisem,
03:50
and they look at their chromosomes and each of them says
56
212000
4000
e elas analisam seus cromossomos, e cada uma diz
03:54
which one he likes best, or she -- no reason to have just two sexes
57
216000
5000
qual gosta mais, ou ela -- não há razão para haver só dois sexos
03:59
any more, even. So each child has 46 parents,
58
221000
5000
mesmo mais. Então cada filho tem 46 pais,
04:04
and I suppose you could let each group of 46 parents have 15 children.
59
226000
6000
e imagino que se poderia deixar cada grupo de 46 pais ter 15 filhos --
04:10
Wouldn't that be enough? And then the children
60
232000
2000
não seria suficiente? E então os filhos
04:12
would get plenty of support, and nurturing, and mentoring,
61
234000
4000
teriam muito apoio, e sustento e orientação
04:16
and the world population would decline very rapidly
62
238000
2000
e então a população mundial cairia muito rapidamente
04:18
and everybody would be totally happy.
63
240000
3000
e todos seriam totalmente felizes.
04:21
Timesharing is a little further off in the future.
64
243000
3000
Partilha de tempo está um pouco mais longe no futuro.
04:24
And there's this great novel that Arthur Clarke wrote twice,
65
246000
3000
E existe um ótimo romance que Arthur Clarke escreveu duas vezes,
04:27
called "Against the Fall of Night" and "The City and the Stars."
66
249000
4000
chamado "Against the Fall of Night" e "A Cidade e as Estrelas"
04:31
They're both wonderful and largely the same,
67
253000
3000
eles são ambos maravilhosos e praticamente iguais
04:34
except that computers happened in between.
68
256000
2000
exceto que computadores aconteceram no meio tempo.
04:36
And Arthur was looking at this old book, and he said, "Well, that was wrong.
69
258000
5000
E Arthur estava olhando para este velho livro, e disse, isso está errado.
04:41
The future must have some computers."
70
263000
2000
O futuro tem de ter alguns computadores.
04:43
So in the second version of it, there are 100 billion
71
265000
5000
Então na segunda versão dele, existem 100 bilhões,
04:48
or 1,000 billion people on Earth, but they're all stored on hard disks or floppies,
72
270000
8000
ou 1 trilhão de pessoas na Terra, mas elas estão todas armazenadas em discos rígidos ou disquetes,
04:56
or whatever they have in the future.
73
278000
2000
ou o que quer que exista no futuro.
04:58
And you let a few million of them out at a time.
74
280000
4000
E só a alguns milhões é permitido sair cada vez.
05:02
A person comes out, they live for a thousand years
75
284000
4000
Uma pessoa sai, vive por mil anos
05:06
doing whatever they do, and then, when it's time to go back
76
288000
6000
fazendo o que quiser, e então, quando é hora de voltar
05:12
for a billion years -- or a million, I forget, the numbers don't matter --
77
294000
4000
por um bilhão de anos -- ou um milhão, já esqueci, os números não importam --
05:16
but there really aren't very many people on Earth at a time.
78
298000
4000
mas não existe mesmo muita gente na terra de uma vez.
05:20
And you get to think about yourself and your memories,
79
302000
2000
E você pensa então sobre si e suas memórias,
05:22
and before you go back into suspension, you edit your memories
80
304000
5000
e antes de voltar à suspensão você edita suas memórias
05:27
and you change your personality and so forth.
81
309000
3000
e muda sua personalidade e etc.
05:30
The plot of the book is that there's not enough diversity,
82
312000
6000
A trama do livro é que não existe suficiente diversidade,
05:36
so that the people who designed the city
83
318000
3000
então as pessoas que desenharam a cidade
05:39
make sure that every now and then an entirely new person is created.
84
321000
4000
fazem com que de tempos em tempos uma pessoa inteiramente nova é criada.
05:43
And in the novel, a particular one named Alvin is created. And he says,
85
325000
6000
E neste romance, um indivíduo particular chamado Alvin é criado. E ele diz,
05:49
maybe this isn't the best way, and wrecks the whole system.
86
331000
4000
talvez esta não é a melhor forma, e destrói o sistema inteiro.
05:53
I don't think the solutions that I proposed
87
335000
2000
Não acho que as soluções que eu propus
05:55
are good enough or smart enough.
88
337000
3000
são boas o suficiente ou inteligentes o suficiente.
05:58
I think the big problem is that we're not smart enough
89
340000
4000
Acho que o grande problema é que não somos inteligentes o suficiente
06:02
to understand which of the problems we're facing are good enough.
90
344000
4000
para entender quais dos problemas que temos são bons o suficiente.
06:06
Therefore, we have to build super intelligent machines like HAL.
91
348000
4000
Portanto, temos de construir máquinas superinteligentes como o HAL.
06:10
As you remember, at some point in the book for "2001,"
92
352000
5000
Vocês devem lembrar, a certa altura do livro 2001,
06:15
HAL realizes that the universe is too big, and grand, and profound
93
357000
5000
HAL percebe que o universo é muito grande e profundo
06:20
for those really stupid astronauts. If you contrast HAL's behavior
94
362000
4000
para esses astronautas tão estúpidos. Se você contrastar o comportamento de HAL
06:24
with the triviality of the people on the spaceship,
95
366000
4000
com a trivialidade das pessoas na espaçonave,
06:28
you can see what's written between the lines.
96
370000
3000
você pode ver o que está escrito nas entrelinhas.
06:31
Well, what are we going to do about that? We could get smarter.
97
373000
3000
Bem, o que vamos fazer sobre isso? Podemos ficar mais inteligentes.
06:34
I think that we're pretty smart, as compared to chimpanzees,
98
376000
5000
Acho que já somos bem inteligentes, comparados com chimpanzés,
06:39
but we're not smart enough to deal with the colossal problems that we face,
99
381000
6000
mas não somos inteligentes o suficiente para lidar com os problemas colossais que enfrentamos,
06:45
either in abstract mathematics
100
387000
2000
seja na matemática abstrata
06:47
or in figuring out economies, or balancing the world around.
101
389000
5000
ou em entender economia ou manter o equilíbrio do mundo.
06:52
So one thing we can do is live longer.
102
394000
3000
Então uma coisa que podemos fazer é viver mais.
06:55
And nobody knows how hard that is,
103
397000
2000
E ninguém sabe quão difícil isso será,
06:57
but we'll probably find out in a few years.
104
399000
3000
mas vamos provavelmente descobrir em poucos anos.
07:00
You see, there's two forks in the road. We know that people live
105
402000
3000
Sabe, existem duas encruzilhadas na estrada. Sabemos que as pessoas vivem
07:03
twice as long as chimpanzees almost,
106
405000
4000
o dobro dos chimpanzés, quase,
07:07
and nobody lives more than 120 years,
107
409000
4000
e ninguém vive mais de 120 anos,
07:11
for reasons that aren't very well understood.
108
413000
3000
por razões ainda não bem compreendidas.
07:14
But lots of people now live to 90 or 100,
109
416000
3000
Mas muitas pessoas vivem até 90 ou 100,
07:17
unless they shake hands too much or something like that.
110
419000
4000
exceto se apertarem muitas mãos ou algo assim.
07:21
And so maybe if we lived 200 years, we could accumulate enough skills
111
423000
5000
Então talvez se vivêssemos 200 anos, poderíamos acumular habilidade suficiente
07:26
and knowledge to solve some problems.
112
428000
5000
e conhecimento para resolver alguns problemas.
07:31
So that's one way of going about it.
113
433000
2000
Esta é uma das formas de analisar isto.
07:33
And as I said, we don't know how hard that is. It might be --
114
435000
3000
Como eu disse, não sabemos quão difícil é. Pode ser --
07:36
after all, most other mammals live half as long as the chimpanzee,
115
438000
6000
afinal, a maioria dos outros mamíferos vivem a metade dos chimpanzés,
07:42
so we're sort of three and a half or four times, have four times
116
444000
3000
então estamos três e meia ou quatro vezes -- quatro vezes
07:45
the longevity of most mammals. And in the case of the primates,
117
447000
6000
a longevidade da maioria dos animais. E no caso dos primatas,
07:51
we have almost the same genes. We only differ from chimpanzees,
118
453000
4000
temos praticamente os mesmos genes. Nossa diferença para chimpanzés
07:55
in the present state of knowledge, which is absolute hogwash,
119
457000
6000
no estado atual da ciência -- que é lixo absoluto --
08:01
maybe by just a few hundred genes.
120
463000
2000
talvez algumas centenas de genes.
08:03
What I think is that the gene counters don't know what they're doing yet.
121
465000
3000
Eu acho realmente que os contadores de genes não sabem o que estão fazendo ainda.
08:06
And whatever you do, don't read anything about genetics
122
468000
3000
E o que quer que você faça, não leia nada sobre genética
08:09
that's published within your lifetime, or something.
123
471000
3000
que for publicado enquanto você viver, ou quase isso.
08:12
(Laughter)
124
474000
3000
(Risos)
08:15
The stuff has a very short half-life, same with brain science.
125
477000
4000
Essas coisas têm vida muito curta, assim como ciência cerebral.
08:19
And so it might be that if we just fix four or five genes,
126
481000
6000
Então pode ser que se nós só consertarmos quatro ou cinco genes,
08:25
we can live 200 years.
127
487000
2000
podemos viver 200 anos.
08:27
Or it might be that it's just 30 or 40,
128
489000
3000
Ou pode ser que sejam só 30 ou 40,
08:30
and I doubt that it's several hundred.
129
492000
2000
e duvido que sejam várias centenas.
08:32
So this is something that people will be discussing
130
494000
4000
Portanto isto é algo que as pessoas vão discutir
08:36
and lots of ethicists -- you know, an ethicist is somebody
131
498000
3000
e muitos eticistas -- sabem, um eticista é alguém
08:39
who sees something wrong with whatever you have in mind.
132
501000
3000
que vê algo errado com o que quer que você tenha em mente.
08:42
(Laughter)
133
504000
3000
(Risos)
08:45
And it's very hard to find an ethicist who considers any change
134
507000
4000
E é muito difícil de encontrar um eticista que considere qualquer mudança
08:49
worth making, because he says, what about the consequences?
135
511000
4000
válida de fazer, porque ele diz, e quanto às consequências?
08:53
And, of course, we're not responsible for the consequences
136
515000
3000
E é claro, não somos responsáveis pelas consequências
08:56
of what we're doing now, are we? Like all this complaint about clones.
137
518000
6000
do que estamos fazendo agora, somos? Como todo este barulho sobre clones.
09:02
And yet two random people will mate and have this child,
138
524000
3000
Ainda assim duas pessoas aleatórias que têm um filho,
09:05
and both of them have some pretty rotten genes,
139
527000
4000
e ambas têm alguns genes bem estragados,
09:09
and the child is likely to come out to be average.
140
531000
4000
e o filho é provável que seja mediano.
09:13
Which, by chimpanzee standards, is very good indeed.
141
535000
6000
O que para os padrões de um chimpanzé é muito bom.
09:19
If we do have longevity, then we'll have to face the population growth
142
541000
3000
Se tivermos longevidade, então teremos de encarar o crescimento populacional
09:22
problem anyway. Because if people live 200 or 1,000 years,
143
544000
4000
de qualquer modo. Porque se as pessoas viverem 200 ou 1000 anos,
09:26
then we can't let them have a child more than about once every 200 or 1,000 years.
144
548000
6000
então não podemos deixar que tenham um filho mais que uma vez a cada 200 ou 1000 anos.
09:32
And so there won't be any workforce.
145
554000
3000
Então não haverá mais trabalhadores.
09:35
And one of the things Laurie Garrett pointed out, and others have,
146
557000
4000
E uma das coisas que Laurie Garrett mencionou, e outros,
09:39
is that a society that doesn't have people
147
561000
5000
é que uma sociedade que não tem pessoas
09:44
of working age is in real trouble. And things are going to get worse,
148
566000
3000
em idade de trabalhar tem um sério problema. E as coisas vão piorar,
09:47
because there's nobody to educate the children or to feed the old.
149
569000
6000
porque não existirá ninguém para educar as crianças ou alimentar os idosos.
09:53
And when I'm talking about a long lifetime, of course,
150
575000
2000
E quando falo sobre uma vida longa, é claro,
09:55
I don't want somebody who's 200 years old to be like our image
151
577000
6000
não quero que alguém com 200 anos seja como nossa imagem
10:01
of what a 200-year-old is -- which is dead, actually.
152
583000
4000
do que é alguém assim velho agora -- morto, na verdade.
10:05
You know, there's about 400 different parts of the brain
153
587000
2000
Sabem, existem quase 400 diferentes partes do cérebro
10:07
which seem to have different functions.
154
589000
2000
que parecem ter diferentes funções.
10:09
Nobody knows how most of them work in detail,
155
591000
3000
Ninguém sabe como a maioria delas trabalha em detalhes,
10:12
but we do know that there're lots of different things in there.
156
594000
4000
mas sabemos que existem muitas coisas diferentes lá.
10:16
And they don't always work together. I like Freud's theory
157
598000
2000
E elas nem sempre trabalham juntas. Gosto da teoria de Freud
10:18
that most of them are cancelling each other out.
158
600000
4000
de que a maioria delas estão se cancelando mutuamente.
10:22
And so if you think of yourself as a sort of city
159
604000
4000
Então se você pensar em si como uma cidade
10:26
with a hundred resources, then, when you're afraid, for example,
160
608000
6000
com cem recursos, então, quando está preocupado, por exemplo,
10:32
you may discard your long-range goals, but you may think deeply
161
614000
4000
pode descartar suas metas de longo prazo, mas pode pensar profundamente
10:36
and focus on exactly how to achieve that particular goal.
162
618000
4000
e focar em exatamente como atingir uma meta particular.
10:40
You throw everything else away. You become a monomaniac --
163
622000
3000
Você joga todo o resto fora. Você se torna monomaníaco --
10:43
all you care about is not stepping out on that platform.
164
625000
4000
tudo com que se preocupa é não pular fora da plataforma.
10:47
And when you're hungry, food becomes more attractive, and so forth.
165
629000
4000
E quando você está com fome, a comida fica mais atraente, e etc.
10:51
So I see emotions as highly evolved subsets of your capability.
166
633000
6000
Portanto vejo emoções como altamente evoluídos subconjuntos de sua capacidade.
10:57
Emotion is not something added to thought. An emotional state
167
639000
4000
Emoção não é algo acrescentado ao pensamento. Um estado emocional
11:01
is what you get when you remove 100 or 200
168
643000
4000
é o que você obtém quando remove 100 ou 200
11:05
of your normally available resources.
169
647000
3000
dos seus recursos normalmente disponíveis.
11:08
So thinking of emotions as the opposite of -- as something
170
650000
3000
Então pensar sobre emoções como o oposto de algo
11:11
less than thinking is immensely productive. And I hope,
171
653000
4000
menos que pensar é imensamente produtivo. E espero,
11:15
in the next few years, to show that this will lead to smart machines.
172
657000
4000
nos próximos anos, mostrar que isto vai levar a máquinas inteligentes.
11:19
And I guess I better skip all the rest of this, which are some details
173
661000
3000
E acho que é melhor pular o resto disso, que são alguns detalhes
11:22
on how we might make those smart machines and --
174
664000
5000
sobre como podemos fazer estas máquinas inteligentes e --
11:27
(Laughter)
175
669000
5000
(Risos)
11:32
-- and the main idea is in fact that the core of a really smart machine
176
674000
5000
-- e a principal idéia é na verdade que o centro de uma máquina realmente inteligente
11:37
is one that recognizes that a certain kind of problem is facing you.
177
679000
5000
é uma que reconhece que você está encarando certo tipo de problema.
11:42
This is a problem of such and such a type,
178
684000
3000
que é um problema de tal-e-tal tipo,
11:45
and therefore there's a certain way or ways of thinking
179
687000
5000
e portanto existe um certo modo ou modos de pensar
11:50
that are good for that problem.
180
692000
2000
que são bons para esse problema.
11:52
So I think the future, main problem of psychology is to classify
181
694000
4000
Portanto acho que no futuro o maior problema da psicologia será classificar
11:56
types of predicaments, types of situations, types of obstacles
182
698000
4000
tipos de prognósticos, tipos de situações, tipos de obstáculos
12:00
and also to classify available and possible ways to think and pair them up.
183
702000
6000
e também classificar os modos de pensar disponíveis e possíveis e combiná-los.
12:06
So you see, it's almost like a Pavlovian --
184
708000
3000
Podemos ver que é quase como um Pavloviano --
12:09
we lost the first hundred years of psychology
185
711000
2000
perdemos os primeiros cem anos de psicologia
12:11
by really trivial theories, where you say,
186
713000
3000
com teorias realmente triviais onde se diz,
12:14
how do people learn how to react to a situation? What I'm saying is,
187
716000
6000
como as pessoas aprendem a reagir a uma situação? O que quero dizer é,
12:20
after we go through a lot of levels, including designing
188
722000
5000
depois de passar por muitos níveis, incluindo desenhar
12:25
a huge, messy system with thousands of ports,
189
727000
3000
um enorme e caótico sistema com milhares de partes,
12:28
we'll end up again with the central problem of psychology.
190
730000
4000
vamos terminar novamente com o problema central da psicologia.
12:32
Saying, not what are the situations,
191
734000
3000
Dizendo, não quais são as situações,
12:35
but what are the kinds of problems
192
737000
2000
mas quais são os tipos de problemas
12:37
and what are the kinds of strategies, how do you learn them,
193
739000
3000
e quais são os tipos de estratégias, como as aprendemos,
12:40
how do you connect them up, how does a really creative person
194
742000
3000
como as conectamos, como uma pessoa realmente criativa
12:43
invent a new way of thinking out of the available resources and so forth.
195
745000
5000
inventa um novo modo de pensar sobre os recursos disponíveis e etc.
12:48
So, I think in the next 20 years,
196
750000
2000
Portanto penso que nos próximos 20 anos,
12:50
if we can get rid of all of the traditional approaches to artificial intelligence,
197
752000
5000
Se pudermos nos livrar de todas as abordagens tradicionais à inteligência artificial,
12:55
like neural nets and genetic algorithms
198
757000
2000
como redes neurais e algoritmos genéticos
12:57
and rule-based systems, and just turn our sights a little bit higher to say,
199
759000
6000
e sistemas especialistas, e apenas elevar a perspectiva um pouco para dizer,
13:03
can we make a system that can use all those things
200
765000
2000
podemos fazer um sistema que possa usar todas estas coisas
13:05
for the right kind of problem? Some problems are good for neural nets;
201
767000
4000
para o tipo certo de problema? Alguns problemas são bons para redes neurais,
13:09
we know that others, neural nets are hopeless on them.
202
771000
3000
sabemos que para outros, redes neurais são inúteis.
13:12
Genetic algorithms are great for certain things;
203
774000
3000
Algoritmos genéticos são ótimos para certas coisas;
13:15
I suspect I know what they're bad at, and I won't tell you.
204
777000
4000
Suspeito que sei para que eles são ruins e não vou lhes dizer.
13:19
(Laughter)
205
781000
1000
(Risos)
13:20
Thank you.
206
782000
2000
Obrigado.
13:22
(Applause)
207
784000
6000
(Aplausos)
Translated by Fabio Ceconello
Reviewed by Rafael Eufrasio

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com