ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky habla sobre la salud y la mente humana

Filmed:
606,909 views

Escuchen con atención... la charla de Marvin Minsky sobre la salud, la superpoblación y la mente, traviesa, ecléctica y entretenida, está cargada de sutileza, ingenio, sabiduría y una pizca del consejo de un loco.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askpedir people about what partparte of psychologypsicología do they think is harddifícil,
0
0
6000
Si le preguntan a la gente qué parte de la psicología creen que es más difícil,
00:24
and you say, "Well, what about thinkingpensando and emotionsemociones?"
1
6000
3000
y dices, bueno, "¿qué hay del pensamiento y las emociones?"
00:27
MostMás people will say, "EmotionsEmociones are terriblyterriblemente harddifícil.
2
9000
3000
La mayoría de la gente dirá, "las emociones son muy complicadas.
00:30
They're incrediblyincreíblemente complexcomplejo. They can't -- I have no ideaidea of how they work.
3
12000
6000
Son increíblemente complejas, no pueden... No tengo ni idea de cómo funcionan¨.
00:36
But thinkingpensando is really very straightforwardsencillo:
4
18000
2000
Pero el pensamiento es muy directo:
00:38
it's just sortordenar of some kindtipo of logicallógico reasoningrazonamiento, or something.
5
20000
4000
es simplemente una especie de razonamiento lógico o algo así.
00:42
But that's not the harddifícil partparte."
6
24000
3000
Pero eso no es lo difícil.
00:45
So here'saquí está a listlista of problemsproblemas that come up.
7
27000
2000
Así que aquí hay una lista de problemas que surgen.
00:47
One nicebonito problemproblema is, what do we do about healthsalud?
8
29000
3000
Un problema fino es: ¿qué haremos con respecto a la salud?
00:50
The other day, I was readingleyendo something, and the personpersona said
9
32000
4000
El otro día estaba leyendo algo y la persona decía que probablemente
00:54
probablyprobablemente the largestmás grande singlesoltero causeporque of diseaseenfermedad is handshakingapretón de manos in the WestOeste.
10
36000
6000
dar la mano en occidente es el principal causante de enfermedades.
01:00
And there was a little studyestudiar about people who don't handshakeapretón de manos,
11
42000
4000
Y hubo un pequeño estudio sobre la gente que no da la mano,
01:04
and comparingcomparando them with onesunos who do handshakeapretón de manos.
12
46000
3000
que los comparaba con los que sí la dan,
01:07
And I haven'tno tiene the foggiestfoggiest ideaidea of where you find the onesunos that don't handshakeapretón de manos,
13
49000
5000
y no tengo ni remota idea de dónde se encuentran los que no dan la mano,
01:12
because they mustdebe be hidingocultación.
14
54000
3000
porque deben de estar escondidos.
01:15
And the people who avoidevitar that
15
57000
4000
Y la gente que evita eso tiene un 30% menos
01:19
have 30 percentpor ciento lessMenos infectiousinfeccioso diseaseenfermedad or something.
16
61000
4000
de posibilidades de contraer enfermedades contagiosas.
01:23
Or maybe it was 31 and a quartertrimestre percentpor ciento.
17
65000
3000
O quizás fuera un 31% y un cuarto.
01:26
So if you really want to solveresolver the problemproblema of epidemicsepidemias and so forthadelante,
18
68000
4000
Así que si realmente queremos solucionar el problema de las epidemias y demás,
01:30
let's startcomienzo with that. And sinceya que I got that ideaidea,
19
72000
4000
empecemos con eso. Y desde que se me ocurrió esa idea,
01:34
I've had to shakesacudir hundredscientos of handsmanos.
20
76000
4000
he dado la mano cientos de veces.
01:38
And I think the only way to avoidevitar it
21
80000
5000
Creo que la única manera de evitarlo
01:43
is to have some horriblehorrible visiblevisible diseaseenfermedad,
22
85000
2000
es tener algún tipo de enfermedad visiblemente horrorosa
01:45
and then you don't have to explainexplique.
23
87000
3000
y así no tienes que explicar nada.
01:48
EducationEducación: how do we improvemejorar educationeducación?
24
90000
4000
Educación: ¿cómo mejorar la educación?
01:52
Well, the singlesoltero bestmejor way is to get them to understandentender
25
94000
4000
Bueno, la mejor manera es hacer que entiendan
01:56
that what they're beingsiendo told is a wholetodo lot of nonsensedisparates.
26
98000
3000
que lo que se les cuenta son tonterías.
01:59
And then, of coursecurso, you have to do something
27
101000
2000
Claro, entonces, tienes que hacer algo
02:01
about how to moderatemoderar that, so that anybodynadie can -- so they'llellos van a listen to you.
28
103000
5000
para moderar eso y que así de alguna manera te escuchen a ti.
02:06
PollutionContaminación, energyenergía shortageescasez, environmentalambiental diversitydiversidad, povertypobreza.
29
108000
4000
Polución, carencia de energía, diversidad ambiental, pobreza...
02:10
How do we make stableestable societiessociedades? LongevityLongevidad.
30
112000
4000
¿Cómo crear sociedades estables? Longevidad.
02:14
Okay, there'rehay lots of problemsproblemas to worrypreocupación about.
31
116000
3000
Hay muchos problemas de los que preocuparse.
02:17
AnywayDe todas formas, the questionpregunta I think people should talk about --
32
119000
2000
En cualquier caso, la pregunta que creo que la gente debe hacerse -
02:19
and it's absolutelyabsolutamente tabootabú -- is, how manymuchos people should there be?
33
121000
5000
y es completamente tabú- es, ¿cuántas personas debería haber?
02:24
And I think it should be about 100 millionmillón or maybe 500 millionmillón.
34
126000
7000
Creo que debería haber sobre 100 millones, o quizá 500.
02:31
And then noticedarse cuenta that a great manymuchos of these problemsproblemas disappeardesaparecer.
35
133000
5000
Y entonces nos damos cuenta de que muchos de estos problemas desaparecen.
02:36
If you had 100 millionmillón people
36
138000
2000
Si tienes 100 millones de personas
02:38
properlycorrectamente spreaduntado out, then if there's some garbagebasura,
37
140000
6000
bien esparcidas, si hay algo de basura
02:44
you throwlanzar it away, preferablypreferiblemente where you can't see it, and it will rotputrefacción.
38
146000
7000
la tiras, preferentemente donde no se pueda ver, y se pudrirá.
02:51
Or you throwlanzar it into the oceanOceano and some fishpescado will benefitbeneficio from it.
39
153000
5000
O la tiras al océano y algunos peces se beneficiarán.
02:56
The problemproblema is, how manymuchos people should there be?
40
158000
2000
El problema es, ¿cuánta gente debería haber?
02:58
And it's a sortordenar of choiceelección we have to make.
41
160000
3000
Es una decisión que tenemos que tomar.
03:01
MostMás people are about 60 inchespulgadas highalto or more,
42
163000
3000
La mayoría de la gente mide 60 pulgadas o más,
03:04
and there's these cubecubo lawsleyes. So if you make them this biggrande,
43
166000
4000
y hay esta pérdida al cubo si los haces así de grandes -
03:08
by usingutilizando nanotechnologynanotecnología, I supposesuponer --
44
170000
3000
usando nanotecnología, supongo-
03:11
(LaughterRisa)
45
173000
1000
(Risas)
03:12
-- then you could have a thousandmil timesveces as manymuchos.
46
174000
2000
entonces podrían tener mil veces más.
03:14
That would solveresolver the problemproblema, but I don't see anybodynadie
47
176000
2000
Eso solucionaría el problema, pero no veo a nadie
03:16
doing any researchinvestigación on makingfabricación people smallermenor.
48
178000
3000
investigando cómo hacer a la gente más pequeña.
03:19
Now, it's nicebonito to reducereducir the populationpoblación, but a lot of people want to have childrenniños.
49
181000
5000
Claro que está bien reducir la población, pero mucha gente quiere tener hijos.
03:24
And there's one solutionsolución that's probablyprobablemente only a fewpocos yearsaños off.
50
186000
3000
Hay una solución que probablemente sólo está desfasada unos años.
03:27
You know you have 46 chromosomescromosomas. If you're luckysuerte, you've got 23
51
189000
5000
Saben que tienen 46 cromosomas. Si tienen suerte, tienen 23
03:32
from eachcada parentpadre. SometimesA veces you get an extraextra one or dropsoltar one out,
52
194000
6000
de cada padre; a veces tienes uno extra o uno menos,
03:38
but -- so you can skipomitir the grandparentabuelo and great-grandparentbisabuelo stageescenario
53
200000
4000
pero -de modo que saltarías la etapa de abuelo y bisabuelo
03:42
and go right to the great-great-grandparenttatara-tatara-abuelo. And you have 46 people
54
204000
5000
e irías directamente al tatarabuelo. Si tienes 46 personas
03:47
and you give them a scannerescáner, or whateverlo que sea you need,
55
209000
3000
y les das un escáner, o lo que necesites,
03:50
and they look at theirsu chromosomescromosomas and eachcada of them saysdice
56
212000
4000
y miran sus cromosomas y cada uno dice
03:54
whichcual one he likesgustos bestmejor, or she -- no reasonrazón to have just two sexessexos
57
216000
5000
cuál le gusta más, o ella- ya no hay razón para tener sólo dos sexos.
03:59
any more, even. So eachcada childniño has 46 parentspadres,
58
221000
5000
Así que cada hijo tiene 46 padres,
04:04
and I supposesuponer you could let eachcada groupgrupo of 46 parentspadres have 15 childrenniños.
59
226000
6000
y supongo que se puede dejar a cada grupo de 46 padres tener 15 hijos,
04:10
Wouldn'tNo lo haría that be enoughsuficiente? And then the childrenniños
60
232000
2000
¿no sería eso suficiente? De ese modo los niños
04:12
would get plentymucho of supportapoyo, and nurturingnutriendo, and mentoringtutoría,
61
234000
4000
tendrían suficiente apoyo, amor y modelos
04:16
and the worldmundo populationpoblación would declinedisminución very rapidlyrápidamente
62
238000
2000
y la población mundial se reduciría rápidamente
04:18
and everybodytodos would be totallytotalmente happycontento.
63
240000
3000
y todos serían totalmente felices.
04:21
TimesharingTiempo compartido is a little furtherpromover off in the futurefuturo.
64
243000
3000
El tiempo compartido está más alejado en el futuro.
04:24
And there's this great novelnovela that ArthurArturo ClarkeClarke wroteescribió twicedos veces,
65
246000
3000
Hay una gran novela que Arthur Clark escribió dos veces,
04:27
calledllamado "AgainstEn contra the FallOtoño of Night" and "The CityCiudad and the StarsEstrellas."
66
249000
4000
llamada "Tras la caída de la noche" y "La ciudad y las estrellas".
04:31
They're bothambos wonderfulmaravilloso and largelyen gran parte the samemismo,
67
253000
3000
Las dos son maravillosas y básicamente la misma,
04:34
exceptexcepto that computersordenadores happenedsucedió in betweenEntre.
68
256000
2000
sólo que las computadoras surgieron entre ambas,
04:36
And ArthurArturo was looking at this oldantiguo booklibro, and he said, "Well, that was wrongincorrecto.
69
258000
5000
y Arthur estaba mirando la novela más vieja, y dijo, "bueno, eso fue un error.
04:41
The futurefuturo mustdebe have some computersordenadores."
70
263000
2000
El futuro ha de tener ordenadores".
04:43
So in the secondsegundo versionversión of it, there are 100 billionmil millones
71
265000
5000
Así que en la segunda versión hay 100 millardos,
04:48
or 1,000 billionmil millones people on EarthTierra, but they're all storedalmacenado on harddifícil disksdiscos or floppiesdisquetes,
72
270000
8000
o 1.000 millardos de gente en la tierra, guardados en discos duros o disquetes,
04:56
or whateverlo que sea they have in the futurefuturo.
73
278000
2000
o lo que sea que tengan en el futuro.
04:58
And you let a fewpocos millionmillón of them out at a time.
74
280000
4000
Así que dejas salir a unos cuantos millones cada vez.
05:02
A personpersona comesproviene out, they livevivir for a thousandmil yearsaños
75
284000
4000
Sale una persona, vive mil años
05:06
doing whateverlo que sea they do, and then, when it's time to go back
76
288000
6000
haciendo lo que sea, y entonces, cuando hay que retroceder
05:12
for a billionmil millones yearsaños -- or a millionmillón, I forgetolvidar, the numbersnúmeros don't matterimportar --
77
294000
4000
un millardo de años -o un millón, lo olvido, las cifras no importan-
05:16
but there really aren'tno son very manymuchos people on EarthTierra at a time.
78
298000
4000
en realidad no hay mucha gente en la tierra a la vez.
05:20
And you get to think about yourselftú mismo and your memoriesrecuerdos,
79
302000
2000
Puedes pensar en ti mismo y tus recuerdos,
05:22
and before you go back into suspensionsuspensión, you editeditar your memoriesrecuerdos
80
304000
5000
y antes de volver a estar en suspensión editas tus recuerdos
05:27
and you changecambio your personalitypersonalidad and so forthadelante.
81
309000
3000
y cambias tu personalidad, y así sucesivamente.
05:30
The plottrama of the booklibro is that there's not enoughsuficiente diversitydiversidad,
82
312000
6000
La trama del libro es que no hay suficiente diversidad,
05:36
so that the people who designeddiseñado the cityciudad
83
318000
3000
así que la gente que diseñó la ciudad
05:39
make sure that everycada now and then an entirelyenteramente newnuevo personpersona is createdcreado.
84
321000
4000
se asegura de que cada cierto tiempo se cree una persona nueva.
05:43
And in the novelnovela, a particularespecial one namedllamado AlvinAlvin is createdcreado. And he saysdice,
85
325000
6000
En la novela, se crea una persona llamada Alvin, que dice:
05:49
maybe this isn't the bestmejor way, and wrecksnaufragios the wholetodo systemsistema.
86
331000
4000
"tal vez esta no es la mejor manera", y estropea todo el sistema.
05:53
I don't think the solutionssoluciones that I proposedpropuesto
87
335000
2000
No creo que las soluciones que propuse
05:55
are good enoughsuficiente or smartinteligente enoughsuficiente.
88
337000
3000
sean lo suficientemente buenas o inteligentes.
05:58
I think the biggrande problemproblema is that we're not smartinteligente enoughsuficiente
89
340000
4000
Creo que el gran problema es que no somos lo suficientemente listos
06:02
to understandentender whichcual of the problemsproblemas we're facingfrente a are good enoughsuficiente.
90
344000
4000
para entender cuáles de los problemas ante nosotros son lo suficientemente relevantes.
06:06
ThereforePor lo tanto, we have to buildconstruir supersúper intelligentinteligente machinesmáquinas like HALHAL.
91
348000
4000
Así que tenemos que construir máquinas sumamente inteligentes como HAL.
06:10
As you rememberrecuerda, at some pointpunto in the booklibro for "2001,"
92
352000
5000
Como recordarán, en un momento del libro para 2001,
06:15
HALHAL realizesse da cuenta that the universeuniverso is too biggrande, and grandgrandioso, and profoundprofundo
93
357000
5000
HAL se da cuenta de que el universo es demasiado grande, maravilloso y lleno de significado
06:20
for those really stupidestúpido astronautsastronautas. If you contrastcontraste HAL'sHAL behaviorcomportamiento
94
362000
4000
para unos astronautas tan estúpidos. Si comparan el comportamiento de HAL
06:24
with the trivialitytrivialidad of the people on the spaceshipastronave,
95
366000
4000
con la trivialidad de la gente en la nave,
06:28
you can see what's writtenescrito betweenEntre the lineslíneas.
96
370000
3000
verán lo que está escrito entre líneas.
06:31
Well, what are we going to do about that? We could get smartermás inteligente.
97
373000
3000
Y sobre eso, ¿qué vamos a hacer? Podríamos ser más listos.
06:34
I think that we're prettybonita smartinteligente, as comparedcomparado to chimpanzeeschimpancés,
98
376000
5000
Creo que somos bastante listos, comparados con los chimpancés.
06:39
but we're not smartinteligente enoughsuficiente to dealacuerdo with the colossalcolosal problemsproblemas that we facecara,
99
381000
6000
pero no lo bastante para lidiar con los colosales problemas ante nosotros,
06:45
eitherya sea in abstractabstracto mathematicsmatemáticas
100
387000
2000
sea en matemáticas abstractas,
06:47
or in figuringfigurando out economieseconomías, or balancingequilibrio the worldmundo around.
101
389000
5000
en economía, o en equilibrar el mundo.
06:52
So one thing we can do is livevivir longermás.
102
394000
3000
Algo que podemos hacer es vivir más.
06:55
And nobodynadie knowssabe how harddifícil that is,
103
397000
2000
Y nadie sabe lo difícil que es eso,
06:57
but we'llbien probablyprobablemente find out in a fewpocos yearsaños.
104
399000
3000
pero probablemente lo sabremos en unos años.
07:00
You see, there's two forkstenedores in the roadla carretera. We know that people livevivir
105
402000
3000
La carretera se bifurca. Sabemos que la gente vive
07:03
twicedos veces as long as chimpanzeeschimpancés almostcasi,
106
405000
4000
casi el doble que los chimpancés,
07:07
and nobodynadie livesvive more than 120 yearsaños,
107
409000
4000
y que nadie vive más de 120 años,
07:11
for reasonsrazones that aren'tno son very well understoodentendido.
108
413000
3000
por razones que no entendemos bien.
07:14
But lots of people now livevivir to 90 or 100,
109
416000
3000
Pero mucha gente vive 90 ó 100 años,
07:17
unlessa no ser que they shakesacudir handsmanos too much or something like that.
110
419000
4000
a menos que den demasiado la mano o algo así.
07:21
And so maybe if we livedvivió 200 yearsaños, we could accumulateacumular enoughsuficiente skillshabilidades
111
423000
5000
Así que tal vez si viviéramos 200 años, acumularíamos suficientes destrezas
07:26
and knowledgeconocimiento to solveresolver some problemsproblemas.
112
428000
5000
y conocimientos para solucionar algunos problemas.
07:31
So that's one way of going about it.
113
433000
2000
Esa es una forma de actuar.
07:33
And as I said, we don't know how harddifícil that is. It mightpodría be --
114
435000
3000
Y, como dije, no sabemos qué tan difícil es. Al fin y al cabo,
07:36
after all, mostmás other mammalsmamíferos livevivir halfmitad as long as the chimpanzeechimpancé,
115
438000
6000
la mayoría de los otros mamíferos viven la mitad que los chimpancés,
07:42
so we're sortordenar of threeTres and a halfmitad or fourlas cuatro timesveces, have fourlas cuatro timesveces
116
444000
3000
así que vivimos tres veces y media o cuatro... vivimos cuatro veces más
07:45
the longevitylongevidad of mostmás mammalsmamíferos. And in the casecaso of the primatesprimates,
117
447000
6000
que la mayoría de los mamíferos. En el caso de los primates,
07:51
we have almostcasi the samemismo genesgenes. We only differdiferir de from chimpanzeeschimpancés,
118
453000
4000
tenemos casi los mismos genes. Lo que nos separa de los chimpancés
07:55
in the presentpresente stateestado of knowledgeconocimiento, whichcual is absoluteabsoluto hogwashbazofia,
119
457000
6000
es el estado actual del saber, que es un total disparate,
08:01
maybe by just a fewpocos hundredcien genesgenes.
120
463000
2000
tal vez unas centenas de genes.
08:03
What I think is that the genegene counterscontadores don't know what they're doing yettodavía.
121
465000
3000
Creo que los contadores de genes aún no saben lo que están haciendo.
08:06
And whateverlo que sea you do, don't readleer anything about geneticsgenética
122
468000
3000
Y hagan lo que hagan, no lean nada sobre genética
08:09
that's publishedpublicado withindentro your lifetimetoda la vida, or something.
123
471000
3000
que se publique mientras vivan.
08:12
(LaughterRisa)
124
474000
3000
(Risas)
08:15
The stuffcosas has a very shortcorto half-lifemedia vida, samemismo with braincerebro scienceciencia.
125
477000
4000
Esas ideas tienen una esperanza de vida corta, al igual que las ciencias del cerebro.
08:19
And so it mightpodría be that if we just fixfijar fourlas cuatro or fivecinco genesgenes,
126
481000
6000
Así que tal vez si arreglamos cuatro o cinco genes,
08:25
we can livevivir 200 yearsaños.
127
487000
2000
podremos vivir 200 años.
08:27
Or it mightpodría be that it's just 30 or 40,
128
489000
3000
O tal vez sólo 30 ó 40,
08:30
and I doubtduda that it's severalvarios hundredcien.
129
492000
2000
dudo que varios centenares.
08:32
So this is something that people will be discussingque se discute
130
494000
4000
Esto es algo que la gente discutirá
08:36
and lots of ethicistsespecialistas en ética -- you know, an ethicistespecialista en ética is somebodyalguien
131
498000
3000
y muchos éticos -un ético es alguien
08:39
who seesve something wrongincorrecto with whateverlo que sea you have in mindmente.
132
501000
3000
que encuentra algo malo en todo lo que piensas.
08:42
(LaughterRisa)
133
504000
3000
(Risas)
08:45
And it's very harddifícil to find an ethicistespecialista en ética who considersconsidera any changecambio
134
507000
4000
Es difícil encontrar un experto en ética que considere cualquier cambio
08:49
worthvalor makingfabricación, because he saysdice, what about the consequencesConsecuencias?
135
511000
4000
digno de hacerse, porque dice, "¿y las consecuencias?"
08:53
And, of coursecurso, we're not responsibleresponsable for the consequencesConsecuencias
136
515000
3000
Y claro, no somos responsables de las consecuencias
08:56
of what we're doing now, are we? Like all this complaintqueja about clonesclones.
137
518000
6000
de lo que estamos haciendo ahora, ¿no? Como esta protesta sobre los clones.
09:02
And yettodavía two randomaleatorio people will matecompañero and have this childniño,
138
524000
3000
Y sin embargo dos personas al azar se aparearán y tendrán un hijo,
09:05
and bothambos of them have some prettybonita rottenpodrido genesgenes,
139
527000
4000
y aunque ambos tienen genes bastante podridos,
09:09
and the childniño is likelyprobable to come out to be averagepromedio.
140
531000
4000
es probable que el niño salga normal.
09:13
WhichCual, by chimpanzeechimpancé standardsestándares, is very good indeeden efecto.
141
535000
6000
Lo cual, para estándares chimpancés, está pero que muy bien.
09:19
If we do have longevitylongevidad, then we'llbien have to facecara the populationpoblación growthcrecimiento
142
541000
3000
Si ganamos en longevidad, tendremos que afrontar de todos modos el problema
09:22
problemproblema anywayde todas formas. Because if people livevivir 200 or 1,000 yearsaños,
143
544000
4000
del crecimiento problacional porque si la gente vive 200 ó 1.000 años,
09:26
then we can't let them have a childniño more than about onceuna vez everycada 200 or 1,000 yearsaños.
144
548000
6000
no podemos dejar que tengan más de un hijo cada 200 ó 1.000 años.
09:32
And so there won'tcostumbre be any workforcepersonal.
145
554000
3000
Así no habrá población activa.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedpuntiagudo out, and othersotros have,
146
557000
4000
Una de las cosas que Laurie Garrett, y otros, han señalado
09:39
is that a societysociedad that doesn't have people
147
561000
5000
es que una sociedad sin población activa
09:44
of workingtrabajando ageaños is in realreal troubleproblema. And things are going to get worsepeor,
148
566000
3000
es un problema grave. Y las cosas van a empeorar, porque
09:47
because there's nobodynadie to educateeducar the childrenniños or to feedalimentar the oldantiguo.
149
569000
6000
no hay nadie para educar a los niños o alimentar a los ancianos.
09:53
And when I'm talkinghablando about a long lifetimetoda la vida, of coursecurso,
150
575000
2000
Y cuando hablo de vidas largas, claro,
09:55
I don't want somebodyalguien who'squien es 200 yearsaños oldantiguo to be like our imageimagen
151
577000
6000
no quiero que alguien con 200 años tenga la imagen que tenemos
10:01
of what a 200-year-old-edad is -- whichcual is deadmuerto, actuallyactualmente.
152
583000
4000
de alguien con 200 años, es decir, muerto.
10:05
You know, there's about 400 differentdiferente partspartes of the braincerebro
153
587000
2000
Hay cerca de 400 partes diferentes en el cerebro
10:07
whichcual seemparecer to have differentdiferente functionsfunciones.
154
589000
2000
que parecen tener funciones diferentes.
10:09
NobodyNadie knowssabe how mostmás of them work in detaildetalle,
155
591000
3000
Nadie sabe los detalles de cómo funcionan muchas,
10:12
but we do know that there'rehay lots of differentdiferente things in there.
156
594000
4000
pero sabemos que ahí hay muchas cosas diferentes,
10:16
And they don't always work togetherjuntos. I like Freud'sFreud theoryteoría
157
598000
2000
y no siempre trabajan juntas. Me gusta la teoría de Freud
10:18
that mostmás of them are cancellingcancelado eachcada other out.
158
600000
4000
de que la mayoría se anulan.
10:22
And so if you think of yourselftú mismo as a sortordenar of cityciudad
159
604000
4000
Si piensas en ti mismo como en una ciudad
10:26
with a hundredcien resourcesrecursos, then, when you're afraidasustado, for exampleejemplo,
160
608000
6000
con cien recursos, entonces, cuando tienes miedo, por ejemplo,
10:32
you maymayo discarddescarte your long-rangede largo alcance goalsmetas, but you maymayo think deeplyprofundamente
161
614000
4000
tal vez descartes objetivos a largo plazo, pero puede que pienses en serio
10:36
and focusatención on exactlyexactamente how to achievelograr that particularespecial goalGol.
162
618000
4000
y te centres exactamente en cómo conseguir un objetivo concreto.
10:40
You throwlanzar everything elsemás away. You becomevolverse a monomaniacmonomaníaco --
163
622000
3000
Dejas todo lo demás de lado, te conviertes en un mononaníaco -
10:43
all you carecuidado about is not steppingcaminando out on that platformplataforma.
164
625000
4000
lo único que te preocupa es no salirte de esa plataforma.
10:47
And when you're hungryhambriento, foodcomida becomesse convierte more attractiveatractivo, and so forthadelante.
165
629000
4000
Y cuando tienes hambre, la comida se hace más apetecible y así sucesivamente.
10:51
So I see emotionsemociones as highlyaltamente evolvedevolucionado subsetssubconjuntos of your capabilitycapacidad.
166
633000
6000
Veo las emociones como subgrupos muy evolucionados de la capacidad de ustedes.
10:57
EmotionEmoción is not something addedadicional to thought. An emotionalemocional stateestado
167
639000
4000
La emoción no es algo que se añade al pensamiento. Un estado emocional
11:01
is what you get when you removeretirar 100 or 200
168
643000
4000
es lo que te queda cuando quitas 100 ó 200
11:05
of your normallynormalmente availabledisponible resourcesrecursos.
169
647000
3000
de tus recursos disponibles habitualmente.
11:08
So thinkingpensando of emotionsemociones as the oppositeopuesto of -- as something
170
650000
3000
Pensar en las emociones como algo opuesto, como algo
11:11
lessMenos than thinkingpensando is immenselyinmensamente productiveproductivo. And I hopeesperanza,
171
653000
4000
menos que el pensamiento es muy productivo, y espero,
11:15
in the nextsiguiente fewpocos yearsaños, to showespectáculo that this will leaddirigir to smartinteligente machinesmáquinas.
172
657000
4000
en los próximos años, que esto nos lleve a máquinas inteligentes.
11:19
And I guessadivinar I better skipomitir all the restdescanso of this, whichcual are some detailsdetalles
173
661000
3000
Supongo que lo mejor es que me salte el resto, son detalles sobre
11:22
on how we mightpodría make those smartinteligente machinesmáquinas and --
174
664000
5000
cómo hacer esas máquinas inteligentes -
11:27
(LaughterRisa)
175
669000
5000
(Risas)
11:32
-- and the mainprincipal ideaidea is in facthecho that the corenúcleo of a really smartinteligente machinemáquina
176
674000
5000
- la idea principal es que de hecho el corazón de una máquina inteligente
11:37
is one that recognizesreconoce that a certaincierto kindtipo of problemproblema is facingfrente a you.
177
679000
5000
es una máquina que reconoce cuándo te estás enfrentando a algún problema:
11:42
This is a problemproblema of suchtal and suchtal a typetipo,
178
684000
3000
«Este es un problema de tal o cual tipo».
11:45
and thereforepor lo tanto there's a certaincierto way or waysformas of thinkingpensando
179
687000
5000
Consecuentemente, hay ciertas maneras de pensar
11:50
that are good for that problemproblema.
180
692000
2000
que son buenas para ese problema.
11:52
So I think the futurefuturo, mainprincipal problemproblema of psychologypsicología is to classifyclasificar
181
694000
4000
Creo que el problema más importante para la psicología futura es clasificar
11:56
typestipos of predicamentspredicamentos, typestipos of situationssituaciones, typestipos of obstaclesobstáculos
182
698000
4000
tipos de problemas, de situaciones, de obstáculos
12:00
and alsoademás to classifyclasificar availabledisponible and possibleposible waysformas to think and pairpar them up.
183
702000
6000
y también clasificar maneras de pensar disponibles y emparejarlos.
12:06
So you see, it's almostcasi like a PavlovianPavloviano --
184
708000
3000
Así que ya ven, es casi como de Pavlov -
12:09
we lostperdió the first hundredcien yearsaños of psychologypsicología
185
711000
2000
perdimos los primeros cien años de psicología
12:11
by really trivialtrivial theoriesteorías, where you say,
186
713000
3000
en teorías realmente triviales que hablan de
12:14
how do people learnaprender how to reactreaccionar to a situationsituación? What I'm sayingdiciendo is,
187
716000
6000
cómo la gente aprende a reaccionar ante una situación. Lo que digo es,
12:20
after we go throughmediante a lot of levelsniveles, includingincluso designingdiseño
188
722000
5000
tras pasar por muchos niveles, incluyendo el diseño de un sistema
12:25
a hugeenorme, messysucio systemsistema with thousandsmiles of portspuertos,
189
727000
3000
enorme y desordenado con miles de partes,
12:28
we'llbien endfin up again with the centralcentral problemproblema of psychologypsicología.
190
730000
4000
terminaremos otra vez en el problema central de la psicología.
12:32
SayingDiciendo, not what are the situationssituaciones,
191
734000
3000
No nos preguntaremos: ¿cúales son las situaciones?,
12:35
but what are the kindsclases of problemsproblemas
192
737000
2000
sino: ¿cúales son los tipos de problemas?
12:37
and what are the kindsclases of strategiesestrategias, how do you learnaprender them,
193
739000
3000
¿Cúales son los tipos de estrategias? ¿Cómo se aprenden?
12:40
how do you connectconectar them up, how does a really creativecreativo personpersona
194
742000
3000
¿Cómo se conectan? ¿Cómo inventa una persona muy creativa
12:43
inventinventar a newnuevo way of thinkingpensando out of the availabledisponible resourcesrecursos and so forthadelante.
195
745000
5000
una forma nueva de pensar a partir de los recursos disponibles? Y así sucesivamente.
12:48
So, I think in the nextsiguiente 20 yearsaños,
196
750000
2000
Creo que en los próximos 20 años,
12:50
if we can get rideliminar of all of the traditionaltradicional approachesenfoques to artificialartificial intelligenceinteligencia,
197
752000
5000
si nos podemos librar de los acercamientos tradicionales a la inteligencia artificial,
12:55
like neuralneural netsredes and geneticgenético algorithmsAlgoritmos
198
757000
2000
como redes neuronales, algoritmos genéticos
12:57
and rule-basedbasado en reglas systemssistemas, and just turngiro our sightsmonumentos a little bitpoco highermayor to say,
199
759000
6000
y sistemas expertos, tendremos las miras más altas y nos preguntaremos
13:03
can we make a systemsistema that can use all those things
200
765000
2000
si podemos crear un sistema que pueda usar esas cosas para
13:05
for the right kindtipo of problemproblema? Some problemsproblemas are good for neuralneural netsredes;
201
767000
4000
el problema adecuado. Algunos problemas son buenos para redes neuronales;
13:09
we know that othersotros, neuralneural netsredes are hopelesssin esperanza on them.
202
771000
3000
sabemos que para otros las redes neurolanes son inútiles.
13:12
GeneticGenético algorithmsAlgoritmos are great for certaincierto things;
203
774000
3000
los algoritmos genéticos son estupendos para ciertas cosas;
13:15
I suspectsospechar I know what they're badmalo at, and I won'tcostumbre tell you.
204
777000
4000
sospecho saber para qué son malos y no se lo diré.
13:19
(LaughterRisa)
205
781000
1000
(Risas)
13:20
Thank you.
206
782000
2000
Gracias.
13:22
(ApplauseAplausos)
207
784000
6000
(Aplausos)
Translated by Ruth Alonso
Reviewed by Karla Villarreal-Leal

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com