English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: ¿Es posible crear inteligencia artificial sin perder control sobre ella?

Filmed:
3,322,366 views

¿Te asusta la super inteligente inteligencia artificial? Debería estarlo, dice el neurocientífico y filósofo Sam Harris y no solo de una manera teórica. Vamos a construir super máquinas, dice Harris, pero aún no entendemos los problemas que conlleva crear algo que podría tratarnos de la misma manera en que nosotros tratamos a las hormigas.

- Neuroscientist and philosopher
Sam Harris’ writings and scholarship cover a wide range of topics, from neuroscience and moral philosophy to religion, violence and human reasoning, with a focus on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Voy a hablar de un fallo intuitivo
00:13
I'm going to talk
about a failurefracaso of intuitionintuición
que muchos sufrimos.
00:15
that manymuchos of us suffersufrir from.
En realidad es la capacidad
de detectar cierto tipo de peligro.
00:17
It's really a failurefracaso
to detectdetectar a certaincierto kindtipo of dangerpeligro.
00:21
I'm going to describedescribir a scenarioguión
Describiré una situación que creo
que es tan aterradora como posible
00:23
that I think is bothambos terrifyingespantoso
00:26
and likelyprobable to occurocurrir,
00:28
and that's not a good combinationcombinación,
y veremos que eso no es
una buena combinación.
00:30
as it turnsvueltas out.
Y sin embargo, en lugar de sentir miedo,
00:32
And yettodavía rathermás bien than be scaredasustado,
mostmás of you will feel
la mayoría pensará que es
algo bastante interesante.
00:34
that what I'm talkinghablando about
is kindtipo of coolguay.
00:37
I'm going to describedescribir
how the gainsganancias we make
Describiré cómo los avances
en el campo de la inteligencia artificial,
00:40
in artificialartificial intelligenceinteligencia
en última instancia, podrían destruirnos.
00:42
could ultimatelypor último destroydestruir us.
00:43
And in facthecho, I think it's very difficultdifícil
to see how they won'tcostumbre destroydestruir us
Y, de hecho, me resulta muy difícil ver
que no nos destruirían
o nos ayudaran a destruirnos.
00:47
or inspireinspirar us to destroydestruir ourselvesNosotros mismos.
00:49
And yettodavía if you're anything like me,
Y sin embargo, si son como yo,
encontrarán que es divertido
pensar en estas cosas.
00:51
you'lltu vas a find that it's fundivertido
to think about these things.
Y esta manera de ver las cosas
es parte del problema.
00:53
And that responserespuesta is partparte of the problemproblema.
Esa reacción debería preocuparles.
00:57
OK? That responserespuesta should worrypreocupación you.
Si tuviera que convencerles
con esta charla
00:59
And if I were to convinceconvencer you in this talk
de que estamos al borde de sufrir
una hambruna a nivel mundial,
01:02
that we were likelyprobable
to suffersufrir a globalglobal faminehambruna,
debido al calentamiento global
o cualquier otra catástrofe,
01:06
eitherya sea because of climateclima changecambio
or some other catastrophecatástrofe,
y que sus nietos o sus bisnietos,
01:09
and that your grandchildrennietos,
or theirsu grandchildrennietos,
vivirán muy probablemente así,
01:12
are very likelyprobable to livevivir like this,
no pensarían:
01:15
you wouldn'tno lo haría think,
"Interesante.
01:17
"InterestingInteresante.
Me gusta esta charla TED".
01:18
I like this TEDTED Talk."
El hambre no es divertida
01:21
FamineHambruna isn't fundivertido.
La muerte en la ciencia ficción,
por el contrario, es algo divertido,
01:23
DeathMuerte by scienceciencia fictionficción,
on the other handmano, is fundivertido,
y lo más preocupante
en el desarrollo de la IA hoy en día
01:27
and one of the things that worriespreocupaciones me mostmás
about the developmentdesarrollo of AIAI at this pointpunto
es que parecemos incapaces de ofrecer
una respuesta emocional adecuada
01:31
is that we seemparecer unableincapaz to marshalmariscal
an appropriateapropiado emotionalemocional responserespuesta
frente a los peligros que se avecinan.
01:35
to the dangerspeligros that liementira aheadadelante.
01:37
I am unableincapaz to marshalmariscal this responserespuesta,
and I'm givingdando this talk.
Yo mismo soy incapaz de ello
y estoy dando esta charla.
01:42
It's as thoughaunque we standestar before two doorspuertas.
Es como si nos encontráramos
ante dos puertas.
Detrás de la puerta número uno
01:44
BehindDetrás doorpuerta numbernúmero one,
01:46
we stop makingfabricación progressProgreso
in buildingedificio intelligentinteligente machinesmáquinas.
detenemos el progreso
de máquinas inteligentes.
Nuestro hardware y software
se estancan simplemente, por alguna razón.
01:49
Our computercomputadora hardwarehardware and softwaresoftware
just stopsparadas gettingconsiguiendo better for some reasonrazón.
Traten de reflexionar por un momento
por qué podría suceder esto.
01:53
Now take a momentmomento
to considerconsiderar why this mightpodría happenocurrir.
01:57
I mean, givendado how valuablevalioso
intelligenceinteligencia and automationautomatización are,
Dada la valía de la inteligencia
y la automatización,
seguiremos mejorando
nuestra tecnología si es posible.
02:00
we will continuecontinuar to improvemejorar our technologytecnología
if we are at all ablepoder to.
¿Qué podría impedirnos hacer eso?
02:05
What could stop us from doing this?
¿Una guerra nuclear a gran escala?
02:07
A full-scaleEscala completa nuclearnuclear warguerra?
¿Una pandemia mundial?
02:11
A globalglobal pandemicpandemia?
¿El impacto de un asteroide?
02:14
An asteroidasteroide impactimpacto?
¿El hecho que Justin Bieber
podría ser el presidente de los EE.UU.?
02:17
JustinJustin BieberBieber becomingdevenir
presidentpresidente of the UnitedUnido StatesEstados?
02:20
(LaughterRisa)
(Risas)
El caso es que algo tendría que destruir
la civilización tal como la conocemos.
02:24
The pointpunto is, something would have to
destroydestruir civilizationcivilización as we know it.
Realmente deberíamos
imaginar algo terrible
02:29
You have to imagineimagina
how badmalo it would have to be
para dejar de
desarrollar nuestra tecnología
02:33
to preventevitar us from makingfabricación
improvementsmejoras in our technologytecnología
para siempre,
02:37
permanentlypermanentemente,
generación tras generación.
02:38
generationGeneracion after generationGeneracion.
Casi por definición, sería lo peor
02:40
AlmostCasi by definitiondefinición,
this is the worstpeor thing
en la historia humana.
02:42
that's ever happenedsucedió in humanhumano historyhistoria.
La única alternativa,
02:44
So the only alternativealternativa,
y esto es lo que hay detrás
de la puerta número dos,
02:45
and this is what liesmentiras
behinddetrás doorpuerta numbernúmero two,
02:48
is that we continuecontinuar
to improvemejorar our intelligentinteligente machinesmáquinas
es seguir mejorando
nuestras máquinas inteligentes
año tras año tras año.
02:51
yearaño after yearaño after yearaño.
En algún momento construiremos
máquinas más inteligentes que nosotros,
02:53
At a certaincierto pointpunto, we will buildconstruir
machinesmáquinas that are smartermás inteligente than we are,
y una vez que las tengamos
02:58
and onceuna vez we have machinesmáquinas
that are smartermás inteligente than we are,
03:00
they will beginempezar to improvemejorar themselvessí mismos.
empezarán a mejorarse a sí mismas.
Y entonces corremos el riesgo
teorizado por el matemático IJ Good
03:02
And then we riskriesgo what
the mathematicianmatemático IJIJ Good calledllamado
03:05
an "intelligenceinteligencia explosionexplosión,"
llamado "explosión de inteligencia"
03:07
that the processproceso could get away from us.
donde el proceso podría
salirse de control.
Esto es a menudo caricaturizado,
como lo he hecho aquí,
03:10
Now, this is oftena menudo caricaturedcaricaturizado,
as I have here,
como el miedo a que nos ataquen
ejércitos de robots maliciosos.
03:12
as a fearmiedo that armiesejércitos of maliciousmalicioso robotsrobots
03:16
will attackataque us.
Pero ese no es
el escenario más probable.
03:17
But that isn't the mostmás likelyprobable scenarioguión.
No es que nuestras máquinas
se volverán malignas espontáneamente.
03:20
It's not that our machinesmáquinas
will becomevolverse spontaneouslyespontáneamente malevolentmalévolo.
La preocupación verdadera
03:25
The concernpreocupación is really
that we will buildconstruir machinesmáquinas
al construir máquinas mucho
más competentes que nosotros
03:27
that are so much
more competentcompetente than we are
es que la menor diferencia
entre sus objetivos y los nuestros
03:29
that the slightestmenor divergencedivergencia
betweenEntre theirsu goalsmetas and our ownpropio
nos podría destruir.
03:33
could destroydestruir us.
Basta con pensar en nuestra
relación con las hormigas.
03:35
Just think about how we relaterelacionar to antshormigas.
03:38
We don't hateodio them.
No las odiamos.
No vamos por la vida lastimándolas.
03:40
We don't go out of our way to harmdaño them.
De hecho, a veces nos tomamos
la molestia de no hacerles daño.
03:42
In facthecho, sometimesa veces
we take painsesfuerzos not to harmdaño them.
03:44
We steppaso over them on the sidewalkacera.
Evitamos pisarlas en la acera.
Pero cada vez que su presencia
entra seriamente en conflicto
03:46
But whenevercuando theirsu presencepresencia
03:48
seriouslyseriamente conflictsconflictos with one of our goalsmetas,
con alguno de nuestros objetivos,
digamos, en la construcción
de un edificio como este,
03:51
let's say when constructingconstruyendo
a buildingedificio like this one,
03:53
we annihilateaniquilar them withoutsin a qualmescrúpulo.
las aniquilamos sin escrúpulos.
La preocupación es que algún día
construyamos máquinas
03:56
The concernpreocupación is that we will
one day buildconstruir machinesmáquinas
que, ya sea conscientemente o no,
03:59
that, whethersi they're consciousconsciente or not,
nos puedan tratar con
una indiferencia similar.
04:02
could treattratar us with similarsimilar disregardindiferencia.
Sospecho que esto pueda
parece inverosímil para muchos.
04:05
Now, I suspectsospechar this seemsparece
far-fetchedexagerado to manymuchos of you.
04:09
I betapuesta there are those of you who doubtduda
that superintelligentsuperinteligente AIAI is possibleposible,
Apuesto a que hay quienes dudan
de que la superinteligente IA sea posible
y mucho menos inevitable.
04:15
much lessMenos inevitableinevitable.
Pero en este caso hay que refutar
uno de los siguientes supuestos.
04:17
But then you mustdebe find something wrongincorrecto
with one of the followingsiguiendo assumptionssuposiciones.
Y hay solo tres.
04:21
And there are only threeTres of them.
La inteligencia es el procesamiento
de información en un sistema físico.
04:23
IntelligenceInteligencia is a matterimportar of informationinformación
processingtratamiento in physicalfísico systemssistemas.
En realidad, esto es poco
más que una suposición.
04:29
ActuallyActualmente, this is a little bitpoco more
than an assumptionsuposición.
Ya hemos incorporado inteligencia
limitada en nuestras máquinas,
04:31
We have alreadyya builtconstruido
narrowestrecho intelligenceinteligencia into our machinesmáquinas,
y aún así, muchas de estas máquinas actúan
a un nivel de inteligencia sobrehumana.
04:35
and manymuchos of these machinesmáquinas performrealizar
04:37
at a levelnivel of superhumansobrehumano
intelligenceinteligencia alreadyya.
Y sabemos que la mera materia da lugar
a lo que se llama "inteligencia general",
04:40
And we know that meremero matterimportar
04:43
can give risesubir to what is calledllamado
"generalgeneral intelligenceinteligencia,"
la capacidad de pensar con
flexibilidad en múltiples campos
04:46
an abilitycapacidad to think flexiblyflexiblemente
acrossa través de multiplemúltiple domainsdominios,
porque nuestros cerebro
humano ya lo ha conseguido.
04:49
because our brainssesos have managedmanejado it. Right?
Es decir, solo hay átomos aquí,
04:52
I mean, there's just atomsátomos in here,
y mientras continuemos
construyendo sistemas de átomos
04:56
and as long as we continuecontinuar
to buildconstruir systemssistemas of atomsátomos
que exhiban un comportamiento
más y más inteligente,
05:01
that displaymonitor more and more
intelligentinteligente behaviorcomportamiento,
terminaremos implementando, a menos
que lo interrumpamos, inteligencia general
05:04
we will eventuallyfinalmente,
unlessa no ser que we are interruptedinterrumpido,
05:06
we will eventuallyfinalmente
buildconstruir generalgeneral intelligenceinteligencia
en nuestras máquinas.
05:10
into our machinesmáquinas.
Es crucial comprender que
la velocidad no es el problema
05:11
It's crucialcrucial to realizedarse cuenta de
that the ratetarifa of progressProgreso doesn't matterimportar,
porque cualquier velocidad
es suficiente para llegar al fin.
05:15
because any progressProgreso
is enoughsuficiente to get us into the endfin zonezona.
No necesitamos la ley de Moore para
continuar ni un aumento exponencial.
05:18
We don't need Moore'sMoore lawley to continuecontinuar.
We don't need exponentialexponencial progressProgreso.
Solo tenemos que seguir adelante.
05:22
We just need to keep going.
El segundo supuesto es
que vamos a seguir adelante.
05:25
The secondsegundo assumptionsuposición
is that we will keep going.
Vamos a seguir mejorando
nuestras máquinas inteligentes.
05:29
We will continuecontinuar to improvemejorar
our intelligentinteligente machinesmáquinas.
05:33
And givendado the valuevalor of intelligenceinteligencia --
Y teniendo en cuenta
el valor de la inteligencia,
es decir, la inteligencia es o bien
la fuente de todo lo que valoramos
05:37
I mean, intelligenceinteligencia is eitherya sea
the sourcefuente of everything we valuevalor
o la necesidad por preservar
todo lo que valoramos.
05:40
or we need it to safeguardsalvaguardia
everything we valuevalor.
Es nuestro recurso más valioso.
05:43
It is our mostmás valuablevalioso resourcerecurso.
Por eso lo queremos hacer.
05:46
So we want to do this.
Tenemos problemas que necesitamos
desesperadamente resolver.
05:47
We have problemsproblemas
that we desperatelydesesperadamente need to solveresolver.
Queremos curar enfermedades
como el Alzheimer y el cáncer.
05:50
We want to curecura diseasesenfermedades
like Alzheimer'sAlzheimer and cancercáncer.
05:54
We want to understandentender economiceconómico systemssistemas.
We want to improvemejorar our climateclima scienceciencia.
Queremos entender
los sistemas económicos.
Queremos mejorar el clima.
05:58
So we will do this, if we can.
Vamos a hacer esto, si podemos.
El tren ya salió de la estación
y no hay frenos.
06:01
The traintren is alreadyya out of the stationestación,
and there's no brakefreno to pullHalar.
Por último, no estamos en
la cima de la inteligencia,
06:05
FinallyFinalmente, we don't standestar
on a peakpico of intelligenceinteligencia,
ni siquiera cerca, probablemente.
06:11
or anywhereen cualquier sitio nearcerca it, likelyprobable.
Y esto realmente es crucial.
06:13
And this really is the crucialcrucial insightvisión.
Esto es lo que hace nuestra
situación tan precaria,
06:15
This is what makeshace
our situationsituación so precariousprecario,
y esto es lo que hace
que nuestras intuiciones
06:18
and this is what makeshace our intuitionsintuiciones
about riskriesgo so unreliableno fidedigno.
sobre los riesgos sean poco fiables.
Piensen en la persona más inteligente
que jamás haya vivido.
06:23
Now, just considerconsiderar the smartestmás inteligente personpersona
who has ever livedvivió.
06:26
On almostcasi everyone'stodos shortlistlista corta here
is JohnJohn vonvon NeumannNeumann.
En la lista de casi todos
está John Von Neumann.
La impresión que hacía Von Neumann
en las personas a su alrededor,
06:30
I mean, the impressionimpresión that vonvon NeumannNeumann
madehecho on the people around him,
incluyendo los más grandes
matemáticos y físicos de su época,
06:33
and this includedincluido the greatestmejor
mathematiciansmatemáticos and physicistsfísicos of his time,
está bastante bien documentada.
06:37
is fairlybastante well-documentedbien documentada.
Si solo la mitad de las historias
sobre él fueran una verdad a medias,
06:39
If only halfmitad the storiescuentos
about him are halfmitad truecierto,
no hay duda
06:43
there's no questionpregunta
de que es una de las personas
más inteligentes que ha vivido.
06:44
he's one of the smartestmás inteligente people
who has ever livedvivió.
06:47
So considerconsiderar the spectrumespectro of intelligenceinteligencia.
Así que consideren
el espectro de la inteligencia.
Aquí tenemos a John Von Neumann.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
Y aquí estamos tú y yo.
06:53
And then we have you and me.
Y luego tenemos un pollo.
06:56
And then we have a chickenpollo.
06:57
(LaughterRisa)
Lo sentimos, una gallina.
06:59
Sorry, a chickenpollo.
07:00
(LaughterRisa)
No hay por qué hacer esta charla
más deprimente de lo que ya es.
07:01
There's no reasonrazón for me to make this talk
more depressingdeprimente than it needsnecesariamente to be.
(Risas)
07:05
(LaughterRisa)
Sin embargo, parece muy probable
que el espectro de la inteligencia
07:08
It seemsparece overwhelminglyabrumadoramente likelyprobable, howeversin embargo,
that the spectrumespectro of intelligenceinteligencia
se extienda mucho más allá
de lo que actualmente concebimos,
07:11
extendsse extiende much furtherpromover
than we currentlyactualmente conceiveconcebir,
y si construimos máquinas
más inteligentes que nosotros,
07:15
and if we buildconstruir machinesmáquinas
that are more intelligentinteligente than we are,
muy probablemente
explorarán este espectro
07:19
they will very likelyprobable
exploreexplorar this spectrumespectro
de maneras que no podemos imaginar,
07:21
in waysformas that we can't imagineimagina,
y nos superarán de maneras inimaginables.
07:23
and exceedexceder us in waysformas
that we can't imagineimagina.
Y es importante saber que esto
es cierto solo debido a la velocidad.
07:27
And it's importantimportante to recognizereconocer that
this is truecierto by virtuevirtud of speedvelocidad alonesolo.
Así que imaginen que acabamos
de construir una IA superinteligente
07:31
Right? So imagineimagina if we just builtconstruido
a superintelligentsuperinteligente AIAI
que no fuera más inteligente
07:36
that was no smartermás inteligente
than your averagepromedio teamequipo of researchersinvestigadores
que el promedio del equipo de
investigadores en Stanford o el MIT.
07:39
at StanfordStanford or MITMIT.
Los circuitos electrónicos funcionan
07:42
Well, electronicelectrónico circuitscircuitos
functionfunción about a millionmillón timesveces fasterMás rápido
aproximadamente un millón de veces
más rápido que los bioquímicos,
07:45
than biochemicalbioquímico onesunos,
07:46
so this machinemáquina should think
about a millionmillón timesveces fasterMás rápido
así que esta máquina debe pensar
un millón de veces más rápido
07:49
than the mindsmentes that builtconstruido it.
que las mentes que la construyeron.
07:51
So you setconjunto it runningcorriendo for a weeksemana,
Con una semana funcionando
07:53
and it will performrealizar 20,000 yearsaños
of human-levelnivel humano intellectualintelectual work,
llevará a cabo 20 000 años
de trabajo intelectual a nivel humano,
semana tras semana tras semana.
07:58
weeksemana after weeksemana after weeksemana.
¿Cómo podríamos siquiera comprender,
mucho menos restringir,
08:01
How could we even understandentender,
much lessMenos constrainconstreñir,
una mente que progresa de esta manera?
08:04
a mindmente makingfabricación this sortordenar of progressProgreso?
Algo más que es francamente preocupante
08:08
The other thing that's worryingpreocupante, franklyfrancamente,
es imaginar el mejor de los casos.
08:11
is that, imagineimagina the bestmejor casecaso scenarioguión.
Imaginemos que diseñamos
una IA superinteligente
08:16
So imagineimagina we hitgolpear uponsobre a designdiseño
of superintelligentsuperinteligente AIAI
que no tiene problemas de seguridad.
08:20
that has no safetyla seguridad concernspreocupaciones.
Tenemos el diseño perfecto a la primera.
08:21
We have the perfectPerfecto designdiseño
the first time around.
Es como si nos dieran un oráculo
08:24
It's as thoughaunque we'venosotros tenemos been handedentregó an oracleoráculo
que se comporta exactamente
como se espera.
08:27
that behavesse comporta exactlyexactamente as intendeddestinado a.
Esta máquina sería el dispositivo
de ahorro de mano de obra perfecta.
08:29
Well, this machinemáquina would be
the perfectPerfecto labor-savingahorro de trabajo devicedispositivo.
Puede diseñar la máquina
que puede construir la máquina
08:33
It can designdiseño the machinemáquina
that can buildconstruir the machinemáquina
que pueda hacer cualquier trabajo físico,
08:36
that can do any physicalfísico work,
08:37
poweredmotorizado by sunlightluz de sol,
impulsada por la luz solar,
más o menos por el costo
de las materias primas.
08:39
more or lessMenos for the costcosto
of rawcrudo materialsmateriales.
Estamos hablando del fin
del trabajo pesado humano.
08:42
So we're talkinghablando about
the endfin of humanhumano drudgerytrabajo penoso.
08:45
We're alsoademás talkinghablando about the endfin
of mostmás intellectualintelectual work.
También estamos hablando del fin
de la mayoría del trabajo intelectual.
Entonces, ¿qué harían simios como
nosotros en estas circunstancias?
08:49
So what would apessimios like ourselvesNosotros mismos
do in this circumstancecircunstancia?
08:52
Well, we'dmie be freegratis to playjugar FrisbeeFrisbee
and give eachcada other massagesmasajes.
Pues, podríamos jugar
al Frisbee y darnos masajes.
Tomar un poco de LSD
e inventar modas ridículas
08:57
AddAñadir some LSDLSD and some
questionablecuestionable wardrobeguardarropa choiceselecciones,
y todo el mundo podríamos
parecernos a un festival de rock.
09:00
and the wholetodo worldmundo
could be like BurningArdiente Man.
09:02
(LaughterRisa)
(Risas)
Puede parecer muy bueno,
pero hay que preguntarse
09:06
Now, that mightpodría soundsonar prettybonita good,
09:09
but askpedir yourselftú mismo what would happenocurrir
qué pasaría con nuestro orden
económico y político actual.
09:11
underdebajo our currentcorriente economiceconómico
and politicalpolítico orderorden?
Podríamos presenciar
09:14
It seemsparece likelyprobable that we would witnesstestigo
un nivel de desigualdad
de la riqueza y el desempleo
09:16
a levelnivel of wealthriqueza inequalitydesigualdad
and unemploymentdesempleo
nunca antes visto
09:21
that we have never seenvisto before.
sin la voluntad de poner esta
nueva riqueza inmediatamente
09:22
AbsentAusente a willingnesscomplacencia
to immediatelyinmediatamente put this newnuevo wealthriqueza
09:25
to the serviceServicio of all humanityhumanidad,
al servicio de toda la humanidad,
y unos poco trillonarios estarían en
las portadas de las revistas de negocios
09:27
a fewpocos trillionairestrillonarios could gracegracia
the coverscubiertas of our businessnegocio magazinesrevistas
mientras que el resto del mundo
tendría la libertad de morirse de hambre.
09:31
while the restdescanso of the worldmundo
would be freegratis to starvemorir de hambre.
09:34
And what would the RussiansRusos
or the Chinesechino do
Y ¿qué pasaría si los rusos
o los chinos se enteraran
09:36
if they heardoído that some companyempresa
in SiliconSilicio ValleyValle
de que alguna empresa en Silicon Valley
está a punto de crear
una IA superinteligente?
09:39
was about to deploydesplegar a superintelligentsuperinteligente AIAI?
Esta máquina podría ser
capaz de hacer la guerra,
09:42
This machinemáquina would be capablecapaz
of waginglibrando warguerra,
ya sea terrestre o cibernética,
09:44
whethersi terrestrialterrestre or cybercyber,
con un poder sin precedentes.
09:47
with unprecedentedsin precedentes powerpoder.
En este escenario
el ganador se lleva todo.
09:50
This is a winner-take-allEl ganador lo toma todo scenarioguión.
Seis meses adelante en la competencia
09:52
To be sixseis monthsmeses aheadadelante
of the competitioncompetencia here
sería una ventaja de 500 000 años,
09:55
is to be 500,000 yearsaños aheadadelante,
como mínimo.
09:57
at a minimummínimo.
Parecería que incluso meros
rumores de este tipo de avance
09:59
So it seemsparece that even meremero rumorsrumores
of this kindtipo of breakthroughpenetración
podría causar que nuestra
especie se vuelva loca.
10:04
could causeporque our speciesespecies to go berserkenloquecido.
Una de las cosas más aterradoras,
10:06
Now, one of the mostmás frighteningaterrador things,
en mi opinión, en este momento,
10:09
in my viewver, at this momentmomento,
son el tipo de cosas que dicen
los investigadores de IA
10:12
are the kindsclases of things
that AIAI researchersinvestigadores say
cuando quieren tranquilizarnos.
10:16
when they want to be reassuringtranquilizador.
Y el motivo invocado más frecuentemente
de que no nos preocupemos es el tiempo.
10:19
And the mostmás commoncomún reasonrazón
we're told not to worrypreocupación is time.
Falta mucho para eso, no se preocupen.
10:22
This is all a long way off,
don't you know.
Eso será probablemente
dentro de 50 o 100 años.
10:24
This is probablyprobablemente 50 or 100 yearsaños away.
Un investigador dijo,
10:27
One researcherinvestigador has said,
"Preocuparse por la seguridad
y todo lo relacionado con la IA
10:29
"WorryingPreocupante about AIAI safetyla seguridad
10:30
is like worryingpreocupante
about overpopulationsuperpoblación on MarsMarte."
es como preocuparse por la
superpoblación en Marte".
10:34
This is the SiliconSilicio ValleyValle versionversión
Esta es la manera de Silicon Valley
de mostrarse condescendiente.
10:35
of "don't worrypreocupación your
prettybonita little headcabeza about it."
(Risas)
10:38
(LaughterRisa)
Nadie parece darse cuenta
10:39
No one seemsparece to noticedarse cuenta
que tomar el tiempo con referencia
10:41
that referencinghaciendo referencia the time horizonhorizonte
es una incongruencia total.
10:44
is a totaltotal nonno sequitursequitur.
Si la inteligencia es solo una cuestión
de procesamiento de la información
10:46
If intelligenceinteligencia is just a matterimportar
of informationinformación processingtratamiento,
10:49
and we continuecontinuar to improvemejorar our machinesmáquinas,
y seguimos mejorando nuestras máquinas,
produciremos algún tipo
de superinteligencia.
10:52
we will produceProduce
some formformar of superintelligencesuperinteligencia.
Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones
10:56
And we have no ideaidea
how long it will take us
11:00
to createcrear the conditionscondiciones
to do that safelysin peligro.
para hacerlo de forma segura.
Voy a decirlo de nuevo.
11:04
Let me say that again.
Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones
11:05
We have no ideaidea how long it will take us
11:09
to createcrear the conditionscondiciones
to do that safelysin peligro.
para hacerlo de forma segura.
Y si no lo han notado, 50 años
ya no son lo que solían ser.
11:12
And if you haven'tno tiene noticednotado,
50 yearsaños is not what it used to be.
Estos son 50 años en meses.
11:16
This is 50 yearsaños in monthsmeses.
Este es el tiempo que
hemos tenido el iPhone.
11:18
This is how long we'venosotros tenemos had the iPhoneiPhone.
Este es el tiempo que "Los Simpson"
ha estado en la televisión.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevisión.
11:24
FiftyCincuenta yearsaños is not that much time
Cincuenta años no es tanto tiempo
para lograr uno de los mayores desafíos
al que nuestra especie se ha enfrentado.
11:27
to meetreunirse one of the greatestmejor challengesdesafíos
our speciesespecies will ever facecara.
Una vez más, parece que no tenemos
una respuesta emocional adecuada
11:31
OnceUna vez again, we seemparecer to be failingdefecto
to have an appropriateapropiado emotionalemocional responserespuesta
para lo que, con toda
probabilidad, va a pasar.
11:35
to what we have everycada reasonrazón
to believe is comingviniendo.
El científico de la computación
Stuart Russell ofrece una gran analogía:
11:38
The computercomputadora scientistcientífico StuartStuart RussellRussell
has a nicebonito analogyanalogía here.
"Imaginen que recibimos un mensaje de
una civilización extraterrestre que diga:
11:42
He said, imagineimagina that we receivedrecibido
a messagemensaje from an alienextraterrestre civilizationcivilización,
11:47
whichcual readleer:
'Gente de la Tierra,
11:49
"People of EarthTierra,
llegaremos en su planeta en 50 años.
11:50
we will arrivellegar on your planetplaneta in 50 yearsaños.
Prepárense'".
11:53
Get readyListo."
¿Estaremos contando los meses
hasta que llegue la nave nodriza?
11:55
And now we're just countingcontando down
the monthsmeses untilhasta the mothershipnave nodriza landstierras?
11:59
We would feel a little
more urgencyurgencia than we do.
¿No estaríamos un poco más preocupados?
Otra razón que se nos da
para no preocuparnos
12:04
AnotherOtro reasonrazón we're told not to worrypreocupación
es que estas máquinas no podrán
no compartir nuestros valores
12:06
is that these machinesmáquinas
can't help but sharecompartir our valuesvalores
porque van a ser literalmente
extensiones de nosotros mismos.
12:09
because they will be literallyliteralmente
extensionsextensiones of ourselvesNosotros mismos.
12:12
They'llEllos van a be graftedinjertado ontosobre our brainssesos,
Se injertarán en nuestro cerebro,
y prácticamente seremos
su sistema límbico.
12:14
and we'llbien essentiallyesencialmente
becomevolverse theirsu limbiclímbico systemssistemas.
Consideren por un momento
12:17
Now take a momentmomento to considerconsiderar
12:18
that the safestmás seguro
and only prudentprudente pathcamino forwardadelante,
que el camino más seguro
y prudente hacia adelante,
el recomendado,
12:21
recommendedrecomendado,
es la implantación de esta tecnología
directamente en nuestro cerebro.
12:23
is to implantimplante this technologytecnología
directlydirectamente into our brainssesos.
Ahora bien, esto puede ser de hecho,
12:26
Now, this maymayo in facthecho be the safestmás seguro
and only prudentprudente pathcamino forwardadelante,
la manera más segura
y prudente de avanzar,
12:30
but usuallygeneralmente one'suno safetyla seguridad concernspreocupaciones
about a technologytecnología
pero por lo general, los problemas
de seguridad de una nueva tecnología
12:33
have to be prettybonita much workedtrabajó out
before you stickpalo it insidedentro your headcabeza.
hay que resolverlos antes
de implementarla en una cabeza.
12:36
(LaughterRisa)
(Risas)
El mayor problema es
12:38
The deeperMás adentro problemproblema is that
buildingedificio superintelligentsuperinteligente AIAI on its ownpropio
que construir una IA superinteligente
y autónoma parece más fácil
12:44
seemsparece likelyprobable to be easiermás fácil
que diseñar una IA superinteligente
12:45
than buildingedificio superintelligentsuperinteligente AIAI
mientras se controla la neurociencia
12:47
and havingteniendo the completedterminado neuroscienceneurociencia
para integrar la máquina
y la mente sin problemas.
12:49
that allowspermite us to seamlesslysin problemas
integrateintegrar our mindsmentes with it.
Y dado que las empresas y
los gobiernos que trabajan sobre ello
12:52
And givendado that the companiescompañías
and governmentsgobiernos doing this work
probablemente se vean a sí mismos en
una carrera contra todos los demás,
12:56
are likelyprobable to perceivepercibir themselvessí mismos
as beingsiendo in a racecarrera againsten contra all othersotros,
y tomando en cuenta que ganar
esta carrera es ganar el mundo,
12:59
givendado that to winganar this racecarrera
is to winganar the worldmundo,
siempre y cuando no lo destruyan
en el momento siguiente,
13:02
providedprevisto you don't destroydestruir it
in the nextsiguiente momentmomento,
13:05
then it seemsparece likelyprobable
that whateverlo que sea is easiermás fácil to do
entonces parece probable
que lo más fácil de hacer
se hará primero.
13:08
will get donehecho first.
Ahora, por desgracia, no tengo
una solución a este problema,
13:10
Now, unfortunatelyDesafortunadamente,
I don't have a solutionsolución to this problemproblema,
además de recomendarles
que piensen más sobre ello.
13:13
apartaparte from recommendingrecomendando
that more of us think about it.
Creo que necesitamos
un Proyecto Manhattan
13:16
I think we need something
like a ManhattanManhattan ProjectProyecto
sobre el tema de la
inteligencia artificial.
13:18
on the topictema of artificialartificial intelligenceinteligencia.
No para construirlo, porque
creo que eso es inevitable,
13:20
Not to buildconstruir it, because I think
we'llbien inevitablyinevitablemente do that,
sino para entender cómo evitar
una carrera armamentística
13:23
but to understandentender
how to avoidevitar an armsbrazos racecarrera
y construirla de manera que
concuerde con nuestros intereses.
13:26
and to buildconstruir it in a way
that is alignedalineado with our interestsintereses.
Cuando hablamos de IA superinteligente
13:30
When you're talkinghablando
about superintelligentsuperinteligente AIAI
que puede modificarse a sí misma,
13:32
that can make changescambios to itselfsí mismo,
13:34
it seemsparece that we only have one chanceoportunidad
to get the initialinicial conditionscondiciones right,
solo tenemos una oportunidad de fijar
las condiciones iniciales correctas,
e incluso entonces necesitaremos gestionar
13:39
and even then we will need to absorbabsorber
las consecuencias económicas
y políticas de dicho diseño.
13:41
the economiceconómico and politicalpolítico
consequencesConsecuencias of gettingconsiguiendo them right.
Pero en el momento en que admitamos
13:45
But the momentmomento we admitadmitir
que el procesamiento de la información
es la fuente de la inteligencia,
13:47
that informationinformación processingtratamiento
is the sourcefuente of intelligenceinteligencia,
que algún sistema computacional
adecuado es la base de la inteligencia,
13:52
that some appropriateapropiado computationalcomputacional systemsistema
is what the basisbase of intelligenceinteligencia is,
y admitamos que los vamos
a mejorar de forma continua,
13:58
and we admitadmitir that we will improvemejorar
these systemssistemas continuouslycontinuamente,
y admitamos que el horizonte
del conocimiento supera por mucho
14:03
and we admitadmitir that the horizonhorizonte
of cognitioncognición very likelyprobable farlejos exceedsexcede
lo que actualmente conocemos,
14:07
what we currentlyactualmente know,
entonces tenemos que admitir
14:10
then we have to admitadmitir
14:11
that we are in the processproceso
of buildingedificio some sortordenar of god.
que estamos en el proceso de
construir una especie de dios.
Ahora sería un buen momento
14:15
Now would be a good time
para asegurarse de que sea
un dios con el que podamos vivir.
14:17
to make sure it's a god we can livevivir with.
Muchas gracias.
14:20
Thank you very much.
(Aplausos)
14:21
(ApplauseAplausos)

▲Back to top

About the speaker:

Sam Harris - Neuroscientist and philosopher
Sam Harris’ writings and scholarship cover a wide range of topics, from neuroscience and moral philosophy to religion, violence and human reasoning, with a focus on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Harris is an outspoken proponent of skepticism and science, and several of his books have become bestsellers. In The End of Faith, Harris gave a harrowing glimpse of humanity’s willingness to suspend reason in favor of religious beliefs, even when these beliefs inspire atrocities. After receiving thousands of angry letters in response, he wrote Letter to a Christian Nation, which centered on religious controversies in the US such as stem cell research and intelligent design. Harris received a degree in philosophy from Stanford and a PhD in neuroscience from UCLA. He is working on a book about the ethics of artificial intelligence.

More profile about the speaker
Sam Harris | Speaker | TED.com