ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: ¿Es posible crear inteligencia artificial sin perder control sobre ella?

Filmed:
5,024,015 views

¿Te asusta la super inteligente inteligencia artificial? Debería estarlo, dice el neurocientífico y filósofo Sam Harris y no solo de una manera teórica. Vamos a construir super máquinas, dice Harris, pero aún no entendemos los problemas que conlleva crear algo que podría tratarnos de la misma manera en que nosotros tratamos a las hormigas.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurefracaso of intuitionintuición
0
1000
2216
Voy a hablar de un fallo intuitivo
que muchos sufrimos.
00:15
that manymuchos of us suffersufrir from.
1
3240
1600
00:17
It's really a failurefracaso
to detectdetectar a certaincierto kindtipo of dangerpeligro.
2
5480
3040
En realidad es la capacidad
de detectar cierto tipo de peligro.
00:21
I'm going to describedescribir a scenarioguión
3
9360
1736
Describiré una situación que creo
que es tan aterradora como posible
00:23
that I think is bothambos terrifyingespantoso
4
11120
3256
00:26
and likelyprobable to occurocurrir,
5
14400
1760
00:28
and that's not a good combinationcombinación,
6
16840
1656
y veremos que eso no es
una buena combinación.
00:30
as it turnsvueltas out.
7
18520
1536
Y sin embargo, en lugar de sentir miedo,
00:32
And yettodavía rathermás bien than be scaredasustado,
mostmás of you will feel
8
20080
2456
la mayoría pensará que es
algo bastante interesante.
00:34
that what I'm talkinghablando about
is kindtipo of coolguay.
9
22560
2080
00:37
I'm going to describedescribir
how the gainsganancias we make
10
25200
2976
Describiré cómo los avances
en el campo de la inteligencia artificial,
00:40
in artificialartificial intelligenceinteligencia
11
28200
1776
en última instancia, podrían destruirnos.
00:42
could ultimatelypor último destroydestruir us.
12
30000
1776
00:43
And in facthecho, I think it's very difficultdifícil
to see how they won'tcostumbre destroydestruir us
13
31800
3456
Y, de hecho, me resulta muy difícil ver
que no nos destruirían
o nos ayudaran a destruirnos.
00:47
or inspireinspirar us to destroydestruir ourselvesNosotros mismos.
14
35280
1680
00:49
And yettodavía if you're anything like me,
15
37400
1856
Y sin embargo, si son como yo,
00:51
you'lltu vas a find that it's fundivertido
to think about these things.
16
39280
2656
encontrarán que es divertido
pensar en estas cosas.
Y esta manera de ver las cosas
es parte del problema.
00:53
And that responserespuesta is partparte of the problemproblema.
17
41960
3376
Esa reacción debería preocuparles.
00:57
OK? That responserespuesta should worrypreocupación you.
18
45360
1720
Si tuviera que convencerles
con esta charla
00:59
And if I were to convinceconvencer you in this talk
19
47920
2656
de que estamos al borde de sufrir
una hambruna a nivel mundial,
01:02
that we were likelyprobable
to suffersufrir a globalglobal faminehambruna,
20
50600
3416
debido al calentamiento global
o cualquier otra catástrofe,
01:06
eitherya sea because of climateclima changecambio
or some other catastrophecatástrofe,
21
54040
3056
y que sus nietos o sus bisnietos,
01:09
and that your grandchildrennietos,
or theirsu grandchildrennietos,
22
57120
3416
vivirán muy probablemente así,
01:12
are very likelyprobable to livevivir like this,
23
60560
1800
01:15
you wouldn'tno lo haría think,
24
63200
1200
no pensarían:
01:17
"InterestingInteresante.
25
65440
1336
"Interesante.
Me gusta esta charla TED".
01:18
I like this TEDTED Talk."
26
66800
1200
01:21
FamineHambruna isn't fundivertido.
27
69200
1520
El hambre no es divertida
01:23
DeathMuerte by scienceciencia fictionficción,
on the other handmano, is fundivertido,
28
71800
3376
La muerte en la ciencia ficción,
por el contrario, es algo divertido,
y lo más preocupante
en el desarrollo de la IA hoy en día
01:27
and one of the things that worriespreocupaciones me mostmás
about the developmentdesarrollo of AIAI at this pointpunto
29
75200
3976
es que parecemos incapaces de ofrecer
una respuesta emocional adecuada
01:31
is that we seemparecer unableincapaz to marshalmariscal
an appropriateapropiado emotionalemocional responserespuesta
30
79200
4096
frente a los peligros que se avecinan.
01:35
to the dangerspeligros that liementira aheadadelante.
31
83320
1816
01:37
I am unableincapaz to marshalmariscal this responserespuesta,
and I'm givingdando this talk.
32
85160
3200
Yo mismo soy incapaz de ello
y estoy dando esta charla.
01:42
It's as thoughaunque we standestar before two doorspuertas.
33
90120
2696
Es como si nos encontráramos
ante dos puertas.
Detrás de la puerta número uno
01:44
BehindDetrás doorpuerta numbernúmero one,
34
92840
1256
01:46
we stop makingfabricación progressProgreso
in buildingedificio intelligentinteligente machinesmáquinas.
35
94120
3296
detenemos el progreso
de máquinas inteligentes.
Nuestro hardware y software
se estancan simplemente, por alguna razón.
01:49
Our computercomputadora hardwarehardware and softwaresoftware
just stopsparadas gettingconsiguiendo better for some reasonrazón.
36
97440
4016
Traten de reflexionar por un momento
por qué podría suceder esto.
01:53
Now take a momentmomento
to considerconsiderar why this mightpodría happenocurrir.
37
101480
3000
01:57
I mean, givendado how valuablevalioso
intelligenceinteligencia and automationautomatización are,
38
105080
3656
Dada la valía de la inteligencia
y la automatización,
seguiremos mejorando
nuestra tecnología si es posible.
02:00
we will continuecontinuar to improvemejorar our technologytecnología
if we are at all ablepoder to.
39
108760
3520
02:05
What could stop us from doing this?
40
113200
1667
¿Qué podría impedirnos hacer eso?
02:07
A full-scaleEscala completa nuclearnuclear warguerra?
41
115800
1800
¿Una guerra nuclear a gran escala?
02:11
A globalglobal pandemicpandemia?
42
119000
1560
¿Una pandemia mundial?
02:14
An asteroidasteroide impactimpacto?
43
122320
1320
¿El impacto de un asteroide?
¿El hecho que Justin Bieber
podría ser el presidente de los EE.UU.?
02:17
JustinJustin BieberBieber becomingdevenir
presidentpresidente of the UnitedUnido StatesEstados?
44
125640
2576
02:20
(LaughterRisa)
45
128240
2280
(Risas)
02:24
The pointpunto is, something would have to
destroydestruir civilizationcivilización as we know it.
46
132760
3920
El caso es que algo tendría que destruir
la civilización tal como la conocemos.
02:29
You have to imagineimagina
how badmalo it would have to be
47
137360
4296
Realmente deberíamos
imaginar algo terrible
para dejar de
desarrollar nuestra tecnología
02:33
to preventevitar us from makingfabricación
improvementsmejoras in our technologytecnología
48
141680
3336
para siempre,
02:37
permanentlypermanentemente,
49
145040
1216
generación tras generación.
02:38
generationGeneracion after generationGeneracion.
50
146280
2016
Casi por definición, sería lo peor
02:40
AlmostCasi by definitiondefinición,
this is the worstpeor thing
51
148320
2136
en la historia humana.
02:42
that's ever happenedsucedió in humanhumano historyhistoria.
52
150480
2016
La única alternativa,
02:44
So the only alternativealternativa,
53
152520
1296
y esto es lo que hay detrás
de la puerta número dos,
02:45
and this is what liesmentiras
behinddetrás doorpuerta numbernúmero two,
54
153840
2336
02:48
is that we continuecontinuar
to improvemejorar our intelligentinteligente machinesmáquinas
55
156200
3136
es seguir mejorando
nuestras máquinas inteligentes
año tras año tras año.
02:51
yearaño after yearaño after yearaño.
56
159360
1600
02:53
At a certaincierto pointpunto, we will buildconstruir
machinesmáquinas that are smartermás inteligente than we are,
57
161720
3640
En algún momento construiremos
máquinas más inteligentes que nosotros,
y una vez que las tengamos
02:58
and onceuna vez we have machinesmáquinas
that are smartermás inteligente than we are,
58
166080
2616
03:00
they will beginempezar to improvemejorar themselvessí mismos.
59
168720
1976
empezarán a mejorarse a sí mismas.
Y entonces corremos el riesgo
teorizado por el matemático IJ Good
03:02
And then we riskriesgo what
the mathematicianmatemático IJIJ Good calledllamado
60
170720
2736
03:05
an "intelligenceinteligencia explosionexplosión,"
61
173480
1776
llamado "explosión de inteligencia"
03:07
that the processproceso could get away from us.
62
175280
2000
donde el proceso podría
salirse de control.
03:10
Now, this is oftena menudo caricaturedcaricaturizado,
as I have here,
63
178120
2816
Esto es a menudo caricaturizado,
como lo he hecho aquí,
como el miedo a que nos ataquen
ejércitos de robots maliciosos.
03:12
as a fearmiedo that armiesejércitos of maliciousmalicioso robotsrobots
64
180960
3216
03:16
will attackataque us.
65
184200
1256
Pero ese no es
el escenario más probable.
03:17
But that isn't the mostmás likelyprobable scenarioguión.
66
185480
2696
No es que nuestras máquinas
se volverán malignas espontáneamente.
03:20
It's not that our machinesmáquinas
will becomevolverse spontaneouslyespontáneamente malevolentmalévolo.
67
188200
4856
La preocupación verdadera
03:25
The concernpreocupación is really
that we will buildconstruir machinesmáquinas
68
193080
2616
al construir máquinas mucho
más competentes que nosotros
03:27
that are so much
more competentcompetente than we are
69
195720
2056
es que la menor diferencia
entre sus objetivos y los nuestros
03:29
that the slightestmenor divergencedivergencia
betweenEntre theirsu goalsmetas and our ownpropio
70
197800
3776
nos podría destruir.
03:33
could destroydestruir us.
71
201600
1200
03:35
Just think about how we relaterelacionar to antshormigas.
72
203960
2080
Basta con pensar en nuestra
relación con las hormigas.
03:38
We don't hateodio them.
73
206600
1656
No las odiamos.
No vamos por la vida lastimándolas.
03:40
We don't go out of our way to harmdaño them.
74
208280
2056
De hecho, a veces nos tomamos
la molestia de no hacerles daño.
03:42
In facthecho, sometimesa veces
we take painsesfuerzos not to harmdaño them.
75
210360
2376
03:44
We steppaso over them on the sidewalkacera.
76
212760
2016
Evitamos pisarlas en la acera.
Pero cada vez que su presencia
entra seriamente en conflicto
03:46
But whenevercuando theirsu presencepresencia
77
214800
2136
03:48
seriouslyseriamente conflictsconflictos with one of our goalsmetas,
78
216960
2496
con alguno de nuestros objetivos,
digamos, en la construcción
de un edificio como este,
03:51
let's say when constructingconstruyendo
a buildingedificio like this one,
79
219480
2477
03:53
we annihilateaniquilar them withoutsin a qualmescrúpulo.
80
221981
1960
las aniquilamos sin escrúpulos.
03:56
The concernpreocupación is that we will
one day buildconstruir machinesmáquinas
81
224480
2936
La preocupación es que algún día
construyamos máquinas
que, ya sea conscientemente o no,
03:59
that, whethersi they're consciousconsciente or not,
82
227440
2736
nos puedan tratar con
una indiferencia similar.
04:02
could treattratar us with similarsimilar disregardindiferencia.
83
230200
2000
04:05
Now, I suspectsospechar this seemsparece
far-fetchedexagerado to manymuchos of you.
84
233760
2760
Sospecho que esto pueda
parece inverosímil para muchos.
04:09
I betapuesta there are those of you who doubtduda
that superintelligentsuperinteligente AIAI is possibleposible,
85
237360
6336
Apuesto a que hay quienes dudan
de que la superinteligente IA sea posible
y mucho menos inevitable.
04:15
much lessMenos inevitableinevitable.
86
243720
1656
Pero en este caso hay que refutar
uno de los siguientes supuestos.
04:17
But then you mustdebe find something wrongincorrecto
with one of the followingsiguiendo assumptionssuposiciones.
87
245400
3620
Y hay solo tres.
04:21
And there are only threeTres of them.
88
249044
1572
04:23
IntelligenceInteligencia is a matterimportar of informationinformación
processingtratamiento in physicalfísico systemssistemas.
89
251800
4719
La inteligencia es el procesamiento
de información en un sistema físico.
04:29
ActuallyActualmente, this is a little bitpoco more
than an assumptionsuposición.
90
257320
2615
En realidad, esto es poco
más que una suposición.
Ya hemos incorporado inteligencia
limitada en nuestras máquinas,
04:31
We have alreadyya builtconstruido
narrowestrecho intelligenceinteligencia into our machinesmáquinas,
91
259959
3457
y aún así, muchas de estas máquinas actúan
a un nivel de inteligencia sobrehumana.
04:35
and manymuchos of these machinesmáquinas performrealizar
92
263440
2016
04:37
at a levelnivel of superhumansobrehumano
intelligenceinteligencia alreadyya.
93
265480
2640
04:40
And we know that meremero matterimportar
94
268840
2576
Y sabemos que la mera materia da lugar
a lo que se llama "inteligencia general",
04:43
can give risesubir to what is calledllamado
"generalgeneral intelligenceinteligencia,"
95
271440
2616
la capacidad de pensar con
flexibilidad en múltiples campos
04:46
an abilitycapacidad to think flexiblyflexiblemente
acrossa través de multiplemúltiple domainsdominios,
96
274080
3656
porque nuestros cerebro
humano ya lo ha conseguido.
04:49
because our brainssesos have managedmanejado it. Right?
97
277760
3136
Es decir, solo hay átomos aquí,
04:52
I mean, there's just atomsátomos in here,
98
280920
3936
y mientras continuemos
construyendo sistemas de átomos
04:56
and as long as we continuecontinuar
to buildconstruir systemssistemas of atomsátomos
99
284880
4496
que exhiban un comportamiento
más y más inteligente,
05:01
that displaymonitor more and more
intelligentinteligente behaviorcomportamiento,
100
289400
2696
terminaremos implementando, a menos
que lo interrumpamos, inteligencia general
05:04
we will eventuallyfinalmente,
unlessa no ser que we are interruptedinterrumpido,
101
292120
2536
05:06
we will eventuallyfinalmente
buildconstruir generalgeneral intelligenceinteligencia
102
294680
3376
en nuestras máquinas.
05:10
into our machinesmáquinas.
103
298080
1296
Es crucial comprender que
la velocidad no es el problema
05:11
It's crucialcrucial to realizedarse cuenta de
that the ratetarifa of progressProgreso doesn't matterimportar,
104
299400
3656
porque cualquier velocidad
es suficiente para llegar al fin.
05:15
because any progressProgreso
is enoughsuficiente to get us into the endfin zonezona.
105
303080
3176
No necesitamos la ley de Moore para
continuar ni un aumento exponencial.
05:18
We don't need Moore'sMoore lawley to continuecontinuar.
We don't need exponentialexponencial progressProgreso.
106
306280
3776
Solo tenemos que seguir adelante.
05:22
We just need to keep going.
107
310080
1600
05:25
The secondsegundo assumptionsuposición
is that we will keep going.
108
313480
2920
El segundo supuesto es
que vamos a seguir adelante.
05:29
We will continuecontinuar to improvemejorar
our intelligentinteligente machinesmáquinas.
109
317000
2760
Vamos a seguir mejorando
nuestras máquinas inteligentes.
05:33
And givendado the valuevalor of intelligenceinteligencia --
110
321000
4376
Y teniendo en cuenta
el valor de la inteligencia,
es decir, la inteligencia es o bien
la fuente de todo lo que valoramos
05:37
I mean, intelligenceinteligencia is eitherya sea
the sourcefuente of everything we valuevalor
111
325400
3536
o la necesidad por preservar
todo lo que valoramos.
05:40
or we need it to safeguardsalvaguardia
everything we valuevalor.
112
328960
2776
Es nuestro recurso más valioso.
05:43
It is our mostmás valuablevalioso resourcerecurso.
113
331760
2256
Por eso lo queremos hacer.
05:46
So we want to do this.
114
334040
1536
Tenemos problemas que necesitamos
desesperadamente resolver.
05:47
We have problemsproblemas
that we desperatelydesesperadamente need to solveresolver.
115
335600
3336
Queremos curar enfermedades
como el Alzheimer y el cáncer.
05:50
We want to curecura diseasesenfermedades
like Alzheimer'sAlzheimer and cancercáncer.
116
338960
3200
05:54
We want to understandentender economiceconómico systemssistemas.
We want to improvemejorar our climateclima scienceciencia.
117
342960
3936
Queremos entender
los sistemas económicos.
Queremos mejorar el clima.
05:58
So we will do this, if we can.
118
346920
2256
Vamos a hacer esto, si podemos.
El tren ya salió de la estación
y no hay frenos.
06:01
The traintren is alreadyya out of the stationestación,
and there's no brakefreno to pullHalar.
119
349200
3286
06:05
FinallyFinalmente, we don't standestar
on a peakpico of intelligenceinteligencia,
120
353880
5456
Por último, no estamos en
la cima de la inteligencia,
ni siquiera cerca, probablemente.
06:11
or anywhereen cualquier sitio nearcerca it, likelyprobable.
121
359360
1800
06:13
And this really is the crucialcrucial insightvisión.
122
361640
1896
Y esto realmente es crucial.
Esto es lo que hace nuestra
situación tan precaria,
06:15
This is what makeshace
our situationsituación so precariousprecario,
123
363560
2416
y esto es lo que hace
que nuestras intuiciones
06:18
and this is what makeshace our intuitionsintuiciones
about riskriesgo so unreliableno fidedigno.
124
366000
4040
sobre los riesgos sean poco fiables.
Piensen en la persona más inteligente
que jamás haya vivido.
06:23
Now, just considerconsiderar the smartestmás inteligente personpersona
who has ever livedvivió.
125
371120
2720
06:26
On almostcasi everyone'stodos shortlistlista corta here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
En la lista de casi todos
está John Von Neumann.
La impresión que hacía Von Neumann
en las personas a su alrededor,
06:30
I mean, the impressionimpresión that vonvon NeumannNeumann
madehecho on the people around him,
127
378080
3336
incluyendo los más grandes
matemáticos y físicos de su época,
06:33
and this includedincluido the greatestmejor
mathematiciansmatemáticos and physicistsfísicos of his time,
128
381440
4056
está bastante bien documentada.
06:37
is fairlybastante well-documentedbien documentada.
129
385520
1936
Si solo la mitad de las historias
sobre él fueran una verdad a medias,
06:39
If only halfmitad the storiescuentos
about him are halfmitad truecierto,
130
387480
3776
no hay duda
06:43
there's no questionpregunta
131
391280
1216
de que es una de las personas
más inteligentes que ha vivido.
06:44
he's one of the smartestmás inteligente people
who has ever livedvivió.
132
392520
2456
06:47
So considerconsiderar the spectrumespectro of intelligenceinteligencia.
133
395000
2520
Así que consideren
el espectro de la inteligencia.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Aquí tenemos a John Von Neumann.
06:53
And then we have you and me.
135
401560
1334
Y aquí estamos tú y yo.
06:56
And then we have a chickenpollo.
136
404120
1296
Y luego tenemos un pollo.
06:57
(LaughterRisa)
137
405440
1936
06:59
Sorry, a chickenpollo.
138
407400
1216
Lo sentimos, una gallina.
07:00
(LaughterRisa)
139
408640
1256
07:01
There's no reasonrazón for me to make this talk
more depressingdeprimente than it needsnecesariamente to be.
140
409920
3736
No hay por qué hacer esta charla
más deprimente de lo que ya es.
(Risas)
07:05
(LaughterRisa)
141
413680
1600
07:08
It seemsparece overwhelminglyabrumadoramente likelyprobable, howeversin embargo,
that the spectrumespectro of intelligenceinteligencia
142
416339
3477
Sin embargo, parece muy probable
que el espectro de la inteligencia
se extienda mucho más allá
de lo que actualmente concebimos,
07:11
extendsse extiende much furtherpromover
than we currentlyactualmente conceiveconcebir,
143
419840
3120
07:15
and if we buildconstruir machinesmáquinas
that are more intelligentinteligente than we are,
144
423880
3216
y si construimos máquinas
más inteligentes que nosotros,
muy probablemente
explorarán este espectro
07:19
they will very likelyprobable
exploreexplorar this spectrumespectro
145
427120
2296
de maneras que no podemos imaginar,
07:21
in waysformas that we can't imagineimagina,
146
429440
1856
y nos superarán de maneras inimaginables.
07:23
and exceedexceder us in waysformas
that we can't imagineimagina.
147
431320
2520
07:27
And it's importantimportante to recognizereconocer that
this is truecierto by virtuevirtud of speedvelocidad alonesolo.
148
435000
4336
Y es importante saber que esto
es cierto solo debido a la velocidad.
Así que imaginen que acabamos
de construir una IA superinteligente
07:31
Right? So imagineimagina if we just builtconstruido
a superintelligentsuperinteligente AIAI
149
439360
5056
que no fuera más inteligente
07:36
that was no smartermás inteligente
than your averagepromedio teamequipo of researchersinvestigadores
150
444440
3456
que el promedio del equipo de
investigadores en Stanford o el MIT.
07:39
at StanfordStanford or MITMIT.
151
447920
2296
Los circuitos electrónicos funcionan
07:42
Well, electronicelectrónico circuitscircuitos
functionfunción about a millionmillón timesveces fasterMás rápido
152
450240
2976
aproximadamente un millón de veces
más rápido que los bioquímicos,
07:45
than biochemicalbioquímico onesunos,
153
453240
1256
07:46
so this machinemáquina should think
about a millionmillón timesveces fasterMás rápido
154
454520
3136
así que esta máquina debe pensar
un millón de veces más rápido
07:49
than the mindsmentes that builtconstruido it.
155
457680
1816
que las mentes que la construyeron.
07:51
So you setconjunto it runningcorriendo for a weeksemana,
156
459520
1656
Con una semana funcionando
07:53
and it will performrealizar 20,000 yearsaños
of human-levelnivel humano intellectualintelectual work,
157
461200
4560
llevará a cabo 20 000 años
de trabajo intelectual a nivel humano,
07:58
weeksemana after weeksemana after weeksemana.
158
466400
1960
semana tras semana tras semana.
08:01
How could we even understandentender,
much lessMenos constrainconstreñir,
159
469640
3096
¿Cómo podríamos siquiera comprender,
mucho menos restringir,
una mente que progresa de esta manera?
08:04
a mindmente makingfabricación this sortordenar of progressProgreso?
160
472760
2280
08:08
The other thing that's worryingpreocupante, franklyfrancamente,
161
476840
2136
Algo más que es francamente preocupante
es imaginar el mejor de los casos.
08:11
is that, imagineimagina the bestmejor casecaso scenarioguión.
162
479000
4976
Imaginemos que diseñamos
una IA superinteligente
08:16
So imagineimagina we hitgolpear uponsobre a designdiseño
of superintelligentsuperinteligente AIAI
163
484000
4176
que no tiene problemas de seguridad.
08:20
that has no safetyla seguridad concernspreocupaciones.
164
488200
1376
Tenemos el diseño perfecto a la primera.
08:21
We have the perfectPerfecto designdiseño
the first time around.
165
489600
3256
Es como si nos dieran un oráculo
08:24
It's as thoughaunque we'venosotros tenemos been handedentregó an oracleoráculo
166
492880
2216
que se comporta exactamente
como se espera.
08:27
that behavesse comporta exactlyexactamente as intendeddestinado a.
167
495120
2016
Esta máquina sería el dispositivo
de ahorro de mano de obra perfecta.
08:29
Well, this machinemáquina would be
the perfectPerfecto labor-savingahorro de trabajo devicedispositivo.
168
497160
3720
Puede diseñar la máquina
que puede construir la máquina
08:33
It can designdiseño the machinemáquina
that can buildconstruir the machinemáquina
169
501680
2429
que pueda hacer cualquier trabajo físico,
08:36
that can do any physicalfísico work,
170
504133
1763
08:37
poweredmotorizado by sunlightluz de sol,
171
505920
1456
impulsada por la luz solar,
más o menos por el costo
de las materias primas.
08:39
more or lessMenos for the costcosto
of rawcrudo materialsmateriales.
172
507400
2696
Estamos hablando del fin
del trabajo pesado humano.
08:42
So we're talkinghablando about
the endfin of humanhumano drudgerytrabajo penoso.
173
510120
3256
08:45
We're alsoademás talkinghablando about the endfin
of mostmás intellectualintelectual work.
174
513400
2800
También estamos hablando del fin
de la mayoría del trabajo intelectual.
Entonces, ¿qué harían simios como
nosotros en estas circunstancias?
08:49
So what would apessimios like ourselvesNosotros mismos
do in this circumstancecircunstancia?
175
517200
3056
08:52
Well, we'dmie be freegratis to playjugar FrisbeeFrisbee
and give eachcada other massagesmasajes.
176
520280
4080
Pues, podríamos jugar
al Frisbee y darnos masajes.
08:57
AddAñadir some LSDLSD and some
questionablecuestionable wardrobeguardarropa choiceselecciones,
177
525840
2856
Tomar un poco de LSD
e inventar modas ridículas
y todo el mundo podríamos
parecernos a un festival de rock.
09:00
and the wholetodo worldmundo
could be like BurningArdiente Man.
178
528720
2176
09:02
(LaughterRisa)
179
530920
1640
(Risas)
09:06
Now, that mightpodría soundsonar prettybonita good,
180
534320
2000
Puede parecer muy bueno,
pero hay que preguntarse
09:09
but askpedir yourselftú mismo what would happenocurrir
181
537280
2376
qué pasaría con nuestro orden
económico y político actual.
09:11
underdebajo our currentcorriente economiceconómico
and politicalpolítico orderorden?
182
539680
2736
Podríamos presenciar
09:14
It seemsparece likelyprobable that we would witnesstestigo
183
542440
2416
un nivel de desigualdad
de la riqueza y el desempleo
09:16
a levelnivel of wealthriqueza inequalitydesigualdad
and unemploymentdesempleo
184
544880
4136
nunca antes visto
09:21
that we have never seenvisto before.
185
549040
1496
sin la voluntad de poner esta
nueva riqueza inmediatamente
09:22
AbsentAusente a willingnesscomplacencia
to immediatelyinmediatamente put this newnuevo wealthriqueza
186
550560
2616
09:25
to the serviceServicio of all humanityhumanidad,
187
553200
1480
al servicio de toda la humanidad,
y unos poco trillonarios estarían en
las portadas de las revistas de negocios
09:27
a fewpocos trillionairestrillonarios could gracegracia
the coverscubiertas of our businessnegocio magazinesrevistas
188
555640
3616
mientras que el resto del mundo
tendría la libertad de morirse de hambre.
09:31
while the restdescanso of the worldmundo
would be freegratis to starvemorir de hambre.
189
559280
2440
09:34
And what would the RussiansRusos
or the Chinesechino do
190
562320
2296
Y ¿qué pasaría si los rusos
o los chinos se enteraran
09:36
if they heardoído that some companyempresa
in SiliconSilicio ValleyValle
191
564640
2616
de que alguna empresa en Silicon Valley
está a punto de crear
una IA superinteligente?
09:39
was about to deploydesplegar a superintelligentsuperinteligente AIAI?
192
567280
2736
Esta máquina podría ser
capaz de hacer la guerra,
09:42
This machinemáquina would be capablecapaz
of waginglibrando warguerra,
193
570040
2856
ya sea terrestre o cibernética,
09:44
whethersi terrestrialterrestre or cybercyber,
194
572920
2216
con un poder sin precedentes.
09:47
with unprecedentedsin precedentes powerpoder.
195
575160
1680
En este escenario
el ganador se lleva todo.
09:50
This is a winner-take-allEl ganador lo toma todo scenarioguión.
196
578120
1856
Seis meses adelante en la competencia
09:52
To be sixseis monthsmeses aheadadelante
of the competitioncompetencia here
197
580000
3136
sería una ventaja de 500 000 años,
09:55
is to be 500,000 yearsaños aheadadelante,
198
583160
2776
como mínimo.
09:57
at a minimummínimo.
199
585960
1496
Parecería que incluso meros
rumores de este tipo de avance
09:59
So it seemsparece that even meremero rumorsrumores
of this kindtipo of breakthroughpenetración
200
587480
4736
podría causar que nuestra
especie se vuelva loca.
10:04
could causeporque our speciesespecies to go berserkenloquecido.
201
592240
2376
Una de las cosas más aterradoras,
10:06
Now, one of the mostmás frighteningaterrador things,
202
594640
2896
en mi opinión, en este momento,
10:09
in my viewver, at this momentmomento,
203
597560
2776
son el tipo de cosas que dicen
los investigadores de IA
10:12
are the kindsclases of things
that AIAI researchersinvestigadores say
204
600360
4296
cuando quieren tranquilizarnos.
10:16
when they want to be reassuringtranquilizador.
205
604680
1560
Y el motivo invocado más frecuentemente
de que no nos preocupemos es el tiempo.
10:19
And the mostmás commoncomún reasonrazón
we're told not to worrypreocupación is time.
206
607000
3456
Falta mucho para eso, no se preocupen.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Eso será probablemente
dentro de 50 o 100 años.
10:24
This is probablyprobablemente 50 or 100 yearsaños away.
208
612560
2440
10:27
One researcherinvestigador has said,
209
615720
1256
Un investigador dijo,
"Preocuparse por la seguridad
y todo lo relacionado con la IA
10:29
"WorryingPreocupante about AIAI safetyla seguridad
210
617000
1576
10:30
is like worryingpreocupante
about overpopulationsuperpoblación on MarsMarte."
211
618600
2280
es como preocuparse por la
superpoblación en Marte".
10:34
This is the SiliconSilicio ValleyValle versionversión
212
622116
1620
Esta es la manera de Silicon Valley
de mostrarse condescendiente.
10:35
of "don't worrypreocupación your
prettybonita little headcabeza about it."
213
623760
2376
(Risas)
10:38
(LaughterRisa)
214
626160
1336
10:39
No one seemsparece to noticedarse cuenta
215
627520
1896
Nadie parece darse cuenta
que tomar el tiempo con referencia
10:41
that referencinghaciendo referencia the time horizonhorizonte
216
629440
2616
es una incongruencia total.
10:44
is a totaltotal nonno sequitursequitur.
217
632080
2576
Si la inteligencia es solo una cuestión
de procesamiento de la información
10:46
If intelligenceinteligencia is just a matterimportar
of informationinformación processingtratamiento,
218
634680
3256
10:49
and we continuecontinuar to improvemejorar our machinesmáquinas,
219
637960
2656
y seguimos mejorando nuestras máquinas,
produciremos algún tipo
de superinteligencia.
10:52
we will produceProduce
some formformar of superintelligencesuperinteligencia.
220
640640
2880
10:56
And we have no ideaidea
how long it will take us
221
644320
3656
Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones
11:00
to createcrear the conditionscondiciones
to do that safelysin peligro.
222
648000
2400
para hacerlo de forma segura.
11:04
Let me say that again.
223
652200
1296
Voy a decirlo de nuevo.
Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones
11:05
We have no ideaidea how long it will take us
224
653520
3816
11:09
to createcrear the conditionscondiciones
to do that safelysin peligro.
225
657360
2240
para hacerlo de forma segura.
11:12
And if you haven'tno tiene noticednotado,
50 yearsaños is not what it used to be.
226
660920
3456
Y si no lo han notado, 50 años
ya no son lo que solían ser.
Estos son 50 años en meses.
11:16
This is 50 yearsaños in monthsmeses.
227
664400
2456
Este es el tiempo que
hemos tenido el iPhone.
11:18
This is how long we'venosotros tenemos had the iPhoneiPhone.
228
666880
1840
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevisión.
229
669440
2600
Este es el tiempo que "Los Simpson"
ha estado en la televisión.
11:24
FiftyCincuenta yearsaños is not that much time
230
672680
2376
Cincuenta años no es tanto tiempo
11:27
to meetreunirse one of the greatestmejor challengesdesafíos
our speciesespecies will ever facecara.
231
675080
3160
para lograr uno de los mayores desafíos
al que nuestra especie se ha enfrentado.
11:31
OnceUna vez again, we seemparecer to be failingdefecto
to have an appropriateapropiado emotionalemocional responserespuesta
232
679640
4016
Una vez más, parece que no tenemos
una respuesta emocional adecuada
para lo que, con toda
probabilidad, va a pasar.
11:35
to what we have everycada reasonrazón
to believe is comingviniendo.
233
683680
2696
El científico de la computación
Stuart Russell ofrece una gran analogía:
11:38
The computercomputadora scientistcientífico StuartStuart RussellRussell
has a nicebonito analogyanalogía here.
234
686400
3976
"Imaginen que recibimos un mensaje de
una civilización extraterrestre que diga:
11:42
He said, imagineimagina that we receivedrecibido
a messagemensaje from an alienextraterrestre civilizationcivilización,
235
690400
4896
11:47
whichcual readleer:
236
695320
1696
11:49
"People of EarthTierra,
237
697040
1536
'Gente de la Tierra,
llegaremos en su planeta en 50 años.
11:50
we will arrivellegar on your planetplaneta in 50 yearsaños.
238
698600
2360
11:53
Get readyListo."
239
701800
1576
Prepárense'".
11:55
And now we're just countingcontando down
the monthsmeses untilhasta the mothershipnave nodriza landstierras?
240
703400
4256
¿Estaremos contando los meses
hasta que llegue la nave nodriza?
11:59
We would feel a little
more urgencyurgencia than we do.
241
707680
3000
¿No estaríamos un poco más preocupados?
Otra razón que se nos da
para no preocuparnos
12:04
AnotherOtro reasonrazón we're told not to worrypreocupación
242
712680
1856
es que estas máquinas no podrán
no compartir nuestros valores
12:06
is that these machinesmáquinas
can't help but sharecompartir our valuesvalores
243
714560
3016
porque van a ser literalmente
extensiones de nosotros mismos.
12:09
because they will be literallyliteralmente
extensionsextensiones of ourselvesNosotros mismos.
244
717600
2616
12:12
They'llEllos van a be graftedinjertado ontosobre our brainssesos,
245
720240
1816
Se injertarán en nuestro cerebro,
y prácticamente seremos
su sistema límbico.
12:14
and we'llbien essentiallyesencialmente
becomevolverse theirsu limbiclímbico systemssistemas.
246
722080
2360
12:17
Now take a momentmomento to considerconsiderar
247
725120
1416
Consideren por un momento
12:18
that the safestmás seguro
and only prudentprudente pathcamino forwardadelante,
248
726560
3176
que el camino más seguro
y prudente hacia adelante,
el recomendado,
12:21
recommendedrecomendado,
249
729760
1336
es la implantación de esta tecnología
directamente en nuestro cerebro.
12:23
is to implantimplante this technologytecnología
directlydirectamente into our brainssesos.
250
731120
2800
Ahora bien, esto puede ser de hecho,
12:26
Now, this maymayo in facthecho be the safestmás seguro
and only prudentprudente pathcamino forwardadelante,
251
734600
3376
la manera más segura
y prudente de avanzar,
12:30
but usuallygeneralmente one'suno safetyla seguridad concernspreocupaciones
about a technologytecnología
252
738000
3056
pero por lo general, los problemas
de seguridad de una nueva tecnología
12:33
have to be prettybonita much workedtrabajó out
before you stickpalo it insidedentro your headcabeza.
253
741080
3656
hay que resolverlos antes
de implementarla en una cabeza.
12:36
(LaughterRisa)
254
744760
2016
(Risas)
12:38
The deeperMás adentro problemproblema is that
buildingedificio superintelligentsuperinteligente AIAI on its ownpropio
255
746800
5336
El mayor problema es
que construir una IA superinteligente
y autónoma parece más fácil
12:44
seemsparece likelyprobable to be easiermás fácil
256
752160
1736
que diseñar una IA superinteligente
12:45
than buildingedificio superintelligentsuperinteligente AIAI
257
753920
1856
mientras se controla la neurociencia
12:47
and havingteniendo the completedterminado neuroscienceneurociencia
258
755800
1776
para integrar la máquina
y la mente sin problemas.
12:49
that allowspermite us to seamlesslysin problemas
integrateintegrar our mindsmentes with it.
259
757600
2680
12:52
And givendado that the companiescompañías
and governmentsgobiernos doing this work
260
760800
3176
Y dado que las empresas y
los gobiernos que trabajan sobre ello
probablemente se vean a sí mismos en
una carrera contra todos los demás,
12:56
are likelyprobable to perceivepercibir themselvessí mismos
as beingsiendo in a racecarrera againsten contra all othersotros,
261
764000
3656
y tomando en cuenta que ganar
esta carrera es ganar el mundo,
12:59
givendado that to winganar this racecarrera
is to winganar the worldmundo,
262
767680
3256
siempre y cuando no lo destruyan
en el momento siguiente,
13:02
providedprevisto you don't destroydestruir it
in the nextsiguiente momentmomento,
263
770960
2456
13:05
then it seemsparece likelyprobable
that whateverlo que sea is easiermás fácil to do
264
773440
2616
entonces parece probable
que lo más fácil de hacer
se hará primero.
13:08
will get donehecho first.
265
776080
1200
13:10
Now, unfortunatelyDesafortunadamente,
I don't have a solutionsolución to this problemproblema,
266
778560
2856
Ahora, por desgracia, no tengo
una solución a este problema,
además de recomendarles
que piensen más sobre ello.
13:13
apartaparte from recommendingrecomendando
that more of us think about it.
267
781440
2616
Creo que necesitamos
un Proyecto Manhattan
13:16
I think we need something
like a ManhattanManhattan ProjectProyecto
268
784080
2376
sobre el tema de la
inteligencia artificial.
13:18
on the topictema of artificialartificial intelligenceinteligencia.
269
786480
2016
No para construirlo, porque
creo que eso es inevitable,
13:20
Not to buildconstruir it, because I think
we'llbien inevitablyinevitablemente do that,
270
788520
2736
sino para entender cómo evitar
una carrera armamentística
13:23
but to understandentender
how to avoidevitar an armsbrazos racecarrera
271
791280
3336
y construirla de manera que
concuerde con nuestros intereses.
13:26
and to buildconstruir it in a way
that is alignedalineado with our interestsintereses.
272
794640
3496
Cuando hablamos de IA superinteligente
13:30
When you're talkinghablando
about superintelligentsuperinteligente AIAI
273
798160
2136
que puede modificarse a sí misma,
13:32
that can make changescambios to itselfsí mismo,
274
800320
2256
13:34
it seemsparece that we only have one chanceoportunidad
to get the initialinicial conditionscondiciones right,
275
802600
4616
solo tenemos una oportunidad de fijar
las condiciones iniciales correctas,
e incluso entonces necesitaremos gestionar
13:39
and even then we will need to absorbabsorber
276
807240
2056
las consecuencias económicas
y políticas de dicho diseño.
13:41
the economiceconómico and politicalpolítico
consequencesConsecuencias of gettingconsiguiendo them right.
277
809320
3040
13:45
But the momentmomento we admitadmitir
278
813760
2056
Pero en el momento en que admitamos
que el procesamiento de la información
es la fuente de la inteligencia,
13:47
that informationinformación processingtratamiento
is the sourcefuente of intelligenceinteligencia,
279
815840
4000
13:52
that some appropriateapropiado computationalcomputacional systemsistema
is what the basisbase of intelligenceinteligencia is,
280
820720
4800
que algún sistema computacional
adecuado es la base de la inteligencia,
13:58
and we admitadmitir that we will improvemejorar
these systemssistemas continuouslycontinuamente,
281
826360
3760
y admitamos que los vamos
a mejorar de forma continua,
14:03
and we admitadmitir that the horizonhorizonte
of cognitioncognición very likelyprobable farlejos exceedsexcede
282
831280
4456
y admitamos que el horizonte
del conocimiento supera por mucho
lo que actualmente conocemos,
14:07
what we currentlyactualmente know,
283
835760
1200
14:10
then we have to admitadmitir
284
838120
1216
entonces tenemos que admitir
14:11
that we are in the processproceso
of buildingedificio some sortordenar of god.
285
839360
2640
que estamos en el proceso de
construir una especie de dios.
14:15
Now would be a good time
286
843400
1576
Ahora sería un buen momento
para asegurarse de que sea
un dios con el que podamos vivir.
14:17
to make sure it's a god we can livevivir with.
287
845000
1953
14:20
Thank you very much.
288
848120
1536
Muchas gracias.
(Aplausos)
14:21
(ApplauseAplausos)
289
849680
5093

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com