ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Cómo obtener el poder con IA sin ser dominados por ella

Filmed:
1,409,007 views

Muchos investigadores de inteligencia artificial esperan que la IA, en unas décadas, supere a los humanos en todas las tareas y trabajos, lo que posibilita un futuro en el que solo estamos restringidos por las leyes de la física, no por los límites de nuestra inteligencia. El físico del MIT e investigador de IA Max Tegmark separa las oportunidades reales y las amenazas de los mitos, describiendo los pasos concretos que debemos dar hoy para asegurar que la IA termine siendo lo mejor, en lugar de lo peor, que le pueda suceder a la humanidad.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionmil millones yearsaños
of cosmiccósmico historyhistoria,
0
760
4416
Después de 13,8 mil millones de años
de historia cósmica,
00:17
our universeuniverso has wokendespertado up
1
5200
2096
nuestro universo ha despertado
00:19
and becomevolverse awareconsciente of itselfsí mismo.
2
7320
1520
y toma conciencia de sí mismo.
00:21
From a smallpequeña blueazul planetplaneta,
3
9480
1936
Desde un pequeño planeta azul,
00:23
tinyminúsculo, consciousconsciente partspartes of our universeuniverso
have beguncomenzado gazingmirando out into the cosmoscosmos
4
11440
4136
pequeñas partes conscientes
de nuestro universo
han comenzado a mirar
hacia el cosmos con telescopios,
00:27
with telescopestelescopios,
5
15600
1376
00:29
discoveringdescubriendo something humblinghumilde.
6
17000
1480
descubriendo un poco de humildad.
Descubrimos que nuestro universo
es mucho más grandioso
00:31
We'veNosotros tenemos discovereddescubierto that our universeuniverso
is vastlyvastamente grandergrandioso
7
19320
2896
de lo que nuestros
antepasados ​​imaginaron
00:34
than our ancestorsantepasados imaginedimaginado
8
22240
1336
00:35
and that life seemsparece to be an almostcasi
imperceptiblyimperceptiblemente smallpequeña perturbationperturbación
9
23600
4256
y esa vida parece ser una perturbación
casi imperceptiblemente pequeña
00:39
on an otherwisede otra manera deadmuerto universeuniverso.
10
27880
1720
en un universo por lo demás muerto.
00:42
But we'venosotros tenemos alsoademás discovereddescubierto
something inspiringinspirador,
11
30320
3016
Pero también descubrimos algo inspirador,
que es que la tecnología que estamos
desarrollando tiene el potencial
00:45
whichcual is that the technologytecnología
we're developingdesarrollando has the potentialpotencial
12
33360
2976
00:48
to help life flourishflorecer like never before,
13
36360
2856
de ayudar a que la vida florezca
como nunca antes,
00:51
not just for centuriessiglos
but for billionsmiles de millones of yearsaños,
14
39240
3096
no solo por siglos, sino por
miles de millones de años,
00:54
and not just on earthtierra but throughouten todo
much of this amazingasombroso cosmoscosmos.
15
42360
4120
y no solo en la Tierra sino a lo largo
de gran parte de este increíble cosmos.
00:59
I think of the earliestmás temprano life as "Life 1.0"
16
47680
3336
Pienso en la vida más temprana
como "Vida 1.0"
01:03
because it was really dumbtonto,
17
51040
1376
porque era realmente tonta,
01:04
like bacteriabacteria, unableincapaz to learnaprender
anything duringdurante its lifetimetoda la vida.
18
52440
4296
como las bacterias, incapaces de
aprender nada durante su vida.
01:08
I think of us humanshumanos as "Life 2.0"
because we can learnaprender,
19
56760
3376
Pienso en nosotros los humanos como
"Vida 2.0" porque podemos aprender,
01:12
whichcual we in nerdynerdy, geekgeek speakhablar,
20
60160
1496
que en 'nerdy', hablando 'geek',
01:13
mightpodría think of as installinginstalando
newnuevo softwaresoftware into our brainssesos,
21
61680
3216
podría pensarse como instalar
un nuevo software en nuestros cerebros,
01:16
like languagesidiomas and jobtrabajo skillshabilidades.
22
64920
2120
como idiomas y habilidades laborales.
01:19
"Life 3.0," whichcual can designdiseño not only
its softwaresoftware but alsoademás its hardwarehardware
23
67680
4296
La "Vida 3.0", que puede diseñar no solo
su software sino también su hardware,
01:24
of coursecurso doesn't existexiste yettodavía.
24
72000
1656
por supuesto no existe todavía.
01:25
But perhapsquizás our technologytecnología
has alreadyya madehecho us "Life 2.1,"
25
73680
3776
Pero tal vez nuestra tecnología
ya nos haya hecho "Vida 2.1"
01:29
with our artificialartificial kneesrodillas,
pacemakersmarcapasos and cochlearcoclear implantsimplantes.
26
77480
4336
con nuestras rodillas artificiales,
marcapasos e implantes cocleares.
01:33
So let's take a closercerca look
at our relationshiprelación with technologytecnología, OK?
27
81840
3880
Echemos un vistazo más de cerca a
nuestra relación con la tecnología, ¿vale?
01:38
As an exampleejemplo,
28
86800
1216
Como ejemplo,
01:40
the ApolloApolo 11 moonLuna missionmisión
was bothambos successfulexitoso and inspiringinspirador,
29
88040
5296
la misión Apolo 11 a la Luna
fue exitosa e inspiradora,
01:45
showingdemostración that when we humanshumanos
use technologytecnología wiselysabiamente,
30
93360
3016
mostrando que cuando los humanos
usamos la tecnología sabiamente,
01:48
we can accomplishrealizar things
that our ancestorsantepasados could only dreamsueño of.
31
96400
3936
podemos lograr cosas que
nuestros antepasados ​​solo podían soñar.
01:52
But there's an even more inspiringinspirador journeyviaje
32
100360
2976
Pero hay un viaje aún más inspirador
01:55
propelledpropulsado by something
more powerfulpoderoso than rocketcohete enginesmotores,
33
103360
2680
propulsado por algo más poderoso
que un cohete,
en el que los pasajeros
no son solo tres astronautas,
01:59
where the passengerspasajeros
aren'tno son just threeTres astronautsastronautas
34
107200
2336
02:01
but all of humanityhumanidad.
35
109560
1776
sino toda la humanidad.
02:03
Let's talk about our collectivecolectivo
journeyviaje into the futurefuturo
36
111360
2936
Hablemos de nuestro viaje
colectivo hacia el futuro
02:06
with artificialartificial intelligenceinteligencia.
37
114320
2000
con inteligencia artificial.
02:08
My friendamigo JaanJaan TallinnTallin likesgustos to pointpunto out
that just as with rocketrycohetería,
38
116960
4536
A mi amigo Jaan Tallinn le gusta señalar
que al igual que con los cohetes,
02:13
it's not enoughsuficiente to make
our technologytecnología powerfulpoderoso.
39
121520
3160
no es suficiente con que nuestra
tecnología sea poderosa.
02:17
We alsoademás have to figurefigura out,
if we're going to be really ambitiousambicioso,
40
125560
3175
También hay que descubrir, si seremos
lo suficientemente ambiciosos,
02:20
how to steerdirigir it
41
128759
1416
como dirigirla
02:22
and where we want to go with it.
42
130199
1681
y a dónde queremos ir con eso.
02:24
So let's talk about all threeTres
for artificialartificial intelligenceinteligencia:
43
132880
2840
Así que hablemos de las tres
para la inteligencia artificial:
02:28
the powerpoder, the steeringgobierno
and the destinationdestino.
44
136440
3056
el poder, la dirección y el destino.
02:31
Let's startcomienzo with the powerpoder.
45
139520
1286
Comencemos con el poder.
02:33
I definedefinir intelligenceinteligencia very inclusivelyinclusive --
46
141600
3096
Yo defino la inteligencia
de forma muy inclusiva...
02:36
simplysimplemente as our abilitycapacidad
to accomplishrealizar complexcomplejo goalsmetas,
47
144720
4336
simplemente como nuestra capacidad
para lograr objetivos complejos,
02:41
because I want to includeincluir bothambos
biologicalbiológico and artificialartificial intelligenceinteligencia.
48
149080
3816
porque quiero incluir
inteligencia biológica y artificial.
02:44
And I want to avoidevitar
the sillytonto carbon-chauvinismcarbono-chauvinismo ideaidea
49
152920
4016
Y quiero evitar la tonta idea
del chauvinismo de carbono:
02:48
that you can only be smartinteligente
if you're madehecho of meatcarne.
50
156960
2360
que solo se puede ser inteligente
si se está hecho de carne.
02:52
It's really amazingasombroso how the powerpoder
of AIAI has growncrecido recentlyrecientemente.
51
160880
4176
Es realmente sorprendente cómo el poder
de la IA ha crecido recientemente.
02:57
Just think about it.
52
165080
1256
Solo piensen en ello.
02:58
Not long agohace, robotsrobots couldn'tno pudo walkcaminar.
53
166360
3200
No hace mucho tiempo,
los robots no podían caminar.
03:03
Now, they can do backflipsvolteretas hacia atrás.
54
171040
1720
Hoy pueden hacer volteretas hacia atrás.
03:06
Not long agohace,
55
174080
1816
No hace mucho tiempo,
03:07
we didn't have self-drivingconducción autónoma carscarros.
56
175920
1760
no teníamos autos sin conductor.
03:10
Now, we have self-flyinguno mismo-volar rocketscohetes.
57
178920
2480
Ahora, tenemos cohetes
que vuelan de forma autónoma.
03:15
Not long agohace,
58
183960
1416
No hace mucho tiempo,
03:17
AIAI couldn'tno pudo do facecara recognitionreconocimiento.
59
185400
2616
la IA no podía hacer
reconocimiento facial.
03:20
Now, AIAI can generategenerar fakefalso facescaras
60
188040
2976
Ahora la IA puede generar caras falsas
03:23
and simulatesimular your facecara
sayingdiciendo stuffcosas that you never said.
61
191040
4160
y simula tu cara diciendo
cosas que nunca dijiste.
03:28
Not long agohace,
62
196400
1576
No hace mucho tiempo,
03:30
AIAI couldn'tno pudo beatgolpear us at the gamejuego of Go.
63
198000
1880
la IA no podía vencernos
en el juego de Go.
03:32
Then, GoogleGoogle DeepMind'sDeepMind's AlphaZeroAlphaZero AIAI
tooktomó 3,000 yearsaños of humanhumano Go gamesjuegos
64
200400
5096
AlphaZero AI de Google DeepMind
tomó 3000 años de juegos de Go humanos
03:37
and Go wisdomsabiduría,
65
205520
1256
y la sabiduría Go,
03:38
ignoredignorado it all and becameconvirtió the world'smundo bestmejor
playerjugador by just playingjugando againsten contra itselfsí mismo.
66
206800
4976
lo ignoró todo y se convirtió
en el mejor jugador del mundo
simplemente jugando contra sí misma.
03:43
And the mostmás impressiveimpresionante feathazaña here
wasn'tno fue that it crushedaplastada humanhumano gamersjugadores,
67
211800
3696
Y la hazaña más impresionante aquí no fue
que aplastara a los jugadores humanos,
03:47
but that it crushedaplastada humanhumano AIAI researchersinvestigadores
68
215520
2576
sino que aplastó a los
investigadores humanos de IA
03:50
who had spentgastado decadesdécadas
handcraftingartesanía game-playingjugando juego softwaresoftware.
69
218120
3680
que habían pasado décadas
elaborando software de juegos a mano.
03:54
And AlphaZeroAlphaZero crushedaplastada humanhumano AIAI researchersinvestigadores
not just in Go but even at chessajedrez,
70
222200
4656
Y AlphaZero aplastó a los investigadores
de IA humana no solo en Go
sino incluso en ajedrez,
03:58
whichcual we have been workingtrabajando on sinceya que 1950.
71
226880
2480
en el que hemos estado
trabajando desde 1950.
04:02
So all this amazingasombroso recentreciente progressProgreso in AIAI
really begssuplica the questionpregunta:
72
230000
4240
Así que este increíble progreso reciente
en IA realmente plantea la pregunta:
04:07
How farlejos will it go?
73
235280
1560
¿hasta dónde llegará?
04:09
I like to think about this questionpregunta
74
237800
1696
Me gusta pensar en esta pregunta
04:11
in termscondiciones of this abstractabstracto
landscapepaisaje of tasksTareas,
75
239520
2976
en términos de este
paisaje abstracto de tareas,
en el que la elevación representa lo
difícil que es para la IA hacer cada tarea
04:14
where the elevationelevación representsrepresenta
how harddifícil it is for AIAI to do eachcada tasktarea
76
242520
3456
04:18
at humanhumano levelnivel,
77
246000
1216
a nivel humano,
04:19
and the seamar levelnivel representsrepresenta
what AIAI can do todayhoy.
78
247240
2760
y el nivel del mar representa
lo que la IA puede hacer hoy.
04:23
The seamar levelnivel is risingcreciente
as AIAI improvesmejora,
79
251120
2056
El nivel del mar aumenta
a medida que mejora la IA,
04:25
so there's a kindtipo of globalglobal warmingcalentamiento
going on here in the tasktarea landscapepaisaje.
80
253200
3440
así hay una especie de calentamiento
global en el paisaje de tareas.
04:30
And the obviousobvio takeawaypara llevar
is to avoidevitar careerscarreras at the waterfrontfrente al mar --
81
258040
3335
Y lo obvio es evitar
las carreras en el paseo marítimo...
04:33
(LaughterRisa)
82
261399
1257
(Risas)
04:34
whichcual will soonpronto be
automatedautomatizado and disruptedinterrumpido.
83
262680
2856
que pronto será
automatizado e interrumpido.
04:37
But there's a much
biggermás grande questionpregunta as well.
84
265560
2976
Pero también hay una pregunta
mucho más relevante.
04:40
How highalto will the wateragua endfin up risingcreciente?
85
268560
1810
¿Qué tan alto llegará el agua?
04:43
Will it eventuallyfinalmente risesubir
to floodinundar everything,
86
271440
3200
¿Finalmente se aumentará
hasta inundar todo,
04:47
matchingpareo humanhumano intelligenceinteligencia at all tasksTareas.
87
275840
2496
coincidir la inteligencia humana
en todas las tareas?
04:50
This is the definitiondefinición
of artificialartificial generalgeneral intelligenceinteligencia --
88
278360
3736
Esta es la definición de inteligencia
general artificial...
04:54
AGIINGRESO BRUTO AJUSTADO,
89
282120
1296
IAG,
04:55
whichcual has been the holysanto grailgrial
of AIAI researchinvestigación sinceya que its inceptioncomienzo.
90
283440
3080
que ha sido el santo grial de la
investigación de IA desde su inicio.
Según esta definición,
las personas que dicen,
04:59
By this definitiondefinición, people who say,
91
287000
1776
05:00
"AhAh, there will always be jobstrabajos
that humanshumanos can do better than machinesmáquinas,"
92
288800
3416
"Siempre habrá trabajos que los humanos
puedan hacer mejor que las máquinas",
05:04
are simplysimplemente sayingdiciendo
that we'llbien never get AGIINGRESO BRUTO AJUSTADO.
93
292240
2920
simplemente están diciendo
que nunca tendremos IAG.
05:07
Sure, we mightpodría still chooseescoger
to have some humanhumano jobstrabajos
94
295680
3576
Claro, aún podríamos elegir
tener algunos trabajos humanos
o darles a los humanos un ingreso
y un propósito con nuestros trabajos,
05:11
or to give humanshumanos incomeingresos
and purposepropósito with our jobstrabajos,
95
299280
3096
05:14
but AGIINGRESO BRUTO AJUSTADO will in any casecaso
transformtransformar life as we know it
96
302400
3736
pero la IAG en cualquier caso transformará
la vida tal como la conocemos
05:18
with humanshumanos no longermás beingsiendo
the mostmás intelligentinteligente.
97
306160
2736
al no ser ya los humanos
los más inteligentes.
05:20
Now, if the wateragua levelnivel does reachalcanzar AGIINGRESO BRUTO AJUSTADO,
98
308920
3696
Ahora, si el nivel del agua llega a IAG,
entonces, el progreso de la IA
no será impulsado
05:24
then furtherpromover AIAI progressProgreso will be drivenimpulsado
mainlyprincipalmente not by humanshumanos but by AIAI,
99
312640
5296
principalmente por humanos,
sino por la IA,
05:29
whichcual meansmedio that there's a possibilityposibilidad
100
317960
1856
lo que significa que hay la posibilidad
05:31
that furtherpromover AIAI progressProgreso
could be way fasterMás rápido
101
319840
2336
de que ese progreso adicional de la IA
sea mucho más rápido
05:34
than the typicaltípico humanhumano researchinvestigación
and developmentdesarrollo timescaleescala de tiempo of yearsaños,
102
322200
3376
que la escala de tiempo típica
de investigación y desarrollo
humano de años,
05:37
raisinglevantamiento the controversialpolémico possibilityposibilidad
of an intelligenceinteligencia explosionexplosión
103
325600
4016
planteando la posibilidad controvertida
de una explosión de inteligencia
05:41
where recursivelyrecursivamente self-improvingauto-mejora AIAI
104
329640
2296
donde la IA recursivamente automejorada
05:43
rapidlyrápidamente leaveshojas humanhumano
intelligenceinteligencia farlejos behinddetrás,
105
331960
3416
rápidamente deja muy atrás
la inteligencia humana,
05:47
creatingcreando what's knownconocido
as superintelligencesuperinteligencia.
106
335400
2440
creando lo que se conoce
como superinteligencia.
05:51
AlrightBien, realityrealidad checkcomprobar:
107
339800
2280
Bien, verificación de la realidad:
05:55
Are we going to get AGIINGRESO BRUTO AJUSTADO any time soonpronto?
108
343120
2440
¿Vamos a lograr IAG en el corto plazo?
05:58
Some famousfamoso AIAI researchersinvestigadores,
like RodneyRodney BrooksBrooks,
109
346360
2696
Algunos investigadores famosos de IA,
como Rodney Brooks,
06:01
think it won'tcostumbre happenocurrir
for hundredscientos of yearsaños.
110
349080
2496
creen que no sucederá en cientos de años.
06:03
But othersotros, like GoogleGoogle DeepMindDeepMind
founderfundador DemisDemis HassabisHassabis,
111
351600
3896
Pero otros, como el fundador
de Google DeepMind, Demis Hassabis,
06:07
are more optimisticoptimista
112
355520
1256
son más optimistas
y están trabajando para tratar
de que suceda mucho antes.
06:08
and are workingtrabajando to try to make
it happenocurrir much soonercuanto antes.
113
356800
2576
06:11
And recentreciente surveysencuestas have shownmostrado
that mostmás AIAI researchersinvestigadores
114
359400
3296
Y encuestas recientes han mostrado
que la mayoría de los investigadores IA
06:14
actuallyactualmente sharecompartir Demis'sDe Demis optimismoptimismo,
115
362720
2856
en realidad comparten
el optimismo de Demis,
06:17
expectingesperando that we will
get AGIINGRESO BRUTO AJUSTADO withindentro decadesdécadas,
116
365600
3080
esperando que obtengamos IAG en décadas,
06:21
so withindentro the lifetimetoda la vida of manymuchos of us,
117
369640
2256
en la vida de muchos de nosotros,
06:23
whichcual begssuplica the questionpregunta -- and then what?
118
371920
1960
lo cual plantea la pregunta, ¿y luego qué?
06:27
What do we want the rolepapel of humanshumanos to be
119
375040
2216
¿Cuál queremos que sea
el papel de los humanos
06:29
if machinesmáquinas can do everything better
and cheapermás barato than us?
120
377280
2680
si las máquinas pueden hacer todo mejor
y más barato que nosotros?
06:35
The way I see it, we facecara a choiceelección.
121
383000
2000
De la forma en que lo veo,
enfrentamos una elección.
06:38
One optionopción is to be complacentsuficiente.
122
386000
1576
Una opción es ser complacientes.
06:39
We can say, "Oh, let's just buildconstruir machinesmáquinas
that can do everything we can do
123
387600
3776
Decir: "Construyamos máquinas que
puedan hacer todo lo que podemos hacer
y no preocuparnos por las consecuencias.
06:43
and not worrypreocupación about the consequencesConsecuencias.
124
391400
1816
06:45
Come on, if we buildconstruir technologytecnología
that makeshace all humanshumanos obsoleteobsoleto,
125
393240
3256
Es decir, si construimos tecnología
que hace a todos los humanos obsoletos,
06:48
what could possiblyposiblemente go wrongincorrecto?"
126
396520
2096
¿qué podrá salir mal?".
06:50
(LaughterRisa)
127
398640
1656
(Risas)
06:52
But I think that would be
embarrassinglyviolentamente lamecojo.
128
400320
2760
Pero creo que eso sería
vergonzosamente flojo.
06:56
I think we should be more ambitiousambicioso --
in the spiritespíritu of TEDTED.
129
404080
3496
Creo que deberíamos ser
más ambiciosos... en el espíritu de TED.
06:59
Let's envisionguardar a trulyverdaderamente inspiringinspirador
high-techalta tecnología futurefuturo
130
407600
3496
Imaginemos un futuro de alta
tecnología verdaderamente inspirador
07:03
and try to steerdirigir towardshacia it.
131
411120
1400
y tratemos de dirigirnos a él.
Esto nos lleva a la segunda parte de
nuestra metáfora del cohete: la dirección.
07:05
This bringstrae us to the secondsegundo partparte
of our rocketcohete metaphormetáfora: the steeringgobierno.
132
413720
3536
07:09
We're makingfabricación AIAI more powerfulpoderoso,
133
417280
1896
Estamos haciendo que
la IA sea más poderosa,
07:11
but how can we steerdirigir towardshacia a futurefuturo
134
419200
3816
pero ¿cómo podemos
dirigirnos hacia un futuro
07:15
where AIAI helpsayuda humanityhumanidad flourishflorecer
rathermás bien than flounderplatija?
135
423040
3080
en el que la IA ayude a la humanidad
a florecer en lugar de al desconcierto?
07:18
To help with this,
136
426760
1256
Para esto,
cofundé Future of Life Institute,
07:20
I cofoundedcofundado the FutureFuturo of Life InstituteInstituto.
137
428040
1976
una organización sin fines de lucro
07:22
It's a smallpequeña nonprofitsin ánimo de lucro promotingpromoviendo
beneficialbeneficioso technologytecnología use,
138
430040
2776
que promueve el uso
de tecnología beneficiosa,
07:24
and our goalGol is simplysimplemente
for the futurefuturo of life to existexiste
139
432840
2736
y nuestro objetivo es que exista
el futuro de la vida
07:27
and to be as inspiringinspirador as possibleposible.
140
435600
2056
y ser lo más inspiradores posible.
07:29
You know, I love technologytecnología.
141
437680
3176
Ya saben, me encanta la tecnología.
07:32
TechnologyTecnología is why todayhoy
is better than the StonePiedra AgeAños.
142
440880
2920
La tecnología es el por qué hoy
es mejor que la Edad de Piedra.
07:36
And I'm optimisticoptimista that we can createcrear
a really inspiringinspirador high-techalta tecnología futurefuturo ...
143
444600
4080
Y soy optimista de que
podemos crear un futuro
de alta tecnología realmente inspirador...
07:41
if -- and this is a biggrande if --
144
449680
1456
si —y esto es un gran si—
07:43
if we winganar the wisdomsabiduría racecarrera --
145
451160
2456
si ganamos la carrera de sabiduría,
07:45
the racecarrera betweenEntre the growingcreciente
powerpoder of our technologytecnología
146
453640
2856
la carrera entre el poder creciente
de nuestra tecnología
07:48
and the growingcreciente wisdomsabiduría
with whichcual we managegestionar it.
147
456520
2200
y la creciente sabiduría
con la que lo administramos.
07:51
But this is going to requireexigir
a changecambio of strategyestrategia
148
459240
2296
Pero esto requerirá
un cambio de estrategia
07:53
because our oldantiguo strategyestrategia
has been learningaprendizaje from mistakeserrores.
149
461560
3040
porque nuestra vieja estrategia
ha sido aprender de los errores.
07:57
We inventedinventado firefuego,
150
465280
1536
Inventamos el fuego,
07:58
screwedatornillado up a bunchmanojo of timesveces --
151
466840
1536
nos afectó un montón de veces...
08:00
inventedinventado the firefuego extinguisherextintor de.
152
468400
1816
se inventó el extintor de incendios.
08:02
(LaughterRisa)
153
470240
1336
(Risas)
08:03
We inventedinventado the carcoche,
screwedatornillado up a bunchmanojo of timesveces --
154
471600
2416
Inventamos el auto,
arruinado un montón de veces
se inventó el semáforo,
el cinturón de seguridad y el airbag,
08:06
inventedinventado the traffictráfico lightligero,
the seatasiento beltcinturón and the airbagairbag,
155
474040
2667
08:08
but with more powerfulpoderoso technologytecnología
like nuclearnuclear weaponsarmas and AGIINGRESO BRUTO AJUSTADO,
156
476731
3845
pero con tecnología más poderosa
como armas nucleares e IAG,
08:12
learningaprendizaje from mistakeserrores
is a lousymalísimo strategyestrategia,
157
480600
3376
aprender de los errores
es una estrategia pésima,
08:16
don't you think?
158
484000
1216
¿no creen?
(Risas)
08:17
(LaughterRisa)
159
485240
1016
Es mucho mejor ser proactivo
en lugar de reactivo;
08:18
It's much better to be proactiveproactivo
rathermás bien than reactivereactivo;
160
486280
2576
planificar y hacer las cosas
bien la primera vez
08:20
planplan aheadadelante and get things
right the first time
161
488880
2296
porque podría ser la única vez
que lo consiguiéramos.
08:23
because that mightpodría be
the only time we'llbien get.
162
491200
2496
08:25
But it is funnygracioso because
sometimesa veces people tell me,
163
493720
2336
Pero es extraño porque
a veces la gente me dice:
08:28
"MaxMax, shhhshhh, don't talk like that.
164
496080
2736
"Max, shhh, no hables así.
08:30
That's LudditeLudita scaremongeringalarmismo."
165
498840
1720
Ese es el alarmismo ludista".
08:34
But it's not scaremongeringalarmismo.
166
502040
1536
Pero no es alarmismo.
08:35
It's what we at MITMIT
call safetyla seguridad engineeringIngenieria.
167
503600
2880
Es lo que en MIT llamamos
ingeniería de seguridad.
08:39
Think about it:
168
507200
1216
Piénsenlo:
antes de que la NASA
lanzara la misión Apolo 11,
08:40
before NASANASA launchedlanzado
the ApolloApolo 11 missionmisión,
169
508440
2216
08:42
they systematicallysistemáticamente thought throughmediante
everything that could go wrongincorrecto
170
510680
3136
pensaron sistemáticamente
en todo lo que podría salir mal
al poner gente sobre
tanques de combustible explosivos
08:45
when you put people
on topparte superior of explosiveexplosivo fuelcombustible tankstanques
171
513840
2376
08:48
and launchlanzamiento them somewherealgun lado
where no one could help them.
172
516240
2616
y lanzarla a un lugar
donde nadie podía ayudarla.
08:50
And there was a lot that could go wrongincorrecto.
173
518880
1936
Y había muchas cosas
que podrían salir mal.
08:52
Was that scaremongeringalarmismo?
174
520840
1480
¿Era eso alarmismo?
No.
08:55
No.
175
523159
1217
Fue precisamente
la ingeniería de seguridad
08:56
That's was preciselyprecisamente
the safetyla seguridad engineeringIngenieria
176
524400
2016
08:58
that ensuredasegurado the successéxito of the missionmisión,
177
526440
1936
la que aseguró el éxito de la misión,
09:00
and that is preciselyprecisamente the strategyestrategia
I think we should take with AGIINGRESO BRUTO AJUSTADO.
178
528400
4176
y esa es precisamente la estrategia
que creo que deberíamos tomar con IAG.
09:04
Think throughmediante what can go wrongincorrecto
to make sure it goesva right.
179
532600
4056
Pensar en lo que puede salir mal
para asegurarnos de que va a salir bien.
09:08
So in this spiritespíritu,
we'venosotros tenemos organizedorganizado conferencesconferencias,
180
536680
2536
En este espíritu,
organizamos conferencias,
con los principales investigadores
de la IA y otros pensadores
09:11
bringingtrayendo togetherjuntos leadinglíder
AIAI researchersinvestigadores and other thinkerspensadores
181
539240
2816
para discutir cómo crecer esta sabiduría
para mantener la IA beneficiosa.
09:14
to discussdiscutir how to growcrecer this wisdomsabiduría
we need to keep AIAI beneficialbeneficioso.
182
542080
3736
09:17
Our last conferenceconferencia
was in AsilomarAsilomar, CaliforniaCalifornia last yearaño
183
545840
3296
Nuestra última conferencia fue
en Asilomar, California, el año pasado
09:21
and producedproducido this listlista of 23 principlesprincipios
184
549160
3056
y produjo esta lista de 23 principios
que desde entonces han sido firmados
por más de 1000 investigadores de IA
09:24
whichcual have sinceya que been signedfirmado
by over 1,000 AIAI researchersinvestigadores
185
552240
2896
09:27
and keyllave industryindustria leaderslíderes,
186
555160
1296
y líderes clave de la industria,
09:28
and I want to tell you
about threeTres of these principlesprincipios.
187
556480
3176
y quiero contarles acerca
de tres de estos principios.
09:31
One is that we should avoidevitar an armsbrazos racecarrera
and lethalletal autonomousautónomo weaponsarmas.
188
559680
4960
Uno es que debemos evitar una carrera
armamentista y armas letales autónomas.
La idea aquí es que toda ciencia puede
usarse para nuevas formas de ayudar
09:37
The ideaidea here is that any scienceciencia
can be used for newnuevo waysformas of helpingración people
189
565480
3616
o nuevas formas de dañar personas.
09:41
or newnuevo waysformas of harmingdañando people.
190
569120
1536
09:42
For exampleejemplo, biologybiología and chemistryquímica
are much more likelyprobable to be used
191
570680
3936
Por ejemplo, es mucho más probable
que se usen la biología y la química
09:46
for newnuevo medicinesmedicinas or newnuevo curescura
than for newnuevo waysformas of killingasesinato people,
192
574640
4856
para nuevas medicinas o nuevas curas que
para nuevas formas de matar personas,
porque los biólogos y los químicos
presionaron mucho
09:51
because biologistsbiólogos
and chemistsfarmacia pushedempujado harddifícil --
193
579520
2176
09:53
and successfullyexitosamente --
194
581720
1256
y exitosamente...
09:55
for bansprohibiciones on biologicalbiológico
and chemicalquímico weaponsarmas.
195
583000
2176
para prohibir las armas
biológicas y químicas.
09:57
And in the samemismo spiritespíritu,
196
585200
1256
Y en el mismo espíritu,
09:58
mostmás AIAI researchersinvestigadores want to stigmatizeestigmatizar
and banprohibición lethalletal autonomousautónomo weaponsarmas.
197
586480
4440
la mayoría de los investigadores de IA
quieren estigmatizar y prohibir
las armas letales autónomas.
10:03
AnotherOtro AsilomarAsilomar AIAI principleprincipio
198
591600
1816
Otro principio de IA Asilomar
10:05
is that we should mitigatemitigar
AI-fueledAlimentada por el AI incomeingresos inequalitydesigualdad.
199
593440
3696
es que debemos mitigar la desigualdad
de ingresos alimentada con IA.
10:09
I think that if we can growcrecer
the economiceconómico pietarta dramaticallydramáticamente with AIAI
200
597160
4456
Creo que si podemos hacer crecer el pastel
económico radicalmente con la IA
y no podemos entender
cómo dividir este pastel
10:13
and we still can't figurefigura out
how to dividedividir this pietarta
201
601640
2456
10:16
so that everyonetodo el mundo is better off,
202
604120
1576
para que todos estén mejor,
10:17
then shamevergüenza on us.
203
605720
1256
entonces avergoncémonos.
10:19
(ApplauseAplausos)
204
607000
4096
(Aplausos)
10:23
AlrightBien, now raiseaumento your handmano
if your computercomputadora has ever crashedestrellado.
205
611120
3600
Ahora levanten la mano si su computadora
se ha dañado alguna vez.
10:27
(LaughterRisa)
206
615480
1256
(Risas)
10:28
WowGuau, that's a lot of handsmanos.
207
616760
1656
Uy, son muchas manos.
10:30
Well, then you'lltu vas a appreciateapreciar
this principleprincipio
208
618440
2176
Bueno, entonces apreciarán este principio
que deberíamos invertir mucho más
en la investigación de seguridad de IA,
10:32
that we should investinvertir much more
in AIAI safetyla seguridad researchinvestigación,
209
620640
3136
10:35
because as we put AIAI in chargecargar
of even more decisionsdecisiones and infrastructureinfraestructura,
210
623800
3656
porque al poner a la IA a cargo de
más decisiones e infraestructura,
tenemos que encontrar cómo transformar
10:39
we need to figurefigura out how to transformtransformar
today'shoy buggycalesa and hackableliberable computersordenadores
211
627480
3616
las computadoras pirateables y con errores
10:43
into robustrobusto AIAI systemssistemas
that we can really trustconfianza,
212
631120
2416
en sistemas robustos de IA
en los que poder confiar,
10:45
because otherwisede otra manera,
213
633560
1216
porque de otra manera,
toda esta nueva tecnología
puede funcionar mal y dañarnos,
10:46
all this awesomeincreíble newnuevo technologytecnología
can malfunctionmal funcionamiento and harmdaño us,
214
634800
2816
o ser pirateada y
volverse contra nosotros.
10:49
or get hackedpirateado and be turnedconvertido againsten contra us.
215
637640
1976
10:51
And this AIAI safetyla seguridad work
has to includeincluir work on AIAI valuevalor alignmentalineación,
216
639640
5696
Y este trabajo de seguridad de IA
debe incluir trabajo sobre
la alineación de valores de IA,
10:57
because the realreal threatamenaza
from AGIINGRESO BRUTO AJUSTADO isn't malicemalicia,
217
645360
2816
porque la amenaza real
de la IAG no es la malicia,
como en las tontas películas de Hollywood,
11:00
like in sillytonto HollywoodHollywood moviespelículas,
218
648200
1656
11:01
but competencecompetencia --
219
649880
1736
sino la competencia...
11:03
AGIINGRESO BRUTO AJUSTADO accomplishinglogrando goalsmetas
that just aren'tno son alignedalineado with oursla nuestra.
220
651640
3416
La IAG logrando metas que simplemente
no están alineadas con las nuestras.
11:07
For exampleejemplo, when we humanshumanos drovecondujo
the WestOeste Africanafricano blacknegro rhinorinoceronte extinctextinto,
221
655080
4736
Por ejemplo, cuando los humanos llevamos
al rinoceronte negro africano occidental
a la extinción,
11:11
we didn't do it because we were a bunchmanojo
of evilmal rhinocerosrinoceronte hatersenemigos, did we?
222
659840
3896
no lo hicimos porque fuéramos malvados
enemigos del rinoceronte, ¿verdad?
Fue porque éramos
más inteligentes que ellos
11:15
We did it because
we were smartermás inteligente than them
223
663760
2056
y nuestros objetivos no estaban
alineados con los suyos.
11:17
and our goalsmetas weren'tno fueron alignedalineado with theirssuyo.
224
665840
2576
11:20
But AGIINGRESO BRUTO AJUSTADO is by definitiondefinición smartermás inteligente than us,
225
668440
2656
Pero la IAG es, por definición,
más inteligente que nosotros,
11:23
so to make sure that we don't put
ourselvesNosotros mismos in the positionposición of those rhinosrinocerontes
226
671120
3576
así que para asegurarnos de no ponernos
en la posición de esos rinocerontes
11:26
if we createcrear AGIINGRESO BRUTO AJUSTADO,
227
674720
1976
si creamos la IAG,
11:28
we need to figurefigura out how
to make machinesmáquinas understandentender our goalsmetas,
228
676720
4176
necesitamos descubrir cómo hacer que las
máquinas comprendan nuestros objetivos,
11:32
adoptadoptar our goalsmetas and retainconservar our goalsmetas.
229
680920
3160
adopten nuestros objetivos
y retengan nuestros objetivos.
11:37
And whosecuyo goalsmetas should these be, anywayde todas formas?
230
685320
2856
¿Y de quién son los objetivos,
de todos modos?
11:40
WhichCual goalsmetas should they be?
231
688200
1896
¿Cuáles objetivos deberían ser?
11:42
This bringstrae us to the thirdtercero partparte
of our rocketcohete metaphormetáfora: the destinationdestino.
232
690120
3560
Esto nos lleva a la tercera parte de
nuestra metáfora del cohete: el destino.
Estamos haciendo que la IA
sea más poderosa,
11:47
We're makingfabricación AIAI more powerfulpoderoso,
233
695160
1856
11:49
tryingmolesto to figurefigura out how to steerdirigir it,
234
697040
1816
tratando de descubrir cómo dirigirla,
11:50
but where do we want to go with it?
235
698880
1680
pero ¿a dónde queremos llegar?
11:53
This is the elephantelefante in the roomhabitación
that almostcasi nobodynadie talksnegociaciones about --
236
701760
3656
Este es el elefante en la habitación
del que casi nadie habla...
11:57
not even here at TEDTED --
237
705440
1856
ni siquiera aquí en TED,
11:59
because we're so fixatedobsesionado
on short-termtérmino corto AIAI challengesdesafíos.
238
707320
4080
porque estamos muy obsesionados
con los desafíos de la IA a corto plazo.
12:04
Look, our speciesespecies is tryingmolesto to buildconstruir AGIINGRESO BRUTO AJUSTADO,
239
712080
4656
Miren, nuestra especie
está tratando de construir la IAG,
12:08
motivatedmotivado by curiositycuriosidad and economicsciencias económicas,
240
716760
3496
motivada por la curiosidad y la economía,
12:12
but what sortordenar of futurefuturo societysociedad
are we hopingesperando for if we succeedtener éxito?
241
720280
3680
pero ¿qué tipo de sociedad futura
estamos esperando si lo logramos?
Una encuesta de opinión
sobre esto recientemente,
12:16
We did an opinionopinión pollencuesta on this recentlyrecientemente,
242
724680
1936
12:18
and I was struckgolpeado to see
243
726640
1216
y me llamó la atención ver
12:19
that mostmás people actuallyactualmente
want us to buildconstruir superintelligencesuperinteligencia:
244
727880
2896
que la mayoría de la gente quiere
que construyamos superinteligencia:
12:22
AIAI that's vastlyvastamente smartermás inteligente
than us in all waysformas.
245
730800
3160
La IA es mucho más inteligente
que nosotros en todos los sentidos.
12:27
What there was the greatestmejor agreementacuerdo on
was that we should be ambitiousambicioso
246
735120
3416
El mayor acuerdo fue que
deberíamos ser ambiciosos
12:30
and help life spreaduntado into the cosmoscosmos,
247
738560
2016
y ayudar a la vida a extenderse al cosmos,
12:32
but there was much lessMenos agreementacuerdo
about who or what should be in chargecargar.
248
740600
4496
pero había mucho menos acuerdo
sobre quién o qué debería estar a cargo.
12:37
And I was actuallyactualmente quitebastante amuseddivertido
249
745120
1736
Y en realidad era bastante entretenido
12:38
to see that there's some some people
who want it to be just machinesmáquinas.
250
746880
3456
ver que hay algunas personas
que quieren que sean solo máquinas.
12:42
(LaughterRisa)
251
750360
1696
(Risas)
12:44
And there was totaltotal disagreementdesacuerdo
about what the rolepapel of humanshumanos should be,
252
752080
3856
Y hubo desacuerdo total sobre cuál
debería ser el papel de los humanos,
12:47
even at the mostmás basicBASIC levelnivel,
253
755960
1976
incluso en el nivel más básico,
12:49
so let's take a closercerca look
at possibleposible futuresfuturos
254
757960
2816
así que echemos un vistazo
más de cerca a los posibles futuros
12:52
that we mightpodría chooseescoger
to steerdirigir towardhacia, alrightbien?
255
760800
2736
a los que podríamos
elegir dirigirnos, ¿está bien?
12:55
So don't get be wrongincorrecto here.
256
763560
1336
No se equivoquen aquí.
12:56
I'm not talkinghablando about spaceespacio travelviajar,
257
764920
2056
No estoy hablando de viajes espaciales
12:59
merelysimplemente about humanity'sla humanidad
metaphoricalmetafórico journeyviaje into the futurefuturo.
258
767000
3200
solo del viaje metafórico
de la humanidad hacia el futuro.
13:02
So one optionopción that some
of my AIAI colleaguescolegas like
259
770920
3496
Entonces, una opción que a algunos
de mis colegas de IA les gusta
13:06
is to buildconstruir superintelligencesuperinteligencia
and keep it underdebajo humanhumano controlcontrolar,
260
774440
3616
es construir superinteligencia
y mantenerla bajo control humano,
13:10
like an enslavedesclavizado god,
261
778080
1736
como un dios esclavizado,
13:11
disconnecteddesconectado from the internetInternet
262
779840
1576
desconectado de internet
13:13
and used to createcrear unimaginableno imaginable
technologytecnología and wealthriqueza
263
781440
3256
y que se usa para crear tecnología
y riqueza inimaginables
13:16
for whoeverquien controlscontroles it.
264
784720
1240
para quien la controla.
13:18
But LordSeñor ActonActon warnedprevenido us
265
786800
1456
Pero Lord Acton nos advirtió que
13:20
that powerpoder corruptscorrompe,
and absoluteabsoluto powerpoder corruptscorrompe absolutelyabsolutamente,
266
788280
3616
ese poder corrompe, y el poder absoluto
corrompe absolutamente,
13:23
so you mightpodría worrypreocupación that maybe
we humanshumanos just aren'tno son smartinteligente enoughsuficiente,
267
791920
4056
podrían preocuparse de que, tal vez,
los humanos no somos lo inteligentes
13:28
or wisesabio enoughsuficiente rathermás bien,
268
796000
1536
o suficientemente sabios,
13:29
to handleencargarse de this much powerpoder.
269
797560
1240
como para manejar tanto poder.
13:31
Alsotambién, asideaparte from any
moralmoral qualmsningún tipo de escrúpulo you mightpodría have
270
799640
2536
Además, aparte de cualquier
reparo moral que puedan tener
13:34
about enslavingesclavizar superiorsuperior mindsmentes,
271
802200
2296
sobre esclavizar mentes superiores,
13:36
you mightpodría worrypreocupación that maybe
the superintelligencesuperinteligencia could outsmartburlar us,
272
804520
3976
podrían preocuparse de que
tal vez la superinteligencia
pueda ser más astuta que nosotros,
13:40
breakdescanso out and take over.
273
808520
2240
evadirse y tomar el control.
13:43
But I alsoademás have colleaguescolegas
who are fine with AIAI takingtomando over
274
811560
3416
Pero también tengo colegas que están
de acuerdo con que la IA se haga cargo
13:47
and even causingcausando humanhumano extinctionextinción,
275
815000
2296
e incluso cause la extinción humana,
13:49
as long as we feel the the AIsAIs
are our worthydigno descendantsdescendientes,
276
817320
3576
siempre y cuando sientan que las IAs
son nuestras dignas descendientes,
13:52
like our childrenniños.
277
820920
1736
como nuestros hijos
13:54
But how would we know that the AIsAIs
have adoptedadoptado our bestmejor valuesvalores
278
822680
5616
Pero ¿cómo sabríamos que la IA ha
adoptado nuestros mejores valores?
14:00
and aren'tno son just unconsciousinconsciente zombieszombies
trickingengañando us into anthropomorphizingantropomorfizar them?
279
828320
4376
y no son solo zombis inconscientes
engañándonos antropomorfizándose?
14:04
Alsotambién, shouldn'tno debería those people
who don't want humanhumano extinctionextinción
280
832720
2856
Además, ¿no deberían las personas
que no quieren la extinción humana
14:07
have a say in the matterimportar, too?
281
835600
1440
poder algo decir al respecto también?
14:10
Now, if you didn't like eitherya sea
of those two high-techalta tecnología optionsopciones,
282
838200
3376
Ahora, si no les gustó ninguna de esas
dos opciones de alta tecnología,
14:13
it's importantimportante to rememberrecuerda
that low-techbaja tecnología is suicidesuicidio
283
841600
3176
es importante recordar que
la baja tecnología es un suicidio
desde una perspectiva cósmica,
14:16
from a cosmiccósmico perspectiveperspectiva,
284
844800
1256
14:18
because if we don't go farlejos
beyondmás allá today'shoy technologytecnología,
285
846080
2496
porque si no vamos más allá
de la tecnología actual,
14:20
the questionpregunta isn't whethersi humanityhumanidad
is going to go extinctextinto,
286
848600
2816
la pregunta no es si la humanidad
se va a extinguir,
14:23
merelysimplemente whethersi
we're going to get takentomado out
287
851440
2016
simplemente si nos van a acabar
14:25
by the nextsiguiente killerasesino asteroidasteroide, supervolcanosupervolcano
288
853480
2136
el próximo asteroide asesino,
un supervolcán
14:27
or some other problemproblema
that better technologytecnología could have solvedresuelto.
289
855640
3096
u otro problema que una
mejor tecnología podría haber resuelto.
14:30
So, how about havingteniendo
our cakepastel and eatingcomiendo it ...
290
858760
3576
Entonces, ¿qué tal tener
nuestro pastel y comérnoslo...
14:34
with AGIINGRESO BRUTO AJUSTADO that's not enslavedesclavizado
291
862360
1840
con la IAG que no esté esclavizada
sino que nos trata bien porque sus valores
están alineados con los nuestros?
14:37
but treatstrata us well because its valuesvalores
are alignedalineado with oursla nuestra?
292
865120
3176
14:40
This is the gistesencia of what EliezerEliezer YudkowskyYudkowsky
has calledllamado "friendlyamistoso AIAI,"
293
868320
4176
Es la esencia de lo que Eliezer Yudkowsky
llama "amigable inteligencia artificial".
14:44
and if we can do this,
it could be awesomeincreíble.
294
872520
2680
y si podemos hacer esto,
podría ser increíble.
14:47
It could not only eliminateeliminar negativenegativo
experiencesexperiencias like diseaseenfermedad, povertypobreza,
295
875840
4816
No solo podría eliminar las experiencias
negativas como la enfermedad, la pobreza,
14:52
crimecrimen and other sufferingsufrimiento,
296
880680
1456
el crimen u otro sufrimiento,
14:54
but it could alsoademás give us
the freedomlibertad to chooseescoger
297
882160
2816
sino también podría darnos
la libertad de elegir
14:57
from a fantasticfantástico newnuevo diversitydiversidad
of positivepositivo experiencesexperiencias --
298
885000
4056
de una nueva y fantástica diversidad
de experiencias positivas
15:01
basicallybásicamente makingfabricación us
the mastersmaestros of our ownpropio destinydestino.
299
889080
3160
básicamente haciéndonos dueños
de nuestro propio destino.
15:06
So in summaryresumen,
300
894280
1376
Entonces, en resumen,
15:07
our situationsituación with technologytecnología
is complicatedComplicado,
301
895680
3096
nuestra situación con la tecnología
es complicada,
15:10
but the biggrande pictureimagen is rathermás bien simplesencillo.
302
898800
2416
pero el panorama general
es bastante simple.
15:13
MostMás AIAI researchersinvestigadores
expectesperar AGIINGRESO BRUTO AJUSTADO withindentro decadesdécadas,
303
901240
3456
La mayoría de los investigadores
de IA esperan la IAG en décadas,
15:16
and if we just bumbleandar de forma vacilante
into this unprepareddesprevenido,
304
904720
3136
y si nos equivocamos
en esto sin preparación,
15:19
it will probablyprobablemente be
the biggestmás grande mistakeError in humanhumano historyhistoria --
305
907880
3336
probablemente sea el error más grande
en la historia de la humanidad...
15:23
let's facecara it.
306
911240
1416
afrontémoslo.
15:24
It could enablehabilitar brutalbrutal,
globalglobal dictatorshipdictadura
307
912680
2576
Podría permitir
una dictadura brutal y global
15:27
with unprecedentedsin precedentes inequalitydesigualdad,
surveillancevigilancia and sufferingsufrimiento,
308
915280
3536
con desigualdad, vigilancia
y sufrimiento sin precedentes,
15:30
and maybe even humanhumano extinctionextinción.
309
918840
1976
y tal vez incluso la extinción humana.
15:32
But if we steerdirigir carefullycuidadosamente,
310
920840
2320
Pero si nos dirigimos con cuidado,
15:36
we could endfin up in a fantasticfantástico futurefuturo
where everybody'stodos estan better off:
311
924040
3896
podríamos terminar en un futuro fantástico
en el que todos estemos mejor:
15:39
the poorpobre are richermás rico, the richRico are richermás rico,
312
927960
2376
los pobres son más ricos,
los ricos son más ricos,
15:42
everybodytodos is healthysaludable
and freegratis to livevivir out theirsu dreamsSueños.
313
930360
3960
todos están sanos y son
libres de vivir sus sueños.
15:47
Now, hangcolgar on.
314
935000
1536
Ahora, esperen.
15:48
Do you folksamigos want the futurefuturo
that's politicallypolíticamente right or left?
315
936560
4576
¿Uds. quieren el futuro políticamente
de derecha o de izquierda?
15:53
Do you want the piouspiadoso societysociedad
with strictestricto moralmoral rulesreglas,
316
941160
2856
¿Quieren la sociedad piadosa
con estrictas reglas morales,
15:56
or do you an hedonistichedonista free-for-allgratuita para todos,
317
944040
1816
o una libertad hedonista para todos,
15:57
more like BurningArdiente Man 24/7?
318
945880
2216
más como Burning Man 24/7?
16:00
Do you want beautifulhermosa beachesplayas,
forestsbosques and lakeslagos,
319
948120
2416
¿Quieren hermosas playas, bosques y lagos,
16:02
or would you preferpreferir to rearrangearreglar de nuevo
some of those atomsátomos with the computersordenadores,
320
950560
3416
o prefieren reorganizar algunos
de esos átomos con las computadoras,
16:06
enablinghabilitar virtualvirtual experiencesexperiencias?
321
954000
1715
permitiendo experiencias virtuales?
16:07
With friendlyamistoso AIAI, we could simplysimplemente
buildconstruir all of these societiessociedades
322
955739
3157
Con una IA amigable, podríamos
construir todas estas sociedades
16:10
and give people the freedomlibertad
to chooseescoger whichcual one they want to livevivir in
323
958920
3216
y dar a las personas la libertad
de elegir en cuál quieren vivir
16:14
because we would no longermás
be limitedlimitado by our intelligenceinteligencia,
324
962160
3096
porque ya no estaríamos limitados
por nuestra inteligencia,
solo por las leyes de la física.
16:17
merelysimplemente by the lawsleyes of physicsfísica.
325
965280
1456
16:18
So the resourcesrecursos and spaceespacio
for this would be astronomicalastronómico --
326
966760
4616
Entonces, los recursos y el espacio
para esto serían astronómicos,
16:23
literallyliteralmente.
327
971400
1320
literalmente.
16:25
So here'saquí está our choiceelección.
328
973320
1200
Así que aquí está nuestra elección.
16:27
We can eitherya sea be complacentsuficiente
about our futurefuturo,
329
975880
2320
Podemos ser complacientes
con nuestro futuro,
16:31
takingtomando as an articleartículo of blindciego faithfe
330
979440
2656
tomando como un artículo de fe ciega
16:34
that any newnuevo technologytecnología
is guaranteedgarantizado to be beneficialbeneficioso,
331
982120
4016
que cualquier nueva tecnología
garantiza ser beneficiosa,
16:38
and just repeatrepetir that to ourselvesNosotros mismos
as a mantramantra over and over and over again
332
986160
4136
y solo repetírnoslo a nosotros mismos
como un mantra una y otra y otra vez
16:42
as we driftderiva like a rudderlesssin timón shipenviar
towardshacia our ownpropio obsolescenceobsolescencia.
333
990320
3680
mientras navegamos como un barco sin
timón hacia nuestra propia obsolescencia.
16:46
Or we can be ambitiousambicioso --
334
994920
1880
O podemos ser ambiciosos
pensando mucho acerca de
cómo dirigir nuestra tecnología
16:49
thinkingpensando harddifícil about how
to steerdirigir our technologytecnología
335
997840
2456
16:52
and where we want to go with it
336
1000320
1936
y a dónde queremos ir con eso
16:54
to createcrear the ageaños of amazementasombro.
337
1002280
1760
para crear la era del asombro.
16:57
We're all here to celebratecelebrar
the ageaños of amazementasombro,
338
1005000
2856
Todos estamos aquí para celebrar
la era del asombro,
16:59
and I feel that its essenceesencia should liementira
in becomingdevenir not overpowereddominado
339
1007880
4440
y siento que su esencia debe estar
en no ser poderosos en exceso
17:05
but empoweredempoderado by our technologytecnología.
340
1013240
2616
sino empoderados por nuestra tecnología.
17:07
Thank you.
341
1015880
1376
Gracias.
17:09
(ApplauseAplausos)
342
1017280
3080
(Aplausos)
Translated by Ciro Gomez
Reviewed by Lidia Cámara de la Fuente

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com