ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez y Xu Liu: Un ratón. Un rayo láser. Un recuerdo manipulado.

Filmed:
1,127,889 views

¿Podemos editar el contenido de nuestros recuerdos? Es una pregunta teñida de ciencia ficción que Steve Ramirez y Xu Liu se preguntan en su laboratorio en el MIT. Esencialmente, el par dispara un rayo láser en el cerebro de un ratón vivo para activar y manipular su memoria. En esta charla inesperadamente divertida comparten no solo cómo sino, lo más importante, por qué hacen esto. (Filmado en TEDxBoston).
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveSteve RamirezRamirez: My first yearaño of gradgraduado schoolcolegio,
0
371
1556
Steve Ramirez: En mi primer
año de posgrado
00:13
I foundencontró myselfmí mismo in my bedroomCuarto
1
1927
2004
estaba en mi habitación
00:15
eatingcomiendo lots of BenBen & Jerry'sJerry's
2
3931
2300
comiendo helados Ben & Jerry's
00:18
watchingacecho some trashyde pacotilla TVtelevisión
3
6231
1684
viendo telebasura,
00:19
and maybe, maybe listeningescuchando to TaylorTaylor SwiftRápido.
4
7915
3227
y quizás, quizás,
escuchando a Taylor Swift.
00:23
I had just goneido throughmediante a breakupruptura.
5
11142
1741
Acababa de pasar por
una relación rota.
00:24
(LaughterRisa)
6
12883
1447
(Risas)
00:26
So for the longestmás largo time, all I would do
7
14330
2196
Todo lo que hacía,
la mayor parte del tiempo
00:28
is recallrecordar the memorymemoria of this personpersona over and over again,
8
16526
3816
era recordar a esa
persona una y otra vez,
00:32
wishingdeseando that I could get rideliminar of that gut-wrenchingdesgarrador,
9
20342
2493
esperando poder deshacerme
de esa sensación
00:34
visceralvisceral "blahpaja" feelingsensación.
10
22835
2533
visceral de vacío desgarrador.
00:37
Now, as it turnsvueltas out, I'm a neuroscientistneurocientífico,
11
25368
2283
Pero resulta que
soy neurocientífico,
00:39
so I knewsabía that the memorymemoria of that personpersona
12
27651
2402
de modo que sabía que
el recuerdo de esa persona
00:42
and the awfulhorrible, emotionalemocional undertonesmatices that colorcolor in that memorymemoria,
13
30053
3140
y el horrible trasfondo emocional
que coloreaba ese recuerdo
00:45
are largelyen gran parte mediatedmediado by separateseparar braincerebro systemssistemas.
14
33193
2634
eran en gran medida mediados
por sistemas cerebrales separados.
00:47
And so I thought, what if we could go into the braincerebro
15
35827
2365
Y entonces pensé, ¿qué pasaría
si pudiéramos entrar al cerebro
00:50
and editeditar out that nauseatingnauseabundo feelingsensación
16
38192
2090
y editar ese sentimiento nauseabundo
00:52
but while keepingacuerdo the memorymemoria of that personpersona intactintacto?
17
40282
2970
pero mantener a la vez intacta
la memoria de esa persona?
00:55
Then I realizeddio cuenta, maybe that's a little bitpoco loftyelevado for now.
18
43252
2411
Entonces me di cuenta de que quizá
era un poco inalcanzable por ahora.
00:57
So what if we could startcomienzo off by going into the braincerebro
19
45663
2793
Entonces, ¿qué pasaría si
pudiéramos entrar en el cerebro
01:00
and just findinghallazgo a singlesoltero memorymemoria to beginempezar with?
20
48456
2633
y encontrar un solo recuerdo,
para comenzar?
01:03
Could we jump-startbuen inicio that memorymemoria back to life,
21
51089
2514
¿Podríamos llevar ese recuerdo
de nuevo a la vida,
01:05
maybe even playjugar with the contentscontenido of that memorymemoria?
22
53603
3868
tal vez incluso jugar con
el contenido de ese recuerdo?
01:09
All that said, there is one personpersona in the entiretodo worldmundo right now
23
57471
2229
Dicho todo eso, solo hay
una persona en todo el mundo
01:11
that I really hopeesperanza is not watchingacecho this talk.
24
59700
2055
que realmente espero no
esté mirando esta charla.
01:13
(LaughterRisa)
25
61755
3941
(Risas)
01:17
So there is a catchcaptura. There is a catchcaptura.
26
65696
3289
Así que hay una trampa. Hay una trampa.
01:20
These ideasideas probablyprobablemente remindrecordar you of "TotalTotal RecallRecordar,"
27
68985
2788
Estas ideas probablemente les recuerden
"El vengador del futuro/Desafío total",
01:23
"EternalEterno SunshineSol of the SpotlessInmaculado MindMente,"
28
71773
1974
"Eterno resplandor de
una mente sin recuerdos"
01:25
or of "InceptionComienzo."
29
73747
1303
o "El Origen".
01:27
But the moviepelícula starsestrellas that we work with
30
75050
1576
Pero las estrellas de las
películas en las que trabajamos
01:28
are the celebritiesfamosos of the lablaboratorio.
31
76626
1943
son las celebridades del laboratorio.
01:30
XuXu LiuLiu: TestPrueba miceratones.
32
78569
1900
Xu Liu: Ratones de laboratorio.
01:32
(LaughterRisa)
33
80469
1128
(Risas)
01:33
As neuroscientistsneurocientíficos, we work in the lablaboratorio with miceratones
34
81597
3154
Como neurocientíficos, trabajamos
en el laboratorio con ratones
01:36
tryingmolesto to understandentender how memorymemoria workstrabajos.
35
84751
3410
tratando de entender
cómo funciona la memoria.
01:40
And todayhoy, we hopeesperanza to convinceconvencer you that now
36
88161
2569
Y hoy, esperamos poder
convencerlos de que ahora
01:42
we are actuallyactualmente ablepoder to activateactivar a memorymemoria in the braincerebro
37
90730
3216
somos realmente capaces de
activar un recuerdo en el cerebro
01:45
at the speedvelocidad of lightligero.
38
93946
2170
a la velocidad de la luz.
01:48
To do this, there's only two simplesencillo stepspasos to followseguir.
39
96116
3106
Para hacer esto, hay solo
dos sencillos pasos a seguir.
01:51
First, you find and labeletiqueta a memorymemoria in the braincerebro,
40
99222
3510
En primer lugar, encontrar y
marcar un recuerdo en el cerebro,
01:54
and then you activateactivar it with a switchcambiar.
41
102732
3630
y luego activarlo con un interruptor.
01:58
As simplesencillo as that.
42
106362
1445
Tan simple como eso.
01:59
(LaughterRisa)
43
107807
1822
(Risas)
02:01
SRSR: Are you convincedconvencido?
44
109629
1845
SR: ¿Están convencidos?
02:03
So, turnsvueltas out findinghallazgo a memorymemoria in the braincerebro isn't all that easyfácil.
45
111474
3721
Resulta que encontrar un recuerdo
en el cerebro no es fácil.
02:07
XLSG: IndeedEn efecto. This is way more difficultdifícil than, let's say,
46
115195
2803
XL: En efecto. Es mucho
más difícil que, digamos,
02:09
findinghallazgo a needleaguja in a haystackalmiar,
47
117998
2404
encontrar una aguja en un pajar,
02:12
because at leastmenos, you know, the needleaguja is still something
48
120402
2589
porque por lo menos, saben,
la aguja sigue siendo algo
02:14
you can physicallyfísicamente put your fingersdedos on.
49
122991
2500
físico en el que pueden
poner sus dedos.
02:17
But memorymemoria is not.
50
125491
1977
Pero la memoria no lo es.
02:19
And alsoademás, there's way more cellsCélulas in your braincerebro
51
127468
3038
Y además, hay más
células en el cerebro
02:22
than the numbernúmero of strawspajitas in a typicaltípico haystackalmiar.
52
130506
5066
que el número de pajas
en un pajar típico.
02:27
So yeah, this tasktarea does seemparecer to be dauntingdesalentador.
53
135572
2879
Así que sí, esta tarea
parece ser desalentadora.
02:30
But luckilypor suerte, we got help from the braincerebro itselfsí mismo.
54
138451
3679
Pero afortunadamente, tenemos
ayuda del cerebro mismo.
02:34
It turnedconvertido out that all we need to do is basicallybásicamente
55
142130
2455
Resulta que todo lo que
necesitamos hacer es básicamente
02:36
to let the braincerebro formformar a memorymemoria,
56
144585
1993
dejar que el cerebro
haga un recuerdo,
02:38
and then the braincerebro will tell us whichcual cellsCélulas are involvedinvolucrado
57
146578
3830
y entonces el cerebro nos dirá
cuáles células están involucradas
02:42
in that particularespecial memorymemoria.
58
150408
1766
en ese recuerdo en particular.
02:44
SRSR: So what was going on in my braincerebro
59
152174
2357
SR: ¿Qué estaba
pasando en mi cerebro
02:46
while I was recallingrecordando the memorymemoria of an exex?
60
154531
2094
mientras estaba recordando a mi ex?
02:48
If you were to just completelycompletamente ignoreignorar humanhumano ethicsética for a secondsegundo
61
156625
2402
Si ignoraran completamente
la ética humana por un segundo
02:51
and slicerebanada up my braincerebro right now,
62
159027
1668
y cortaran mi cerebro
en este momento,
02:52
you would see that there was an amazingasombroso numbernúmero
63
160695
2018
verían que hubo
un número asombroso
02:54
of braincerebro regionsregiones that were activeactivo while recallingrecordando that memorymemoria.
64
162713
3178
de regiones del cerebro que se activaron
al mismo tiempo, trayendo ese recuerdo.
02:57
Now one braincerebro regionregión that would be robustlyrobustamente activeactivo
65
165891
2912
Una región cerebral que
estaría sólidamente activa
03:00
in particularespecial is calledllamado the hippocampushipocampo,
66
168803
2007
en particular se llama el hipocampo,
03:02
whichcual for decadesdécadas has been implicatedimplicado in processingtratamiento
67
170810
2455
que durante décadas
se ha implicado en el proceso
03:05
the kindsclases of memoriesrecuerdos that we holdsostener nearcerca and dearquerido,
68
173265
2416
de la clase de recuerdos
que nos son cercanos y queridos,
03:07
whichcual alsoademás makeshace it an idealideal targetobjetivo to go into
69
175681
2574
que también lo hace
un destino ideal para ir
03:10
and to try and find and maybe reactivatereactivar a memorymemoria.
70
178255
2785
y tratar de encontrar, y
tal vez reactivar, un recuerdo.
03:13
XLSG: When you zoomenfocar in into the hippocampushipocampo,
71
181040
2394
XL: Cuando uno se acerca al hipocampo,
03:15
of coursecurso you will see lots of cellsCélulas,
72
183434
2348
por supuesto, verán
un montón de células,
03:17
but we are ablepoder to find whichcual cellsCélulas are involvedinvolucrado
73
185782
3031
pero somos capaces de encontrar
las células que están involucradas
03:20
in a particularespecial memorymemoria,
74
188813
1476
en un recuerdo en particular,
03:22
because whenevercuando a cellcelda is activeactivo,
75
190289
2618
porque cuando una célula está activa,
03:24
like when it's formingformando a memorymemoria,
76
192907
1464
como cuando se está
formando un recuerdo,
03:26
it will alsoademás leavesalir a footprinthuella that will laterluego allowpermitir us to know
77
194371
3757
también dejará una huella que
posteriormente nos permitirá conocer
03:30
these cellsCélulas are recentlyrecientemente activeactivo.
78
198128
2702
que estas células están
recientemente activadas.
03:32
SRSR: So the samemismo way that buildingedificio lightsluces at night
79
200830
2160
SR: De la misma manera
que las luces de este edificio
03:34
let you know that somebody'salguien es probablyprobablemente workingtrabajando there at any givendado momentmomento,
80
202990
2948
nos permiten saber que alguien está
trabajando allí en un momento dado,
03:37
in a very realreal sensesentido, there are biologicalbiológico sensorssensores
81
205938
3288
en un sentido muy real,
hay sensores biológicos
03:41
withindentro a cellcelda that are turnedconvertido on
82
209226
1954
dentro de una célula
que se encienden
03:43
only when that cellcelda was just workingtrabajando.
83
211180
2135
solo cuando la célula
estuvo trabajando.
03:45
They're sortordenar of biologicalbiológico windowsventanas that lightligero up
84
213315
1876
Son una clase de ventanas
biológicas que se iluminan
03:47
to let us know that that cellcelda was just activeactivo.
85
215191
1978
para dejarnos saber que
esa célula estuvo activa.
03:49
XLSG: So we clippedcortado partparte of this sensorsensor,
86
217169
2829
XL: Así que recortamos
parte de este sensor,
03:51
and attachedadjunto that to a switchcambiar to controlcontrolar the cellsCélulas,
87
219998
3147
y lo conectamos a un interruptor
para el control de las células,
03:55
and we packedlleno this switchcambiar into an engineereddiseñado virusvirus
88
223145
3900
y empacamos este interruptor
en un virus modificado
03:59
and injectedinyectado that into the braincerebro of the miceratones.
89
227045
2588
que se inyecta en
el cerebro de los ratones.
04:01
So whenevercuando a memorymemoria is beingsiendo formedformado,
90
229633
2634
Así que cuando se está
formando un recuerdo,
04:04
any activeactivo cellsCélulas for that memorymemoria
91
232267
2348
cualquier célula activa
por ese recuerdo
04:06
will alsoademás have this switchcambiar installedinstalado.
92
234615
2742
también tendrá este
interruptor instalado.
04:09
SRSR: So here is what the hippocampushipocampo looksmiradas like
93
237357
1625
SR: Aquí está cómo
se ve el hipocampo
04:10
after formingformando a fearmiedo memorymemoria, for exampleejemplo.
94
238982
2840
después de formar un recuerdo
de miedo, por ejemplo.
04:13
The seamar of blueazul that you see here
95
241822
2140
El mar azul que ven aquí
04:15
are denselydensamente packedlleno braincerebro cellsCélulas,
96
243962
1952
está densamente poblado de neuronas,
04:17
but the greenverde braincerebro cellsCélulas,
97
245914
1545
pero las neuronas en verde,
04:19
the greenverde braincerebro cellsCélulas are the onesunos that are holdingparticipación on
98
247459
2096
las neuronas verdes, son las
únicas que están teniendo
04:21
to a specificespecífico fearmiedo memorymemoria.
99
249555
1843
un recuerdo de temor.
04:23
So you are looking at the crystallizationcristalización
100
251398
1979
Así que están mirando la cristalización
04:25
of the fleetingfugaz formationformación of fearmiedo.
101
253377
2387
de la formación efímera del miedo.
04:27
You're actuallyactualmente looking at the cross-sectionsección transversal of a memorymemoria right now.
102
255764
3497
Están realmente viendo en la
sección transversal de un recuerdo.
04:31
XLSG: Now, for the switchcambiar we have been talkinghablando about,
103
259261
2408
XL: Ahora, para el cambio del
que hemos estado hablando,
04:33
ideallyidealmente, the switchcambiar has to actacto really fastrápido.
104
261669
2970
idealmente, el interruptor
tiene que actuar muy rápido.
04:36
It shouldn'tno debería take minutesminutos or hourshoras to work.
105
264639
2579
No debería tardar minutos
u horas en trabajar.
04:39
It should actacto at the speedvelocidad of the braincerebro, in millisecondsmilisegundos.
106
267218
4264
Debería actuar a la velocidad
del cerebro, en milisegundos.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
SR: ¿Qué crees, Xu?
04:44
Could we use, let's say, pharmacologicalfarmacológico drugsdrogas
108
272912
2602
¿Podríamos usar, digamos,
medicamentos farmacológicos
04:47
to activateactivar or inactivateinactivar braincerebro cellsCélulas?
109
275514
1838
para activar o desactivar
las células cerebrales?
04:49
XLSG: NahNah. DrugsDrogas are prettybonita messysucio. They spreaduntado everywhereen todos lados.
110
277352
4063
XL: No. Las drogas son desordenadas.
Se esparcen por todas partes.
04:53
And alsoademás it takes them foreverSiempre to actacto on cellsCélulas.
111
281415
3008
Y duran eternidades
en actuar en las células.
04:56
So it will not allowpermitir us to controlcontrolar a memorymemoria in realreal time.
112
284423
3649
Así que no nos permitirán controlar
un recuerdo en tiempo real.
05:00
So SteveSteve, how about let's zapborrar the braincerebro with electricityelectricidad?
113
288072
4294
Así que Steve, ¿qué tal si asaltamos
el cerebro con la electricidad?
05:04
SRSR: So electricityelectricidad is prettybonita fastrápido,
114
292366
2305
SR: La electricidad es muy rápida,
05:06
but we probablyprobablemente wouldn'tno lo haría be ablepoder to targetobjetivo it
115
294671
1739
pero probablemente no
seríamos capaces de atacar
05:08
to just the specificespecífico cellsCélulas that holdsostener ontosobre a memorymemoria,
116
296410
2354
solo las células específicas
que se aferran a un recuerdo,
05:10
and we'dmie probablyprobablemente fryfreír the braincerebro.
117
298764
1878
y probablemente
freiríamos el cerebro.
05:12
XLSG: Oh. That's truecierto. So it looksmiradas like, hmmhmm,
118
300642
3195
XL: Oh. Eso es cierto.
Así parece, mmm,
05:15
indeeden efecto we need to find a better way
119
303837
2611
en efecto tenemos que
encontrar una mejor manera
05:18
to impactimpacto the braincerebro at the speedvelocidad of lightligero.
120
306448
3295
de impactar el cerebro
a la velocidad de la luz.
05:21
SRSR: So it just so happenssucede that lightligero travelsviajes at the speedvelocidad of lightligero.
121
309743
5086
SR: Resulta que la luz viaja
a la velocidad de la luz.
05:26
So maybe we could activateactivar or inactiveinactivo memoriesrecuerdos
122
314829
3483
Tal vez podríamos
activar o inactivar recuerdos
05:30
by just usingutilizando lightligero --
123
318312
1497
usando solo luz...
05:31
XLSG: That's prettybonita fastrápido.
124
319809
1355
XL: Es bastante rápida.
05:33
SRSR: -- and because normallynormalmente braincerebro cellsCélulas
125
321164
1885
SR: ...y como normalmente las neuronas
05:35
don't respondresponder to pulsespulsos of lightligero,
126
323049
1588
no responden a pulsos de luz,
05:36
so those that would respondresponder to pulsespulsos of lightligero
127
324637
1958
aquellas que respondieran
a pulsos de luz
05:38
are those that containContiene a light-sensitivesensible a la luz switchcambiar.
128
326595
2464
serían aquellas que tuvieran
un interruptor sensible a la luz.
05:41
Now to do that, first we need to tricktruco braincerebro cellsCélulas
129
329059
1946
Para hacer eso, primero tenemos
que engañar a las neuronas
05:43
to respondresponder to laserláser beamsvigas.
130
331005
1462
para que respondan
a los rayos láser.
05:44
XLSG: Yep. You heardoído it right.
131
332467
1070
XL: Sí. Lo han oído bien.
05:45
We are tryingmolesto to shootdisparar lasersláser into the braincerebro.
132
333537
2132
Estamos tratando de disparar
rayos láser en el cerebro.
05:47
(LaughterRisa)
133
335669
1745
(Risas)
05:49
SRSR: And the techniquetécnica that letsdeja us do that is optogeneticsoptogenética.
134
337414
3324
SR: Y la técnica que nos
permite hacerlo es la optogenética.
05:52
OptogeneticsOptogenética gavedio us this lightligero switchcambiar that we can use
135
340738
3282
La optogenética nos dio este
interruptor de luz que podemos utilizar
05:56
to turngiro braincerebro cellsCélulas on or off,
136
344020
1508
para prender o apagar las neuronas
05:57
and the namenombre of that switchcambiar is channelrhodopsinchannelrhodopsin,
137
345528
2517
y el nombre de ese
conmutador es canalrodopsina,
06:00
seenvisto here as these greenverde dotspuntos attachedadjunto to this braincerebro cellcelda.
138
348045
2537
vistos aquí como estos puntos
verdes pegados a esta neurona.
06:02
You can think of channelrhodopsinchannelrhodopsin as a sortordenar of light-sensitivesensible a la luz switchcambiar
139
350582
3299
Pueden pensar en la canalrodopsina como
una especie de interruptor sensible a la luz
06:05
that can be artificiallyartificialmente installedinstalado in braincerebro cellsCélulas
140
353881
2627
que puede instalarse
artificialmente en las neuronas
06:08
so that now we can use that switchcambiar
141
356508
1914
así que ahora podemos
usar el interruptor
06:10
to activateactivar or inactivateinactivar the braincerebro cellcelda simplysimplemente by clickinghaciendo clic it,
142
358422
3013
para activar o desactivar la neurona
simplemente clic en el interruptor
06:13
and in this casecaso we clickhacer clic it on with pulsespulsos of lightligero.
143
361435
2468
y en este caso hacemos
clic con pulsos de luz.
06:15
XLSG: So we attachadjuntar this light-sensitivesensible a la luz switchcambiar of channelrhodopsinchannelrhodopsin
144
363903
3786
XL: Así que pegamos este interruptor
sensible a la luz de la canalrodopsina
06:19
to the sensorsensor we'venosotros tenemos been talkinghablando about
145
367689
2208
al sensor del que
hemos estado hablando
06:21
and injectinyectar this into the braincerebro.
146
369897
2455
y lo inyectamos en el cerebro.
06:24
So whenevercuando a memorymemoria is beingsiendo formedformado,
147
372352
3211
Así que cuando se está
formando una memoria,
06:27
any activeactivo cellcelda for that particularespecial memorymemoria
148
375563
2227
cualquier célula activa para
que un recuerdo particular
06:29
will alsoademás have this light-sensitivesensible a la luz switchcambiar installedinstalado in it
149
377790
3484
también tendrá este interruptor
sensible a la luz instalado en él
06:33
so that we can controlcontrolar these cellsCélulas
150
381274
2401
así que podemos
controlar estas células
06:35
by the flippingvolteando of a laserláser just like this one you see.
151
383675
4264
moviendo de un tirón
el láser como ven.
06:39
SRSR: So let's put all of this to the testprueba now.
152
387939
2864
SR: Así que vamos a poner
todo esto a prueba ahora.
06:42
What we can do is we can take our miceratones
153
390803
2135
Lo que podemos hacer es
tomar nuestros ratones
06:44
and then we can put them in a boxcaja that looksmiradas exactlyexactamente like this boxcaja here,
154
392938
2928
y ponerlos en una caja que
se ve exactamente igual que esta
06:47
and then we can give them a very mildtemplado footpie shockchoque
155
395866
2340
y darles un leve choque
eléctrico en el pie
06:50
so that they formformar a fearmiedo memorymemoria of this boxcaja.
156
398206
2035
y así formar un recuerdo
de miedo a esta caja.
06:52
They learnaprender that something badmalo happenedsucedió here.
157
400241
1979
Aprenderán que algo
malo sucedió aquí.
06:54
Now with our systemsistema, the cellsCélulas that are activeactivo
158
402220
2342
Ahora con nuestro sistema,
las células que están activas
06:56
in the hippocampushipocampo in the makingfabricación of this memorymemoria,
159
404562
2931
en el hipocampo en la
elaboración de este recuerdo,
06:59
only those cellsCélulas will now containContiene channelrhodopsinchannelrhodopsin.
160
407493
2883
solo esas células
contendrá canalrodopsina.
07:02
XLSG: When you are as smallpequeña as a mouseratón,
161
410376
3017
XL: Cuando eres tan pequeño
como un ratón,
07:05
it feelssiente as if the wholetodo worldmundo is tryingmolesto to get you.
162
413393
3595
se siente como si todo el mundo
estuviera tratando de cazarte.
07:08
So your bestmejor responserespuesta of defensedefensa
163
416988
1748
Así que la mejor
respuesta de defensa
07:10
is tryingmolesto to be undetectedno detectado.
164
418736
2482
es tratar de pasar inadvertido.
07:13
WheneverCuando a mouseratón is in fearmiedo,
165
421218
2033
Cuando un ratón tiene miedo,
07:15
it will showespectáculo this very typicaltípico behaviorcomportamiento
166
423251
1526
mostrará este comportamiento muy típico
07:16
by stayingquedarse at one corneresquina of the boxcaja,
167
424777
1769
yéndose a una esquina de la caja,
07:18
tryingmolesto to not movemovimiento any partparte of its bodycuerpo,
168
426546
3118
tratando de no mover
ninguna parte de su cuerpo,
07:21
and this posturepostura is calledllamado freezingcongelación.
169
429664
3295
postura que se llama congelación.
07:24
So if a mouseratón remembersrecuerda that something badmalo happenedsucedió in this boxcaja,
170
432959
4294
Así que si un ratón recuerda que
algo malo sucedió en esta caja,
07:29
and when we put them back into the samemismo boxcaja,
171
437253
2623
cuando lo ponemos
en la misma caja,
07:31
it will basicallybásicamente showespectáculo freezingcongelación
172
439876
1804
básicamente nos mostrará congelación
07:33
because it doesn't want to be detecteddetectado
173
441680
2285
porque no quiere ser detectado
07:35
by any potentialpotencial threatsamenazas in this boxcaja.
174
443965
2695
por cualquier amenaza
potencial de la caja.
07:38
SRSR: So you can think of freezingcongelación as,
175
446660
1355
SR: Así que pueden pensar
en la congelación como
07:40
you're walkingpara caminar down the streetcalle mindingmente your ownpropio businessnegocio,
176
448015
2215
si están caminando por la
calle pensando en sus asuntos,
07:42
and then out of nowhereen ninguna parte you almostcasi runcorrer into
177
450230
1725
y entonces de la nada
se encuentran frente
07:43
an ex-girlfriendex novia or ex-boyfriendex novio,
178
451955
2192
a una exnovia o exnovio,
07:46
and now those terrifyingespantoso two secondssegundos
179
454147
2134
y por dos terroríficos segundos
07:48
where you startcomienzo thinkingpensando, "What do I do? Do I say hiHola?
180
456281
1876
empiezan a pensar,
"¿Qué hago? ¿Digo hola?
07:50
Do I shakesacudir theirsu handmano? Do I turngiro around and runcorrer away?
181
458157
1368
¿Estrecho su mano?
¿Doy la vuelta y huyo?
07:51
Do I sitsentar here and pretendfingir like I don't existexiste?"
182
459525
2029
¿Me siento aquí y hago
como si no existiera?"
07:53
Those kindsclases of fleetingfugaz thoughtspensamientos that physicallyfísicamente incapacitateincapacitar you,
183
461554
3184
Son esa clase de pensamientos
fugaces que físicamente incapacitan
07:56
that temporarilytemporalmente give you that deer-in-headlightsciervos en los faros look.
184
464738
2746
que temporalmente dan esa
mirada de ciervos deslumbrados.
07:59
XLSG: Howeversin embargo, if you put the mouseratón in a completelycompletamente differentdiferente
185
467484
3291
XL: Sin embargo, si ponen el ratón
en una nueva caja completamente
08:02
newnuevo boxcaja, like the nextsiguiente one,
186
470775
3161
diferente, como la siguiente,
08:05
it will not be afraidasustado of this boxcaja
187
473936
2147
no habrá miedo de esta caja
08:08
because there's no reasonrazón that it will be afraidasustado of this newnuevo environmentambiente.
188
476083
4729
porque no hay ninguna razón por
la que temer a este nuevo entorno.
08:12
But what if we put the mouseratón in this newnuevo boxcaja
189
480812
3180
Pero ¿qué pasa si ponemos
el ratón en esta nueva caja
08:15
but at the samemismo time, we activateactivar the fearmiedo memorymemoria
190
483992
3611
pero al mismo tiempo,
activamos la memoria del miedo
08:19
usingutilizando lasersláser just like we did before?
191
487603
2679
utilizando láseres
como lo hicimos antes?
08:22
Are we going to bringtraer back the fearmiedo memorymemoria
192
490282
2854
¿Vamos a traer el recuerdo del miedo
08:25
for the first boxcaja into this completelycompletamente newnuevo environmentambiente?
193
493136
3997
de la primera caja en este
entorno completamente nuevo?
08:29
SRSR: All right, and here'saquí está the million-dollarun millón de dólares experimentexperimentar.
194
497133
2735
SR: Bien, y aquí está el
experimento del millón de dólares.
08:31
Now to bringtraer back to life the memorymemoria of that day,
195
499868
2913
Ahora para traer de vuelta a
la vida el recuerdo de ese día,
08:34
I rememberrecuerda that the Redrojo SoxMedias had just wonwon,
196
502781
2183
recuerdo que los
Red Sox habían ganado,
08:36
it was a greenverde springprimavera day,
197
504964
1909
era un día de primavera verde,
08:38
perfectPerfecto for going up and down the riverrío
198
506873
1817
perfecto para subir
y bajar por el río
08:40
and then maybe going to the Northnorte EndFin
199
508690
2334
y luego quizá ir al extremo norte
08:43
to get some cannoliscannolis, #justsayingsolo digo.
200
511024
2160
para conseguir algunos
cannoli, #justsaying.
08:45
Now XuXu and I, on the other handmano,
201
513184
3102
Ahora Xu y yo, por otro lado,
08:48
were in a completelycompletamente windowlesssin ventanas blacknegro roomhabitación
202
516286
2829
estábamos en una habitación
completamente oscura, sin ventanas,
08:51
not makingfabricación any ocularocular movementmovimiento that even remotelyremotamente resemblesse asemeja an eyeojo blinkparpadeo
203
519115
3661
sin hacer ningún movimiento ocular que
remotamente se asemejara a un parpadeo
08:54
because our eyesojos were fixedfijo ontosobre a computercomputadora screenpantalla.
204
522776
2466
porque nuestros ojos estaban fijos
en la pantalla de una computadora.
08:57
We were looking at this mouseratón here tryingmolesto to activateactivar a memorymemoria
205
525242
2556
Estábamos mirando este ratón,
tratando de activar un recuerdo
08:59
for the first time usingutilizando our techniquetécnica.
206
527798
1883
por primera vez
usando nuestra técnica.
09:01
XLSG: And this is what we saw.
207
529681
2688
XL: Y esto es lo que vimos.
09:04
When we first put the mouseratón into this boxcaja,
208
532369
2202
Cuando ponemos primero
el ratón en esta caja,
09:06
it's exploringexplorador, sniffingoliendo around, walkingpara caminar around,
209
534571
3113
explora, husmea,
camina por ahí,
09:09
mindingmente its ownpropio businessnegocio,
210
537684
1689
ocupándose de
sus propios asuntos,
09:11
because actuallyactualmente by naturenaturaleza,
211
539373
1701
porque en realidad
por naturaleza,
09:13
miceratones are prettybonita curiouscurioso animalsanimales.
212
541074
1979
los ratones son
animales muy curiosos.
09:15
They want to know, what's going on in this newnuevo boxcaja?
213
543053
2622
Quieren saber qué está
pasando en esta nueva caja.
09:17
It's interestinginteresante.
214
545675
1531
Es interesante.
09:19
But the momentmomento we turnedconvertido on the laserláser, like you see now,
215
547206
3451
Pero en el momento que
encendimos el láser, como ven
09:22
all of a suddenrepentino the mouseratón enteredingresó this freezingcongelación modemodo.
216
550657
3032
de repente el ratón entró
en este modo de congelación.
09:25
It stayedse quedó here and triedintentó not to movemovimiento any partparte of its bodycuerpo.
217
553689
4431
Se alojó aquí y trató de no mover
ninguna parte de su cuerpo.
09:30
ClearlyClaramente it's freezingcongelación.
218
558120
1628
Claramente está congelado.
09:31
So indeeden efecto, it looksmiradas like we are ablepoder to bringtraer back
219
559748
2583
De hecho, parece que somos
capaces de traer de vuelta
09:34
the fearmiedo memorymemoria for the first boxcaja
220
562331
2064
la memoria del miedo
a la primera caja
09:36
in this completelycompletamente newnuevo environmentambiente.
221
564395
3367
en este entorno
completamente nuevo.
09:39
While watchingacecho this, SteveSteve and I
222
567762
2112
Viendo esto, Steve y yo
09:41
are as shockedconmocionado as the mouseratón itselfsí mismo.
223
569874
2133
estábamos tan sorprendidos
como el ratón mismo.
09:44
(LaughterRisa)
224
572007
1262
(Risas)
09:45
So after the experimentexperimentar, the two of us just left the roomhabitación
225
573269
3307
Así que después del
experimento, los dos salimos
09:48
withoutsin sayingdiciendo anything.
226
576576
1753
sin decir nada.
09:50
After a kindtipo of long, awkwardtorpe periodperíodo of time,
227
578329
3396
Después de una especie de largo
y difícil período de tiempo,
09:53
SteveSteve brokerompió the silencesilencio.
228
581725
2212
Steve rompió el silencio.
09:55
SRSR: "Did that just work?"
229
583937
2341
SR: "¿Funcionó?"
09:58
XLSG: "Yes," I said. "IndeedEn efecto it workedtrabajó!"
230
586278
2974
XL: "Sí," dije.
"¡De hecho funcionó!"
10:01
We're really excitedemocionado about this.
231
589252
2117
Estábamos muy entusiasmados.
10:03
And then we publishedpublicado our findingsrecomendaciones
232
591369
2624
Y entonces publicamos
nuestros hallazgos
10:05
in the journaldiario NatureNaturaleza.
233
593993
1696
en la revista Nature.
10:07
Ever sinceya que the publicationpublicación of our work,
234
595689
2471
Desde la publicación
de nuestro trabajo,
10:10
we'venosotros tenemos been receivingrecepción numerousnumeroso commentscomentarios
235
598160
2415
hemos estado recibiendo
numerosos comentarios
10:12
from all over the InternetInternet.
236
600575
2125
de todo el Internet.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Tal vez podemos echar
un vistazo a algunos.
10:18
["OMGGGGGOMGGGGG FINALLYFINALMENTE... so much more to come, virtualvirtual realityrealidad, neuralneural manipulationmanipulación, visualvisual dreamsueño emulationemulación... neuralneural codingcodificación, 'writing'escritura and re-writingreescribiendo of memories'recuerdos', mentalmental illnessesenfermedades. AhhhAhhh the futurefuturo is awesomeincreíble"]
238
606450
2457
["Cielos, por fin... mucho por venir, realidad virtual, manipulación neural, emulación de sueño visual... codificación neuronal, 'escribir y reescribir recuerdos', enfermedades mentales. Ahhh, el futuro es impresionante".]
10:20
SRSR: So the first thing that you'lltu vas a noticedarse cuenta is that people
239
608907
2000
SR: Así que lo primero
que notarán es que la gente
10:22
have really strongfuerte opinionsopiniones about this kindtipo of work.
240
610907
2903
tiene opiniones muy fuertes
sobre este tipo de trabajo.
10:25
Now I happenocurrir to completelycompletamente agreede acuerdo with the optimismoptimismo
241
613810
2554
Estoy de acuerdo
completamente con el optimismo
10:28
of this first quotecitar,
242
616364
816
de esta primera cita,
10:29
because on a scaleescala of zerocero to MorganMorgan Freeman'sFreeman's voicevoz,
243
617180
2808
porque en una escala de cero
a la voz de Morgan Freeman,
10:31
it happenssucede to be one of the mostmás evocativeevocador accoladeselogios
244
619988
2123
pasa a ser uno de los
galardones más sugerentes
10:34
that I've heardoído come our way.
245
622111
1550
que haya escuchado
en nuestro camino.
10:35
(LaughterRisa)
246
623661
2196
(Risas)
10:37
But as you'lltu vas a see, it's not the only opinionopinión that's out there.
247
625857
1951
Pero como veremos, no es
la única opinión que hay por ahí.
10:39
["This scaressustos the hellinfierno out of me... What if they could do that easilyfácilmente in humanshumanos in a couplePareja of yearsaños?! OH MY GOD WE'RE DOOMEDCONDENADO"]
248
627808
1564
["Esto asusta... ¡¿Qué pasa si pueden hacerlo fácilmente en los humanos en un par de años?! OH DIOS MÍO, ESTAMOS PERDIDOS".
10:41
XLSG: IndeedEn efecto, if we take a look at the secondsegundo one,
249
629372
1918
XL: De hecho, si echamos
un vistazo a la segunda opinión
10:43
I think we can all agreede acuerdo that it's, mehMeh,
250
631290
2107
creo que todos
coincidimos en que, eh,
10:45
probablyprobablemente not as positivepositivo.
251
633397
2375
probablemente no sea tan positivo.
10:47
But this alsoademás remindsrecuerda us that,
252
635772
2185
Pero esto también
nos recuerda que,
10:49
althougha pesar de que we are still workingtrabajando with miceratones,
253
637957
2186
aunque todavía estamos
trabajando con ratones,
10:52
it's probablyprobablemente a good ideaidea to startcomienzo thinkingpensando and discussingque se discute
254
640143
3517
es probablemente una buena idea
empezar a pensar y debatir
10:55
about the possibleposible ethicalético ramificationsramificaciones
255
643660
2991
sobre las posibles
ramificaciones éticas
10:58
of memorymemoria controlcontrolar.
256
646651
1948
del control de la memoria.
11:00
SRSR: Now, in the spiritespíritu of the thirdtercero quotecitar,
257
648599
2200
SR: Ahora, en el espíritu
de la tercera cita,
11:02
we want to tell you about a recentreciente projectproyecto that we'venosotros tenemos been
258
650799
1974
queremos hablar de un
proyecto reciente que hemos
11:04
workingtrabajando on in lablaboratorio that we'venosotros tenemos calledllamado ProjectProyecto InceptionComienzo.
259
652773
2428
trabajado en el laboratorio
que hemos llamado Proyecto Origen.
11:07
["They should make a moviepelícula about this. Where they plantplanta ideasideas into peoplespueblos mindsmentes, so they can controlcontrolar them for theirsu ownpropio personalpersonal gainganancia. We'llBien call it: InceptionComienzo."]
260
655201
3243
["Deberían hacer una película, donde siembran ideas en las mentes de la gente, para poder controlarlos y lograr su propia ganancia personal, llamémosle: Origen".]
11:10
So we reasonedrazonado that now that we can reactivatereactivar a memorymemoria,
261
658444
3734
Razonamos que, ahora que nosotros
podemos reactivar un recuerdo,
11:14
what if we do so but then beginempezar to tinkergitano with that memorymemoria?
262
662178
2952
¿qué pasa si podemos hacerlo pero luego
empiezan a manosear ese recuerdo?
11:17
Could we possiblyposiblemente even turngiro it into a falsefalso memorymemoria?
263
665130
3033
¿Podríamos posiblemente hasta
convertirlo en una falsa memoria?
11:20
XLSG: So all memorymemoria is sophisticatedsofisticado and dynamicdinámica,
264
668163
4099
XL: Toda la memoria es
sofisticada y dinámica,
11:24
but if just for simplicitysencillez, let's imagineimagina memorymemoria
265
672262
2979
pero por simplicidad,
imaginemos la memoria como
11:27
as a moviepelícula clipacortar.
266
675241
1402
una secuencia de película.
11:28
So farlejos what we'venosotros tenemos told you is basicallybásicamente we can controlcontrolar
267
676643
2670
Hasta ahora lo que hemos dicho
básicamente es que podemos controlar
11:31
this "playjugar" buttonbotón of the clipacortar
268
679313
1931
este botón de "reproducir"
de la secuencia
11:33
so that we can playjugar this videovídeo clipacortar any time, anywhereen cualquier sitio.
269
681244
4585
así que podemos activar esta secuencia
de vídeo en cualquier momento y lugar.
11:37
But is there a possibilityposibilidad that we can actuallyactualmente get
270
685829
2531
Pero ¿hay una posibilidad de
que en realidad podamos llegar
11:40
insidedentro the braincerebro and editeditar this moviepelícula clipacortar
271
688360
2860
dentro del cerebro y editar
esta secuencia de película
11:43
so that we can make it differentdiferente from the originaloriginal?
272
691220
2896
para que sea diferente del original?
11:46
Yes we can.
273
694116
2178
Sí podemos.
11:48
TurnedConvertido out that all we need to do is basicallybásicamente
274
696294
2130
Resultó que todo lo que
necesitamos hacer es básicamente
11:50
reactivatereactivar a memorymemoria usingutilizando lasersláser just like we did before,
275
698424
4275
reactivar un recuerdo utilizando
láseres como lo hicimos antes,
11:54
but at the samemismo time, if we presentpresente newnuevo informationinformación
276
702699
3439
pero al mismo tiempo,
si presentamos información nueva
11:58
and allowpermitir this newnuevo informationinformación to incorporateincorporar into this oldantiguo memorymemoria,
277
706138
3974
y permitimos que esta nueva información
se incorpore en esta memoria antigua,
12:02
this will changecambio the memorymemoria.
278
710112
2438
esto va a cambiar la memoria.
12:04
It's sortordenar of like makingfabricación a remixremix tapecinta.
279
712550
3663
Es como hacer un video remix.
12:08
SRSR: So how do we do this?
280
716213
2858
SR: ¿Cómo lo hacemos?
12:11
RatherMás bien than findinghallazgo a fearmiedo memorymemoria in the braincerebro,
281
719071
1957
En lugar de encontrar un
recuerdo de miedo en el cerebro,
12:13
we can startcomienzo by takingtomando our animalsanimales,
282
721028
1716
podemos empezar por
tomar nuestros animales,
12:14
and let's say we put them in a blueazul boxcaja like this blueazul boxcaja here
283
722744
2933
y digamos ponerlos en una
caja azul como esta caja azul
12:17
and we find the braincerebro cellsCélulas that representrepresentar that blueazul boxcaja
284
725677
2494
y encontramos las neuronas
que representan esa caja azul
12:20
and we tricktruco them to respondresponder to pulsespulsos of lightligero
285
728171
2073
y las alteramos para
responder a pulsos de luz
12:22
exactlyexactamente like we had said before.
286
730244
2121
exactamente como dijimos antes.
12:24
Now the nextsiguiente day, we can take our animalsanimales and placelugar them
287
732365
2124
Ya al día siguiente, podemos
tomar nuestros animales y colocarlos
12:26
in a redrojo boxcaja that they'veellos tienen never experiencedexperimentado before.
288
734489
2699
en una caja roja que nunca
han experimentado antes.
12:29
We can shootdisparar lightligero into the braincerebro to reactivatereactivar
289
737188
2026
Podemos disparar luz en
el cerebro para reactivar
12:31
the memorymemoria of the blueazul boxcaja.
290
739214
2109
la memoria de la caja azul.
12:33
So what would happenocurrir here if, while the animalanimal
291
741323
1744
¿Qué pasaría aquí si,
mientras el animal
12:35
is recallingrecordando the memorymemoria of the blueazul boxcaja,
292
743067
1894
está recordando la
memoria de la caja azul,
12:36
we gavedio it a couplePareja of mildtemplado footpie shockschoques?
293
744961
2643
le damos un par de choques
eléctricos suaves en el pie?
12:39
So here we're tryingmolesto to artificiallyartificialmente make an associationasociación
294
747604
2693
Así que aquí estamos tratando de
hacer artificialmente una asociación
12:42
betweenEntre the memorymemoria of the blueazul boxcaja
295
750297
1915
entre la memoria de la caja azul
12:44
and the footpie shockschoques themselvessí mismos.
296
752212
1503
y los choques en el pie.
12:45
We're just tryingmolesto to connectconectar the two.
297
753715
1779
Estamos tratando
de conectar los dos.
12:47
So to testprueba if we had donehecho so,
298
755494
1543
Así que para
probar si lo hicimos
12:49
we can take our animalsanimales onceuna vez again
299
757037
1328
una vez más podemos
llevar nuestros animales
12:50
and placelugar them back in the blueazul boxcaja.
300
758365
1946
y colocarlos en la caja azul.
12:52
Again, we had just reactivatedreactivado the memorymemoria of the blueazul boxcaja
301
760311
2738
Una vez más, solo habíamos
reactivado la memoria de la caja azul
12:55
while the animalanimal got a couplePareja of mildtemplado footpie shockschoques,
302
763049
2167
mientras que el animal tiene un par
de choques suaves en el pie,
12:57
and now the animalanimal suddenlyrepentinamente freezescongela.
303
765216
2370
y ahora de repente
el animal se congela.
12:59
It's as thoughaunque it's recallingrecordando beingsiendo mildlylevemente shockedconmocionado in this environmentambiente
304
767586
3202
Es como si estuviera recordando haber sido
ligeramente sorprendido en este entorno
13:02
even thoughaunque that never actuallyactualmente happenedsucedió.
305
770788
3002
aunque en realidad nunca pasó.
13:05
So it formedformado a falsefalso memorymemoria,
306
773790
1862
Así formó un falso recuerdo,
13:07
because it's falselyfalsamente fearingtemiendo an environmentambiente
307
775652
2011
porque está falsamente
atemorizado al entorno
13:09
where, technicallytécnicamente speakingHablando,
308
777663
1254
donde, técnicamente hablando,
13:10
nothing badmalo actuallyactualmente happenedsucedió to it.
309
778917
2349
en realidad no le pasó nada malo.
13:13
XLSG: So, so farlejos we are only talkinghablando about
310
781266
2453
XL: Así que, hasta
ahora solo hablamos de
13:15
this light-controlledcontrolado por la luz "on" switchcambiar.
311
783719
2366
este interruptor de luz "encendido".
13:18
In facthecho, we alsoademás have a light-controlledcontrolado por la luz "off" switchcambiar,
312
786085
3288
De hecho, tenemos también
un controlador de luz para "apagado",
13:21
and it's very easyfácil to imagineimagina that
313
789373
2080
y es muy fácil imaginar que
13:23
by installinginstalando this light-controlledcontrolado por la luz "off" switchcambiar,
314
791453
2478
mediante la instalación de ese
controlador de luz "apagado",
13:25
we can alsoademás turngiro off a memorymemoria, any time, anywhereen cualquier sitio.
315
793931
5588
también podemos apagar un recuerdo,
en cualquier momento y lugar.
13:31
So everything we'venosotros tenemos been talkinghablando about todayhoy
316
799519
2214
Así que de todo lo que
hemos estado hablando hoy
13:33
is basedbasado on this philosophicallyfilosóficamente chargedcargado principleprincipio of neuroscienceneurociencia
317
801733
4677
se basa en este principio de la
neurociencia cargado filosóficamente
13:38
that the mindmente, with its seeminglyaparentemente mysteriousmisterioso propertiespropiedades,
318
806410
4118
de que la mente, con sus
propiedades aparentemente misteriosas,
13:42
is actuallyactualmente madehecho of physicalfísico stuffcosas that we can tinkergitano with.
319
810528
3645
en realidad está hecha de cosas
físicas con las que nosotros podemos jugar.
13:46
SRSR: And for me personallypersonalmente,
320
814173
1475
SR: Y yo personalmente,
13:47
I see a worldmundo where we can reactivatereactivar
321
815648
1581
veo un mundo donde
nos podemos reactivar
13:49
any kindtipo of memorymemoria that we'dmie like.
322
817229
2116
cualquier tipo de
memoria que deseemos.
13:51
I alsoademás see a worldmundo where we can eraseborrar unwantedno deseado memoriesrecuerdos.
323
819345
3298
También veo un mundo donde
podemos borrar recuerdos no deseados.
13:54
Now, I even see a worldmundo where editingedición memoriesrecuerdos
324
822643
1936
Ahora, veo un mundo
en que editar recuerdos
13:56
is something of a realityrealidad,
325
824579
1539
es una realidad,
13:58
because we're livingvivo in a time where it's possibleposible
326
826118
1705
porque vivimos en una
época donde es posible
13:59
to pluckarrancar questionspreguntas from the treeárbol of scienceciencia fictionficción
327
827823
2225
arrancar preguntas del
árbol de la ciencia ficción
14:02
and to groundsuelo them in experimentalexperimental realityrealidad.
328
830048
2420
y sembrarlas en el suelo
de la realidad experimental.
14:04
XLSG: NowadaysHoy en día, people in the lablaboratorio
329
832468
1883
XL: Hoy en día, la gente
en el laboratorio
14:06
and people in other groupsgrupos all over the worldmundo
330
834351
2386
y personas de otros
grupos de todo el mundo
14:08
are usingutilizando similarsimilar methodsmétodos to activateactivar or editeditar memoriesrecuerdos,
331
836737
3817
utilizan métodos similares
para activar o editar recuerdos,
14:12
whethersi that's oldantiguo or newnuevo, positivepositivo or negativenegativo,
332
840554
3841
sean viejos o nuevos,
positivos o negativos,
14:16
all sortstipo of memoriesrecuerdos so that we can understandentender
333
844395
2672
todo tipo de recuerdos
para que podamos entender
14:19
how memorymemoria workstrabajos.
334
847067
1864
cómo funciona la memoria.
14:20
SRSR: For exampleejemplo, one groupgrupo in our lablaboratorio
335
848931
1784
SR: Por ejemplo, un grupo
en nuestro laboratorio
14:22
was ablepoder to find the braincerebro cellsCélulas that make up a fearmiedo memorymemoria
336
850715
2638
fue capaz de encontrar las neuronas
que conforman un recuerdo de miedo
14:25
and convertedconvertido them into a pleasurableagradable memorymemoria, just like that.
337
853353
2775
y convertirlo en un recuerdo
agradable, así de simple.
14:28
That's exactlyexactamente what I mean about editingedición these kindsclases of processesprocesos.
338
856128
3062
Eso es exactamente lo que quiero decir
sobre este tipo de procesos de edición.
14:31
Now one dudetipo in lablaboratorio was even ablepoder to reactivatereactivar
339
859190
1812
Un amigo en el laboratorio fue
incluso capaz de reactivar
14:33
memoriesrecuerdos of femalehembra miceratones in malemasculino miceratones,
340
861002
2501
recuerdos de ratones femeninos
en ratones machos,
14:35
whichcual rumorrumor has it is a pleasurableagradable experienceexperiencia.
341
863503
2995
que se rumora que es
una experiencia placentera.
14:38
XLSG: IndeedEn efecto, we are livingvivo in a very excitingemocionante momentmomento
342
866498
4117
XL: En efecto, estamos viviendo
un momento muy emocionante
14:42
where scienceciencia doesn't have any arbitraryarbitrario speedvelocidad limitslímites
343
870615
3805
donde la ciencia no tiene
límites de velocidad arbitrarios
14:46
but is only boundligado by our ownpropio imaginationimaginación.
344
874420
3187
sino que solo está limitada
por nuestra propia imaginación.
14:49
SRSR: And finallyfinalmente, what do we make of all this?
345
877607
2147
SR: Y finalmente, ¿qué
hacemos con todo esto?
14:51
How do we pushempujar this technologytecnología forwardadelante?
346
879754
1971
¿Cómo podemos impulsar
esta tecnología?
14:53
These are the questionspreguntas that should not remainpermanecer
347
881725
1837
Estas son las preguntas
que no deben permanecer
14:55
just insidedentro the lablaboratorio,
348
883562
1675
solo dentro del laboratorio,
14:57
and so one goalGol of today'shoy talk was to bringtraer everybodytodos
349
885237
2572
y así un objetivo de la charla de hoy
era exponer a todo el mundo
14:59
up to speedvelocidad with the kindtipo of stuffcosas that's possibleposible
350
887809
2319
al tipo de cosas que es posible
15:02
in modernmoderno neuroscienceneurociencia,
351
890128
1384
en la moderna neurociencia,
15:03
but now, just as importantlyen tono rimbombante,
352
891512
1510
pero ahora, igualmente importante,
15:05
to activelyactivamente engagecontratar everybodytodos in this conversationconversacion.
353
893022
3332
involucrar a todo el mundo
activamente en esta conversación.
15:08
So let's think togetherjuntos as a teamequipo about what this all meansmedio
354
896354
2329
Así que vamos a pensar juntos como
un equipo en lo que esto significa
15:10
and where we can and should go from here,
355
898683
2474
y donde puede y
debe ir desde aquí,
15:13
because XuXu and I think we all have
356
901157
2098
porque Xu y yo creemos
que todos tenemos
15:15
some really biggrande decisionsdecisiones aheadadelante of us.
357
903255
2536
algunas decisiones muy
grandes delante de nosotros.
15:17
Thank you.
XLSG: Thank you.
358
905791
1125
Gracias.
XL: Gracias.
15:18
(ApplauseAplausos)
359
906916
1634
(Aplausos)
Translated by Ciro Gomez
Reviewed by Emma Gon

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com