ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com
TED2011

Ed Boyden: A light switch for neurons

Ed Boyden: Włącznik światła dla neuronów

Filmed:
1,098,379 views

Ed Boyden opowiada, jak poprzez wstawianie do komórek mózgu genów białek światłoczułych można selektywnie pobudzać lub deaktywować określone neurony przy pomocy światłowodowych implantów. Dzięki tak wysokiemu, niespotykanemu dotąd poziomowi kontroli udało mu się wyleczyć laboratoryjne myszy z ze stanu podobnego do zespołu stresu pourazowego oraz niektórych rodzajów ślepoty. Na horyzoncie pojawia się neuroprotetyka. Gospodarz sesji, Juan Enriquez zadaje na koniec kilka pytań.
- Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute. Full bio

Double-click the English transcript below to play the video.

00:15
Think about your day for a seconddruga.
0
0
2000
Pomyśl chwilę o swoim dniu.
00:17
You wokeobudził up, feltczułem freshświeży airpowietrze on your facetwarz as you walkedchodził out the doordrzwi,
1
2000
3000
Obudziłeś się, owiał cię wietrzyk przy wyjściu na dwór,
00:20
encounterednapotkał newNowy colleagueskoledzy and had great discussionsdyskusje,
2
5000
2000
poznałeś nowych ludzi, prowadziłeś ciekawe dyskusje,
00:22
and feltczułem in aweAWE when you founduznany something newNowy.
3
7000
2000
byłeś zachwycony, gdy przeżyłeś coś nowego.
00:24
But I betZakład there's something you didn't think about todaydzisiaj --
4
9000
2000
Ale założę się, że jest coś, o czym nie myślałeś,
00:26
something so closeblisko to home
5
11000
2000
coś tak ci bliskiego,
00:28
that you probablyprawdopodobnie don't think about it very oftenczęsto at all.
6
13000
2000
że pewnie w ogóle rzadko o tym myślisz.
00:30
And that's that all the sensationsodczucia, feelingsuczucia,
7
15000
2000
Wszystkie odczucia, przeżycia,
00:32
decisionsdecyzje and actionsdziałania
8
17000
2000
decyzje i działania
00:34
are mediatedpośredniczy by the computerkomputer in your headgłowa
9
19000
2000
są podejmowane przez komputer w twojej głowie
00:36
callednazywa the brainmózg.
10
21000
2000
zwany mózgiem.
00:38
Now the brainmózg maymoże not look like much from the outsidena zewnątrz --
11
23000
2000
Może z zewnątrz nie wygląda on jak komputer --
00:40
a couplepara poundsfunty of pinkish-grayróżowo szary fleshciało,
12
25000
2000
kilka kilo szaro-różowego mięsa,
00:42
amorphousamorficzny --
13
27000
2000
bezkształtnego,
00:44
but the last hundredsto yearslat of neuroscienceneuronauka
14
29000
2000
ale ostatnie sto lat neurobiologii
00:46
have alloweddozwolony us to zoomPowiększenie in on the brainmózg,
15
31000
2000
przybliżyło nam mózg tak,
00:48
and to see the intricacyzawiłość of what lieskłamstwa withinw ciągu.
16
33000
2000
że zobaczyliśmy zawiłość jego wnętrza.
00:50
And they'veoni told us that this brainmózg
17
35000
2000
Dowiedzieliśmy się, że mózg jest niezwykle skomplikowanym układem,
00:52
is an incrediblyniewiarygodnie complicatedskomplikowane circuitobwód
18
37000
2000
Dowiedzieliśmy się, że mózg jest niezwykle skomplikowanym układem,
00:54
madezrobiony out of hundredssetki of billionsmiliardy of cellskomórki callednazywa neuronsneurony.
19
39000
4000
złożonym z setek milionów komórek zwanych neuronami.
00:58
Now unlikew odróżnieniu a human-designedzaprojektowany przez człowieka computerkomputer,
20
43000
3000
W przeciwieństwie do komputerów zbudowanych przez człowieka,
01:01
where there's a fairlydość smallmały numbernumer of differentróżne partsCzęści --
21
46000
2000
w których nie ma zbyt wielu różnych części,
01:03
we know how they work, because we humansludzie designedzaprojektowany them --
22
48000
3000
rozumiemy jak działają, bo sami je projektowaliśmy,
01:06
the brainmózg is madezrobiony out of thousandstysiące of differentróżne kindsrodzaje of cellskomórki,
23
51000
3000
mózg składa się z tysięcy różnych rodzajów komórek,
01:09
maybe tenskilkadziesiąt of thousandstysiące.
24
54000
2000
może dziesiątek tysięcy.
01:11
They come in differentróżne shapeskształty; they're madezrobiony out of differentróżne moleculesCząsteczki.
25
56000
2000
Mają różne kształty, inny budulec;
01:13
And they projectprojekt and connectpołączyć to differentróżne brainmózg regionsregiony,
26
58000
3000
łączą różne części mózgu.
01:16
and they alsorównież changezmiana differentróżne wayssposoby in differentróżne diseasechoroba statesstany.
27
61000
3000
Różnie zmieniają się też w różnych stadiach chorób.
01:19
Let's make it concretebeton.
28
64000
2000
Do rzeczy.
01:21
There's a classklasa of cellskomórki,
29
66000
2000
Jest rodzaj komórek,
01:23
a fairlydość smallmały cellkomórka, an inhibitoryhamujące cellkomórka, that quietsuspokaja its neighborssąsiedzi.
30
68000
3000
dość niewielkich, które uciszają swoich sąsiadów.
01:26
It's one of the cellskomórki that seemswydaje się to be atrophiedatrofii in disorderszaburzenia like schizophreniaschizofrenia.
31
71000
4000
To jedna z tych komórek, które zanikają przy schizofrenii.
01:30
It's callednazywa the basketkosz cellkomórka.
32
75000
2000
Nazywana jest komórką koszykową.
01:32
And this cellkomórka is one of the thousandstysiące of kindsrodzaje of cellkomórka
33
77000
2000
To jeden z tysięcy rodzajów komórek,
01:34
that we are learninguczenie się about.
34
79000
2000
które poznajemy.
01:36
NewNowy oneste are beingistota discoveredodkryty everydaycodziennie.
35
81000
2000
Codzienne okrywa się nowe.
01:38
As just a seconddruga exampleprzykład:
36
83000
2000
Drugi przykład:
01:40
these pyramidalpiramidy cellskomórki, largeduży cellskomórki,
37
85000
2000
te duże komórki w kształcie piramidy
01:42
they can spanprzęsło a significantznaczący fractionfrakcja of the brainmózg.
38
87000
2000
rozciągają się w znacznej części mózgu.
01:44
They're excitatorypobudzające.
39
89000
2000
Można je pobudzać.
01:46
And these are some of the cellskomórki
40
91000
2000
M.in. to one są nadaktywne
01:48
that mightmoc be overactivenadczynność in disorderszaburzenia suchtaki as epilepsypadaczka.
41
93000
3000
przy schorzeniach takich jak epilepsja.
01:51
EveryKażdy one of these cellskomórki
42
96000
2000
Każda z nich
01:53
is an incredibleniesamowite electricalelektryczny deviceurządzenie.
43
98000
3000
to niezwykłe urządzenie elektryczne.
01:56
They receiveotrzymać inputwkład from thousandstysiące of upstreamnadrzędnym partnerswzmacniacz
44
101000
2000
Dostają sygnały od tysięcy komórek-nadawców
01:58
and computeobliczać theirich ownwłasny electricalelektryczny outputswyjść,
45
103000
3000
i obliczają swoje własne sygnały,
02:01
whichktóry then, if they passprzechodzić a certainpewny thresholdpróg,
46
106000
2000
które, jeśli przekroczą pewien próg,
02:03
will go to thousandstysiące of downstreamw dół rzeki partnerswzmacniacz.
47
108000
2000
zostaną przesłane do tysięcy komórek-odbiorców.
02:05
And this processproces, whichktóry takes just a millisecondmilisekundy or so,
48
110000
3000
Cały ten proces trwa może milisekundę,
02:08
happensdzieje się thousandstysiące of timesczasy a minutechwila
49
113000
2000
wydarza się tysiące razy na minutę
02:10
in everykażdy one of your 100 billionmiliard cellskomórki,
50
115000
2000
w każdej ze 100 miliardów komórek,
02:12
as long as you liverelacja na żywo
51
117000
2000
dopóki żyjesz, myślisz i czujesz.
02:14
and think and feel.
52
119000
3000
dopóki żyjesz, myślisz i czujesz.
02:17
So how are we going to figurepostać out what this circuitobwód does?
53
122000
3000
Jak możemy zrozumieć działanie tego układu?
02:20
IdeallyIdealnie, we could go throughprzez the circuitobwód
54
125000
2000
W teorii, można by w każdej części
02:22
and turnskręcać these differentróżne kindsrodzaje of cellkomórka on and off
55
127000
3000
włączać i wyłączać różne rodzaje komórek
02:25
and see whetherczy we could figurepostać out
56
130000
2000
próbując zrozumieć,
02:27
whichktóry oneste contributeprzyczynić się to certainpewny functionsFunkcje
57
132000
2000
które zawiadują konkretnymi funkcjami,
02:29
and whichktóry oneste go wrongźle in certainpewny pathologiespatologii.
58
134000
2000
a które degenerują się w patologiach.
02:31
If we could activateaktywować cellskomórki, we could see what powersuprawnienie they can unleashUwolnij,
59
136000
3000
Mogąc uaktywniać komórki, zobaczylibyśmy jakie spełniają funkcje,
02:34
what they can initiatezainicjować and sustainponieść.
60
139000
2000
co mogą uruchomić i podtrzymać.
02:36
If we could turnskręcać them off,
61
141000
2000
Mogąc je wyłączać
02:38
then we could try and figurepostać out what they're necessaryniezbędny for.
62
143000
2000
zrozumielibyśmy do czego służą.
02:40
And that's a storyfabuła I'm going to tell you about todaydzisiaj.
63
145000
3000
O tym zamierzam dziś opowiedzieć.
02:43
And honestlyszczerze, where we'vemamy goneodszedł throughprzez over the last 11 yearslat,
64
148000
3000
Szczerze mówiąc przez ostatnie 11 lat
02:46
throughprzez an attemptpróba to find wayssposoby
65
151000
2000
szukaliśmy sposobów
02:48
of turningobrócenie circuitsobwody and cellskomórki and partsCzęści and pathwaysścieżki of the brainmózg
66
153000
2000
na włączanie i wyłączanie
02:50
on and off,
67
155000
2000
układów, komórek, części i ścieżek w mózgu
02:52
bothobie to understandzrozumieć the sciencenauka
68
157000
2000
zarówno aby zrozumieć naukę,
02:54
and alsorównież to confrontkonfrontować some of the issuesproblemy
69
159000
3000
jak i zmierzyć się z problemami
02:57
that facetwarz us all as humansludzie.
70
162000
3000
przed którymi stają wszyscy ludzie.
03:00
Now before I tell you about the technologytechnologia,
71
165000
3000
Zanim opowiem o technologii, mam złą wiadomość.
03:03
the badzły newsAktualności is that a significantznaczący fractionfrakcja of us in this roompokój,
72
168000
3000
Większość z nas na sali,
03:06
if we liverelacja na żywo long enoughdość,
73
171000
2000
jeżeli pożyjemy dostatecznie długo,
03:08
will encounterspotkanie, perhapsmoże, a brainmózg disordernieład.
74
173000
2000
czeka pewnie zaburzenie pracy mózgu.
03:10
AlreadyJuż, a billionmiliard people
75
175000
2000
Już teraz miliard ludzi
03:12
have had some kinduprzejmy of brainmózg disordernieład
76
177000
2000
cierpi na jakieś zaburzenia mózgowe,
03:14
that incapacitatesobezwładnia them,
77
179000
2000
które ich ubezwłasnowolniają.
03:16
and the numbersliczby don't do it justicesprawiedliwość thoughchociaż.
78
181000
2000
Liczby nie oddają w pełni sytuacji.
03:18
These disorderszaburzenia -- schizophreniaschizofrenia, Alzheimer'sAlzheimera,
79
183000
2000
Te choroby: schizofrenia, Alzeimer,
03:20
depressiondepresja, addictionuzależnienie --
80
185000
2000
depresja, uzależnienia,
03:22
they not only stealkraść our time to liverelacja na żywo, they changezmiana who we are.
81
187000
3000
nie tylko skracaja życie, ale także nas zmieniają;
03:25
They take our identitytożsamość and changezmiana our emotionsemocje
82
190000
2000
zabierają nam tożsamość i wpływają na emocje,
03:27
and changezmiana who we are as people.
83
192000
3000
stajemy się innymi ludźmi.
03:30
Now in the 20thth centurystulecie,
84
195000
3000
W XX wieku
03:33
there was some hopenadzieja that was generatedwygenerowany
85
198000
3000
nabraliśmy nadziei
03:36
throughprzez the developmentrozwój of pharmaceuticalsfarmaceutyki for treatingleczenie brainmózg disorderszaburzenia,
86
201000
3000
dzięki rozwojowi leków na schorzenia mózgu
03:39
and while manywiele drugsleki have been developedrozwinięty
87
204000
3000
Chociaż powstało wiele leków
03:42
that can alleviatezłagodzić symptomsobjawy of brainmózg disorderszaburzenia,
88
207000
2000
łagodzących symptomy zaburzeń,
03:44
practicallypraktycznie noneŻaden of them can be considereduważane to be curedwyleczyć.
89
209000
3000
praktycznie żaden nie potrafi ich całkowicie wyleczyć.
03:47
And partczęść of that's because we're bathingw kąpieliskach the brainmózg in the chemicalchemiczny.
90
212000
3000
Częściowo dlatego, że kąpiemy mózg w chemikaliach.
03:50
This elaborateopracować circuitobwód
91
215000
2000
Ten wyszukany układ,
03:52
madezrobiony out of thousandstysiące of differentróżne kindsrodzaje of cellkomórka
92
217000
2000
złożony z tysięcy różnego rodzaju komórek
03:54
is beingistota bathedkąpała się in a substancesubstancja.
93
219000
2000
nurza się w chemii.
03:56
That's alsorównież why, perhapsmoże, mostwiększość of the drugsleki, and not all, on the marketrynek
94
221000
2000
Dlatego większość, jeżeli nie wszystkie leki na rynku
03:58
can presentteraźniejszość some kinduprzejmy of seriouspoważny sidebok effectefekt too.
95
223000
3000
powoduja zwykle silne efekty uboczne.
04:01
Now some people have gottenzdobyć some solaceSolace
96
226000
3000
Część ludzi doznała ulgi
04:04
from electricalelektryczny stimulatorsstymulatory that are implantedwszczepiony in the brainmózg.
97
229000
3000
dzięki elektrycznym stymulatorom wszczepionym do mózgu.
04:07
And for Parkinson'sZ chorobą Parkinsona diseasechoroba,
98
232000
2000
W chorobie Parkinsona
04:09
CochlearŚlimakowe implantsimplanty,
99
234000
2000
implanty ślimakowe
04:11
these have indeedw rzeczy samej been ablezdolny
100
236000
2000
rzeczywiście były w stanie
04:13
to bringprzynieść some kinduprzejmy of remedyśrodek
101
238000
2000
przynieść poprawę
04:15
to people with certainpewny kindsrodzaje of disordernieład.
102
240000
2000
ludziom z pewnymi schorzeniami.
04:17
But electricityElektryczność alsorównież will go in all directionswskazówki --
103
242000
2000
Jednak prąd płynie w wielu kierunkach,
04:19
the pathścieżka of leastnajmniej resistanceodporność,
104
244000
2000
po linii najmniejszego oporu,
04:21
whichktóry is where that phrasewyrażenie, in partczęść, comespochodzi from.
105
246000
2000
skąd właśnie pochodzi to powiedzenie.
04:23
And it alsorównież will affectoddziaływać normalnormalna circuitsobwody as well as the abnormalnieprawidłowe oneste that you want to fixnaprawić.
106
248000
3000
Działa i na zdrowe i na uszkodzone części, wymagające naprawy.
04:26
So again, we're sentwysłane back to the ideapomysł
107
251000
2000
Znowu wracamy do koncepcji
04:28
of ultra-preciseUltra-precyzyjne controlkontrola.
108
253000
2000
ultra-precyzyjnego sterowania.
04:30
Could we dial-intelefonowania informationInformacja preciselydokładnie where we want it to go?
109
255000
3000
Czy można wysłać informację dokładnie tam, gdzie chcemy ?
04:34
So when I startedRozpoczęty in neuroscienceneuronauka 11 yearslat agotemu,
110
259000
4000
Zanim 11 lat temu zająłem się neurobiologią,
04:38
I had trainedprzeszkolony as an electricalelektryczny engineerinżynier and a physicistfizyk,
111
263000
3000
studiowałem elektronikę i fizykę.
04:41
and the first thing I thought about was,
112
266000
2000
Od razu przyszło mi do głowy,
04:43
if these neuronsneurony are electricalelektryczny devicespomysłowość,
113
268000
2000
że skoro neurony są sterowane elektrycznie,
04:45
all we need to do is to find some way
114
270000
2000
trzeba jedynie znaleźć sposób
04:47
of drivingnapędowy those electricalelektryczny changeszmiany at a distancedystans.
115
272000
2000
na generowanie sygnałów elektrycznych na odległość.
04:49
If we could turnskręcać on the electricityElektryczność in one cellkomórka,
116
274000
2000
Gdyby udało się pobudzić prąd pojedyńczej komórki
04:51
but not its neighborssąsiedzi,
117
276000
2000
bez pobudzania sąsiednich,
04:53
that would give us the toolnarzędzie we need to activateaktywować and shutzamknąć down these differentróżne cellskomórki,
118
278000
3000
otrzymamy narzędzie do włączania i wyłączania każdej z nich,
04:56
figurepostać out what they do and how they contributeprzyczynić się
119
281000
2000
i zrozumienia, jak działają
04:58
to the networkssieci in whichktóry they're embeddedosadzone.
120
283000
2000
i jak wpływają na swoje układy.
05:00
And alsorównież it would allowdopuszczać us to have the ultra-preciseUltra-precyzyjne controlkontrola we need
121
285000
2000
Dałoby to nam ultra-precyzyjną kontrolę,
05:02
in orderzamówienie to fixnaprawić the circuitobwód computationsobliczenia
122
287000
3000
potrzebną do naprawy fragmentów, które szwankują.
05:05
that have goneodszedł awrykrzywo.
123
290000
2000
potrzebną do naprawy fragmentów, które szwankują.
05:07
Now how are we going to do that?
124
292000
2000
Jak tego dokonamy?
05:09
Well there are manywiele moleculesCząsteczki that exististnieć in natureNatura,
125
294000
2000
W przyrodzie jest wiele cząsteczek,
05:11
whichktóry are ablezdolny to convertkonwertować lightlekki into electricityElektryczność.
126
296000
3000
które potrafią zamieniać światło na prąd.
05:14
You can think of them as little proteinsbiałka
127
299000
2000
Można je sobie wyobrazić jako białka
05:16
that are like solarsłoneczny cellskomórki.
128
301000
2000
działające jak baterie słoneczne.
05:18
If we can installzainstalować these moleculesCząsteczki in neuronsneurony somehowjakoś,
129
303000
3000
Gdyby jakoś zainstalować te cząsteczki w neuronach,
05:21
then these neuronsneurony would becomestają się electricallyelektrycznie drivabledrivable with lightlekki.
130
306000
3000
moglibyśmy pobudzać neurony światłem.
05:24
And theirich neighborssąsiedzi, whichktóry don't have the moleculecząsteczka, would not.
131
309000
3000
Sąsiednie komórki, bez cząsteczki, nie reagowałyby.
05:27
There's one other magicmagia tricksztuczka you need to make this all happenzdarzyć,
132
312000
2000
Trzeba się posłużyć pewną sztuczką.
05:29
and that's the abilityzdolność to get lightlekki into the brainmózg.
133
314000
3000
Mianowicie dostarczyć światło do mózgu.
05:32
And to do that -- the brainmózg doesn't feel painból -- you can put --
134
317000
3000
Mózg nie czuje bólu. Korzystając z rozwiązań
05:35
takingnabierający advantageZaletą of all the effortwysiłek
135
320000
2000
Mózg nie czuje bólu. Korzystając z rozwiązań
05:37
that's goneodszedł into the InternetInternet and communicationskomunikacja and so on --
136
322000
2000
stosowanych w internecie, telekomunikacji itp.
05:39
opticaloptyczne fiberswłókna connectedpołączony to laserslasery
137
324000
2000
można użyć światłowodów połączonych z laserami,
05:41
that you can use to activateaktywować, in animalzwierzę modelsmodele for exampleprzykład,
138
326000
2000
dzięki którym można pobudzać neurony np. u zwierząt
05:43
in pre-clinicalbadania przedkliniczne studiesstudia,
139
328000
2000
w badaniach przedklinicznych,
05:45
these neuronsneurony and to see what they do.
140
330000
2000
i obserwować ich zachowania.
05:47
So how do we do this?
141
332000
2000
Jak to robimy?
05:49
Around 2004,
142
334000
2000
Około 2004 r.
05:51
in collaborationwspółpraca with GerhardGerhard NagelNagel and KarlKarl DeisserothDeisseroth,
143
336000
2000
we współpracy z Gerhardem Nagelem i Karlem Deisserothem,
05:53
this visionwizja cameoprawa ołowiana witrażu to fruitionurzeczywistnienie.
144
338000
2000
zaczęliśmy realizację tej wizji.
05:55
There's a certainpewny algaAlga that swimspływa in the wilddziki,
145
340000
3000
Istnieje pewien gatunek dzikich alg,
05:58
and it needswymagania to navigatenawigować towardsw kierunku lightlekki
146
343000
2000
które poruszają się w stronę światła,
06:00
in orderzamówienie to photosynthesizephotosynthesize optimallyoptymalnie.
147
345000
2000
aby zoptymalizować fotosyntezę.
06:02
And it sensesrozsądek lightlekki with a little eye-spotoko spot,
148
347000
2000
Odbierają one światło małą plamką oczną,
06:04
whichktóry worksPrace not unlikew odróżnieniu how our eyeoko worksPrace.
149
349000
3000
która działa nieco inaczej niż nasze oczy.
06:07
In its membranemembrana, or its boundarygranica,
150
352000
2000
W jej zewnętrznej błonie
06:09
it containszawiera little proteinsbiałka
151
354000
3000
znajdują się białka,
06:12
that indeedw rzeczy samej can convertkonwertować lightlekki into electricityElektryczność.
152
357000
3000
które potrafią zamienić światło na prąd.
06:15
So these moleculesCząsteczki are callednazywa channelrhodopsinschannelrhodopsins.
153
360000
3000
Te cząsteczki to rodopsyny kanałowe.
06:18
And eachkażdy of these proteinsbiałka actsdzieje just like that solarsłoneczny cellkomórka that I told you about.
154
363000
3000
Każde z tych białek działa jak ogniwo słoneczne.
06:21
When blueniebieski lightlekki hitstrafienia it, it opensotwiera się up a little holeotwór
155
366000
3000
Gdy pada na nie niebieskie światło, otwiera niewielki otwór
06:24
and allowspozwala chargednaładowany particlescząsteczki to enterwchodzić the eye-spotoko spot,
156
369000
2000
i wpuszcza naładowane cząsteczki do plamki ocznej.
06:26
and that allowspozwala this eye-spotoko spot to have an electricalelektryczny signalsygnał
157
371000
2000
Dzięki temu plamka oczna ma swój sygnał elektryczny,
06:28
just like a solarsłoneczny cellkomórka chargingładowanie up a batterybateria.
158
373000
3000
zupełnie jak ogniwo słoneczne ładujące baterię.
06:31
So what we need to do is to take these moleculesCząsteczki
159
376000
2000
Potrzebujemy teraz wziąć te białka
06:33
and somehowjakoś installzainstalować them in neuronsneurony.
160
378000
2000
i zainstalować je jakoś w neuronach.
06:35
And because it's a proteinbiałko,
161
380000
2000
Ponieważ są to białka,
06:37
it's encodedzakodowany for in the DNADNA of this organismorganizm.
162
382000
3000
są zakodowane w DNA organizmu.
06:40
So all we'vemamy got to do is take that DNADNA,
163
385000
2000
Musimy tylko wyciąć to DNA,
06:42
put it into a genegen therapyterapia vectorwektor, like a viruswirus,
164
387000
3000
wstawić je do nośnika terapii genowej, np. wirusa,
06:45
and put it into neuronsneurony.
165
390000
3000
i wysłać go do neuronów.
06:48
So it turnedobrócony out that this was a very productiveproduktywny time in genegen therapyterapia,
166
393000
3000
Był to bardzo twórczy okres w terapiach genowych
06:51
and lots of viruseswirusy were comingprzyjście alongwzdłuż.
167
396000
2000
i pojawiało się mnóstwo wirusów.
06:53
So this turnedobrócony out to be very simpleprosty to do.
168
398000
2000
Zadanie okazało się proste.
06:55
And earlywcześnie in the morningranek one day in the summerlato of 2004,
169
400000
3000
Pewnego ranka w lecie 2004 roku,
06:58
we gavedał it a try, and it workedpracował on the first try.
170
403000
2000
spróbowaliśmy i zadziałało za pierwszym razem.
07:00
You take this DNADNA and you put it into a neuronneuron.
171
405000
3000
Pobraliśmy DNA i wstawiliśmy je do neuronu.
07:03
The neuronneuron usesużywa its naturalnaturalny protein-makingprodukcji białek machinerymaszyneria
172
408000
3000
Neuron użył własnej maszynerii
07:06
to fabricateWyprodukuj: these little light-sensitivewrażliwa na światło proteinsbiałka
173
411000
2000
do produkcji światłoczułych białek
07:08
and installzainstalować them all over the cellkomórka,
174
413000
2000
i rozmieszczenia ich po całej komórce,
07:10
like puttingwprowadzenie solarsłoneczny panelspanele on a roofdach,
175
415000
2000
tak jak rozmieszcza się panele słoneczne na dachu.
07:12
and the nextNastępny thing you know,
176
417000
2000
Otrzymaliśmy zatem neuron uruchamiany światłem.
07:14
you have a neuronneuron whichktóry can be activatedaktywowany with lightlekki.
177
419000
2000
Otrzymaliśmy zatem neuron uruchamiany światłem.
07:16
So this is very powerfulpotężny.
178
421000
2000
To potężne narzędzie.
07:18
One of the trickswydziwianie you have to do
179
423000
2000
Trzeba teraz wykombinować
07:20
is to figurepostać out how to deliverdostarczyć these genesgeny to the cellskomórki that you want
180
425000
2000
jak dostarczyć te geny tylko do wybranej komórki,
07:22
and not all the other neighborssąsiedzi.
181
427000
2000
a nie do sąsiednich.
07:24
And you can do that; you can tweakuszczypnąć the viruseswirusy
182
429000
2000
Można zaprogramować wirusa,
07:26
so they hittrafienie just some cellskomórki and not othersinni.
183
431000
2000
żeby atakował tylko niektóre komórki.
07:28
And there's other geneticgenetyczny trickswydziwianie you can playgrać
184
433000
2000
Można wykorzystać jeszcze inne genetyczne triki,
07:30
in orderzamówienie to get light-activatedaktywowane światłem cellskomórki.
185
435000
3000
żeby otrzymać komórki pobudzane światłem.
07:33
This fieldpole has now come to be knownznany as optogeneticsoptogenetics.
186
438000
4000
Ta dziedzina nazywa się teraz "optogenetyka".
07:37
And just as one exampleprzykład of the kinduprzejmy of thing you can do,
187
442000
2000
To tylko niektóre przykłady możliwości.
07:39
you can take a complexzłożony networksieć,
188
444000
2000
W skomplikowanej sieci
07:41
use one of these viruseswirusy to deliverdostarczyć the genegen
189
446000
2000
można użyć wirusa do dostarczenia genu
07:43
just to one kinduprzejmy of cellkomórka in this densegęsty networksieć.
190
448000
3000
do wybranego typu komórki w gęstej sieci.
07:46
And then when you shineblask lightlekki on the entireCały networksieć,
191
451000
2000
Gdy oświetlimy całą sieć,
07:48
just that cellkomórka typerodzaj will be activatedaktywowany.
192
453000
2000
tylko jeden rodzaj komórek zareaguje.
07:50
So for exampleprzykład, letspozwala sortsortować of considerrozważać that basketkosz cellkomórka I told you about earlierwcześniej --
193
455000
3000
Weźmy np. komórkę koszykową, o której mówiłem,
07:53
the one that's atrophiedatrofii in schizophreniaschizofrenia
194
458000
2000
która zanika przy schizofrenii
07:55
and the one that is inhibitoryhamujące.
195
460000
2000
i działa hamująco.
07:57
If we can deliverdostarczyć that genegen to these cellskomórki --
196
462000
2000
Jeśli dostarczymy gen do tych komórek,
07:59
and they're not going to be alteredzmieniony by the expressionwyrażenie of the genegen, of coursekurs --
197
464000
3000
o ile oczywiście sam gen nie zakłóci ich działania,
08:02
and then flashLampa błyskowa blueniebieski lightlekki over the entireCały brainmózg networksieć,
198
467000
3000
i oświetlimy cały mózg niebieskim światłem,
08:05
just these cellskomórki are going to be drivennapędzany.
199
470000
2000
tylko te komórki zostaną pobudzone.
08:07
And when the lightlekki turnsskręca off, these cellskomórki go back to normalnormalna,
200
472000
2000
Gdy światło zgaśnie, komórki wracają do normalnego stanu,
08:09
so they don't seemwydać się to be averseprzeciwny againstprzeciwko that.
201
474000
3000
więc wydaje się, że im to nie przeszkadza.
08:12
Not only can you use this to studybadanie what these cellskomórki do,
202
477000
2000
Można nie tylko badać ich działanie,
08:14
what theirich powermoc is in computingprzetwarzanie danych in the brainmózg,
203
479000
2000
ich wpływ na funkcjonowanie mózgu,
08:16
but you can alsorównież use this to try to figurepostać out --
204
481000
2000
ale również sprawdzić,
08:18
well maybe we could jazzjazz up the activityczynność of these cellskomórki,
205
483000
2000
czy dałoby się "podkręcić" ich aktywność,
08:20
if indeedw rzeczy samej they're atrophiedatrofii.
206
485000
2000
przy faktycznym zanikaniu.
08:22
Now I want to tell you a couplepara of shortkrótki storieshistorie
207
487000
2000
Chciałbym opowiedzieć wam parę historii
08:24
about how we're usingza pomocą this,
208
489000
2000
o użyciu tej techniki,
08:26
bothobie at the scientificnaukowy, clinicalkliniczny and pre-clinicalbadania przedkliniczne levelspoziomy.
209
491000
3000
zarówno pod kątem naukowym, leczniczym jak i zapobiegawczym
08:29
One of the questionspytania we'vemamy confrontedkonfrontowany
210
494000
2000
M.in. chcieliśmy wiedzieć,
08:31
is, what are the signalssygnały in the brainmózg that mediatemediacji the sensationuczucie of rewardnagroda?
211
496000
3000
które sygnały mózgowe uczestniczą w układzie nagrody.
08:34
Because if you could find those,
212
499000
2000
Gdybyśmy je znaleźli,
08:36
those would be some of the signalssygnały that could drivenapęd learninguczenie się.
213
501000
2000
można by z ich pomocą nakłaniać do nauki.
08:38
The brainmózg will do more of whatevercokolwiek got that rewardnagroda.
214
503000
2000
Mózg zrobi wszystko, aby zdobyć nagrodę.
08:40
And alsorównież these are signalssygnały that go awrykrzywo in disorderszaburzenia suchtaki as addictionuzależnienie.
215
505000
3000
Wypaczenia tych sygnałów towarzyszą m.in. uzależnieniom.
08:43
So if we could figurepostać out what cellskomórki they are,
216
508000
2000
Gdybyśmy zlokalizowali te komórki,
08:45
we could maybe find newNowy targetscele
217
510000
2000
być może udałoby się znaleźć nowe cele,
08:47
for whichktóry drugsleki could be designedzaprojektowany or screenedekranowany againstprzeciwko,
218
512000
2000
na które powinny oddziaływać nowe leki,
08:49
or maybe placesmiejsca where electrodeselektrody could be put in
219
514000
2000
albo miejsca, w których trzeba umieścić elektrody
08:51
for people who have very severesilny disabilityniepełnosprawność.
220
516000
3000
u poważnie chorych ludzi.
08:54
So to do that, we cameoprawa ołowiana witrażu up with a very simpleprosty paradigmparadygmat
221
519000
2000
W tym celu wymyśliliśmy prosty eksperyment
08:56
in collaborationwspółpraca with the FiorellaFiorella groupGrupa,
222
521000
2000
we współpracy z grupą Fiorella.
08:58
where one sidebok of this little boxpudełko,
223
523000
2000
Podchodząc do jednej strony pudełka
09:00
if the animalzwierzę goesidzie there, the animalzwierzę getsdostaje a pulsepuls of lightlekki
224
525000
2000
zwierzę wywoła impuls światła,
09:02
in orderzamówienie to make differentróżne cellskomórki in the brainmózg sensitivewrażliwy to lightlekki.
225
527000
2000
które uwrażliwia na światło różne komórki mózgowe.
09:04
So if these cellskomórki can mediatemediacji rewardnagroda,
226
529000
2000
Jeżeli te komórki pobudzają układ nagrody,
09:06
the animalzwierzę should go there more and more.
227
531000
2000
zwierzę powinno podchodzić bez przerwy.
09:08
And so that's what happensdzieje się.
228
533000
2000
I tak się właśnie dzieje.
09:10
This animal'szwierzęcia going to go to the right-handprawa ręka sidebok and pokePoke his nosenos there,
229
535000
2000
Zwierzę podchodzi z prawej strony i wsadza nos.
09:12
and he getsdostaje a flashLampa błyskowa of blueniebieski lightlekki everykażdy time he does that.
230
537000
2000
Dostaje za każdym razem impuls niebieskiego światła.
09:14
And he'llpiekło do that hundredssetki and hundredssetki of timesczasy.
231
539000
2000
Będzie to robiło tysiące razy.
09:16
These are the dopaminedopamina neuronsneurony,
232
541000
2000
To neurony dopaminy,
09:18
whichktóry some of you maymoże have heardsłyszał about, in some of the pleasureprzyjemność centerscentra in the brainmózg.
233
543000
2000
w ośrodkach przyjemności mózgu.
09:20
Now we'vemamy shownpokazane that a briefkrótki activationAktywacja of these
234
545000
2000
Pokazaliśmy, że ich pobudzenie
09:22
is enoughdość, indeedw rzeczy samej, to drivenapęd learninguczenie się.
235
547000
2000
potrafi nakłonić do nauki.
09:24
Now we can generalizegeneralizować the ideapomysł.
236
549000
2000
Możemy uogólnić ten pomysł.
09:26
InsteadZamiast tego of one pointpunkt in the brainmózg,
237
551000
2000
Zamiast jednego punktu w mózgu,
09:28
we can deviseopracowania devicespomysłowość that spanprzęsło the brainmózg,
238
553000
2000
możemy stworzyć urządzenia obejmujące cały mózg,
09:30
that can deliverdostarczyć lightlekki into three-dimensionaltrójwymiarowy patternswzorce --
239
555000
2000
dostarczające światło wg. trójwymiarowych wzorów,
09:32
arraysTablice of opticaloptyczne fiberswłókna,
240
557000
2000
wiązki światłowodów,
09:34
eachkażdy coupledw połączeniu to its ownwłasny independentniezależny miniatureminiaturowe lightlekki sourceźródło.
241
559000
2000
każdy zasilany niezależnym źródłem światła.
09:36
And then we can try to do things in vivovivo
242
561000
2000
Spróbujemy zrobić na żywo to,
09:38
that have only been doneGotowe to-datedo daty in a dishdanie --
243
563000
3000
co dotąd przeprowadzano tylko w próbówce:
09:41
like high-throughputwysokiej przepustowości screeningekranizacja throughoutpoprzez the entireCały brainmózg
244
566000
2000
szerokopasmowe obrazowanie całego mózgu
09:43
for the signalssygnały that can causeprzyczyna certainpewny things to happenzdarzyć.
245
568000
2000
dla sygnałów umożliwiających jego sterowanie.
09:45
Or that could be good clinicalkliniczny targetscele
246
570000
2000
Można by z nich korzystać
09:47
for treatingleczenie brainmózg disorderszaburzenia.
247
572000
2000
w leczeniu schorzeń mózgu.
09:49
And one storyfabuła I want to tell you about
248
574000
2000
Chcę wam opowiedzieć
09:51
is how can we find targetscele for treatingleczenie post-traumaticpourazowe stressnaprężenie disordernieład --
249
576000
3000
w jaki sposób leczymy zespół stresu pourazowego,
09:54
a formformularz of uncontrolledniekontrolowane anxietylęk and fearstrach.
250
579000
3000
niekontrolowane lęki i strach.
09:57
And one of the things that we did
251
582000
2000
M.in. przyjęliśmy klasyczny model strachu.
09:59
was to adoptprzyjąć a very classicalklasyczny modelModel of fearstrach.
252
584000
3000
M.in. przyjęliśmy klasyczny model strachu.
10:02
This goesidzie back to the PavlovianPawłowa daysdni.
253
587000
3000
Sięga czasów Pawłowa.
10:05
It's callednazywa PavlovianPawłowa fearstrach conditioningkondycjonowanie --
254
590000
2000
W tzw. pawłowowskim warunkowaniu lęku
10:07
where a toneton endskończy się with a briefkrótki shockzaszokować.
255
592000
2000
dźwięk kończy się krótkim wstrząsem.
10:09
The shockzaszokować isn't painfulbolesny, but it's a little annoyingdenerwujący.
256
594000
2000
Wstrząs nie jest bolesny, ale dość irytujący.
10:11
And over time -- in this casewalizka, a mousemysz,
257
596000
2000
Z czasem mysz, którą się posłużyliśmy,
10:13
whichktóry is a good animalzwierzę modelModel, commonlypowszechnie used in suchtaki experimentseksperymenty --
258
598000
2000
bo zwykle używa się myszy w takich eksperymentach,
10:15
the animalzwierzę learnsuczy się to fearstrach the toneton.
259
600000
2000
mysz uczy się bać tego dźwięku.
10:17
The animalzwierzę will reactreagować by freezingzamrożenie,
260
602000
2000
Na ten dźwięk zastyga,
10:19
sortsortować of like a deerJeleń in the headlightsReflektory.
261
604000
2000
jak jeleń w świetle reflektorów.
10:21
Now the questionpytanie is, what targetscele in the brainmózg can we find
262
606000
3000
Zapytaliśmy: które miejsca w mózgu
10:24
that allowdopuszczać us to overcomeprzezwyciężać this fearstrach?
263
609000
2000
pomogłyby opanować ten strach?
10:26
So what we do is we playgrać that toneton again
264
611000
2000
Puszczamy więc dźwięk ponownie,
10:28
after it's been associatedpowiązany with fearstrach.
265
613000
2000
po tym jak został skojarzony ze strachem.
10:30
But we activateaktywować targetscele in the brainmózg, differentróżne oneste,
266
615000
2000
Ale pobudzamy w mózgu inne miejsca,
10:32
usingza pomocą that opticaloptyczne fiberwłókno arrayszyk I told you about in the previouspoprzedni slideślizgać się,
267
617000
3000
używając światłowodów, o których wcześniej mówiłem,
10:35
in orderzamówienie to try and figurepostać out whichktóry targetscele
268
620000
2000
aby sprawdzić, które rejony spowodują,
10:37
can causeprzyczyna the brainmózg to overcomeprzezwyciężać that memorypamięć of fearstrach.
269
622000
3000
że mózg przezwycięży wspomnienie strachu.
10:40
And so this briefkrótki videowideo
270
625000
2000
Ten krótki film pokazuje jeden z rejonów,
10:42
showsprzedstawia you one of these targetscele that we're workingpracujący on now.
271
627000
2000
nad którymi pracujemy.
10:44
This is an areapowierzchnia in the prefrontalprzedczołowej cortexkora,
272
629000
2000
To okolica kory przedczołowej,
10:46
a regionregion where we can use cognitionpoznawanie to try to overcomeprzezwyciężać aversiveAwersyjne emotionalemocjonalny statesstany.
273
631000
3000
gdzie świadomie próbujemy opanować negatywne stany emocjonalne.
10:49
And the animal'szwierzęcia going to hearsłyszeć a toneton -- and a flashLampa błyskowa of lightlekki occurredwystąpił there.
274
634000
2000
Zwierzę usłyszy dźwięk -- pojawia się tu błysk światła.
10:51
There's no audioaudio on this, but you can see the animal'szwierzęcia freezingzamrożenie.
275
636000
2000
Nie słychać dźwięku, ale widzicie, że zwierzę zastyga.
10:53
This toneton used to mean badzły newsAktualności.
276
638000
2000
Ten dźwięk oznaczał coś złego.
10:55
And there's a little clockzegar in the lowerniższy left-handlewa ręka cornerkąt,
277
640000
2000
W dolnym lewym rogu jest zegar,
10:57
so you can see the animalzwierzę is about two minutesminuty into this.
278
642000
3000
można zobaczyć, że mysz tkwi w tym stanie przez 2 minuty.
11:00
And now this nextNastępny clipspinacz
279
645000
2000
A tu drugi klip,
11:02
is just eightosiem minutesminuty laterpóźniej.
280
647000
2000
8 minut później.
11:04
And the samepodobnie toneton is going to playgrać, and the lightlekki is going to flashLampa błyskowa again.
281
649000
3000
Zabrzmi ten sam dźwięk, a światło znowu się zaświeci.
11:07
Okay, there it goesidzie. Right now.
282
652000
3000
Zaczyna się. Teraz.
11:10
And now you can see, just 10 minutesminuty into the experimenteksperyment,
283
655000
3000
W 10-minutowym eksperymencie,
11:13
that we'vemamy equippedwyposażony the brainmózg by photoactivatingphotoactivating this areapowierzchnia
284
658000
3000
nauczyliśmy mózg przez pobudzanie światłem tej części,
11:16
to overcomeprzezwyciężać the expressionwyrażenie
285
661000
2000
aby przezwyciężał wspomnienia strachu.
11:18
of this fearstrach memorypamięć.
286
663000
2000
aby przezwyciężał wspomnienia strachu.
11:20
Now over the last couplepara of yearslat, we'vemamy goneodszedł back to the treedrzewo of life
287
665000
3000
W ostatnich latach wróciliśmy do drzewa życia,
11:23
because we wanted to find wayssposoby to turnskręcać circuitsobwody in the brainmózg off.
288
668000
3000
chcąc znaleźć sposoby na wyłączanie obwodów mózgu.
11:26
If we could do that, this could be extremelyniezwykle powerfulpotężny.
289
671000
3000
Gdybyśmy je znaleźli, byłoby to potężne narzędzie.
11:29
If you can deletekasować cellskomórki just for a fewkilka millisecondsmilisekund or secondstowary drugiej jakości,
290
674000
3000
Deaktywując komórki na kilka milisekund lub sekund,
11:32
you can figurepostać out what necessaryniezbędny rolerola they playgrać
291
677000
2000
można by się dowiedzieć, jaką grają rolę
11:34
in the circuitsobwody in whichktóry they're embeddedosadzone.
292
679000
2000
w sieciach, do których należą.
11:36
And we'vemamy now surveyedbadanych organismsorganizmy from all over the treedrzewo of life --
293
681000
2000
Zlustrowaliśmy organizmy z całego drzewa życia,
11:38
everykażdy kingdomKrólestwo of life exceptz wyjątkiem for animalszwierzęta, we see slightlynieco differentlyróżnie.
294
683000
3000
każde królestwo życia, poza zwierzętami, wygląda inaczej.
11:41
And we founduznany all sortssortuje of moleculesCząsteczki, they're callednazywa halorhodopsinshalorhodopsins or archaerhodopsinsarchaerhodopsins,
295
686000
3000
Znaleźliśmy różne cząsteczki, jak halorodopsyna lub archeorodopsyna,
11:44
that respondodpowiadać to greenZielony and yellowżółty lightlekki.
296
689000
2000
które reagują na zielone i żółte światło.
11:46
And they do the oppositenaprzeciwko thing of the moleculecząsteczka I told you about before
297
691000
2000
Zachowują się odwrotnie od cząsteczek, o których już mówiłem,
11:48
with the blueniebieski lightlekki activatoraktywator channelrhodopsinchannelrhodopsin.
298
693000
3000
zawierających aktywator niebieskiego światła, rodopsynę kanałową.
11:52
Let's give an exampleprzykład of where we think this is going to go.
299
697000
3000
Podam przykład, do czego naszym zdaniem zmierzamy.
11:55
ConsiderNależy wziąć pod uwagę, for exampleprzykład, a conditionstan like epilepsypadaczka,
300
700000
3000
Rozważmy np. epilepsję,
11:58
where the brainmózg is overactivenadczynność.
301
703000
2000
w której mózg jest nadaktywny.
12:00
Now if drugsleki failzawieść in epilepticepileptyczny treatmentleczenie,
302
705000
2000
Jeżeli zawiodą leki,
12:02
one of the strategiesstrategie is to removeusunąć partczęść of the brainmózg.
303
707000
2000
czasem usuwa się częśc mózgu.
12:04
But that's obviouslyoczywiście irreversiblenieodwracalne, and there could be sidebok effectsruchomości.
304
709000
2000
To oczywiście nieodwracalne i powoduje efekty uboczne.
12:06
What if we could just turnskręcać off that brainmózg for a briefkrótki amountilość of time,
305
711000
3000
Może moglibyśmy wyłączyć na chwilę tę część,
12:09
untilaż do the seizurekonfiskata diesumiera away,
306
714000
3000
dopóki atak nie przejdzie,
12:12
and causeprzyczyna the brainmózg to be restoredprzywrócone to its initialInicjał statestan --
307
717000
3000
i skłonić mózg do powrotu do stanu początkowego,
12:15
sortsortować of like a dynamicaldynamiczne systemsystem that's beingistota coaxednamówił down into a stablestabilny statestan.
308
720000
3000
tak, jak układ dynamiczny, który zostaje ustabilizowany.
12:18
So this animationanimacja just triespróbuje to explainwyjaśniać this conceptpojęcie
309
723000
3000
Animacja tłumaczy tą koncepcję,
12:21
where we madezrobiony these cellskomórki sensitivewrażliwy to beingistota turnedobrócony off with lightlekki,
310
726000
2000
gdzie na komórki, które można wyłączyć światłem,
12:23
and we beambelka lightlekki in,
311
728000
2000
puszczamy promień światła,
12:25
and just for the time it takes to shutzamknąć down a seizurekonfiskata,
312
730000
2000
na tyle ile potrzeba, by stłumić atak,
12:27
we're hopingmieć nadzieję to be ablezdolny to turnskręcać it off.
313
732000
2000
w nadziei, że uda się go całkiem wyłączyć.
12:29
And so we don't have datadane to showpokazać you on this frontz przodu,
314
734000
2000
Nie mamy danych, które mógłbym tu przedstawić,
12:31
but we're very excitedpodekscytowany about this.
315
736000
2000
ale bardzo nas to ekscytuje.
12:33
Now I want to closeblisko on one storyfabuła,
316
738000
2000
Chciałbym zakończyć historią o kolejnej możliwości.
12:35
whichktóry we think is anotherinne possibilitymożliwość --
317
740000
2000
Chciałbym zakończyć historią o kolejnej możliwości.
12:37
whichktóry is that maybe these moleculesCząsteczki, if you can do ultra-preciseUltra-precyzyjne controlkontrola,
318
742000
2000
Przy ultra-precyzyjnym sterowaniu
12:39
can be used in the brainmózg itselfsamo
319
744000
2000
te cząsteczki można by zastosować w samym mózgu
12:41
to make a newNowy kinduprzejmy of prostheticprotetyczne, an opticaloptyczne prostheticprotetyczne.
320
746000
3000
do nowego rodzaju protetyki, protetyki optycznej.
12:44
I alreadyjuż told you that electricalelektryczny stimulatorsstymulatory are not uncommonNiezbyt często.
321
749000
3000
Mówiłem już, że rozpowszechniły się stymulatory elektryczne.
12:47
Seventy-fiveSiedemdziesiąt pięć thousandtysiąc people have Parkinson'sZ chorobą Parkinsona deep-brainDeep mózg stimulatorsstymulatory implantedwszczepiony.
322
752000
3000
75 tys. chorych na Parkinsona ma wszczepione rozruszniki DBS.
12:50
Maybe 100,000 people have CochlearŚlimakowe implantsimplanty,
323
755000
2000
Jakieś 100 tys. ludzi ma implanty ślimakowe,
12:52
whichktóry allowdopuszczać them to hearsłyszeć.
324
757000
2000
umożliwiające słyszenie.
12:54
There's anotherinne thing, whichktóry is you've got to get these genesgeny into cellskomórki.
325
759000
3000
Pozostaje kwestia dostarczenia tych genów do komórek.
12:57
And newNowy hopenadzieja in genegen therapyterapia has been developedrozwinięty
326
762000
3000
W terapii genowej pojawiła się nowa nadzieja:
13:00
because viruseswirusy like the adeno-associatedadenowirus viruswirus,
327
765000
2000
wirusy takie jak adenowirusy,
13:02
whichktóry probablyprawdopodobnie mostwiększość of us around this roompokój have,
328
767000
2000
które prawdopodobnie ma większość z nas na sali,
13:04
and it doesn't have any symptomsobjawy,
329
769000
2000
a nie powodują żadnych objawów,
13:06
whichktóry have been used in hundredssetki of patientspacjenci
330
771000
2000
były stosowane na setkach pacjentów
13:08
to deliverdostarczyć genesgeny into the brainmózg or the bodyciało.
331
773000
2000
do dostarczania genów do mózgu lub ciała.
13:10
And so fardaleko, there have not been seriouspoważny adversedziałań niepożądanych eventswydarzenia
332
775000
2000
Jak dotąd nie spotkano poważnych skutków ubocznych
13:12
associatedpowiązany with the viruswirus.
333
777000
2000
związanych z tym wirusem.
13:14
There's one last elephantsłoń in the roompokój, the proteinsbiałka themselvessami,
334
779000
3000
Oczywistym, choć ignorowanym elementem są same białka,
13:17
whichktóry come from algaeglony and bacteriabakteria and fungigrzyby,
335
782000
2000
zapoczątkowane przez algi, bakterie i grzyby,
13:19
and all over the treedrzewo of life.
336
784000
2000
i odnajdywane we wszystkich gatunkach.
13:21
MostWiększość of us don't have fungigrzyby or algaeglony in our brainsmózg,
337
786000
2000
Większość z nas nie ma w mózgu grzybów i alg,
13:23
so what is our brainmózg going to do if we put that in?
338
788000
2000
jak więc zareagowałby na nie mózg?
13:25
Are the cellskomórki going to toleratetolerować it? Will the immuneodporny systemsystem reactreagować?
339
790000
2000
Czy komórki będą je tolerować? Czy zareaguje system odpornościowy?
13:27
In its earlywcześnie daysdni -- these have not been doneGotowe on humansludzie yetjeszcze --
340
792000
2000
Chociaż jeszcze nie na ludziach,
13:29
but we're workingpracujący on a varietyróżnorodność of studiesstudia
341
794000
2000
ale pracujemy nad różnymi badaniami,
13:31
to try and examinenależy sprawdzić, czy this,
342
796000
2000
które mają to sprawdzić.
13:33
and so fardaleko we haven'tnie mam seenwidziany overtjawny reactionsreakcje of any severityważności
343
798000
3000
Na razie nie widzieliśmy żadnych wyraźnych reakcji
13:36
to these moleculesCząsteczki
344
801000
2000
na te cząsteczki
13:38
or to the illuminationOświetlenie of the brainmózg with lightlekki.
345
803000
3000
lub na oświetlanie mózgu światłem.
13:41
So it's earlywcześnie daysdni, to be upfrontz góry, but we're excitedpodekscytowany about it.
346
806000
3000
To początki, ale nas bardzo intrygują.
13:44
I wanted to closeblisko with one storyfabuła,
347
809000
2000
Na koniec powiem o czymś,
13:46
whichktóry we think could potentiallypotencjalnie
348
811000
2000
co można by potencjalnie zastosować w leczeniu klinicznym.
13:48
be a clinicalkliniczny applicationpodanie.
349
813000
2000
co można by potencjalnie zastosować w leczeniu klinicznym.
13:50
Now there are manywiele formsformularze of blindnessślepota
350
815000
2000
Istnieje wiele rodzajów ślepoty,
13:52
where the photoreceptorsfotoreceptory,
351
817000
2000
w których fotoreceptory,
13:54
our lightlekki sensorsczujniki that are in the back of our eyeoko, are goneodszedł.
352
819000
3000
nasze fotodetektory na dnie oka, zanikają.
13:57
And the retinaSiatkówka oka, of coursekurs, is a complexzłożony structureStruktura.
353
822000
2000
Siatkówka ma oczywiście skomplikowaną strukturę.
13:59
Now let's zoomPowiększenie in on it here, so we can see it in more detailSzczegół.
354
824000
2000
Przybliżmy tu, żeby zobaczyć szczegóły.
14:01
The photoreceptorfotoreceptor cellskomórki are shownpokazane here at the topTop,
355
826000
3000
Komórki fotoreceptorów są pokazane na górze.
14:04
and then the signalssygnały that are detectedwykryte by the photoreceptorsfotoreceptory
356
829000
2000
Sygnały odebrane przez fotoreceptory
14:06
are transformedprzekształcone by variousróżnorodny computationsobliczenia
357
831000
2000
zostają odpowiednio przetworzone,
14:08
untilaż do finallywreszcie that layerwarstwa of cellskomórki at the bottomDolny, the ganglionzwoju cellskomórki,
358
833000
3000
aż w końcu docierają na dól, do komórek przedzwojowych,
14:11
relayPrzekaźnik the informationInformacja to the brainmózg,
359
836000
2000
przekazujących informację do mózgu,
14:13
where we see that as perceptionpostrzeganie.
360
838000
2000
gdzie odbieramy ją jako widzenie.
14:15
In manywiele formsformularze of blindnessślepota, like retinitiszapalenie siatkówki pigmentosazwyrodnienie siatkówki,
361
840000
3000
W wielu rodzajach ślepoty, np. retinopatii barwnikowej,
14:18
or macularplamki degenerationZwyrodnienie,
362
843000
2000
lub zwyrodnieniu plamki żółtej,
14:20
the photoreceptorfotoreceptor cellskomórki have atrophiedatrofii or been destroyedzniszczony.
363
845000
3000
komórki fotoreceptorów zanikają lub są zniszczone.
14:23
Now how could you repairnaprawa this?
364
848000
2000
Jak możemy to naprawić?
14:25
It's not even clearjasny that a drugnarkotyk could causeprzyczyna this to be restoredprzywrócone,
365
850000
3000
Nie jest w ogóle pewne, czy leki potrafiłyby je przywrócić,
14:28
because there's nothing for the drugnarkotyk to bindwiązać to.
366
853000
2000
bo nie ma tu nic, co mogłoby się zagoić.
14:30
On the other handdłoń, lightlekki can still get into the eyeoko.
367
855000
2000
Z drugiej strony, światło wciąż dostaje się do oka.
14:32
The eyeoko is still transparentprzezroczysty and you can get lightlekki in.
368
857000
3000
Oko jest wciąż przezroczyste i przepuszcza światło.
14:35
So what if we could just take these channelrhodopsinschannelrhodopsins and other moleculesCząsteczki
369
860000
3000
Gdybyśmy tak wzięli rodopsyny kanałowe i inne cząsteczki,
14:38
and installzainstalować them on some of these other sparezapasowy cellskomórki
370
863000
2000
zainstalowali je na niektórych zapasowych komórkach
14:40
and convertkonwertować them into little cameraskamery.
371
865000
2000
i zamienili je na małe kamery?
14:42
And because there's so manywiele of these cellskomórki in the eyeoko,
372
867000
2000
Ponieważ w oku jest tak wiele komórek
14:44
potentiallypotencjalnie, they could be very high-resolutionwysoka rozdzielczość cameraskamery.
373
869000
3000
potencjalnie mogłyby to być kamery o wysokiej rozdzielczości.
14:47
So this is some work that we're doing.
374
872000
2000
To jest część naszej pracy.
14:49
It's beingistota led by one of our collaboratorswspółpracownicy,
375
874000
2000
Prowadzi je jeden z naszych współpracowników,
14:51
AlanAlan HorsagerHorsager at USCUSC,
376
876000
2000
Alan Horsager z Uniwersytetu Kalifornii.
14:53
and beingistota soughtposzukiwany to be commercializedskomercjalizowane by a start-uprozpoczęcie działalności companyfirma EosEOS NeuroscienceNeurologii,
377
878000
3000
zaś firma Eos Neuroscience próbuje je skomercjalizować
14:56
whichktóry is fundedfinansowane by the NIHNIH.
378
881000
2000
dzięki funduszom Narodowego Instytutu Zdrowia.
14:58
And what you see here is a mousemysz tryingpróbować to solverozwiązać a mazeLabirynt.
379
883000
2000
Widzicie tu mysz próbującą przejść przez labirynt.
15:00
It's a six-arm6 ramienna mazeLabirynt. And there's a bitkawałek of waterwoda in the mazeLabirynt
380
885000
2000
To labirynt sześcioramienny. Jest w nim trochę wody,
15:02
to motivatemotywować the mousemysz to moveruszaj się, or he'llpiekło just sitsiedzieć there.
381
887000
2000
żeby nakłonić mysz do ruchu, inaczej siedziałaby w miejscu.
15:04
And the goalcel, of coursekurs, of this mazeLabirynt
382
889000
2000
Celem jest oczywiście wyjście z wody na małą platformę,
15:06
is to get out of the waterwoda and go to a little platformPlatforma
383
891000
2000
Celem jest oczywiście wyjście z wody na małą platformę,
15:08
that's underpod the litoświetlony topTop portPort.
384
893000
2000
tuż pod powierzchnią oświetlonej górnej zatoczki.
15:10
Now micemyszy are smartmądry, so this mousemysz solvesrozwiązuje the mazeLabirynt eventuallyostatecznie,
385
895000
3000
Myszy są sprytne, więc w końcu jej się udaje,
15:13
but he does a brute-forcebrute-force searchszukanie.
386
898000
2000
ale robi to metodą siłową.
15:15
He's swimmingpływanie down everykażdy avenuealeja untilaż do he finallywreszcie getsdostaje to the platformPlatforma.
387
900000
3000
Przepływa każdą alejkę póki nie dotrze do plaftormy.
15:18
So he's not usingza pomocą visionwizja to do it.
388
903000
2000
Nie wykorzystuje więc wzroku.
15:20
These differentróżne micemyszy are differentróżne mutationsmutacje
389
905000
2000
Te myszy należą do różnych mutacji,
15:22
that recapitulatepodsumować differentróżne kindsrodzaje of blindnessślepota that affectoddziaływać humansludzie.
390
907000
3000
odpowiadających rodzajom ślepoty dotykającej ludzi.
15:25
And so we're beingistota carefulostrożny in tryingpróbować to look at these differentróżne modelsmodele
391
910000
3000
Przyglądaliśmy się tym modelom uważnie
15:28
so we come up with a generalizeduogólnione approachpodejście.
392
913000
2000
i wypracowaliśmy ogólne podejście.
15:30
So how are we going to solverozwiązać this?
393
915000
2000
Jak chcemy to rozwiązać?
15:32
We're going to do exactlydokładnie what we outlinedprzedstawione in the previouspoprzedni slideślizgać się.
394
917000
2000
Zrobimy właśnie to, co pokazaliśmy na poprzednim slajdzie.
15:34
We're going to take these blueniebieski lightlekki photosensorsphotosensors
395
919000
2000
Weźmiemy niebieskoczułe fotosensory,
15:36
and installzainstalować them on a layerwarstwa of cellskomórki
396
921000
2000
mieścimy je na warstwie komórek,
15:38
in the middleśrodkowy of the retinaSiatkówka oka in the back of the eyeoko
397
923000
3000
w środku siatkówki na dnie oka
15:41
and convertkonwertować them into a cameraaparat fotograficzny --
398
926000
2000
i zrobimy z nich kamerę.
15:43
just like installingInstalowanie solarsłoneczny cellskomórki all over those neuronsneurony
399
928000
2000
To jakby instalować na neuronach panele słoneczne,
15:45
to make them lightlekki sensitivewrażliwy.
400
930000
2000
aby uwrażliwić je na światło.
15:47
LightŚwiatło is convertedprzekształcić to electricityElektryczność on them.
401
932000
2000
Światło jest zamieniane na prąd.
15:49
So this mousemysz was blindślepy a couplepara weekstygodnie before this experimenteksperyment
402
934000
3000
Ta mysz była ślepa kilka tygodni przed eksperymentem
15:52
and receivedOdebrane one dosedawka of this photosensitiveświatłoczułe moleculecząsteczka in a viruswirus.
403
937000
3000
i otrzymała dawkę fotoczułych cząstek w wirusie.
15:55
And now you can see, the animalzwierzę can indeedw rzeczy samej avoiduniknąć wallsściany
404
940000
2000
Widać teraz, że zwierzę rzeczywiście potrafi unikać ścianek
15:57
and go to this little platformPlatforma
405
942000
2000
i dociera do platformy,
15:59
and make cognitivepoznawczy use of its eyesoczy again.
406
944000
3000
znowu świadomie używając wzroku.
16:02
And to pointpunkt out the powermoc of this:
407
947000
2000
Podkreślę siłę tego sposobu:
16:04
these animalszwierzęta are ablezdolny to get to that platformPlatforma
408
949000
2000
te zwierzęta są w stanie dotrzeć do platformy
16:06
just as fastszybki as animalszwierzęta that have seenwidziany theirich entireCały liveszyje.
409
951000
2000
równie szybko jak te, które widziały przez całe życie.
16:08
So this pre-clinicalbadania przedkliniczne studybadanie, I think,
410
953000
2000
Te przedkliniczne badania,
16:10
bodeswróży hopenadzieja for the kindsrodzaje of things
411
955000
2000
wróżą przyszłość metodom,
16:12
we're hopingmieć nadzieję to do in the futureprzyszłość.
412
957000
2000
które chcielibyśmy stosować w przyszłości.
16:14
To closeblisko, I want to pointpunkt out that we're alsorównież exploringodkrywanie
413
959000
3000
Chcę zaznaczyć, że badamy również modele biznesowe
16:17
newNowy businessbiznes modelsmodele for this newNowy fieldpole of neurotechnologyneurotechnology.
414
962000
2000
dla tego nowego działu neurotechnologii.
16:19
We're developingrozwijanie these toolsprzybory,
415
964000
2000
Tworzymy te narzędzia,
16:21
but we sharedzielić them freelyswobodnie with hundredssetki of groupsgrupy all over the worldświat,
416
966000
2000
ale dzielimy się nimi z setkami grup na całym świecie,
16:23
so people can studybadanie and try to treatleczyć differentróżne disorderszaburzenia.
417
968000
2000
aby umożliwić badania i leczenie różnych schorzeń.
16:25
And our hopenadzieja is that, by figuringzastanawianie się out brainmózg circuitsobwody
418
970000
3000
Mamy nadzieję, że poprzez zrozumienie działania mózgu
16:28
at a levelpoziom of abstractionabstrakcja that letspozwala us repairnaprawa them and engineerinżynier them,
419
973000
3000
na poziomie który pozwoli nam na jego naprawę i konstrukcję,
16:31
we can take some of these intractableproblematyczna disorderszaburzenia that I told you about earlierwcześniej,
420
976000
3000
zajmiemy się nieuleczalnymi chorobami, o których wcześniej mówiłem,
16:34
practicallypraktycznie noneŻaden of whichktóry are curedwyleczyć,
421
979000
2000
z których żadna nie została dotąd pokonana,
16:36
and in the 21stul centurystulecie make them historyhistoria.
422
981000
2000
zaś w XXI wieku staną się tylko historią.
16:38
Thank you.
423
983000
2000
Dziękuję.
16:40
(ApplauseAplauz)
424
985000
13000
(Oklaski)
16:53
JuanJuan EnriquezEnriquez: So some of the stuffrzeczy is a little densegęsty.
425
998000
3000
Juan Enriquez: Temat jest trochę ciężkawy.
16:56
(LaughterŚmiech)
426
1001000
2000
(Śmiech)
16:58
But the implicationsimplikacje
427
1003000
2000
Ale skutki
17:00
of beingistota ablezdolny to controlkontrola seizuresdrgawki or epilepsypadaczka
428
1005000
3000
możliwości kontrolowania napadów epilepsji
17:03
with lightlekki insteadzamiast of drugsleki,
429
1008000
2000
poprzez światło, zamiast leków,
17:05
and beingistota ablezdolny to targetcel those specificallykonkretnie
430
1010000
3000
i możliwości precyzyjnego wybierania celu
17:08
is a first stepkrok.
431
1013000
2000
to pierwszy krok.
17:10
The seconddruga thing that I think I heardsłyszał you say
432
1015000
2000
Druga rzecz, którą tu usłyszałem,
17:12
is you can now controlkontrola the brainmózg in two colorszabarwienie,
433
1017000
3000
że można kontrolować mózg dwoma kolorami.
17:15
like an on/off switchprzełącznik.
434
1020000
2000
Jak przełącznikiem włącz/wyłącz.
17:17
EdEd BoydenBoyden: That's right.
435
1022000
2000
Ed Boyden: To prawda.
17:19
JEJE: WhichCo makesczyni everykażdy impulseimpuls going throughprzez the brainmózg a binarydwójkowy codekod.
436
1024000
3000
JE: Czyli impulsy dochodzące do mózgu są zakodowanie binarnie.
17:22
EBEB: Right, yeah.
437
1027000
2000
EB: Zgadza się.
17:24
So with blueniebieski lightlekki, we can drivenapęd informationInformacja, and it's in the formformularz of a one.
438
1029000
3000
Używając niebieskiego światła możemy wysyłać informację, jedynkę.
17:27
And by turningobrócenie things off, it's more or lessmniej a zerozero.
439
1032000
2000
Wyłączając je dostajemy coś w rodzaju zera.
17:29
So our hopenadzieja is to eventuallyostatecznie buildbudować brainmózg coprocessorskoprocesory
440
1034000
2000
Mamy nadzieję zbudować kiedyś koprocesory.
17:31
that work with the brainmózg
441
1036000
2000
działające z mózgiem,
17:33
so we can augmentulepszenie functionsFunkcje in people with disabilitiesniepełnosprawnych.
442
1038000
3000
do wspomagania czynności osób niepełnosprawnych.
17:36
JEJE: And in theoryteoria, that meansznaczy that,
443
1041000
2000
JE: Teoretycznie znaczy to,
17:38
as a mousemysz feelsczuje, smellspachnie,
444
1043000
2000
że to, jak mysz czuje, wącha,
17:40
hearssłyszy, touchesdotyka,
445
1045000
2000
słyszy, dotyka,
17:42
you can modelModel it out as a stringstrunowy of oneste and zeroszer.
446
1047000
3000
można wymodelować jako ciąg zer i jedynek.
17:45
EBEB: Sure, yeah. We're hopingmieć nadzieję to use this as a way of testingtestowanie
447
1050000
2000
EB: Jasne. Chcemy w ten sposób testować,
17:47
what neuralnerwowy codesKody can drivenapęd certainpewny behaviorszachowania
448
1052000
2000
które kody nerwowe powodują dane zachowania,
17:49
and certainpewny thoughtsmyśli and certainpewny feelingsuczucia,
449
1054000
2000
pewne myśli i uczucia,
17:51
and use that to understandzrozumieć more about the brainmózg.
450
1056000
3000
i wykorzystać to do lepszego zrozumienia mózgu.
17:54
JEJE: Does that mean that some day you could downloadpobieranie memorieswspomnienia
451
1059000
3000
JE: Czy to znaczy, że pewnego dnia będziecie mogli pobrać wspomnienia
17:57
and maybe uploadPrzekazać plik them?
452
1062000
2000
albo wgrać je do mózgu ?
17:59
EBEB: Well that's something we're startingstartowy to work on very hardciężko.
453
1064000
2000
EB: Zaczynamy ciężką pracę nad czymś takim.
18:01
We're now workingpracujący on some work
454
1066000
2000
Pracujemy teraz na projektem,
18:03
where we're tryingpróbować to tiledachówka the brainmózg with recordingnagranie elementselementy too.
455
1068000
2000
w którym chcemy obłożyć mózg urządzeniami nagrywającymi.
18:05
So we can recordrekord informationInformacja and then drivenapęd informationInformacja back in --
456
1070000
3000
Aby można było nagrać informację i wgrać ją ponownie,
18:08
sortsortować of computingprzetwarzanie danych what the brainmózg needswymagania
457
1073000
2000
takie przeliczania potrzeb mózgu,
18:10
in orderzamówienie to augmentulepszenie its informationInformacja processingprzetwarzanie.
458
1075000
2000
żeby usprawnić przetwarzanie w nim informacji
18:12
JEJE: Well, that mightmoc changezmiana a couplepara things. Thank you. (EBEB: Thank you.)
459
1077000
3000
JE: To może zmienić parę rzeczy. Dziękuję (EB: Dziękuję)
18:15
(ApplauseAplauz)
460
1080000
3000
(Oklaski)
Translated by Dominik Rzepka
Reviewed by Rysia Wand

▲Back to top

ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com