ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com
TEDxBeaconStreet

Sam Rodriques: What we'll learn about the brain in the next century

Sam Rodriques: O que vamos aprender sobre o cérebro no próximo século

Filmed:
1,621,715 views

Nesta palestra imaginativa, Sam Rodrigues, neuro engenheiro, guia-nos numa visita arrepiante dos próximos 100 anos na ciência do cérebro. Vislumbra estranhas (e, por vezes, assustadoras) inovações que podem ser fundamentais para compreender e tratar doenças cerebrais - como lasers que fazem diminutos furos no crânio e permitem que sondas estudem a atividade elétrica dos neurónios.
- Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works. Full bio

Double-click the English transcript below to play the video.

00:13
I want to tell you guys
something about neuroscienceneurociência.
0
1040
2507
Vou contar-vos uma coisa
sobre a neurociência.
00:16
I'm a physicistfísico by trainingTreinamento.
1
4040
1800
Sou médico de formação.
00:18
About threetrês yearsanos agoatrás, I left physicsfísica
2
6230
2206
Há cerca de três anos, abandonei a Física
00:20
to come and try to understandCompreendo
how the braincérebro workstrabalho.
3
8460
2349
para tentar compreender
como funciona o cérebro.
00:22
And this is what I foundencontrado.
4
10833
1474
Foi isto o que descobri.
00:24
Lots of people are workingtrabalhando on depressiondepressão.
5
12331
2064
Há muita gente a trabalhar na depressão.
00:26
And that's really good,
6
14419
1159
E isso é muito bom.
00:27
depressiondepressão is something
that we really want to understandCompreendo.
7
15602
2721
A depressão é uma coisa
que queremos perceber.
É assim que se faz:
00:30
Here'sAqui é how you do it:
8
18347
1167
Agarramos num boião e enchemo-lo
até meio com água.
00:31
you take a jarjar and you fillencher it up,
about halfwaya meio caminho, with wateragua.
9
19538
4161
00:35
And then you take a mouserato,
and you put the mouserato in the jarjar, OK?
10
23723
4182
Depois agarramos num rato
e colocamos o rato no boião.
00:39
And the mouserato swimsnada around
for a little while
11
27929
2350
O rato nada à roda
durante um bocado
00:42
and then at some pointponto,
the mouserato getsobtém tiredcansado
12
30303
2388
e depois, a certa altura, fica cansado
00:44
and decidesdecide to stop swimmingnatação.
13
32715
1934
e decide deixar de nadar.
00:46
And when it stopspára swimmingnatação,
that's depressiondepressão.
14
34673
3133
Quando deixa de nadar,
é isso a depressão.
[Hoje não me apetece nadar]
00:50
OK?
15
38696
1150
00:52
And I'm from theoreticalteórico physicsfísica,
16
40291
3380
Eu sou da Física teórica,
00:55
so I'm used to people makingfazer
very sophisticatedsofisticado mathematicalmatemático modelsmodelos
17
43695
3668
por isso estou habituado a fazer
modelos matemáticos muito sofisticados
00:59
to preciselyprecisamente describedescrever physicalfisica phenomenafenômenos,
18
47387
2881
para descrever com precisão
fenómenos físicos.
01:02
so when I saw that this
is the modelmodelo for depressiondepressão,
19
50292
2452
Por isso, quando vi que este
é o modelo da depressão,
01:04
I thoughApesar to myselfEu mesmo, "Oh my God,
we have a lot of work to do."
20
52768
2937
pensei para comigo: "Meu Deus,
temos muito trabalho a fazer".
01:07
(LaughterRiso)
21
55729
1370
(Risos)
01:09
But this is a kindtipo of generalgeral
problemproblema in neuroscienceneurociência.
22
57123
2951
Mas este é um tipo de problema
geral na neurociência.
01:12
So for exampleexemplo, take emotionemoção.
23
60377
2111
Por exemplo, pensem nas emoções.
01:14
Lots of people want to understandCompreendo emotionemoção.
24
62512
2459
Muita gente quer perceber as emoções.
01:17
But you can't studyestude emotionemoção
in miceratos or monkeysmacacos
25
65352
3313
Mas não podemos estudar as emoções
em ratos ou em macacos.
01:20
because you can't askpergunte them
26
68689
1254
Não podemos perguntar-lhes
01:21
how they're feelingsentindo-me
or what they're experiencingexperimentando.
27
69967
2317
como eles se sentem
ou o que é que sentiram.
Por isso, as pessoas que querem
perceber as emoções
01:24
So insteadem vez de, people who want
to understandCompreendo emotionemoção,
28
72308
2357
01:26
typicallytipicamente endfim up studyingestudando
what's calledchamado motivatedmotivado behaviorcomportamento,
29
74689
2777
acabam por estudar o que se chama
comportamento motivado,
01:29
whichqual is codecódigo for "what the mouserato does
when it really, really wants cheesequeijo."
30
77490
3658
que é o código para "o que faz o rato
quando está desesperado por queijo?"
01:33
OK, I could go on and on.
31
81839
1675
Eu podia continuar.
01:35
I mean, the pointponto is, the NIHNIH
spendsgasta about 5.5 billionbilhão dollarsdólares a yearano
32
83538
6316
Ou seja, a questão é que o NIH gasta
cerca de 5500 milhões de dólares por ano
na investigação em neurociência.
01:41
on neuroscienceneurociência researchpesquisa.
33
89878
1532
01:43
And yetainda there have been almostquase
no significantsignificativo improvementsmelhorias in outcomesresultados
34
91434
3603
Mas não tem havido quase nenhuns
progressos significativos nos resultados
01:47
for patientspacientes with braincérebro diseasesdoenças
in the pastpassado 40 yearsanos.
35
95061
3491
para doentes com doenças cerebrais
nos últimos 40 anos.
01:51
And I think a lot of that
is basicallybasicamente duevencimento to the factfacto
36
99015
2540
Penso que isso se deve,
em grande parte, ao facto
01:53
that miceratos mightpoderia be OK as a modelmodelo
for cancerCâncer or diabetesdiabetes,
37
101579
4151
de que os ratos podem ser bons
como modelo para o cancro ou a diabetes,
01:57
but the mouserato braincérebro
is just not sophisticatedsofisticado enoughsuficiente
38
105754
2687
mas o cérebro do rato
não é suficientemente sofisticado
02:00
to reproducereproduzir humanhumano psychologyPsicologia
or humanhumano braincérebro diseasedoença.
39
108465
3175
para reproduzir a psicologia humana
ou a doença cerebral humana.
02:04
OK?
40
112379
1225
02:05
So if the mouserato modelsmodelos are so badmau,
why are we still usingusando them?
41
113628
3634
Se os ratos modelos são tão maus,
porque é que ainda os usamos?
02:10
Well, it basicallybasicamente boilsferver down to this:
42
118143
2103
Basicamente, reduz-se a isto:
02:12
the braincérebro is madefeito up of neuronsneurônios
43
120270
2556
o cérebro é formado por neurónios
02:14
whichqual are these little cellscélulas that sendenviar
electricalelétrico signalssinais to eachcada other.
44
122850
3447
que são estas celulazinhas que enviam
sinais elétricos umas às outras.
02:18
If you want to understandCompreendo
how the braincérebro workstrabalho,
45
126680
2144
Se queremos perceber
como funciona o cérebro,
02:20
you have to be ablecapaz to measurea medida
the electricalelétrico activityatividade of these neuronsneurônios.
46
128848
3808
temos que poder medir
a atividade elétrica destes neurónios.
02:25
But to do that, you have to get
really closefechar to the neuronsneurônios
47
133339
2992
Mas, para isso, temos que chegar
muito perto dos neurónios
02:28
with some kindtipo of electricalelétrico
recordinggravação devicedispositivo or a microscopemicroscópio.
48
136355
2928
com qualquer aparelho de registo elétrico
ou com um microscópio.
02:31
And so you can do that in miceratos
and you can do it in monkeysmacacos,
49
139563
2810
Podemos fazer isso em ratos
e podemos fazer isso em macacos,
02:34
because you can physicallyfisicamente
put things into theirdeles braincérebro
50
142397
2548
porque podemos colocar
coisas no cérebro deles
02:36
but for some reasonrazão we still
can't do that in humanshumanos, OK?
51
144969
3046
mas ainda não podemos
fazer isso nas pessoas.
02:40
So insteadem vez de, we'venós temos inventedinventado
all these proxiesproxies.
52
148533
3370
Assim, inventámos estes substitutos.
02:43
So the mosta maioria popularpopular one is probablyprovavelmente this,
53
151927
2515
O mais vulgar provavelmente é este,
02:46
functionalfuncional MRIRESSONÂNCIA MAGNÉTICA, fMRIfMRI,
54
154466
2397
a ressonância magnética, ou fMRI
02:48
whichqual allowspermite you to make these
prettybonita picturesAs fotos like this,
55
156887
2692
que nos permite fazer
belas imagens como esta
que mostram as partes
do cérebro que se iluminam
02:51
that showexposição whichqual partspartes
of your braincérebro lightluz up
56
159603
2056
02:53
when you're engagedacionado
in differentdiferente activitiesactividades.
57
161683
2126
quando nos envolvemos
em diferentes atividades.
02:55
But this is a proxyproxy.
58
163833
1920
Mas isto é um substituto.
02:57
You're not actuallyna realidade measuringmedindo
neuralneural activityatividade here.
59
165777
3292
Não estamos a medir
a atividade dos neurónios.
03:01
What you're doing
is you're measuringmedindo, essentiallyessencialmente,
60
169093
2842
Estamos, essencialmente, a medir
o fluxo do sangue no cérebro,
03:03
like, bloodsangue flowfluxo in the braincérebro.
61
171959
1832
onde há mais sangue.
03:05
Where there's more bloodsangue.
62
173815
1238
03:07
It's actuallyna realidade where there's more oxygenoxigênio,
but you get the ideaidéia, OK?
63
175077
3103
Ou melhor, é onde há mais oxigénio,
mas já perceberam, não é?
Também podemos fazer outra coisa
03:10
The other thing that you can do
is you can do this --
64
178204
2519
- um eletroencefalograma -
pomos estes elétrodos na cabeça.
03:12
electroencephalographyEletroencefalografia -- you can put
these electrodeseletrodos on your headcabeça, OK?
65
180747
3591
03:16
And then you can measurea medida your braincérebro wavesondas.
66
184362
2143
Assim, podemos medir as ondas cerebrais.
03:19
And here, you're actuallyna realidade measuringmedindo
electricalelétrico activityatividade.
67
187125
3079
Aqui, estamos a medir
a atividade elétrica,
03:22
But you're not measuringmedindo
the activityatividade of neuronsneurônios.
68
190228
2365
mas não estamos a medir
a atividade dos neurónios.
03:24
You're measuringmedindo
these electricalelétrico currentscorrentes,
69
192911
2444
Estamos a medir estas correntes elétricas,
03:27
sloshingchapinha back and forthadiante in your braincérebro.
70
195379
2299
que percorrem o cérebro
de um lado para o outro.
03:30
So the pointponto is just
that these technologiestecnologias that we have
71
198157
2674
A questão é que estas
tecnologias que temos
03:32
are really measuringmedindo the wrongerrado thing.
72
200855
2436
estão a medir a coisa errada.
03:35
Because, for mosta maioria of the diseasesdoenças
that we want to understandCompreendo --
73
203315
2953
Porque, na maior parte das doenças
que queremos perceber
- o exemplo de Parkinson é clássico,
03:38
like, Parkinson'sA doença de Parkinson is the classicclássico exampleexemplo.
74
206292
2198
03:40
In Parkinson'sA doença de Parkinson, there's one particularespecial
kindtipo of neuronneurônio deepprofundo in your braincérebro
75
208514
3554
na doença de Parkinson há um tipo especial
de neurónio bem fundo do cérebro
03:44
that is responsibleresponsável for the diseasedoença,
76
212092
1731
que é responsável por esta doença -
03:45
and these technologiestecnologias just don't have
the resolutionresolução that you need
77
213847
3182
e estas tecnologias não têm
a resolução que é necessária
03:49
to get at that.
78
217053
1373
para lá chegar.
03:50
And so that's why
we're still stuckpreso with the animalsanimais.
79
218450
3974
É por isso que ainda
estamos agarrados aos animais.
03:54
Not that anyonealguém wants
to be studyingestudando depressiondepressão
80
222448
2533
Não é porque as pessoas
queiram estudar a depressão
03:57
by puttingcolocando miceratos into jarsfrascos, right?
81
225005
2262
metendo ratos dentro de boiões.
03:59
It's just that there's this pervasivepenetrante
sensesentido that it's not possiblepossível
82
227291
3753
É só porque há este sentimento
de que não é possível
observar a atividade dos neurónios
em pessoas saudáveis.
04:03
to look at the activityatividade of neuronsneurônios
in healthysaudável humanshumanos.
83
231068
3847
04:08
So here'saqui está what I want to do.
84
236180
1492
Então, o que eu quero fazer
04:09
I want to take you into the futurefuturo.
85
237974
2521
é levar-vos para o futuro
04:12
To have a look at one way in whichqual
I think it could potentiallypotencialmente be possiblepossível.
86
240519
4482
para visionar uma forma
que eu julgo ser possível.
04:17
And I want to prefacePrefácio this by sayingdizendo,
I don't have all the detailsdetalhes.
87
245526
3298
Mas, primeiro, quero dizer
que não tenho todos os pormenores.
04:21
So I'm just going to provideprovidenciar you
with a kindtipo of outlineestrutura de tópicos.
88
249272
2967
Portanto, vou fornecer-vos
uma espécie de esboço.
04:24
But we're going to go the yearano 2100.
89
252263
2400
Mas vamos até ao ano 2100.
04:27
Now what does the yearano 2100 look like?
90
255732
2299
Como será o ano 2100?
04:30
Well, to startcomeçar with, the climateclima
is a bitpouco warmermais quente that what you're used to.
91
258055
3518
Para começar, o clima é um pouco
mais quente do que anteriormente.
04:33
(LaughterRiso)
92
261597
3583
(Risos)
04:37
And that roboticrobótico vacuumvácuo cleanerlimpador
that you know and love
93
265204
4952
Aquele aspirador robótico
que conhecemos e adoramos
04:42
wentfoi throughatravés a fewpoucos generationsgerações,
94
270180
1514
percorreu algumas gerações
04:43
and the improvementsmelhorias
were not always so good.
95
271718
2843
e as melhorias nem sempre foram boas.
04:46
(LaughterRiso)
96
274585
1595
(Risos)
04:48
It was not always for the better.
97
276530
2310
Nem sempre foram as melhores.
04:52
But actuallyna realidade, in the yearano 2100
mosta maioria things are surprisinglysurpreendentemente recognizablereconhecível.
98
280221
4538
Mas, no ano 2100, a maior parte das coisas
surpreendentemente, são reconhecíveis.
04:57
It's just the braincérebro is totallytotalmente differentdiferente.
99
285458
2734
Só o cérebro é totalmente diferente.
05:00
For exampleexemplo, in the yearano 2100,
100
288740
2547
Por exemplo, no ano 2100,
05:03
we understandCompreendo the rootraiz causescausas
of Alzheimer'sA doença de Alzheimer.
101
291311
2857
conhecemos a causa
da doença de Alzheimer.
05:06
So we can deliverentregar targetedvisadas
geneticgenético therapiesterapias or drugsdrogas
102
294192
3714
Por isso, podemos ministrar
terapias genéticas ou drogas dirigidas
05:09
to stop the degenerativedegenerativas processprocesso
before it beginscomeça.
103
297930
2876
para impedir o processo
degenerativo, antes de ele começar.
05:13
So how did we do it?
104
301629
1333
Como é que o fizemos?
05:15
Well, there were essentiallyessencialmente threetrês stepspassos.
105
303898
2238
Houve, essencialmente, três passos.
05:18
The first stepdegrau was
that we had to figurefigura out
106
306589
2814
O primeiro passo foi
que tivemos que descobrir
05:21
some way to get electricalelétrico
connectionsconexões throughatravés the skullcrânio
107
309427
3293
uma forma de obter as ligações
elétricas através do crânio,
05:24
so we could measurea medida
the electricalelétrico activityatividade of neuronsneurônios.
108
312744
3015
para podermos medir a atividade
elétrica dos neurónios.
05:28
And not only that,
it had to be easyfácil and risk-freerisco-livre.
109
316339
4349
E não foi só isso,
tinha que ser fácil e sem riscos.
Qualquer coisa com que
toda a gente se sentisse bem,
05:32
Something that basicallybasicamente anyonealguém
would be OK with,
110
320712
2378
05:35
like gettingobtendo a piercingpiercing.
111
323114
1600
como fazer um "piercing".
05:37
Because back in 2017,
112
325156
2747
Porque, em 2017,
05:39
the only way that we knewsabia of
to get throughatravés the skullcrânio
113
327927
2913
a única forma que conhecíamos
para atravessar o crânio
05:42
was to drillbroca these holesburacos
the sizeTamanho of quartersquartos.
114
330864
2817
era fazer uns furos
do tamanho duma moeda.
Vocês nunca permitiriam
que vos fizessem uma coisa dessas.
05:46
You would never let
someonealguém do that to you.
115
334015
2039
05:48
So in the 2020s,
116
336967
2253
Assim, na década de 2020,
05:51
people begancomeçasse to experimentexperimentar --
ratherem vez than drillingperfuração these giganticgigantesco holesburacos,
117
339244
3381
as pessoas começaram a usar
- em vez desses furos gigantescos -
05:54
drillingperfuração microscopicmicroscópica holesburacos,
no thickermais espesso than a piecepeça of haircabelo.
118
342649
3115
furos microscópicos,
do tamanho de um cabelo.
05:58
And the ideaidéia here
was really for diagnosisdiagnóstico --
119
346735
2096
A ideia era para o diagnóstico
06:00
there are lots of timesvezes in the diagnosisdiagnóstico
of braincérebro disordersdesordens
120
348855
2786
- muitas vezes, no diagnóstico
de doenças cerebrais,
06:03
when you would like to be ablecapaz to look
at the neuralneural activityatividade beneathabaixo the skullcrânio
121
351665
4872
gostaríamos de poder observar
a atividade dos neurónios
por baixo do crânio
06:08
and beingser ablecapaz to drillbroca
these microscopicmicroscópica holesburacos
122
356561
3191
e poder fazer estes furos microscópicos.
06:11
would make that much easierMais fácil
for the patientpaciente.
123
359776
2142
Seria muito mais fácil para o doente.
06:13
In the endfim, it would be
like gettingobtendo a shottiro.
124
361942
2349
Afinal, seria como apanhar uma injeção.
06:16
You just go in and you sitsentar down
125
364315
1580
Entravam, sentavam-se,
06:17
and there's a thing
that comesvem down on your headcabeça,
126
365919
2301
uma coisa baixava sobre a cabeça,
uma picadela momentânea
e estava feito.
06:20
and a momentarymomentâneo stingpicada and then it's donefeito,
127
368244
1953
06:22
and you can go back about your day.
128
370221
1864
Podiam ir-se embora, acabar o dia.
06:24
So we're eventuallyeventualmente ablecapaz to do it
129
372736
4793
Por fim, podíamos fazer isso,
06:29
usingusando laserslasers de to drillbroca the holesburacos.
130
377553
2667
usando lasers para fazer os furos.
06:32
And with the laserslasers de,
it was fastvelozes and extremelyextremamente reliableconfiável,
131
380244
2620
Com os lasers, era rápido
e extremamente fiável.
Nem sequer damos conta
de que os furos estão lá,
06:34
you couldn'tnão podia even tell
the holesburacos were there,
132
382888
2213
06:37
any more than you could tell
that one of your hairscabelos was missingausência de.
133
385125
3000
tal como não damos conta
da falta de um cabelo.
06:40
And I know it mightpoderia soundsom crazylouco,
usingusando laserslasers de to drillbroca holesburacos in your skullcrânio,
134
388753
4738
Sei que isto pode parecer uma loucura,
usar lasers para fazer furos no crânio,
06:45
but back in 2017,
135
393515
1366
mas em 2017,
06:46
people were OK with surgeonscirurgiões
shootingtiroteio laserslasers de into theirdeles eyesolhos
136
394905
4109
as pessoas aceitavam que os cirurgiões
usassem lasers nos olhos
06:51
for correctivemedidas correctivas surgerycirurgia
137
399038
1214
para uma cirurgia corretiva.
06:52
So when you're already here,
it's not that biggrande of a stepdegrau.
138
400276
3887
Portanto, quando já chegámos aqui
esse passo não é assim tão grande.
06:57
OK?
139
405561
1151
06:58
So the nextPróximo stepdegrau,
that happenedaconteceu in the 2030s,
140
406736
3571
O passo seguinte,
que aconteceu na década de 2020,
07:02
was that it's not just about
gettingobtendo throughatravés the skullcrânio.
141
410331
3086
foi que não chegava atravessar o crânio.
07:05
To measurea medida the activityatividade of neuronsneurônios,
142
413441
1700
Para medir a atividade dos neurónios,
07:07
you have to actuallyna realidade make it
into the braincérebro tissuelenço de papel itselfem si.
143
415165
3825
temos que atravessar o tecido do cérebro.
O risco, sempre que colocamos
qualquer coisa no tecido cerebral,
07:11
And the riskrisco, wheneversempre que
you put something into the braincérebro tissuelenço de papel,
144
419344
2968
07:14
is essentiallyessencialmente that of strokeacidente vascular encefálico.
145
422336
1439
é, essencialmente, um ACV,
07:15
That you would hitacertar
a bloodsangue vesselembarcação and burstexplosão it,
146
423799
2196
se atingiremos um vaso sanguíneo
e o rebentarmos,
07:18
and that causescausas a strokeacidente vascular encefálico.
147
426019
1519
e isso provoca um ACV.
07:19
So, by the midmeio 2030s,
we had inventedinventado these flexibleflexível probessondas
148
427916
3725
Em meados da década de 2030,
inventámos estas sondas flexíveis
07:23
that were capablecapaz of going
around bloodsangue vesselsembarcações,
149
431665
2278
capazes de contornar
os vasos sanguíneos,
07:25
ratherem vez than throughatravés them.
150
433967
1476
em vez de os atravessar.
07:27
And thusportanto, we could put
hugeenorme batteriesbaterias of these probessondas
151
435467
5697
Assim, podemos pôr enormes
baterias destas sondas
no cérebro de doentes
07:33
into the brainscérebro of patientspacientes
152
441188
1357
07:34
and recordregistro from thousandsmilhares of theirdeles neuronsneurônios
withoutsem any riskrisco to them.
153
442569
3270
e registar milhares de neurónios
sem qualquer risco para eles.
07:39
And what we discovereddescobriu,
sortordenar of to our surprisesurpresa,
154
447458
4061
Descobrimos,
para nossa surpresa,
07:43
is that the neuronsneurônios that we could identifyidentificar
155
451543
2190
que os neurónios
que conseguíamos identificar,
07:45
were not respondingrespondendo
to things like ideasidéias or emotionemoção,
156
453757
3524
não reagiam a coisas
como ideias ou emoções,
07:49
whichqual was what we had expectedesperado.
157
457305
1627
que era o que nós esperávamos.
07:50
They were mostlyna maioria das vezes respondingrespondendo
to things like JenniferJennifer AnistonAniston
158
458956
3796
Reagiam sobretudo a coisas
como Jennifer Aniston
07:54
or HalleHalle BerryBerry
159
462776
2404
ou Halle Berry
07:57
or JustinJustin TrudeauTrudeau.
160
465204
1310
ou Justin Trudeau.
07:58
I mean --
161
466538
1253
07:59
(LaughterRiso)
162
467815
2326
(Risos)
08:02
In hindsightVisão Retrospectiva, we shouldn'tnão deveria
have been that surprisedsurpreso.
163
470165
2437
Em retrospetiva, não devíamos
ter ficado surpreendidos.
08:04
I mean, what do your neuronsneurônios
spendgastar mosta maioria of theirdeles time thinkingpensando about?
164
472626
3262
Ou seja, em que é que os neurónios
gastam mais tempo a pensar?
(Risos)
08:07
(LaughterRiso)
165
475912
1150
08:09
But really, the pointponto is that
166
477380
2040
Mas a questão é
08:11
this technologytecnologia enabledativado us to begininício
studyingestudando neuroscienceneurociência in individualsindivíduos.
167
479444
4430
que esta tecnologia nos permitiu começar
a estudar a neurociência nas pessoas.
08:15
So much like the transitiontransição to geneticsgenética,
at the singlesolteiro cellcélula levelnível,
168
483898
4230
Tal como na transição para a genética;
a nível da célula,
08:20
we startedcomeçado to studyestude neuroscienceneurociência,
at the singlesolteiro humanhumano levelnível.
169
488152
3206
começámos a estudar neurociência
a nível da pessoa.
08:23
But we weren'tnão foram quitebastante there yetainda.
170
491890
1618
Mas ainda não tínhamos lá chegado.
08:25
Because these technologiestecnologias
171
493895
1642
Porque estas tecnologias
08:27
were still restrictedrestrito
to medicalmédico applicationsaplicações,
172
495561
3056
ainda estavam restritas
às aplicações médicas,
o que significava que estávamos a estudar
cérebros doentes e não cérebros sãos.
08:30
whichqual meantsignificava that we were studyingestudando
sickdoente brainscérebro, not healthysaudável brainscérebro.
173
498641
3391
08:35
Because no matterimportam how safeseguro
your technologytecnologia is,
174
503235
3754
Porque, por mais segura
que seja a tecnologia,
08:39
you can't stickbastão something
into someone'sde alguém braincérebro
175
507013
2730
não podemos introduzir nada
no cérebro duma pessoa
08:41
for researchpesquisa purposesfins.
176
509767
1420
para efeitos de investigação.
08:43
They have to want it.
177
511211
1549
É preciso que elas queiram.
08:44
And why would they want it?
178
512784
1460
E por que razão haviam de querer?
08:46
Because as soonem breve as you have
an electricalelétrico connectionconexão to the braincérebro,
179
514268
3571
Porque, logo que houver uma ligação
elétrica ao cérebro,
08:49
you can use it to hookgancho
the braincérebro up to a computercomputador.
180
517863
2444
podemos usá-la para ligar
o cérebro a um computador.
08:53
Oh, well, you know, the generalgeral publicpúblico
was very skepticalcéptico at first.
181
521061
3429
Estão a ver, o público em geral,
a princípio, ficou muito cético.
08:56
I mean, who wants to hookgancho
theirdeles braincérebro up to theirdeles computerscomputadores?
182
524514
2869
Quem quer ligar o cérebro a computadores?
08:59
Well just imagineImagine beingser ablecapaz
to sendenviar an emailo email with a thought.
183
527926
4236
Imaginem só, poder enviar
um "email" através de um pensamento.
09:04
(LaughterRiso)
184
532186
2253
(Risos)
09:06
ImagineImagine beingser ablecapaz to take
a picturecenário with your eyesolhos, OK?
185
534463
4500
Imaginem só, poder tirar
uma fotografia com os olhos.
09:10
(LaughterRiso)
186
538987
1230
(Risos)
09:12
ImagineImagine never forgettingesquecendo anything anymorenão mais,
187
540241
2963
Imaginem nunca mais esquecer nada
09:15
because anything
that you chooseescolher to rememberlembrar
188
543228
2159
porque tudo aquilo
de que se quiserem lembrar
09:17
will be storedarmazenados permanentlypermanentemente
on a hardDifícil drivedirigir somewherealgum lugar,
189
545411
2477
fica armazenado permanentemente
algures num disco duro,
09:19
ablecapaz to be recalledrecordou at will.
190
547912
2029
preparado para ser usado,
quando quisermos.
09:21
(LaughterRiso)
191
549965
3366
(Risos)
09:25
The linelinha here
betweenentre crazylouco and visionaryvisionário
192
553355
3381
A linha entre o louco
e o visionário
09:28
was never quitebastante clearClaro.
193
556760
1467
nunca ficou muito clara.
09:30
But the systemssistemas were safeseguro.
194
558720
1857
Mas os sistemas eram seguros.
09:32
So when the FDAFDA decideddecidiu to deregulatedesregulamentar
these laser-drillingperfuração a laser systemssistemas, in 2043,
195
560879
5016
Por isso, quando a FDA
decidiu desregulamentar
estes sistemas de perfuração
a lazer, em 2043,
09:37
commercialcomercial demandexigem just explodedexplodiu.
196
565919
2357
a procura comercial disparou.
As pessoas começaram a assinar os "emails":
09:40
People startedcomeçado signingassinando theirdeles emailse-mails,
197
568300
1888
09:42
"Please excuseDesculpa any typoserros de digitação.
198
570212
1341
"Desculpem quaisquer gralhas.
Enviado pelo meu cérebro".
09:43
SentEnviado from my braincérebro."
199
571577
1333
09:44
(LaughterRiso)
200
572934
1001
(Risos)
09:45
CommercialComercial systemssistemas
poppedsurgiu up left and right,
201
573959
2072
Sistemas comerciais
saltaram à esquerda e à direita
09:48
offeringoferta the latestMais recentes and greatestmaior
in neuralneural interfacinginterfaceando technologytecnologia.
202
576055
3238
oferecendo as últimas e as melhores
tecnologias de interface neuronal.
09:51
There were 100 electrodeseletrodos.
203
579792
1753
Havia 100 elétrodos.
09:53
A thousandmil electrodeseletrodos.
204
581569
1911
Mil elétrodos.
09:55
HighAlta bandwidthlargura de banda for only 99.99 a monthmês.
205
583504
2476
Banda larga apenas por 99,99 por mês.
09:58
(LaughterRiso)
206
586004
1539
(Risos)
09:59
SoonEm breve, everyonetodos had them.
207
587567
1534
Em breve, toda a gente os tinha.
10:01
And that was the keychave.
208
589694
1571
Isso foi fundamental
10:03
Because, in the 2050s,
if you were a neuroscientistneurocientista,
209
591289
2923
porque, na década de 2050,
um neurocientista podia ter
10:06
you could have someonealguém come into your lablaboratório
essentiallyessencialmente from off the streetrua.
210
594236
3939
alguém a entrar no laboratório
vindo do outro lado da rua
10:10
And you could have them engagedacionado
in some emotionalemocional tasktarefa
211
598792
2864
e podia contratá-lo
para qualquer tarefa emotiva
10:13
or socialsocial behaviorcomportamento or abstractabstrato reasoningraciocínio,
212
601680
2437
ou comportamento social
ou raciocínio abstrato,
10:16
things you could never studyestude in miceratos.
213
604141
2531
coisas que nunca podíamos
estudar nos ratos.
10:18
And you could recordregistro
the activityatividade of theirdeles neuronsneurônios
214
606696
3111
Podia registar a atividade
dos neurónios dele,
10:21
usingusando the interfacesinterfaces
that they already had.
215
609831
3191
usando as interfaces
que ele já tinha.
10:25
And then you could alsoAlém disso askpergunte them
about what they were experiencingexperimentando.
216
613046
3189
Também lhe podia perguntar
o que é que ele estava a sentir.
Esta ligação entre
psicologia e neurociência
10:28
So this linkligação betweenentre
psychologyPsicologia and neuroscienceneurociência
217
616259
3349
10:31
that you could never make
in the animalsanimais, was suddenlyDe repente there.
218
619632
3381
que nunca poderia ser feita
nos animais, estava ali.
10:35
So perhapspossivelmente the classicclássico exampleexemplo of this
219
623695
2184
Talvez que o exemplo clássico para isto
10:37
was the discoverydescoberta
of the neuralneural basisbase for insightdiscernimento.
220
625903
3523
seja a descoberta
da base neuronal para a perceção.
10:41
That "AhaAha!" momentmomento, the momentmomento
it all comesvem togetherjuntos, it clickscliques.
221
629450
3600
Aquele momento "Aha!", o momento
em que tudo se encaixa, aquele clique.
10:45
And this was discovereddescobriu
by two scientistscientistas in 2055,
222
633593
4056
Isso foi descoberto
por dois cientistas, em 2055.
10:49
BarryBarry and LateTarde,
223
637673
1372
Barry e Late,
10:51
who observedobservado, in the dorsaldorsal
prefrontalpré-frontal cortexcórtex,
224
639069
3663
que observaram
o córtex dorsal pré-frontal,
10:54
how in the braincérebro of someonealguém
tryingtentando to understandCompreendo an ideaidéia,
225
642756
5222
como, no cérebro duma pessoa
que está a tentar perceber uma ideia,
11:00
how differentdiferente populationspopulações of neuronsneurônios
would reorganizereorganizar themselvessi mesmos --
226
648002
3369
como as diversas populações
de neurónios se reorganizam
11:03
you're looking at neuralneural
activityatividade here in orangelaranja --
227
651395
2436
- estão a ver a atividade neuronal
aqui, a laranja -
11:05
untilaté finallyfinalmente theirdeles activityatividade alignsalinha
in a way that leadsconduz to positivepositivo feedbackcomentários.
228
653855
3738
até que, por fim,
a sua atividade se alinha
de forma a dar uma resposta positiva.
11:10
Right there.
229
658339
1150
Aqui mesmo.
11:12
That is understandingcompreensão.
230
660723
1467
Isso é compreender.
11:15
So finallyfinalmente, we were ablecapaz to get
at the things that make us humanhumano.
231
663413
4437
Por fim, conseguimos chegar
às coisas que nos tornam humanos.
11:21
And that's what really openedaberto the way
to majorprincipal insightsintuições from medicineremédio.
232
669871
4578
Foi isso que abriu o caminho
para importantes perceções da medicina.
11:27
Because, startinginiciando in the 2060s,
233
675465
2755
Porque, a partir da década de 2060,
11:30
with the abilityhabilidade to recordregistro
the neuralneural activityatividade
234
678244
2484
com a capacidade de registar
a atividade dos neurónios
11:32
in the brainscérebro of patientspacientes
with these differentdiferente mentalmental diseasesdoenças,
235
680752
3587
no cérebro dos doentes
com diversas doenças mentais,
11:36
ratherem vez than definingdefinindo the diseasesdoenças
on the basisbase of theirdeles symptomssintomas,
236
684363
4690
em vez de definir as doenças
com base nos seus sintomas,
11:41
as we had at the beginningcomeçando of the centuryséculo,
237
689077
2040
como tínhamos feito no início do século,
11:43
we startedcomeçado to definedefinir them
238
691141
1222
começámos a defini-las
11:44
on the basisbase of the actualreal pathologypatologia
that we observedobservado at the neuralneural levelnível.
239
692387
3539
com base na patologia real
que observávamos a nível dos neurónios.
11:48
So for exampleexemplo, in the casecaso of ADHDADHD,
240
696768
3825
Por exemplo, no caso do PHDA,
descobrimos que há dezenas
de doenças diferentes.
11:52
we discovereddescobriu that there are
dozensdezenas of differentdiferente diseasesdoenças,
241
700617
3174
11:55
all of whichqual had been calledchamado ADHDADHD
at the startcomeçar of the centuryséculo,
242
703815
3009
que, no início do século,
eram conhecidas por PHDA
11:58
that actuallyna realidade had nothing
to do with eachcada other,
243
706848
2301
mas que não tinham nada a ver
umas com as outras,
12:01
exceptexceto that they had similarsemelhante symptomssintomas.
244
709173
2118
exceto que tinham
sintomas semelhantes.
12:03
And they needednecessário to be treatedtratado
in differentdiferente waysmaneiras.
245
711625
2372
Precisavam de ser tratadas
de modo diferente.
12:06
So it was kindtipo of incredibleincrível,
in retrospectRetrospect,
246
714307
2247
Em retrospetiva, é uma coisa incrível
que, no início do século, estivéssemos
a tratar todas essas doenças diferentes
12:08
that at the beginningcomeçando of the centuryséculo,
247
716578
1777
12:10
we had been treatingtratando
all those differentdiferente diseasesdoenças
248
718379
2317
com a mesma droga,
12:12
with the samemesmo drugdroga,
249
720720
1183
dando às pessoas anfetaminas,
que era o que se fazia.
12:13
just by givingdando people amphetamineanfetamina,
basicallybasicamente is what we were doing.
250
721927
3214
A esquizofrenia e a depressão
são a mesma coisa.
12:17
And schizophreniaesquizofrenia and depressiondepressão
are the samemesmo way.
251
725165
2488
12:19
So ratherem vez than prescribingprescrição drugsdrogas to people
essentiallyessencialmente at randomaleatória,
252
727677
4032
Mais do que receitar drogas
às pessoas, de forma aleatória,
como fazíamos,
12:23
as we had,
253
731733
1150
12:24
we learnedaprendido how to predictprever
whichqual drugsdrogas would be mosta maioria effectiveeficaz
254
732907
3511
aprendemos a prever
quais as drogas mais eficazes
12:28
in whichqual patientspacientes,
255
736442
1183
em que doentes,
12:29
and that just led to this hugeenorme
improvementmelhoria in outcomesresultados.
256
737649
2756
e isso levou a uma melhoria
enorme nos resultados.
12:33
OK, I want to bringtrazer you back now
to the yearano 2017.
257
741498
3476
Agora, vamos regressar ao ano 2017.
12:38
Some of this maypode soundsom satiricalsatírico
or even farlonge fetchedbuscadas.
258
746117
3373
Estas coisas podem parecer
satíricas ou rebuscadas.
12:41
And some of it is.
259
749514
1293
E algumas delas são.
12:43
I mean, I can't actuallyna realidade
see into the futurefuturo.
260
751291
2651
Claro, não posso ver o futuro.
12:45
I don't actuallyna realidade know
261
753966
1366
Não sei, obviamente,
12:47
if we're going to be drillingperfuração hundredscentenas
or thousandsmilhares of microscopicmicroscópica holesburacos
262
755356
3667
se vamos perfurar centenas
ou milhares de furos microscópicos
12:51
in our headscabeças in 30 yearsanos.
263
759047
1667
na cabeça daqui a 30 anos.
12:53
But what I can tell you
264
761762
1706
Mas o que quero dizer
12:55
is that we're not going
to make any progressprogresso
265
763492
2175
é que não vamos fazer progressos
12:57
towardsem direção understandingcompreensão the humanhumano braincérebro
or humanhumano diseasesdoenças
266
765691
3727
para percebermos o cérebro humano
ou as doenças humanas
13:01
untilaté we figurefigura out how to get
at the electricalelétrico activityatividade of neuronsneurônios
267
769442
4516
enquanto não arranjarmos forma de obter
a atividade elétrica dos neurónios
13:05
in healthysaudável humanshumanos.
268
773982
1200
em pessoas saudáveis.
13:07
And almostquase no one is workingtrabalhando
on figuringfigurando out how to do that todayhoje.
269
775918
3239
Quase ninguém está a trabalhar
para imaginar como fazer isso hoje.
13:12
That is the futurefuturo of neuroscienceneurociência.
270
780077
2334
Isso é o futuro da neurociência.
13:14
And I think it's time for neuroscientistsneurocientistas
to put down the mouserato braincérebro
271
782752
4393
Penso que chegou a altura
de os neurocientistas
porem de lado o cérebro do rato
13:19
and to dedicatededicar the thought
and investmentinvestimento necessarynecessário
272
787169
2754
e dedicarem-se o pensamento
e o investimento necessários
13:21
to understandCompreendo the humanhumano braincérebro
and humanhumano diseasedoença.
273
789947
3267
para perceber o cérebro humano
e as doenças humanas.
13:27
Thank you.
274
795629
1151
Obrigado.
(Aplausos)
13:28
(ApplauseAplausos)
275
796804
1172
Translated by Margarida Ferreira
Reviewed by Mafalda Ferreira

▲Back to top

ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com