ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com
TEDxBeaconStreet

Sam Rodriques: What we'll learn about the brain in the next century

Sam Rodriques: Ce que nous apprendrons sur le cerveau au cours du prochain siècle

Filmed:
1,621,715 views

Dans cette conversation imaginative, l'ingénieur en neurologie Sam Rodriques nous emmène dans une visite guidée palpitante des 100 prochaines années de la neurologie. Il prévoit des innovations étranges (et parfois effrayantes) qui pourraient être la clé pour comprendre et traiter les maladies du cerveau -- comme des lasers capables de percer de minuscules trous dans nos crânes afin d'étudier l'activité électrique de nos neurones.
- Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works. Full bio

Double-click the English transcript below to play the video.

Je voudrais vous dire quelques mots
au sujet des neurosciences.
00:13
I want to tell you guys
something about neuroscienceneuroscience.
0
1040
2507
00:16
I'm a physicistphysicien by trainingentraînement.
1
4040
1800
Je suis physicien de formation.
00:18
About threeTrois yearsannées agodepuis, I left physicsla physique
2
6230
2206
Il y a trois ans, j'ai quitté ce domaine
pour tenter de comprendre
le fonctionnement du cerveau.
00:20
to come and try to understandcomprendre
how the braincerveau workstravaux.
3
8460
2349
Et voici ce que j'ai trouvé.
00:22
And this is what I founda trouvé.
4
10833
1474
Il y a beaucoup de travaux
sur la dépression.
00:24
Lots of people are workingtravail on depressiondépression.
5
12331
2064
Et c'est très bien,
00:26
And that's really good,
6
14419
1159
c'est un domaine qu'il faut vraiment
tenter de comprendre.
00:27
depressiondépression is something
that we really want to understandcomprendre.
7
15602
2721
Voici comment on procède :
00:30
Here'sVoici how you do it:
8
18347
1167
vous prenez un pot et vous le remplissez
à moitié avec de l'eau.
00:31
you take a jarpot and you fillremplir it up,
about halfwayà mi-chemin, with watereau.
9
19538
4161
00:35
And then you take a mouseSouris,
and you put the mouseSouris in the jarpot, OK?
10
23723
4182
Puis vous prenez une souris
et vous la mettez dans le pot.
00:39
And the mouseSouris swimsnages around
for a little while
11
27929
2350
Et la souris nage pendant un petit moment
00:42
and then at some pointpoint,
the mouseSouris getsobtient tiredfatigué
12
30303
2388
puis, à un moment donné,
la souris se fatigue
00:44
and decidesdécide to stop swimmingla natation.
13
32715
1934
et elle décide d'arrêter de nager.
00:46
And when it stopsarrêts swimmingla natation,
that's depressiondépression.
14
34673
3133
Et quand elle arrête de nager,
c'est la dépression.
00:50
OK?
15
38696
1150
D'accord ?
00:52
And I'm from theoreticalthéorique physicsla physique,
16
40291
3380
Je viens du domaine
de la physique théorique,
00:55
so I'm used to people makingfabrication
very sophisticatedsophistiqué mathematicalmathématique modelsdes modèles
17
43695
3668
donc, j'ai l'habitude de modèles
mathématiques très sophistiqués
pour décrire très précisément
des phénomènes physiques,
00:59
to preciselyprécisément describedécrire physicalphysique phenomenaphénomènes,
18
47387
2881
donc, quand j'ai vu ce modèle
pour la dépression,
01:02
so when I saw that this
is the modelmaquette for depressiondépression,
19
50292
2452
je me suis dit : « Mon Dieu, il
y a beaucoup de travail à faire. »
01:04
I thoughbien que to myselfmoi même, "Oh my God,
we have a lot of work to do."
20
52768
2937
01:07
(LaughterRires)
21
55729
1370
(Rires)
Mais c'est un problème assez général
en neurosciences.
01:09
But this is a kindgentil of generalgénéral
problemproblème in neuroscienceneuroscience.
22
57123
2951
01:12
So for exampleExemple, take emotionémotion.
23
60377
2111
Prenez par exemple l'émotion.
01:14
Lots of people want to understandcomprendre emotionémotion.
24
62512
2459
Beaucoup de gens voudraient
comprendre l'émotion.
01:17
But you can't studyétude emotionémotion
in micedes souris or monkeyssinges
25
65352
3313
Mais on ne peut l'étudier chez les souris
ou chez les singes
01:20
because you can't askdemander them
26
68689
1254
car on ne peut pas leur demander
01:21
how they're feelingsentiment
or what they're experiencingéprouver.
27
69967
2317
comment ils vont ou se sentent.
Donc les gens qui veulent
comprendre l'émotion
01:24
So insteadau lieu, people who want
to understandcomprendre emotionémotion,
28
72308
2357
passent par l'étude de ce qu'on appelle
le comportement motivé.
01:26
typicallytypiquement endfin up studyingen train d'étudier
what's calledappelé motivatedmotivés behaviorcomportement,
29
74689
2777
Autrement dit, « ce que la souris fait
quand elle veut vraiment du fromage. »
01:29
whichlequel is codecode for "what the mouseSouris does
when it really, really wants cheesefromage."
30
77490
3658
01:33
OK, I could go on and on.
31
81839
1675
Je pourrais continuer sans fin.
01:35
I mean, the pointpoint is, the NIHNIH
spendsdépense about 5.5 billionmilliard dollarsdollars a yearan
32
83538
6316
L'Institut National de Santé dépense
près de 5,5 milliards de dollars par an
01:41
on neuroscienceneuroscience researchrecherche.
33
89878
1532
sur les recherches en neurosciences.
01:43
And yetencore there have been almostpresque
no significantimportant improvementsdes améliorations in outcomesrésultats
34
91434
3603
Et pourtant, il n'y a eu presque
aucune amélioration significative,
pour les patients souffrant de maladies
du cerveau, ces 40 dernières années.
01:47
for patientsles patients with braincerveau diseasesmaladies
in the pastpassé 40 yearsannées.
35
95061
3491
01:51
And I think a lot of that
is basicallyen gros due to the factfait
36
99015
2540
Je pense que c'est
essentiellement dû au fait
01:53
that micedes souris mightpourrait be OK as a modelmaquette
for cancercancer or diabetesDiabète,
37
101579
4151
que les souris sont d'assez bons modèles
pour étudier le cancer ou le diabète,
mais le cerveau d'une souris
n'est juste pas assez sophistiqué
01:57
but the mouseSouris braincerveau
is just not sophisticatedsophistiqué enoughassez
38
105754
2687
02:00
to reproducereproduire humanHumain psychologypsychologie
or humanHumain braincerveau diseasemaladie.
39
108465
3175
pour reproduire la psychologie humaine
ou les maladies du cerveau humain.
02:04
OK?
40
112379
1225
D'accord ?
Mais si ces modèles basés sur les souris
sont mauvais, pourquoi les utiliser ?
02:05
So if the mouseSouris modelsdes modèles are so badmal,
why are we still usingen utilisant them?
41
113628
3634
02:10
Well, it basicallyen gros boilsbout down to this:
42
118143
2103
La raison est la suivante :
02:12
the braincerveau is madefabriqué up of neuronsneurones
43
120270
2556
le cerveau est composé de neurones,
02:14
whichlequel are these little cellscellules that sendenvoyer
electricalélectrique signalssignaux to eachchaque other.
44
122850
3447
qui sont de petites cellules s'échangeant
des signaux électriques.
Pour pouvoir comprendre
le fonctionnement du cerveau,
02:18
If you want to understandcomprendre
how the braincerveau workstravaux,
45
126680
2144
02:20
you have to be ablecapable to measuremesure
the electricalélectrique activityactivité of these neuronsneurones.
46
128848
3808
vous devez être capable de mesurer
l'activité électrique de ces neurones.
Mais pour réussir cela, il faut se
rapprocher au plus près des neurones
02:25
But to do that, you have to get
really closeFermer to the neuronsneurones
47
133339
2992
02:28
with some kindgentil of electricalélectrique
recordingenregistrement devicedispositif or a microscopemicroscope.
48
136355
2928
avec une sorte d'appareil d'enregistrement
ou de microscope.
02:31
And so you can do that in micedes souris
and you can do it in monkeyssinges,
49
139563
2810
Vous pouvez faire cela chez les souris
et chez les singes,
02:34
because you can physicallyphysiquement
put things into theirleur braincerveau
50
142397
2548
en implantant des choses
dans leur cerveau,
mais pour une raison quelconque,
c'est impossible à faire chez les humains.
02:36
but for some reasonraison we still
can't do that in humanshumains, OK?
51
144969
3046
02:40
So insteadau lieu, we'venous avons inventeda inventé
all these proxiesprocurations.
52
148533
3370
Nous avons donc inventé
toutes sortes d'équipements.
02:43
So the mostles plus popularpopulaire one is probablyProbablement this,
53
151927
2515
La méthode la plus populaire
est sans doute celle-ci :
02:46
functionalfonctionnel MRIIRM, fMRIIRMf,
54
154466
2397
l'IRM fonctionnelle, ou IRMf,
qui vous permet de faire de jolies
images comme celle-ci,
02:48
whichlequel allowspermet you to make these
prettyjoli picturesdes photos like this,
55
156887
2692
qui montre les régions du cerveau
qui s'éclairent
02:51
that showmontrer whichlequel partsles pièces
of your braincerveau lightlumière up
56
159603
2056
02:53
when you're engagedengagé
in differentdifférent activitiesActivités.
57
161683
2126
lorsqu'on fait diverses activités.
02:55
But this is a proxyproxy.
58
163833
1920
Mais ce n'est qu'un artifice.
Ce n'est pas vraiment l'activité
neuronale qu'on mesure.
02:57
You're not actuallyréellement measuringmesure
neuralneural activityactivité here.
59
165777
3292
03:01
What you're doing
is you're measuringmesure, essentiallyessentiellement,
60
169093
2842
Ce qu'on mesure réellement,
ce sont des paramètres comme
03:03
like, blooddu sang flowcouler in the braincerveau.
61
171959
1832
le flux sanguin dans le cerveau.
03:05
Where there's more blooddu sang.
62
173815
1238
Là où il y a le plus de sang,
03:07
It's actuallyréellement where there's more oxygenoxygène,
but you get the ideaidée, OK?
63
175077
3103
- en fait, le plus d'oxygène -
mais c'est l'idée.
L'autre méthode que l'on peut utiliser
est la suivante :
03:10
The other thing that you can do
is you can do this --
64
178204
2519
l'électroencéphalographie.
03:12
electroencephalographyélectroencéphalographie -- you can put
these electrodesélectrodes on your headtête, OK?
65
180747
3591
On met des électrodes sur la tête.
03:16
And then you can measuremesure your braincerveau wavesvagues.
66
184362
2143
Cela permet de mesurer
les ondes cérébrales.
03:19
And here, you're actuallyréellement measuringmesure
electricalélectrique activityactivité.
67
187125
3079
Vous pouvez ainsi mesurer
une activité électrique.
Mais on ne mesure pas vraiment
l'activité des neurones.
03:22
But you're not measuringmesure
the activityactivité of neuronsneurones.
68
190228
2365
03:24
You're measuringmesure
these electricalélectrique currentscourants,
69
192911
2444
On mesure des courants électriques,
03:27
sloshingballottement back and forthavant in your braincerveau.
70
195379
2299
qui vont et viennent dans le cerveau.
Bref, ces technologies qu'on possède
03:30
So the pointpoint is just
that these technologiesles technologies that we have
71
198157
2674
mesurent la mauvaise information.
03:32
are really measuringmesure the wrongfaux thing.
72
200855
2436
03:35
Because, for mostles plus of the diseasesmaladies
that we want to understandcomprendre --
73
203315
2953
Car, la plupart des maladies
qu'on veut comprendre,
dont la maladie de Parkinson
est un exemple classique.
03:38
like, Parkinson'sMaladie de Parkinson is the classicclassique exampleExemple.
74
206292
2198
03:40
In Parkinson'sMaladie de Parkinson, there's one particularparticulier
kindgentil of neuronneurone deepProfond in your braincerveau
75
208514
3554
Pour cette maladie, c'est un type
de neurone particulier
qui est responsable de la maladie,
03:44
that is responsibleresponsable for the diseasemaladie,
76
212092
1731
03:45
and these technologiesles technologies just don't have
the resolutionrésolution that you need
77
213847
3182
et ces technologies n'ont simplement pas
la résolution nécessaire
pour observer cela.
03:49
to get at that.
78
217053
1373
03:50
And so that's why
we're still stuckcoincé with the animalsanimaux.
79
218450
3974
Voilà pourquoi on travaille
encore sur des animaux.
03:54
Not that anyonen'importe qui wants
to be studyingen train d'étudier depressiondépression
80
222448
2533
Ce n'est pas qu'on veuille étudier
la dépression
en mettant des souris dans des pots.
03:57
by puttingen mettant micedes souris into jarsbocaux, right?
81
225005
2262
03:59
It's just that there's this pervasiveenvahissant
sensesens that it's not possiblepossible
82
227291
3753
C'est simplement qu'il n'est pas possible
d'étudier l'activité de neurones
dans des cerveaux humains sains.
04:03
to look at the activityactivité of neuronsneurones
in healthyen bonne santé humanshumains.
83
231068
3847
Alors, voici ce que je veux faire.
04:08
So here'svoici what I want to do.
84
236180
1492
04:09
I want to take you into the futureavenir.
85
237974
2521
Je veux vous emmener dans le futur,
04:12
To have a look at one way in whichlequel
I think it could potentiallypotentiellement be possiblepossible.
86
240519
4482
pour vous montrer des techniques
qui pourraient rendre cela possible.
04:17
And I want to prefacePréface this by sayingen disant,
I don't have all the detailsdétails.
87
245526
3298
Je veux tout d'abord dire
que je n'ai pas tous les détails.
04:21
So I'm just going to providefournir you
with a kindgentil of outlinegrandes lignes.
88
249272
2967
Je vais donc vous proposer un aperçu.
04:24
But we're going to go the yearan 2100.
89
252263
2400
Bon alors, voyageons jusqu'à l'année 2100.
04:27
Now what does the yearan 2100 look like?
90
255732
2299
A quoi ressemble l'année 2100 ?
Pour commencer, le climat est un peu plus
chaud que celui auquel vous êtes habitués.
04:30
Well, to startdébut with, the climateclimat
is a bitbit warmerchauffe- that what you're used to.
91
258055
3518
04:33
(LaughterRires)
92
261597
3583
(Rires)
04:37
And that roboticrobotique vacuumvide cleanernettoyeur
that you know and love
93
265204
4952
Et l'aspirateur robot
que vous connaissez et aimez
a évolué sur quelques générations,
04:42
wentest allé throughpar a fewpeu generationsgénérations,
94
270180
1514
04:43
and the improvementsdes améliorations
were not always so good.
95
271718
2843
et les améliorations n'étaient pas
toujours les meilleures.
04:46
(LaughterRires)
96
274585
1595
(Rires)
04:48
It was not always for the better.
97
276530
2310
Elles n'allaient pas toujours
dans le bon sens.
Mais en fait, en 2100, la plupart des
choses sont assez reconnaissables.
04:52
But actuallyréellement, in the yearan 2100
mostles plus things are surprisinglyétonnamment recognizablereconnaissable.
98
280221
4538
04:57
It's just the braincerveau is totallytotalement differentdifférent.
99
285458
2734
C'est juste que le cerveau
est totalement différent.
05:00
For exampleExemple, in the yearan 2100,
100
288740
2547
Par exemple, en 2100,
05:03
we understandcomprendre the rootracine causescauses
of Alzheimer'sAlzheimer.
101
291311
2857
on comprend les causes
de la maladie d'Alzheimer
et on peut utiliser des thérapies
génétiques ciblées ou des médicaments
05:06
So we can deliverlivrer targetedciblé
geneticgénétique therapiesthérapies or drugsdrogues
102
294192
3714
05:09
to stop the degenerativedégénératives processprocessus
before it beginscommence.
103
297930
2876
pour mettre fin au processus dégénératif
avant qu'il ne commence.
Alors, comment est-on arrivé là ?
05:13
So how did we do it?
104
301629
1333
05:15
Well, there were essentiallyessentiellement threeTrois stepspas.
105
303898
2238
Il y avait essentiellement
trois étapes à franchir.
05:18
The first stepétape was
that we had to figurefigure out
106
306589
2814
La première était de trouver
05:21
some way to get electricalélectrique
connectionsles liaisons throughpar the skullcrâne
107
309427
3293
un moyen d'obtenir des connexions
électriques à travers le crâne
05:24
so we could measuremesure
the electricalélectrique activityactivité of neuronsneurones.
108
312744
3015
afin de pouvoir mesurer
l'activité électrique des neurones.
05:28
And not only that,
it had to be easyfacile and risk-freesans risque.
109
316339
4349
Et cela de manière facile et sans risque.
Quelque chose que tout le monde
accepterait de faire
05:32
Something that basicallyen gros anyonen'importe qui
would be OK with,
110
320712
2378
05:35
like gettingobtenir a piercingpiercing.
111
323114
1600
comme un piercing, par exemple.
05:37
Because back in 2017,
112
325156
2747
Car en 2017,
le seul moyen connu pour passer
à travers le crâne
05:39
the only way that we knewa connu of
to get throughpar the skullcrâne
113
327927
2913
était de percer des trous de
la taille d'une pièce de 25 cents.
05:42
was to drillpercer these holesdes trous
the sizeTaille of quartersquartiers.
114
330864
2817
05:46
You would never let
someoneQuelqu'un do that to you.
115
334015
2039
Vous ne laisseriez jamais quelqu'un
vous faire une telle chose.
05:48
So in the 2020s,
116
336967
2253
Alors, pendant les années 2020,
05:51
people begana commencé to experimentexpérience --
ratherplutôt than drillingforage these giganticgigantesque holesdes trous,
117
339244
3381
on a commencé à expérimenter --
au lieu de percer ces gros trous,
05:54
drillingforage microscopicmicroscopique holesdes trous,
no thickerplus épais than a piecepièce of haircheveux.
118
342649
3115
on perçait des trous microscopiques,
pas plus épais qu'un cheveu.
Et cela pour aider au diagnostic --
05:58
And the ideaidée here
was really for diagnosisdiagnostic --
119
346735
2096
souvent, pour le diagnostic
des troubles cérébraux
06:00
there are lots of timesfois in the diagnosisdiagnostic
of braincerveau disorderstroubles
120
348855
2786
on voudrait être capable de voir
l'activité neuronale sous le crâne,
06:03
when you would like to be ablecapable to look
at the neuralneural activityactivité beneathsous the skullcrâne
121
351665
4872
06:08
and beingétant ablecapable to drillpercer
these microscopicmicroscopique holesdes trous
122
356561
3191
et être capable de percer
ces trous microscopiques
rendrait cette épreuve plus simple
pour le patient.
06:11
would make that much easierPlus facile
for the patientpatient.
123
359776
2142
En fin de compte, cela serait
comme une piqûre.
06:13
In the endfin, it would be
like gettingobtenir a shotcoup.
124
361942
2349
06:16
You just go in and you sitasseoir down
125
364315
1580
Vous entrez, vous vous asseyez
06:17
and there's a thing
that comesvient down on your headtête,
126
365919
2301
et quelque chose descend sur votre tête,
une courte piqûre, et puis c'est fini,
06:20
and a momentarymomentanée stingpiquer and then it's doneterminé,
127
368244
1953
06:22
and you can go back about your day.
128
370221
1864
et vous retournez à vos activités.
06:24
So we're eventuallyfinalement ablecapable to do it
129
372736
4793
Bref, on est finalement parvenu
à faire cela
06:29
usingen utilisant laserslasers to drillpercer the holesdes trous.
130
377553
2667
en utilisant des rayons laser
pour percer les trous.
06:32
And with the laserslasers,
it was fastvite and extremelyextrêmement reliablefiable,
131
380244
2620
Ces rayons lasers, sont rapides
et extrêmement fiables,
06:34
you couldn'tne pouvait pas even tell
the holesdes trous were there,
132
382888
2213
on ne remarque même pas
que les trous sont là,
06:37
any more than you could tell
that one of your hairspoils was missingmanquant.
133
385125
3000
pas plus qu'on ne voit
un cheveu manquant sur votre tête.
06:40
And I know it mightpourrait sounddu son crazyfou,
usingen utilisant laserslasers to drillpercer holesdes trous in your skullcrâne,
134
388753
4738
L'idée d'utiliser des rayons laser pour
percer de trous dans le crâne paraît folle
06:45
but back in 2017,
135
393515
1366
mais en 2017,
les gens acceptaient des opérations
au laser dans leurs yeux
06:46
people were OK with surgeonschirurgiens
shootingtournage laserslasers into theirleur eyesles yeux
136
394905
4109
06:51
for correctivecorrectives surgerychirurgie
137
399038
1214
pour de la chirurgie corrective.
06:52
So when you're alreadydéjà here,
it's not that biggros of a stepétape.
138
400276
3887
A partir de là, ce n'est pas
un si grand pas,
06:57
OK?
139
405561
1151
n'est-ce pas ?
06:58
So the nextprochain stepétape,
that happenedarrivé in the 2030s,
140
406736
3571
Ensuite, l'étape suivante,
pendant les années 2030,
07:02
was that it's not just about
gettingobtenir throughpar the skullcrâne.
141
410331
3086
ne fut pas simplement de parvenir
à percer le crâne.
Pour mesurer l'activité des neurones,
07:05
To measuremesure the activityactivité of neuronsneurones,
142
413441
1700
07:07
you have to actuallyréellement make it
into the braincerveau tissuetissu itselfse.
143
415165
3825
il faut entrer dans le tissu cérébral
lui-même.
Mais le risque en faisant cela
07:11
And the riskrisque, whenevern'importe quand
you put something into the braincerveau tissuetissu,
144
419344
2968
est de causer un accident vasculaire.
07:14
is essentiallyessentiellement that of strokeaccident vasculaire cérébral.
145
422336
1439
Endommager un vaisseau sanguin
07:15
That you would hitfrappé
a blooddu sang vesselnavire and burstéclater it,
146
423799
2196
et provoquer un AVC.
07:18
and that causescauses a strokeaccident vasculaire cérébral.
147
426019
1519
07:19
So, by the midmilieu 2030s,
we had inventeda inventé these flexibleflexible probessondes
148
427916
3725
Donc, au milieu des années 2030,
on a inventé des sondes flexibles
07:23
that were capablecapable of going
around blooddu sang vesselsnavires,
149
431665
2278
capables de contourner
les vaisseaux sanguins,
07:25
ratherplutôt than throughpar them.
150
433967
1476
au lieu de les traverser.
07:27
And thusAinsi, we could put
hugeénorme batteriesbatteries of these probessondes
151
435467
5697
On a ainsi été capable de mettre
un grand nombre de ces sondes
07:33
into the brainscerveaux of patientsles patients
152
441188
1357
dans les cerveaux des patients
07:34
and recordrecord from thousandsmilliers of theirleur neuronsneurones
withoutsans pour autant any riskrisque to them.
153
442569
3270
et enregistrer les signaux de milliers de
neurones sans aucun risque pour eux.
07:39
And what we discovereddécouvert,
sortTrier of to our surprisesurprise,
154
447458
4061
Ce qu'on a découvert,
à notre grande surprise,
07:43
is that the neuronsneurones that we could identifyidentifier
155
451543
2190
est que les neurones
qu'on pouvait identifier
07:45
were not respondingrépondant
to things like ideasidées or emotionémotion,
156
453757
3524
ne répondaient pas aux idées
ou aux émotions,
ce qu'on s'attendait à observer,
07:49
whichlequel was what we had expectedattendu.
157
457305
1627
07:50
They were mostlyla plupart respondingrépondant
to things like JenniferJennifer AnistonAniston
158
458956
3796
Ils répondaient plutôt à
des choses comme Jennifer Aniston,
07:54
or HalleHalle BerryBerry
159
462776
2404
Halle Berry
07:57
or JustinJustin TrudeauTrudeau.
160
465204
1310
ou Justin Trudeau.
07:58
I mean --
161
466538
1253
Je veux dire --
07:59
(LaughterRires)
162
467815
2326
(Rires)
08:02
In hindsightavec le recul, we shouldn'tne devrait pas
have been that surprisedsurpris.
163
470165
2437
Rétrospectivement, on n'aurait
pas dû être surpris.
08:04
I mean, what do your neuronsneurones
spenddépenser mostles plus of theirleur time thinkingen pensant about?
164
472626
3262
Vos neurones passent la plupart
de leur temps à penser à quoi ?
08:07
(LaughterRires)
165
475912
1150
(Rires)
08:09
But really, the pointpoint is that
166
477380
2040
Mais sérieusement,
08:11
this technologyLa technologie enabledactivée us to begincommencer
studyingen train d'étudier neuroscienceneuroscience in individualspersonnes.
167
479444
4430
cette technologie a permis d'étudier
les neurosciences au niveau de l'individu.
08:15
So much like the transitiontransition to geneticsla génétique,
at the singleunique cellcellule levelniveau,
168
483898
4230
Un peu comme la transition de la génétique
au niveau d'une seule cellule,
08:20
we startedcommencé to studyétude neuroscienceneuroscience,
at the singleunique humanHumain levelniveau.
169
488152
3206
on a commencé à étudier les neurosciences
au niveau de l'individu.
08:23
But we weren'tn'étaient pas quiteassez there yetencore.
170
491890
1618
Mais il restait du chemin à parcourir.
08:25
Because these technologiesles technologies
171
493895
1642
Car ces technologies
08:27
were still restrictedlimité
to medicalmédical applicationsapplications,
172
495561
3056
étaient encore limitées
aux applications médicales,
et on étudiait les cerveaux malades,
et non pas ceux en bonne santé.
08:30
whichlequel meantsignifiait that we were studyingen train d'étudier
sickmalade brainscerveaux, not healthyen bonne santé brainscerveaux.
173
498641
3391
08:35
Because no mattermatière how safesûr
your technologyLa technologie is,
174
503235
3754
Parce que même si la technologie
est sûre,
on ne peut insérer quelque chose
dans le cerveau de quelqu'un
08:39
you can't stickbâton something
into someone'squelques uns braincerveau
175
507013
2730
08:41
for researchrecherche purposesfins.
176
509767
1420
à des fins de recherche.
Ils doivent en avoir envie.
08:43
They have to want it.
177
511211
1549
08:44
And why would they want it?
178
512784
1460
Et pourquoi en auraient-ils envie ?
08:46
Because as soonbientôt as you have
an electricalélectrique connectionconnexion to the braincerveau,
179
514268
3571
Parce que, dès qu'on crée une connexion
électrique avec le cerveau,
08:49
you can use it to hookcrochet
the braincerveau up to a computerordinateur.
180
517863
2444
on peut l'utiliser pour connecter
le cerveau à un ordinateur.
08:53
Oh, well, you know, the generalgénéral publicpublic
was very skepticalsceptique at first.
181
521061
3429
Évidemment, le public était
très sceptique au début.
Qui voudrait connecter son cerveau
à un ordinateur ?
08:56
I mean, who wants to hookcrochet
theirleur braincerveau up to theirleur computersdes ordinateurs?
182
524514
2869
Eh bien, imaginez pouvoir envoyer
un mail par la pensée !
08:59
Well just imagineimaginer beingétant ablecapable
to sendenvoyer an emailemail with a thought.
183
527926
4236
09:04
(LaughterRires)
184
532186
2253
(Rires)
09:06
ImagineImaginez beingétant ablecapable to take
a picturephoto with your eyesles yeux, OK?
185
534463
4500
Imaginez pouvoir prendre une photo
avec vos yeux.
(Rires)
09:10
(LaughterRires)
186
538987
1230
09:12
ImagineImaginez never forgettingoubli anything anymoreplus,
187
540241
2963
Imaginez de ne jamais plus rien oublier,
car tout ce que vous choisissez
de vous souvenir
09:15
because anything
that you choosechoisir to rememberrappelles toi
188
543228
2159
09:17
will be storedstockés permanentlyen permanence
on a harddifficile driveconduire somewherequelque part,
189
545411
2477
serait stocké sur un disque dur,
09:19
ablecapable to be recalledrappelé at will.
190
547912
2029
capable d'être rappelé à volonté.
09:21
(LaughterRires)
191
549965
3366
(Rires)
09:25
The lineligne here
betweenentre crazyfou and visionaryvisionnaire
192
553355
3381
La frontière entre le fou
et le visionnaire
n'a jamais été très franche.
09:28
was never quiteassez clearclair.
193
556760
1467
Mais les systèmes étaient sûrs.
09:30
But the systemssystèmes were safesûr.
194
558720
1857
09:32
So when the FDAFDA decideddécidé to deregulatedéréglementer
these laser-drillingperçage laser systemssystèmes, in 2043,
195
560879
5016
Alors, quand en 2043, la FDA a décidé
de déréglementer ces systèmes au laser,
09:37
commercialcommercial demanddemande just explodeda explosé.
196
565919
2357
la demande commerciale a explosé.
09:40
People startedcommencé signingsigner theirleur emailsemails,
197
568300
1888
Les gens se mirent à signer leurs mails
09:42
"Please excuseexcuse any typosfautes de frappe.
198
570212
1341
« Veuillez pardonner toute faute.
09:43
SentEnvoyé from my braincerveau."
199
571577
1333
Envoyé par mon cerveau. »
09:44
(LaughterRires)
200
572934
1001
(Rires)
09:45
CommercialCommerciale systemssystèmes
poppedsauté up left and right,
201
573959
2072
Des offres commerciales se mirent
à apparaître,
09:48
offeringoffre the latestdernier and greatestplus grand
in neuralneural interfacingEntoilage technologyLa technologie.
202
576055
3238
offrant la technologie d'interface
neuronale la plus récente et la meilleure.
09:51
There were 100 electrodesélectrodes.
203
579792
1753
D'abord avec une centaine d'électrodes.
09:53
A thousandmille electrodesélectrodes.
204
581569
1911
Puis un millier d'électrodes.
09:55
HighHaute bandwidthbande passante for only 99.99 a monthmois.
205
583504
2476
De la haute bande passante pour
seulement 99,99 par mois.
09:58
(LaughterRires)
206
586004
1539
(Rires)
09:59
SoonBientôt, everyonetoutes les personnes had them.
207
587567
1534
Bientôt, tout le monde eut la sienne.
10:01
And that was the keyclé.
208
589694
1571
Et c'était la clé.
Car, dans les années 2050,
si vous étiez neuroscientifique,
10:03
Because, in the 2050s,
if you were a neuroscientistchercheur en neurosciences,
209
591289
2923
des personnes pouvaient venir
directement à votre laboratoire.
10:06
you could have someoneQuelqu'un come into your lablaboratoire
essentiallyessentiellement from off the streetrue.
210
594236
3939
10:10
And you could have them engagedengagé
in some emotionalémotif tasktâche
211
598792
2864
Et vous pouviez les engager
pour étudier des émotions,
10:13
or socialsocial behaviorcomportement or abstractabstrait reasoningraisonnement,
212
601680
2437
le comportement social,
ou le raisonnement abstrait,
10:16
things you could never studyétude in micedes souris.
213
604141
2531
ce qu'on ne pourrait jamais étudier
avec des souris.
10:18
And you could recordrecord
the activityactivité of theirleur neuronsneurones
214
606696
3111
Et vous pouviez enregistrer l'activité
de leurs neurones
en utilisant les interfaces
qu'ils avaient déjà.
10:21
usingen utilisant the interfacesinterfaces
that they alreadydéjà had.
215
609831
3191
10:25
And then you could alsoaussi askdemander them
about what they were experiencingéprouver.
216
613046
3189
Et puis vous pouviez leur demander
ce qu'ils éprouvaient.
Alors, ce lien entre la psychologie
et les neurosciences,
10:28
So this linklien betweenentre
psychologypsychologie and neuroscienceneuroscience
217
616259
3349
10:31
that you could never make
in the animalsanimaux, was suddenlysoudainement there.
218
619632
3381
qu'on ne pouvait jamais voir chez
les animaux, était là, tout d'un coup.
10:35
So perhapspeut être the classicclassique exampleExemple of this
219
623695
2184
L'exemple peut-être le plus classique
fut la découverte de la
base neurale de la compréhension.
10:37
was the discoveryDécouverte
of the neuralneural basisbase for insightperspicacité.
220
625903
3523
Ce moment de révélation,
le moment où ça a fait tilt.
10:41
That "AhaAHA!" momentmoment, the momentmoment
it all comesvient togetherensemble, it clicksclics.
221
629450
3600
Et cela a été découvert par
deux scientifiques en 2055,
10:45
And this was discovereddécouvert
by two scientistsscientifiques in 2055,
222
633593
4056
10:49
BarryBarry and LateVers la fin,
223
637673
1372
Barry et Late,
qui ont observé, dans
le cortex préfrontal dorsal,
10:51
who observedobservé, in the dorsaldorsale
prefrontalpréfrontal cortexcortex,
224
639069
3663
dans le cerveau de quelqu'un en train
d'essayer de comprendre une idée
10:54
how in the braincerveau of someoneQuelqu'un
tryingen essayant to understandcomprendre an ideaidée,
225
642756
5222
comment les différentes populations
de neurones se réorganisaient -
11:00
how differentdifférent populationspopulations of neuronsneurones
would reorganizeréorganiser les themselvesse --
226
648002
3369
11:03
you're looking at neuralneural
activityactivité here in orangeOrange --
227
651395
2436
vous voyez l'activé neuronale en orange
jusqu'à ce que leur activité s'aligne pour
fournir un retour d'information positif.
11:05
untiljusqu'à finallyenfin theirleur activityactivité alignss’aligne
in a way that leadspistes to positivepositif feedbackretour d'information.
228
653855
3738
11:10
Right there.
229
658339
1150
Juste là.
Voilà à quoi ressemble la compréhension.
11:12
That is understandingcompréhension.
230
660723
1467
Nous étions enfin capables d'atteindre
ce qui nous rend humain.
11:15
So finallyenfin, we were ablecapable to get
at the things that make us humanHumain.
231
663413
4437
11:21
And that's what really openedouvert the way
to majorMajeur insightsdes idées from medicinemédicament.
232
669871
4578
Et cela a vraiment ouvert la voie
vers de grandes percées médicales.
Parce que, à partir des années 2060,
11:27
Because, startingdépart in the 2060s,
233
675465
2755
avec la capacité d'enregistrer
l'activité neurale
11:30
with the abilitycapacité to recordrecord
the neuralneural activityactivité
234
678244
2484
dans les cerveaux des patients
atteints de diverses maladies mentales,
11:32
in the brainscerveaux of patientsles patients
with these differentdifférent mentalmental diseasesmaladies,
235
680752
3587
au lieu de définir les maladies
par rapport à leurs symptômes,
11:36
ratherplutôt than definingdéfinir the diseasesmaladies
on the basisbase of theirleur symptomssymptômes,
236
684363
4690
comme on le faisait au début du siècle,
11:41
as we had at the beginningdébut of the centurysiècle,
237
689077
2040
on commençait à les définir
11:43
we startedcommencé to definedéfinir them
238
691141
1222
par rapport à la vraie pathologie
qu'on observait au niveau neuronal.
11:44
on the basisbase of the actualréel pathologypathologie
that we observedobservé at the neuralneural levelniveau.
239
692387
3539
Par exemple, dans le cas du
trouble déficitaire de l'attention,
11:48
So for exampleExemple, in the caseCas of ADHDTDAH,
240
696768
3825
on a découvert qu'il existe
des dizaines de maladies différentes,
11:52
we discovereddécouvert that there are
dozensdouzaines of differentdifférent diseasesmaladies,
241
700617
3174
appelées au début du siècle
trouble déficitaire de l'attention,
11:55
all of whichlequel had been calledappelé ADHDTDAH
at the startdébut of the centurysiècle,
242
703815
3009
qui n'avaient rien à voir
les uns avec les autres
11:58
that actuallyréellement had nothing
to do with eachchaque other,
243
706848
2301
12:01
exceptsauf that they had similarsimilaire symptomssymptômes.
244
709173
2118
à part des symptômes similaires.
Et qui avaient besoin d'être
traités différemment.
12:03
And they needednécessaire to be treatedtraité
in differentdifférent waysfaçons.
245
711625
2372
12:06
So it was kindgentil of incredibleincroyable,
in retrospectRetrospect,
246
714307
2247
Rétrospectivement, cela paraît
un peu incroyable
12:08
that at the beginningdébut of the centurysiècle,
247
716578
1777
qu'au début du siècle,
on traitait toutes
ces différentes maladies
12:10
we had been treatingtraitant
all those differentdifférent diseasesmaladies
248
718379
2317
avec le même médicament.
12:12
with the sameMême drugdrogue,
249
720720
1183
En général, simplement en donnant
aux gens de l'amphétamine.
12:13
just by givingdonnant people amphetamineamphétamine,
basicallyen gros is what we were doing.
250
721927
3214
Et la schizophrénie et la dépression
de la même manière.
12:17
And schizophreniaschizophrénie and depressiondépression
are the sameMême way.
251
725165
2488
12:19
So ratherplutôt than prescribingprescrire drugsdrogues to people
essentiallyessentiellement at randomau hasard,
252
727677
4032
Donc, au lieu de prescrire des médicaments
aux gens essentiellement au hasard
comme on faisait,
12:23
as we had,
253
731733
1150
on a appris comment prédire quels
médicaments seraient les plus efficaces
12:24
we learnedappris how to predictprédire
whichlequel drugsdrogues would be mostles plus effectiveefficace
254
732907
3511
12:28
in whichlequel patientsles patients,
255
736442
1183
chez certains patients,
12:29
and that just led to this hugeénorme
improvementamélioration in outcomesrésultats.
256
737649
2756
ce qui a conduit à une amélioration
extraordinaire des résultats.
12:33
OK, I want to bringapporter you back now
to the yearan 2017.
257
741498
3476
Je vais vous ramener maintenant en 2017.
Ce que je viens de raconter semble
peut-être satirique ou exagéré,
12:38
Some of this maymai sounddu son satiricalsatirique
or even farloin fetchedextrait.
258
746117
3373
12:41
And some of it is.
259
749514
1293
et c'est vrai pour certains points.
12:43
I mean, I can't actuallyréellement
see into the futureavenir.
260
751291
2651
Je ne suis pas vraiment capable
de prédire l'avenir.
12:45
I don't actuallyréellement know
261
753966
1366
Je ne sais pas vraiment
12:47
if we're going to be drillingforage hundredsdes centaines
or thousandsmilliers of microscopicmicroscopique holesdes trous
262
755356
3667
si on percera des centaines ou
des milliers de trous microscopiques
dans nos têtes d'ici 30 ans.
12:51
in our headstêtes in 30 yearsannées.
263
759047
1667
Mais ce que je peux vous dire,
12:53
But what I can tell you
264
761762
1706
12:55
is that we're not going
to make any progressle progrès
265
763492
2175
c'est qu'on ne fera aucun progrès
vers la compréhension du cerveau humain
ou les maladies humaines
12:57
towardsvers understandingcompréhension the humanHumain braincerveau
or humanHumain diseasesmaladies
266
765691
3727
avant de trouver comment étudier
l'activité électrique des neurones
13:01
untiljusqu'à we figurefigure out how to get
at the electricalélectrique activityactivité of neuronsneurones
267
769442
4516
chez des humains en bonne santé.
13:05
in healthyen bonne santé humanshumains.
268
773982
1200
13:07
And almostpresque no one is workingtravail
on figuringfigurer out how to do that todayaujourd'hui.
269
775918
3239
Et il n'y a presque personne
qui y travaille aujourd'hui.
13:12
That is the futureavenir of neuroscienceneuroscience.
270
780077
2334
Ceci est l'avenir des neurosciences.
13:14
And I think it's time for neuroscientistsneuroscientifiques
to put down the mouseSouris braincerveau
271
782752
4393
Et je pense qu'il est temps de laisser
les cerveaux de souris
et de focaliser la pensée
et les investissements nécessaires
13:19
and to dedicateconsacrer the thought
and investmentinvestissement necessarynécessaire
272
787169
2754
13:21
to understandcomprendre the humanHumain braincerveau
and humanHumain diseasemaladie.
273
789947
3267
pour comprendre le cerveau humain
et les maladies humaines.
13:27
Thank you.
274
795629
1151
Merci.
13:28
(ApplauseApplaudissements)
275
796804
1172
(Applaudissements)
Translated by Yves DAUMAS
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com