ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Sebastian Seung: Je suis mon connectome

Filmed:
1,131,223 views

Sebastian Seung établit la cartographie d'une nouvelle modélisation du cerveau extrêmement ambitieuse qui s'intéresse aux connections entre chaque neurone. Il appelle cela notre "connectome" : il est aussi unique que notre génome et réussir à comprendre son fonctionnement pourrait inaugurer une nouvelle façon de comprendre le fonctionnement de nos cerveaux et de notre psychologie.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We livevivre in in a remarkableremarquable time,
0
2000
3000
Nous vivons à une époque remarquable,
00:20
the ageâge of genomicsla génomique.
1
5000
3000
l'âge de la génomique.
00:23
Your genomegénome is the entiretout sequenceséquence of your DNAADN.
2
8000
3000
Votre génome est la séquence intégrale de votre ADN.
00:26
Your sequenceséquence and minemien are slightlylégèrement differentdifférent.
3
11000
3000
Votre séquence et la mienne sont légèrement différentes.
00:29
That's why we look differentdifférent.
4
14000
2000
C'est pour cela que nous ne nous ressemblons pas.
00:31
I've got brownmarron eyesles yeux;
5
16000
2000
J'ai les yeux bruns.
00:33
you mightpourrait have bluebleu or graygris.
6
18000
3000
Les vôtres sont peut-être bleus ou gris.
00:36
But it's not just skin-deepfleur de peau.
7
21000
2000
Mais cela ne concerne pas seulement ce qui se voit à l'oeil nu.
00:38
The headlinesManchettes tell us
8
23000
2000
Les gros titres des journaux nous apprennent
00:40
that genesgènes can give us scaryeffrayant diseasesmaladies,
9
25000
3000
que ce sont les gènes qui sont responsables de maladies effrayantes,
00:43
maybe even shapeforme our personalitypersonnalité,
10
28000
3000
qui peut-être même modèlent notre personnalité,
00:46
or give us mentalmental disorderstroubles.
11
31000
3000
ou qui causent des désordres mentaux.
00:49
Our genesgènes seemsembler to have
12
34000
3000
Nos gènes semblent posséder
00:52
awesomeimpressionnant powerPuissance over our destiniesdestins.
13
37000
3000
une emprise phénoménale sur nos destins.
00:56
And yetencore, I would like to think
14
41000
3000
Et pourtant, je voudrais penser
00:59
that I am more than my genesgènes.
15
44000
3000
que je suis plus que mes gènes.
01:04
What do you guys think?
16
49000
2000
Vous en pensez quoi?
01:06
Are you more than your genesgènes?
17
51000
3000
Vous êtes aussi plus que vos gènes?
01:09
(AudiencePublic: Yes.) Yes?
18
54000
2000
(Public : Oui.) Oui ?
01:13
I think some people agreese mettre d'accord with me.
19
58000
2000
Je pense que certains sont d'accord avec moi.
01:15
I think we should make a statementdéclaration.
20
60000
2000
Je pense que nous devrions le décréter.
01:17
I think we should say it all togetherensemble.
21
62000
2000
Je pense que nous devrions le dire tous ensemble.
01:20
All right: "I'm more than my genesgènes" -- all togetherensemble.
22
65000
3000
Allez : "Je suis plus que mes gènes" -- tous ensemble.
01:23
EverybodyTout le monde: I am more than my genesgènes.
23
68000
4000
Tout le monde : Je suis plus que mes gènes.
01:27
(CheeringAcclamations)
24
72000
2000
(Applaudissements)
01:30
SebastianSebastian SeungSeung: What am I?
25
75000
2000
Sebastian Seung : Qu'est-ce que je suis?
01:32
(LaughterRires)
26
77000
3000
(Rires)
01:35
I am my connectomeconnectome.
27
80000
3000
Je suis mon connectome.
01:40
Now, sincedepuis you guys are really great,
28
85000
2000
Bon, comme vous êtes vraiment supers,
01:42
maybe you can humorhumour me and say this all togetherensemble too.
29
87000
2000
vous pourriez peut-être me faire plaisir et le dire tous ensemble aussi.
01:44
(LaughterRires)
30
89000
2000
(Rires)
01:46
Right. All togetherensemble now.
31
91000
2000
Voilà. Tous ensemble maintenant.
01:48
EverybodyTout le monde: I am my connectomeconnectome.
32
93000
3000
Tout le monde : Je suis mon connectome.
01:53
SSSS: That soundedsonné great.
33
98000
2000
SS : C'était super bien.
01:55
You know, you guys are so great, you don't even know what a connectomeconnectome is,
34
100000
2000
Vous savez quoi, vous êtes vraiment supers, parce que vous n'avez aucune idée de ce qu'est un connectome
01:57
and you're willingprêt to playjouer alongle long de with me.
35
102000
2000
mais vous jouez quand même le jeu avec moi.
01:59
I could just go home now.
36
104000
3000
Je n'ai plus qu'à rentrer chez moi maintenant.
02:02
Well, so farloin only one connectomeconnectome is knownconnu,
37
107000
3000
En fait, pour le moment on ne connaît qu'un seul connectome,
02:05
that of this tinyminuscule wormver.
38
110000
3000
celui de ce minuscule vers.
02:08
Its modestmodeste nervousnerveux systemsystème
39
113000
2000
Son système nerveux très modeste
02:10
consistsconsiste of just 300 neuronsneurones.
40
115000
2000
ne contient que 300 neurones.
02:12
And in the 1970s and '80s,
41
117000
2000
Et dans les années 1970 et 80,
02:14
a teaméquipe of scientistsscientifiques
42
119000
2000
une équipe de scientifiques
02:16
mappedmappé all 7,000 connectionsles liaisons
43
121000
2000
a cartographié les 7000 connexions
02:18
betweenentre the neuronsneurones.
44
123000
2000
entre chaque neurone.
02:21
In this diagramdiagramme, everychaque nodenœud is a neuronneurone,
45
126000
2000
Dans ce schéma, chaque noeud est un neurone,
02:23
and everychaque lineligne is a connectionconnexion.
46
128000
2000
et chaque ligne une connexion.
02:25
This is the connectomeconnectome
47
130000
2000
Voici le connectome
02:27
of the wormver C. eleganselegans.
48
132000
4000
du vers C. elegans.
02:31
Your connectomeconnectome is farloin more complexcomplexe than this
49
136000
3000
Votre connectome est bien plus complexe que cela,
02:34
because your braincerveau
50
139000
2000
car votre cerveau
02:36
containscontient 100 billionmilliard neuronsneurones
51
141000
2000
contient 100 milliards de neurones
02:38
and 10,000 timesfois as manybeaucoup connectionsles liaisons.
52
143000
3000
et 10 000 fois autant de connexions.
02:41
There's a diagramdiagramme like this for your braincerveau,
53
146000
2000
Il y a un schéma comme celui-ci pour votre cerveau
02:43
but there's no way it would fiten forme on this slidefaire glisser.
54
148000
3000
mais il n'y a aucune chance qu'il rentre sur cette diapo.
02:47
Your connectomeconnectome containscontient one millionmillion timesfois more connectionsles liaisons
55
152000
3000
Votre connectome contient un million de fois plus de connexions
02:50
than your genomegénome has lettersdes lettres.
56
155000
3000
que ce que votre génome a de lettres.
02:53
That's a lot of informationinformation.
57
158000
2000
Ca fait beaucoup d'informations.
02:55
What's in that informationinformation?
58
160000
3000
Qu'y a-t-il dans cette information?
02:59
We don't know for sure, but there are theoriesthéories.
59
164000
3000
Nous n'en sommes pas sûrs, mais nous avons des théories.
03:02
SinceDepuis the 19thth centurysiècle, neuroscientistsneuroscientifiques have speculatedl’hypothèse
60
167000
3000
Depuis le 19ème siècle, les neuro-scientifiques imaginent
03:05
that maybe your memoriessouvenirs --
61
170000
2000
que peut-être vos souvenirs --
03:07
the informationinformation that makesfait du you, you --
62
172000
2000
cette information qui fait que vous êtes qui vous êtes --
03:09
maybe your memoriessouvenirs are storedstockés
63
174000
2000
peut-être que vos souvenirs sont stockés
03:11
in the connectionsles liaisons betweenentre your brain'scerveaux neuronsneurones.
64
176000
2000
dans les connexions entre les neurones de votre cerveau.
03:15
And perhapspeut être other aspectsaspects of your personalpersonnel identityidentité --
65
180000
2000
Et peut-être que d'autres aspects de votre identité --
03:17
maybe your personalitypersonnalité and your intellectintellect --
66
182000
3000
peut-être votre personnalité et votre intelligence --
03:20
maybe they're alsoaussi encodedcodé
67
185000
2000
peut-être sont-ils aussi encodés
03:22
in the connectionsles liaisons betweenentre your neuronsneurones.
68
187000
3000
dans les connexions entre les neurones.
03:26
And so now you can see why I proposedproposé this hypothesishypothèse:
69
191000
3000
Maintenant vous comprenez pourquoi j'ai proposé cette hypothèse :
03:29
I am my connectomeconnectome.
70
194000
3000
je suis mon connectome.
03:32
I didn't askdemander you to chantchant it because it's truevrai;
71
197000
3000
Je ne vous ai pas demandé de le scander parce que c'est vrai,
03:35
I just want you to rememberrappelles toi it.
72
200000
2000
je veux juste que vous vous en rappeliez.
03:37
And in factfait, we don't know if this hypothesishypothèse is correctcorrect,
73
202000
2000
En fait, nous ne savons pas si cette hypothèse est correcte,
03:39
because we have never had technologiesles technologies
74
204000
2000
parce que nous n'avons pas encore de technologie
03:41
powerfulpuissant enoughassez to testtester it.
75
206000
2000
assez puissante pour la mettre à l'épreuve.
03:44
FindingConclusion that wormver connectomeconnectome
76
209000
3000
Trouver le connectome de ce vers
03:47
tooka pris over a dozendouzaine yearsannées of tediousfastidieux laborla main d'oeuvre.
77
212000
3000
équivaut à plus d'une douzaine d'années de travail acharné.
03:50
And to find the connectomesconnectomes of brainscerveaux more like our ownposséder,
78
215000
3000
Et pour trouver les connectomes de cerveaux qui s'approchent davantage des nôtres,
03:53
we need more sophisticatedsophistiqué technologiesles technologies, that are automatedautomatique,
79
218000
3000
nous avons besoin de technologies plus sophistiquées, automatisées,
03:56
that will speedla vitesse up the processprocessus of findingdécouverte connectomesconnectomes.
80
221000
3000
qui augmenteront la vitesse du processus qui permet de trouver des connectomes.
03:59
And in the nextprochain fewpeu minutesminutes, I'll tell you about some of these technologiesles technologies,
81
224000
3000
Et, dans les minutes à venir, je vais vous parler un peu de ces technologies
04:02
whichlequel are currentlyactuellement underen dessous de developmentdéveloppement
82
227000
2000
qui sont actuellement en cours de développement
04:04
in my lablaboratoire and the labslaboratoires of my collaboratorscollaborateurs.
83
229000
3000
dans mon labo et dans les labos de mes collaborateurs.
04:08
Now you've probablyProbablement seenvu picturesdes photos of neuronsneurones before.
84
233000
3000
Bon, vous avez probablement déjà vu des images de neurones par le passé.
04:11
You can recognizereconnaître them instantlyimmédiatement
85
236000
2000
Vous les reconnaissez instantanément
04:13
by theirleur fantasticfantastique shapesformes.
86
238000
3000
à leur forme fantastique.
04:16
They extendétendre long and delicatedélicat branchesbranches,
87
241000
3000
Ils déploient de longues et délicates branches
04:19
and in shortcourt, they look like treesdes arbres.
88
244000
3000
et, pour faire court, ils ressemblent à des arbres.
04:22
But this is just a singleunique neuronneurone.
89
247000
3000
Mais il ne s'agit là que d'un seul neurone.
04:25
In ordercommande to find connectomesconnectomes,
90
250000
2000
Pour trouver les connectomes,
04:27
we have to see all the neuronsneurones at the sameMême time.
91
252000
3000
nous devons regarder tous les neurones en même temps.
04:30
So let's meetrencontrer BobbyBobby KasthuriValeska,
92
255000
2000
Laissez-moi vous présenter Bobby Kasthuri
04:32
who workstravaux in the laboratorylaboratoire of JeffJeff LichtmanLichtman
93
257000
2000
qui travaille dans le laboratoire de Jeff Lichtman
04:34
at HarvardHarvard UniversityUniversité.
94
259000
2000
à Harvard.
04:36
BobbyBobby is holdingen portant fantasticallyfantastiquement thinmince slicestranches de
95
261000
2000
Bobby s'occupe des tranches extrêmement fines
04:38
of a mouseSouris braincerveau.
96
263000
2000
du cerveau d'une souris.
04:40
And we're zoomingZoom in by a factorfacteur of 100,000 timesfois
97
265000
3000
Nous agrandissons l'image 100 000 fois
04:44
to obtainobtenir the resolutionrésolution,
98
269000
2000
pour obtenir la résolution
04:46
so that we can see the branchesbranches of neuronsneurones all at the sameMême time.
99
271000
3000
qui nous permet de voir toutes les branches du neurone en une seule fois.
04:50
ExceptSauf, you still maymai not really recognizereconnaître them,
100
275000
3000
Sauf qu'il est possible que vous ne puissiez toujours pas les reconnaître
04:53
and that's because we have to work in threeTrois dimensionsdimensions.
101
278000
3000
et c'est parce qu'il est nécessaire de travailler en trois dimensions.
04:56
If we take manybeaucoup imagesimages of manybeaucoup slicestranches de of the braincerveau
102
281000
2000
Si on prend plusieurs images de plusieurs tranches du cerveau
04:58
and stackempiler them up,
103
283000
2000
et si on les empile,
05:00
we get a three-dimensionaltridimensionnel imageimage.
104
285000
2000
on obtient une image tri-dimensionnelle.
05:02
And still, you maymai not see the branchesbranches.
105
287000
2000
Et pourtant, il est possible que vous ne voyiez toujours pas les branches.
05:04
So we startdébut at the topHaut,
106
289000
2000
Donc on commence par en haut,
05:06
and we colorCouleur in the cross-sectioncoupe transversale of one branchbranche in redrouge,
107
291000
3000
et on colore en rouge la coupe transversale d'une branche.
05:09
and we do that for the nextprochain slicetranche
108
294000
2000
On fait pareil pour la tranche d'après,
05:11
and for the nextprochain slicetranche.
109
296000
2000
et celle d'après.
05:13
And we keep on doing that,
110
298000
2000
Et on continue de faire ça,
05:15
slicetranche after slicetranche.
111
300000
3000
tranche après tranche.
05:18
If we continuecontinuer throughpar the entiretout stackempiler,
112
303000
2000
Si on continue comme ça pour toute la pile,
05:20
we can reconstructreconstruire the three-dimensionaltridimensionnel shapeforme
113
305000
3000
on peut reconstruire la forme en trois dimensions
05:23
of a smallpetit fragmentfragment of a branchbranche of a neuronneurone.
114
308000
3000
d'un petit fragment de la branche d'un neurone.
05:26
And we can do that for anotherun autre neuronneurone in greenvert.
115
311000
2000
On peut faire la même chose pour un autre neurone en vert.
05:28
And you can see that the greenvert neuronneurone touchestouche the redrouge neuronneurone
116
313000
2000
Vous pouvez voir que le neurone vert touche le neurone rouge
05:30
at two locationsEmplacements,
117
315000
2000
à deux endroits,
05:32
and these are what are calledappelé synapsessynapses.
118
317000
2000
et c'est là ce qu'on appelle les synapses.
05:34
Let's zoomZoom in on one synapseSynapse,
119
319000
2000
Agrandissons une synapse.
05:36
and keep your eyesles yeux on the interiorintérieur of the greenvert neuronneurone.
120
321000
3000
Et fixez attentivement l'intérieur du neurone vert.
05:39
You should see smallpetit circlescercles --
121
324000
2000
Vous devriez voir des petits cercles.
05:41
these are calledappelé vesiclesvésicules.
122
326000
3000
C'est ce qu'on appelle les vésicules.
05:44
They containcontenir a moleculemolécule know as a neurotransmitterneurotransmetteur.
123
329000
3000
Elles contiennent une molécule qu'on appelle un neurotransmetteur.
05:47
And so when the greenvert neuronneurone wants to communicatecommuniquer,
124
332000
2000
Ainsi quand le neurone vert veut communiquer,
05:49
it wants to sendenvoyer a messagemessage to the redrouge neuronneurone,
125
334000
2000
qu'il veut envoyer un message au neurone rouge,
05:51
it spitscrache out neurotransmitterneurotransmetteur.
126
336000
3000
il lâche des neurotransmetteurs.
05:54
At the synapseSynapse, the two neuronsneurones
127
339000
2000
Au niveau de la synapse, les deux neurones
05:56
are said to be connectedconnecté
128
341000
2000
sont connectés
05:58
like two friendscopains talkingparlant on the telephoneTéléphone.
129
343000
3000
comme deux amis qui parleraient au téléphone.
06:02
So you see how to find a synapseSynapse.
130
347000
2000
Vous voyez donc comment trouver une synapse.
06:04
How can we find an entiretout connectomeconnectome?
131
349000
3000
Comment fait-on pour trouver un connectome entier?
06:07
Well, we take this three-dimensionaltridimensionnel stackempiler of imagesimages
132
352000
3000
Eh bien on prend cette pile d'images en trois dimensions
06:10
and treattraiter it as a giganticgigantesque three-dimensionaltridimensionnel coloringColoriage booklivre.
133
355000
3000
et on la traite comme un livre de coloriage tridimensionnel géant.
06:13
We colorCouleur everychaque neuronneurone in, in a differentdifférent colorCouleur,
134
358000
3000
On colorie chaque neurone avec une couleur différente
06:16
and then we look throughpar all of the imagesimages,
135
361000
2000
et puis on regarde à travers toutes ces images,
06:18
find the synapsessynapses
136
363000
2000
on trouve les synapses
06:20
and noteRemarque the colorscouleurs of the two neuronsneurones involvedimpliqué in eachchaque synapseSynapse.
137
365000
3000
et on note les couleurs des deux neurones impliqués dans chaque synapse.
06:23
If we can do that throughouttout au long de all the imagesimages,
138
368000
3000
Si on peut faire ça pour toutes les images,
06:26
we could find a connectomeconnectome.
139
371000
2000
on doit pouvoir trouver un connectome.
06:29
Now, at this pointpoint,
140
374000
2000
Bien, arrivés à ce point,
06:31
you've learnedappris the basicsnotions de base of neuronsneurones and synapsessynapses.
141
376000
2000
vous avez appris ce qu'il y a d'élémentaire à savoir sur les neurones et les synapses.
06:33
And so I think we're readyprêt to tackletacle
142
378000
2000
Je pense donc que nous sommes prêts à aborder
06:35
one of the mostles plus importantimportant questionsdes questions in neuroscienceneuroscience:
143
380000
3000
l'une des questions les plus importantes de la neuroscience :
06:39
how are the brainscerveaux of menHommes and womenfemmes differentdifférent?
144
384000
3000
en quoi les cerveau des hommes et des femmes sont-ils différents?
06:42
(LaughterRires)
145
387000
2000
(Rires)
06:44
AccordingSelon to this self-helpSelf-Help booklivre,
146
389000
2000
Si on en croit ce livre de développement personnel,
06:46
guys brainscerveaux are like wafflesgaufres;
147
391000
2000
les cerveaux des hommes sont comme des gaufres;
06:48
they keep theirleur livesvies compartmentalizedcompartimenté in boxesdes boites.
148
393000
3000
leur vie est comme compartimentée dans des boîtes.
06:51
Girls'Des filles brainscerveaux are like spaghettispaghetti;
149
396000
3000
Le cerveau des filles ressemble aux spaghettis;
06:54
everything in theirleur life is connectedconnecté to everything elseautre.
150
399000
3000
tout dans leur vie est connecté à quelque chose d'autre.
06:57
(LaughterRires)
151
402000
2000
(Rires)
06:59
You guys are laughingen riant,
152
404000
2000
Vous riez
07:01
but you know, this booklivre changedmodifié my life.
153
406000
2000
mais, vous savez, ce livre a changé ma vie.
07:03
(LaughterRires)
154
408000
2000
(Rires)
07:07
But seriouslysérieusement, what's wrongfaux with this?
155
412000
3000
Non mais sérieusement, qu'est-ce qui cloche ici?
07:10
You alreadydéjà know enoughassez to tell me -- what's wrongfaux with this statementdéclaration?
156
415000
3000
Vous en savez déjà assez pour me le dire. Pourquoi cette idée est-elle fausse?
07:20
It doesn't mattermatière whetherqu'il s'agisse you're a guy or girlfille,
157
425000
3000
Peu importe que vous soyez un garçon ou une fille,
07:23
everyone'stout le monde brainscerveaux are like spaghettispaghetti.
158
428000
3000
tous les cerveaux sont comme des spaghettis.
07:26
Or maybe really, really fine capelliniCapellini with branchesbranches.
159
431000
3000
Ou alors des capellini vraiment très fins, avec des branches.
07:30
Just as one strandStrand of spaghettispaghetti
160
435000
2000
Exactement de la même façon qu'un brin de spaghetti
07:32
contactsContacts manybeaucoup other strandsbrins on your plateassiette,
161
437000
3000
est en contact avec plein d'autres brins dans votre assiette,
07:35
one neuronneurone touchestouche manybeaucoup other neuronsneurones
162
440000
2000
un neurone touche plein d'autres neurones
07:37
throughpar theirleur entangledenchevêtrer branchesbranches.
163
442000
2000
grâce à leurs branches, emmêlées les unes aux autres.
07:39
One neuronneurone can be connectedconnecté to so manybeaucoup other neuronsneurones,
164
444000
3000
Un neurone peut être connecté à beaucoup d'autres neurones
07:42
because there can be synapsessynapses
165
447000
2000
parce que des synapses peuvent apparaître
07:44
at these pointspoints of contactcontact.
166
449000
3000
à ces points de contact.
07:49
By now, you mightpourrait have sortTrier of lostperdu perspectivela perspective
167
454000
3000
Il se peut que vous n'ayez plus trop conscience à ce stade
07:52
on how largegrand this cubecube of braincerveau tissuetissu actuallyréellement is.
168
457000
3000
de la taille de ce cube de tissu cérébral.
07:55
And so let's do a seriesséries of comparisonsdes comparaisons to showmontrer you.
169
460000
3000
Je vous propose donc de faire une série de comparaisons pour vous montrer.
07:58
I assureassurer you, this is very tinyminuscule. It's just sixsix micronsmicrons on a sidecôté.
170
463000
3000
Je vais vous montrer. Ca, c'est vraiment minuscule. Seulement six microns sur un côté.
08:03
So, here'svoici how it stackspiles up againstcontre an entiretout neuronneurone.
171
468000
3000
Là vous voyez comment ça s'empile dans un neurone entier.
08:06
And you can tell that, really, only the smallestplus petit fragmentsfragments of branchesbranches
172
471000
3000
Et vous pouvez voir que, vraiment, seuls les plus petits fragments des branches
08:09
are containedcontenu insideà l'intérieur this cubecube.
173
474000
3000
sont contenus dans ce cube.
08:12
And a neuronneurone, well, that's smallerplus petit than braincerveau.
174
477000
3000
Et un neurone, eh bien c'est plus petit qu'un cerveau.
08:17
And that's just a mouseSouris braincerveau --
175
482000
2000
Et il ne s'agit là que du cerveau d'une souris.
08:21
it's a lot smallerplus petit than a humanHumain braincerveau.
176
486000
3000
C'est bien plus petit qu'un cerveau humain.
08:25
So when showmontrer my friendscopains this,
177
490000
2000
Du coup quand j'ai montré ça à mes amis
08:27
sometimesparfois they'veils ont told me,
178
492000
2000
ils m'ont parfois dit
08:29
"You know, SebastianSebastian, you should just give up.
179
494000
3000
"Tu sais, Sebastian, tu devrais simplement abandonner.
08:32
NeuroscienceNeuroscience is hopelessdésespéré."
180
497000
2000
Il n'y a pas d'espoir en neuroscience."
08:34
Because if you look at a braincerveau with your nakednu eyeœil,
181
499000
2000
Parce que si vous observez votre cerveau à l'oeil nu,
08:36
you don't really see how complexcomplexe it is,
182
501000
2000
vous ne vous rendez pas vraiment compte à quel point c'est complexe,
08:38
but when you use a microscopemicroscope,
183
503000
2000
mais quand vous utilisez un microscope,
08:40
finallyenfin the hiddencaché complexitycomplexité is revealeda révélé.
184
505000
3000
cette complexité qui se cachait est révélée."
08:45
In the 17thth centurysiècle,
185
510000
2000
Au 17ème siècle,
08:47
the mathematicianmathématicien and philosopherphilosophe, BlaiseBlaise PascalPascal,
186
512000
2000
Blaise Pascal, mathématicien et philosophe,
08:49
wrotea écrit of his dreadcrainte of the infiniteinfini,
187
514000
3000
a écrit sur sa peur de l'infini,
08:52
his feelingsentiment of insignificanceinsignifiance
188
517000
2000
son sentiment de vanité
08:54
at contemplatingcontemplant the vastvaste reachesatteint of outerextérieur spaceespace.
189
519000
3000
quand il contemple "le silence éternel de ces espaces infinis".
08:59
And, as a scientistscientifique,
190
524000
2000
En tant que scientifique,
09:01
I'm not supposedsupposé to talk about my feelingssentiments --
191
526000
3000
je ne suis pas supposé parler de mes sentiments.
09:04
too much informationinformation, professorprofesseur.
192
529000
2000
Trop d'informations, professeur.
09:06
(LaughterRires)
193
531000
2000
(Rires)
09:08
But maymai I?
194
533000
2000
Mais pourquoi pas?
09:10
(LaughterRires)
195
535000
2000
(Rires)
09:12
(ApplauseApplaudissements)
196
537000
2000
(Applaudissements)
09:14
I feel curiositycuriosité,
197
539000
2000
Je ressens une vraie curiosité,
09:16
and I feel wondermerveille,
198
541000
2000
et une vraie envie de comprendre
09:18
but at timesfois I have alsoaussi feltse sentait despairdésespoir.
199
543000
3000
mais parfois je ressens aussi du désespoir.
09:22
Why did I choosechoisir to studyétude
200
547000
2000
Pourquoi ai-je choisi d'étudier
09:24
this organorgane that is so awesomeimpressionnant in its complexitycomplexité
201
549000
3000
cet organe, si formidable dans sa complexité,
09:27
that it mightpourrait well be infiniteinfini?
202
552000
2000
qu'il pourrait bien être infini?
09:29
It's absurdabsurde.
203
554000
2000
C'est absurde.
09:31
How could we even dareoser to think
204
556000
2000
Comment pourrions-nous même oser penser
09:33
that we mightpourrait ever understandcomprendre this?
205
558000
3000
que nous arriverons un jour à comprendre cela?
09:38
And yetencore, I persistpersistent in this quixoticDon Quichotte endeavorEndeavor.
206
563000
3000
Et pourtant, je m'obstine à lutter contre des moulins à vent.
09:41
And indeedeffectivement, these daysjournées I harborport newNouveau hopesespère.
207
566000
3000
Et de fait, j'entretiens depuis peu de nouveaux espoirs.
09:45
SomedayUn jour,
208
570000
2000
Un jour,
09:47
a fleetflotte of microscopesmicroscopes will captureCapturer
209
572000
2000
un équipement de microscopes capturera
09:49
everychaque neuronneurone and everychaque synapseSynapse
210
574000
2000
chaque neurone et chaque synapse
09:51
in a vastvaste databasebase de données of imagesimages.
211
576000
3000
et le stockera dans une énorme base de données d'images.
09:54
And some day, artificiallyartificiellement intelligentintelligent supercomputerssuper-ordinateurs
212
579000
3000
Et un jour, des super ordinateurs à intelligence artificielle
09:57
will analyzeanalyser the imagesimages withoutsans pour autant humanHumain assistanceassistance
213
582000
3000
analyseront les images sans l'aide des humains
10:00
to summarizerésumer them in a connectomeconnectome.
214
585000
3000
pour les synthétiser en un connectome.
10:04
I do not know, but I hopeespérer that I will livevivre to see that day,
215
589000
3000
Je ne sais pas si cela sera possible, mais j'espère que je vivrai assez longtemps pour voir ce jour.
10:08
because findingdécouverte an entiretout humanHumain connectomeconnectome
216
593000
2000
Parce que trouver un connectome humain en eniter
10:10
is one of the greatestplus grand technologicaltechnologique challengesdéfis of all time.
217
595000
3000
est l'un des plus grands défis technologiques de tous les temps.
10:13
It will take the work of generationsgénérations to succeedréussir.
218
598000
3000
Cela demandera le travail de plusieurs générations pour y arriver.
10:17
At the presentprésent time, my collaboratorscollaborateurs and I,
219
602000
3000
Actuellement, mes collaborateurs et moi-même,
10:20
what we're aimingvisant for is much more modestmodeste --
220
605000
2000
visons quelque chose de bien plus modeste --
10:22
just to find partialpartiel connectomesconnectomes
221
607000
2000
seulement trouver des connectomes partiels
10:24
of tinyminuscule chunksmorceaux of mouseSouris and humanHumain braincerveau.
222
609000
3000
de petits morceaux de cerveaux de souris et d'humains.
10:27
But even that will be enoughassez for the first teststests of this hypothesishypothèse
223
612000
3000
Mais même cela suffirait pour les premières mises à l'épreuve de l'hypothèse
10:30
that I am my connectomeconnectome.
224
615000
3000
qui affirme que je suis mon connectome.
10:35
For now, let me try to convinceconvaincre you of the plausibilityplausibilité of this hypothesishypothèse,
225
620000
3000
Pour le moment, laissez-moi vous convaincre de la plausibilité de cette hypothèse,
10:38
that it's actuallyréellement worthvaut takingprise seriouslysérieusement.
226
623000
3000
et qu'elle vaut vraiment la peine qu'on la prenne au sérieux.
10:42
As you growcroître duringpendant childhoodenfance
227
627000
2000
Pendant que vous grandissez dans votre enfance
10:44
and ageâge duringpendant adulthoodâge adulte,
228
629000
3000
et que vous murissez à l'âge adulte,
10:47
your personalpersonnel identityidentité changeschangements slowlylentement.
229
632000
3000
votre identité change doucement.
10:50
LikewiseDe même, everychaque connectomeconnectome
230
635000
2000
De même, chaque connectome
10:52
changeschangements over time.
231
637000
2000
change à travers le temps.
10:55
What kindssortes of changeschangements happense produire?
232
640000
2000
De quelle sorte de changements s'agit-il?
10:57
Well, neuronsneurones, like treesdes arbres,
233
642000
2000
Eh bien, les neurones, comme les arbres,
10:59
can growcroître newNouveau branchesbranches,
234
644000
2000
peuvent avoir de nouvelles branches qui poussent
11:01
and they can loseperdre oldvieux onesceux.
235
646000
3000
et en perdre des anciennes.
11:04
SynapsesSynapses can be createdcréé,
236
649000
3000
Des synapses peuvent être créées
11:07
and they can be eliminatedéliminé.
237
652000
3000
puis éliminées.
11:10
And synapsessynapses can growcroître largerplus grand,
238
655000
2000
Et les synapses peuvent s'agrandirent
11:12
and they can growcroître smallerplus petit.
239
657000
3000
et rapetisser.
11:15
SecondSeconde questionquestion:
240
660000
2000
Deuxième question :
11:17
what causescauses these changeschangements?
241
662000
3000
qu'est-ce qui cause ces changements?
11:20
Well, it's truevrai.
242
665000
2000
Eh bien, c'est vrai.
11:22
To some extentampleur, they are programmedprogrammé by your genesgènes.
243
667000
3000
D'une certaine manière, ils sont programmés par vos gènes.
11:25
But that's not the wholeentier storyrécit,
244
670000
2000
Mais l'histoire ne s'arrête pas là,
11:27
because there are signalssignaux, electricalélectrique signalssignaux,
245
672000
2000
parce que ce sont des signaux, des signaux électriques
11:29
that travelVoyage alongle long de the branchesbranches of neuronsneurones
246
674000
2000
qui voyagent le long des branches de neurones
11:31
and chemicalchimique signalssignaux
247
676000
2000
et des signaux chimiques
11:33
that jumpsaut acrossà travers from branchbranche to branchbranche.
248
678000
2000
qui sautent d'une branche à une autre.
11:35
These signalssignaux are calledappelé neuralneural activityactivité.
249
680000
3000
On appelle ces signaux l'activité cérébrale.
11:38
And there's a lot of evidencepreuve
250
683000
2000
Il y a beaucoup à parier
11:40
that neuralneural activityactivité
251
685000
3000
que l'activité cérébrale
11:43
is encodingencodage our thoughtspensées, feelingssentiments and perceptionsperceptions,
252
688000
3000
encode nos pensées, sentiments et perceptions,
11:46
our mentalmental experiencesexpériences.
253
691000
2000
nos expériences mentales.
11:48
And there's a lot of evidencepreuve that neuralneural activityactivité
254
693000
3000
Et il y a beaucoup à parier que l'activité cérébrale
11:51
can causecause your connectionsles liaisons to changechangement.
255
696000
3000
puisse amener vos connexions à changer.
11:54
And if you put those two factsfaits togetherensemble,
256
699000
3000
Et si vous on rassemble ces deux faits
11:57
it meansveux dire that your experiencesexpériences
257
702000
2000
on comprends que vos expériences
11:59
can changechangement your connectomeconnectome.
258
704000
3000
peuvent changer votre connectome.
12:02
And that's why everychaque connectomeconnectome is uniqueunique,
259
707000
2000
C'est pour cela que chaque connectome est unique,
12:04
even those of geneticallygénétiquement identicalidentique twinsjumeaux.
260
709000
3000
même ceux de jumeaux identiques génétiquement.
12:08
The connectomeconnectome is where naturela nature meetsrencontre nurturenourrir.
261
713000
3000
Le connectome est ce lieu où l'acquis rencontre l'inné.
12:12
And it mightpourrait truevrai
262
717000
2000
Et il peut être vrai
12:14
that just the meresimple actacte of thinkingen pensant
263
719000
2000
que le simple fait de penser
12:16
can changechangement your connectomeconnectome --
264
721000
2000
change votre connectome --
12:18
an ideaidée that you maymai find empoweringautonomiser.
265
723000
3000
une idée que vous trouverez sans doute stimulante.
12:24
What's in this picturephoto?
266
729000
2000
Qu'y a-t-il dans cette image?
12:28
A coolcool and refreshingrafraîchissant streamcourant of watereau, you say.
267
733000
3000
D'après vous, un courant d'eau froid et revigorant.
12:32
What elseautre is in this picturephoto?
268
737000
2000
Qu'y a-t-il d'autre dans cette image?
12:37
Do not forgetoublier that grooverainure in the EarthTerre
269
742000
2000
N'oubliez pas ce sillon dans la terre
12:39
calledappelé the streamcourant bedlit.
270
744000
3000
qu'on appelle le lit de la rivière.
12:42
WithoutSans it, the watereau would not know in whichlequel directiondirection to flowcouler.
271
747000
3000
Sans lui, l'eau ne saurait pas dans quelle direction s'écouler.
12:45
And with the streamcourant,
272
750000
2000
Et avec l'idée de courant,
12:47
I would like to proposeproposer a metaphormétaphore
273
752000
2000
j'aimerais proposer une métaphore
12:49
for the relationshiprelation betweenentre neuralneural activityactivité
274
754000
2000
pour désigner la relation entre l'activité neuronale
12:51
and connectivityconnectivité.
275
756000
2000
et la connectivité.
12:54
NeuralNeural activityactivité is constantlyconstamment changingen changeant.
276
759000
3000
L'activité neuronale change constamment.
12:57
It's like the watereau of the streamcourant; it never sitsassis still.
277
762000
3000
C'est comme l'eau d'un courant; il ne reste jamais en place.
13:00
The connectionsles liaisons
278
765000
2000
Les connexions
13:02
of the brain'scerveaux neuralneural networkréseau
279
767000
2000
du réseau neuronal du cerveau
13:04
determinesdétermine the pathwaysvoies
280
769000
2000
déterminent les chemins
13:06
alongle long de whichlequel neuralneural activityactivité flowsles flux.
281
771000
2000
que vont emprunter les flux d'activité cérébrale.
13:08
And so the connectomeconnectome is like bedlit of the streamcourant;
282
773000
3000
Et donc le connectome est comme le lit de la rivière.
13:13
but the metaphormétaphore is richerplus riche than that,
283
778000
3000
Mais la métaphore est plus riche que cela.
13:16
because it's truevrai that the streamcourant bedlit
284
781000
3000
Parce que s'il est vrai que le lit de la rivière
13:19
guidesguides the flowcouler of the watereau,
285
784000
2000
guide les flots de l'eau,
13:21
but over long timescaleséchelles de temps,
286
786000
2000
il faut dire aussi que sur un long terme
13:23
the watereau alsoaussi reshapesremodèle the bedlit of the streamcourant.
287
788000
3000
l'eau à son tour remodèle le lit de la rivière.
13:26
And as I told you just now,
288
791000
2000
Et comme je vous le disais justement,
13:28
neuralneural activityactivité can changechangement the connectomeconnectome.
289
793000
3000
l'activité neuronal peut changer le connectome.
13:33
And if you'lltu vas allowpermettre me to ascendAscend
290
798000
2000
Et si vous m'autorisez à gravir
13:35
to metaphoricalmétaphorique heightshauteurs,
291
800000
3000
les hautes cimes de la métaphore,
13:38
I will remindrappeler you that neuralneural activityactivité
292
803000
3000
je vous rappellerais que l'activité neuronale
13:41
is the physicalphysique basisbase -- or so neuroscientistsneuroscientifiques think --
293
806000
2000
est le fondement physique -- du moins c'est ce que pensent les neuroscientifiques --
13:43
of thoughtspensées, feelingssentiments and perceptionsperceptions.
294
808000
3000
des pensées, des sentiments et des perceptions.
13:46
And so we mightpourrait even speakparler of
295
811000
2000
Nous pouvons donc même parler
13:48
the streamcourant of consciousnessconscience.
296
813000
2000
d'un flux de conscience (stream of consciousness).
13:50
NeuralNeural activityactivité is its watereau,
297
815000
3000
L'activité neuronale est son cours d'eau,
13:53
and the connectomeconnectome is its bedlit.
298
818000
3000
et le connectome son lit.
13:57
So let's returnrevenir from the heightshauteurs of metaphormétaphore
299
822000
2000
Quittons donc ces hauts sommets de la métaphore
13:59
and returnrevenir to sciencescience.
300
824000
2000
et retournons à la science.
14:01
SupposeSupposons que our technologiesles technologies for findingdécouverte connectomesconnectomes
301
826000
2000
Supposez que les technologies qui nous permettent de trouver des connectomes
14:03
actuallyréellement work.
302
828000
2000
marchent vraiment.
14:05
How will we go about testingessai the hypothesishypothèse
303
830000
2000
Comment nous y prendrons-nous pour mettre à l'épreuve l'hypothèse selon laquelle
14:07
"I am my connectomeconnectome?"
304
832000
3000
"Je suis mon connectome"?
14:10
Well, I proposeproposer a directdirect testtester.
305
835000
3000
Eh bien je vous propose un test en direct.
14:13
Let us attempttentative
306
838000
2000
Essayons
14:15
to readlis out memoriessouvenirs from connectomesconnectomes.
307
840000
3000
de déchiffrer des souvenirs depuis des connectomes.
14:18
ConsiderEnvisager de the memoryMémoire
308
843000
2000
Examinez le souvenir
14:20
of long temporaltemporel sequencesséquences of movementsmouvements,
309
845000
3000
de longues séquences temporelles de mouvements
14:23
like a pianistpianiste playingen jouant a BeethovenBeethoven sonataSonate.
310
848000
3000
comme un pianiste jouant une sonate de Beethoven.
14:26
AccordingSelon to a theorythéorie that datesdates back to the 19thth centurysiècle,
311
851000
3000
Selon une théorie qui remonte au 19°siècle,
14:29
suchtel memoriessouvenirs are storedstockés
312
854000
2000
des souvenirs comme cela sont stockés
14:31
as chainsChaînes of synapticsynaptique connectionsles liaisons insideà l'intérieur your braincerveau.
313
856000
3000
dans nos cerveaux sous formes de connexions synaptiques.
14:35
Because, if the first neuronsneurones in the chainchaîne are activatedactivé,
314
860000
3000
Parce que, si les premiers neurones dans la chaîne sont activés,
14:38
throughpar theirleur synapsessynapses they sendenvoyer messagesmessages to the secondseconde neuronsneurones, whichlequel are activatedactivé,
315
863000
3000
ils envoient des messages par leurs synapses aux seconds neurones, qui sont activés,
14:41
and so on down the lineligne,
316
866000
2000
et cela se poursuit ainsi sur toute la ligne,
14:43
like a chainchaîne of fallingchute dominoesdominos.
317
868000
2000
un peu comme une chaîne de dominos qui s'écroulerait.
14:45
And this sequenceséquence of neuralneural activationactivation
318
870000
2000
Et cette séquence d'activation neuronale
14:47
is hypothesizedl’hypothèse to be the neuralneural basisbase
319
872000
3000
est envisagée hypothétiquement comme étant la base neuronale
14:50
of those sequenceséquence of movementsmouvements.
320
875000
2000
de ces séquences de mouvements.
14:52
So one way of tryingen essayant to testtester the theorythéorie
321
877000
2000
Aussi un des moyens d'essayer de tester cette théorie
14:54
is to look for suchtel chainsChaînes
322
879000
2000
consiste à chercher ce genre de chaînes
14:56
insideà l'intérieur connectomesconnectomes.
323
881000
2000
à l'intérieur des connectomes.
14:58
But it won'thabitude be easyfacile, because they're not going to look like this.
324
883000
3000
Mais ce ne sera pas facile, parce qu'elles ne ressembleront pas à ça.
15:01
They're going to be scrambledbrouillés up.
325
886000
2000
Elles seront toutes emmêlées.
15:03
So we'llbien have to use our computersdes ordinateurs
326
888000
2000
On va donc devoir utiliser nos ordinateurs
15:05
to try to unscrambledéchiffrer the chainchaîne.
327
890000
3000
pour essayer de démêler les chaînes.
15:08
And if we can do that,
328
893000
2000
Et si on arrive à faire ça,
15:10
the sequenceséquence of the neuronsneurones we recoverrécupérer from that unscramblingdésembrouillage
329
895000
3000
la séquence de neurones que nous récupèrerons
15:13
will be a predictionprédiction of the patternmodèle of neuralneural activityactivité
330
898000
3000
sera une prédiction du modèle de l'activité neuronale
15:16
that is replayedrelus in the braincerveau duringpendant memoryMémoire recallrappel.
331
901000
3000
qui est rejouée dans le cerveau lors de la recollection des souvenirs.
15:19
And if that were successfulréussi,
332
904000
2000
Et si cela s'avérait être une réussite,
15:21
that would be the first exampleExemple of readingen train de lire a memoryMémoire from a connectomeconnectome.
333
906000
3000
cela serait le premier exemple d'une lecture de souvenirs à partir d'un connectome.
15:28
(LaughterRires)
334
913000
2000
(Rires)
15:30
What a messdésordre --
335
915000
2000
Quel bazard.
15:33
have you ever trieda essayé to wirecâble up a systemsystème
336
918000
2000
Avez-vous déjà essayé de faire les branchements d'un système
15:35
as complexcomplexe as this?
337
920000
2000
aussi complexe que celui-ci?
15:37
I hopeespérer not.
338
922000
2000
J'espère que non.
15:39
But if you have, you know it's very easyfacile to make a mistakeerreur.
339
924000
3000
Mais si jamais c'est le cas, vous savez comme il peut être facile de faire une erreur.
15:45
The branchesbranches of neuronsneurones are like the wiresfils of the braincerveau.
340
930000
2000
Les branchements des neurones sont comme les fils électriques du cerveau.
15:47
Can anyonen'importe qui guessdeviner: what's the totaltotal lengthlongueur of wiresfils in your braincerveau?
341
932000
4000
Est-ce que quelqu'un peut deviner ça : quelle est la longueur totale des fils dans notre cerveau?
15:54
I'll give you a hintallusion. It's a biggros numbernombre.
342
939000
2000
Je vous donne un indice. C'est un nombre très grand.
15:56
(LaughterRires)
343
941000
2000
(Rires)
15:59
I estimateestimation, millionsdes millions of milesmiles,
344
944000
3000
Je l'estime à des millions de miles.
16:02
all packedemballé in your skullcrâne.
345
947000
3000
Tout empaqueté dans notre boîte crânienne.
16:05
And if you appreciateapprécier that numbernombre,
346
950000
2000
Et si vous arrivez à estimer ce nombre,
16:07
you can easilyfacilement see
347
952000
2000
vous pouvez facilement comprendre
16:09
there is hugeénorme potentialpotentiel for mis-wiringmal de câblage of the braincerveau.
348
954000
2000
qu'il y a une immense probabilité pour qu'il y ait de mauvaises connexions dans le cerveau.
16:11
And indeedeffectivement, the popularpopulaire presspresse lovesamours headlinesManchettes like,
349
956000
3000
Et en effet, la presse populaire adore les gros titres du genre
16:14
"AnorexicAnorexique brainscerveaux are wiredcâblé differentlydifféremment,"
350
959000
2000
"Le cerveau des anorexiques est connecté différemment"
16:16
or "AutisticAutiste brainscerveaux are wiredcâblé differentlydifféremment."
351
961000
2000
ou "Le cerveau des autistes est connecté différement".
16:18
These are plausibleplausible claimsréclamations,
352
963000
2000
Ce sont des affirmations plausibles
16:20
but in truthvérité,
353
965000
2000
mais, en vérité,
16:22
we can't see the brain'scerveaux wiringcâblage clearlyclairement enoughassez
354
967000
2000
on n'est pas capable de regarder le "câblage" du cerveau assez clairement
16:24
to tell if these are really truevrai.
355
969000
2000
pour dire si elles sont vraies.
16:26
And so the technologiesles technologies for seeingvoyant connectomesconnectomes
356
971000
3000
Donc les technologies qui visent à observer des connectomes
16:29
will allowpermettre us to finallyenfin
357
974000
2000
nous permettrons en fin de compte
16:31
readlis mis-wiringmal de câblage of the braincerveau,
358
976000
2000
de déchiffrer les erreurs de câblage dans le cerveau,
16:33
to see mentalmental disorderstroubles in connectomesconnectomes.
359
978000
3000
de repérer les désordres mentaux dans les connectomes.
16:40
SometimesParfois the bestmeilleur way to testtester a hypothesishypothèse
360
985000
3000
Parfois le meilleur moyen de tester une hypothèse
16:43
is to considerconsidérer its mostles plus extremeextrême implicationimplication.
361
988000
3000
est de la considérer dans ce qu'elle implique de plus extrême.
16:46
PhilosophersPhilosophes know this gameJeu very well.
362
991000
3000
Les philosophes connaissent très bien ce jeu.
16:50
If you believe that I am my connectomeconnectome,
363
995000
3000
Si vous pensez que je suis mon connectome,
16:53
I think you mustdoit alsoaussi acceptAcceptez the ideaidée
364
998000
3000
je pense que vous devrez aussi accepter l'idée
16:56
that deathdécès is the destructiondestruction
365
1001000
2000
que la mort entraîne la destruction
16:58
of your connectomeconnectome.
366
1003000
3000
de votre connectome.
17:02
I mentionmention this because there are prophetsprophètes todayaujourd'hui
367
1007000
3000
Je me permets de mentionner cela parce qu'il y a des prophètes aujourd'hui
17:05
who claimprétendre that technologyLa technologie
368
1010000
3000
qui affirment que la technologie
17:08
will fundamentallyfondamentalement altermodifier the humanHumain conditioncondition
369
1013000
3000
finira par modifier fondamentalement la condition humaine
17:11
and perhapspeut être even transformtransformer the humanHumain speciesespèce.
370
1016000
3000
et peut-être même par transformer l'espèce humaine.
17:14
One of theirleur mostles plus cherishedchéris dreamsrêves
371
1019000
3000
Un de leurs rêves les plus tendres
17:17
is to cheattriche deathdécès
372
1022000
2000
est de tromper la mort
17:19
by that practiceentraine toi knownconnu as cryonicsCryonie.
373
1024000
2000
grâce à cette pratique connue sous le nom de cryonie.
17:21
If you payPayer 100,000 dollarsdollars,
374
1026000
2000
Pour 100 000 dollars,
17:23
you can arrangeprendre des dispositions to have your bodycorps frozencongelé after deathdécès
375
1028000
3000
vous pouvez vous arranger pour qu'on congèle votre corps après votre mort
17:26
and storedstockés in liquidliquide nitrogenazote
376
1031000
2000
et pour qu'on le place dans de l'azote liquide
17:28
in one of these tanksréservoirs in an ArizonaArizona warehouseentrepôt,
377
1033000
2000
dans un de ces aquariums dans un entrepôt en Arizona
17:30
awaitingdans l’attente a futureavenir civilizationcivilisation
378
1035000
2000
dans l'attente d'une civilisation future
17:32
that is advancedAvancée to resurrectressusciter you.
379
1037000
3000
assez avancée pour pouvoir vous ressusciter.
17:36
Should we ridiculeridiculiser the modernmoderne seekersdemandeurs of immortalityimmortalité,
380
1041000
2000
Devons-nous tourner en ridicule les chercheurs d'immortalité des temps modernes,
17:38
callingappel them foolsles imbéciles?
381
1043000
2000
et les appeler idiots?
17:40
Or will they somedayun jour chuckleChuckle
382
1045000
2000
Ou bien reviendront-ils un jour ricaner
17:42
over our gravestombes?
383
1047000
2000
au-dessus de nos tombes?
17:45
I don't know --
384
1050000
2000
Je ne sais pas.
17:47
I preferpréférer to testtester theirleur beliefscroyances, scientificallyscientifiquement.
385
1052000
3000
Je préfère mettre à l'épreuve leurs croyances, scientifiquement.
17:50
I proposeproposer that we attempttentative to find a connectomeconnectome
386
1055000
2000
Je propose que nous essayions de trouver un connectome
17:52
of a frozencongelé braincerveau.
387
1057000
2000
d'un cerveau congelé.
17:54
We know that damagedommage to the braincerveau
388
1059000
2000
Nous savons que des dommages sont infligés au cerveau
17:56
occursse produit after deathdécès and duringpendant freezingpoint de congélation.
389
1061000
2000
après la mort et pendant le refroidissement du cadavre.
17:58
The questionquestion is: has that damagedommage erasedeffacé the connectomeconnectome?
390
1063000
3000
La question est : est-ce que ces dommages effacent le connectome?
18:01
If it has, there is no way that any futureavenir civilizationcivilisation
391
1066000
3000
Si c'est le cas, il n'y a aucun moyen pour qu'une civilisation du future
18:04
will be ablecapable to recoverrécupérer the memoriessouvenirs of these frozencongelé brainscerveaux.
392
1069000
3000
soit cabale de récupérer les souvenirs de ces cerveaux congelés.
18:07
ResurrectionRésurrection mightpourrait succeedréussir for the bodycorps,
393
1072000
2000
La résurrection pourrait bien fonctionner pour le corps,
18:09
but not for the mindesprit.
394
1074000
2000
mais pas pour l'esprit.
18:11
On the other handmain, if the connectomeconnectome is still intactintact,
395
1076000
3000
D'un autre côté, si le connectome est toujours intact,
18:14
we cannotne peux pas ridiculeridiculiser the claimsréclamations of cryonicsCryonie so easilyfacilement.
396
1079000
3000
on ne peut pas ridiculiser les affirmations des partisans de la cryonie si facilement.
18:20
I've describeddécrit a questquête
397
1085000
2000
J'ai décrit une quête
18:22
that beginscommence in the worldmonde of the very smallpetit,
398
1087000
3000
qui commence dans le monde de l'infiniment petit
18:25
and propelspropulse us to the worldmonde of the farloin futureavenir.
399
1090000
3000
et finit par nous propulser dans le monde d'un futur très éloigné.
18:28
ConnectomesConnectomes will markmarque a turningtournant pointpoint in humanHumain historyhistoire.
400
1093000
3000
Les connectomes marqueront un tournant dans l'histoire de l'humanité.
18:32
As we evolvedévolué from our ape-likesimiesque ancestorsles ancêtres
401
1097000
2000
Alors que nous nous émancipions de la condition de nos ancêtres à l'apparence de singes
18:34
on the AfricanAfricain savannasavane,
402
1099000
2000
dans la savane africaine,
18:36
what distinguisheddistingué us was our largerplus grand brainscerveaux.
403
1101000
3000
ce qui nous distinguait, c'était nos cerveaux plus larges.
18:40
We have used our brainscerveaux to fashionmode
404
1105000
2000
Nous avons utilisé nos cerveaux pour concevoir
18:42
ever more amazingincroyable technologiesles technologies.
405
1107000
3000
des technologies toujours plus incroyables.
18:45
EventuallyPar la suite, these technologiesles technologies will becomedevenir so powerfulpuissant
406
1110000
3000
A la fin, ces technologies deviendront si puissantes
18:48
that we will use them to know ourselvesnous-mêmes
407
1113000
3000
que nous les utiliserons pour mieux nous connaître
18:51
by deconstructingDeconstructing and reconstructingreconstruction de
408
1116000
3000
en déconstruisant et reconstruisant
18:54
our ownposséder brainscerveaux.
409
1119000
3000
nos propres cerveaux.
18:57
I believe that this voyagevoyage of self-discoveryauto-découverte
410
1122000
3000
Je suis convaincu que cette aventure, qui nous permet de comprendre qui nous sommes,
19:00
is not just for scientistsscientifiques,
411
1125000
3000
n'est pas réservée qu'aux scientifiques
19:03
but for all of us.
412
1128000
2000
mais s'offre à chacun de nous.
19:05
And I'm gratefulreconnaissant for the opportunityopportunité to sharepartager this voyagevoyage with you todayaujourd'hui.
413
1130000
3000
Et je suis reconnaissant d'avoir eu la chance de partager cette aventure avec vous aujourd'hui.
19:08
Thank you.
414
1133000
2000
Merci.
19:10
(ApplauseApplaudissements)
415
1135000
8000
(Applaudissements)
Translated by Lucie Penarrubia
Reviewed by julien hamonic

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com