ABOUT THE SPEAKER
Gero Miesenboeck - Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior.

Why you should listen

Gero Miesenboeck is pioneering the field of optogenetics: genetically modifying nerve cells to respond to light. By flashing light at a modified neuron in a living nervous system, Miesenboeck and his collaborators can mimic a brain impulse -- and then study what happens next. Optogenetics will allow ever more precise experiments on living brains, allowing us to gather better evidence on how electrical impulses on tissue translate into actual behavior and thoughts.

In one experiment, done at Yale, he and his team engineered fruit flies to be light-sensitive in the neural area responsible for escape response. Then the flies were beheaded; fruit flies can live for a day without their heads, but they don't move. When the modified cells were flashed with light, though, the headless flies flew. Miesenboeck had successfully simulated an order from a brain that wasn't even there anymore.

Miesenboeck's current research at Oxford's growing department of neurobiology focuses on the nerve cell networks that underpin what animals perceive, remember and do. In one recent experiment, he used optogenetics to implant an unpleasant memory in a fruit fly, causing it to "remember" to avoid a certain odor as it traveled around. He and his team were able, in fact, to find the fly's specific 12-neuron brain circuit that govern memory formation.

More profile about the speaker
Gero Miesenboeck | Speaker | TED.com
TEDGlobal 2010

Gero Miesenboeck: Re-engineering the brain

Gero Miesenboeck reconfigure un cerveau.

Filmed:
717,411 views

Dans le but de cartographier le cerveau, beaucoup de scientifiques ont tenté la tâche colossale d'enregistrer l'activité de chaque neurone. Gero Miesenboeck travaille à l'envers - en manipulant des neurones spécifiques pour comprendre exactement ce qu'ils font, par des séries d'expériences stupéfiantes qui reconfigurent la façon dont la mouche du fruit (la drosophile) perçoit la lumière.
- Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior. Full bio

Double-click the English transcript below to play the video.

00:15
I have a doppelgangerDoppelganger.
0
0
3000
J'ai un double.
00:18
(LaughterRires)
1
3000
3000
(Rires)
00:21
DrDr. GeroGero is a brilliantbrillant
2
6000
3000
Dr Gero est un scientifique brillant
00:24
but slightlylégèrement madfurieux scientistscientifique
3
9000
2000
mais légèrement fou
00:26
in the "DragonballDragonball Z: AndroidAndroïde SagaSaga."
4
11000
3000
dans la "Saga Android" Dragonball Z.
00:29
If you look very carefullysoigneusement,
5
14000
2000
Si vous regardez très attentivement,
00:31
you see that his skullcrâne has been replacedremplacé
6
16000
3000
vous voyez que son crâne a été remplacé
00:34
with a transparenttransparent PlexiglasPhoto sur Plexi domedôme
7
19000
2000
par un dôme en Plexigas transparent
00:36
so that the workingsfonctionnements of his braincerveau can be observedobservé
8
21000
3000
pour que les fonctionnements de son cerveau puissent être observés
00:39
and alsoaussi controlledcontrôlé with lightlumière.
9
24000
3000
et aussi contrôlés par lumière.
00:42
That's exactlyexactement what I do --
10
27000
2000
C'est exactement ce que je fais --
00:44
opticaloptique mindesprit controlcontrôle.
11
29000
2000
le contrôle de l'esprit par l'optique.
00:46
(LaughterRires)
12
31000
2000
(Rires)
00:48
But in contrastcontraste to my evilmal twindouble
13
33000
2000
Mais à l'inverse de mon jumeau démoniaque,
00:50
who lustsconvoitises after worldmonde dominationdomination,
14
35000
3000
qui convoite la domination du monde,
00:53
my motivesmotifs are not sinistersinistre.
15
38000
3000
mes motifs ne sont pas menaçants.
00:56
I controlcontrôle the braincerveau
16
41000
2000
Je contrôle le cerveau
00:58
in ordercommande to understandcomprendre how it workstravaux.
17
43000
2000
pour comprendre comment il fonctionne.
01:00
Now wait a minuteminute, you maymai say,
18
45000
2000
Maintenant, attendez une minute, vous pouvez dire,
01:02
how can you go straighttout droit to controllingcontrôler the braincerveau
19
47000
3000
comment pouvez-vous aller directement au contrôle du cerveau
01:05
withoutsans pour autant understandingcompréhension it first?
20
50000
2000
sans d'abord le comprendre?
01:07
Isn't that puttingen mettant the cartChariot before the horsecheval?
21
52000
3000
Est-ce que ce n'est pas mettre la charrue avant les bœufs?
01:11
ManyDe nombreux neuroscientistsneuroscientifiques agreese mettre d'accord with this viewvue
22
56000
3000
Beaucoup de neuroscientifiques sont d'accord avec cette vision
01:14
and think that understandingcompréhension will come
23
59000
3000
et pensent que la compréhension viendra
01:17
from more detaileddétaillées observationobservation and analysisune analyse.
24
62000
3000
d'une observation et d'une analyse plus détaillées.
01:20
They say, "If we could recordrecord the activityactivité of our neuronsneurones,
25
65000
4000
Ils disent, "si nous pouvions enregistrer l'activité de nos neurones,
01:24
we would understandcomprendre the braincerveau."
26
69000
3000
nous comprendrions le cerveau."
01:27
But think for a momentmoment what that meansveux dire.
27
72000
3000
Mais réfléchissez un instant à ce que cela signifie.
01:30
Even if we could measuremesure
28
75000
2000
Même si nous pouvions mesurer
01:32
what everychaque cellcellule is doing at all timesfois,
29
77000
2000
ce que chaque cellule fait à tout moment,
01:34
we would still have to make sensesens
30
79000
2000
nous aurions encore à comprendre la signification
01:36
of the recordedenregistré activityactivité patternsmodèles,
31
81000
2000
des tracés d'activité enregistrés,
01:38
and that's so difficultdifficile,
32
83000
2000
et c'est si difficile,
01:40
chanceschances are we'llbien understandcomprendre these patternsmodèles
33
85000
2000
il y a des chances que nous comprenions ces tracés
01:42
just as little as the brainscerveaux that produceproduire them.
34
87000
3000
juste aussi peu que les cerveaux qui les produisent.
01:45
Take a look at what braincerveau activityactivité mightpourrait look like.
35
90000
3000
Jetez un coup d'oeil à quoi l'activité cérébrale pourrait ressembler.
01:48
In this simulationsimulation, eachchaque blacknoir dotpoint
36
93000
2000
Dans cette simulation, chaque point noir
01:50
is one nervenerf cellcellule.
37
95000
2000
est une seule cellule nerveuse.
01:52
The dotpoint is visiblevisible
38
97000
2000
Le point est visible
01:54
whenevern'importe quand a cellcellule firesles feux an electricalélectrique impulseimpulsion.
39
99000
2000
chaque fois qu'une cellule envoie une impulsion électrique.
01:56
There's 10,000 neuronsneurones here.
40
101000
2000
Il y a 10,000 neurones ici.
01:58
So you're looking at roughlygrossièrement one percentpour cent
41
103000
2000
Donc vous avez regardé à grossièrement un pour cent
02:00
of the braincerveau of a cockroachcafard.
42
105000
3000
du cerveau d'un cafard.
02:04
Your brainscerveaux are about 100 millionmillion timesfois
43
109000
3000
Vos cerveaux sont environ 100 millions de fois
02:07
more complicatedcompliqué.
44
112000
2000
plus compliqués.
02:09
SomewhereQuelque part, in a patternmodèle like this,
45
114000
2000
Quelque part, il y a un tracé comme ceci,
02:11
is you,
46
116000
2000
il y a vous,
02:13
your perceptionsperceptions,
47
118000
2000
vos perceptions,
02:15
your emotionsémotions, your memoriessouvenirs,
48
120000
3000
vos émotions, vos souvenirs,
02:18
your plansdes plans for the futureavenir.
49
123000
2000
vos plans pour l'avenir.
02:20
But we don't know where,
50
125000
2000
Mais nous ne savons pas où,
02:22
sincedepuis we don't know how to readlis the patternmodèle.
51
127000
3000
puisque nous ne savons pas comment lire le tracé.
02:25
We don't understandcomprendre the codecode used by the braincerveau.
52
130000
3000
Nous ne comprenons pas le code utilisé par le cerveau.
02:28
To make progressle progrès,
53
133000
2000
Pour progresser,
02:30
we need to breakPause the codecode.
54
135000
2000
nous devons casser le code.
02:32
But how?
55
137000
2000
Mais comment?
02:35
An experiencedexpérimenté code-breakerséparateur de code will tell you
56
140000
2000
Un cryptanalyste expérimenté vous dira
02:37
that in ordercommande to figurefigure out what the symbolssymboles in a codecode mean,
57
142000
3000
que pour comprendre ce que veulent dire les symboles dans un code,
02:40
it's essentialessentiel to be ablecapable to playjouer with them,
58
145000
3000
il est essentiel de pouvoir jouer avec eux,
02:43
to rearrangeréorganiser les them at will.
59
148000
2000
pour les réarranger à volonté.
02:45
So in this situationsituation too,
60
150000
2000
Ainsi, dans cette situation également,
02:47
to decodedécoder the informationinformation
61
152000
2000
pour décoder les informations
02:49
containedcontenu in patternsmodèles like this,
62
154000
2000
contenues dans des tracés comme celui-ci,
02:51
watchingen train de regarder aloneseul won'thabitude do.
63
156000
2000
l'observation seule ne suffit pas;
02:53
We need to rearrangeréorganiser les the patternmodèle.
64
158000
2000
nous devons réarranger le tracé.
02:55
In other wordsmots,
65
160000
2000
Autrement dit,
02:57
insteadau lieu of recordingenregistrement the activityactivité of neuronsneurones,
66
162000
2000
au lieu d'enregistrer l'activité des neurones,
02:59
we need to controlcontrôle it.
67
164000
2000
nous devons la contrôler.
03:01
It's not essentialessentiel that we can controlcontrôle
68
166000
2000
Il n'est pas essentiel que nous puissions contrôler
03:03
the activityactivité of all neuronsneurones in the braincerveau, just some.
69
168000
3000
l'activité de tous les neurones dans le cerveau, juste certains.
03:06
The more targetedciblé our interventionsinterventions, the better.
70
171000
2000
Plus nos interventions sont ciblées, mieux c'est.
03:08
And I'll showmontrer you in a momentmoment
71
173000
2000
Et je vous montrerai dans un moment
03:10
how we can achieveatteindre the necessarynécessaire precisionprécision.
72
175000
3000
comment nous pouvons atteindre la précision nécessaire.
03:13
And sincedepuis I'm realisticréaliste, ratherplutôt than grandiosegrandiose,
73
178000
3000
Et puisque je suis réaliste plus que prétentieux,
03:16
I don't claimprétendre that the abilitycapacité to controlcontrôle the functionfonction of the nervousnerveux systemsystème
74
181000
3000
je ne prétends pas que la capacité à contrôler le fonctionnement du système nerveux
03:19
will at onceune fois que unraveldémêler all its mysteriesmystères.
75
184000
3000
élucidera immédiatement tous ses mystères.
03:22
But we'llbien certainlycertainement learnapprendre a lot.
76
187000
3000
Mais nous apprendrons certainement beaucoup.
03:27
Now, I'm by no meansveux dire
77
192000
2000
Maintenant, je ne suis en aucun cas
03:29
the first personla personne to realizeprendre conscience de
78
194000
2000
la première personne à réaliser
03:31
how powerfulpuissant a tooloutil interventionintervention is.
79
196000
3000
à quel point une intervention d'outil est puissante.
03:34
The historyhistoire of attemptstentatives
80
199000
2000
L'histoire des tentatives
03:36
to tinkerbricoler with the functionfonction of the nervousnerveux systemsystème
81
201000
2000
pour remanier la fonction du système nerveux
03:38
is long and illustriousillustres.
82
203000
2000
est longue et célèbre.
03:40
It datesdates back at leastmoins 200 yearsannées,
83
205000
3000
Cela remonte au moins 200 ans en arrière,
03:43
to Galvani'sDe Galvani famouscélèbre experimentsexpériences
84
208000
2000
aux expériences célèbres de Galvani
03:45
in the lateen retard 18thth centurysiècle and beyondau-delà.
85
210000
3000
à la fin du 18ème siècle et au-delà.
03:49
GalvaniGalvani showedmontré that a frog'sgrenouille legsjambes twitchedtremblaient
86
214000
3000
Galvani a montré que les jambes d'une grenouille se contractaient
03:52
when he connectedconnecté the lumbarlombaire nervenerf
87
217000
2000
quand il connectait le nerf lombaire
03:54
to a sourcela source of electricalélectrique currentactuel.
88
219000
3000
à une source de courant électrique.
03:57
This experimentexpérience revealeda révélé the first, and perhapspeut être mostles plus fundamentalfondamental,
89
222000
3000
Cette expérience a révélé le premier et peut-être le plus fondamental,
04:00
nuggetpépite of the neuralneural codecode:
90
225000
2000
élément du code neural :
04:02
that informationinformation is writtenécrit in the formforme
91
227000
2000
ces informations sont écrites sous la forme
04:04
of electricalélectrique impulsesimpulsions.
92
229000
3000
d'impulsions électriques.
04:08
Galvani'sDe Galvani approachapproche
93
233000
2000
L'approche de Galvani
04:10
of probingpalpage the nervousnerveux systemsystème with electrodesélectrodes
94
235000
2000
d'explorer le système nerveux avec des électrodes
04:12
has remainedresté state-of-the-artl'état de l'art untiljusqu'à todayaujourd'hui,
95
237000
3000
est restée en pointe jusqu'à aujourd'hui,
04:15
despitemalgré a numbernombre of drawbacksinconvénients.
96
240000
3000
malgré un certain nombre d'inconvénients.
04:18
StickingS’en tenir wiresfils into the braincerveau is obviouslyévidemment ratherplutôt crudebrut.
97
243000
3000
Enfoncer des fils dans le cerveau est évidemment plutôt rudimentaire.
04:21
It's harddifficile to do in animalsanimaux that runcourir around,
98
246000
2000
C'est difficile à réaliser dans des animaux qui courent partout,
04:23
and there is a physicalphysique limitlimite
99
248000
2000
et il y a une limite physique
04:25
to the numbernombre of wiresfils
100
250000
2000
aux nombres de fils
04:27
that can be insertedinséré simultaneouslysimultanément.
101
252000
3000
qui peuvent être insérés simultanément.
04:30
So around the turntour of the last centurysiècle,
102
255000
2000
Ainsi autour du début du dernier siècle,
04:32
I startedcommencé to think,
103
257000
2000
j'ai commencé à penser,
04:34
"Wouldn'tNe serait pas it be wonderfulformidable if one could take this logiclogique
104
259000
3000
ne serait-il pas merveilleux si on pouvait prendre cette logique
04:37
and turntour it upsideà l'envers down?"
105
262000
2000
et la renverser.
04:39
So insteadau lieu of insertinginsertion de a wirecâble
106
264000
2000
Ainsi au lieu d'insérer un fil
04:41
into one spotplace of the braincerveau,
107
266000
3000
dans un seul endroit du cerveau,
04:44
re-engineerre-ingénieur the braincerveau itselfse
108
269000
2000
reconfigurer le cerveau lui-même
04:46
so that some of its neuralneural elementséléments
109
271000
3000
pour que certains de ses éléments neuraux
04:49
becomedevenir responsivesensible to diffuselydiffusément broadcastdiffusion signalssignaux
110
274000
3000
deviennent réactifs pour émettre des signaux de façon diffuse,
04:52
suchtel as a flashflash of lightlumière.
111
277000
3000
comme un flash de lumière.
04:55
SuchCes an approachapproche would literallyLittéralement, in a flashflash of lightlumière,
112
280000
3000
Une telle approche pourrait littéralement, en un flash de lumière,
04:58
overcomesurmonter manybeaucoup of the obstaclesobstacles to discoveryDécouverte.
113
283000
3000
surmonter beaucoup des obstacles qui s'opposent à sa découverte.
05:01
First, it's clearlyclairement a non-invasivenon invasif,
114
286000
3000
Premièrement, c'est clairement
05:04
wirelesssans fil formforme of communicationla communication.
115
289000
3000
une forme de communication sans-fil non-invasive.
05:07
And secondseconde, just as in a radioradio broadcastdiffusion,
116
292000
2000
Et deuxièmement, juste comme un programme radio,
05:09
you can communicatecommuniquer with manybeaucoup receiversrécepteurs at onceune fois que.
117
294000
3000
vous pouvez communiquer avec beaucoup de récepteurs à la fois.
05:12
You don't need to know where these receiversrécepteurs are,
118
297000
3000
Vous n'avez pas besoin de savoir où ces récepteurs se trouvent.
05:15
and it doesn't mattermatière if these receiversrécepteurs movebouge toi --
119
300000
2000
Et, ce n'est pas important si ces récepteurs bougent --
05:17
just think of the stereostéréo in your carvoiture.
120
302000
3000
penser juste à la stéréo dans votre voiture.
05:20
It getsobtient even better,
121
305000
3000
Il y a encore mieux,
05:23
for it turnsse tourne out that we can fabricatefabriquer the receiversrécepteurs
122
308000
3000
il s'avère que nous pouvons fabriquer ces récepteurs
05:26
out of materialsmatériaux that are encodedcodé in DNAADN.
123
311000
3000
à partir de matériaux qui sont codés par l'ADN.
05:29
So eachchaque nervenerf cellcellule
124
314000
2000
Ainsi chaque cellule nerveuse
05:31
with the right geneticgénétique makeupmaquillage
125
316000
2000
avec le bon génome
05:33
will spontaneouslyspontanément produceproduire a receiverrécepteur
126
318000
3000
produira spontanément un récepteur
05:36
that allowspermet us to controlcontrôle its functionfonction.
127
321000
3000
qui nous permet de contrôler sa fonction.
05:39
I hopeespérer you'lltu vas appreciateapprécier
128
324000
2000
J'espère que vous apprécierez
05:41
the beautifulbeau simplicitysimplicité
129
326000
2000
la belle simplicité
05:43
of this conceptconcept.
130
328000
2000
de ce concept.
05:45
There's no high-techhaute technologie gizmosGadgets here,
131
330000
2000
Il n'y a aucun gadget de haute technologie ici,
05:47
just biologyla biologie revealeda révélé throughpar biologyla biologie.
132
332000
3000
juste la biologie révélée par la biologie.
05:51
Now let's take a look at these miraculousmiraculeux receiversrécepteurs up closeFermer.
133
336000
3000
Maintenant regardons ces récepteurs miraculeux en gros plan.
05:54
As we zoomZoom in on one of these purpleviolet neuronsneurones,
134
339000
3000
Alors que nous agrandissons un de ces neurones violets,
05:57
we see that its outerextérieur membranemembrane
135
342000
2000
nous voyons que sa membrane extérieure
05:59
is studdedcloutés with microscopicmicroscopique porespores.
136
344000
2000
est remplie de pores microscopiques.
06:01
PoresPores like these conductconduite electricalélectrique currentactuel
137
346000
2000
Les pores comme ceux-ci conduisent le courant électrique
06:03
and are responsibleresponsable
138
348000
2000
et sont responsables
06:05
for all the communicationla communication in the nervousnerveux systemsystème.
139
350000
2000
de toute la communication dans le système nerveux.
06:07
But these porespores here are specialspécial.
140
352000
2000
Mais ici ces pores sont spéciaux.
06:09
They are coupledcouplé to lightlumière receptorsrécepteurs
141
354000
2000
Ils sont couplés à des récepteurs de lumière
06:11
similarsimilaire to the onesceux in your eyesles yeux.
142
356000
3000
identiques à ceux dans vos yeux.
06:14
WheneverChaque fois que a flashflash of lightlumière hitsles coups the receptorrécepteur,
143
359000
2000
Chaque fois qu'un flash de lumière frappe le récepteur,
06:16
the porepore openss'ouvre, an electricalélectrique currentactuel is switchedcommuté on,
144
361000
3000
le pore s'ouvre et le courant électrique est activé,
06:19
and the neuronneurone firesles feux electricalélectrique impulsesimpulsions.
145
364000
3000
et le neurone envoie des impulsions électriques.
06:22
Because the light-activatedactivés par la lumière porepore is encodedcodé in DNAADN,
146
367000
3000
Parce que le pore activé par la lumière est codé dans l'ADN,
06:25
we can achieveatteindre incredibleincroyable precisionprécision.
147
370000
3000
nous pouvons atteindre une incroyable précision.
06:28
This is because,
148
373000
2000
C'est parce que,
06:30
althoughbien que eachchaque cellcellule in our bodiescorps
149
375000
2000
bien que chaque cellule dans notre corps
06:32
containscontient the sameMême setensemble of genesgènes,
150
377000
2000
contient le même ensemble de gènes,
06:34
differentdifférent mixesmélanges of genesgènes get turnedtourné on and off
151
379000
2000
des combinaisons différentes de gènes sont allumées ou éteintes
06:36
in differentdifférent cellscellules.
152
381000
2000
dans différentes cellules.
06:38
You can exploitexploit this to make sure
153
383000
2000
Vous pouvez exploiter ceci pour vous assurer
06:40
that only some neuronsneurones
154
385000
2000
que seulement quelques neurones
06:42
containcontenir our light-activatedactivés par la lumière porepore and othersautres don't.
155
387000
3000
contiennent notre pore activé par la lumière et d'autres pas.
06:45
So in this cartoondessin animé, the bluishbleuâtre whiteblanc cellcellule
156
390000
2000
Ainsi dans ce schéma, la cellule blanche bleuâtre
06:47
in the upper-leften haut à gauche cornercoin
157
392000
2000
dans le coin supérieur-gauche
06:49
does not respondrépondre to lightlumière
158
394000
2000
ne répond pas à la lumière
06:51
because it lacksmanque the light-activatedactivés par la lumière porepore.
159
396000
3000
car elle est dépourvue du pore activé par la lumière.
06:54
The approachapproche workstravaux so well
160
399000
2000
Cette approche marche si bien
06:56
that we can writeécrire purelypurement artificialartificiel messagesmessages
161
401000
2000
que nous pouvons écrire des messages purement artificiels
06:58
directlydirectement to the braincerveau.
162
403000
2000
directement au cerveau.
07:00
In this exampleExemple, eachchaque electricalélectrique impulseimpulsion,
163
405000
2000
Dans cet exemple, chaque impulsion électrique,
07:02
eachchaque deflectiondéflexion on the tracetrace,
164
407000
3000
chaque déviation du tracé,
07:05
is causedcausé by a briefbref pulseimpulsion of lightlumière.
165
410000
3000
est causée par une brève impulsion de lumière.
07:08
And the approachapproche, of coursecours, alsoaussi workstravaux
166
413000
2000
Et l'approche fonctionne également
07:10
in movingen mouvement, behavingse comporter animalsanimaux.
167
415000
3000
pour des animaux réagissant et se déplaçant.
07:13
This is the first ever suchtel experimentexpérience,
168
418000
2000
C'est la toute première expérience de la sorte,
07:15
sortTrier of the opticaloptique equivalentéquivalent of Galvani'sDe Galvani.
169
420000
3000
une sorte d'équivalent optique de celle de Galvani.
07:18
It was doneterminé sixsix or sevenSept yearsannées agodepuis
170
423000
2000
Cela a été fait il y a six ou sept ans
07:20
by my then graduatediplômé studentétudiant, SusanaSusana LimaLima.
171
425000
3000
par Susana Lima qui était alors mon étudiante en thèse.
07:23
SusanaSusana had engineeredmachiné the fruitfruit flymouche on the left
172
428000
3000
Susana avait structurée la drosophile sur la gauche
07:26
so that just two out of the 200,000 cellscellules in its braincerveau
173
431000
4000
pour que juste deux parmi les 200 000 cellules de son cerveau
07:30
expressedexprimé the light-activatedactivés par la lumière porepore.
174
435000
3000
expriment le pore activé par la lumière.
07:33
You're familiarfamilier with these cellscellules
175
438000
2000
Vous êtes familiers avec ces cellules
07:35
because they are the onesceux that frustratefrustrer you
176
440000
2000
car ce sont celles qui vous frustrent
07:37
when you try to swatécraser the flymouche.
177
442000
2000
quand vous essayez d'écraser la mouche.
07:39
They trainedqualifié the escapeéchapper reflexréflexe that makesfait du the flymouche jumpsaut into the airair
178
444000
3000
Elles ont entraîné le réflexe de fuite qui fait sauter la mouche dans les airs.
07:42
and flymouche away whenevern'importe quand you movebouge toi your handmain in positionposition.
179
447000
3000
et s'envoler chaque fois que vous déplacez votre main dans la position.
07:46
And you can see here that the flashflash of lightlumière has exactlyexactement the sameMême effecteffet.
180
451000
3000
Et vous pouvez voir ici que le flash de lumière a exactement le même effet.
07:49
The animalanimal jumpssaute, it spreadsse propage its wingsailes, it vibratesvibre them,
181
454000
3000
L'animal saute, il étend ses ailes, il les fait vibrer,
07:52
but it can't actuallyréellement take off
182
457000
2000
mais en réalité il ne peut pas décoller,
07:54
because the flymouche is sandwichedpris en sandwich betweenentre two glassverre platesplaques.
183
459000
3000
parce que la mouche est serrée entre deux plaques de verre.
07:58
Now to make sure that this was no reactionréaction of the flymouche
184
463000
2000
Maintenant, pour s'assurer que ce n'était pas une réaction de la mouche
08:00
to a flashflash it could see,
185
465000
3000
à un flash qu'elle aurait pu voir
08:03
SusanaSusana did a simplesimple
186
468000
2000
Susana a réalisé une expérience simple
08:05
but brutallybrutalement effectiveefficace experimentexpérience.
187
470000
2000
mais brutalement efficace.
08:07
She cutCouper the headstêtes off of her fliesmouches.
188
472000
3000
Elle a coupé les têtes de ses mouches.
08:11
These headlesssans tête bodiescorps can livevivre for about a day,
189
476000
3000
Ces corps sans tête peuvent vivre environ un jour,
08:14
but they don't do much.
190
479000
2000
mais ils ne font pas grand chose.
08:16
They just standsupporter around
191
481000
3000
Ils restent juste dans les parages
08:19
and groommarié excessivelyexcessivement.
192
484000
3000
et se toilettent de façon extensive.
08:22
So it seemssemble that the only traitcaractéristique that survivessurvit decapitationdécapitation is vanityvanité.
193
487000
3000
Donc il semble que le seul trait qui réchappe de la décapitation soit la vanité.
08:25
(LaughterRires)
194
490000
3000
(Rires)
08:30
AnywayEn tout cas, as you'lltu vas see in a momentmoment,
195
495000
2000
De toute façon, comme vous verrez dans un moment,
08:32
SusanaSusana was ablecapable to turntour on the flightvol motormoteur
196
497000
3000
Susana a pu allumer le moteur du vol
08:35
of what's the equivalentéquivalent of the spinalspinal cordcorde of these fliesmouches
197
500000
3000
de ce qui est l'équivalent de la moelle épinière de ces mouches
08:38
and get some of the headlesssans tête bodiescorps
198
503000
2000
et réussir à avoir certains des corps sans tête
08:40
to actuallyréellement take off and flymouche away.
199
505000
3000
vraiment décoller et s'envoler.
08:47
They didn't get very farloin, obviouslyévidemment.
200
512000
2000
Ils ne sont pas allés très loin, évidemment.
08:50
SinceDepuis we tooka pris these first stepspas,
201
515000
2000
Depuis que nous avons franchis ces premières étapes,
08:52
the fieldchamp of optogeneticsoptogenetics has explodeda explosé.
202
517000
3000
le domaine de l'optogénétique a éclaté.
08:55
And there are now hundredsdes centaines of labslaboratoires
203
520000
2000
Et il y a maintenant des centaines de laboratoires
08:57
usingen utilisant these approachesapproches.
204
522000
2000
qui utilisent ces approches.
08:59
And we'venous avons come a long way
205
524000
2000
Et nous avons parcouru un long chemin
09:01
sincedepuis Galvani'sDe Galvani and Susana'sDe Susana first successessuccès
206
526000
3000
depuis les premiers succès de Galvani et de Susana
09:04
in makingfabrication animalsanimaux twitchsecousse or jumpsaut.
207
529000
2000
dans la fabrication d'animaux qui se contractent ou qui sautent.
09:06
We can now actuallyréellement interfereinterférer with theirleur psychologypsychologie
208
531000
3000
Nous pouvons maintenant vraiment interférer avec leur psychologie
09:09
in ratherplutôt profoundprofond waysfaçons,
209
534000
2000
de façon plutôt profonde
09:11
as I'll showmontrer you in my last exampleExemple,
210
536000
2000
comme je vous le montrerai dans mon dernier exemple,
09:13
whichlequel is directeddirigé at a familiarfamilier questionquestion.
211
538000
3000
qui vise une question familière.
09:16
Life is a stringchaîne of choicesles choix
212
541000
3000
La vie est une série de choix
09:19
creatingcréer a constantconstant pressurepression to decidedécider what to do nextprochain.
213
544000
3000
créant une pression constante pour décider de que faire ensuite.
09:23
We copechape with this pressurepression by havingayant brainscerveaux,
214
548000
3000
Nous faisons face à cette pression en ayant des cerveaux
09:26
and withindans our brainscerveaux, decision-makingla prise de décision centerscentres
215
551000
3000
et dans nos cerveaux, des centres de prise de décision
09:29
that I've calledappelé here the "ActorActeur."
216
554000
3000
que j'ai appelé ici l'Acteur.
09:33
The ActorActeur implementsimplémente a policypolitique that takes into accountCompte
217
558000
3000
L'Acteur met en oeuvre une politique qui tient compte
09:36
the stateEtat of the environmentenvironnement
218
561000
2000
de l'état de l'environnement
09:38
and the contextle contexte in whichlequel we operatefonctionner.
219
563000
3000
et du contexte dans lequel nous opérons.
09:41
Our actionsactes changechangement the environmentenvironnement, or contextle contexte,
220
566000
3000
Nos actions changent l'environnement, ou le contexte,
09:44
and these changeschangements are then fednourris back into the decisiondécision loopboucle.
221
569000
3000
et ces changements sont alors retransmis dans la boucle de décision.
09:48
Now to put some neurobiologicalneurobiologiques meatmoi à
222
573000
3000
Maintenant pour mettre de la cuisine neurobiologique
09:51
on this abstractabstrait modelmaquette,
223
576000
2000
dans ce modèle abstrait,
09:53
we constructedconstruit a simplesimple one-dimensionalunidimensionnel worldmonde
224
578000
2000
nous avons construit un monde simple unidimensionnel
09:55
for our favoritepréféré subjectassujettir, fruitfruit fliesmouches.
225
580000
3000
pour notre sujet préféré, les drosophiles.
09:58
EachChaque chamberchambre in these two verticalverticale stackspiles
226
583000
2000
Chaque chambre dans ces deux piles verticales
10:00
containscontient one flymouche.
227
585000
2000
contient une mouche.
10:02
The left and the right halvesmoitiés of the chamberchambre
228
587000
3000
Les moitiés gauches et droites de la chambre
10:05
are filledrempli with two differentdifférent odorsodeurs,
229
590000
2000
sont remplies de deux odeurs différentes,
10:07
and a securitySécurité cameracaméra watchesmontres
230
592000
2000
et une caméra de surveillance observe
10:09
as the fliesmouches pacerythme up and down betweenentre them.
231
594000
3000
pendant que les mouches passent en haut et en bas a travers elles.
10:12
Here'sVoici some suchtel CCTVCCTV footagemétrage.
232
597000
2000
Voici quelques séquences CCTV.
10:14
WheneverChaque fois que a flymouche reachesatteint the midpointpoint médian of the chamberchambre
233
599000
3000
Chaque fois qu'une mouche atteint le milieu de la chambre
10:17
where the two odorodeur streamsruisseaux meetrencontrer,
234
602000
2000
où les deux courants d'odeur se rencontrent,
10:19
it has to make a decisiondécision.
235
604000
2000
elle doit prendre une décision.
10:21
It has to decidedécider whetherqu'il s'agisse to turntour around
236
606000
2000
Elle doit décider entre faire demi-tour
10:23
and stayrester in the sameMême odorodeur,
237
608000
2000
et rester dans la même odeur,
10:25
or whetherqu'il s'agisse to crosstraverser the midlineligne médiane
238
610000
2000
ou traverser la ligne médiane
10:27
and try something newNouveau.
239
612000
2000
et essayer quelque chose de nouveau.
10:29
These decisionsles décisions are clearlyclairement a reflectionréflexion
240
614000
3000
Ces décisions sont clairement le reflet
10:32
of the Actor'sActeur policypolitique.
241
617000
3000
de la politique de l'Acteur.
10:36
Now for an intelligentintelligent beingétant like our flymouche,
242
621000
3000
Maintenant pour un être intelligent comme notre mouche,
10:39
this policypolitique is not writtenécrit in stonepierre
243
624000
3000
cette politique n'est pas écrite dans la pierre,
10:42
but ratherplutôt changeschangements as the animalanimal learnsapprend from experienceexpérience.
244
627000
3000
mais change plutôt à chaque fois que l'animal apprend de l'expérience.
10:45
We can incorporateincorporer suchtel an elementélément
245
630000
2000
Nous pouvons incorporer un tel élément
10:47
of adaptiveadaptatif intelligenceintelligence into our modelmaquette
246
632000
3000
d'intelligence adaptative dans notre modèle
10:50
by assumingen supposant that the fly'smouche braincerveau
247
635000
2000
en assumant que le cerveau de la mouche
10:52
containscontient not only an ActorActeur,
248
637000
2000
contient non seulement un Acteur,
10:54
but a differentdifférent groupgroupe of cellscellules,
249
639000
2000
mais un groupe différent de cellules,
10:56
a "CriticCritique," that providesfournit a runningfonctionnement commentarycommentaire
250
641000
3000
un Critique, qui fournit un commentaire ininterrompu
10:59
on the Actor'sActeur choicesles choix.
251
644000
2000
des choix de l'Acteur.
11:01
You can think of this nagginglancinante innerinterne voicevoix
252
646000
3000
Vous pouvez penser à cette voix intérieure lancinante
11:04
as sortTrier of the brain'scerveaux equivalentéquivalent
253
649000
2000
comme une sorte d'équivalent du cerveau
11:06
of the CatholicCatholique ChurchÉglise,
254
651000
2000
de l'Église Catholique,
11:08
if you're an AustrianAutrichien like me,
255
653000
3000
si vous êtes un Autrichien comme moi,
11:11
or the super-egoSuper-Ego, if you're FreudianFreudienne,
256
656000
3000
ou du surmoi, si vous êtes Freudiens,
11:14
or your mothermère, if you're JewishJuif.
257
659000
2000
ou de votre mère, si vous êtes Juifs.
11:16
(LaughterRires)
258
661000
4000
(Rires)
11:20
Now obviouslyévidemment,
259
665000
2000
Maintenant évidemment,
11:22
the CriticCritique is a keyclé ingredientingrédient
260
667000
3000
la critique est un ingrédient clé
11:25
in what makesfait du us intelligentintelligent.
261
670000
2000
dans ce qui nous rend intelligents.
11:27
So we setensemble out to identifyidentifier
262
672000
2000
Donc nous avons cherché à identifier
11:29
the cellscellules in the fly'smouche braincerveau
263
674000
2000
les cellules dans le cerveau de la mouche
11:31
that playedjoué the rolerôle of the CriticCritique.
264
676000
2000
qui jouent le rôle du Critique.
11:33
And the logiclogique of our experimentexpérience was simplesimple.
265
678000
3000
Et la logique de notre expérience était simple.
11:36
We thought if we could use our opticaloptique remoteéloigné controlcontrôle
266
681000
3000
Nous avons pensé que si nous pouvions utiliser notre télécommande optique
11:39
to activateactiver the cellscellules of the CriticCritique,
267
684000
3000
pour activer les cellules du Critique,
11:42
we should be ablecapable, artificiallyartificiellement, to nagNag the ActorActeur
268
687000
3000
nous devrions pouvoir, artificiellement, harceler l'Acteur
11:45
into changingen changeant its policypolitique.
269
690000
2000
pour qu'il change sa politique.
11:47
In other wordsmots,
270
692000
2000
Autrement dit,
11:49
the flymouche should learnapprendre from mistakeserreurs
271
694000
2000
la mouche devrait apprendre des erreurs
11:51
that it thought it had madefabriqué
272
696000
2000
qu'elle pense avoir faites,
11:53
but, in realityréalité, it had not madefabriqué.
273
698000
3000
mais qu'en réalité elle n'a pas faites.
11:56
So we bredde race fliesmouches
274
701000
2000
Ainsi, nous avons élevé des mouches
11:58
whosedont brainscerveaux were more or lessMoins randomlyau hasard pepperedau poivre
275
703000
3000
dont les cerveaux ont été plus ou moins aléatoirement implémentés
12:01
with cellscellules that were lightlumière addressableadressable.
276
706000
2000
avec des cellules qui sont sensibles à la lumière.
12:03
And then we tooka pris these fliesmouches
277
708000
2000
Et ensuite nous avons pris ces mouches
12:05
and allowedpermis them to make choicesles choix.
278
710000
2000
et nous leur avons permis de faire des choix.
12:07
And whenevern'importe quand they madefabriqué one of the two choicesles choix,
279
712000
2000
Et chaque fois qu'elles ont fait un des deux choix,
12:09
chosechoisi one odorodeur,
280
714000
2000
choisir une odeur,
12:11
in this caseCas the bluebleu one over the orangeOrange one,
281
716000
2000
dans ce cas, la bleue au lieu de l'orange,
12:13
we switchedcommuté on the lightslumières.
282
718000
2000
nous avons allumé les lumières.
12:15
If the CriticCritique was amongparmi the opticallyoptiquement activatedactivé cellscellules,
283
720000
3000
Si le critique était parmi les cellules optiquement activées,
12:18
the resultrésultat of this interventionintervention
284
723000
2000
le résultat de cette intervention
12:20
should be a changechangement in policypolitique.
285
725000
3000
devrait être un changement de politique.
12:23
The flymouche should learnapprendre to avoidéviter
286
728000
2000
La mouche devrait apprendre à éviter
12:25
the opticallyoptiquement reinforcedrenforcé odorodeur.
287
730000
2000
l'odeur optiquement renforcée.
12:27
Here'sVoici what happenedarrivé in two instancesinstances:
288
732000
3000
Voici ce qui est arrivé dans deux cas.
12:30
We're comparingcomparant two strainssouches of fliesmouches,
289
735000
3000
Nous comparons deux espèces de mouches,
12:33
eachchaque of them havingayant
290
738000
2000
chacune ayant
12:35
about 100 light-addressablelumière-adressable cellscellules in theirleur brainscerveaux,
291
740000
2000
environ 100 cellules sensibles à la lumière dans leurs cerveaux,
12:37
shownmontré here in greenvert on the left and on the right.
292
742000
3000
montrées ici en vert à gauche et à droite.
12:40
What's commoncommun amongparmi these groupsgroupes of cellscellules
293
745000
3000
Ce qui est commun parmi ces groupes de cellules
12:43
is that they all produceproduire the neurotransmitterneurotransmetteur dopaminedopamine.
294
748000
3000
c'est qu'ils produisent tous le neurotransmetteur dopamine.
12:46
But the identitiesidentités of the individualindividuel
295
751000
2000
Mais les identités des neurones individuels
12:48
dopamine-producingproductrices de dopamine neuronsneurones
296
753000
2000
produisant la dopamine
12:50
are clearlyclairement largelyen grande partie differentdifférent on the left and on the right.
297
755000
3000
sont clairement très différentes à gauche et à droite.
12:53
OpticallyOptiquement activatingactiver
298
758000
2000
Activer optiquement
12:55
these hundredcent or so cellscellules
299
760000
2000
cette centaine de cellules ou presque
12:57
into two strainssouches of fliesmouches
300
762000
2000
dans deux espèces de mouches,
12:59
has dramaticallydramatiquement differentdifférent consequencesconséquences.
301
764000
2000
a des conséquences radicalement différentes.
13:01
If you look first at the behaviorcomportement
302
766000
2000
Si vous regardez d'abord le comportement
13:03
of the flymouche on the right,
303
768000
2000
de la mouche sur la droite,
13:05
you can see that whenevern'importe quand it reachesatteint the midpointpoint médian of the chamberchambre
304
770000
3000
vous pouvez voir que chaque fois qu'elle atteint le milieu de la chambre
13:08
where the two odorsodeurs meetrencontrer,
305
773000
2000
où les deux odeurs se rencontrent,
13:10
it marchesmarches straighttout droit throughpar, as it did before.
306
775000
3000
elle marche tout droit à travers comme elle le faisait auparavant.
13:13
Its behaviorcomportement is completelycomplètement unchangedinchangé.
307
778000
2000
Son comportement est complètement inchangé.
13:15
But the behaviorcomportement of the flymouche on the left is very differentdifférent.
308
780000
3000
Mais le comportement de la mouche à gauche est très différent.
13:18
WheneverChaque fois que it comesvient up to the midpointpoint médian,
309
783000
3000
Chaque fois qu'elle s'approche du milieu,
13:21
it pausespauses,
310
786000
2000
elle fait une pause,
13:23
it carefullysoigneusement scansscans the odorodeur interfaceinterface
311
788000
2000
elle parcourt soigneusement l'interface d'odeur,
13:25
as if it was sniffingreniflant out its environmentenvironnement,
312
790000
2000
comme si elle flairait son environnement,
13:27
and then it turnsse tourne around.
313
792000
2000
et ensuite fait demi-tour.
13:29
This meansveux dire that the policypolitique that the ActorActeur implementsimplémente
314
794000
3000
Cela signifie que la politique que l'Acteur met en oeuvre
13:32
now includesinclut an instructioninstruction to avoidéviter the odorodeur
315
797000
2000
inclut désormais une instruction pour éviter l'odeur
13:34
that's in the right halfmoitié of the chamberchambre.
316
799000
3000
qui est dans la moitié droite de la chambre.
13:37
This meansveux dire that the CriticCritique
317
802000
2000
Cela signifie que le Critique
13:39
mustdoit have spokenparlé in that animalanimal,
318
804000
2000
s'est exprimé dans cet animal,
13:41
and that the CriticCritique mustdoit be containedcontenu
319
806000
2000
et que le Critique doit être contenu
13:43
amongparmi the dopamine-producingproductrices de dopamine neuronsneurones on the left,
320
808000
3000
parmi les neurones produisant la dopamine à gauche,
13:46
but not amongparmi the dopaminedopamine producingproduisant neuronsneurones on the right.
321
811000
3000
mais pas parmi les neurones produisant la dopamine à droite.
13:49
ThroughPar le biais manybeaucoup suchtel experimentsexpériences,
322
814000
3000
Grâce à beaucoup d'expériences similaires,
13:52
we were ablecapable to narrowétroit down
323
817000
2000
nous avons pu définir clairement
13:54
the identityidentité of the CriticCritique
324
819000
2000
l'identité du Critique
13:56
to just 12 cellscellules.
325
821000
2000
à seulement 12 cellules.
13:58
These 12 cellscellules, as shownmontré here in greenvert,
326
823000
3000
Ces 12 cellules, comme indiquées ici en vert,
14:01
sendenvoyer the outputsortie to a braincerveau structurestructure
327
826000
2000
elles envoient la production à une structure cérébrale
14:03
calledappelé the "mushroomchampignon bodycorps,"
328
828000
2000
appelé le corps pédonculé,
14:05
whichlequel is shownmontré here in graygris.
329
830000
2000
qui est ici en gris.
14:07
We know from our formalformel modelmaquette
330
832000
2000
Nous savons de par notre modèle formel
14:09
that the braincerveau structurestructure
331
834000
2000
que la structure du cerveau
14:11
at the receivingrecevoir endfin of the Critic'sDe critique commentarycommentaire is the ActorActeur.
332
836000
3000
à la réception du commentaire du Critique est l'Acteur.
14:14
So this anatomyanatomie suggestssuggère
333
839000
2000
Ainsi cette anatomie suggère
14:16
that the mushroomchampignon bodiescorps have something to do
334
841000
3000
que les corps pédonculés ont un rapport
14:19
with actionaction choicechoix.
335
844000
2000
avec le choix d'action.
14:21
BasedSelon on everything we know about the mushroomchampignon bodiescorps,
336
846000
2000
Basé sur tout ce que nous savons sur les corps pédonculés,
14:23
this makesfait du perfectparfait sensesens.
337
848000
2000
c'est parfaitement clair.
14:25
In factfait, it makesfait du so much sensesens
338
850000
2000
En fait, c'est si clair,
14:27
that we can constructconstruction an electronicélectronique toyjouet circuitcircuit
339
852000
3000
que nous pouvons construire un circuit de jouet électronique
14:30
that simulatessimule the behaviorcomportement of the flymouche.
340
855000
3000
qui simule le comportement de la mouche.
14:33
In this electronicélectronique toyjouet circuitcircuit,
341
858000
3000
Dans ce circuit de jouet électronique,
14:36
the mushroomchampignon bodycorps neuronsneurones are symbolizedsymbolisé
342
861000
2000
les neurones du corps pédonculé sont symbolisés
14:38
by the verticalverticale bankbanque of bluebleu LEDsLEDs
343
863000
3000
par la banque verticale de LED bleues
14:41
in the centercentre of the boardplanche.
344
866000
3000
au centre du plateau.
14:44
These LED'sDe LED are wiredcâblé to sensorscapteurs
345
869000
2000
Ces LED sont raccordées à des capteurs
14:46
that detectdétecter the presenceprésence of odorousodorant moleculesmolécules in the airair.
346
871000
3000
qui détectent la présence de molécules odorantes dans l'air.
14:50
EachChaque odorodeur activatesActive a differentdifférent combinationcombinaison of sensorscapteurs,
347
875000
3000
Chaque odeur active une combinaison différente de capteurs,
14:53
whichlequel in turntour activatesActive
348
878000
2000
qui à leur tour activent
14:55
a differentdifférent odorodeur detectordétecteur in the mushroomchampignon bodycorps.
349
880000
3000
un détecteur d'odeur différent dans le corps pédonculé.
14:58
So the pilotpilote in the cockpitcockpit of the flymouche,
350
883000
2000
Ainsi le pilote dans la cabine de la mouche,
15:00
the ActorActeur,
351
885000
2000
l'Acteur,
15:02
can tell whichlequel odorodeur is presentprésent
352
887000
2000
peut dire que l'odeur est présente
15:04
simplysimplement by looking at whichlequel of the bluebleu LEDsLEDs lightslumières up.
353
889000
4000
simplement en regardant laquelle des LED bleues s'allument.
15:09
What the ActorActeur does with this informationinformation
354
894000
2000
Ce que l'Acteur fait avec ces informations
15:11
dependsdépend on its policypolitique,
355
896000
2000
dépend de sa politique,
15:13
whichlequel is storedstockés in the strengthspoints forts of the connectionconnexion,
356
898000
2000
qui est stockée dans les forces de connexion,
15:15
betweenentre the odorodeur detectorsdétecteurs de
357
900000
2000
entre les détecteurs d'odeur
15:17
and the motorsmoteurs
358
902000
2000
et les moteurs
15:19
that powerPuissance the fly'smouche evasiveévasives actionsactes.
359
904000
2000
qui font fonctionner les actions d'évasion de la mouche.
15:22
If the connectionconnexion is weakfaible, the motorsmoteurs will stayrester off
360
907000
2000
Si la connexion est faible, les moteurs resteront à l'arrêt
15:24
and the flymouche will continuecontinuer straighttout droit on its coursecours.
361
909000
3000
et la mouche continuera directement sa course.
15:27
If the connectionconnexion is strongfort, the motorsmoteurs will turntour on
362
912000
3000
Si la connexion est forte,
15:30
and the flymouche will initiateinitier a turntour.
363
915000
3000
les moteurs initieront un virage.
15:33
Now considerconsidérer a situationsituation
364
918000
2000
Considérez maintenant une situation
15:35
in whichlequel the motorsmoteurs stayrester off,
365
920000
2000
dans laquelle les moteurs restent à l'arrêt,
15:37
the flymouche continuescontinue on its pathchemin
366
922000
3000
la mouche continue son chemin
15:40
and it sufferssouffre some painfuldouloureux consequenceconséquence
367
925000
2000
et subit quelques conséquences douloureuses
15:42
suchtel as gettingobtenir zappedzappé.
368
927000
2000
comme être électrocutée.
15:44
In a situationsituation like this,
369
929000
2000
Dans une situation comme celle-ci,
15:46
we would expectattendre the CriticCritique to speakparler up
370
931000
2000
nous nous attendrions à ce que le Critique prenne la parole
15:48
and to tell the ActorActeur
371
933000
2000
et dise à l'Acteur
15:50
to changechangement its policypolitique.
372
935000
2000
de changer sa politique.
15:52
We have createdcréé suchtel a situationsituation, artificiallyartificiellement,
373
937000
3000
Nous avons créé une telle situation artificiellement
15:55
by turningtournant on the criticcritique with a flashflash of lightlumière.
374
940000
3000
en activant le Critique avec un flash de lumière.
15:58
That causedcausé a strengtheningrenforcement of the connectionsles liaisons
375
943000
3000
Cela a causé un renforcement des connexions
16:01
betweenentre the currentlyactuellement activeactif odorodeur detectordétecteur
376
946000
3000
entre le détecteur d'odeur actuellement actif
16:04
and the motorsmoteurs.
377
949000
2000
et les moteurs.
16:06
So the nextprochain time
378
951000
2000
Ainsi la prochaine fois
16:08
the flymouche findstrouve itselfse facingorienté vers the sameMême odorodeur again,
379
953000
3000
si la mouche est confrontée à la même odeur à nouveau,
16:11
the connectionconnexion is strongfort enoughassez to turntour on the motorsmoteurs
380
956000
3000
la connexion sera assez forte pour allumer les moteurs
16:14
and to triggergâchette an evasiveévasives maneuvermanœuvre.
381
959000
3000
et déclencher une manoeuvre d'évasion.
16:19
I don't know about you,
382
964000
3000
Je ne sais pas pour vous,
16:22
but I find it exhilaratinggrisante to see
383
967000
3000
mais je le trouve très exaltant de voir
16:25
how vaguevague psychologicalpsychologique notionsnotions
384
970000
3000
comment de vagues notions psychologiques
16:28
evaporates’évaporer and give riseaugmenter
385
973000
2000
s'évaporent et débouchent
16:30
to a physicalphysique, mechanisticmécaniste understandingcompréhension of the mindesprit,
386
975000
3000
sur une compréhension physique, mécanistique de l'esprit,
16:33
even if it's the mindesprit of the flymouche.
387
978000
3000
même si c'est l'esprit de la mouche.
16:36
This is one piecepièce of good newsnouvelles.
388
981000
3000
C'est une très bonne nouvelle.
16:39
The other piecepièce of good newsnouvelles,
389
984000
2000
Une autre bonne nouvelle,
16:41
for a scientistscientifique at leastmoins,
390
986000
2000
pour un scientifique du moins,
16:43
is that much remainsrestes to be discovereddécouvert.
391
988000
3000
est qu'il en reste autant à découvrir.
16:46
In the experimentsexpériences I told you about,
392
991000
2000
Dans les expériences dont je vous ai parlé,
16:48
we have liftedlevé the identityidentité of the CriticCritique,
393
993000
3000
nous avons levé l'identité du Critique,
16:51
but we still have no ideaidée
394
996000
2000
mais nous n'avons toujours aucune idée
16:53
how the CriticCritique does its jobemploi.
395
998000
2000
de comment le Critique fait son travail.
16:55
Come to think of it, knowingconnaissance when you're wrongfaux
396
1000000
2000
Réfléchir à cela, sachant quand vous avez tort
16:57
withoutsans pour autant a teacherprof, or your mothermère, tellingrécit you,
397
1002000
3000
sans qu'un professeur, ou votre mère ne vous le dise,
17:00
is a very harddifficile problemproblème.
398
1005000
2000
est un problème très difficile.
17:02
There are some ideasidées in computerordinateur sciencescience
399
1007000
2000
Il y a quelques idées en informatique
17:04
and in artificialartificiel intelligenceintelligence
400
1009000
2000
et dans l'intelligence artificielle
17:06
as to how this mightpourrait be doneterminé,
401
1011000
2000
sur comment cela pourrait être fait,
17:08
but we still haven'tn'a pas solvedrésolu
402
1013000
2000
mais nous n'avons toujours pas résolu
17:10
a singleunique exampleExemple
403
1015000
2000
un seul exemple
17:12
of how intelligentintelligent behaviorcomportement
404
1017000
3000
de comment le comportement intelligent
17:15
springsressorts from the physicalphysique interactionsinteractions
405
1020000
2000
découle des interactions physiques
17:17
in livingvivant mattermatière.
406
1022000
2000
dans la matière vivante.
17:19
I think we'llbien get there in the not too distantloin futureavenir.
407
1024000
3000
Je pense que nous y arriverons dans un future proche.
17:22
Thank you.
408
1027000
2000
Merci.
17:24
(ApplauseApplaudissements)
409
1029000
4000
(Applaudissements)
Translated by Fabienne Brenet
Reviewed by Els De Keyser

▲Back to top

ABOUT THE SPEAKER
Gero Miesenboeck - Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior.

Why you should listen

Gero Miesenboeck is pioneering the field of optogenetics: genetically modifying nerve cells to respond to light. By flashing light at a modified neuron in a living nervous system, Miesenboeck and his collaborators can mimic a brain impulse -- and then study what happens next. Optogenetics will allow ever more precise experiments on living brains, allowing us to gather better evidence on how electrical impulses on tissue translate into actual behavior and thoughts.

In one experiment, done at Yale, he and his team engineered fruit flies to be light-sensitive in the neural area responsible for escape response. Then the flies were beheaded; fruit flies can live for a day without their heads, but they don't move. When the modified cells were flashed with light, though, the headless flies flew. Miesenboeck had successfully simulated an order from a brain that wasn't even there anymore.

Miesenboeck's current research at Oxford's growing department of neurobiology focuses on the nerve cell networks that underpin what animals perceive, remember and do. In one recent experiment, he used optogenetics to implant an unpleasant memory in a fruit fly, causing it to "remember" to avoid a certain odor as it traveled around. He and his team were able, in fact, to find the fly's specific 12-neuron brain circuit that govern memory formation.

More profile about the speaker
Gero Miesenboeck | Speaker | TED.com