ABOUT THE SPEAKER
Danny Hillis - Computer theorist
Inventor, scientist, author, engineer -- over his broad career, Danny Hillis has turned his ever-searching brain on an array of subjects, with surprising results.

Why you should listen

Danny Hillis is an inventor, scientist, author and engineer. While completing his doctorate at MIT, he pioneered the concept of parallel computers that is now the basis for graphics processors and cloud computing. He holds more than 300 US patents, covering parallel computers, disk arrays, forgery prevention methods, various electronic and mechanical devices, and the pinch-to-zoom display interface. He has recently been working on problems in medicine as well. He is also the designer of a 10,000-year mechanical clock, and he gave a TED Talk in 1994 that is practically prophetic. Throughout his career, Hillis has worked at places like Disney, and now MIT and Applied Invention, always looking for the next fascinating problem.

More profile about the speaker
Danny Hillis | Speaker | TED.com
TED1994

Danny Hillis: Back to the future (of 1994)

Danny Hillis : retour vers le futur (de 1994)

Filmed:
686,810 views

Des profondeurs des archives de TED, Danny Hillis donne les grandes lignes d'une théorie du pourquoi et du comment le changement technologique semble s'accélérer, en le liant à l'évolution de la vie-même. Les techniques de présentation qu'il emploie peuvent paraitre démodées, mais les idées sont plus pertinentes que jamais.
- Computer theorist
Inventor, scientist, author, engineer -- over his broad career, Danny Hillis has turned his ever-searching brain on an array of subjects, with surprising results. Full bio

Double-click the English transcript below to play the video.

00:15
Because I usuallyd'habitude take the rolerôle
0
0
3000
Parce que j'ai l'habitude d'assumer le rôle
00:18
of tryingen essayant to explainExplique to people
1
3000
2000
d'essayer d'expliquer aux gens
00:20
how wonderfulformidable the newNouveau technologiesles technologies
2
5000
3000
comme les nouvelles technologies
00:23
that are comingvenir alongle long de are going to be,
3
8000
2000
qui se profilent vont être merveilleuses,
00:25
and I thought that, sincedepuis I was amongparmi friendscopains here,
4
10000
3000
je me suis dit que puisque nous étions entre amis ici,
00:28
I would tell you what I really think
5
13000
4000
je vous dirais ce que je pense vraiment
00:32
and try to look back and try to understandcomprendre
6
17000
2000
et j'essaierais de faire le bilan et de comprendre
00:34
what is really going on here
7
19000
3000
ce qui se passe vraiment ici
00:37
with these amazingincroyable jumpssaute in technologyLa technologie
8
22000
5000
avec ces sauts technologiques étonnants
00:42
that seemsembler so fastvite that we can barelyà peine keep on topHaut of it.
9
27000
3000
qui semblent si rapides que nous avons peine à les suivre.
00:45
So I'm going to startdébut out
10
30000
2000
Je vais donc commencer
00:47
by showingmontrer just one very boringennuyeuse technologyLa technologie slidefaire glisser.
11
32000
3000
en vous montrant une diapo très ennuyeuse sur la technologie.
00:50
And then, so if you can just turntour on the slidefaire glisser that's on.
12
35000
3000
Et ensuite, si on peut juste afficher la diapo.
00:56
This is just a randomau hasard slidefaire glisser
13
41000
2000
C'est une diapo prise au hasard
00:58
that I pickedchoisi out of my filefichier.
14
43000
2000
dans mes dossiers.
01:00
What I want to showmontrer you is not so much the detailsdétails of the slidefaire glisser,
15
45000
3000
Ce que je veux montrer, ce ne sont pas tant les détails de la diapo,
01:03
but the generalgénéral formforme of it.
16
48000
2000
mais sa forme générale.
01:05
This happensarrive to be a slidefaire glisser of some analysisune analyse that we were doing
17
50000
3000
C'est en fait une diapo d'une analyse que nous sommes en train de faire
01:08
about the powerPuissance of RISCRISC microprocessorsmicroprocesseurs
18
53000
3000
de la puissance des processeurs RISC
01:11
versuscontre the powerPuissance of locallocal arearégion networksréseaux.
19
56000
3000
par rapport à la puissance des réseaux locaux.
01:14
And the interestingintéressant thing about it
20
59000
2000
Et ce qui est intéressant ici
01:16
is that this slidefaire glisser,
21
61000
2000
c'est que cette diapo,
01:18
like so manybeaucoup technologyLa technologie slidesglisse that we're used to,
22
63000
3000
comme tant de diapos sur la technologie auxquelles nous sommes habitués,
01:21
is a sortTrier of a straighttout droit lineligne
23
66000
2000
est une sorte de ligne droite
01:23
on a semi-logsemi-log curvecourbe.
24
68000
2000
sur une courbe semi-logarithmique.
01:25
In other wordsmots, everychaque stepétape here
25
70000
2000
En d'autres termes, chaque étape ici
01:27
representsreprésente an ordercommande of magnitudeordre de grandeur
26
72000
2000
représente un ordre de grandeur
01:29
in performanceperformance scaleéchelle.
27
74000
2000
sur une échelle de performance.
01:31
And this is a newNouveau thing
28
76000
2000
Et c'est nouveau
01:33
that we talk about technologyLa technologie
29
78000
2000
que nous parlions de technologie
01:35
on semi-logsemi-log curvescourbes.
30
80000
2000
sur des courbes semi-logarithmiques.
01:37
Something really weirdbizarre is going on here.
31
82000
2000
Une chose très étrange se passe ici.
01:39
And that's basicallyen gros what I'm going to be talkingparlant about.
32
84000
3000
Et c'est en gros ce dont je vais vous parler.
01:42
So, if you could bringapporter up the lightslumières.
33
87000
3000
Alors si on pouvait allumer.
01:47
If you could bringapporter up the lightslumières higherplus haute,
34
92000
2000
Si on pouvait rallumer un peu la lumière,
01:49
because I'm just going to use a piecepièce of paperpapier here.
35
94000
3000
parce que je vais utiliser un morceau de papier ici.
01:52
Now why do we drawdessiner technologyLa technologie curvescourbes
36
97000
2000
Pourquoi dessinons-nous des courbes de technologie
01:54
in semi-logsemi-log curvescourbes?
37
99000
2000
sous forme de courbes semi-logarithmiques ?
01:56
Well the answerrépondre is, if I drewa dessiné it on a normalnormal curvecourbe
38
101000
3000
La réponse est que si, si je traçais ça sur une courbe normale
01:59
where, let's say, this is yearsannées,
39
104000
2000
où, disons, là ce sont les années,
02:01
this is time of some sortTrier,
40
106000
2000
là c'est un temps quelconque,
02:03
and this is whateverpeu importe measuremesure of the technologyLa technologie
41
108000
3000
et ça c'est ce qui donne la mesure de la technologie
02:06
that I'm tryingen essayant to graphgraphique,
42
111000
3000
que j'essaye de traduire par une courbe,
02:09
the graphsgraphiques look sortTrier of sillyidiot.
43
114000
3000
les graphiques ont l'air un peu ridicule.
02:12
They sortTrier of go like this.
44
117000
3000
Ils font comme ça.
02:15
And they don't tell us much.
45
120000
3000
Et ils n'en disent pas beaucoup.
02:18
Now if I graphgraphique, for instanceexemple,
46
123000
3000
Si je fais une courbe par exemple,
02:21
some other technologyLa technologie, say transportationtransport technologyLa technologie,
47
126000
2000
d'une autre technologie, disons la technologie des transports,
02:23
on a semi-logsemi-log curvecourbe,
48
128000
2000
sur une courbe semi-logarithmique,
02:25
it would look very stupidstupide, it would look like a flatappartement lineligne.
49
130000
3000
ça aurait l'air stupide, ça ressemblerait à une ligne plate.
02:28
But when something like this happensarrive,
50
133000
2000
Mais quand quelque chose comme ça arrive,
02:30
things are qualitativelypoint de vue qualitatif changingen changeant.
51
135000
2000
les choses changent en qualité.
02:32
So if transportationtransport technologyLa technologie
52
137000
2000
Alors si la technologie des transports
02:34
was movingen mouvement alongle long de as fastvite as microprocessormicroprocesseur technologyLa technologie,
53
139000
3000
avançait aussi vite que la technologie des microprocesseurs,
02:37
then the day after tomorrowdemain,
54
142000
2000
alors après-demain,
02:39
I would be ablecapable to get in a taxiTaxi cabtaxi
55
144000
2000
je pourrais monter dans un taxi
02:41
and be in TokyoTokyo in 30 secondssecondes.
56
146000
2000
et être à Tokyo en 30 secondes.
02:43
It's not movingen mouvement like that.
57
148000
2000
Ça n'avance pas comme ça.
02:45
And there's nothing precedentedprécédents
58
150000
2000
Et il n'y a eu aucun précédent
02:47
in the historyhistoire of technologyLa technologie developmentdéveloppement
59
152000
2000
dans l'histoire du développement des technologies
02:49
of this kindgentil of self-feedingalimentation automatique growthcroissance
60
154000
2000
similaire à cette croissance autoalimentée
02:51
where you go by ordersordres of magnitudeordre de grandeur everychaque fewpeu yearsannées.
61
156000
3000
où l'on avance par ordre de magnitude avec un pas de quelques années.
02:54
Now the questionquestion that I'd like to askdemander is,
62
159000
3000
Et la question que j'aimerais poser est,
02:57
if you look at these exponentialexponentiel curvescourbes,
63
162000
3000
si vous regardez ces courbes exponentielles,
03:00
they don't go on foreverpour toujours.
64
165000
3000
elles ne continuent pas indéfiniment.
03:03
Things just can't possiblypeut-être keep changingen changeant
65
168000
3000
Les choses ne peuvent pas continuer à changer
03:06
as fastvite as they are.
66
171000
2000
aussi vite qu'elles le font.
03:08
One of two things is going to happense produire.
67
173000
3000
Deux choses peuvent se passer.
03:11
EitherOu l’autre it's going to turntour into a sortTrier of classicalclassique S-curveCourbe en S like this,
68
176000
4000
Soit ça va devenir une courbe classique en forme de S comme celle-ci,
03:15
untiljusqu'à something totallytotalement differentdifférent comesvient alongle long de,
69
180000
4000
jusqu'à ce que quelque chose de complètement différent arrive,
03:19
or maybe it's going to do this.
70
184000
2000
ou peut-être que ça va faire ça.
03:21
That's about all it can do.
71
186000
2000
C'est tout ce que ça peut faire en gros.
03:23
Now I'm an optimistoptimiste,
72
188000
2000
Et je suis optimiste,
03:25
so I sortTrier of think it's probablyProbablement going to do something like that.
73
190000
3000
alors je pense que ça va probablement faire quelque chose comme ça.
03:28
If so, that meansveux dire that what we're in the middlemilieu of right now
74
193000
3000
Dans ce cas, ça veut dire que nous sommes en ce moment
03:31
is a transitiontransition.
75
196000
2000
en pleine période de transition.
03:33
We're sortTrier of on this lineligne
76
198000
2000
Nous sommes sur cette ligne
03:35
in a transitiontransition from the way the worldmonde used to be
77
200000
2000
dans une transition entre le monde comme il était avant
03:37
to some newNouveau way that the worldmonde is.
78
202000
3000
et un genre de nouvel état du monde.
03:40
And so what I'm tryingen essayant to askdemander, what I've been askingdemandant myselfmoi même,
79
205000
3000
Et donc la question que j'essaye de poser, que je me suis posé,
03:43
is what's this newNouveau way that the worldmonde is?
80
208000
3000
est quel est ce nouvel état du monde ?
03:46
What's that newNouveau stateEtat that the worldmonde is headingtitre towardvers?
81
211000
3000
Quel est ce nouvel état vers lequel le monde se dirige ?
03:49
Because the transitiontransition seemssemble very, very confusingdéroutant
82
214000
3000
Parce que la transition semble très, très confuse
03:52
when we're right in the middlemilieu of it.
83
217000
2000
quand on est en plein dedans.
03:54
Now when I was a kidenfant growingcroissance up,
84
219000
3000
Quand j'étais enfant, en grandissant,
03:57
the futureavenir was kindgentil of the yearan 2000,
85
222000
3000
le futur c'était en gros l'an 2000,
04:00
and people used to talk about what would happense produire in the yearan 2000.
86
225000
4000
et les gens parlaient de ce qui se passerait en l'an 2000.
04:04
Now here'svoici a conferenceconférence
87
229000
2000
Voici une conférence
04:06
in whichlequel people talk about the futureavenir,
88
231000
2000
au cours de laquelle les gens parlent du futur,
04:08
and you noticeremarquer that the futureavenir is still at about the yearan 2000.
89
233000
3000
et vous remarquez que le futur est toujours vers l'an 2000.
04:11
It's about as farloin as we go out.
90
236000
2000
C'est le plus loin que nous puissions aller.
04:13
So in other wordsmots, the futureavenir has kindgentil of been shrinkingcontraction
91
238000
3000
En d'autres termes, le futur a rétréci
04:16
one yearan perpar yearan
92
241000
3000
une année par an
04:19
for my wholeentier lifetimedurée de vie.
93
244000
3000
toute ma vie.
04:22
Now I think that the reasonraison
94
247000
2000
Je pense que la raison
04:24
is because we all feel
95
249000
2000
en est que nous avons tous l'impression
04:26
that something'scertaines choses happeningévénement there.
96
251000
2000
qu'il se passe quelque chose ici.
04:28
That transitiontransition is happeningévénement. We can all sensesens it.
97
253000
2000
Cette transition est en cours. Nous le sentons.
04:30
And we know that it just doesn't make too much sensesens
98
255000
2000
Et nous savons que ça n'a pas de sens
04:32
to think out 30, 50 yearsannées
99
257000
2000
de penser à dans 30, 50 ans
04:34
because everything'stout est going to be so differentdifférent
100
259000
3000
parce que tout sera si différent
04:37
that a simplesimple extrapolationextrapolation of what we're doing
101
262000
2000
qu'une simple extrapolation de ce que nous faisons
04:39
just doesn't make any sensesens at all.
102
264000
3000
n'a tout simplement pas de sens.
04:42
So what I would like to talk about
103
267000
2000
Alors ce dont j'aimerais parler
04:44
is what that could be,
104
269000
2000
c'est de ce que ça pourrait être,
04:46
what that transitiontransition could be that we're going throughpar.
105
271000
3000
ce que pourrait être cette transition que nous traversons.
04:49
Now in ordercommande to do that
106
274000
3000
Et pour ce faire,
04:52
I'm going to have to talk about a bunchbouquet of stuffdes trucs
107
277000
2000
je vais devoir parler d'un tas de trucs
04:54
that really has nothing to do
108
279000
2000
qui n'ont rien à voir
04:56
with technologyLa technologie and computersdes ordinateurs.
109
281000
2000
avec la technologie et les ordinateurs.
04:58
Because I think the only way to understandcomprendre this
110
283000
2000
Parce que je pense que la seule façon de comprendre ça
05:00
is to really stepétape back
111
285000
2000
est de vraiment prendre du recul
05:02
and take a long time scaleéchelle look at things.
112
287000
2000
et de regarder les choses sur une longue échelle de temps.
05:04
So the time scaleéchelle that I would like to look at this on
113
289000
3000
Alors l'échelle de temps sur laquelle je voudrais regarder ça
05:07
is the time scaleéchelle of life on EarthTerre.
114
292000
3000
est l'échelle de temps de la vie sur Terre.
05:13
So I think this picturephoto makesfait du sensesens
115
298000
2000
Je pense que cette image a du sens
05:15
if you look at it a fewpeu billionmilliard yearsannées at a time.
116
300000
4000
si vous la regardez quelques milliards d'années à la fois.
05:19
So if you go back
117
304000
2000
Alors si vous remontez en arrière
05:21
about two and a halfmoitié billionmilliard yearsannées,
118
306000
2000
d'environ deux milliards et demi d'années,
05:23
the EarthTerre was this biggros, sterilestérile hunkHunk of rockRoche
119
308000
3000
la Terre était ce gros caillou stérile
05:26
with a lot of chemicalsproduits chimiques floatingflottant around on it.
120
311000
3000
avec beaucoup de composants chimiques qui flottaient tout autour.
05:29
And if you look at the way
121
314000
2000
Et si vous regardez la façon
05:31
that the chemicalsproduits chimiques got organizedorganisé,
122
316000
2000
dont les composants chimiques se sont organisés,
05:33
we begincommencer to get a prettyjoli good ideaidée of how they do it.
123
318000
3000
nous commençons à en avoir une assez bonne idée.
05:36
And I think that there's theoriesthéories that are beginningdébut to understandcomprendre
124
321000
3000
Et je pense qu'il y a des théories qui commencent à comprendre
05:39
about how it startedcommencé with RNAARN,
125
324000
2000
comment tout a commencé avec l'ARN,
05:41
but I'm going to tell a sortTrier of simplesimple storyrécit of it,
126
326000
3000
mais je vais en raconter une version simple,
05:44
whichlequel is that, at that time,
127
329000
2000
et c'est qu’à l'époque,
05:46
there were little dropsgouttes of oilpétrole floatingflottant around
128
331000
3000
il y avait de petites gouttes d'huile qui flottaient
05:49
with all kindssortes of differentdifférent recipesrecettes of chemicalsproduits chimiques in them.
129
334000
3000
avec toutes sortes de recettes de composants chimiques à l'intérieur.
05:52
And some of those dropsgouttes of oilpétrole
130
337000
2000
Et certaines de ces gouttes d'huile
05:54
had a particularparticulier combinationcombinaison of chemicalsproduits chimiques in them
131
339000
2000
contenaient une combinaison particulière de composants chimiques
05:56
whichlequel causedcausé them to incorporateincorporer chemicalsproduits chimiques from the outsideà l'extérieur
132
341000
3000
qui leur a fait incorporer des composants chimiques de l'extérieur
05:59
and growcroître the dropsgouttes of oilpétrole.
133
344000
3000
et les a fait grossir.
06:02
And those that were like that
134
347000
2000
Et celles qui étaient comme ça
06:04
startedcommencé to splitDivisé and dividediviser.
135
349000
2000
ont commencé à se fendre et à se diviser.
06:06
And those were the mostles plus primitiveprimitif formsformes of cellscellules in a sensesens,
136
351000
3000
Et dans un sens, c'étaient les formes les plus primitives de cellules,
06:09
those little dropsgouttes of oilpétrole.
137
354000
2000
ces petites gouttes d'huile.
06:11
But now those dropsgouttes of oilpétrole weren'tn'étaient pas really alivevivant, as we say it now,
138
356000
3000
Mais maintenant ces gouttes d'huile n'étaient pas vraiment vivantes, comme nous l'entendons maintenant.
06:14
because everychaque one of them
139
359000
2000
parce que chacune d'entre elles
06:16
was a little randomau hasard reciperecette of chemicalsproduits chimiques.
140
361000
2000
était une recette de composants chimiques assemblés au hasard.
06:18
And everychaque time it divideddivisé,
141
363000
2000
Et chaque fois qu'elles se divisaient,
06:20
they got sortTrier of unequalinégal divisiondivision
142
365000
3000
c'était une division inégale
06:23
of the chemicalsproduits chimiques withindans them.
143
368000
2000
de ces composants chimiques qu'elles contenaient.
06:25
And so everychaque droplaissez tomber was a little bitbit differentdifférent.
144
370000
3000
Et donc chaque goutte était un peu différente.
06:28
In factfait, the dropsgouttes that were differentdifférent in a way
145
373000
2000
En fait, les gouttes qui étaient différentes
06:30
that causedcausé them to be better
146
375000
2000
d'une manière qui les faisaient mieux
06:32
at incorporatingincorporation chemicalsproduits chimiques around them,
147
377000
2000
incorporer les composants chimiques qui les entouraient,
06:34
grewgrandi more and incorporatedincorporé more chemicalsproduits chimiques and divideddivisé more.
148
379000
3000
grossir encore et incorporer plus de composants chimiques et se diviser plus.
06:37
So those tendedtendance to livevivre longerplus long,
149
382000
2000
Alors celles-là avaient tendance à vivre plus longtemps
06:39
get expressedexprimé more.
150
384000
3000
et s'exprimer plus.
06:42
Now that's sortTrier of just a very simplesimple
151
387000
3000
Ce n'est qu'une forme de vie chimique
06:45
chemicalchimique formforme of life,
152
390000
2000
très simple,
06:47
but when things got interestingintéressant
153
392000
3000
mais quand les choses sont devenues intéressantes
06:50
was when these dropsgouttes
154
395000
2000
c'est quand ces gouttes
06:52
learnedappris a tricktour about abstractionabstraction.
155
397000
3000
ont appris un truc à propos de l'abstraction.
06:55
SomehowEn quelque sorte by waysfaçons that we don't quiteassez understandcomprendre,
156
400000
3000
Par des moyens que nous ne comprenons pas vraiment,
06:58
these little dropsgouttes learnedappris to writeécrire down informationinformation.
157
403000
3000
ces petites gouttes ont appris à écrire des informations.
07:01
They learnedappris to recordrecord the informationinformation
158
406000
2000
Elles ont appris à enregistrer les informations
07:03
that was the reciperecette of the cellcellule
159
408000
2000
qui composaient la recette de la cellule
07:05
ontosur a particularparticulier kindgentil of chemicalchimique
160
410000
2000
sur une sorte particulière de composant chimique
07:07
calledappelé DNAADN.
161
412000
2000
appelé ADN.
07:09
So in other wordsmots, they workedtravaillé out,
162
414000
2000
Donc en d'autres termes, elles ont compris,
07:11
in this mindlessMindless sortTrier of evolutionaryévolutionniste way,
163
416000
3000
de cette manière évolutionniste dans esprit,
07:14
a formforme of writingl'écriture that let them writeécrire down what they were,
164
419000
3000
une forme d'écriture qui leur permettait d'écrire ce qu'elles étaient.
07:17
so that that way of writingl'écriture it down could get copiedcopié.
165
422000
3000
pour que cette manière d'écrire puisse être copiée.
07:20
The amazingincroyable thing is that that way of writingl'écriture
166
425000
3000
Ce qui est stupéfiant est que cette manière d'écrire
07:23
seemssemble to have stayedséjourné steadystable
167
428000
2000
semblent être restée stable
07:25
sincedepuis it evolvedévolué two and a halfmoitié billionmilliard yearsannées agodepuis.
168
430000
2000
depuis qu'elle a évolué il y a deux milliards et demi d'années.
07:27
In factfait the reciperecette for us, our genesgènes,
169
432000
3000
En fait la recette pour nous faire, nous, nos gènes,
07:30
is exactlyexactement that sameMême codecode and that sameMême way of writingl'écriture.
170
435000
3000
est exactement le même code et la même manière d'écrire.
07:33
In factfait, everychaque livingvivant creaturecréature is writtenécrit
171
438000
3000
En fait, chaque créature vivante est écrite
07:36
in exactlyexactement the sameMême setensemble of lettersdes lettres and the sameMême codecode.
172
441000
2000
avec exactement les mêmes lettres et le même code.
07:38
In factfait, one of the things that I did
173
443000
2000
En fait, une des choses que j'ai faites
07:40
just for amusementamusement purposesfins
174
445000
2000
dans le seul but de m'amuser
07:42
is we can now writeécrire things in this codecode.
175
447000
2000
est que nous pouvons maintenant écrire des choses avec ce code.
07:44
And I've got here a little 100 microgramsmicrogrammes of whiteblanc powderpoudre,
176
449000
6000
Et j'ai ici 100 microgrammes de poudre blanche,
07:50
whichlequel I try not to let the securitySécurité people see at airportsaéroports.
177
455000
4000
que j'essaye de dissimuler aux services de sécurité des aéroports.
07:54
(LaughterRires)
178
459000
2000
(Rires)
07:56
But this has in it --
179
461000
2000
Mais elle contient --
07:58
what I did is I tooka pris this codecode --
180
463000
2000
ce que j'ai fait, c'est que j'ai pris ce code --
08:00
the codecode has standardla norme lettersdes lettres that we use for symbolizingsymbolisant it --
181
465000
3000
le code a des lettres standards que nous employons pour le symboliser --
08:03
and I wrotea écrit my businessEntreprise cardcarte ontosur a piecepièce of DNAADN
182
468000
3000
et j'ai écrit ma carte de visite sur un bout d'ADN
08:06
and amplifiedamplifié it 10 to the 22 timesfois.
183
471000
3000
et je l'ai amplifié de 10 à 22 fois.
08:09
So if anyonen'importe qui would like a hundredcent millionmillion copiescopies of my businessEntreprise cardcarte,
184
474000
3000
Alors si quelqu'un veut un million de copies de ma carte de visite,
08:12
I have plentybeaucoup for everyonetoutes les personnes in the roomchambre,
185
477000
2000
j'en ai plein pour tout le monde dans cette salle,
08:14
and, in factfait, everyonetoutes les personnes in the worldmonde,
186
479000
2000
et en fait, pour tout le monde sur cette planète.
08:16
and it's right here.
187
481000
3000
Et tout est là.
08:19
(LaughterRires)
188
484000
5000
(Rires)
08:26
If I had really been a egotistégotiste,
189
491000
2000
Si j'avais été un prétentieux,
08:28
I would have put it into a virusvirus and releasedlibéré it in the roomchambre.
190
493000
3000
je l'aurais mis dans un virus et je l'aurais lâché dans la salle.
08:31
(LaughterRires)
191
496000
5000
(Rires)
08:39
So what was the nextprochain stepétape?
192
504000
2000
Alors quelle est l'étape suivante ?
08:41
WritingÉcriture down the DNAADN was an interestingintéressant stepétape.
193
506000
2000
Ecrire l'ADN était une étape intéressante.
08:43
And that causedcausé these cellscellules --
194
508000
2000
Et elle a fait que les cellules --
08:45
that keptconservé them happycontent for anotherun autre billionmilliard yearsannées.
195
510000
2000
ça les a rendus heureuses pendant un milliard d'années de plus.
08:47
But then there was anotherun autre really interestingintéressant stepétape
196
512000
2000
Mais il y a eu une autre étape intéressante
08:49
where things becamedevenu completelycomplètement differentdifférent,
197
514000
3000
où les choses sont devenues complètement différentes,
08:52
whichlequel is these cellscellules startedcommencé exchangingéchanger des and communicatingcommunicant informationinformation,
198
517000
3000
et c'est que ces cellules ont commencé à échanger et à communiquer des informations
08:55
so that they begana commencé to get communitiescommunautés of cellscellules.
199
520000
2000
de sorte qu'elles ont commencé à avoir des communautés de cellules.
08:57
I don't know if you know this,
200
522000
2000
Je ne sais pas si vous le savez,
08:59
but bacteriades bactéries can actuallyréellement exchangeéchange DNAADN.
201
524000
2000
mais les bactéries peuvent en fait échanger de l'ADN.
09:01
Now that's why, for instanceexemple,
202
526000
2000
Et c'est pourquoi, par exemple,
09:03
antibioticantibiotique resistancela résistance has evolvedévolué.
203
528000
2000
la résistance aux antibiotiques a évolué.
09:05
Some bacteriades bactéries figuredfiguré out how to stayrester away from penicillinpénicilline,
204
530000
3000
Une bactérie a compris comment rester à l'écart de la pénicilline,
09:08
and it wentest allé around sortTrier of creatingcréer its little DNAADN informationinformation
205
533000
3000
et elle a créé ses informations d'ADN
09:11
with other bacteriades bactéries,
206
536000
2000
avec d'autres bactéries,
09:13
and now we have a lot of bacteriades bactéries that are resistantrésistant to penicillinpénicilline,
207
538000
3000
et nous avons maintenant un grand nombre de bactéries résistantes à la pénicilline,
09:16
because bacteriades bactéries communicatecommuniquer.
208
541000
2000
parce que les bactéries communiquent.
09:18
Now what this communicationla communication allowedpermis
209
543000
2000
Maintenant, ce que cette communication a permis
09:20
was communitiescommunautés to formforme
210
545000
2000
c'est la formation de communautés
09:22
that, in some sensesens, were in the sameMême boatbateau togetherensemble;
211
547000
2000
qui, dans un certain sens, étaient dans le même bateau ;
09:24
they were synergisticsynergique.
212
549000
2000
elles étaient synergiques.
09:26
So they survivedsurvécu
213
551000
2000
Elles ont donc survécu
09:28
or they failedéchoué togetherensemble,
214
553000
2000
ou échoué ensemble,
09:30
whichlequel meansveux dire that if a communitycommunauté was very successfulréussi,
215
555000
2000
ce qui signifie que si une communauté avait très bien réussi,
09:32
all the individualspersonnes in that communitycommunauté
216
557000
2000
tous les individus de cette communauté
09:34
were repeatedrépété more
217
559000
2000
étaient plus répétés
09:36
and they were favoredfavorisée by evolutionévolution.
218
561000
3000
et plus favorisés par l'évolution.
09:39
Now the transitiontransition pointpoint happenedarrivé
219
564000
2000
Le point de transition qui s'est produit
09:41
when these communitiescommunautés got so closeFermer
220
566000
2000
lorsque ces communautés ont été si proches
09:43
that, in factfait, they got togetherensemble
221
568000
2000
qu'en fait, elles se sont réunies
09:45
and decideddécidé to writeécrire down the wholeentier reciperecette for the communitycommunauté
222
570000
3000
et ont décidé d'écrire la recette entière pour la communauté
09:48
togetherensemble on one stringchaîne of DNAADN.
223
573000
3000
ensemble sur une chaîne d'ADN.
09:51
And so the nextprochain stageétape that's interestingintéressant in life
224
576000
2000
Et la prochaine étape qui est intéressante dans la vie
09:53
tooka pris about anotherun autre billionmilliard yearsannées.
225
578000
2000
a pris un autre milliard d'années.
09:55
And at that stageétape,
226
580000
2000
Et à ce stade,
09:57
we have multi-cellularmulti-cellulaire communitiescommunautés,
227
582000
2000
nous avons des communautés multicellulaires,
09:59
communitiescommunautés of lots of differentdifférent typesles types of cellscellules,
228
584000
2000
des communautés de beaucoup de différents types de cellules,
10:01
workingtravail togetherensemble as a singleunique organismorganisme.
229
586000
2000
qui travaillent ensemble comme un seul organisme.
10:03
And in factfait, we're suchtel a multi-cellularmulti-cellulaire communitycommunauté.
230
588000
3000
Et en fait, nous sommes une de ces communautés multicellulaires.
10:06
We have lots of cellscellules
231
591000
2000
Nous avons beaucoup de cellules
10:08
that are not out for themselvesse anymoreplus.
232
593000
2000
qui ne sont plus indépendantes.
10:10
Your skinpeau cellcellule is really uselessinutile
233
595000
3000
La cellule de votre peau est vraiment inutile
10:13
withoutsans pour autant a heartcœur cellcellule, musclemuscle cellcellule,
234
598000
2000
sans une cellule du cœur, une cellule de muscle,
10:15
a braincerveau cellcellule and so on.
235
600000
2000
une cellule de cerveau et ainsi de suite.
10:17
So these communitiescommunautés begana commencé to evolveévoluer
236
602000
2000
Ainsi, ces communautés ont commencé à évoluer
10:19
so that the interestingintéressant levelniveau on whichlequel evolutionévolution was takingprise placeendroit
237
604000
3000
de sorte que le niveau intéressant auquel se déroulait l'évolution
10:22
was no longerplus long a cellcellule,
238
607000
2000
n'était plus une cellule,
10:24
but a communitycommunauté whichlequel we call an organismorganisme.
239
609000
3000
mais une communauté que nous appelons un organisme.
10:28
Now the nextprochain stepétape that happenedarrivé
240
613000
2000
Et la prochaine étape s'est produite
10:30
is withindans these communitiescommunautés.
241
615000
2000
au sein de ces communautés.
10:32
These communitiescommunautés of cellscellules,
242
617000
2000
Ces communautés de cellules,
10:34
again, begana commencé to abstractabstrait informationinformation.
243
619000
2000
encore une fois, ont commencé à abstraire l'information.
10:36
And they begana commencé buildingbâtiment very specialspécial structuresles structures
244
621000
3000
Et elles ont commencé à construire des structures très particulières
10:39
that did nothing but processprocessus informationinformation withindans the communitycommunauté.
245
624000
3000
qui ne faisaient rien d'autre que traiter l'information au sein de la communauté.
10:42
And those are the neuralneural structuresles structures.
246
627000
2000
Et ce sont les structures neurales.
10:44
So neuronsneurones are the informationinformation processingEn traitement apparatusappareil
247
629000
3000
Les neurones sont donc l'appareil de traitement d'informations
10:47
that those communitiescommunautés of cellscellules builtconstruit up.
248
632000
3000
que ces communautés de cellules ont construit.
10:50
And in factfait, they begana commencé to get specialistsspécialistes in the communitycommunauté
249
635000
2000
Et en fait, elles ont commencé à avoir des spécialistes dans la communauté
10:52
and specialspécial structuresles structures
250
637000
2000
et des structures spéciales
10:54
that were responsibleresponsable for recordingenregistrement,
251
639000
2000
qui étaient responsables de l'enregistrement,
10:56
understandingcompréhension, learningapprentissage informationinformation.
252
641000
3000
la compréhension, et l'apprentissage d'informations.
10:59
And that was the brainscerveaux and the nervousnerveux systemsystème
253
644000
2000
Et c'étaient le cerveau et le système nerveux
11:01
of those communitiescommunautés.
254
646000
2000
de ces communautés.
11:03
And that gavea donné them an evolutionaryévolutionniste advantageavantage.
255
648000
2000
Et ça leur a donné un avantage évolutif.
11:05
Because at that pointpoint,
256
650000
3000
Parce qu'à ce moment-là,
11:08
an individualindividuel --
257
653000
3000
un individu --
11:11
learningapprentissage could happense produire
258
656000
2000
l'apprentissage pouvait se produire
11:13
withindans the time spanenvergure of a singleunique organismorganisme,
259
658000
2000
dans le laps de temps d'un organisme unique,
11:15
insteadau lieu of over this evolutionaryévolutionniste time spanenvergure.
260
660000
3000
plutôt que sur ce laps de temps évolutionnaire.
11:18
So an organismorganisme could, for instanceexemple,
261
663000
2000
Donc, un organisme pourrait, par exemple,
11:20
learnapprendre not to eatmanger a certaincertain kindgentil of fruitfruit
262
665000
2000
apprendre à ne pas manger un certain type de fruits
11:22
because it tastedgoûté badmal and it got sickmalade last time it atea mangé it.
263
667000
4000
car il avait mauvais goût et qu'il est tombé malade la dernière fois qu'il en a mangé.
11:26
That could happense produire withindans the lifetimedurée de vie of a singleunique organismorganisme,
264
671000
3000
Cela pouvait se produire au cours de la vie d'un organisme unique,
11:29
whereastandis que before they'dils auraient builtconstruit these specialspécial informationinformation processingEn traitement structuresles structures,
265
674000
4000
alors qu'auparavant elles avaient développé ces structures spéciales de traitement de l'information,
11:33
that would have had to be learnedappris evolutionarilyévolutionnaires
266
678000
2000
qui aurait dû être appris de manière évolutive
11:35
over hundredsdes centaines of thousandsmilliers of yearsannées
267
680000
3000
sur des centaines de milliers d'années
11:38
by the individualspersonnes dyingen train de mourir off that atea mangé that kindgentil of fruitfruit.
268
683000
3000
par les individus qui meurent d'avoir mangé ce genre de fruit.
11:41
So that nervousnerveux systemsystème,
269
686000
2000
Alors ce système nerveux,
11:43
the factfait that they builtconstruit these specialspécial informationinformation structuresles structures,
270
688000
3000
le fait qu'elles ont construit ces structures spéciales d'information,
11:46
tremendouslyénormément spedSped up the wholeentier processprocessus of evolutionévolution.
271
691000
3000
a énormément accéléré tout le processus d'évolution.
11:49
Because evolutionévolution could now happense produire withindans an individualindividuel.
272
694000
3000
Parce que l'évolution pouvait maintenant se produire dans un individu.
11:52
It could happense produire in learningapprentissage time scalesBalance.
273
697000
3000
Elle pouvait se produire dans des échelles de temps d'apprentissage
11:55
But then what happenedarrivé
274
700000
2000
Mais alors ce qui s'est passé
11:57
was the individualspersonnes workedtravaillé out,
275
702000
2000
c'est que les individus ont trouvé,
11:59
of coursecours, tricksdes trucs of communicatingcommunicant.
276
704000
2000
bien sûr, des astuces de communication.
12:01
And for exampleExemple,
277
706000
2000
Et par exemple,
12:03
the mostles plus sophisticatedsophistiqué versionversion that we're awareconscient of is humanHumain languagela langue.
278
708000
3000
la version la plus sophistiquée que nous connaissions est le langage humain.
12:06
It's really a prettyjoli amazingincroyable inventioninvention if you think about it.
279
711000
3000
C'est vraiment une invention assez incroyable, si vous y réfléchissez.
12:09
Here I have a very complicatedcompliqué, messydésordonné,
280
714000
2000
Ici, j'ai une idée très compliquée, très brouillon,
12:11
confusedconfus ideaidée in my headtête.
281
716000
3000
très confuse dans ma tête.
12:14
I'm sittingséance here makingfabrication gruntinggrognement soundsdes sons basicallyen gros,
282
719000
3000
Je suis assis ici à pousser des grognements essentiellement,
12:17
and hopefullyj'espère constructingconstruire a similarsimilaire messydésordonné, confusedconfus ideaidée in your headtête
283
722000
3000
et avec un peu de chance à construire une idée brouillon et confuse dans votre tête
12:20
that bearsours some analogyanalogie to it.
284
725000
2000
qui lui ressemble un peu.
12:22
But we're takingprise something very complicatedcompliqué,
285
727000
2000
Mais nous prenons quelque chose de très compliqué,
12:24
turningtournant it into sounddu son, sequencesséquences of soundsdes sons,
286
729000
3000
nous le transformons en son, en des séquences de son,
12:27
and producingproduisant something very complicatedcompliqué in your braincerveau.
287
732000
4000
et nous produisons quelque chose de très compliqué dans votre cerveau.
12:31
So this allowspermet us now
288
736000
2000
Donc, ce qui nous permet maintenant
12:33
to begincommencer to startdébut functioningfonctionnement
289
738000
2000
de commencer à commencer à fonctionner
12:35
as a singleunique organismorganisme.
290
740000
3000
comme un organisme unique.
12:38
And so, in factfait, what we'venous avons doneterminé
291
743000
3000
Et oui, en fait, ce que nous avons fait
12:41
is we, humanityhumanité,
292
746000
2000
c'est que nous, l'humanité,
12:43
have startedcommencé abstractingfaisant abstraction out.
293
748000
2000
avons commencé à abstraire.
12:45
We're going throughpar the sameMême levelsles niveaux
294
750000
2000
Nous passions par les mêmes niveaux
12:47
that multi-cellularmulti-cellulaire organismsorganismes have gonedisparu throughpar --
295
752000
2000
par lesquels sont passés les organismes multicellulaires --
12:49
abstractingfaisant abstraction out our methodsméthodes of recordingenregistrement,
296
754000
3000
en faisant l'abstraction sur nos méthodes d'enregistrement,
12:52
presentingen présentant, processingEn traitement informationinformation.
297
757000
2000
en présentant, en traitant les informations.
12:54
So for exampleExemple, the inventioninvention of languagela langue
298
759000
2000
Ainsi, par exemple, l'invention du langage
12:56
was a tinyminuscule stepétape in that directiondirection.
299
761000
3000
était un petit pas dans cette direction.
12:59
TelephonyTéléphonie, computersdes ordinateurs,
300
764000
2000
La téléphonie, les ordinateurs,
13:01
videotapescassettes vidéo, CD-ROMsCD-Roms and so on
301
766000
3000
les cassettes vidéo, les CD-ROM et ainsi de suite
13:04
are all our specializedspécialisé mechanismsmécanismes
302
769000
2000
sont tous nos mécanismes spécialisés
13:06
that we'venous avons now builtconstruit withindans our societysociété
303
771000
2000
que nous avons maintenant construit au sein de notre société
13:08
for handlingmanipulation that informationinformation.
304
773000
2000
pour le traitement de ces informations.
13:10
And it all connectsse connecte us togetherensemble
305
775000
3000
Et ça nous relie tous ensemble
13:13
into something
306
778000
2000
en quelque chose
13:15
that is much biggerplus gros
307
780000
2000
qui est beaucoup plus grand
13:17
and much fasterPlus vite
308
782000
2000
et beaucoup plus rapide
13:19
and ablecapable to evolveévoluer
309
784000
2000
et capable d'évoluer
13:21
than what we were before.
310
786000
2000
que ce que nous étions avant.
13:23
So now, evolutionévolution can take placeendroit
311
788000
2000
Alors maintenant, l'évolution peut avoir lieu
13:25
on a scaleéchelle of microsecondsmicrosecondes.
312
790000
2000
sur une échelle de microsecondes.
13:27
And you saw Ty'sDe Ty little evolutionaryévolutionniste exampleExemple
313
792000
2000
Et vous avez vu le petit exemple évolutionnaire de Ty
13:29
where he sortTrier of did a little bitbit of evolutionévolution
314
794000
2000
où il a fait une sorte de petite évolution
13:31
on the ConvolutionConvolution programprogramme right before your eyesles yeux.
315
796000
3000
sur le programme de convolution juste devant vos yeux.
13:34
So now we'venous avons speededaccéléré up the time scalesBalance onceune fois que again.
316
799000
3000
Alors, nous avons accéléré les échelles de temps une fois de plus.
13:37
So the first stepspas of the storyrécit that I told you about
317
802000
2000
Ainsi, les premières étapes de l'histoire dont je vous ai parlé
13:39
tooka pris a billionmilliard yearsannées a piecepièce.
318
804000
2000
ont pris un milliard d'années chacune.
13:41
And the nextprochain stepspas,
319
806000
2000
Et les étapes suivantes,
13:43
like nervousnerveux systemssystèmes and brainscerveaux,
320
808000
2000
comme les systèmes nerveux et les cerveaux,
13:45
tooka pris a fewpeu hundredcent millionmillion yearsannées.
321
810000
2000
ont pris une centaine de millions d'années.
13:47
Then the nextprochain stepspas, like languagela langue and so on,
322
812000
3000
Ensuite, les étapes suivantes, comme le langage et ainsi de suite,
13:50
tooka pris lessMoins than a millionmillion yearsannées.
323
815000
2000
ont pris moins d'un million d'années.
13:52
And these nextprochain stepspas, like electronicsélectronique,
324
817000
2000
Et ces étapes suivantes, comme l'électronique,
13:54
seemsembler to be takingprise only a fewpeu decadesdécennies.
325
819000
2000
semblent prendre seulement quelques décennies.
13:56
The processprocessus is feedingalimentation on itselfse
326
821000
2000
Le processus se nourrit de lui-même
13:58
and becomingdevenir, I guessdeviner, autocatalyticautocatalytique is the wordmot for it --
327
823000
3000
et devient, je suppose, auto-catalytique, c'est le mot qui convient -
14:01
when something reinforcesrenforce its ratetaux of changechangement.
328
826000
3000
quand quelque chose renforce son taux de variation.
14:04
The more it changeschangements, the fasterPlus vite it changeschangements.
329
829000
3000
Plus il change, plus vite il change.
14:07
And I think that that's what we're seeingvoyant here in this explosionexplosion of curvecourbe.
330
832000
3000
Et je pense que c'est ce que nous voyons ici dans cette explosion de la courbe.
14:10
We're seeingvoyant this processprocessus feedingalimentation back on itselfse.
331
835000
3000
Nous voyons ce processus qui s'autoalimente.
14:13
Now I designconception computersdes ordinateurs for a livingvivant,
332
838000
3000
Concevoir des ordinateurs, c'est mon métier,
14:16
and I know that the mechanismsmécanismes
333
841000
2000
et je sais que les mécanismes
14:18
that I use to designconception computersdes ordinateurs
334
843000
3000
que j'utilise pour concevoir des ordinateurs
14:21
would be impossibleimpossible
335
846000
2000
seraient impossible
14:23
withoutsans pour autant recentrécent advancesavances in computersdes ordinateurs.
336
848000
2000
sans les progrès récents en informatique.
14:25
So right now, what I do
337
850000
2000
Donc en ce moment, ce que je fais
14:27
is I designconception objectsobjets at suchtel complexitycomplexité
338
852000
3000
c'est concevoir des objets d'une telle complexité
14:30
that it's really impossibleimpossible for me to designconception them in the traditionaltraditionnel sensesens.
339
855000
3000
que ça m'est vraiment impossible de les concevoir au sens traditionnel du terme.
14:33
I don't know what everychaque transistortransistor in the connectionconnexion machinemachine does.
340
858000
4000
Je ne sais pas ce que fait chaque transistor dans la machine de connexion.
14:37
There are billionsdes milliards of them.
341
862000
2000
Il y en a des milliards.
14:39
InsteadAu lieu de cela, what I do
342
864000
2000
Au lieu de cela, ce que je fais
14:41
and what the designersconcepteurs at ThinkingPensée MachinesMachines do
343
866000
3000
et ce que les concepteurs de Thinking Machines font
14:44
is we think at some levelniveau of abstractionabstraction
344
869000
2000
est que nous pensons à un certain niveau d'abstraction
14:46
and then we handmain it to the machinemachine
345
871000
2000
puis nous le remettons à la machine
14:48
and the machinemachine takes it beyondau-delà what we could ever do,
346
873000
3000
et la machine l'amène au-delà de ce que nous ne pourrions jamais faire,
14:51
much fartherplus loin and fasterPlus vite than we could ever do.
347
876000
3000
beaucoup plus loin et plus vite que nous ne pourrions jamais le faire.
14:54
And in factfait, sometimesparfois it takes it by methodsméthodes
348
879000
2000
Et en fait, parfois elle le fait par des méthodes
14:56
that we don't quiteassez even understandcomprendre.
349
881000
3000
que nous ne comprenons pas tout à fait.
14:59
One methodméthode that's particularlyparticulièrement interestingintéressant
350
884000
2000
Une méthode qui est particulièrement intéressante
15:01
that I've been usingen utilisant a lot latelydernièrement
351
886000
3000
que j'ai beaucoup utilisée ces derniers temps
15:04
is evolutionévolution itselfse.
352
889000
2000
est l'évolution même.
15:06
So what we do
353
891000
2000
Donc, ce que nous faisons
15:08
is we put insideà l'intérieur the machinemachine
354
893000
2000
est que nous mettons dans la machine
15:10
a processprocessus of evolutionévolution
355
895000
2000
un processus d'évolution
15:12
that takes placeendroit on the microsecondmicroseconde time scaleéchelle.
356
897000
2000
qui prend place sur l'échelle de temps en microsecondes.
15:14
So for exampleExemple,
357
899000
2000
Ainsi, par exemple,
15:16
in the mostles plus extremeextrême casescas,
358
901000
2000
dans les cas les plus extrêmes,
15:18
we can actuallyréellement evolveévoluer a programprogramme
359
903000
2000
nous pouvons vraiment faire évoluer un programme
15:20
by startingdépart out with randomau hasard sequencesséquences of instructionsinstructions.
360
905000
4000
en démarrant avec des séquences aléatoires d'instructions.
15:24
Say, "ComputerOrdinateur, would you please make
361
909000
2000
Disons: « Ordinateur, veux-tu s'il te plait créer
15:26
a hundredcent millionmillion randomau hasard sequencesséquences of instructionsinstructions.
362
911000
3000
une centaine de millions de séquences aléatoires d'instructions.
15:29
Now would you please runcourir all of those randomau hasard sequencesséquences of instructionsinstructions,
363
914000
3000
Maintenant veux-tu bien s'il te plait exécuter ces séquences aléatoires d'instructions,
15:32
runcourir all of those programsprogrammes,
364
917000
2000
exécuter tous ces programmes,
15:34
and pickchoisir out the onesceux that camevenu closestle plus proche to doing what I wanted."
365
919000
3000
et choisir ceux qui étaient les plus proches de faire ce que je voulais. »
15:37
So in other wordsmots, I definedéfinir what I wanted.
366
922000
2000
Donc, en d'autres termes, je définis ce que je voulais.
15:39
Let's say I want to sortTrier numbersNombres,
367
924000
2000
Disons que je veux trier des chiffres,
15:41
as a simplesimple exampleExemple I've doneterminé it with.
368
926000
2000
comme un exemple simple de ce avec quoi je l'ai fait.
15:43
So find the programsprogrammes that come closestle plus proche to sortingtri numbersNombres.
369
928000
3000
Donc, trouver les programmes qui se rapprochent du tri de chiffres.
15:46
So of coursecours, randomau hasard sequencesséquences of instructionsinstructions
370
931000
3000
Alors bien sûr, des séquences aléatoires d'instructions
15:49
are very unlikelyimprobable to sortTrier numbersNombres,
371
934000
2000
ne vont vraisemblablement pas trier des chiffres,
15:51
so noneaucun of them will really do it.
372
936000
2000
et aucune d'entre elles ne le fera vraiment.
15:53
But one of them, by luckla chance,
373
938000
2000
Mais l'une d'elle, par chance,
15:55
maymai put two numbersNombres in the right ordercommande.
374
940000
2000
peut mettre deux chiffres dans le bon ordre.
15:57
And I say, "ComputerOrdinateur,
375
942000
2000
Et je dis, « Ordinateur,
15:59
would you please now take the 10 percentpour cent
376
944000
3000
veux-tu s'il te plait prendre maintenant les 10 %
16:02
of those randomau hasard sequencesséquences that did the bestmeilleur jobemploi.
377
947000
2000
de ces séquences aléatoires qui ont fait le meilleur travail.
16:04
SaveEnregistrer those. KillTuer off the restdu repos.
378
949000
2000
Enregistre-les. Élimine le reste.
16:06
And now let's reproducereproduire
379
951000
2000
Et maintenant, reproduisons
16:08
the onesceux that sortedtrié numbersNombres the bestmeilleur.
380
953000
2000
celles qui ont le mieux trié les chiffres.
16:10
And let's reproducereproduire them by a processprocessus of recombinationrecombinaison
381
955000
3000
Et reproduisons-les par un processus de recombinaison
16:13
analogousanalogue to sexsexe."
382
958000
2000
analogue aux rapports sexuels. »
16:15
Take two programsprogrammes and they produceproduire childrenles enfants
383
960000
3000
Prenez deux programmes, et ils produisent des enfants
16:18
by exchangingéchanger des theirleur subroutinessous-programmes,
384
963000
2000
en échangeant leurs sous-programmes,
16:20
and the childrenles enfants inherithéritent the traitstraits of the subroutinessous-programmes of the two programsprogrammes.
385
965000
3000
et les enfants héritent des traits des sous-routines des deux programmes.
16:23
So I've got now a newNouveau generationgénération of programsprogrammes
386
968000
3000
Donc j'ai maintenant une nouvelle génération de programmes
16:26
that are producedproduit by combinationscombinaisons
387
971000
2000
qui sont produites par des combinaisons
16:28
of the programsprogrammes that did a little bitbit better jobemploi.
388
973000
2000
des programmes qui ont fait un travail un peu meilleur.
16:30
Say, "Please repeatrépéter that processprocessus."
389
975000
2000
Disons : « S'il te plait répète ce processus. »
16:32
ScoreScore them again.
390
977000
2000
Tiens le compte à nouveau.
16:34
IntroduceMettre en place some mutationsmutations perhapspeut être.
391
979000
2000
Introduis peut-être des mutations.
16:36
And try that again and do that for anotherun autre generationgénération.
392
981000
3000
Et essaye à nouveau de le faire pour une autre génération.
16:39
Well everychaque one of those generationsgénérations just takes a fewpeu millisecondsmillisecondes.
393
984000
3000
Eh bien chacune de ces générations ne prend que quelques millisecondes.
16:42
So I can do the equivalentéquivalent
394
987000
2000
Donc, je peux faire là l'équivalent
16:44
of millionsdes millions of yearsannées of evolutionévolution on that
395
989000
2000
de millions d'années d'évolution
16:46
withindans the computerordinateur in a fewpeu minutesminutes,
396
991000
3000
au sein de l'ordinateur en quelques minutes,
16:49
or in the complicatedcompliqué casescas, in a fewpeu hoursheures.
397
994000
2000
ou dans les cas compliqués, en quelques heures.
16:51
At the endfin of that, I endfin up with programsprogrammes
398
996000
3000
En fin de compte, je me retrouve avec des programmes
16:54
that are absolutelyabsolument perfectparfait at sortingtri numbersNombres.
399
999000
2000
qui sont absolument parfait pour trier des nombres.
16:56
In factfait, they are programsprogrammes that are much more efficientefficace
400
1001000
3000
En fait, ce sont des programmes qui sont beaucoup plus efficaces
16:59
than programsprogrammes I could have ever writtenécrit by handmain.
401
1004000
2000
que les programmes que je n'aurais jamais écrit à la main.
17:01
Now if I look at those programsprogrammes,
402
1006000
2000
Maintenant, si je regarde ces programmes,
17:03
I can't tell you how they work.
403
1008000
2000
Je ne peux pas vous dire comment ils fonctionnent.
17:05
I've trieda essayé looking at them and tellingrécit you how they work.
404
1010000
2000
J'ai essayé de les regarder et de vous dire comment ils fonctionnent.
17:07
They're obscureobscure, weirdbizarre programsprogrammes.
405
1012000
2000
Ce sont des programmes obscurs et bizarres.
17:09
But they do the jobemploi.
406
1014000
2000
Mais ils font le travail.
17:11
And in factfait, I know, I'm very confidentsur de soi that they do the jobemploi
407
1016000
3000
Et en fait, je sais, je suis très confiant dans le fait qu'ils font le travail
17:14
because they come from a lineligne
408
1019000
2000
parce qu'ils viennent d'une ligne
17:16
of hundredsdes centaines of thousandsmilliers of programsprogrammes that did the jobemploi.
409
1021000
2000
de centaines de milliers de programmes qui ont fait le travail.
17:18
In factfait, theirleur life dependeddépendu on doing the jobemploi.
410
1023000
3000
En fait, leur vie en dépendait.
17:21
(LaughterRires)
411
1026000
4000
(Rires)
17:26
I was ridingéquitation in a 747
412
1031000
2000
Un jour, j'étais dans un 747
17:28
with MarvinMarvin MinskyMinsky onceune fois que,
413
1033000
2000
avec Marvin Minsky,
17:30
and he pullstire out this cardcarte and saysdit, "Oh look. Look at this.
414
1035000
3000
et il sort cette carte et dit : « Oh regardez. Regardez ça.
17:33
It saysdit, 'This' Cela planeavion has hundredsdes centaines of thousandsmilliers of tinyminuscule partsles pièces
415
1038000
4000
Il dit : ‘Cet avion a des centaines de milliers de petites pièces
17:37
workingtravail togetherensemble to make you a safesûr flightvol.'
416
1042000
4000
qui travaillent ensemble pour vous assurer un vol en toute sécurité.’
17:41
Doesn't that make you feel confidentsur de soi?"
417
1046000
2000
Cela ne vous met-il pas en confiance ? »
17:43
(LaughterRires)
418
1048000
2000
(Rires)
17:45
In factfait, we know that the engineeringingénierie processprocessus doesn't work very well
419
1050000
3000
En fait, nous savons que le processus d'ingénierie ne fonctionne pas très bien
17:48
when it getsobtient complicatedcompliqué.
420
1053000
2000
quand ça devient compliqué.
17:50
So we're beginningdébut to dependdépendre on computersdes ordinateurs
421
1055000
2000
Donc, nous commençons à dépendre des ordinateurs
17:52
to do a processprocessus that's very differentdifférent than engineeringingénierie.
422
1057000
4000
pour faire un processus qui est très différent de celui de l'ingénierie.
17:56
And it letspermet us produceproduire things of much more complexitycomplexité
423
1061000
3000
Et ça nous permet de produire des choses beaucoup plus complexes
17:59
than normalnormal engineeringingénierie letspermet us produceproduire.
424
1064000
2000
que l'ingénierie normale ne nous le permet.
18:01
And yetencore, we don't quiteassez understandcomprendre the optionsoptions of it.
425
1066000
3000
Et pourtant, nous n'en comprends pas très bien les options.
18:04
So in a sensesens, it's gettingobtenir aheaddevant of us.
426
1069000
2000
Donc dans un sens, il prend de l'avance sur nous.
18:06
We're now usingen utilisant those programsprogrammes
427
1071000
2000
Nous utilisons maintenant ces programmes
18:08
to make much fasterPlus vite computersdes ordinateurs
428
1073000
2000
pour rendre les ordinateurs plus rapides
18:10
so that we'llbien be ablecapable to runcourir this processprocessus much fasterPlus vite.
429
1075000
3000
pour que nous soyons en mesure d'exécuter ce processus beaucoup plus vite.
18:13
So it's feedingalimentation back on itselfse.
430
1078000
3000
Donc, il s'autoalimente.
18:16
The thing is becomingdevenir fasterPlus vite
431
1081000
2000
La chose devient de plus en plus rapide
18:18
and that's why I think it seemssemble so confusingdéroutant.
432
1083000
2000
et c'est pourquoi je pense que ça semble si confus.
18:20
Because all of these technologiesles technologies are feedingalimentation back on themselvesse.
433
1085000
3000
Parce que toutes ces technologies s'autoalimentent
18:23
We're takingprise off.
434
1088000
2000
Nous décollons.
18:25
And what we are is we're at a pointpoint in time
435
1090000
3000
Et ce que nous sommes, c'est que nous sommes à un point dans le temps
18:28
whichlequel is analogousanalogue to when single-celledunicellulaire organismsorganismes
436
1093000
2000
qui est analogue au moment où des organismes unicellulaires
18:30
were turningtournant into multi-celledmulticellulaires organismsorganismes.
437
1095000
3000
se transformait en organismes multicellulaires.
18:33
So we're the amoebasamibes
438
1098000
2000
Donc, nous sommes les amibes
18:35
and we can't quiteassez figurefigure out what the hellenfer this thing is we're creatingcréer.
439
1100000
3000
et nous ne pouvons pas tout à fait comprendre ce qu'est ce truc que nous créons.
18:38
We're right at that pointpoint of transitiontransition.
440
1103000
2000
Nous sommes pile à ce moment de transition.
18:40
But I think that there really is something comingvenir alongle long de after us.
441
1105000
3000
Mais je pense qu'il y a vraiment quelque chose qui vient après nous.
18:43
I think it's very haughtyhautain of us
442
1108000
2000
Je pense que c'est très prétentieux de notre part
18:45
to think that we're the endfin productproduit of evolutionévolution.
443
1110000
3000
de penser que nous sommes le produit final de l'évolution.
18:48
And I think all of us here
444
1113000
2000
Et je pense que nous tous ici
18:50
are a partpartie of producingproduisant
445
1115000
2000
sommes partie prenante dans la production
18:52
whateverpeu importe that nextprochain thing is.
446
1117000
2000
de cette chose, quoi qu'elle soit.
18:54
So lunchle déjeuner is comingvenir alongle long de,
447
1119000
2000
Donc, c'est bientôt l'heure du déjeuner,
18:56
and I think I will stop at that pointpoint,
448
1121000
2000
et je pense que je vais m'arrêter là,
18:58
before I get selectedchoisi out.
449
1123000
2000
avant que l'on m'expulse.
19:00
(ApplauseApplaudissements)
450
1125000
3000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Anna Cristiana Minoli

▲Back to top

ABOUT THE SPEAKER
Danny Hillis - Computer theorist
Inventor, scientist, author, engineer -- over his broad career, Danny Hillis has turned his ever-searching brain on an array of subjects, with surprising results.

Why you should listen

Danny Hillis is an inventor, scientist, author and engineer. While completing his doctorate at MIT, he pioneered the concept of parallel computers that is now the basis for graphics processors and cloud computing. He holds more than 300 US patents, covering parallel computers, disk arrays, forgery prevention methods, various electronic and mechanical devices, and the pinch-to-zoom display interface. He has recently been working on problems in medicine as well. He is also the designer of a 10,000-year mechanical clock, and he gave a TED Talk in 1994 that is practically prophetic. Throughout his career, Hillis has worked at places like Disney, and now MIT and Applied Invention, always looking for the next fascinating problem.

More profile about the speaker
Danny Hillis | Speaker | TED.com