ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin : Comment les algorithmes façonnent notre monde

Filmed:
4,199,898 views

Kevin Slavin affirme que nous vivons dans un monde conçu pour (et de plus en plus contrôlé par) les algorithmes. Dans cette conférence fascinante qu'il a donnée à TEDGlobal, il montre comment ces programmes complexes déterminent les tactiques d'espionnage, le prix des actions, les scénarios de films et l'architecture.. Et il nous met en garde contre le fait que nous écrivons du code que nous ne comprenons pas, avec des implications que nous ne pouvons pas contrôler.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photograph
0
0
2000
Voici une photo
00:17
by the artist Michael Najjar,
1
2000
2000
prise par l'artiste Michael Najjar,
00:19
and it's real,
2
4000
2000
et elle est vraie,
00:21
in the sense that he went there to Argentina
3
6000
2000
dans le sens où il est allé en Argentine
00:23
to take the photo.
4
8000
2000
pour prendre cette photo.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
10000
3000
Mais c'est aussi de la fiction. Il y a eu beaucoup de travail sur cette photo ensuite.
00:28
And what he's done
6
13000
2000
Et ce qu'il a fait
00:30
is he's actually reshaped, digitally,
7
15000
2000
c'est qu'il a en fait redessiné, numériquement,
00:32
all of the contours of the mountains
8
17000
2000
tous les contours des montagnes
00:34
to follow the vicissitudes of the Dow Jones index.
9
19000
3000
pour suivre les vicissitudes du Dow Jones.
00:37
So what you see,
10
22000
2000
Alors ce que vous voyez,
00:39
that precipice, that high precipice with the valley,
11
24000
2000
ce précipice, ce précipice profond avec la vallée,
00:41
is the 2008 financial crisis.
12
26000
2000
c'est la crise financière de 2008.
00:43
The photo was made
13
28000
2000
La photo a été faite
00:45
when we were deep in the valley over there.
14
30000
2000
quand nous étions tout au fond de la vallée là-bas.
00:47
I don't know where we are now.
15
32000
2000
Je ne sais pas où nous sommes maintenant.
00:49
This is the Hang Seng index
16
34000
2000
Voici l'indice Hang Seng
00:51
for Hong Kong.
17
36000
2000
de la bourse de Hong Kong.
00:53
And similar topography.
18
38000
2000
Et une topographie similaire.
00:55
I wonder why.
19
40000
2000
Je me demande pourquoi
00:57
And this is art. This is metaphor.
20
42000
3000
Et c'est de l'art. C'est une métaphore.
01:00
But I think the point is
21
45000
2000
Mais je pense que l'important, c'est
01:02
that this is metaphor with teeth,
22
47000
2000
que c'est une métaphore qui a des dents.
01:04
and it's with those teeth that I want to propose today
23
49000
3000
Et c'est avec ces dents que je veux vous proposer aujourd'hui
01:07
that we rethink a little bit
24
52000
2000
de repenser un peu ensemble
01:09
about the role of contemporary math --
25
54000
3000
au rôle des mathématiques contemporaines,
01:12
not just financial math, but math in general.
26
57000
3000
pas seulement les maths financières, mais les maths en général.
01:15
That its transition
27
60000
2000
Repenser au fait que les maths sont passées
01:17
from being something that we extract and derive from the world
28
62000
3000
de quelque chose qu'on extrait et qu'on dérive du monde
01:20
to something that actually starts to shape it --
29
65000
3000
à quelque chose qui en fait commence à le façonner,
01:23
the world around us and the world inside us.
30
68000
3000
ce monde qui nous entoure et ce monde qui est en nous.
01:26
And it's specifically algorithms,
31
71000
2000
Et il s'agit en particulier des algorithmes,
01:28
which are basically the math
32
73000
2000
qui sont essentiellement les maths
01:30
that computers use to decide stuff.
33
75000
3000
que les ordinateurs utilisent pour prendre des décisions.
01:33
They acquire the sensibility of truth
34
78000
2000
Ils acquièrent le sens de la vérité
01:35
because they repeat over and over again,
35
80000
2000
parce qu'ils recommencent sans cesse.
01:37
and they ossify and calcify,
36
82000
3000
Et il se sclérosent et se calcifient
01:40
and they become real.
37
85000
2000
et deviennent réels.
01:42
And I was thinking about this, of all places,
38
87000
3000
Je réfléchissais à ça dans un endroit improbable,
01:45
on a transatlantic flight a couple of years ago,
39
90000
3000
à bord d'un vol transatlantique il y a deux ans,
01:48
because I happened to be seated
40
93000
2000
parce que je m'étais retrouvé assis à côté
01:50
next to a Hungarian physicist about my age
41
95000
2000
d'un physicien hongrois qui avait à peu près mon âge,
01:52
and we were talking
42
97000
2000
et nous discutions
01:54
about what life was like during the Cold War
43
99000
2000
de ce qu'était la vie des physiciens en Hongrie
01:56
for physicists in Hungary.
44
101000
2000
pendant la guerre froide.
01:58
And I said, "So what were you doing?"
45
103000
2000
Et j'ai dit, "Alors que faisiez-vous ?"
02:00
And he said, "Well we were mostly breaking stealth."
46
105000
2000
Et il a dit, "Et bien la plupart du temps on détruisait les boucliers furtifs.
02:02
And I said, "That's a good job. That's interesting.
47
107000
2000
Et j'ai dit, "C'est bien. C'est intéressant.
02:04
How does that work?"
48
109000
2000
Comment ça marche ?"
02:06
And to understand that,
49
111000
2000
Et pour comprendre ça,
02:08
you have to understand a little bit about how stealth works.
50
113000
3000
il faut comprendre un peu comment fonctionne un bouclier furtif.
02:11
And so -- this is an over-simplification --
51
116000
3000
Et donc, je simplifie à l'extrême,
02:14
but basically, it's not like
52
119000
2000
mais en gros, ce n'est pas
02:16
you can just pass a radar signal
53
121000
2000
comme de faire passer un signal radar
02:18
right through 156 tons of steel in the sky.
54
123000
3000
à travers 156 tonnes d'acier dans le ciel.
02:21
It's not just going to disappear.
55
126000
3000
Ça ne va pas disparaitre.
02:24
But if you can take this big, massive thing,
56
129000
3000
Mais si on peut prendre cette chose énorme,
02:27
and you could turn it into
57
132000
3000
et la transformer
02:30
a million little things --
58
135000
2000
en un million de petites choses,
02:32
something like a flock of birds --
59
137000
2000
comme un vol d'oiseaux par exemple,
02:34
well then the radar that's looking for that
60
139000
2000
alors le radar qui cherche ça
02:36
has to be able to see
61
141000
2000
doit être capable de voir
02:38
every flock of birds in the sky.
62
143000
2000
tous les vols d'oiseaux dans le ciel.
02:40
And if you're a radar, that's a really bad job.
63
145000
4000
Et si vous êtes un radar, c'est vraiment un sacré boulot.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
149000
3000
Et il a dit, "Oui, mais c'est si vous êtes un radar.
02:47
So we didn't use a radar;
65
152000
2000
Alors nous n'avons pas utilisé un radar ;
02:49
we built a black box that was looking for electrical signals,
66
154000
3000
nous avons construit une boite noire qui cherchait des signaux électriques,
02:52
electronic communication.
67
157000
3000
des communications électroniques.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
160000
3000
Et chaque fois que nous voyions un vol d'oiseaux qui avait des communications électroniques,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
163000
3000
on se disait que ça avait un rapport avec les américains."
03:01
And I said, "Yeah.
70
166000
2000
Et j'ai dit, "Oui.
03:03
That's good.
71
168000
2000
C'est bien.
03:05
So you've effectively negated
72
170000
2000
Vous avez donc en réalité réduit à néant
03:07
60 years of aeronautic research.
73
172000
2000
60 ans de recherches aéronautiques.
03:09
What's your act two?
74
174000
2000
Et ensuite, que faites-vous ?
03:11
What do you do when you grow up?"
75
176000
2000
Et quand vous serez grand, vous ferez quoi ?"
03:13
And he said,
76
178000
2000
Il a répondu,
03:15
"Well, financial services."
77
180000
2000
'Des services financiers."
03:17
And I said, "Oh."
78
182000
2000
J'ai dit, "Oh"
03:19
Because those had been in the news lately.
79
184000
3000
Parce qu'on en avait parlé dans les infos récemment.
03:22
And I said, "How does that work?"
80
187000
2000
Et j'ai dit, Comment ça marche?
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
189000
2000
Et il a répondu "Eh bien, il y a actuellement 2000 physiciens à Wall Street"
03:26
and I'm one of them."
82
191000
2000
et j'en fait partie."
03:28
And I said, "What's the black box for Wall Street?"
83
193000
3000
Et j'ai dit, "C'est quoi la boite noire pour Wall Street?"
03:31
And he said, "It's funny you ask that,
84
196000
2000
Et il a répondu, "C'est drôle que vous demandiez ça,
03:33
because it's actually called black box trading.
85
198000
3000
parce que en fait on appelle ça le trading automatique ou black box trading.
03:36
And it's also sometimes called algo trading,
86
201000
2000
On l'appelle aussi parfois algo trading,
03:38
algorithmic trading."
87
203000
3000
trading algorithmique."
03:41
And algorithmic trading evolved in part
88
206000
3000
Et le trading algorithmique a évolué en partie
03:44
because institutional traders have the same problems
89
209000
3000
parce que les traders institutionnels ont les mêmes problèmes
03:47
that the United States Air Force had,
90
212000
3000
qu'avait l'US Air Force,
03:50
which is that they're moving these positions --
91
215000
3000
c'est-à-dire qu'ils changent leur positions,
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
218000
2000
que ce soit Proctor & Gamble ou Accenture, peu importe,
03:55
they're moving a million shares of something
93
220000
2000
ils transfèrent un million d'actions de quelque chose
03:57
through the market.
94
222000
2000
dans le marché.
03:59
And if they do that all at once,
95
224000
2000
Et s'ils font ça d'un seul coup,
04:01
it's like playing poker and going all in right away.
96
226000
2000
c'est comme jouer au poker et tout miser tout de suite.
04:03
You just tip your hand.
97
228000
2000
Vous dévoilez votre jeu.
04:05
And so they have to find a way --
98
230000
2000
Et donc ils doivent trouver une solution,
04:07
and they use algorithms to do this --
99
232000
2000
et pour ça ils utilisent des algoritmes,
04:09
to break up that big thing
100
234000
2000
pour diviser ce gros paquet
04:11
into a million little transactions.
101
236000
2000
en un million de petites transactions.
04:13
And the magic and the horror of that
102
238000
2000
Et ce qui est magique et horrible là-dedans
04:15
is that the same math
103
240000
2000
c'est que les mêmes maths
04:17
that you use to break up the big thing
104
242000
2000
qu'on utilise pour diviser le gros truc
04:19
into a million little things
105
244000
2000
en un million de petits trucs
04:21
can be used to find a million little things
106
246000
2000
peut être utilisé pour trouver un million de petits trucs
04:23
and sew them back together
107
248000
2000
et les réassembler
04:25
and figure out what's actually happening in the market.
108
250000
2000
et comprendre ce qui se passe vraiment dans le marché.
04:27
So if you need to have some image
109
252000
2000
Alors si vous devez vous faire une image
04:29
of what's happening in the stock market right now,
110
254000
3000
de ce qui se passe à la bourse en ce moment,
04:32
what you can picture is a bunch of algorithms
111
257000
2000
ce que vous pouvez visualiser c'est un tas d'algoritmes
04:34
that are basically programmed to hide,
112
259000
3000
essentiellement programmés pour se cacher,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
262000
3000
et un tas algorithmes qui sont programmés pour les trouver et agir.
04:40
And all of that's great, and it's fine.
114
265000
3000
Et tout ça c'est super, et c'est bien.
04:43
And that's 70 percent
115
268000
2000
Et ça représente 70%
04:45
of the United States stock market,
116
270000
2000
de la bourse aux Etats-Unis,
04:47
70 percent of the operating system
117
272000
2000
70% du système opérateur
04:49
formerly known as your pension,
118
274000
3000
qu'on appelait auparavant votre retraite,
04:52
your mortgage.
119
277000
3000
votre hypothèque.
04:55
And what could go wrong?
120
280000
2000
Et qu'est-ce qui pourrait aller de travers?
04:57
What could go wrong
121
282000
2000
Ce qui pourrait aller de travers
04:59
is that a year ago,
122
284000
2000
c'est qu'il y a un an,
05:01
nine percent of the entire market just disappears in five minutes,
123
286000
3000
9% de la totalité du marché a disparu en 5 minutes,
05:04
and they called it the Flash Crash of 2:45.
124
289000
3000
et on a appelé ça le crash flash de 2:45.
05:07
All of a sudden, nine percent just goes away,
125
292000
3000
Tout à coup, 9% disparaissent,
05:10
and nobody to this day
126
295000
2000
et à ce jour personne
05:12
can even agree on what happened
127
297000
2000
n'est d'accord sur ce qui s'est apssé,
05:14
because nobody ordered it, nobody asked for it.
128
299000
3000
parce que personne n'en a donné l'ordre, personne n'a voulu ça.
05:17
Nobody had any control over what was actually happening.
129
302000
3000
Personne n'avait le moindre contrôle sur ce qui se passait vraiment.
05:20
All they had
130
305000
2000
Tout ce qu'ils avaient
05:22
was just a monitor in front of them
131
307000
2000
c'était un écran devant eux
05:24
that had the numbers on it
132
309000
2000
qui affichait des chiffres
05:26
and just a red button
133
311000
2000
et un unique bouton rouge
05:28
that said, "Stop."
134
313000
2000
qui disait, "Stop."
05:30
And that's the thing,
135
315000
2000
Et c'est ça le truc,
05:32
is that we're writing things,
136
317000
2000
c'est que nous écrivons des trucs,
05:34
we're writing these things that we can no longer read.
137
319000
3000
nous écrivons ces trucs que nous ne savons plus lire.
05:37
And we've rendered something
138
322000
2000
Et nous avons rendu quelque chose
05:39
illegible,
139
324000
2000
illisible.
05:41
and we've lost the sense
140
326000
3000
Nous avons perdu le sens
05:44
of what's actually happening
141
329000
2000
de ce qui se passe vraiment
05:46
in this world that we've made.
142
331000
2000
dans le monde que nous avons fabriqué.
05:48
And we're starting to make our way.
143
333000
2000
Et nous commençons à faire notre chemin.
05:50
There's a company in Boston called Nanex,
144
335000
3000
Il y a une compagnie à Boston qui s'appelle Nanex,
05:53
and they use math and magic
145
338000
2000
et ils utilisent les maths et la magie
05:55
and I don't know what,
146
340000
2000
et je ne sais pas quoi d'autre,
05:57
and they reach into all the market data
147
342000
2000
et ils vont chercher toutes les données du marché
05:59
and they find, actually sometimes, some of these algorithms.
148
344000
3000
et ils trouvent, parfois, certains de ces algorithmes.
06:02
And when they find them they pull them out
149
347000
3000
Et quand ils les trouvent, ils les extraient,
06:05
and they pin them to the wall like butterflies.
150
350000
3000
et les épinglent au mur comme des papillons.
06:08
And they do what we've always done
151
353000
2000
Et ils font ce que nous avons toujours fait
06:10
when confronted with huge amounts of data that we don't understand --
152
355000
3000
quand nous sommes confrontés à d'énormes quantités de données
06:13
which is that they give them a name
153
358000
2000
que nous ne comprenons pas, nous leur donnons un nom
06:15
and a story.
154
360000
2000
et une histoire.
06:17
So this is one that they found,
155
362000
2000
En voici un qu'ils ont trouvé,
06:19
they called the Knife,
156
364000
4000
ils l'ont appelé le Couteau,
06:23
the Carnival,
157
368000
2000
le Carnaval,
06:25
the Boston Shuffler,
158
370000
4000
le Jongleur,
06:29
Twilight.
159
374000
2000
Twilight.
06:31
And the gag is
160
376000
2000
Et le gag c'est que
06:33
that, of course, these aren't just running through the market.
161
378000
3000
bien sûr, ils ne se contentent pas de fonctionner pour le marché.
06:36
You can find these kinds of things wherever you look,
162
381000
3000
On trouve ce genre de trucs où qu'on regarde
06:39
once you learn how to look for them.
163
384000
2000
une fois que vous savez comment les trouver.
06:41
You can find it here: this book about flies
164
386000
3000
Vous voyez ça ici : ce livre sur les mouches
06:44
that you may have been looking at on Amazon.
165
389000
2000
que vous avez peut-être cherché sur Amazon.
06:46
You may have noticed it
166
391000
2000
Vous l'avez peut-être remarqué
06:48
when its price started at 1.7 million dollars.
167
393000
2000
quand son prix est monté à 1,7 millions de dollars.
06:50
It's out of print -- still ...
168
395000
2000
Il est épuisé, pourtant ...
06:52
(Laughter)
169
397000
2000
(Rires)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
399000
3000
Si vous l'aviez acheté à 1,7 millions, vous auriez fait une affaire.
06:57
A few hours later, it had gone up
171
402000
2000
Quelques heures plus tard, il était monté
06:59
to 23.6 million dollars,
172
404000
2000
à 23,6 millions de dollars,
07:01
plus shipping and handling.
173
406000
2000
plus le port et l'emballage.
07:03
And the question is:
174
408000
2000
Et la question est :
07:05
Nobody was buying or selling anything; what was happening?
175
410000
2000
Personne n'achetait ni ne vendait rien ; que se passait-il?
07:07
And you see this behavior on Amazon
176
412000
2000
Et vous voyez ce comportement sur AMazon
07:09
as surely as you see it on Wall Street.
177
414000
2000
tout aussi surement que vous le voyez à Wall Street.
07:11
And when you see this kind of behavior,
178
416000
2000
Et quand vous voyez ce genre de comportement,
07:13
what you see is the evidence
179
418000
2000
ce que vous voyez c'est la preuve
07:15
of algorithms in conflict,
180
420000
2000
que des algorithmes sont en conflit,
07:17
algorithms locked in loops with each other,
181
422000
2000
des algorithmes pris mutuellement dans des boucles
07:19
without any human oversight,
182
424000
2000
sans surveillance humaine,
07:21
without any adult supervision
183
426000
3000
sans supervision humaine,
07:24
to say, "Actually, 1.7 million is plenty."
184
429000
3000
pour dire, "En fait, 1,7 million c'est beaucoup."
07:27
(Laughter)
185
432000
3000
(rires)
07:30
And as with Amazon, so it is with Netflix.
186
435000
3000
Il il est arrivé la même chose à Netflix qu'à Amazon.
07:33
And so Netflix has gone through
187
438000
2000
Netflix a eu
07:35
several different algorithms over the years.
188
440000
2000
plusieurs algorithmes différents au fil du temps.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
442000
3000
Ils ont commencé avec Cinematch, et ils en ont essayé un tas d'autres.
07:40
there's Dinosaur Planet; there's Gravity.
190
445000
2000
Dinausaur Planet, Gravity.
07:42
They're using Pragmatic Chaos now.
191
447000
2000
A présent ils utilisent Pragmatic Chaos.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
449000
2000
Pragmatic Chaos, comme tous les algorithmes de Netflix,
07:46
trying to do the same thing.
193
451000
2000
essaye de faire la même chose :
07:48
It's trying to get a grasp on you,
194
453000
2000
Il essaye de vous mettre le grappin dessus,
07:50
on the firmware inside the human skull,
195
455000
2000
sur le firmware à l'intérieur du crâne humain,
07:52
so that it can recommend what movie
196
457000
2000
pour vous recommander quel film
07:54
you might want to watch next --
197
459000
2000
vous pourriez avoir envie de voir ensuite,
07:56
which is a very, very difficult problem.
198
461000
3000
ce qui est un problème très, très difficile.
07:59
But the difficulty of the problem
199
464000
2000
Mais la difficulté du problème
08:01
and the fact that we don't really quite have it down,
200
466000
3000
et le fait que nous ne nous ne l'avons pas vraiment cerné,
08:04
it doesn't take away
201
469000
2000
c'est qu'il n'enlève rien
08:06
from the effects Pragmatic Chaos has.
202
471000
2000
aux effets du Chaos Pragmatique
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
473000
3000
Le Chaos Pragmatique, comme tous les algorithmes de Netflix,
08:11
determines, in the end,
204
476000
2000
détermine, en fin de compte,
08:13
60 percent
205
478000
2000
60%
08:15
of what movies end up being rented.
206
480000
2000
des films qui seront effectivement loués.
08:17
So one piece of code
207
482000
2000
Donc un bout de code
08:19
with one idea about you
208
484000
3000
qui a une idée sur vous
08:22
is responsible for 60 percent of those movies.
209
487000
3000
est responsable de 60 % de ces films.
08:25
But what if you could rate those movies
210
490000
2000
Mais si vous pouviez évaluer ces films
08:27
before they get made?
211
492000
2000
avant qu'ils ne soient tournés?
08:29
Wouldn't that be handy?
212
494000
2000
Ce serait pratique, non?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
496000
3000
Et bien, quelques spécialistes britanniques des données sont à Hollywood,
08:34
and they have "story algorithms" --
214
499000
2000
et ils ont des algorithmes d'histoires,
08:36
a company called Epagogix.
215
501000
2000
une compagnie du nom d'Epagogix.
08:38
And you can run your script through there,
216
503000
3000
Et vous pouvez leur soumettre votre scénario,
08:41
and they can tell you, quantifiably,
217
506000
2000
et ils peuvent vous dire,de façon quantifiable,
08:43
that that's a 30 million dollar movie
218
508000
2000
que c'est un film à 30 millions de dollars
08:45
or a 200 million dollar movie.
219
510000
2000
ou un film à 200 millions de dollars.
08:47
And the thing is, is that this isn't Google.
220
512000
2000
Et le truc, c'est que ce n'est pas Google.
08:49
This isn't information.
221
514000
2000
Ce n'est pas de l'information.
08:51
These aren't financial stats; this is culture.
222
516000
2000
Ce ne sont pas des statistiques financières ; c'est de la culture.
08:53
And what you see here,
223
518000
2000
Et ce que vous voyez ici,
08:55
or what you don't really see normally,
224
520000
2000
ou, plutôt, ce que normalement vous ne voyez pas,
08:57
is that these are the physics of culture.
225
522000
4000
c'est qu'il s'agit de la physique de la culture.
09:01
And if these algorithms,
226
526000
2000
Et si ces algorithmes,
09:03
like the algorithms on Wall Street,
227
528000
2000
comme ceux de Wall Street,
09:05
just crashed one day and went awry,
228
530000
3000
plantent un jour ou deviennent défaillants,
09:08
how would we know?
229
533000
2000
comment le saurons-nous,
09:10
What would it look like?
230
535000
2000
à quoi cela ressemblera-t-il?
09:12
And they're in your house. They're in your house.
231
537000
3000
Et ils sont dans vos maisons.
09:15
These are two algorithms competing for your living room.
232
540000
2000
Voici deux algorithmes se disputant votre salon.
09:17
These are two different cleaning robots
233
542000
2000
Ce sont deux robots nettoyeurs différents
09:19
that have very different ideas about what clean means.
234
544000
3000
qui ont des idées différentes quant au nettoyage.
09:22
And you can see it
235
547000
2000
Et vous pouvez le voir
09:24
if you slow it down and attach lights to them,
236
549000
3000
si vous filmez en ralenti et que vous fixez des lumières dessus.
09:27
and they're sort of like secret architects in your bedroom.
237
552000
3000
Ils sont en quelque sorte les architectes secrets de votre chambre à coucher.
09:30
And the idea that architecture itself
238
555000
3000
Et l'idée que l'architecture même
09:33
is somehow subject to algorithmic optimization
239
558000
2000
est d'une certaine façon sujette à optimisation algorithmique
09:35
is not far-fetched.
240
560000
2000
n'est pas si exagérée.
09:37
It's super-real and it's happening around you.
241
562000
3000
Elle est très réelle et ça se passe autour de vous.
09:40
You feel it most
242
565000
2000
Vous le ressentez le plus
09:42
when you're in a sealed metal box,
243
567000
2000
quand vous êtes dans une boite en métal scellée,
09:44
a new-style elevator;
244
569000
2000
un ascenseur moderne,
09:46
they're called destination-control elevators.
245
571000
2000
on appelle ça des ascenseurs à système de contrôle de destination.
09:48
These are the ones where you have to press what floor you're going to go to
246
573000
3000
Ce sont ceux où vous devez appuyer sur l'étage où vous allez
09:51
before you get in the elevator.
247
576000
2000
avant d'entrer dans l'ascenseur.
09:53
And it uses what's called a bin-packing algorithm.
248
578000
2000
Il utilise ce qu'on appelle un algorithme de conditionnement de boîtes.
09:55
So none of this mishegas
249
580000
2000
Donc rien d'insensé
09:57
of letting everybody go into whatever car they want.
250
582000
2000
comme de laisser chacun entrer dans la cabine de son choix.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
584000
2000
Tous ceux qui veulent aller au 10ème étage montent dans la cabine numéro 2,
10:01
and everybody who wants to go to the third floor goes into car five.
252
586000
3000
et tous ceux qui veulent aller au 3ème étage montent dans la cabine 5.
10:04
And the problem with that
253
589000
2000
Et là, le problème est que
10:06
is that people freak out.
254
591000
2000
les gens flippent.
10:08
People panic.
255
593000
2000
Les gens paniquent.
10:10
And you see why. You see why.
256
595000
2000
Et vous voyez pourquoi.
10:12
It's because the elevator
257
597000
2000
C'est parce qu'il manque à l'ascenseur
10:14
is missing some important instrumentation, like the buttons.
258
599000
3000
un équipement important, les boutons.
10:17
(Laughter)
259
602000
2000
(Rires)
10:19
Like the things that people use.
260
604000
2000
Le truc que les gens utilisent.
10:21
All it has
261
606000
2000
Tout ce qu'il possède,
10:23
is just the number that moves up or down
262
608000
3000
c'est le chiffre qui monte et qui descend
10:26
and that red button that says, "Stop."
263
611000
3000
et ce bouton rouge marqué "Stop."
10:29
And this is what we're designing for.
264
614000
3000
Et c'est le but de notre travail de conception.
10:32
We're designing
265
617000
2000
Nous concevons
10:34
for this machine dialect.
266
619000
2000
pour ce dialecte de machine.
10:36
And how far can you take that? How far can you take it?
267
621000
3000
Et jusqu'où peut-on aller? Jusqu'où peut-on pousser ça?
10:39
You can take it really, really far.
268
624000
2000
On peut aller très, très loin.
10:41
So let me take it back to Wall Street.
269
626000
3000
Alors permettez-moi de revenir à Wall Street.
10:45
Because the algorithms of Wall Street
270
630000
2000
Parce que les algorithmes de Wall Street
10:47
are dependent on one quality above all else,
271
632000
3000
dépendent d'une qualité par dessus tout,
10:50
which is speed.
272
635000
2000
et c'est la vitesse.
10:52
And they operate on milliseconds and microseconds.
273
637000
3000
Et ils opèrent à la milliseconde et à la microseconde.
10:55
And just to give you a sense of what microseconds are,
274
640000
2000
Et pour vous donner une idée de ce qu'est une microseconde,
10:57
it takes you 500,000 microseconds
275
642000
2000
il vous faut 500 000 microsecondes
10:59
just to click a mouse.
276
644000
2000
rien que pour cliquer sur une souris.
11:01
But if you're a Wall Street algorithm
277
646000
2000
Mais si vous êtes un algorithme de Wall Street
11:03
and you're five microseconds behind,
278
648000
2000
et que vous avez 5 microsecondes de retard,
11:05
you're a loser.
279
650000
2000
Vous êtes fini.
11:07
So if you were an algorithm,
280
652000
2000
Donc si vous étiez un algorithme,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
654000
3000
vous chercheriez un architecte comme celui que j'ai rencontré à Francfort
11:12
who was hollowing out a skyscraper --
282
657000
2000
qui vidait un gratte-ciel,
11:14
throwing out all the furniture, all the infrastructure for human use,
283
659000
3000
il jetait tous les meubles, toute l'infrastructure destinée à l'usage humain,
11:17
and just running steel on the floors
284
662000
3000
et ne mettait que de l'acier dans les étages
11:20
to get ready for the stacks of servers to go in --
285
665000
3000
pour préparer l'arrivée des serveurs à installer,
11:23
all so an algorithm
286
668000
2000
tout ça pour qu'un algorithme
11:25
could get close to the Internet.
287
670000
3000
puisse se rapprocher d'internet.
11:28
And you think of the Internet as this kind of distributed system.
288
673000
3000
Et vous pensez qu'internet est une sorte de système décentralisé.
11:31
And of course, it is, but it's distributed from places.
289
676000
3000
Et bien sûr, c'est le cas, mais il est décentralisé depuis des endroits précis.
11:34
In New York, this is where it's distributed from:
290
679000
2000
A New York, voici d'où il est décentralisé :
11:36
the Carrier Hotel
291
681000
2000
le Carrier Hotel
11:38
located on Hudson Street.
292
683000
2000
sur Hudson Street.
11:40
And this is really where the wires come right up into the city.
293
685000
3000
Et c'est vraiment de là que les cables partent vers la ville.
11:43
And the reality is that the further away you are from that,
294
688000
4000
Et la réalité est que plus vous vous en éloignez,
11:47
you're a few microseconds behind every time.
295
692000
2000
plus vous prenez des microsecondes de retard
11:49
These guys down on Wall Street,
296
694000
2000
Ces gars à Wall street,
11:51
Marco Polo and Cherokee Nation,
297
696000
2000
Marco Polo and Cherokee Nation,
11:53
they're eight microseconds
298
698000
2000
ont 8 microsecondes de retard
11:55
behind all these guys
299
700000
2000
sur tous ces gars-là
11:57
going into the empty buildings being hollowed out
300
702000
4000
qui vont dans des immeubles qu'on vide
12:01
up around the Carrier Hotel.
301
706000
2000
autour du Carrier Hotel.
12:03
And that's going to keep happening.
302
708000
3000
Et ça va continuer comme ça.
12:06
We're going to keep hollowing them out,
303
711000
2000
Nous allons continuer à les vider,
12:08
because you, inch for inch
304
713000
3000
parce que vous, centimètre pour centimètre,
12:11
and pound for pound and dollar for dollar,
305
716000
3000
livre pour livre, dollar pour dollar,
12:14
none of you could squeeze revenue out of that space
306
719000
3000
aucun d'entre vous ne pourrait tirer un profit de cet espace
12:17
like the Boston Shuffler could.
307
722000
3000
comme le Jongleur peut le faire.
12:20
But if you zoom out,
308
725000
2000
Mais si vous prenez du recul,
12:22
if you zoom out,
309
727000
2000
si vous prenez du recul,
12:24
you would see an 825-mile trench
310
729000
4000
vous verrez une tranchée de 1 300 kilomètres
12:28
between New York City and Chicago
311
733000
2000
entre New York et Chicago
12:30
that's been built over the last few years
312
735000
2000
construite ces dernières années
12:32
by a company called Spread Networks.
313
737000
3000
par une compagnie appelée Spread Networks.
12:35
This is a fiber optic cable
314
740000
2000
C'est un câble de fibre optique
12:37
that was laid between those two cities
315
742000
2000
qui a été posé entre ces deux villes
12:39
to just be able to traffic one signal
316
744000
3000
dans le seul but de faire passer un signal
12:42
37 times faster than you can click a mouse --
317
747000
3000
37 fois plus vite qu'un clic de souris,
12:45
just for these algorithms,
318
750000
3000
rien que pour ces algorithmes,
12:48
just for the Carnival and the Knife.
319
753000
3000
Rien que pour le Carnaval et le Couteau.
12:51
And when you think about this,
320
756000
2000
Et quand vous y réfléchissez,
12:53
that we're running through the United States
321
758000
2000
que nous traversons les Etats-Unis
12:55
with dynamite and rock saws
322
760000
3000
avec de la dynamite et des scies à roches
12:58
so that an algorithm can close the deal
323
763000
2000
pour qu'un algorithme puisse conclure un marché
13:00
three microseconds faster,
324
765000
3000
trois microseconde plus vite,
13:03
all for a communications framework
325
768000
2000
tout ça pour une structure de communication
13:05
that no human will ever know,
326
770000
4000
qu'aucun humain ne connaitra jamais,
13:09
that's a kind of manifest destiny;
327
774000
3000
qui est une sorte de destin manifeste
13:12
and we'll always look for a new frontier.
328
777000
3000
et qui cherchera toujours une nouvelle frontière.
13:15
Unfortunately, we have our work cut out for us.
329
780000
3000
Malheureusement, nous avons du pain sur la planche.
13:18
This is just theoretical.
330
783000
2000
Tout ça est théorique.
13:20
This is some mathematicians at MIT.
331
785000
2000
Voici des mathématiciens du MIT.
13:22
And the truth is I don't really understand
332
787000
2000
Et la vérité est que une grande partie de ce qu'ils disent
13:24
a lot of what they're talking about.
333
789000
2000
est incompréhensible pour moi.
13:26
It involves light cones and quantum entanglement,
334
791000
3000
Ils parlent de cônes lumineux, de liaisons quantiques,
13:29
and I don't really understand any of that.
335
794000
2000
et ce sont des choses que je ne comprend pas vraiment.
13:31
But I can read this map,
336
796000
2000
Mais je peux lire cette carte.
13:33
and what this map says
337
798000
2000
Et ce que cette carte dit
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
800000
3000
c'est que, si vous essayez de faire de l'argent sur ces marchés représentés par des points rouges,
13:38
that's where people are, where the cities are,
339
803000
2000
c'est là que sont les gens, que sont les villes,
13:40
you're going to have to put the servers where the blue dots are
340
805000
3000
vous allez devoir mettre les serveurs là où il y a des points bleus
13:43
to do that most effectively.
341
808000
2000
pour avoir le maximum d'efficacité.
13:45
And the thing that you might have noticed about those blue dots
342
810000
3000
Et ce que vous avez peut-être remarqué à propos de ces points bleus
13:48
is that a lot of them are in the middle of the ocean.
343
813000
3000
c'est qu'il y en a beaucoup en plein océan.
13:51
So that's what we'll do: we'll build bubbles or something,
344
816000
3000
Alors voilà ce que nous allons faire, nous allons construire des bulles,
13:54
or platforms.
345
819000
2000
ou des plateformes,
13:56
We'll actually part the water
346
821000
2000
nous allons partager les eaux pour de bon
13:58
to pull money out of the air,
347
823000
2000
pour tirer de l'argent depuis l'air,
14:00
because it's a bright future
348
825000
2000
parce qu'il y a un avenir radieux
14:02
if you're an algorithm.
349
827000
2000
si vous êtes un algorithme.
14:04
(Laughter)
350
829000
2000
(Rires)
14:06
And it's not the money that's so interesting actually.
351
831000
3000
Et ce n'est pas l'argent qui est si intéressant en fait.
14:09
It's what the money motivates,
352
834000
2000
C'est la motivation que l'argent amène.
14:11
that we're actually terraforming
353
836000
2000
Le fait que nous transformons
14:13
the Earth itself
354
838000
2000
la planète-même
14:15
with this kind of algorithmic efficiency.
355
840000
2000
avec ce genre d'efficacité algorithmique.
14:17
And in that light,
356
842000
2000
Et sous cet éclairage,
14:19
you go back
357
844000
2000
vous retournez voir
14:21
and you look at Michael Najjar's photographs,
358
846000
2000
les photos de Michael Najjar,
14:23
and you realize that they're not metaphor, they're prophecy.
359
848000
3000
et vous vous rendez compte qu'elles ne sont pas métaphoriques, elles sont prophétiques.
14:26
They're prophecy
360
851000
2000
Elles annoncent
14:28
for the kind of seismic, terrestrial effects
361
853000
4000
les effets sismiques, les effets terrestres
14:32
of the math that we're making.
362
857000
2000
des mathématiques que nous construisons.
14:34
And the landscape was always made
363
859000
3000
Et le paysage a toujours été façonné par
14:37
by this sort of weird, uneasy collaboration
364
862000
3000
cette collaboration étrange et malaisée
14:40
between nature and man.
365
865000
3000
entre la nature et l'homme.
14:43
But now there's this third co-evolutionary force: algorithms --
366
868000
3000
Mais maintenant il y a une troisième force co-évoutionnaire : les algorithmes,
14:46
the Boston Shuffler, the Carnival.
367
871000
3000
le Jongleur, le Carnaval.
14:49
And we will have to understand those as nature,
368
874000
3000
Et nous allons devoir les comprendre comme faisant partie de la nature.
14:52
and in a way, they are.
369
877000
2000
Et dans un sens, c'est vrai.
14:54
Thank you.
370
879000
2000
Merci.
14:56
(Applause)
371
881000
20000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Pascal Delamaire

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com