ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Кевин Славин: Как алгоритмы формируют наш мир

Filmed:
4,199,898 views

Кевин Славин утверждает, что мы живём в мире, построенном и во всё большей степени управляемым алгоритмами. В этом захватывающем выступлении на TEDGlobal, он демонстрирует, как сложные компьютерные программы определяют тактики шпионажа, цены акций, сценарии фильмов, и архитектуру. Он предупреждает, что мы пишем код, который не можем понять, с последствиями, которые не можем контролировать.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographфотография
0
0
2000
Это — фотография
00:17
by the artistхудожник MichaelМайкл Najjarнайяр,
1
2000
2000
Майкла Найджара,
00:19
and it's realреальный,
2
4000
2000
и она настоящая,
00:21
in the senseсмысл that he wentотправился there to ArgentinaАргентина
3
6000
2000
в том смысле, что он поехал в Аргентину,
00:23
to take the photoФото.
4
8000
2000
чтобы сделать фотографию.
00:25
But it's alsoтакже a fictionфантастика. There's a lot of work that wentотправился into it after that.
5
10000
3000
Но она также и выдумка. После этого
в неё было вложено много работы.
00:28
And what he's doneсделанный
6
13000
2000
Он взял и переделал её
00:30
is he's actuallyна самом деле reshapedвидоизмененных, digitallyв цифровом виде,
7
15000
2000
на компьютере так,
00:32
all of the contoursконтуры of the mountainsгоры
8
17000
2000
чтобы все очертания гор
00:34
to followследовать the vicissitudesпревратности of the DowДоу JonesДжонс indexиндекс.
9
19000
3000
следовали превратностям
индекса Доу-Джонса.
00:37
So what you see,
10
22000
2000
Что вы видите,
00:39
that precipiceпропасть, that highвысокая precipiceпропасть with the valleyдолина,
11
24000
2000
вот тот обрыв, высокий обрыв с долиной,
00:41
is the 2008 financialфинансовый crisisкризис.
12
26000
2000
это финансовый кризис 2008-го года.
00:43
The photoФото was madeсделал
13
28000
2000
Эта фотография была сделана,
00:45
when we were deepглубоко in the valleyдолина over there.
14
30000
2000
когда мы были глубоко вот там в долине.
00:47
I don't know where we are now.
15
32000
2000
Я не знаю, где мы находимся сейчас.
00:49
This is the Hangвешать SengСенг indexиндекс
16
34000
2000
Это индекс Хан-Сенга,
00:51
for HongHong KongKong.
17
36000
2000
из Гонконга.
00:53
And similarаналогичный topographyтопография.
18
38000
2000
Схожая топография.
00:55
I wonderзадаваться вопросом why.
19
40000
2000
Я в догадках, почему.
00:57
And this is artИзобразительное искусство. This is metaphorметафора.
20
42000
3000
Это искусство. Это метафора.
01:00
But I think the pointточка is
21
45000
2000
Я думаю, дело в том,
01:02
that this is metaphorметафора with teethзубы,
22
47000
2000
что это зубастая метафора.
01:04
and it's with those teethзубы that I want to proposeпредложить todayCегодня
23
49000
3000
С мыслями об этих зубах
я хочу предложить, чтобы мы сегодня
01:07
that we rethinkпересмотреть a little bitнемного
24
52000
2000
немного переосмыслили
01:09
about the roleроль of contemporaryсовременный mathматематический --
25
54000
3000
роль современной математики —
01:12
not just financialфинансовый mathматематический, but mathматематический in generalГенеральная.
26
57000
3000
не только финансовой математики,
а математики в общем.
01:15
That its transitionпереход
27
60000
2000
Её переход от того,
01:17
from beingявляющийся something that we extractэкстракт and deriveвыводить from the worldМир
28
62000
3000
что мы извлекаем и выводим
из наблюдений за миром,
01:20
to something that actuallyна самом деле startsначинается to shapeформа it --
29
65000
3000
к тому, что начинает формировать —
01:23
the worldМир around us and the worldМир insideвнутри us.
30
68000
3000
мир вокруг нас и наш внутренний мир.
01:26
And it's specificallyконкретно algorithmsалгоритмы,
31
71000
2000
Именно алгоритмы,
01:28
whichкоторый are basicallyв основном the mathматематический
32
73000
2000
та самая математика,
01:30
that computersкомпьютеры use to decideпринимать решение stuffматериал.
33
75000
3000
которую компьютеры
используют для принятия решений.
01:33
They acquireприобретать the sensibilityобидчивость of truthправда
34
78000
2000
Они становятся правдоподобными,
01:35
because they repeatповторение over and over again,
35
80000
2000
из-за многократного повторения.
01:37
and they ossifyоссифицировать and calcifyобызвествляться,
36
82000
3000
Они костенеют и твердеют
01:40
and they becomeстали realреальный.
37
85000
2000
и становятся реальностью.
01:42
And I was thinkingмышление about this, of all placesмест,
38
87000
3000
Я думал об этом, подумать только,
01:45
on a transatlanticтрансатлантический flightрейс a coupleпара of yearsлет agoтому назад,
39
90000
3000
во время трансатлантического
перелёта много лет назад,
01:48
because I happenedполучилось to be seatedсидящий
40
93000
2000
потому что по случайности меня посадили
01:50
nextследующий to a HungarianВенгерский physicistфизик about my ageвозраст
41
95000
2000
с венгерским физиком примерно моего возраста,
01:52
and we were talkingговорящий
42
97000
2000
и мы разговаривали о том,
01:54
about what life was like duringв течение the ColdХолодно Warвойна
43
99000
2000
какой была жизнь физиков
01:56
for physicistsфизики in HungaryВенгрия.
44
101000
2000
во время холодной войны в Венгрии.
01:58
And I said, "So what were you doing?"
45
103000
2000
Я спросил: «Так чем же вы занимались?»
02:00
And he said, "Well we were mostlyв основном breakingломка stealthхитрость."
46
105000
2000
Он ответил: «По большей части,
ломали защиту самолётов-невидимок».
02:02
And I said, "That's a good jobработа. That's interestingинтересно.
47
107000
2000
«Хорошая работа, — сказал я, —
интересная тема.
02:04
How does that work?"
48
109000
2000
А как это работает?»
02:06
And to understandПонимаю that,
49
111000
2000
Чтобы это понять, нужно понимать,
02:08
you have to understandПонимаю a little bitнемного about how stealthхитрость worksработает.
50
113000
3000
как работают самолёты-невидимки.
02:11
And so -- this is an over-simplificationупрощение --
51
116000
3000
Вот — и это сильное упрощение —
02:14
but basicallyв основном, it's not like
52
119000
2000
по-простому, нельзя
02:16
you can just passпроходить a radarрадиолокационный signalсигнал
53
121000
2000
взять и пропустить сигнал радара
02:18
right throughчерез 156 tonsтонны of steelстали in the skyнебо.
54
123000
3000
сквозь 156 тонн стали в небесах.
02:21
It's not just going to disappearисчезать.
55
126000
3000
Никуда они не денутся.
02:24
But if you can take this bigбольшой, massiveмассивный thing,
56
129000
3000
Но если взять эту огромную,
массивную штуку,
02:27
and you could turnочередь it into
57
132000
3000
и если сделать из неё
02:30
a millionмиллиона little things --
58
135000
2000
миллион маленьких —
02:32
something like a flockстадо of birdsптицы --
59
137000
2000
примерно как стая птиц —
02:34
well then the radarрадиолокационный that's looking for that
60
139000
2000
тогда наблюдающий радар
02:36
has to be ableв состоянии to see
61
141000
2000
должен уметь видеть
02:38
everyкаждый flockстадо of birdsптицы in the skyнебо.
62
143000
2000
каждую стаю птиц в небе.
02:40
And if you're a radarрадиолокационный, that's a really badПлохо jobработа.
63
145000
4000
И для радара это не самая лёгкая работа.
02:44
And he said, "Yeah." He said, "But that's if you're a radarрадиолокационный.
64
149000
3000
«Да, — сказал он, — это так,
если использовать радар.
02:47
So we didn't use a radarрадиолокационный;
65
152000
2000
Поэтому радар мы не использовали.
02:49
we builtпостроен a blackчерный boxкоробка that was looking for electricalэлектрический signalsсигналы,
66
154000
3000
Мы сделали чёрный ящик,
который искал электронные сигналы,
02:52
electronicэлектронный communicationсвязь.
67
157000
3000
электронные сообщения.
02:55
And wheneverвсякий раз, когда we saw a flockстадо of birdsптицы that had electronicэлектронный communicationсвязь,
68
160000
3000
И каждый раз, когда была замечена
стая птиц, ведущая электронные разговоры,
02:58
we thought, 'Probably'Вероятно has something to do with the Americansамериканцы.'"
69
163000
3000
мы знали, что, наверное,
это что-то американское».
03:01
And I said, "Yeah.
70
166000
2000
«Да, — ответил я, —
03:03
That's good.
71
168000
2000
неплохо.
03:05
So you've effectivelyфактически negatedотрицается
72
170000
2000
Вы практически взяли
03:07
60 yearsлет of aeronauticвоздухоплавательный researchисследование.
73
172000
2000
и перечеркнули 60 лет
аэронавигационных исследований.
03:09
What's your actакт two?
74
174000
2000
А чем вы сейчас занимаетесь?
03:11
What do you do when you growрасти up?"
75
176000
2000
Чем вы занимаетесь во взрослой жизни?»
03:13
And he said,
76
178000
2000
Он ответил:
03:15
"Well, financialфинансовый servicesСервисы."
77
180000
2000
«Финансовые услуги».
03:17
And I said, "Oh."
78
182000
2000
«Ого» — удивился я.
03:19
Because those had been in the newsНовости latelyв последнее время.
79
184000
3000
Потому что про них недавно
говорили в новостях.
03:22
And I said, "How does that work?"
80
187000
2000
«А это как работает?» — спросил я.
03:24
And he said, "Well there's 2,000 physicistsфизики on Wallстена Streetулица now,
81
189000
2000
Он ответил: «На Уолл-стрит
сейчас работает две тысячи физиков,
03:26
and I'm one of them."
82
191000
2000
и я один из них».
03:28
And I said, "What's the blackчерный boxкоробка for Wallстена Streetулица?"
83
193000
3000
Я спросил: «И каков же
чёрный ящик для Уолл-стрит?»
03:31
And he said, "It's funnyвеселая you askпросить that,
84
196000
2000
Он удивился: «Надо же, как вы спросили,
03:33
because it's actuallyна самом деле calledназывается blackчерный boxкоробка tradingторговый.
85
198000
3000
потому что он действительно называется
торговля чёрными ящиками.
03:36
And it's alsoтакже sometimesиногда calledназывается algoалго tradingторговый,
86
201000
2000
Иногда это называется алготорговля,
03:38
algorithmicалгоритмический tradingторговый."
87
203000
3000
алгоритмическая торговля».
03:41
And algorithmicалгоритмический tradingторговый evolvedэволюционировали in partчасть
88
206000
3000
Алгоритмическая торговля
развилась отчасти
03:44
because institutionalинституциональных tradersторговцы have the sameодна и та же problemsпроблемы
89
209000
3000
потому что у профессиональных торговцев
были те же проблемы,
03:47
that the Unitedобъединенный Statesсостояния AirВоздух Forceсила had,
90
212000
3000
что и у Военно-воздушных сил США,
03:50
whichкоторый is that they're movingперемещение these positionsпозиции --
91
215000
3000
а именно, когда они торгуют акциями —
03:53
whetherбудь то it's Proctorпроктор & Gambleавантюра or AccentureAccenture, whateverбез разницы --
92
218000
2000
будь то Proctor & Gamble
или Accenture, что угодно —
03:55
they're movingперемещение a millionмиллиона sharesакции of something
93
220000
2000
они проводят миллионы акций
03:57
throughчерез the marketрынок.
94
222000
2000
сквозь рынок.
03:59
And if they do that all at onceодин раз,
95
224000
2000
Если сделать это одним махом,
04:01
it's like playingиграть pokerпокер and going all in right away.
96
226000
2000
то это, как в покере, поставить всё сразу.
04:03
You just tipнаконечник your handрука.
97
228000
2000
Все поймут, что у вас на руках.
04:05
And so they have to find a way --
98
230000
2000
Итак, им нужно найти способ —
04:07
and they use algorithmsалгоритмы to do this --
99
232000
2000
и для этого они используют алгоритмы —
04:09
to breakломать up that bigбольшой thing
100
234000
2000
разбить эту огромную штуку
04:11
into a millionмиллиона little transactionsоперации.
101
236000
2000
на миллион маленьких транзакций.
04:13
And the magicмагия and the horrorужастик of that
102
238000
2000
Магия и ужас в том,
04:15
is that the sameодна и та же mathматематический
103
240000
2000
что та самая математика,
04:17
that you use to breakломать up the bigбольшой thing
104
242000
2000
использованная для разбивки большой вещи
04:19
into a millionмиллиона little things
105
244000
2000
на миллион маленьких вещей,
04:21
can be used to find a millionмиллиона little things
106
246000
2000
может быть использована
для поиска миллиона маленьких вещей,
04:23
and sewшить them back togetherвместе
107
248000
2000
сборки их обратно, и выяснения,
04:25
and figureфигура out what's actuallyна самом деле happeningпроисходит in the marketрынок.
108
250000
2000
что же действительно происходит на рынке.
04:27
So if you need to have some imageобраз
109
252000
2000
В качестве представления,
04:29
of what's happeningпроисходит in the stockакции marketрынок right now,
110
254000
3000
что сейчас происходит
на рынке акций прямо сейчас,
04:32
what you can pictureкартина is a bunchгроздь of algorithmsалгоритмы
111
257000
2000
можете представить группу алгоритмов,
04:34
that are basicallyв основном programmedзапрограммированный to hideскрывать,
112
259000
3000
которые запрограммированы прятать,
04:37
and a bunchгроздь of algorithmsалгоритмы that are programmedзапрограммированный to go find them and actакт.
113
262000
3000
и группу алгоритмов, которые
запрограммированы искать и действовать.
04:40
And all of that's great, and it's fine.
114
265000
3000
Конечно, всё это классно.
04:43
And that's 70 percentпроцент
115
268000
2000
И это составляет 70%
04:45
of the Unitedобъединенный Statesсостояния stockакции marketрынок,
116
270000
2000
рынка акций США,
04:47
70 percentпроцент of the operatingоперационная systemсистема
117
272000
2000
70% того,
04:49
formerlyраньше knownизвестен as your pensionпенсия,
118
274000
3000
что раньше было известно как ваша пенсия,
04:52
your mortgageипотека.
119
277000
3000
как ваша ипотека.
04:55
And what could go wrongнеправильно?
120
280000
2000
Что же плохого может случиться?
04:57
What could go wrongнеправильно
121
282000
2000
А то,
04:59
is that a yearгод agoтому назад,
122
284000
2000
что год назад,
05:01
nine9 percentпроцент of the entireвсе marketрынок just disappearsисчезает in five5 minutesминут,
123
286000
3000
9% рынка просто исчезло за пять минут,
05:04
and they calledназывается it the Flashвспышка Crashавария of 2:45.
124
289000
3000
и это было названо
мгновенное падение 2:45.
05:07
All of a suddenвнезапно, nine9 percentпроцент just goesидет away,
125
292000
3000
Вдруг, 9% просто исчезает,
05:10
and nobodyникто to this day
126
295000
2000
и по сей день,
05:12
can even agreeдать согласие on what happenedполучилось
127
297000
2000
никто не может понять, что случилось,
05:14
because nobodyникто orderedприказал it, nobodyникто askedспросил for it.
128
299000
3000
потому что никто это не заказывал,
никто об этом не просил.
05:17
NobodyНикто had any controlконтроль over what was actuallyна самом деле happeningпроисходит.
129
302000
3000
Никто не контролировал происходящее.
05:20
All they had
130
305000
2000
Всё, что было доступно —
05:22
was just a monitorмонитор in frontфронт of them
131
307000
2000
монитор перед глазами,
05:24
that had the numbersчисел on it
132
309000
2000
с цифрами на нём,
05:26
and just a redкрасный buttonкнопка
133
311000
2000
и красная кнопка
05:28
that said, "Stop."
134
313000
2000
с надписью «Стоп».
05:30
And that's the thing,
135
315000
2000
Дело в том,
05:32
is that we're writingписьмо things,
136
317000
2000
что мы пишем вещи,
05:34
we're writingписьмо these things that we can no longerдольше readчитать.
137
319000
3000
мы пишем такие вещи,
которые сами не в состоянии прочесть.
05:37
And we'veмы в renderedоказываемых something
138
322000
2000
Мы сделали что-то
05:39
illegibleнеразборчивый,
139
324000
2000
нечитаемое.
05:41
and we'veмы в lostпотерял the senseсмысл
140
326000
3000
Мы потеряли ощущение того,
05:44
of what's actuallyна самом деле happeningпроисходит
141
329000
2000
что происходит в мире,
05:46
in this worldМир that we'veмы в madeсделал.
142
331000
2000
который мы построили.
05:48
And we're startingначало to make our way.
143
333000
2000
Но мы начинаем понимать.
05:50
There's a companyКомпания in BostonБостон calledназывается NanexNanex,
144
335000
3000
В Бостоне есть компания Nanex,
05:53
and they use mathматематический and magicмагия
145
338000
2000
они используют математику и магию
05:55
and I don't know what,
146
340000
2000
и что-то ещё,
05:57
and they reachдостичь into all the marketрынок dataданные
147
342000
2000
получают доступ к данным рынка,
05:59
and they find, actuallyна самом деле sometimesиногда, some of these algorithmsалгоритмы.
148
344000
3000
и находят, иногда,
некоторые из этих алгоритмов.
06:02
And when they find them they pullвытащить them out
149
347000
3000
Когда они их находят,
они их вытаскивают,
06:05
and they pinштырь them to the wallстена like butterfliesбабочки.
150
350000
3000
и прикалывают на стену как бабочек.
06:08
And they do what we'veмы в always doneсделанный
151
353000
2000
Они делают то, что мы всегда делали,
06:10
when confrontedстолкнувшись with hugeогромный amountsсуммы of dataданные that we don't understandПонимаю --
152
355000
3000
сталкиваясь с огромным количеством
данных, которые мы не понимаем —
06:13
whichкоторый is that they give them a nameимя
153
358000
2000
они дают им
06:15
and a storyистория.
154
360000
2000
имя и историю.
06:17
So this is one that they foundнайденный,
155
362000
2000
Вот кое-что из найденного,
06:19
they calledназывается the KnifeНож,
156
364000
4000
названное Нож,
06:23
the CarnivalКарнавал,
157
368000
2000
Карнавал,
06:25
the BostonБостон Shufflerсдающий,
158
370000
4000
Бостонский пройдоха,
06:29
Twilightсумеречный.
159
374000
2000
Сумерки.
06:31
And the gagкляп is
160
376000
2000
Прикол в том,
06:33
that, of courseкурс, these aren'tне just runningБег throughчерез the marketрынок.
161
378000
3000
что это не только на рынке.
06:36
You can find these kindsвиды of things whereverгде бы you look,
162
381000
3000
Эти вещи можно найти везде,
где ни посмотри,
06:39
onceодин раз you learnучить how to look for them.
163
384000
2000
как только научишься их искать.
06:41
You can find it here: this bookкнига about fliesлетит
164
386000
3000
Их можно найти здесь: это книга о мухах,
06:44
that you mayмай have been looking at on AmazonАмазонка.
165
389000
2000
которую можно было заметить на Amazon.
06:46
You mayмай have noticedзаметил it
166
391000
2000
На неё можно было обратить внимание,
06:48
when its priceцена startedначал at 1.7 millionмиллиона dollarsдолларов.
167
393000
2000
когда она стоила 1,7 миллиона долларов.
06:50
It's out of printРаспечатать -- still ...
168
395000
2000
Она больше не издается — но всё же...
06:52
(LaughterСмех)
169
397000
2000
(Смех)
06:54
If you had boughtкупил it at 1.7, it would have been a bargainсделка.
170
399000
3000
И если бы вы купили её за 1,7,
это была бы выгодная сделка.
06:57
A fewмало hoursчасов laterпозже, it had goneпрошло up
171
402000
2000
Несколько часов позже,
она выросла в цене
06:59
to 23.6 millionмиллиона dollarsдолларов,
172
404000
2000
до 23,6 миллиона долларов,
07:01
plusплюс shippingПеревозка and handlingобращение.
173
406000
2000
плюс доставка и упаковка.
07:03
And the questionвопрос is:
174
408000
2000
Вопрос:
07:05
NobodyНикто was buyingпокупка or sellingпродажа anything; what was happeningпроисходит?
175
410000
2000
Никто ничего не продавал
и не покупал, что происходило?
07:07
And you see this behaviorповедение on AmazonАмазонка
176
412000
2000
Такое поведение можно заметить на Amazon
07:09
as surelyконечно as you see it on Wallстена Streetулица.
177
414000
2000
точно так же, как и на Уолл-стрит.
07:11
And when you see this kindсвоего рода of behaviorповедение,
178
416000
2000
При наблюдении такого поведения,
07:13
what you see is the evidenceдоказательства
179
418000
2000
вы видите свидетельство
07:15
of algorithmsалгоритмы in conflictконфликт,
180
420000
2000
конфликтующих алгоритмов,
07:17
algorithmsалгоритмы lockedзапертый in loopsпетли with eachкаждый other,
181
422000
2000
алгоритмов, зажавших друг друга
мёртвой хваткой,
07:19
withoutбез any humanчеловек oversightнадзор,
182
424000
2000
без человеческого контроля,
07:21
withoutбез any adultдля взрослых supervisionнадзор
183
426000
3000
без надзора взрослых,
07:24
to say, "ActuallyНа самом деле, 1.7 millionмиллиона is plentyмного."
184
429000
3000
которые бы сказали: «Ну, хватит,
1,7 миллиона вполне достаточно».
07:27
(LaughterСмех)
185
432000
3000
(Смех)
07:30
And as with AmazonАмазонка, so it is with NetflixNetflix.
186
435000
3000
Это не только на Amazon, но и на Netflix.
07:33
And so NetflixNetflix has goneпрошло throughчерез
187
438000
2000
За годы, Netflix поменял
07:35
severalнесколько differentдругой algorithmsалгоритмы over the yearsлет.
188
440000
2000
несколько разных алгоритмов.
07:37
They startedначал with CinematchCinematch, and they'veони имеют triedпытался a bunchгроздь of othersдругие --
189
442000
3000
Они начали с Cinematch,
и попробовали группу других.
07:40
there's Dinosaurдинозавр Planetпланета; there's GravityСила тяжести.
190
445000
2000
Планета Динозавров, Гравитация.
07:42
They're usingс помощью Pragmaticпрагматический ChaosХаос now.
191
447000
2000
Сейчас они используют
Прагматический Хаос.
07:44
Pragmaticпрагматический ChaosХаос is, like all of NetflixNetflix algorithmsалгоритмы,
192
449000
2000
Прагматический Хаос,
как и все другие алгоритмы Netflix,
07:46
tryingпытаясь to do the sameодна и та же thing.
193
451000
2000
пытается решить ту же задачу.
07:48
It's tryingпытаясь to get a graspсхватывание on you,
194
453000
2000
Он пытается разобраться в вас,
07:50
on the firmwareпрошивка insideвнутри the humanчеловек skullчереп,
195
455000
2000
в прошивке внутри черепа,
07:52
so that it can recommendрекомендовать what movieкино
196
457000
2000
для того чтобы рекомендовать фильм,
07:54
you mightмог бы want to watch nextследующий --
197
459000
2000
который вы можете захотеть
посмотреть следующим —
07:56
whichкоторый is a very, very difficultсложно problemпроблема.
198
461000
3000
а это очень, очень трудная проблема.
07:59
But the difficultyтрудность of the problemпроблема
199
464000
2000
Трудность проблемы,
08:01
and the factфакт that we don't really quiteдовольно have it down,
200
466000
3000
и факт того, что она до сих пор не решена,
08:04
it doesn't take away
201
469000
2000
не отменяет последствий,
08:06
from the effectsпоследствия Pragmaticпрагматический ChaosХаос has.
202
471000
2000
создаваемых Прагматическим Хаосом.
08:08
Pragmaticпрагматический ChaosХаос, like all NetflixNetflix algorithmsалгоритмы,
203
473000
3000
Прагматический Хаос,
как и все алгоритмы Netflix,
08:11
determinesопределяет, in the endконец,
204
476000
2000
в итоге определяет
08:13
60 percentпроцент
205
478000
2000
60%
08:15
of what moviesкино endконец up beingявляющийся rentedарендованный.
206
480000
2000
всех взятых напрокат фильмов.
08:17
So one pieceкусок of codeкод
207
482000
2000
Единственный участок кода,
08:19
with one ideaидея about you
208
484000
3000
с единственным представлением о вас,
08:22
is responsibleответственность for 60 percentпроцент of those moviesкино.
209
487000
3000
отвечает за 60% фильмов.
08:25
But what if you could rateставка those moviesкино
210
490000
2000
А как насчёт оценки фильмов
08:27
before they get madeсделал?
211
492000
2000
ещё до того, как они сделаны?
08:29
Wouldn'tне было бы that be handyудобный?
212
494000
2000
Было бы это здорово?
08:31
Well, a fewмало dataданные scientistsученые from the U.K. are in HollywoodГолливуд,
213
496000
3000
Некоторые учёные из Великобритании
сейчас в Голливуде,
08:34
and they have "storyистория algorithmsалгоритмы" --
214
499000
2000
и у них есть сценарные алгоритмы —
08:36
a companyКомпания calledназывается EpagogixEpagogix.
215
501000
2000
компания называется Epagogix.
08:38
And you can runбег your scriptскрипт throughчерез there,
216
503000
3000
Она может обработать ваш сценарий,
08:41
and they can tell you, quantifiablyколичественно,
217
506000
2000
и сказать, количественно,
08:43
that that's a 30 millionмиллиона dollarдоллар movieкино
218
508000
2000
что это кино на 30 миллионов долларов,
08:45
or a 200 millionмиллиона dollarдоллар movieкино.
219
510000
2000
или на 200 миллионов долларов.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
Суть в том, что это не Google.
08:49
This isn't informationИнформация.
221
514000
2000
Это не информация.
08:51
These aren'tне financialфинансовый statsстатистика; this is cultureкультура.
222
516000
2000
Это не финансовая статистика,
это культура.
08:53
And what you see here,
223
518000
2000
То, что вы здесь видите,
08:55
or what you don't really see normallyкак обычно,
224
520000
2000
или же то, что обычно не видно,
08:57
is that these are the physicsфизика of cultureкультура.
225
522000
4000
это физика культуры.
09:01
And if these algorithmsалгоритмы,
226
526000
2000
Если эти алгоритмы,
09:03
like the algorithmsалгоритмы on Wallстена Streetулица,
227
528000
2000
как алгоритмы на Уолл-стрит,
09:05
just crashedразбившийся one day and wentотправился awryкосо,
228
530000
3000
в один прекрасный день
просто сломаются и сойдут с ума,
09:08
how would we know?
229
533000
2000
как мы об этом узнаем,
09:10
What would it look like?
230
535000
2000
как это будет выглядеть?
09:12
And they're in your houseдом. They're in your houseдом.
231
537000
3000
А они уже в доме.
В вашем доме.
09:15
These are two algorithmsалгоритмы competingконкурирующий for your livingживой roomкомната.
232
540000
2000
Это два алгоритма,
сражающиеся за вашу гостиную.
09:17
These are two differentдругой cleaningуборка robotsроботы
233
542000
2000
Это два разных робота-уборщика,
09:19
that have very differentдругой ideasидеи about what cleanчистый meansозначает.
234
544000
3000
с совершенно разными
представлениями о чистоте.
09:22
And you can see it
235
547000
2000
Это можно увидеть,
09:24
if you slowмедленный it down and attachприкреплять lightsогни to them,
236
549000
3000
если замедлить
и прикрепить к ним огоньки.
09:27
and they're sortСортировать of like secretсекрет architectsархитекторы in your bedroomСпальня.
237
552000
3000
Они как тайные архитекторы
в вашей спальне.
09:30
And the ideaидея that architectureархитектура itselfсам
238
555000
3000
Идея о том, что сама архитектура
09:33
is somehowкак-то subjectпредмет to algorithmicалгоритмический optimizationоптимизация
239
558000
2000
является объектом
алгоритмической оптимизации
09:35
is not far-fetchedнадуманный.
240
560000
2000
не притянута за уши.
09:37
It's super-realсупер-реальное and it's happeningпроисходит around you.
241
562000
3000
Это абсолютно реально
и уже происходит вокруг нас.
09:40
You feel it mostбольшинство
242
565000
2000
Больше всего это ощущается
09:42
when you're in a sealedзапечатанный metalметалл boxкоробка,
243
567000
2000
в закрытом металлическом ящике,
09:44
a new-styleновый стиль elevatorлифт;
244
569000
2000
лифте нового поколения,
09:46
they're calledназывается destination-controlназначения-контроль elevatorsлифты.
245
571000
2000
который называется лифтом
с регистрацией места назначения.
09:48
These are the onesте, where you have to pressНажмите what floorпол you're going to go to
246
573000
3000
Это те самые,
где нужно нажать кнопку этажа
09:51
before you get in the elevatorлифт.
247
576000
2000
ещё до входа в лифт.
09:53
And it usesиспользования what's calledназывается a bin-packingбен-упаковка algorithmалгоритм.
248
578000
2000
Он использует так называемый
алгоритм об упаковке в контейнеры.
09:55
So noneникто of this mishegasmishegas
249
580000
2000
И никакого вольнодумства,
09:57
of lettingсдача в аренду everybodyвсе go into whateverбез разницы carавтомобиль they want.
250
582000
2000
чтобы каждый выбирал лифт сам.
09:59
Everybodyвсе who wants to go to the 10thго floorпол goesидет into carавтомобиль two,
251
584000
2000
Все, кто едут на десятый этаж,
идут в лифт номер два,
10:01
and everybodyвсе who wants to go to the thirdв третьих floorпол goesидет into carавтомобиль five5.
252
586000
3000
и все, кто едут на третий этаж, идут в лифт номер пять.
10:04
And the problemпроблема with that
253
589000
2000
Проблема в том,
10:06
is that people freakурод out.
254
591000
2000
что люди волнуются.
10:08
People panicпаника.
255
593000
2000
Люди паникуют.
10:10
And you see why. You see why.
256
595000
2000
И понятно почему.
10:12
It's because the elevatorлифт
257
597000
2000
Потому что в лифте нет
10:14
is missingотсутствует some importantважный instrumentationизмерительные приборы, like the buttonsкнопки.
258
599000
3000
очень важных деталей, таких как кнопки.
10:17
(LaughterСмех)
259
602000
2000
(Смех)
10:19
Like the things that people use.
260
604000
2000
Детали, которые люди используют.
10:21
All it has
261
606000
2000
Всё, что есть,
10:23
is just the numberномер that movesдвижется up or down
262
608000
3000
это номер, который двигается вверх и вниз,
10:26
and that redкрасный buttonкнопка that saysговорит, "Stop."
263
611000
3000
и та самая красная кнопка
с надписью «Стоп».
10:29
And this is what we're designingпроектирование for.
264
614000
3000
Вот для чего мы это делаем.
10:32
We're designingпроектирование
265
617000
2000
Мы это делаем
10:34
for this machineмашина dialectдиалект.
266
619000
2000
удобным для машин.
10:36
And how farдалеко can you take that? How farдалеко can you take it?
267
621000
3000
Сколько это можно терпеть?
Как далеко можно зайти?
10:39
You can take it really, really farдалеко.
268
624000
2000
Очень, очень далеко.
10:41
So let me take it back to Wallстена Streetулица.
269
626000
3000
Давайте вернёмся на Уолл-стрит.
10:45
Because the algorithmsалгоритмы of Wallстена Streetулица
270
630000
2000
Алгоритмы Уолл-стрит зависят,
10:47
are dependentзависимый on one qualityкачественный aboveвыше all elseеще,
271
632000
3000
прежде всего, от одной вещи,
10:50
whichкоторый is speedскорость.
272
635000
2000
и это скорость.
10:52
And they operateработать on millisecondsмиллисекунды and microsecondsмикросекунд.
273
637000
3000
Они работают с милли- и микросекундами.
10:55
And just to give you a senseсмысл of what microsecondsмикросекунд are,
274
640000
2000
Чтобы дать понять,
что такое микросекунда —
10:57
it takes you 500,000 microsecondsмикросекунд
275
642000
2000
щелчок мышью
10:59
just to clickщелчок a mouseмышь.
276
644000
2000
занимает полмиллиона микросекунд.
11:01
But if you're a Wallстена Streetулица algorithmалгоритм
277
646000
2000
Но, если алгоритм с Уолл-стрит
11:03
and you're five5 microsecondsмикросекунд behindза,
278
648000
2000
опоздал на пять микросекунд,
11:05
you're a loserнеудачник.
279
650000
2000
он проиграл.
11:07
So if you were an algorithmалгоритм,
280
652000
2000
Так что если вы — алгоритм,
11:09
you'dвы бы look for an architectархитектор like the one that I metвстретил in FrankfurtФранкфурт
281
654000
3000
вы бы искали такого архитектора,
какого я встретил во Франкфурте.
11:12
who was hollowingвыдалбливать out a skyscraperнебоскреб --
282
657000
2000
Он опустошал небоскрёб —
11:14
throwingбросание out all the furnitureмебель, all the infrastructureинфраструктура for humanчеловек use,
283
659000
3000
выкидывал всю мебель,
всю инфраструктуру для людей,
11:17
and just runningБег steelстали on the floorsэтажей
284
662000
3000
покрывал полы сталью,
11:20
to get readyготов for the stacksстеки of serversсерверы to go in --
285
665000
3000
подготавливая их для серверных стоек —
11:23
all so an algorithmалгоритм
286
668000
2000
всё для того,
11:25
could get closeЗакрыть to the Internetинтернет.
287
670000
3000
чтобы алгоритм мог подобраться
поближе к интернету.
11:28
And you think of the Internetинтернет as this kindсвоего рода of distributedраспределенный systemсистема.
288
673000
3000
Вы думаете, что интернет —
это такая распределённая система.
11:31
And of courseкурс, it is, but it's distributedраспределенный from placesмест.
289
676000
3000
Конечно, так и есть,
но она откуда-то начинается.
11:34
In Newновый YorkЙорк, this is where it's distributedраспределенный from:
290
679000
2000
В Нью-Йорке, она начинается отсюда:
11:36
the CarrierПеревозчик HotelГостиница
291
681000
2000
Carrier Hotel,
11:38
locatedрасполагается on HudsonГудзон Streetулица.
292
683000
2000
расположенный на Гудзон-стрит.
11:40
And this is really where the wiresпровода come right up into the cityгород.
293
685000
3000
Вот, где провода приходят в город.
11:43
And the realityреальность is that the furtherв дальнейшем away you are from that,
294
688000
4000
Дело в том, что с каждым удалением отсюда
11:47
you're a fewмало microsecondsмикросекунд behindза everyкаждый time.
295
692000
2000
теряются несколько микросекунд.
11:49
These guys down on Wallстена Streetулица,
296
694000
2000
Вот эти парни на Уолл-стрит,
11:51
MarcoMarco PoloПоло and CherokeeCherokee Nationнарод,
297
696000
2000
Марко Поло и Чероки Нэйшн,
11:53
they're eight8 microsecondsмикросекунд
298
698000
2000
они восемь микросекунд
11:55
behindза all these guys
299
700000
2000
позади всех парней,
11:57
going into the emptyпустой buildingsздания beingявляющийся hollowedвыдолбленные out
300
702000
4000
заселяющихся в здания,
12:01
up around the CarrierПеревозчик HotelГостиница.
301
706000
2000
опустошаемые вокруг Carrier Hotel.
12:03
And that's going to keep happeningпроисходит.
302
708000
3000
И это будет продолжаться.
12:06
We're going to keep hollowingвыдалбливать them out,
303
711000
2000
Здания будут опустошаться,
12:08
because you, inchдюймовый for inchдюймовый
304
713000
3000
потому никто из вас,
12:11
and poundфунт for poundфунт and dollarдоллар for dollarдоллар,
305
716000
3000
сантиметр за сантиметром,
доллар за долларом,
12:14
noneникто of you could squeezeвыжимать revenueдоход out of that spaceпространство
306
719000
3000
вы никогда не сможете
выжать столько прибыли
12:17
like the BostonБостон Shufflerсдающий could.
307
722000
3000
из этого пространства,
сколько смог выжать Бостонский пройдоха.
12:20
But if you zoomзум out,
308
725000
2000
Но если подняться,
12:22
if you zoomзум out,
309
727000
2000
подняться высоко,
12:24
you would see an 825-mile-mile trenchтраншея
310
729000
4000
можно увидеть ров
длиной 1300 километров
12:28
betweenмежду Newновый YorkЙорк Cityгород and ChicagoЧикаго
311
733000
2000
между Нью-Йорком и Чикаго,
12:30
that's been builtпостроен over the last fewмало yearsлет
312
735000
2000
построенный за последние несколько лет
12:32
by a companyКомпания calledназывается Spreadраспространение Networksсети.
313
737000
3000
компанией Spread Networks.
12:35
This is a fiberволокно opticоптический cableкабель
314
740000
2000
Это оптоволоконный кабель,
12:37
that was laidпроложенный betweenмежду those two citiesгорода
315
742000
2000
проложенный между двумя городами
12:39
to just be ableв состоянии to trafficтрафик one signalсигнал
316
744000
3000
для передачи одного сигнала
12:42
37 timesраз fasterБыстрее than you can clickщелчок a mouseмышь --
317
747000
3000
в 37 раз быстрее, чем щелчок мышью —
12:45
just for these algorithmsалгоритмы,
318
750000
3000
только для этих алгоритмов,
12:48
just for the CarnivalКарнавал and the KnifeНож.
319
753000
3000
только для Карнавала и для Ножа.
12:51
And when you think about this,
320
756000
2000
Подумать только,
12:53
that we're runningБег throughчерез the Unitedобъединенный Statesсостояния
321
758000
2000
мы прогрызаем США насквозь,
12:55
with dynamiteдинамит and rockкамень sawsпилы
322
760000
3000
динамитом и землеройками,
12:58
so that an algorithmалгоритм can closeЗакрыть the dealпо рукам
323
763000
2000
чтобы алгоритм смог закрыть сделку
13:00
threeтри microsecondsмикросекунд fasterБыстрее,
324
765000
3000
микросекундой раньше,
13:03
all for a communicationsсвязь frameworkфреймворк
325
768000
2000
всё ради каналов связи,
13:05
that no humanчеловек will ever know,
326
770000
4000
которые никогда не использует человек.
13:09
that's a kindсвоего рода of manifestманифест destinyсудьба;
327
774000
3000
Это предсказание судьбы,
13:12
and we'llЧто ж always look for a newновый frontierграница.
328
777000
3000
всегда продвигаться дальше.
13:15
UnfortunatelyК сожалению, we have our work cutпорез out for us.
329
780000
3000
К сожалению,
наша работа уже предопределена.
13:18
This is just theoreticalтеоретический.
330
783000
2000
Всё это только теория.
13:20
This is some mathematiciansматематики at MITMIT.
331
785000
2000
Это математики из MIT.
13:22
And the truthправда is I don't really understandПонимаю
332
787000
2000
Правда в том, что я не понимаю
13:24
a lot of what they're talkingговорящий about.
333
789000
2000
практически ничего, о чём они говорят.
13:26
It involvesвключает в себя lightлегкий conesконусы and quantumквант entanglementзапутывание,
334
791000
3000
Это что-то о световых конусах
и квантовом связывании,
13:29
and I don't really understandПонимаю any of that.
335
794000
2000
и я в этом не разбираюсь.
13:31
But I can readчитать this mapкарта,
336
796000
2000
Но я понимаю эту карту.
13:33
and what this mapкарта saysговорит
337
798000
2000
Она говорит,
13:35
is that, if you're tryingпытаясь to make moneyДеньги on the marketsрынки where the redкрасный dotsточек are,
338
800000
3000
что, если вы пытаетесь зарабатывать
на рынках, обозначенных красными точками,
13:38
that's where people are, where the citiesгорода are,
339
803000
2000
это где люди и города,
13:40
you're going to have to put the serversсерверы where the blueсиний dotsточек are
340
805000
3000
нужно помещать сервера в места,
обозначенные голубыми точками,
13:43
to do that mostбольшинство effectivelyфактически.
341
808000
2000
для наибольшей эффективности.
13:45
And the thing that you mightмог бы have noticedзаметил about those blueсиний dotsточек
342
810000
3000
Как можно заметить, большая часть
13:48
is that a lot of them are in the middleсредний of the oceanокеан.
343
813000
3000
этих голубых точек
находится посреди океана.
13:51
So that's what we'llЧто ж do: we'llЧто ж buildстроить bubblesпузырьки or something,
344
816000
3000
Вот этим и займёмся,
постройкой пузырей,
13:54
or platformsплатформы.
345
819000
2000
или платформ.
13:56
We'llЧто ж actuallyна самом деле partчасть the waterводы
346
821000
2000
Чтобы делать деньги из воздуха,
13:58
to pullвытащить moneyДеньги out of the airвоздух,
347
823000
2000
надо лезть в воду,
14:00
because it's a brightяркий futureбудущее
348
825000
2000
потому что это мудрое решение,
14:02
if you're an algorithmалгоритм.
349
827000
2000
если ты — алгоритм.
14:04
(LaughterСмех)
350
829000
2000
(Смех)
14:06
And it's not the moneyДеньги that's so interestingинтересно actuallyна самом деле.
351
831000
3000
Деньги сами по себе не так интересны.
14:09
It's what the moneyДеньги motivatesмотивирует,
352
834000
2000
Интересно, что деньги мотивируют.
14:11
that we're actuallyна самом деле terraformingтерраформирование
353
836000
2000
Мы изменяем
14:13
the EarthЗемля itselfсам
354
838000
2000
саму Землю
14:15
with this kindсвоего рода of algorithmicалгоритмический efficiencyэффективность.
355
840000
2000
вот такой алгоритмической оптимизацией.
14:17
And in that lightлегкий,
356
842000
2000
Если вернуться,
14:19
you go back
357
844000
2000
и посмотреть на фото Майкла Найджара
14:21
and you look at MichaelМайкл Najjar'sНаджар-х photographsфотографии,
358
846000
2000
в этом свете, можно понять,
14:23
and you realizeпонимать that they're not metaphorметафора, they're prophecyпророчество.
359
848000
3000
что они не метафора, а пророчество.
14:26
They're prophecyпророчество
360
851000
2000
Они — пророчество
14:28
for the kindсвоего рода of seismicсейсмический, terrestrialземной effectsпоследствия
361
853000
4000
эффектов сейсмического, земного масштаба,
14:32
of the mathматематический that we're makingизготовление.
362
857000
2000
которые имеет наша математика.
14:34
And the landscapeпейзаж was always madeсделал
363
859000
3000
Ландшафт всегда формировался
14:37
by this sortСортировать of weirdстранный, uneasyбеспокойный collaborationсотрудничество
364
862000
3000
подобным образом,
нелёгким сотрудничеством
14:40
betweenмежду natureприрода and man.
365
865000
3000
человека и природы.
14:43
But now there's this thirdв третьих co-evolutionaryкоэволюционный forceсила: algorithmsалгоритмы --
366
868000
3000
Но сейчас появилась
третья эволюционная сила: алгоритмы —
14:46
the BostonБостон Shufflerсдающий, the CarnivalКарнавал.
367
871000
3000
Бостонский пройдоха, Карнавал.
14:49
And we will have to understandПонимаю those as natureприрода,
368
874000
3000
И нам нужно их понять, как и природу.
14:52
and in a way, they are.
369
877000
2000
В каком-то смысле, они и есть природа.
14:54
Thank you.
370
879000
2000
Спасибо.
14:56
(ApplauseАплодисменты)
371
881000
20000
(Аплодисменты)
Translated by Aliaksandr Autayeu
Reviewed by Irene Loginova

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com