ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com
TEDxCambridge

Sebastian Wernicke: How to use data to make a hit TV show

Себастьян Верник: Как использовать данные, чтобы создать топовый сериал

Filmed:
1,628,704 views

Ведёт ли сбор данных к более эффективному принятию решений? Конкурентоспособные, опытные в работе с данными компании, такие как Amazon, Google и Netflix, на своём опыте выяснили, что анализ данных не всегда ведёт к оптимальным результатам. В этом выступлении специалист по данным Себастьян Верник рассматривает, что идёт не так, когда мы принимаем решения, основываясь только на данных, и предлагает более умное решение.
- Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects. Full bio

Double-click the English transcript below to play the video.

00:12
RoyРой PriceЦена is a man that mostбольшинство of you
have probablyвероятно never heardуслышанным about,
0
820
4276
Рой Прайс — это человек, о котором
большинство из вас никогда не слышало,
00:17
even thoughхоть he mayмай have been responsibleответственность
1
5120
2496
а он мог быть ответственным
00:19
for 22 somewhatв некотором роде mediocreпосредственный
minutesминут of your life on Aprilапрель 19, 2013.
2
7640
6896
за 22 посредственных минуты
вашего времени 19 апреля 2013 года.
00:26
He mayмай have alsoтакже been responsibleответственность
for 22 very entertainingразвлекательный minutesминут,
3
14560
3176
Он также мог быть ответственным
за 22 весьма развлекательных минуты,
00:29
but not very manyмногие of you.
4
17760
2256
но не для многих из вас.
00:32
And all of that goesидет back to a decisionрешение
5
20040
1896
Всё это ведёт нас к решению,
00:33
that RoyРой had to make
about threeтри yearsлет agoтому назад.
6
21960
2000
которое Рой должен был принять
три года назад.
00:35
So you see, RoyРой PriceЦена
is a seniorстаршая executiveдолжностное лицо with AmazonАмазонка StudiosСтудии.
7
23984
4832
Рой Прайс — ответственный менеджер
в Amazon Studios.
00:40
That's the TVТВ productionпроизводство
companyКомпания of AmazonАмазонка.
8
28840
3016
Это подразделение
Amazon по производству телепрограмм.
00:43
He's 47 yearsлет oldстарый, slimстройное, spikyостроконечный hairволосы,
9
31880
3256
Ему 47 лет, худощавый,
с «ёжиком» на голове,
00:47
describesописывает himselfсам on Twitterщебет
as "moviesкино, TVТВ, technologyтехнологии, tacosтако."
10
35160
4816
в Твиттере он описывает себя так:
«фильмы, ТВ, технологии, тако».
00:52
And RoyРой PriceЦена has a very responsibleответственность jobработа,
because it's his responsibilityобязанность
11
40000
5176
У Роя Прайса очень ответственная работа,
потому что он отвечает
00:57
to pickвыбирать the showsшоу, the originalоригинал contentсодержание
that AmazonАмазонка is going to make.
12
45200
4056
за выбор сериалов, оригинального контента,
который будет производить Amazon.
01:01
And of courseкурс that's
a highlyвысоко competitiveконкурентоспособный spaceпространство.
13
49280
2336
Безусловно, это очень конкурентная среда.
01:03
I mean, there are so manyмногие
TVТВ showsшоу alreadyуже out there,
14
51640
2736
Уже есть столько сериалов,
01:06
that RoyРой can't just chooseвыберите any showпоказать.
15
54400
2176
что Рой не может просто выбрать
любой сериал.
01:08
He has to find showsшоу
that are really, really great.
16
56600
4096
Ему нужно находить сериалы,
которые действительно очень хороши.
01:12
So in other wordsслова, he has to find showsшоу
17
60720
2816
Другими словами,
ему нужно находить сериалы,
01:15
that are on the very right endконец
of this curveкривая here.
18
63560
2376
которые будут на самом правом краю
этой кривой.
01:17
So this curveкривая here
is the ratingрейтинг distributionраспределение
19
65960
2656
Эта кривая — распределение рейтингов
01:20
of about 2,500 TVТВ showsшоу
on the websiteВеб-сайт IMDBIMDB,
20
68640
4376
порядка 2 500 телесериалов,
по данным сайта IMDB.
01:25
and the ratingрейтинг goesидет from one to 10,
21
73040
2896
Рейтинг может быть от 1 до 10,
01:27
and the heightвысота here showsшоу you
how manyмногие showsшоу get that ratingрейтинг.
22
75960
2976
высота показывает, сколько сериалов
получают данный рейтинг.
01:30
So if your showпоказать getsполучает a ratingрейтинг
of nine9 pointsточки or higherвыше, that's a winnerпобедитель.
23
78960
4696
Если у вашего сериала рейтинг
9 и выше, это победитель.
01:35
Then you have a topВверх two percentпроцент showпоказать.
24
83680
1816
Ваш сериал в 2% самых успешных.
01:37
That's showsшоу like "BreakingЛомать BadПлохо,"
"GameИгра of Thronesпрестолы," "The Wireпровод,"
25
85520
3896
Это такие сериалы, как «Во все тяжкие»,
«Игра престолов», «Прослушка»,
01:41
so all of these showsшоу that are addictiveпривыкание,
26
89440
2296
все они затягивают,
01:43
whereafterпосле чего you've watchedсмотрели a seasonвремя года,
your brainголовной мозг is basicallyв основном like,
27
91760
3056
после того, как вы посмотрите сезон,
ваш мозг думает:
01:46
"Where can I get more of these episodesэпизоды?"
28
94840
2176
«Где бы мне достать ещё эпизодов?»
01:49
That kindсвоего рода of showпоказать.
29
97040
1200
Вот такие сериалы.
01:50
On the left sideбоковая сторона, just for clarityясность,
here on that endконец,
30
98920
2496
Для ясности: на левой стороне
01:53
you have a showпоказать calledназывается
"ToddlersМалыши and TiarasДиадемы" --
31
101440
3176
у нас сериал «Коронованные детки»,
01:56
(LaughterСмех)
32
104640
2656
(Смех)
01:59
-- whichкоторый should tell you enoughдостаточно
33
107320
1536
и это должно сказать достаточно
02:00
about what's going on
on that endконец of the curveкривая.
34
108880
2191
о том, что происходит
на левом краю кривой.
02:03
Now, RoyРой PriceЦена is not worriedволновался about
gettingполучение on the left endконец of the curveкривая,
35
111095
4161
Рой Прайс не боится попасть
на левый край,
02:07
because I think you would have to have
some seriousсерьезный brainpowerнаучные кадры
36
115280
2936
потому что нужны серьёзные
мыслительные способности,
02:10
to undercutподрезать "ToddlersМалыши and TiarasДиадемы."
37
118240
1696
чтобы обойти «Коронованных деток».
02:11
So what he's worriedволновался about
is this middleсредний bulgeвыпуклость here,
38
119960
3936
О чём он волновался,
так это о средней части этой кривой,
02:15
the bulgeвыпуклость of averageв среднем TVТВ,
39
123920
1816
там где находятся средние сериалы,
02:17
you know, those showsшоу
that aren'tне really good or really badПлохо,
40
125760
2856
сериалы, которые не хороши и не плохи,
02:20
they don't really get you excitedв восторге.
41
128639
1656
которые никого не будоражат.
02:22
So he needsпотребности to make sure
that he's really on the right endконец of this.
42
130320
4856
Рою нужно непременно попасть на правый край.
02:27
So the pressureдавление is on,
43
135200
1576
Давление нарастает,
02:28
and of courseкурс it's alsoтакже the first time
44
136800
2176
и, конечно, это первый раз,
02:31
that AmazonАмазонка is even
doing something like this,
45
139000
2176
когда Amazon делает что-то подобное,
02:33
so RoyРой PriceЦена does not want
to take any chancesшансы.
46
141200
3336
поэтому Рой Прайс не хочет рисковать.
02:36
He wants to engineerинженер successуспех.
47
144560
2456
Он хочет сделать успешное шоу.
02:39
He needsпотребности a guaranteedгарантированный successуспех,
48
147040
1776
Ему нужен гарантированный успех,
02:40
and so what he does is,
he holdsдержит a competitionсоревнование.
49
148840
2576
поэтому он проводит соревнование.
02:43
So he takes a bunchгроздь of ideasидеи for TVТВ showsшоу,
50
151440
3136
Он берёт несколько идей для сериалов,
02:46
and from those ideasидеи,
throughчерез an evaluationоценка,
51
154600
2296
из которых затем с помощью оценки
02:48
they selectВыбрать eight8 candidatesкандидаты for TVТВ showsшоу,
52
156920
4096
они выбирают восемь кандидатов
для сериала,
02:53
and then he just makesмарки the first episodeэпизод
of eachкаждый one of these showsшоу
53
161040
3216
а потом снимают первый эпизод
для каждого из этих сериалов
02:56
and putsпуты them onlineонлайн for freeсвободно
for everyoneвсе to watch.
54
164280
3136
и выкладывают их онлайн бесплатно,
чтобы все могли посмотреть.
02:59
And so when AmazonАмазонка
is givingдающий out freeсвободно stuffматериал,
55
167440
2256
Когда Amazon бесплатно раздаёт что-то,
03:01
you're going to take it, right?
56
169720
1536
мы, конечно, берём, правда?
03:03
So millionsмиллионы of viewersзрителей
are watchingнаблюдение those episodesэпизоды.
57
171280
5136
Миллионы зрителей смотрят эти эпизоды.
03:08
What they don't realizeпонимать is that,
while they're watchingнаблюдение theirих showsшоу,
58
176440
3216
Но они не осознают,
что пока они смотрят сериалы,
03:11
actuallyна самом деле, they are beingявляющийся watchedсмотрели.
59
179680
2296
на самом деле наблюдают за ними.
03:14
They are beingявляющийся watchedсмотрели
by RoyРой PriceЦена and his teamкоманда,
60
182000
2336
За ними наблюдает Рой Прайс и его команда,
03:16
who recordзапись everything.
61
184360
1376
они записывают всё.
03:17
They recordзапись when somebodyкто-то pressesпрессы playиграть,
when somebodyкто-то pressesпрессы pauseПауза,
62
185760
3376
Записывают, когда кто-то нажал
«Воспроизвести», «Пауза»,
03:21
what partsчасти they skipпропускать,
what partsчасти they watch again.
63
189160
2536
какие части они пропускают,
какие — пересматривают.
03:23
So they collectсобирать millionsмиллионы of dataданные pointsточки,
64
191720
2256
Они собирают миллионы ориентиров,
03:26
because they want
to have those dataданные pointsточки
65
194000
2096
потому что они хотят иметь эти данные,
03:28
to then decideпринимать решение
whichкоторый showпоказать they should make.
66
196120
2696
чтобы на их основе решить,
какой сериал снимать.
03:30
And sure enoughдостаточно,
so they collectсобирать all the dataданные,
67
198840
2176
Закономерно, что они собирают данные,
03:33
they do all the dataданные crunchingхруст,
and an answerответ emergesвозникает,
68
201040
2576
обрабатывают их и получают ответ,
03:35
and the answerответ is,
69
203640
1216
и ответ таков:
03:36
"AmazonАмазонка should do a sitcomкомедия положений
about four4 Republicanреспубликанец US SenatorsСенаторы."
70
204880
5536
«Amazon должна снять ситком
о четырёх сенаторах-республиканцах».
03:42
They did that showпоказать.
71
210440
1216
Они его сняли.
03:43
So does anyoneкто угодно know the nameимя of the showпоказать?
72
211680
2160
Кто-нибудь знает, как он называется?
03:46
(AudienceАудитория: "AlphaАльфа Houseдом.")
73
214720
1296
(Зал: «Альфа-дом»)
03:48
Yes, "AlphaАльфа Houseдом,"
74
216040
1456
Да, «Альфа-дом»,
03:49
but it seemsкажется like not too manyмногие of you here
rememberзапомнить that showпоказать, actuallyна самом деле,
75
217520
4096
но, похоже, немногие из вас
помнят этот сериал,
03:53
because it didn't turnочередь out that great.
76
221640
1856
потому что он не был таким классным.
03:55
It's actuallyна самом деле just an averageв среднем showпоказать,
77
223520
1856
На самом деле это средний сериал,
03:57
actuallyна самом деле -- literallyбуквально, in factфакт, because
the averageв среднем of this curveкривая here is at 7.4,
78
225400
4576
буквально средний, потому что
средняя цифра на этой кривой — 7.4,
04:02
and "AlphaАльфа Houseдом" landsземли at 7.5,
79
230000
2416
а у «Альфа-дома» рейтинг 7.5,
04:04
so a slightlyнемного aboveвыше averageв среднем showпоказать,
80
232440
2016
чуть-чуть выше среднего сериала,
04:06
but certainlyбезусловно not what RoyРой PriceЦена
and his teamкоманда were aimingприцеливание for.
81
234480
2920
но это явно не то, к чему Рой Прайс
и его команда стремились.
04:10
Meanwhileмежду тем, howeverОднако,
at about the sameодна и та же time,
82
238320
2856
А между тем примерно в то же время
04:13
at anotherдругой companyКомпания,
83
241200
1576
другая компания,
04:14
anotherдругой executiveдолжностное лицо did manageуправлять
to landземельные участки a topВверх showпоказать usingс помощью dataданные analysisанализ,
84
242800
4216
другой менеджер умудрился сделать
топовый сериал, используя анализ данных.
04:19
and his nameимя is TedТед,
85
247040
1576
Его зовут Тед,
04:20
TedТед SarandosSarandos, who is
the Chiefглавный Contentсодержание Officerсотрудник of NetflixNetflix,
86
248640
3416
Тед Сарандос,
программный директор в Netflix,
04:24
and just like RoyРой,
he's on a constantпостоянная missionмиссия
87
252080
2136
и, как и Рой,
он постоянно работает над тем,
04:26
to find that great TVТВ showпоказать,
88
254240
1496
чтобы найти отличный сериал,
04:27
and he usesиспользования dataданные as well to do that,
89
255760
2016
и он также использует для этого данные,
04:29
exceptКроме he does it
a little bitнемного differentlyиначе.
90
257800
2015
но делает это немного по-другому.
04:31
So insteadвместо of holdingдержа a competitionсоревнование,
what he did -- and his teamкоманда of courseкурс --
91
259839
3737
Вместо того, чтобы проводить соревнование,
он — и его команда, конечно, —
04:35
was they lookedсмотрел at all the dataданные
they alreadyуже had about NetflixNetflix viewersзрителей,
92
263600
3536
посмотрели на данные, которые
уже имелись о зрителях Netflix:
04:39
you know, the ratingsрейтинги
they give theirих showsшоу,
93
267160
2096
оценки, которые зрители ставили сериалам,
04:41
the viewingпросмотр historiesистории,
what showsшоу people like, and so on.
94
269280
2696
история просмотров,
какие сериалы нравятся и так далее.
04:44
And then they use that dataданные to discoverобнаружить
95
272000
1896
Они использовали эти данные,
04:45
all of these little bitsбиты and piecesкуски
about the audienceаудитория:
96
273920
2616
чтобы выяснить мелочи и детали
об аудитории:
04:48
what kindsвиды of showsшоу they like,
97
276560
1456
какие сериалы им нравятся,
04:50
what kindсвоего рода of producersпроизводители,
what kindсвоего рода of actorsактеры.
98
278040
2096
какие продюсеры, какие актёры.
04:52
And onceодин раз they had
all of these piecesкуски togetherвместе,
99
280160
2576
Когда они собрали эти данные вместе,
04:54
they tookвзял a leapпрыжок of faithвера,
100
282760
1656
они совершили решительный шаг,
04:56
and they decidedприняли решение to licenseлицензия
101
284440
2096
они решили сделать
04:58
not a sitcomкомедия положений about four4 SenatorsСенаторы
102
286560
2456
не ситком о четырёх сенаторах,
05:01
but a dramaдрама seriesсерии about a singleОдин SenatorСенатор.
103
289040
2880
а драму об одном сенаторе.
05:04
You guys know the showпоказать?
104
292760
1656
Вы, ребята, знаете этот сериал?
05:06
(LaughterСмех)
105
294440
1296
(Смех)
05:07
Yes, "Houseдом of CardsКарты," and NetflixNetflix
of courseкурс, nailedпригвожденный it with that showпоказать,
106
295760
3736
Да, «Карточный домик», и Netflix
отлично справился с этим сериалом,
05:11
at leastнаименее for the first two seasonsвремена года.
107
299520
2136
по крайней мере, с первыми двумя сезонами.
05:13
(LaughterСмех) (ApplauseАплодисменты)
108
301680
3976
(Смех) (Аплодисменты)
05:17
"Houseдом of CardsКарты" getsполучает
a 9.1 ratingрейтинг on this curveкривая,
109
305680
3176
У «Карточного домика»
рейтинг 9.1 по этой кривой,
05:20
so it's exactlyв точку
where they wanted it to be.
110
308880
3176
именно такой, какой они хотели.
05:24
Now, the questionвопрос of courseкурс is,
what happenedполучилось here?
111
312080
2416
Само собой, вопрос в том,
что произошло?
05:26
So you have two very competitiveконкурентоспособный,
data-savvyДанные подкованных companiesкомпании.
112
314520
2656
Две конкурентоспособные,
понимающие в данных компании.
05:29
They connectсоединять all of these
millionsмиллионы of dataданные pointsточки,
113
317200
2856
Они собирают миллионы индикаторов,
05:32
and then it worksработает
beautifullyкрасиво for one of them,
114
320080
2376
которые отлично работают для одной из них
05:34
and it doesn't work for the other one.
115
322480
1856
и совсем не работают для другой.
05:36
So why?
116
324360
1216
Почему?
05:37
Because logicлогика kindсвоего рода of tellsговорит you
that this should be workingза работой all the time.
117
325600
3456
Логика подсказывает нам, что это должно
было сработать в обоих случаях.
05:41
I mean, if you're collectingсбор
millionsмиллионы of dataданные pointsточки
118
329080
2456
В смысле, если вы собираете
миллионы индикаторов
05:43
on a decisionрешение you're going to make,
119
331560
1736
для решения, которое собираетесь принять,
05:45
then you should be ableв состоянии
to make a prettyСимпатичная good decisionрешение.
120
333320
2616
то вы должны принять
очень хорошее решение.
05:47
You have 200 yearsлет
of statisticsстатистика to relyполагаться on.
121
335960
2216
У вас есть статистика за 200 лет.
05:50
You're amplifyingусиливающий it
with very powerfulмощный computersкомпьютеры.
122
338200
3016
Вы анализируете данные
с помощью очень мощных компьютеров.
05:53
The leastнаименее you could expectожидать
is good TVТВ, right?
123
341240
3280
Как минимум, вы можете ожидать
хорошего сериала, да?
05:57
And if dataданные analysisанализ
does not work that way,
124
345880
2720
И если анализ данных не работает,
06:01
then it actuallyна самом деле getsполучает a little scaryстрашно,
125
349520
2056
то это даже страшновато,
06:03
because we liveжить in a time
where we're turningпревращение to dataданные more and more
126
351600
3816
потому что мы живём во время,
когда мы всё больше работаем с данными
06:07
to make very seriousсерьезный decisionsрешения
that go farдалеко beyondза TVТВ.
127
355440
4480
для принятия серьёзных решений,
которые выходят далеко за рамки ТВ.
06:12
Does anyoneкто угодно here know the companyКомпания
Multi-HealthMulti-Health Systemsсистемы?
128
360760
3240
Кто-нибудь знает компанию
Multi-Health Systems?
06:17
No one. OK, that's good actuallyна самом деле.
129
365080
1656
Никто. Это даже хорошо.
06:18
OK, so Multi-HealthMulti-Health Systemsсистемы
is a softwareпрограммного обеспечения companyКомпания,
130
366760
3216
Multi-Health Systems —
это компания-разработчик,
06:22
and I hopeнадежда that nobodyникто here in this roomкомната
131
370000
2816
и я надеюсь, никто в этом зале
06:24
ever comesвыходит into contactконтакт
with that softwareпрограммного обеспечения,
132
372840
3176
никогда не столкнётся с их ПО,
06:28
because if you do,
it meansозначает you're in prisonтюрьма.
133
376040
2096
потому что если столкнётесь,
значит, вы в тюрьме.
06:30
(LaughterСмех)
134
378160
1176
(Смех)
06:31
If someoneкто то here in the US is in prisonтюрьма,
and they applyподать заявление for paroleчестное слово,
135
379360
3536
Если в США заключённый
просит о досрочном освобождении,
06:34
then it's very likelyвероятно that
dataданные analysisанализ softwareпрограммного обеспечения from that companyКомпания
136
382920
4296
весьма вероятно, что будет использован
анализ данных от этой компании,
06:39
will be used in determiningопределения
whetherбудь то to grantдаровать that paroleчестное слово.
137
387240
3616
чтобы решить, стоит ли его предоставить.
06:42
So it's the sameодна и та же principleпринцип
as AmazonАмазонка and NetflixNetflix,
138
390880
2576
Это то же самый принцип,
как у Amazon и Netflix,
06:45
but now insteadвместо of decidingпринятия решения whetherбудь то
a TVТВ showпоказать is going to be good or badПлохо,
139
393480
4616
только вместо того, чтобы решать,
будет ли сериал хорошим или плохим,
06:50
you're decidingпринятия решения whetherбудь то a personчеловек
is going to be good or badПлохо.
140
398120
2896
вы решаете, будет ли человек
хорошим или плохим.
06:53
And mediocreпосредственный TVТВ, 22 minutesминут,
that can be prettyСимпатичная badПлохо,
141
401040
5496
Средненькая серия на 22 минуты —
да, это может быть не очень хорошо,
06:58
but more yearsлет in prisonтюрьма,
I guessУгадай, even worseхуже.
142
406560
2640
но больше лет в тюрьме —
это много хуже.
07:02
And unfortunatelyК сожалению, there is actuallyна самом деле
some evidenceдоказательства that this dataданные analysisанализ,
143
410360
4136
К сожалению, есть доказательства,
что такой анализ данных,
07:06
despiteнесмотря havingимеющий lots of dataданные,
does not always produceпроизводить optimumоптимальный resultsРезультаты.
144
414520
4216
несмотря на огромное количество данных,
не всегда выдаёт оптимальные результаты.
07:10
And that's not because a companyКомпания
like Multi-HealthMulti-Health Systemsсистемы
145
418760
2722
Это не потому, что компании вроде
Multi-Health Systems
07:13
doesn't know what to do with dataданные.
146
421506
1627
не знают, что делать с данными.
07:15
Even the mostбольшинство data-savvyДанные подкованных
companiesкомпании get it wrongнеправильно.
147
423158
2298
Даже самые понимающие в данных
компании ошибаются.
07:17
Yes, even GoogleGoogle getsполучает it wrongнеправильно sometimesиногда.
148
425480
2400
Да, даже Google иногда ошибается.
07:20
In 2009, GoogleGoogle announcedобъявленный
that they were ableв состоянии, with dataданные analysisанализ,
149
428680
4496
В 2009 году Google заявил,
что благодаря анализу данных они могут
07:25
to predictпрогнозировать outbreaksвспышки of influenzaгрипп,
the nastyпротивный kindсвоего рода of fluгрипп,
150
433200
4136
предсказать эпидемию гриппа,
07:29
by doing dataданные analysisанализ
on theirих GoogleGoogle searchesпоиск.
151
437360
3776
основываясь на анализе
поисковых запросов.
07:33
And it workedработал beautifullyкрасиво,
and it madeсделал a bigбольшой splashвсплеск in the newsНовости,
152
441160
3856
Это отлично работало,
это вызвало резонанс в новостях,
включая максимальный успех
для научного исследования —
07:37
includingв том числе the pinnacleвершина
of scientificнаучный successуспех:
153
445040
2136
07:39
a publicationпубликация in the journalжурнал "NatureПрирода."
154
447200
2456
публикацию в журнале Nature.
07:41
It workedработал beautifullyкрасиво
for yearгод after yearгод after yearгод,
155
449680
3616
Это отлично работало
год за годом, год за годом,
07:45
untilдо one yearгод it failedне смогли.
156
453320
1656
пока однажды не провалилось.
07:47
And nobodyникто could even tell exactlyв точку why.
157
455000
2256
Никто не может точно сказать почему.
07:49
It just didn't work that yearгод,
158
457280
1696
Это просто не сработало в том году;
07:51
and of courseкурс that again madeсделал bigбольшой newsНовости,
159
459000
1936
конечно, снова был резонанс в новостях,
07:52
includingв том числе now a retractionвтягивание
160
460960
1616
включая отзы́в статьи из журнала Nature.
07:54
of a publicationпубликация
from the journalжурнал "NatureПрирода."
161
462600
2840
07:58
So even the mostбольшинство data-savvyДанные подкованных companiesкомпании,
AmazonАмазонка and GoogleGoogle,
162
466480
3336
Так что даже самые опытные компании,
Amazon и Google,
08:01
they sometimesиногда get it wrongнеправильно.
163
469840
2136
иногда ошибаются.
08:04
And despiteнесмотря all those failuresнеудачи,
164
472000
2936
Но несмотря на эти ошибки,
08:06
dataданные is movingперемещение rapidlyбыстро
into real-lifeреальная жизнь decision-makingпринимать решение --
165
474960
3856
данные всё больше вовлекаются
в ежедневное принятие решений —
08:10
into the workplaceрабочее место,
166
478840
1816
в рабочее пространство,
08:12
lawзакон enforcementправоприменение,
167
480680
1816
в работу правоохранительных органов,
08:14
medicineлекарственное средство.
168
482520
1200
медицину.
08:16
So we should better make sure
that dataданные is helpingпомощь.
169
484400
3336
Так что нам бы хорошо убедиться,
что данные помогают.
08:19
Now, personallyлично I've seenвидели
a lot of this struggleборьба with dataданные myselfсебя,
170
487760
3136
Я лично сталкивался с заминками
в работе с данными,
08:22
because I work in computationalвычислительный geneticsгенетика,
171
490920
1976
потому что я работаю
в вычислительной генетике,
08:24
whichкоторый is alsoтакже a fieldполе
where lots of very smartумная people
172
492920
2496
а это сфера, где очень умные люди
08:27
are usingс помощью unimaginableневообразимый amountsсуммы of dataданные
to make prettyСимпатичная seriousсерьезный decisionsрешения
173
495440
3656
используют невообразимые объёмы данных
для принятия серьёзных решений,
08:31
like decidingпринятия решения on a cancerрак therapyтерапия
or developingразвивающийся a drugлекарственное средство.
174
499120
3560
например, решения о терапии рака
или разработки лекарства.
08:35
And over the yearsлет,
I've noticedзаметил a sortСортировать of patternшаблон
175
503520
2376
За годы я заметил что-то вроде тенденции
08:37
or kindсвоего рода of ruleправило, if you will,
about the differenceразница
176
505920
2456
или правила, если хотите, о разнице
08:40
betweenмежду successfulуспешный
decision-makingпринимать решение with dataданные
177
508400
2696
между успешным решением,
основанным на данных,
08:43
and unsuccessfulнеудачный decision-makingпринимать решение,
178
511120
1616
и неуспешным решением,
08:44
and I find this a patternшаблон worthстоимость sharingразделение,
and it goesидет something like this.
179
512760
3880
и я думаю, что эта тенденция стоит того,
чтобы поделиться ей. Вот она:
08:50
So wheneverвсякий раз, когда you're
solvingрешение a complexсложный problemпроблема,
180
518520
2135
когда вы решаете сложную проблему,
08:52
you're doing essentiallyпо существу two things.
181
520679
1737
вы обязательно делаете две вещи.
08:54
The first one is, you take that problemпроблема
apartКроме into its bitsбиты and piecesкуски
182
522440
3296
Во-первых, вы берёте проблему
и раскладываете её на кусочки,
08:57
so that you can deeplyглубоко analyzeанализировать
those bitsбиты and piecesкуски,
183
525760
2496
чтобы суметь глубоко проанализировать
эти кусочки,
09:00
and then of courseкурс
you do the secondвторой partчасть.
184
528280
2016
а потом, конечно,
вы делаете вторую часть.
09:02
You put all of these bitsбиты and piecesкуски
back togetherвместе again
185
530320
2656
Вы собираете эти кусочки в одно целое,
09:05
to come to your conclusionвывод.
186
533000
1336
чтобы прийти к решению.
09:06
And sometimesиногда you
have to do it over again,
187
534360
2336
Иногда приходится делать это не раз,
09:08
but it's always those two things:
188
536720
1656
но всегда есть два этапа:
09:10
takingпринятие apartКроме and puttingсдачи
back togetherвместе again.
189
538400
2320
разложить на кусочки и собрать обратно.
09:14
And now the crucialключевой thing is
190
542280
1616
Самое важное состоит в том,
09:15
that dataданные and dataданные analysisанализ
191
543920
2896
что данные и анализ данных
09:18
is only good for the first partчасть.
192
546840
2496
годятся только для первого шага.
09:21
DataДанные and dataданные analysisанализ,
no matterдело how powerfulмощный,
193
549360
2216
Данные и анализ данных,
не важно, насколько мощные,
09:23
can only help you takingпринятие a problemпроблема apartКроме
and understandingпонимание its piecesкуски.
194
551600
4456
могут помочь только с разделением
проблемы на кусочки и пониманием их.
09:28
It's not suitedподходящий to put those piecesкуски
back togetherвместе again
195
556080
3496
Они не подходят для собирания
кусочков в единое целое
и принятия решения.
09:31
and then to come to a conclusionвывод.
196
559600
1896
09:33
There's anotherдругой toolинструмент that can do that,
and we all have it,
197
561520
2736
Для этого существует другой инструмент,
который есть у всех нас, —
09:36
and that toolинструмент is the brainголовной мозг.
198
564280
1296
это наш мозг.
09:37
If there's one thing a brainголовной мозг is good at,
199
565600
1936
Что мозг умеет делать хорошо —
09:39
it's takingпринятие bitsбиты and piecesкуски
back togetherвместе again,
200
567560
2256
так это собирать кусочки воедино,
09:41
even when you have incompleteнеполный informationИнформация,
201
569840
2016
даже в условиях недостаточной информации,
09:43
and comingприход to a good conclusionвывод,
202
571880
1576
и делать правильные выводы,
09:45
especiallyособенно if it's the brainголовной мозг of an expertэксперт.
203
573480
2936
особенно если это мозг эксперта.
09:48
And that's why I believe
that NetflixNetflix was so successfulуспешный,
204
576440
2656
Я думаю, именно поэтому
Netflix получил такой успех —
09:51
because they used dataданные and brainsмозги
where they belongпринадлежать in the processобработать.
205
579120
3576
они использовали и данные, и силу
человеческого мозга, где необходимо.
09:54
They use dataданные to first understandПонимаю
lots of piecesкуски about theirих audienceаудитория
206
582720
3536
Они использовали данные,
чтобы детально понять свою аудиторию,
09:58
that they otherwiseв противном случае wouldn'tне будет have
been ableв состоянии to understandПонимаю at that depthглубина,
207
586280
3416
иначе они не смогли бы сделать
такой глубокий анализ,
10:01
but then the decisionрешение
to take all these bitsбиты and piecesкуски
208
589720
2616
но их решение, когда пришло время
собирать кусочки воедино
10:04
and put them back togetherвместе again
and make a showпоказать like "Houseдом of CardsКарты,"
209
592360
3336
и снимать сериал вроде
«Карточного домика»,
10:07
that was nowhereнигде in the dataданные.
210
595720
1416
было принято не данными.
10:09
TedТед SarandosSarandos and his teamкоманда
madeсделал that decisionрешение to licenseлицензия that showпоказать,
211
597160
3976
Это решение приняли
Тед Сарандос и его команда,
10:13
whichкоторый alsoтакже meantимел ввиду, by the way,
that they were takingпринятие
212
601160
2381
что, кстати, означает,
10:15
a prettyСимпатичная bigбольшой personalличный riskриск
with that decisionрешение.
213
603565
2851
что они лично серьёзно рисковали
с этим решением.
10:18
And AmazonАмазонка, on the other handрука,
they did it the wrongнеправильно way around.
214
606440
3016
С другой стороны, Amazon
сделали всё наоборот.
10:21
They used dataданные all the way
to driveводить машину theirих decision-makingпринимать решение,
215
609480
2736
Они использовали данные
на обоих этапах принятия решения:
10:24
first when they heldРучной
theirих competitionсоревнование of TVТВ ideasидеи,
216
612240
2416
сначала провели
соревнование сценариев для сериала,
10:26
then when they selectedвыбранный "AlphaАльфа Houseдом"
to make as a showпоказать.
217
614680
3696
а затем выбрали «Альфа-дом».
10:30
WhichКоторый of courseкурс was
a very safeбезопасно decisionрешение for them,
218
618400
2496
Это, конечно, было
весьма безопасное решение для них,
10:32
because they could always
pointточка at the dataданные, sayingпоговорка,
219
620920
2456
потому что они всегда могли бы сказать:
10:35
"This is what the dataданные tellsговорит us."
220
623400
1696
«Вот что говорят нам данные».
10:37
But it didn't leadвести to the exceptionalисключительный
resultsРезультаты that they were hopingнадеясь for.
221
625120
4240
Но это не привело их к выдающемуся
результату, к которому они стремились.
10:42
So dataданные is of courseкурс a massivelyмассивно
usefulполезным toolинструмент to make better decisionsрешения,
222
630120
4976
Данные — это, безусловно, полезный
инструмент для принятия хороших решений,
10:47
but I believe that things go wrongнеправильно
223
635120
2376
но я уверен, что неправильно,
10:49
when dataданные is startingначало
to driveводить машину those decisionsрешения.
224
637520
2576
когда данные начинают
управлять этими решениями.
10:52
No matterдело how powerfulмощный,
dataданные is just a toolинструмент,
225
640120
3776
Вне зависимости от своей силы,
данные — это всего лишь инструмент,
10:55
and to keep that in mindразум,
I find this deviceустройство here quiteдовольно usefulполезным.
226
643920
3336
учитывая это, я думаю,
что вот эта штука очень полезная.
10:59
ManyМногие of you will ...
227
647280
1216
Многие из вас...
11:00
(LaughterСмех)
228
648520
1216
(Смех)
11:01
Before there was dataданные,
229
649760
1216
До того, как появились данные,
11:03
this was the decision-makingпринимать решение
deviceустройство to use.
230
651000
2856
эту штуку использовали
для принятия решений.
11:05
(LaughterСмех)
231
653880
1256
(Смех)
11:07
ManyМногие of you will know this.
232
655160
1336
Многие знают, что это.
11:08
This toyигрушка here is calledназывается the Magicмагия 8 BallМяч,
233
656520
1953
Это называется «Шар предсказаний»,
11:10
and it's really amazingудивительно,
234
658497
1199
он правда классный,
11:11
because if you have a decisionрешение to make,
a yes or no questionвопрос,
235
659720
2896
потому что, если вам нужен ответ
на вопрос «да или нет»,
11:14
all you have to do is you shakeвстряхивать the ballмяч,
and then you get an answerответ --
236
662640
3736
всё, что нужно сделать,
это потрясти шар, и у вас есть ответ —
11:18
"MostНаиболее LikelyВероятно" -- right here
in this windowокно in realреальный time.
237
666400
2816
«Вероятнее всего» —
прямо здесь, прямо сейчас.
11:21
I'll have it out laterпозже for techтек demosдемос.
238
669240
2096
Вы сможете попробовать попозже.
11:23
(LaughterСмех)
239
671360
1216
(Смех)
11:24
Now, the thing is, of courseкурс --
so I've madeсделал some decisionsрешения in my life
240
672600
3576
Я принимал в своей жизни много решений,
11:28
where, in hindsightнепредусмотрительность,
I should have just listenedприслушивался to the ballмяч.
241
676200
2896
в которых, как я сейчас понимаю,
лучше было послушаться шара.
11:31
But, you know, of courseкурс,
if you have the dataданные availableдоступный,
242
679120
3336
Но, конечно, если у вас есть данные,
11:34
you want to replaceзамещать this with something
much more sophisticatedутонченный,
243
682480
3056
вы захотите использовать
нечто посерьёзнее шара,
11:37
like dataданные analysisанализ
to come to a better decisionрешение.
244
685560
3616
вроде анализа данных,
чтобы прийти к лучшему решению.
11:41
But that does not changeизменение the basicосновной setupнастроить.
245
689200
2616
Но это не меняет основной идеи.
11:43
So the ballмяч mayмай get smarterумнее
and smarterумнее and smarterумнее,
246
691840
3176
Шар может становиться умнее,
умнее и умнее,
11:47
but I believe it's still on us
to make the decisionsрешения
247
695040
2816
но принятие решений —
всё ещё наша ответственность,
11:49
if we want to achieveдостигать
something extraordinaryнеобычайный,
248
697880
3016
если мы хотим достичь
чего-то выдающегося,
11:52
on the right endконец of the curveкривая.
249
700920
1936
попасть в правую часть кривой.
11:54
And I find that a very encouragingобнадеживающий
messageсообщение, in factфакт,
250
702880
4496
Я нахожу это очень вдохновляющим:
11:59
that even in the faceлицо
of hugeогромный amountsсуммы of dataданные,
251
707400
3976
даже перед лицом огромных
объёмов данных
12:03
it still paysплатит off to make decisionsрешения,
252
711400
4096
всё ещё стоит принимать решения,
12:07
to be an expertэксперт in what you're doing
253
715520
2656
быть экспертом в своём деле
12:10
and take risksриски.
254
718200
2096
и рисковать.
12:12
Because in the endконец, it's not dataданные,
255
720320
2776
Потому что в конце концов не данные,
12:15
it's risksриски that will landземельные участки you
on the right endконец of the curveкривая.
256
723120
3960
а риск приведёт вас в правую часть кривой.
12:19
Thank you.
257
727840
1216
Спасибо.
12:21
(ApplauseАплодисменты)
258
729080
3680
(Аплодисменты)
Translated by Nadya Borisova
Reviewed by Елена Ногина

▲Back to top

ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com