ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com
TEDxCambridge

Sebastian Wernicke: How to use data to make a hit TV show

세바스찬 워닉 (Sebastian Wernicke): 히트작 TV 쇼를 만들기 위한 데이터 사용법

Filmed:
1,628,704 views

더 많은 정보를 수집하는 것이 과연 더 나은 의사결정을 가져다 줄까요? 치열하고 데이터를 잘 이해하는 아마존, 구글과 넷플릭스같은 회사들은 데이터를 분석하는 것이 항상 최선의 결과를 가져오지 않는다는 사실을 배웠습니다. 이 강연에서 데이터 과학자 세바스찬 워닉이 데이터에만 의존하여 의사결정을 할 때 무엇이 문제인지에 대해 분석하고 더 똑똑한 데이터 사용법에 대해 알려드립니다.
- Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects. Full bio

Double-click the English transcript below to play the video.

00:12
Roy로이 Price가격 is a man that most가장 of you
have probably아마 never heard들었던 about,
0
820
4276
로이 프라이스라는 사람에 대해
아시는 분이 얼마 되지 않을 거예요.
00:17
even though그래도 he may할 수있다 have been responsible책임있는
1
5120
2496
그가 2013년 4월 19일에 여러분이
00:19
for 22 somewhat약간 mediocre평범한
minutes의사록 of your life on April4 월 19, 2013.
2
7640
6896
형편없는 22분을 보낸 이유일
수도 있지만 말입니다.
00:26
He may할 수있다 have also또한 been responsible책임있는
for 22 very entertaining재미있는 minutes의사록,
3
14560
3176
그는 일부에게는 아주 흥미로운
22분을 보내게 하기도 했지만
00:29
but not very many많은 of you.
4
17760
2256
여러분 대부분은 아닐테죠.
00:32
And all of that goes간다 back to a decision결정
5
20040
1896
그리고 이 모든건
삼년 전 로이가 만들어야 했던
결정으로 되돌아 갑니다.
00:33
that Roy로이 had to make
about three years연령 ago...전에.
6
21960
2000
00:35
So you see, Roy로이 Price가격
is a senior연장자 executive행정부 with Amazon아마존 Studios스튜디오.
7
23984
4832
네, 로이는 아마존 스튜디오의
고위 간부입니다.
00:40
That's the TVTV production생산
company회사 of Amazon아마존.
8
28840
3016
아마존의 TV 기획 부서죠.
00:43
He's 47 years연령 old늙은, slim날씬한, spiky대못 같은 hair머리,
9
31880
3256
로이는 47세로 마르고
뾰족한 머리를 했으며
00:47
describes기술하다 himself그 자신 on Twitter지저귀다
as "movies영화 산업, TVTV, technology과학 기술, tacos타코."
10
35160
4816
트위터에 스스로를 다음과 같이
묘사했습니다. "영화, TV, 기술, 타코"
00:52
And Roy로이 Price가격 has a very responsible책임있는 job,
because it's his responsibility책임
11
40000
5176
로이의 일은 책임감이 막중했는데
그가 하는 일은 아마존이 만들
시작 컨텐츠를 선택하는 것이니까요.
00:57
to pick선택 the shows, the original실물 content함유량
that Amazon아마존 is going to make.
12
45200
4056
01:01
And of course코스 that's
a highly고도로 competitive경쟁력있는 space공간.
13
49280
2336
물론 경쟁이 매우 심한 분야이죠.
01:03
I mean, there are so many많은
TVTV shows already이미 out there,
14
51640
2736
그러니까 이미 많은 TV 쇼가 있고
01:06
that Roy로이 can't just choose고르다 any show보여 주다.
15
54400
2176
로이는 아무 쇼나 선택할 수 없죠.
01:08
He has to find shows
that are really, really great.
16
56600
4096
매우 훌륭한 쇼를 찾아야 해요.
01:12
So in other words, he has to find shows
17
60720
2816
즉, 다시 말해서
바로 이 곡선 오른쪽 끝에
있는 것들이어야 한다는 뜻이죠.
01:15
that are on the very right end종료
of this curve곡선 here.
18
63560
2376
01:17
So this curve곡선 here
is the rating평가 distribution분포
19
65960
2656
이 곡선은 IMDB 웹사이트의
2,500 여개의 TV 쇼를
01:20
of about 2,500 TVTV shows
on the website웹 사이트 IMDBIMDB,
20
68640
4376
평가하여 분석한 내용을 담고 있습니다.
01:25
and the rating평가 goes간다 from one to 10,
21
73040
2896
평점은 1점부터 10점으로 매겨지며
01:27
and the height신장 here shows you
how many많은 shows get that rating평가.
22
75960
2976
여기 이 높이는 그 평점을
받은 쇼의 개수를 보여주죠.
01:30
So if your show보여 주다 gets도착 a rating평가
of nine아홉 points전철기 or higher더 높은, that's a winner우승자.
23
78960
4696
9점 이상을 받았다면 대박인 거예요.
01:35
Then you have a top상단 two percent퍼센트 show보여 주다.
24
83680
1816
상위 2%의 쇼라는 거죠.
01:37
That's shows like "Breaking파괴 Bad나쁜,"
"Game경기 of Thrones왕좌," "The Wire철사,"
25
85520
3896
"브레이킹 배드", "왕좌의 게임",
"더 와이어" 처럼요.
01:41
so all of these shows that are addictive중독성의,
26
89440
2296
이 쇼들은 중독성이 강해요.
01:43
whereafter이후 you've watched보았다 a season시즌,
your brain is basically원래 like,
27
91760
3056
한 시즌을 보고나면 여러분의 뇌는
01:46
"Where can I get more of these episodes에피소드?"
28
94840
2176
"다른 시즌들은 어디서 구하지?"
라고 생각할 거예요.
01:49
That kind종류 of show보여 주다.
29
97040
1200
그런 쇼들이죠.
01:50
On the left side측면, just for clarity명쾌함,
here on that end종료,
30
98920
2496
명확히 보여드리기 위해 왼쪽 끝에는
뭐가 있는지 알려드리자면요.
01:53
you have a show보여 주다 called전화 한
"Toddlers유아 and Tiaras티아라" --
31
101440
3176
"토들러 앤 티아라"가 있어요.
01:56
(Laughter웃음)
32
104640
2656
(웃음)
01:59
-- which어느 should tell you enough충분히
33
107320
1536
여러분은 충분히 그 곡선 끝에서
02:00
about what's going on
on that end종료 of the curve곡선.
34
108880
2191
어떤 일이 일어나고 있는지
예측할 수 있을 거예요.
02:03
Now, Roy로이 Price가격 is not worried걱정 about
getting점점 on the left end종료 of the curve곡선,
35
111095
4161
네, 로이 프라이스는 왼쪽 곡선에
머물게 되는 것에 신경쓰지 않아요.
02:07
because I think you would have to have
some serious진지한 brainpower지력
36
115280
2936
왜냐하면 여러분이
"토들러 앤 티아라"를 제치시려면
뇌를 좀 많이 쓰셔야 할테니까요.
02:10
to undercut언더컷 "Toddlers유아 and Tiaras티아라."
37
118240
1696
02:11
So what he's worried걱정 about
is this middle중간 bulge부풀다 here,
38
119960
3936
중요한 건 이 가운데 지점이에요.
02:15
the bulge부풀다 of average평균 TVTV,
39
123920
1816
평균 TV의 중간 지점
02:17
you know, those shows
that aren't있지 않다. really good or really bad나쁜,
40
125760
2856
아시다시피 그다지 좋지도
나쁘지도 않은 쇼들이죠.
02:20
they don't really get you excited흥분한.
41
128639
1656
그렇게 흥미롭지도 않아요.
02:22
So he needs필요 to make sure
that he's really on the right end종료 of this.
42
130320
4856
로이는 반드시 이 오른쪽 끝에
있도록 해야 해요.
02:27
So the pressure압력 is on,
43
135200
1576
부담이 있죠.
02:28
and of course코스 it's also또한 the first time
44
136800
2176
물론 아마존이 이런 일을 하는 것도
02:31
that Amazon아마존 is even
doing something like this,
45
139000
2176
처음이기도 해요.
02:33
so Roy로이 Price가격 does not want
to take any chances기회.
46
141200
3336
로이 프라이스는 위험을 피하고
싶어 할 거예요.
02:36
He wants to engineer기사 success성공.
47
144560
2456
그는 성공을 만들어내길 꾀하죠.
02:39
He needs필요 a guaranteed보증 된 success성공,
48
147040
1776
그에겐 보장된 성공이 필요해요.
02:40
and so what he does is,
he holds보류하다 a competition경쟁.
49
148840
2576
그래서 그는 경쟁을 시킵니다.
02:43
So he takes a bunch다발 of ideas아이디어 for TVTV shows,
50
151440
3136
그는 텔레비젼 쇼의 여러
아이디어를 모은 다음에
02:46
and from those ideas아이디어,
through...을 통하여 an evaluation평가,
51
154600
2296
아이디어와 평가를 토대로
02:48
they select고르다 eight여덟 candidates후보자 for TVTV shows,
52
156920
4096
여덟 개의 TV 쇼를 선택합니다.
02:53
and then he just makes~을 만든다 the first episode삽화
of each마다 one of these shows
53
161040
3216
그리고 각 쇼들의 첫 번째 에피소드를
02:56
and puts넣다 them online온라인 for free비어 있는
for everyone각자 모두 to watch.
54
164280
3136
온라인에 누구나 시청할 수 있도록
무료로 제공해요.
02:59
And so when Amazon아마존
is giving주는 out free비어 있는 stuff물건,
55
167440
2256
아마존이 무료로 제공하면
03:01
you're going to take it, right?
56
169720
1536
당연히 보게 되지 않겠어요?
03:03
So millions수백만 of viewers시청자
are watching보고있다 those episodes에피소드.
57
171280
5136
수 백만 명의 시청자들이
첫 번째 에피소드를 볼 것입니다.
03:08
What they don't realize깨닫다 is that,
while they're watching보고있다 their그들의 shows,
58
176440
3216
쇼를 시청할 땐 알아채지 못하지만
03:11
actually사실은, they are being존재 watched보았다.
59
179680
2296
사실 그들은 감시당하고 있어요.
03:14
They are being존재 watched보았다
by Roy로이 Price가격 and his team,
60
182000
2336
로이 프라이스와 그의 팀으로부터요.
03:16
who record기록 everything.
61
184360
1376
그들은 모든 것을 기록해요.
03:17
They record기록 when somebody어떤 사람 presses프레스 play놀이,
when somebody어떤 사람 presses프레스 pause중지,
62
185760
3376
시청자들이 언제 재생하고
언제 정지하는지 기록하죠.
03:21
what parts부분품 they skip버킷,
what parts부분품 they watch again.
63
189160
2536
어느 장면을 건너 뛰고
어디를 다시 보는지를요.
03:23
So they collect수집 millions수백만 of data데이터 points전철기,
64
191720
2256
그들은 무수히 많은
데이터 포인트를 수집해요.
03:26
because they want
to have those data데이터 points전철기
65
194000
2096
그들에게 필요한건
데이터 포인트거든요.
03:28
to then decide결정하다
which어느 show보여 주다 they should make.
66
196120
2696
그리고 이를 통해 어떤 쇼를
만들어야 할지를 결정하죠.
03:30
And sure enough충분히,
so they collect수집 all the data데이터,
67
198840
2176
당연히 그들은 모든 정보를 수집하고
03:33
they do all the data데이터 crunching바삭 바삭,
and an answer대답 emerges나온다.,
68
201040
2576
분석하면 정답은 나타납니다.
03:35
and the answer대답 is,
69
203640
1216
정답은
03:36
"Amazon아마존 should do a sitcom시트콤
about four Republican공화주의자 US Senators상원 의원."
70
204880
5536
"아마존은 공화당 의원 네 명에 대한
시트콤을 만들어야 한다" 입니다.
03:42
They did that show보여 주다.
71
210440
1216
그래서 정말 만들었어요.
03:43
So does anyone누군가 know the name이름 of the show보여 주다?
72
211680
2160
쇼의 제목을 아시는 분이 계신가요?
03:46
(Audience청중: "Alpha알파 House.")
73
214720
1296
(청중: "알파 하우스")
03:48
Yes, "Alpha알파 House,"
74
216040
1456
네, "알파 하우스"죠.
03:49
but it seems~ 같다 like not too many많은 of you here
remember생각해 내다 that show보여 주다, actually사실은,
75
217520
4096
그런데 많은 분들이 기억하고
계시지는 않은 것 같아요.
03:53
because it didn't turn회전 out that great.
76
221640
1856
그렇게 대박난 작품은 아니거든요.
03:55
It's actually사실은 just an average평균 show보여 주다,
77
223520
1856
중간 정도의 쇼였어요.
03:57
actually사실은 -- literally말 그대로, in fact, because
the average평균 of this curve곡선 here is at 7.4,
78
225400
4576
사실 이 곡선의 중간은 7.4점이고
04:02
and "Alpha알파 House" lands at 7.5,
79
230000
2416
"알파 하우스"는 7.5점이니깐요.
04:04
so a slightly약간 above위에 average평균 show보여 주다,
80
232440
2016
평균보다 아주 약간 위죠.
04:06
but certainly확실히 not what Roy로이 Price가격
and his team were aiming조준 for.
81
234480
2920
하지만 분명 로이 프라이스와
그의 팀이 목표한 것은 아니었죠.
04:10
Meanwhile그 동안에, however하나,
at about the same같은 time,
82
238320
2856
한편 그와 동시에
04:13
at another다른 company회사,
83
241200
1576
다른 회사에서도
04:14
another다른 executive행정부 did manage꾸리다
to land a top상단 show보여 주다 using~을 사용하여 data데이터 analysis분석,
84
242800
4216
회사 간부가 데이터 분석을 통해
탑 쇼 하나를 배출했습니다.
04:19
and his name이름 is Ted테드,
85
247040
1576
그의 이름은 테드 사란도스로
04:20
Ted테드 SarandosSarandos, who is
the Chief주요한 Content함유량 Officer장교 of Netflix넷플릭스,
86
248640
3416
넷플릭스의 웹사이트 콘텐츠
부문 최고 경영자예요.
04:24
and just like Roy로이,
he's on a constant일정한 mission사명
87
252080
2136
로이처럼 그는 끊임없이 좋은 TV쇼를
04:26
to find that great TVTV show보여 주다,
88
254240
1496
찾아야 하는 일을 맡고 있어요.
04:27
and he uses용도 data데이터 as well to do that,
89
255760
2016
테드 또한 이를 위해
데이터를 이용하는데
04:29
except he does it
a little bit비트 differently다르게.
90
257800
2015
조금은 다른 방식을 사용합니다.
04:31
So instead대신에 of holding보유 a competition경쟁,
what he did -- and his team of course코스 --
91
259839
3737
경쟁을 붙이는 대신에 테드와 그의 팀은
04:35
was they looked보았다 at all the data데이터
they already이미 had about Netflix넷플릭스 viewers시청자,
92
263600
3536
넷플릭스 시청자들에 관한
기존의 데이터를 봅니다.
04:39
you know, the ratings평점
they give their그들의 shows,
93
267160
2096
시청자들이 메긴 평점과
04:41
the viewing보기 histories역사,
what shows people like, and so on.
94
269280
2696
시청 기록과 사람들이 어떤 쇼를
좋아하는지 등을요.
04:44
And then they use that data데이터 to discover발견하다
95
272000
1896
그리고 그 데이터를 통해서
04:45
all of these little bits조금 and pieces조각들
about the audience청중:
96
273920
2616
관객들에 대한 소소한
모든 것들을 발견해 나갑니다.
04:48
what kinds종류 of shows they like,
97
276560
1456
어떤 종류의 쇼를 좋아하는지와
04:50
what kind종류 of producers생산자,
what kind종류 of actors배우들.
98
278040
2096
어떤 제작자와 배우를
좋아하는지 말이에요.
04:52
And once일단 they had
all of these pieces조각들 together함께,
99
280160
2576
이런 정보들을 한데 모아서
04:54
they took~했다 a leap뛰기 of faith신앙,
100
282760
1656
상당한 신뢰를 가지고
04:56
and they decided결정적인 to license특허
101
284440
2096
결정한 것은
04:58
not a sitcom시트콤 about four Senators상원 의원
102
286560
2456
네 명의 국회위원에 대한
시트콤이 아니라
05:01
but a drama드라마 series시리즈 about a single단일 Senator평의원.
103
289040
2880
한 명의 국회위원에 대한
드라마였습니다.
05:04
You guys know the show보여 주다?
104
292760
1656
그 쇼가 무엇인지 아세요?
05:06
(Laughter웃음)
105
294440
1296
(웃음)
05:07
Yes, "House of Cards카드," and Netflix넷플릭스
of course코스, nailed못 박힌 it with that show보여 주다,
106
295760
3736
네, "하우스 오브 카드"죠.
최소 두 번째 시즌까진 성공적인
05:11
at least가장 작은 for the first two seasons계절.
107
299520
2136
넷플릭스의 쇼이죠.
05:13
(Laughter웃음) (Applause박수 갈채)
108
301680
3976
(웃음) (박수)
05:17
"House of Cards카드" gets도착
a 9.1 rating평가 on this curve곡선,
109
305680
3176
"하우스 오브 카드"는 이 곡선에서
9.1점을 받았어요.
05:20
so it's exactly정확하게
where they wanted it to be.
110
308880
3176
그들이 원하던 수준이죠.
05:24
Now, the question문제 of course코스 is,
what happened일어난 here?
111
312080
2416
질문을 해보죠.
무슨 일이 일어난 걸까요?
05:26
So you have two very competitive경쟁력있는,
data-savvy데이터에 정통한 companies회사들.
112
314520
2656
두 개의 매우 경쟁적인 데이터를 잘
다루는 회사들이 있다고 합시다.
05:29
They connect잇다 all of these
millions수백만 of data데이터 points전철기,
113
317200
2856
그들은 수 백만 개의 데이터
포인트들을 연결시켜요.
05:32
and then it works공장
beautifully아름답게 for one of them,
114
320080
2376
그들 중 한 쪽에게만 아주 잘 작동하고
05:34
and it doesn't work for the other one.
115
322480
1856
다른 쪽에서는 잘 작동하지 않아요.
05:36
So why?
116
324360
1216
왜 그럴까요?
05:37
Because logic논리 kind종류 of tells말하다 you
that this should be working all the time.
117
325600
3456
왜냐하면 논리적으로 보면 이것이 항상
작동하는 것이 맞을 것이기 때문입니다.
05:41
I mean, if you're collecting수집
millions수백만 of data데이터 points전철기
118
329080
2456
결정을 하기 위해
05:43
on a decision결정 you're going to make,
119
331560
1736
수 백 만의 데이터
포인트를 수집한다면
05:45
then you should be able할 수 있는
to make a pretty예쁜 good decision결정.
120
333320
2616
꽤 훌륭한 결정을 내릴 수 있어야
마땅할 것입니다.
05:47
You have 200 years연령
of statistics통계 to rely의지하다 on.
121
335960
2216
여러분에게 200년동안의 믿을만한
통계 자료가 있어요.
05:50
You're amplifying증폭 it
with very powerful강한 computers컴퓨터들.
122
338200
3016
강력한 컴퓨터를 이용하여
이를 증폭시킵니다.
05:53
The least가장 작은 you could expect배고 있다
is good TVTV, right?
123
341240
3280
최소한 좋은 TV프로는 기대하실테죠?
05:57
And if data데이터 analysis분석
does not work that way,
124
345880
2720
만일 정보 분석이 그렇게 되지 않으면
06:01
then it actually사실은 gets도착 a little scary무서운,
125
349520
2056
조금 무서워 집니다.
06:03
because we live살고 있다 in a time
where we're turning선회 to data데이터 more and more
126
351600
3816
왜냐하면 우리가 사는 현 세대는
더 많은 정보 수집을 통하여
06:07
to make very serious진지한 decisions결정들
that go far멀리 beyond...을 넘어서 TVTV.
127
355440
4480
TV프로 이상으로 훨씬 더 중대한
결정을 내리는 사회거든요.
06:12
Does anyone누군가 here know the company회사
Multi-Health다중 건강 Systems시스템?
128
360760
3240
"멀티-헬스 시스템" 이라는
회사에 대해 들어 보신 분 계신가요?
06:17
No one. OK, that's good actually사실은.
129
365080
1656
아무도 없군요. 좋습니다.
06:18
OK, so Multi-Health다중 건강 Systems시스템
is a software소프트웨어 company회사,
130
366760
3216
좋아요, 멀티 헬스 시스템은
소프트웨어 회사입니다.
06:22
and I hope기대 that nobody아무도 here in this room
131
370000
2816
여기 계신 여러분 중 아무도
06:24
ever comes온다 into contact접촉
with that software소프트웨어,
132
372840
3176
그 소프트웨어와 만나지
않으시길 바래요.
06:28
because if you do,
it means방법 you're in prison감옥.
133
376040
2096
만일 그런다면 바로
감옥에 있다는 뜻이니까요.
06:30
(Laughter웃음)
134
378160
1176
(웃음)
06:31
If someone어떤 사람 here in the US is in prison감옥,
and they apply대다 for parole맹세,
135
379360
3536
미국에서 수감중인 누군가가
가석방을 요청하면
06:34
then it's very likely아마도 that
data데이터 analysis분석 software소프트웨어 from that company회사
136
382920
4296
그 회사의 정보 분석
소프트 웨어를 통해
06:39
will be used in determining결정
whether인지 어떤지 to grant부여 that parole맹세.
137
387240
3616
가석방 여부를 결정할
가능성이 높습니다.
06:42
So it's the same같은 principle원리
as Amazon아마존 and Netflix넷플릭스,
138
390880
2576
아마존과 넷플릭스와 같은 원칙이죠.
06:45
but now instead대신에 of deciding결정 whether인지 어떤지
a TVTV show보여 주다 is going to be good or bad나쁜,
139
393480
4616
하지만 지금은 TV쇼가 좋은지
나쁜지를 판단하는 대신에
06:50
you're deciding결정 whether인지 어떤지 a person사람
is going to be good or bad나쁜.
140
398120
2896
여러분은 어떤 사람이 좋은지
나쁜지를 결정하게 될 거예요.
06:53
And mediocre평범한 TVTV, 22 minutes의사록,
that can be pretty예쁜 bad나쁜,
141
401040
5496
평범한 TV를 22분동안
보는 것은 별로죠.
06:58
but more years연령 in prison감옥,
I guess추측, even worse보다 나쁜.
142
406560
2640
하지만 감옥에서 몇 년 더 사는 것은
훨씬 나쁜 일일 것입니다.
07:02
And unfortunately운수 나쁘게, there is actually사실은
some evidence증거 that this data데이터 analysis분석,
143
410360
4136
애석하게도 분석된 정보가
07:06
despite무례 having lots of data데이터,
does not always produce생기게 하다 optimum최적의 results결과들.
144
414520
4216
그 방대한 양에도 불구하고 항상 최상의
결과를 얻는 것은 아니라는 증거가 있습니다.
07:10
And that's not because a company회사
like Multi-Health다중 건강 Systems시스템
145
418760
2722
멀티 헬스 시스템과 같은 회사가
07:13
doesn't know what to do with data데이터.
146
421506
1627
데이터를 어떻게 이용해야 할지
몰라서 그러는게 아니에요.
07:15
Even the most가장 data-savvy데이터에 정통한
companies회사들 get it wrong잘못된.
147
423158
2298
가장 데이터를 잘 다루는
회사들도 틀리는 걸요.
07:17
Yes, even GoogleGoogle gets도착 it wrong잘못된 sometimes때때로.
148
425480
2400
구글마저도 가끔은 틀립니다.
07:20
In 2009, GoogleGoogle announced발표하다
that they were able할 수 있는, with data데이터 analysis분석,
149
428680
4496
2009년 구글은 데이터 분석을 통해
07:25
to predict예측하다 outbreaks발발 of influenza인플루엔자,
the nasty추잡한 kind종류 of flu독감,
150
433200
4136
고약한 독감인 인플루엔자 발발을
예측할 수 있다고 주장했었어요.
07:29
by doing data데이터 analysis분석
on their그들의 GoogleGoogle searches검색.
151
437360
3776
구글 검색의 정보 분석을 토대로요.
07:33
And it worked일한 beautifully아름답게,
and it made만든 a big splash튀김 in the news뉴스,
152
441160
3856
아주 잘 흘러 갔고
뉴스에 크게 보도 됐어요.
07:37
including포함 the pinnacle작은 첨탑
of scientific과학적 success성공:
153
445040
2136
과학적 성공의 정점과 함께 말입니다.
07:39
a publication출판 in the journal일지 "Nature자연."
154
447200
2456
"네이쳐"에 개제된 것이죠.
07:41
It worked일한 beautifully아름답게
for year after year after year,
155
449680
3616
해마다 성공적이었죠.
07:45
until...까지 one year it failed실패한.
156
453320
1656
한 해 실패하기 전까진요.
07:47
And nobody아무도 could even tell exactly정확하게 why.
157
455000
2256
그리고 아무도 왜 실패했는지
확실한 이유를 규명하지 못해요.
07:49
It just didn't work that year,
158
457280
1696
그 해는 그냥 실패였죠.
07:51
and of course코스 that again made만든 big news뉴스,
159
459000
1936
물론 그것 또한 빅뉴스였고
07:52
including포함 now a retraction취소
160
460960
1616
"네이쳐" 학술지에
07:54
of a publication출판
from the journal일지 "Nature자연."
161
462600
2840
개제되는 것은 철회되었습니다.
07:58
So even the most가장 data-savvy데이터에 정통한 companies회사들,
Amazon아마존 and GoogleGoogle,
162
466480
3336
아마존과 구글같은
데이터를 잘 다루는 회사들도
08:01
they sometimes때때로 get it wrong잘못된.
163
469840
2136
가끔은 틀린다는 거예요.
08:04
And despite무례 all those failures실패,
164
472000
2936
이러한 실패 속에서도
08:06
data데이터 is moving움직이는 rapidly빠르게
into real-life실생활 decision-making의사 결정 --
165
474960
3856
데이터는 아주 급속하게 실제
의사결정에 이용되고 있습니다.
08:10
into the workplace직장,
166
478840
1816
직장에서도
08:12
law enforcement시행,
167
480680
1816
법률 실행 시에도
08:14
medicine의학.
168
482520
1200
의료 분야에서도요.
08:16
So we should better make sure
that data데이터 is helping거들기.
169
484400
3336
그러니까 실질적으로 데이터가
도움이 되도록 해야겠죠.
08:19
Now, personally몸소 I've seen
a lot of this struggle노력 with data데이터 myself자기,
170
487760
3136
개인적으로 저는 데이터 때문에
고생한 경험이 많아요.
08:22
because I work in computational전산의 genetics유전학,
171
490920
1976
왜냐하면 전 컴퓨터 유전학 분야에
종사하고 있거든요.
08:24
which어느 is also또한 a field
where lots of very smart똑똑한 people
172
492920
2496
이 분야에서는 수많은
뛰어난 인재들이
08:27
are using~을 사용하여 unimaginable상상할 수 없는 amounts금액 of data데이터
to make pretty예쁜 serious진지한 decisions결정들
173
495440
3656
상상하지 못할만큼 많은 양의 정보를
이용하여 중대한 결정을 내립니다.
08:31
like deciding결정 on a cancer therapy요법
or developing개발 중 a drug.
174
499120
3560
예를 들어 암 치료나 신약 개발
등의 결정에 말입니다.
08:35
And over the years연령,
I've noticed알아 차 렸던 a sort종류 of pattern무늬
175
503520
2376
최근 몇년 사이 새로운
패턴을 발견하였는데
08:37
or kind종류 of rule규칙, if you will,
about the difference
176
505920
2456
차이에 관한 일종의 규칙이라고 해두죠.
08:40
between중에서 successful성공한
decision-making의사 결정 with data데이터
177
508400
2696
데이터를 이용하여 성공적인 결정을
08:43
and unsuccessful실패한 decision-making의사 결정,
178
511120
1616
이끌어 내는가 실패 하는가의
차이에 대한 규칙 말입니다.
08:44
and I find this a pattern무늬 worth가치 sharing나누는,
and it goes간다 something like this.
179
512760
3880
이 패턴은 공유될 가치가 있는데
그 내용은 다음과 같습니다.
08:50
So whenever할때는 언제나 you're
solving해결 a complex복잡한 problem문제,
180
518520
2135
복잡한 문제에 직면했을 때
08:52
you're doing essentially본질적으로 two things.
181
520679
1737
여러분은 주로 두가지를 합니다.
08:54
The first one is, you take that problem문제
apart떨어져서 into its bits조금 and pieces조각들
182
522440
3296
첫번째는 그 문제를
여러 조각으로 쪼개서
08:57
so that you can deeply깊이 analyze분석하다
those bits조금 and pieces조각들,
183
525760
2496
그 조각들을 깊이 분석하는 것이고
09:00
and then of course코스
you do the second둘째 part부품.
184
528280
2016
물론 여러분이 하는 두 번째 일은
09:02
You put all of these bits조금 and pieces조각들
back together함께 again
185
530320
2656
조각들을 다시 하나로 합쳐서
09:05
to come to your conclusion결론.
186
533000
1336
결론을 내는 것입니다.
09:06
And sometimes때때로 you
have to do it over again,
187
534360
2336
종종 그 과정을 반복해야 할텐데요.
09:08
but it's always those two things:
188
536720
1656
그래도 역시 두 가지 뿐이죠.
09:10
taking취득 apart떨어져서 and putting퍼팅
back together함께 again.
189
538400
2320
쪼개고 다시 합치기.
09:14
And now the crucial결정적인 thing is
190
542280
1616
그리고 중요한 것은
09:15
that data데이터 and data데이터 analysis분석
191
543920
2896
데이터와 데이터 분석은
09:18
is only good for the first part부품.
192
546840
2496
오직 첫 번째 파트에서만
중요한 것이라는 겁니다.
09:21
Data데이터 and data데이터 analysis분석,
no matter문제 how powerful강한,
193
549360
2216
데이터와 데이터 분석이 얼마나
영향력이 있던 간에
09:23
can only help you taking취득 a problem문제 apart떨어져서
and understanding이해 its pieces조각들.
194
551600
4456
문제를 쪼개고 그 조각들을
이해하는 것에만 도움을 줄 뿐
09:28
It's not suited어울려 to put those pieces조각들
back together함께 again
195
556080
3496
그 조각들을 다시 하나로 합쳐서
09:31
and then to come to a conclusion결론.
196
559600
1896
결론을 내는데 도움을 주진 않아요.
09:33
There's another다른 tool수단 that can do that,
and we all have it,
197
561520
2736
그것을 할수 있는 또다른 도구가 있는데
우리 모두는 그것을 가지고 있습니다.
09:36
and that tool수단 is the brain.
198
564280
1296
그 도구는 바로 뇌에요.
09:37
If there's one thing a brain is good at,
199
565600
1936
뇌가 능통한 일들 중 하나는
09:39
it's taking취득 bits조금 and pieces조각들
back together함께 again,
200
567560
2256
조각들을 합치는 것입니다.
09:41
even when you have incomplete불완전한 information정보,
201
569840
2016
완전하지 않은 정보를
가지고 있을 때조차
09:43
and coming오는 to a good conclusion결론,
202
571880
1576
좋은 결정을 내리죠.
09:45
especially특히 if it's the brain of an expert전문가.
203
573480
2936
전문가의 두뇌라면 말입니다.
09:48
And that's why I believe
that Netflix넷플릭스 was so successful성공한,
204
576440
2656
그게 제가 생각하는 넷플릭스의
성공 비결이예요.
09:51
because they used data데이터 and brains두뇌
where they belong있다 in the process방법.
205
579120
3576
데이터와 뇌를 이용해서
일을 처리 했거든요.
09:54
They use data데이터 to first understand알다
lots of pieces조각들 about their그들의 audience청중
206
582720
3536
첫 번째는 데이터를 이용해서
대중들에 관한 조각들을 이해했는데
09:58
that they otherwise그렇지 않으면 wouldn't~ 않을거야. have
been able할 수 있는 to understand알다 at that depth깊이,
207
586280
3416
데이터가 없었다면 그렇게 깊이
이해하지 못했을 것입니다.
10:01
but then the decision결정
to take all these bits조금 and pieces조각들
208
589720
2616
하지만 그 조각들을 다시 하나로 합쳐
10:04
and put them back together함께 again
and make a show보여 주다 like "House of Cards카드,"
209
592360
3336
"하우스 오브 카드" 같은
쇼를 만든 것은
10:07
that was nowhere아무데도 in the data데이터.
210
595720
1416
데이터로부터 나온 것이 아니었습니다.
10:09
Ted테드 SarandosSarandos and his team
made만든 that decision결정 to license특허 that show보여 주다,
211
597160
3976
테드 세란도스와 그의 팀은
그 쇼에 특허를 내기로 결정했어요.
10:13
which어느 also또한 meant의미심장 한, by the way,
that they were taking취득
212
601160
2381
즉, 다른 말로
10:15
a pretty예쁜 big personal개인적인 risk위험
with that decision결정.
213
603565
2851
꽤 큰 개인적 위험을
감수한다는 뜻이죠.
10:18
And Amazon아마존, on the other hand,
they did it the wrong잘못된 way around.
214
606440
3016
반면에 아마존은 실수를 했어요.
10:21
They used data데이터 all the way
to drive드라이브 their그들의 decision-making의사 결정,
215
609480
2736
그들은 결정을 내리기까지 계속
데이터를 사용했습니다.
10:24
first when they held개최 된
their그들의 competition경쟁 of TVTV ideas아이디어,
216
612240
2416
먼저 TV 아이디어 경쟁을
벌일 때 사용했고
10:26
then when they selected선택된 "Alpha알파 House"
to make as a show보여 주다.
217
614680
3696
"알파 하우스" 쇼를 만들기로
선택했을 때도 사용했습니다.
10:30
Which어느 of course코스 was
a very safe안전한 decision결정 for them,
218
618400
2496
물론 그들에겐 아주 안정적인
결정이었습니다.
10:32
because they could always
point포인트 at the data데이터, saying속담,
219
620920
2456
왜냐면 그들은 항상 데이터를
가르키면서 말할 수 있었으니까요.
10:35
"This is what the data데이터 tells말하다 us."
220
623400
1696
"이것이 데이터가 말해준 것입니다".
10:37
But it didn't lead리드 to the exceptional특별한
results결과들 that they were hoping희망하는 for.
221
625120
4240
그렇지만 그들이 원하던 특별한
결과에 이르지는 못했어요.
10:42
So data데이터 is of course코스 a massively거대한
useful유능한 tool수단 to make better decisions결정들,
222
630120
4976
당연히 데이터는 더 나은 선택을
위한 매우 유용한 도구이지만
10:47
but I believe that things go wrong잘못된
223
635120
2376
때로는 잘못될 수도 있다고 생각해요.
10:49
when data데이터 is starting출발
to drive드라이브 those decisions결정들.
224
637520
2576
데이터가 그러한 결정을
이끌기 시작한다면 말이죠.
10:52
No matter문제 how powerful강한,
data데이터 is just a tool수단,
225
640120
3776
얼마나 강력하건 간에,
데이터는 도구일 뿐입니다.
10:55
and to keep that in mind마음,
I find this device장치 here quite아주 useful유능한.
226
643920
3336
이를 유념하기 위해서는
이 장치가 꽤 유용하다고 생각합니다.
10:59
Many많은 of you will ...
227
647280
1216
여러분들 중 많은분들이
11:00
(Laughter웃음)
228
648520
1216
(웃음)
11:01
Before there was data데이터,
229
649760
1216
데이터가 있기 전에
11:03
this was the decision-making의사 결정
device장치 to use.
230
651000
2856
이것을 의사결정 장치로
이용하셨을 것입니다.
11:05
(Laughter웃음)
231
653880
1256
(웃음)
11:07
Many많은 of you will know this.
232
655160
1336
대부분은 아실 거예요.
11:08
This toy장난감 here is called전화 한 the Magic마법 8 Ball,
233
656520
1953
이 장난감의 이름이 매직 에잇 볼이고
11:10
and it's really amazing놀랄 만한,
234
658497
1199
멋진 것이라는 것을요.
11:11
because if you have a decision결정 to make,
a yes or no question문제,
235
659720
2896
왜냐하면 어떠한 결정을 내려야 할 때
예 또는 아니오 식의 문제일때요.
11:14
all you have to do is you shake떨림 the ball,
and then you get an answer대답 --
236
662640
3736
이 공을 흔들기만 하면
답을 얻을 수 있습니다.
11:18
"Most가장 Likely아마도" -- right here
in this window창문 in real레알 time.
237
666400
2816
지금 여기서의 실제 답은
"아주 그렇다"이네요.
11:21
I'll have it out later후에 for tech기술 demos시민.
238
669240
2096
이따가 기술 시현 때 보여드리죠.
11:23
(Laughter웃음)
239
671360
1216
(웃음)
11:24
Now, the thing is, of course코스 --
so I've made만든 some decisions결정들 in my life
240
672600
3576
물론 중요한 것은-
제 인생에서 결정들을 종종 내렸는데
11:28
where, in hindsight가늠자,
I should have just listened귀 기울였다 to the ball.
241
676200
2896
뒤늦게 그냥 그 공의 말을
들을걸 하고 깨달은 적이 있습니다.
11:31
But, you know, of course코스,
if you have the data데이터 available유효한,
242
679120
3336
그런데 당연히 데이터가
있는 상태라면
11:34
you want to replace바꾸다 this with something
much more sophisticated매우 복잡한,
243
682480
3056
좀 더 지적인 결정을 내리고 싶어지죠.
11:37
like data데이터 analysis분석
to come to a better decision결정.
244
685560
3616
데이터 분석을 통해 더 나은 결정을
내리는 것 처럼 말이예요.
11:41
But that does not change변화 the basic기본 setup설정.
245
689200
2616
하지만 그렇더라도 기본 환경은
바뀌지 않아요.
11:43
So the ball may할 수있다 get smarter똑똑한
and smarter똑똑한 and smarter똑똑한,
246
691840
3176
공이 더욱 지능적으로 계속
진화할지는 모르지만
11:47
but I believe it's still on us
to make the decisions결정들
247
695040
2816
여전히 결정을 내리는 것은
우리의 몫이 될꺼에요.
11:49
if we want to achieve이루다
something extraordinary이상한,
248
697880
3016
무언가 특별한 일을 이루고 싶다면요.
11:52
on the right end종료 of the curve곡선.
249
700920
1936
즉 곡선의 오른쪽 끝에
도달하고 싶을때요.
11:54
And I find that a very encouraging격려의
message메시지, in fact,
250
702880
4496
저는 사실 이것이 아주 희망적인
메세지라고 생각하는데
11:59
that even in the face얼굴
of huge거대한 amounts금액 of data데이터,
251
707400
3976
엄청난 양의 데이터에도 불과하고
12:03
it still pays지불하다 off to make decisions결정들,
252
711400
4096
결정을 내리고
12:07
to be an expert전문가 in what you're doing
253
715520
2656
전문가가 되고
12:10
and take risks위험.
254
718200
2096
위험성을 감수하는 댓가가 주어지니까요.
12:12
Because in the end종료, it's not data데이터,
255
720320
2776
왜냐하면 결국 데이터가 아니라
12:15
it's risks위험 that will land you
on the right end종료 of the curve곡선.
256
723120
3960
당신이 감수하는 위험이 곡선의
오른쪽 끝으로 데려다 줄테니까요.
12:19
Thank you.
257
727840
1216
감사합니다.
12:21
(Applause박수 갈채)
258
729080
3680
(박수)
Translated by Ju Hye Lim
Reviewed by Gichung Lee

▲Back to top

ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com