ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com
TEDxCambridge

Sebastian Wernicke: How to use data to make a hit TV show

Sebastian Wernicke: Comment utiliser des données pour créer une série à succès

Filmed:
1,628,704 views

Est-ce que l'analyse de données nous permet de prendre de meilleures décisions ? Les entreprises les plus compétitives et avancées dans ce domaine, comme Amazon, Google et Netflix, savent que l'analyse de données n'apporte pas toujours les résultats espérés. Dans son exposé, Sebastian Wernicke, spécialiste en analyse de données, explique ce qui peut mal tourner lorsque nous prenons des décisions en nous appuyant uniquement sur les données et il suggère une manière plus intelligente de les utiliser.
- Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects. Full bio

Double-click the English transcript below to play the video.

00:12
RoyRoy PricePrix is a man that mostles plus of you
have probablyProbablement never heardentendu about,
0
820
4276
Roy Price est un homme que la plupart
d'entre vous ne connaissent sûrement pas,
00:17
even thoughbien que he maymai have been responsibleresponsable
1
5120
2496
même s'il est peut-être responsable
00:19
for 22 somewhatquelque peu mediocremédiocre
minutesminutes of your life on AprilAvril 19, 2013.
2
7640
6896
de 22 minutes quelque peu médiocres
que vous avez vécues le 19 avril 2013.
00:26
He maymai have alsoaussi been responsibleresponsable
for 22 very entertainingdivertissant minutesminutes,
3
14560
3176
Il a pu être responsable
de 22 minutes divertissantes,
00:29
but not very manybeaucoup of you.
4
17760
2256
mais pas pour beaucoup d'entre vous.
00:32
And all of that goesva back to a decisiondécision
5
20040
1896
Cela est lié à une décision
00:33
that RoyRoy had to make
about threeTrois yearsannées agodepuis.
6
21960
2000
que Roy a prise, il y a trois ans de ça.
Vous voyez, Roy Price est
cadre supérieur à Amazon Studios,
00:35
So you see, RoyRoy PricePrix
is a seniorSénior executiveexécutif with AmazonAmazon StudiosStudios.
7
23984
4832
00:40
That's the TVTV productionproduction
companycompagnie of AmazonAmazon.
8
28840
3016
la compagnie de production
de télévision d'Amazon.
00:43
He's 47 yearsannées oldvieux, slimsvelte, spikyhérissés haircheveux,
9
31880
3256
C'est un homme mince de 47 ans
avec des cheveux en bataille,
qui a écrit sur Twitter pour se décrire
« films, télé, technologie, tacos ».
00:47
describesdécrit himselflui-même on TwitterTwitter
as "moviesfilms, TVTV, technologyLa technologie, tacostacos."
10
35160
4816
Et Roy Price joue un rôle important,
parce que c'est à lui
00:52
And RoyRoy PricePrix has a very responsibleresponsable jobemploi,
because it's his responsibilityresponsabilité
11
40000
5176
de choisir les séries,
le contenu original créé par Amazon.
00:57
to pickchoisir the showsmontre, the originaloriginal contentcontenu
that AmazonAmazon is going to make.
12
45200
4056
Et, évidemment,
c'est un domaine très compétitif.
01:01
And of coursecours that's
a highlytrès competitivecompétitif spaceespace.
13
49280
2336
Vu qu'il existe déjà
tellement de séries télés,
01:03
I mean, there are so manybeaucoup
TVTV showsmontre alreadydéjà out there,
14
51640
2736
01:06
that RoyRoy can't just choosechoisir any showmontrer.
15
54400
2176
Roy ne peut pas choisir
n'importe quelle série.
Il doit trouver des séries
vraiment, vraiment exceptionnelles.
01:08
He has to find showsmontre
that are really, really great.
16
56600
4096
Autrement dit, il doit trouver des séries
01:12
So in other wordsmots, he has to find showsmontre
17
60720
2816
sur l'extrême droite de cette courbe.
01:15
that are on the very right endfin
of this curvecourbe here.
18
63560
2376
Cette courbe représente
la distribution des notes
01:17
So this curvecourbe here
is the ratingcote distributionDistribution
19
65960
2656
attribuées à 2 500 séries télés
sur le site IMDB,
01:20
of about 2,500 TVTV showsmontre
on the websitesite Internet IMDBIMDB,
20
68640
4376
ces notes allant de 1 à 10,
01:25
and the ratingcote goesva from one to 10,
21
73040
2896
et l'ordonnée montre combien
de séries obtiennent cette note.
01:27
and the heightla taille here showsmontre you
how manybeaucoup showsmontre get that ratingcote.
22
75960
2976
Donc, si votre série obtient une note
de neuf points ou plus, ça cartonne.
01:30
So if your showmontrer getsobtient a ratingcote
of nineneuf pointspoints or higherplus haute, that's a winnergagnant.
23
78960
4696
Elle est meilleure que 98 %
des autres.
01:35
Then you have a topHaut two percentpour cent showmontrer.
24
83680
1816
Ce sont des séries comme
01:37
That's showsmontre like "BreakingRupture BadMauvaise,"
"GameJeu of ThronesTrônes," "The WireFil,"
25
85520
3896
« Breaking Bad »,
« Game of Thrones », « Sur écoute »,
des séries auxquelles on devient accro,
01:41
so all of these showsmontre that are addictiveaddictif,
26
89440
2296
où après avoir regardé une saison,
votre cerveau vous dit :
01:43
whereafteraprès quoi you've watchedregardé a seasonsaison,
your braincerveau is basicallyen gros like,
27
91760
3056
« Il me faut plus d'épisodes ! »
01:46
"Where can I get more of these episodesépisodes?"
28
94840
2176
01:49
That kindgentil of showmontrer.
29
97040
1200
Ce genre d'émission.
01:50
On the left sidecôté, just for clarityclarté,
here on that endfin,
30
98920
2496
Pour être clair,
du côté gauche,
01:53
you have a showmontrer calledappelé
"ToddlersTout-petits and TiarasDiadèmes" --
31
101440
3176
on retrouve une émission
appelé « Toddlers & Tiaras » ;
(Rires)
01:56
(LaughterRires)
32
104640
2656
ce qui illustre bien
01:59
-- whichlequel should tell you enoughassez
33
107320
1536
ce à quoi on a affaire
de ce côté de la courbe.
02:00
about what's going on
on that endfin of the curvecourbe.
34
108880
2191
02:03
Now, RoyRoy PricePrix is not worriedinquiet about
gettingobtenir on the left endfin of the curvecourbe,
35
111095
4161
Roy Price ne s'inquiète pas d'être
placé du côté gauche de la courbe,
02:07
because I think you would have to have
some serioussérieux brainpowermatière grise
36
115280
2936
parce que je pense
qu'il faudrait être un génie
pour faire pire que « Toddlers & Tiaras ».
02:10
to undercutcontre-dépouille "ToddlersTout-petits and TiarasDiadèmes."
37
118240
1696
02:11
So what he's worriedinquiet about
is this middlemilieu bulgeArdennes here,
38
119960
3936
Il fait attention
à cette partie au milieu,
la partie moyenne de la télé,
02:15
the bulgeArdennes of averagemoyenne TVTV,
39
123920
1816
les séries qui ne sont
ni bonnes ni mauvaises,
02:17
you know, those showsmontre
that aren'tne sont pas really good or really badmal,
40
125760
2856
mais ne vous font pas vibrer.
02:20
they don't really get you excitedexcité.
41
128639
1656
02:22
So he needsBesoins to make sure
that he's really on the right endfin of this.
42
130320
4856
Il doit s'assurer
qu'il est vraiment du bon côté.
02:27
So the pressurepression is on,
43
135200
1576
Donc, on lui met la pression,
et bien sûr c'est aussi la première fois
02:28
and of coursecours it's alsoaussi the first time
44
136800
2176
qu'Amazon fait quelque chose comme ça,
02:31
that AmazonAmazon is even
doing something like this,
45
139000
2176
donc Roy Price ne veut pas
prendre de risque.
02:33
so RoyRoy PricePrix does not want
to take any chanceschances.
46
141200
3336
Il veut être à la tête d'un succès.
02:36
He wants to engineeringénieur successSuccès.
47
144560
2456
Il lui faut un succès garanti,
02:39
He needsBesoins a guaranteedgaranti successSuccès,
48
147040
1776
donc il décide d'organiser
une compétition.
02:40
and so what he does is,
he holdstient a competitioncompétition.
49
148840
2576
Il prend plein d'idées de séries télés,
02:43
So he takes a bunchbouquet of ideasidées for TVTV showsmontre,
50
151440
3136
les évalue et, parmi ces idées,
02:46
and from those ideasidées,
throughpar an evaluationévaluation,
51
154600
2296
il retient huit idées de séries.
02:48
they selectsélectionner eighthuit candidatescandidats for TVTV showsmontre,
52
156920
4096
Ensuite, il se lance dans la création
du premier épisode de chacune des séries
02:53
and then he just makesfait du the first episodeépisode
of eachchaque one of these showsmontre
53
161040
3216
02:56
and putsmet them onlineen ligne for freegratuit
for everyonetoutes les personnes to watch.
54
164280
3136
et les met en ligne gratuitement
pour tout le monde.
Et quand Amazon
offre quelque chose de gratuit,
02:59
And so when AmazonAmazon
is givingdonnant out freegratuit stuffdes trucs,
55
167440
2256
on le prend, n'est-ce pas ?
03:01
you're going to take it, right?
56
169720
1536
Donc, des millions de gens
regardent ces épisodes.
03:03
So millionsdes millions of viewerstéléspectateurs
are watchingen train de regarder those episodesépisodes.
57
171280
5136
Ils ne se rendent pas compte que,
lorsqu'ils regardent leurs séries,
03:08
What they don't realizeprendre conscience de is that,
while they're watchingen train de regarder theirleur showsmontre,
58
176440
3216
03:11
actuallyréellement, they are beingétant watchedregardé.
59
179680
2296
ils sont en train d'être regardés
eux-mêmes.
03:14
They are beingétant watchedregardé
by RoyRoy PricePrix and his teaméquipe,
60
182000
2336
Roy Price et son équipe les surveillent
03:16
who recordrecord everything.
61
184360
1376
et enregistrent tout.
Ils enregistrent quand quelqu'un
appuie sur lecture ou sur pause,
03:17
They recordrecord when somebodyquelqu'un pressesPresses playjouer,
when somebodyquelqu'un pressesPresses pausepause,
62
185760
3376
03:21
what partsles pièces they skipsauter,
what partsles pièces they watch again.
63
189160
2536
les parties sautées,
les parties re-regardées.
03:23
So they collectcollecte millionsdes millions of dataLes données pointspoints,
64
191720
2256
Ils rassemblent des millions de données,
03:26
because they want
to have those dataLes données pointspoints
65
194000
2096
car ils veulent avoir ces données
03:28
to then decidedécider
whichlequel showmontrer they should make.
66
196120
2696
pour ensuite décider
quelle série sera réalisée.
Donc ils rassemblent ces données,
03:30
And sure enoughassez,
so they collectcollecte all the dataLes données,
67
198840
2176
ils traitent ces données,
et une réponse en est déduite,
03:33
they do all the dataLes données crunchingune puissance de,
and an answerrépondre emergesémerge,
68
201040
2576
la réponse est :
03:35
and the answerrépondre is,
69
203640
1216
« Amazon devrait réaliser un sitcom
03:36
"AmazonAmazon should do a sitcomsitcom
about fourquatre RepublicanRépublicain US SenatorsSenateurs."
70
204880
5536
sur quatre sénateurs
républicains américains. »
(Rires)
Et elle a été réalisée.
03:42
They did that showmontrer.
71
210440
1216
03:43
So does anyonen'importe qui know the nameprénom of the showmontrer?
72
211680
2160
Quelqu'un connaît le nom de cette série ?
03:46
(AudiencePublic: "AlphaAlpha HouseMaison.")
73
214720
1296
(Public) :
« Alpha House. »
03:48
Yes, "AlphaAlpha HouseMaison,"
74
216040
1456
Exactement, « Alpha House »,
mais on dirait que presque personne
ne se souvient de cette série
03:49
but it seemssemble like not too manybeaucoup of you here
rememberrappelles toi that showmontrer, actuallyréellement,
75
217520
4096
03:53
because it didn't turntour out that great.
76
221640
1856
car elle n'a pas eu un très grand succès.
03:55
It's actuallyréellement just an averagemoyenne showmontrer,
77
223520
1856
En réalité, c'est une série moyenne,
littéralement en fait, car 7,4 représente
la moyenne de la courbe
03:57
actuallyréellement -- literallyLittéralement, in factfait, because
the averagemoyenne of this curvecourbe here is at 7.4,
78
225400
4576
04:02
and "AlphaAlpha HouseMaison" landsles terres at 7.5,
79
230000
2416
et « Alpha House » tombe sur 7,5,
04:04
so a slightlylégèrement aboveau dessus averagemoyenne showmontrer,
80
232440
2016
elle est juste au-dessus de la moyenne,
mais ce n'est certainement pas
Roy Price et son équipe espéraient.
04:06
but certainlycertainement not what RoyRoy PricePrix
and his teaméquipe were aimingvisant for.
81
234480
2920
04:10
MeanwhilePendant ce temps, howevertoutefois,
at about the sameMême time,
82
238320
2856
Cependant, au même moment,
04:13
at anotherun autre companycompagnie,
83
241200
1576
dans une autre entreprise,
04:14
anotherun autre executiveexécutif did managegérer
to landterre a topHaut showmontrer usingen utilisant dataLes données analysisune analyse,
84
242800
4216
un autre cadre a trouver une bonne série
grâce à l'analyse des données,
et il s'appelle Ted,
04:19
and his nameprénom is TedTed,
85
247040
1576
04:20
TedTed SarandosSarandos, who is
the ChiefChef ContentContenu OfficerAgent of NetflixNetflix,
86
248640
3416
Ted Sarandos, directeur de l'acquisition
des programmes de Netflix.
04:24
and just like RoyRoy,
he's on a constantconstant missionmission
87
252080
2136
Et comme Roy,
il est toujours à la recherche
04:26
to find that great TVTV showmontrer,
88
254240
1496
d'une excellente série,
et il utilise aussi des données,
04:27
and he usesles usages dataLes données as well to do that,
89
255760
2016
sauf qu'il s'y prend un peu différemment.
04:29
exceptsauf he does it
a little bitbit differentlydifféremment.
90
257800
2015
Au lieu d'organiser une compétition,
lui et son équipe
04:31
So insteadau lieu of holdingen portant a competitioncompétition,
what he did -- and his teaméquipe of coursecours --
91
259839
3737
04:35
was they lookedregardé at all the dataLes données
they alreadydéjà had about NetflixNetflix viewerstéléspectateurs,
92
263600
3536
ont pris les données qu'ils avaient déjà
sur les utilisateurs de Netflix,
04:39
you know, the ratingsévaluations
they give theirleur showsmontre,
93
267160
2096
comme les notes attribuées aux séries,
leur historique,
leurs séries préférées et tout ça.
04:41
the viewingvisualisation historieshistoires,
what showsmontre people like, and so on.
94
269280
2696
Puis ils utilisent
ces données pour découvrir
04:44
And then they use that dataLes données to discoverdécouvrir
95
272000
1896
04:45
all of these little bitsmorceaux and piecesdes morceaux
about the audiencepublic:
96
273920
2616
pleins de petites infos sur le public :
04:48
what kindssortes of showsmontre they like,
97
276560
1456
le genre de séries, de producteurs,
d'acteurs ils apprécient.
04:50
what kindgentil of producersles producteurs,
what kindgentil of actorsacteurs.
98
278040
2096
Et au moment où ils ont
tous les éléments nécessaires,
04:52
And onceune fois que they had
all of these piecesdes morceaux togetherensemble,
99
280160
2576
ils ont accompli un acte de foi
04:54
they tooka pris a leapsaut of faithFoi,
100
282760
1656
04:56
and they decideddécidé to licenseLicence
101
284440
2096
et ont décidé de créer
04:58
not a sitcomsitcom about fourquatre SenatorsSenateurs
102
286560
2456
non pas un sitcom sur quatre sénateurs
mais une série dramatique
sur un seul sénateur.
05:01
but a dramadrame seriesséries about a singleunique SenatorSénateur.
103
289040
2880
05:04
You guys know the showmontrer?
104
292760
1656
Vous connaissez cette série ?
(Rires)
05:06
(LaughterRires)
105
294440
1296
Oui ! « House of Cards » et, bien sûr,
Netflix a eu un grand succès,
05:07
Yes, "HouseMaison of CardsCartes," and NetflixNetflix
of coursecours, nailedcloué it with that showmontrer,
106
295760
3736
05:11
at leastmoins for the first two seasonssaisons.
107
299520
2136
au moins pour les deux premières saisons.
05:13
(LaughterRires) (ApplauseApplaudissements)
108
301680
3976
(Rires)
(Applaudissements)
05:17
"HouseMaison of CardsCartes" getsobtient
a 9.1 ratingcote on this curvecourbe,
109
305680
3176
« House of Cards » a obtenu
une note de 9,1 sur cette courbe,
donc, exactement ce qu'ils voulaient.
05:20
so it's exactlyexactement
where they wanted it to be.
110
308880
3176
Évidemment, la question est :
que s'est-il passé ?
05:24
Now, the questionquestion of coursecours is,
what happenedarrivé here?
111
312080
2416
On a deux entreprises concurrentes
maîtrisant les données.
05:26
So you have two very competitivecompétitif,
data-savvydonnées-savvy companiesentreprises.
112
314520
2656
Elles lient ces millions
de points de données
05:29
They connectrelier all of these
millionsdes millions of dataLes données pointspoints,
113
317200
2856
et ça marche superbement pour une,
05:32
and then it workstravaux
beautifullymagnifiquement for one of them,
114
320080
2376
mais pas pour l'autre.
05:34
and it doesn't work for the other one.
115
322480
1856
Alors, pourquoi ?
05:36
So why?
116
324360
1216
La logique nous dit que
ça devrait marcher à tous les coups.
05:37
Because logiclogique kindgentil of tellsraconte you
that this should be workingtravail all the time.
117
325600
3456
05:41
I mean, if you're collectingrecueillir
millionsdes millions of dataLes données pointspoints
118
329080
2456
Si vous rassemblez
des millions de données
sur une décision à prendre,
05:43
on a decisiondécision you're going to make,
119
331560
1736
vous devriez être capable
de prendre la bonne décision.
05:45
then you should be ablecapable
to make a prettyjoli good decisiondécision.
120
333320
2616
On peut se fier
à plus de 200 ans de statistiques.
05:47
You have 200 yearsannées
of statisticsstatistiques to relycompter on.
121
335960
2216
05:50
You're amplifyingamplifier it
with very powerfulpuissant computersdes ordinateurs.
122
338200
3016
On l'amplifie à l'aide
des meilleurs ordinateurs.
05:53
The leastmoins you could expectattendre
is good TVTV, right?
123
341240
3280
La moindre des choses à laquelle
on s'attend, c'est une bonne série, non ?
05:57
And if dataLes données analysisune analyse
does not work that way,
124
345880
2720
Et si l'analyse des données
ne fonctionne pas comme ça,
06:01
then it actuallyréellement getsobtient a little scaryeffrayant,
125
349520
2056
on peut commencer à s'inquiéter,
06:03
because we livevivre in a time
where we're turningtournant to dataLes données more and more
126
351600
3816
parce que nous vivons à une époque
où on utilise de plus en plus ces données
06:07
to make very serioussérieux decisionsles décisions
that go farloin beyondau-delà TVTV.
127
355440
4480
pour prendre des décisions sérieuses
en dehors du monde de la télévision.
06:12
Does anyonen'importe qui here know the companycompagnie
Multi-HealthMulti-santé SystemsSystèmes?
128
360760
3240
Est-ce-que quelqu'un ici connaît
l'entreprise Multi-Health Systems ?
Personne, tant mieux.
06:17
No one. OK, that's good actuallyréellement.
129
365080
1656
06:18
OK, so Multi-HealthMulti-santé SystemsSystèmes
is a softwareLogiciel companycompagnie,
130
366760
3216
Multi-Health Systems est
une entreprise de logiciels,
et j'espère que personne du public
n'aura à utiliser ce logiciel,
06:22
and I hopeespérer that nobodypersonne here in this roomchambre
131
370000
2816
06:24
ever comesvient into contactcontact
with that softwareLogiciel,
132
372840
3176
car si c'est le cas, vous êtes en prison.
06:28
because if you do,
it meansveux dire you're in prisonprison.
133
376040
2096
(Rires)
06:30
(LaughterRires)
134
378160
1176
06:31
If someoneQuelqu'un here in the US is in prisonprison,
and they applyappliquer for parolelibération conditionnelle,
135
379360
3536
Si un prisonnier des États-Unis
demande une libération conditionnelle,
06:34
then it's very likelyprobable that
dataLes données analysisune analyse softwareLogiciel from that companycompagnie
136
382920
4296
il est très probable que le logiciel
d'analyse de données de cette compagnie
sera utilisé pour savoir
s'il devrait l'obtenir.
06:39
will be used in determiningdéterminer
whetherqu'il s'agisse to grantsubvention that parolelibération conditionnelle.
137
387240
3616
06:42
So it's the sameMême principleprincipe
as AmazonAmazon and NetflixNetflix,
138
390880
2576
C'est le même principe
qu'Amazon et Netflix,
sauf que au lieu de voir
si une série télé devrait sortir,
06:45
but now insteadau lieu of decidingdécider whetherqu'il s'agisse
a TVTV showmontrer is going to be good or badmal,
139
393480
4616
06:50
you're decidingdécider whetherqu'il s'agisse a personla personne
is going to be good or badmal.
140
398120
2896
on décide si la personne devrait sortir.
06:53
And mediocremédiocre TVTV, 22 minutesminutes,
that can be prettyjoli badmal,
141
401040
5496
Si une série télé médiocre
de 22 minutes peut être mauvaise,
je suppose que passer
plus longtemps en prison est pire.
06:58
but more yearsannées in prisonprison,
I guessdeviner, even worsepire.
142
406560
2640
07:02
And unfortunatelymalheureusement, there is actuallyréellement
some evidencepreuve that this dataLes données analysisune analyse,
143
410360
4136
Et malheureusement, il existe
des preuves que cette analyse de données,
07:06
despitemalgré havingayant lots of dataLes données,
does not always produceproduire optimumoptimum resultsrésultats.
144
414520
4216
malgré leur abondance, ne donne pas
toujours des résultats optimaux.
07:10
And that's not because a companycompagnie
like Multi-HealthMulti-santé SystemsSystèmes
145
418760
2722
Mais, ce n'est pas
parce que Multi-Health Systems
07:13
doesn't know what to do with dataLes données.
146
421506
1627
ignore que faire de ces données.
07:15
Even the mostles plus data-savvydonnées-savvy
companiesentreprises get it wrongfaux.
147
423158
2298
Même en maîtrisant les données,
on peut se tromper.
07:17
Yes, even GoogleGoogle getsobtient it wrongfaux sometimesparfois.
148
425480
2400
Oui, parfois même Google se trompe.
07:20
In 2009, GoogleGoogle announcedannoncé
that they were ablecapable, with dataLes données analysisune analyse,
149
428680
4496
En 2009, Google a annoncé
qu'ils étaient capables,
à l'aide de l'analyse des données,
07:25
to predictprédire outbreakséclosions of influenzagrippe,
the nastyméchant kindgentil of flugrippe,
150
433200
4136
de prédire les épidémies
d'influenza, la mauvaise grippe,
en analysant les données
des recherches sur leur site.
07:29
by doing dataLes données analysisune analyse
on theirleur GoogleGoogle searchesrecherches.
151
437360
3776
Ça a bien marché,
et ça a fait le buzz aux infos
07:33
And it workedtravaillé beautifullymagnifiquement,
and it madefabriqué a biggros splashéclaboussure in the newsnouvelles,
152
441160
3856
y compris l'apogée
des réussites scientifiques :
07:37
includingcomprenant the pinnaclesommet
of scientificscientifique successSuccès:
153
445040
2136
07:39
a publicationpublication in the journaljournal "NatureNature."
154
447200
2456
un article dans le journal « Nature ».
Ça marchait à tous les coups,
année après année,
07:41
It workedtravaillé beautifullymagnifiquement
for yearan after yearan after yearan,
155
449680
3616
jusqu'à l'année où ça a échoué.
07:45
untiljusqu'à one yearan it failedéchoué.
156
453320
1656
Et personne ne savait pourquoi.
07:47
And nobodypersonne could even tell exactlyexactement why.
157
455000
2256
07:49
It just didn't work that yearan,
158
457280
1696
Cette année-là, ça n'a pas marché
et, bien sûr, ça a refait le buzz,
07:51
and of coursecours that again madefabriqué biggros newsnouvelles,
159
459000
1936
y compris la rétraction
07:52
includingcomprenant now a retractionrétraction
160
460960
1616
de la publication dans
le journal « Nature ».
07:54
of a publicationpublication
from the journaljournal "NatureNature."
161
462600
2840
07:58
So even the mostles plus data-savvydonnées-savvy companiesentreprises,
AmazonAmazon and GoogleGoogle,
162
466480
3336
Même les entreprises
maîtrisant ces données,
comme Amazon et Google,
08:01
they sometimesparfois get it wrongfaux.
163
469840
2136
font parfois des erreurs.
08:04
And despitemalgré all those failuresles échecs,
164
472000
2936
Et malgré tous ces échecs,
les données arrivent de plus en plus
dans nos décisions de tous les jours :
08:06
dataLes données is movingen mouvement rapidlyrapidement
into real-lifevie réelle decision-makingla prise de décision --
165
474960
3856
dans le monde professionnel,
08:10
into the workplacelieu de travail,
166
478840
1816
le monde du droit,
08:12
lawloi enforcementmise en vigueur,
167
480680
1816
08:14
medicinemédicament.
168
482520
1200
le monde de la médécine.
Donc, il faut nous assurer
que ces données nous aident.
08:16
So we should better make sure
that dataLes données is helpingportion.
169
484400
3336
Moi-même, j'ai beaucoup vu
ce problème avec les données
08:19
Now, personallypersonnellement I've seenvu
a lot of this strugglelutte with dataLes données myselfmoi même,
170
487760
3136
car je travaille
dans l'informatique génomique,
08:22
because I work in computationalcalcul geneticsla génétique,
171
490920
1976
08:24
whichlequel is alsoaussi a fieldchamp
where lots of very smartintelligent people
172
492920
2496
un secteur rempli
de personnes très intelligentes
08:27
are usingen utilisant unimaginableinimaginable amountsles montants of dataLes données
to make prettyjoli serioussérieux decisionsles décisions
173
495440
3656
qui utilisent un grand nombre de données
pour prendre des décisions sérieuses
08:31
like decidingdécider on a cancercancer therapythérapie
or developingdéveloppement a drugdrogue.
174
499120
3560
comme choisir un traitement pour cancer,
développer un médicament.
08:35
And over the yearsannées,
I've noticedremarqué a sortTrier of patternmodèle
175
503520
2376
Au cours des années,
j'ai remarqué un modèle,
08:37
or kindgentil of ruleRègle, if you will,
about the differencedifférence
176
505920
2456
ou même une règle, sur la différence
08:40
betweenentre successfulréussi
decision-makingla prise de décision with dataLes données
177
508400
2696
entre des bonnes décisions
à l'aide des données
08:43
and unsuccessfulinfructueuse decision-makingla prise de décision,
178
511120
1616
et des mauvaises décisions,
et je trouve que ce modèle
vaut la peine d'être partagé,
08:44
and I find this a patternmodèle worthvaut sharingpartage,
and it goesva something like this.
179
512760
3880
ça se présente comme ceci.
08:50
So whenevern'importe quand you're
solvingrésoudre a complexcomplexe problemproblème,
180
518520
2135
Quand il faut résoudre
un problème compliqué,
08:52
you're doing essentiallyessentiellement two things.
181
520679
1737
il y a deux étapes essentielles.
08:54
The first one is, you take that problemproblème
apartune part into its bitsmorceaux and piecesdes morceaux
182
522440
3296
Un : il faut diviser
le problème en plusieurs parties
08:57
so that you can deeplyprofondément analyzeanalyser
those bitsmorceaux and piecesdes morceaux,
183
525760
2496
pour pouvoir les analyser
de manière profonde,
09:00
and then of coursecours
you do the secondseconde partpartie.
184
528280
2016
et puis deux : bien sûr,
09:02
You put all of these bitsmorceaux and piecesdes morceaux
back togetherensemble again
185
530320
2656
il s'agit de remettre ces pièces ensemble
pour conclure.
09:05
to come to your conclusionconclusion.
186
533000
1336
Et parfois il faut réessayer,
09:06
And sometimesparfois you
have to do it over again,
187
534360
2336
mais c'est toujours ces deux choses :
09:08
but it's always those two things:
188
536720
1656
09:10
takingprise apartune part and puttingen mettant
back togetherensemble again.
189
538400
2320
déconstruire le problème et le remonter.
09:14
And now the crucialcrucial thing is
190
542280
1616
Et la partie clé
09:15
that dataLes données and dataLes données analysisune analyse
191
543920
2896
est que l'analyse de ces données
n'est valable que pour la première partie.
09:18
is only good for the first partpartie.
192
546840
2496
Les données et l'analyse,
peu importe leur puissance,
09:21
DataDonnées and dataLes données analysisune analyse,
no mattermatière how powerfulpuissant,
193
549360
2216
09:23
can only help you takingprise a problemproblème apartune part
and understandingcompréhension its piecesdes morceaux.
194
551600
4456
n'aideront qu'à déconstruire le problème
pour comprendre les éléments
qui le composent.
09:28
It's not suitedadapté to put those piecesdes morceaux
back togetherensemble again
195
556080
3496
Ça n'aidera pas à remettre
les pièces ensemble
09:31
and then to come to a conclusionconclusion.
196
559600
1896
pour en arriver à une conclusion.
09:33
There's anotherun autre tooloutil that can do that,
and we all have it,
197
561520
2736
Il existe un outil qui fait ça,
que nous possédons tous :
09:36
and that tooloutil is the braincerveau.
198
564280
1296
le cerveau.
09:37
If there's one thing a braincerveau is good at,
199
565600
1936
Si notre cerveau est bon pour une chose,
09:39
it's takingprise bitsmorceaux and piecesdes morceaux
back togetherensemble again,
200
567560
2256
c'est assembler divers éléments ensemble,
même avec des pièces manquantes,
09:41
even when you have incompleteincomplet informationinformation,
201
569840
2016
et arriver à une
bonne conclusion,
09:43
and comingvenir to a good conclusionconclusion,
202
571880
1576
09:45
especiallynotamment if it's the braincerveau of an expertexpert.
203
573480
2936
surtout si c'est le cerveau d'un expert.
Et c'est grâce à ça que Netflix
a eu un tel succès :
09:48
And that's why I believe
that NetflixNetflix was so successfulréussi,
204
576440
2656
ils ont utilisé les données
et les cerveaux au moment où il fallait.
09:51
because they used dataLes données and brainscerveaux
where they belongappartenir in the processprocessus.
205
579120
3576
09:54
They use dataLes données to first understandcomprendre
lots of piecesdes morceaux about theirleur audiencepublic
206
582720
3536
Ils ont d'abord utilisé les données
pour comprendre leur public,
09:58
that they otherwiseautrement wouldn'tne serait pas have
been ablecapable to understandcomprendre at that depthprofondeur,
207
586280
3416
ce qu'ils n'auraient pas été capables
de comprendre sans ça,
mais la décision de prendre
toutes ces informations
10:01
but then the decisiondécision
to take all these bitsmorceaux and piecesdes morceaux
208
589720
2616
10:04
and put them back togetherensemble again
and make a showmontrer like "HouseMaison of CardsCartes,"
209
592360
3336
et les remettre ensemble pour
créer une série comme « House of Cards »,
n'était pas dans les données.
10:07
that was nowherenulle part in the dataLes données.
210
595720
1416
Ted Sarandos et son équipe ont décidé
d'autoriser la création de cette série,
10:09
TedTed SarandosSarandos and his teaméquipe
madefabriqué that decisiondécision to licenseLicence that showmontrer,
211
597160
3976
ce qui voulait aussi dire qu'ils prenaient
10:13
whichlequel alsoaussi meantsignifiait, by the way,
that they were takingprise
212
601160
2381
10:15
a prettyjoli biggros personalpersonnel riskrisque
with that decisiondécision.
213
603565
2851
un grand risque personnel
avec cette décision.
10:18
And AmazonAmazon, on the other handmain,
they did it the wrongfaux way around.
214
606440
3016
À l'inverse, Amazon a fait cela
dans le mauvais ordre.
10:21
They used dataLes données all the way
to driveconduire theirleur decision-makingla prise de décision,
215
609480
2736
Ils ont utilisé beaucoup de données
pour faire leur choix,
10:24
first when they heldtenu
theirleur competitioncompétition of TVTV ideasidées,
216
612240
2416
en organisant une compétition
d'idées de séries,
10:26
then when they selectedchoisi "AlphaAlpha HouseMaison"
to make as a showmontrer.
217
614680
3696
puis en choisissant
de produire « Alpha House ».
10:30
WhichQui of coursecours was
a very safesûr decisiondécision for them,
218
618400
2496
C'était bien sûr prudent
comme décision de leur part,
10:32
because they could always
pointpoint at the dataLes données, sayingen disant,
219
620920
2456
car ils pouvaient accuser
les donnés et dire :
« C'est ce que disaient les données. »
10:35
"This is what the dataLes données tellsraconte us."
220
623400
1696
10:37
But it didn't leadconduire to the exceptionalexceptionnel
resultsrésultats that they were hopingen espérant for.
221
625120
4240
Mais ça ne leur a pas donné les résultats
exceptionnels qu'ils espéraient.
10:42
So dataLes données is of coursecours a massivelymassivement
usefulutile tooloutil to make better decisionsles décisions,
222
630120
4976
Les données sont extrêmement utiles
pour prendre de meilleures décisions
mais je pense qu'il y a un problème
10:47
but I believe that things go wrongfaux
223
635120
2376
10:49
when dataLes données is startingdépart
to driveconduire those decisionsles décisions.
224
637520
2576
quand les données
nous mènent à ces décisions.
Peu importe leur puissance,
les données ne sont qu'un outil,
10:52
No mattermatière how powerfulpuissant,
dataLes données is just a tooloutil,
225
640120
3776
10:55
and to keep that in mindesprit,
I find this devicedispositif here quiteassez usefulutile.
226
643920
3336
et pour toujours garder ça en tête,
j'ai trouvé un outil très utile.
10:59
ManyDe nombreux of you will ...
227
647280
1216
La plupart d'entre vous...
11:00
(LaughterRires)
228
648520
1216
(Rires)
Avant les données,
11:01
Before there was dataLes données,
229
649760
1216
on utilisait cet outil
pour prendre des décisions.
11:03
this was the decision-makingla prise de décision
devicedispositif to use.
230
651000
2856
(Rires)
11:05
(LaughterRires)
231
653880
1256
11:07
ManyDe nombreux of you will know this.
232
655160
1336
Vous le connaissez,
11:08
This toyjouet here is calledappelé the MagicMagie 8 BallBall,
233
656520
1953
ce jouet s'appelle la Magic 8 Ball
et il est génial,
11:10
and it's really amazingincroyable,
234
658497
1199
car si vous avez un choix à faire,
une question fermée,
11:11
because if you have a decisiondécision to make,
a yes or no questionquestion,
235
659720
2896
11:14
all you have to do is you shakesecouer the ballballon,
and then you get an answerrépondre --
236
662640
3736
il suffit de secouer la boule
pour obtenir une réponse --
11:18
"MostPlupart LikelyProbable" -- right here
in this windowfenêtre in realréal time.
237
666400
2816
« Très Probable » -- juste ici,
une réponse en temps réel.
J'en ferai la démonstration plus tard.
11:21
I'll have it out laterplus tard for techtechnologie demosdémos.
238
669240
2096
11:23
(LaughterRires)
239
671360
1216
(Rires)
Le truc c'est que, évidemment --
j'ai pris des décisions dans la vie
11:24
Now, the thing is, of coursecours --
so I've madefabriqué some decisionsles décisions in my life
240
672600
3576
11:28
where, in hindsightavec le recul,
I should have just listenedécouté to the ballballon.
241
676200
2896
où, en rétrospective,
j'aurais dû écouter la boule.
11:31
But, you know, of coursecours,
if you have the dataLes données availabledisponible,
242
679120
3336
Mais, évidemment,
si les données sont disponibles,
on veut remplacer ça
avec quelque chose de plus sophistiqué,
11:34
you want to replaceremplacer this with something
much more sophisticatedsophistiqué,
243
682480
3056
comme l'analyse des données,
pour en arriver à une meilleure décision.
11:37
like dataLes données analysisune analyse
to come to a better decisiondécision.
244
685560
3616
Mais cela ne change
pas le concept de base.
11:41
But that does not changechangement the basicde base setupprogramme d’installation.
245
689200
2616
11:43
So the ballballon maymai get smarterplus intelligent
and smarterplus intelligent and smarterplus intelligent,
246
691840
3176
La boule peut devenir
de plus en plus intelligente,
mais je pense que c'est toujours
à nous de décider
11:47
but I believe it's still on us
to make the decisionsles décisions
247
695040
2816
11:49
if we want to achieveatteindre
something extraordinaryextraordinaire,
248
697880
3016
si on veut faire
quelque chose d'extraordinaire,
11:52
on the right endfin of the curvecourbe.
249
700920
1936
du côté droit de la courbe.
Et je trouve ça très encourageant
comme message en fait,
11:54
And I find that a very encouragingencourageant
messagemessage, in factfait,
250
702880
4496
que même quand on a
toutes ces données devant nous,
11:59
that even in the facevisage
of hugeénorme amountsles montants of dataLes données,
251
707400
3976
ça nous rapporte quelque chose
de prendre ces décisions,
12:03
it still payspaie off to make decisionsles décisions,
252
711400
4096
d'être expert dans notre domaine
12:07
to be an expertexpert in what you're doing
253
715520
2656
et de prendre des risques.
12:10
and take risksrisques.
254
718200
2096
Car à la fin, ce ne sont pas les données,
12:12
Because in the endfin, it's not dataLes données,
255
720320
2776
ce sont les risques qui vous amènent
du côté droit de la courbe.
12:15
it's risksrisques that will landterre you
on the right endfin of the curvecourbe.
256
723120
3960
12:19
Thank you.
257
727840
1216
Merci.
(Applaudissements)
12:21
(ApplauseApplaudissements)
258
729080
3680
Translated by Alex Ruby
Reviewed by Morgane Quilfen

▲Back to top

ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com