ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com
TEDxCambridge

Tricia Wang: The human insights missing from big data

Tricia Wang: Une perspective humaine absente du big data

Filmed:
1,688,539 views

Pourquoi tant d'entreprises prennent de mauvaises décisions même si elles ont accès à une quantité inédite d'informations ? Tricia Wang nous raconte les histoires de Nokia, Netflix et des oracles de la Grèce antique afin de démystifier l'univers du big data et d'identifier ses écueils. Elle nous propose d'y ajouter les données denses (ou « thick datas »), ces données précieuses et non quantifiables qui a son origine dans les histoires humaines, dans le but de nous permettre de prendre les bonnes décisions et de ne pas « manquer le coche ».
- Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers. Full bio

Double-click the English transcript below to play the video.

00:12
In ancientancien GreeceGrèce,
0
885
1545
Dans la Grèce antique,
00:15
when anyonen'importe qui from slavesdes esclaves to soldierssoldats,
poetspoètes and politiciansLes politiciens,
1
3436
3943
quand un esclave, un soldat,
un poète ou un politicien
avait besoin de répondre
aux questions importantes de leur vie
00:19
needednécessaire to make a biggros decisiondécision
on life'sla vie mostles plus importantimportant questionsdes questions,
2
7403
4004
00:23
like, "Should I get marriedmarié?"
3
11431
1391
telles que : « Devrais-je me marier ?
Entreprendre ce voyage ? »
00:24
or "Should we embarkse lancer on this voyagevoyage?"
4
12846
1857
ou « Est-ce que notre armée devrait
avancer sur ce territoire ? »,
00:26
or "Should our armyarmée
advanceavance into this territoryterritoire?"
5
14727
2928
00:29
they all consultedconsulté the oracleoracle.
6
17679
2579
tous consultaient l'oracle.
Voici comment ça fonctionnait.
00:33
So this is how it workedtravaillé:
7
21020
1440
00:34
you would bringapporter her a questionquestion
and you would get on your kneesles genoux,
8
22484
3112
Vous lui posiez une question
en vous mettant à genoux.
Ensuite, elle entrait en une transe
qui pouvait prendre un ou deux jours.
00:37
and then she would go into this trancetranse.
9
25620
1871
00:39
It would take a couplecouple of daysjournées,
10
27515
1549
Puis, finalement, elle en sortait
00:41
and then eventuallyfinalement
she would come out of it,
11
29088
2163
pour vous donner
ses prédictions comme réponse.
00:43
givingdonnant you her predictionsprédictions as your answerrépondre.
12
31275
2536
Depuis les os divinatoires
de la Chine ancienne
00:46
From the oracleoracle bonesdes os of ancientancien ChinaLa Chine
13
34910
2566
00:49
to ancientancien GreeceGrèce to MayanMaya calendarscalendriers,
14
37500
2345
à la Grèce antique
et les calendriers mayas,
00:51
people have cravedimploré for prophecyprophétie
15
39869
2296
les gens ont cherché avec passion
dans les prédictions
00:54
in ordercommande to find out
what's going to happense produire nextprochain.
16
42189
3137
le moyen de savoir ce qui allait
se passer dans le futur.
Et c'est parce que nous voulons tous
prendre la bonne décision.
00:58
And that's because we all want
to make the right decisiondécision.
17
46516
3239
Nous ne voulons pas
manquer le coche.
01:01
We don't want to missmanquer something.
18
49779
1545
01:03
The futureavenir is scaryeffrayant,
19
51892
1743
Le futur est effrayant
mais devient plus engageant
quand nous savons
01:05
so it's much nicerplus agréable
knowingconnaissance that we can make a decisiondécision
20
53659
2717
que nous pouvons prendre une décision
avec une garantie du résultat.
01:08
with some assuranceassurance of the outcomerésultat.
21
56400
1982
Hé bien, nous avons un nouvel oracle,
et son nom, c'est « Big Data »,
01:11
Well, we have a newNouveau oracleoracle,
22
59079
1611
01:12
and it's nameprénom is biggros dataLes données,
23
60714
2145
01:14
or we call it "WatsonWatson"
or "deepProfond learningapprentissage" or "neuralneural netnet."
24
62883
3939
ou « Watson », « apprentissage profond »
« réseau de neurones artificiel »...
01:19
And these are the kindssortes of questionsdes questions
we askdemander of our oracleoracle now,
25
67340
4012
Voici le genre de questions
posées aujourd'hui à notre oracle :
01:23
like, "What's the mostles plus efficientefficace way
to shipnavire these phonesTéléphones
26
71376
3922
« Quel est le moyen le plus efficace
d'expédier ces téléphones
de la Chine à la Suède ? »,
01:27
from ChinaLa Chine to SwedenSuède?"
27
75322
1823
01:29
Or, "What are the oddschances
28
77169
1800
ou « Quels sont les risques
01:30
of my childenfant beingétant bornnée
with a geneticgénétique disorderdésordre?"
29
78993
3363
que mon enfant naisse
avec une maladie génétique ? »
01:34
Or, "What are the salesVentes volumele volume
we can predictprédire for this productproduit?"
30
82952
3244
ou « Quel volume de ventes
pouvons-nous prévoir pour ce produit ? »
01:40
I have a dogchien. Her nameprénom is ElleElle,
and she hatesdéteste the rainpluie.
31
88108
4047
J'ai un chien. Son nom est Elle
et elle déteste la pluie.
J'ai tout essayé pour tenter
de changer son attitude.
01:44
And I have trieda essayé everything
to untrainpréconditionner her.
32
92179
3306
01:47
But because I have failedéchoué at this,
33
95509
2771
Mais vu que j'ai échoué,
01:50
I alsoaussi have to consultconsulter
an oracleoracle, calledappelé DarkSombre SkySky,
34
98304
3286
je suis obligée de consulter,
moi aussi, un oracle appelé Dark Sky,
chaque fois que nous allons
sortir pour la promenade,
01:53
everychaque time before we go on a walkmarche,
35
101614
1635
01:55
for very accurateprécis weatherMétéo predictionsprédictions
in the nextprochain 10 minutesminutes.
36
103273
3577
pour les prévisions météo précises
des prochaines dix minutes.
Elle est si mignonne.
02:01
She's so sweetdoux.
37
109535
1303
02:03
So because of all of this,
our oracleoracle is a $122 billionmilliard industryindustrie.
38
111827
5707
À cause de tout cela, notre oracle est
une industrie de 122 milliards de dollars.
02:10
Now, despitemalgré the sizeTaille of this industryindustrie,
39
118006
3376
Mais malgré la taille de cette industrie,
02:13
the returnsrésultats are surprisinglyétonnamment lowfaible.
40
121406
2456
les retours sont étonnamment faibles.
02:16
InvestingInvestir in biggros dataLes données is easyfacile,
41
124342
2494
Il est facile d'investir dans big data,
mais l'utiliser est difficile.
02:18
but usingen utilisant it is harddifficile.
42
126860
1933
02:21
Over 73 percentpour cent of biggros dataLes données projectsprojets
aren'tne sont pas even profitablerentable,
43
129981
4040
Plus de 73 % des projets de big data
ne sont pas rentables,
02:26
and I have executivescadres supérieurs
comingvenir up to me sayingen disant,
44
134045
2431
et certains dirigeants viennent
me voir en disant :
« Il nous est arrivé la même chose.
02:28
"We're experiencingéprouver the sameMême thing.
45
136500
1789
Nous avons investi dans le big data,
02:30
We investedinvesti in some biggros dataLes données systemsystème,
46
138313
1753
mais nos employés ne prennent pas
de meilleures décisions,
02:32
and our employeesemployés aren'tne sont pas makingfabrication
better decisionsles décisions.
47
140090
2968
02:35
And they're certainlycertainement not comingvenir up
with more breakthroughpercée ideasidées."
48
143082
3162
et ils ne vont certainement pas
trouver plus d'idées révolutionnaires. »
Pour moi, tout ceci
est vraiment intéressant
02:38
So this is all really interestingintéressant to me,
49
146914
3184
02:42
because I'm a technologyLa technologie ethnographerethnographe.
50
150122
2010
parce que je suis un ethnographe
de la technologie.
02:44
I studyétude and I adviseconseiller companiesentreprises
51
152630
2564
J'étudie et je conseille les entreprises
02:47
on the patternsmodèles
of how people use technologyLa technologie,
52
155218
2483
sur les modèles d'utilisation
de la technologie,
02:49
and one of my interestintérêt areaszones is dataLes données.
53
157725
2678
et un de mes centres
d'intérêt est la data.
02:52
So why is havingayant more dataLes données
not helpingportion us make better decisionsles décisions,
54
160427
5193
Pourquoi plus de données ne nous aide pas
à prendre de meilleures décisions,
02:57
especiallynotamment for companiesentreprises
who have all these resourcesRessources
55
165644
2783
en particulier pour les sociétés
qui ont les ressources
pour investir dans
ces systèmes de big data ?
03:00
to investinvestir in these biggros dataLes données systemssystèmes?
56
168451
1736
03:02
Why isn't it gettingobtenir any easierPlus facile for them?
57
170211
2398
Pourquoi cela n'est-il pas
plus facile pour eux?
J'a moi-même fait l'expérience
de ce problème.
03:05
So, I've witnessedété témoin the strugglelutte firsthandde première main.
58
173990
2634
03:09
In 2009, I startedcommencé
a researchrecherche positionposition with NokiaNokia.
59
177374
3484
En 2009, j'ai commencé
un travail de recherche à Nokia.
03:13
And at the time,
60
181232
1158
À cette époque, Nokia était une
des plus grandes compagnies
03:14
NokiaNokia was one of the largestplus grand
cellcellule phonetéléphone companiesentreprises in the worldmonde,
61
182414
3158
de téléphones mobiles dans le monde,
03:17
dominatingdominant emergingémergent marketsles marchés
like ChinaLa Chine, MexicoMexique and IndiaInde --
62
185596
3202
dominant les marchés naissants en Chine,
au Mexique et en Inde,
03:20
all placesdes endroits where I had doneterminé
a lot of researchrecherche
63
188822
2502
pays dans lesquels j'avais
déjà fait des recherches
sur la façon dont les gens
à faible revenu utilisent la technologie.
03:23
on how low-incomefaible revenu people use technologyLa technologie.
64
191348
2676
03:26
And I spentdépensé a lot of extrasupplémentaire time in ChinaLa Chine
65
194048
2330
J'ai passé beaucoup
de temps libre en Chine,
03:28
gettingobtenir to know the informalinformel economyéconomie.
66
196402
2592
ce qui m'a permis de découvrir
l'économie parallèle.
03:31
So I did things like workingtravail
as a streetrue vendornom du vendeur
67
199018
2401
J'ai, par exemple, travaillé
comme vendeuse de rue
03:33
sellingvente dumplingsboulettes de pâte to constructionconstruction workersouvriers.
68
201443
2574
en vendant des raviolis chinois
aux ouvriers du bâtiment.
03:36
Or I did fieldworksur le terrain,
69
204041
1358
J'ai travaillé sur le terrain,
03:37
spendingdépenses nightsnuits and daysjournées
in internetl'Internet cafFACés,
70
205423
2958
passant des jours et des nuits
dans les cybercafés,
03:40
hangingpendaison out with ChineseChinois youthjeunesse,
so I could understandcomprendre
71
208405
2546
fréquentant la jeunesse chinoise
pour comprendre
la façon dont ils utilisent les jeux
et les portables
03:42
how they were usingen utilisant
gamesJeux and mobilemobile phonesTéléphones
72
210975
2284
03:45
and usingen utilisant it betweenentre movingen mouvement
from the ruralrural areaszones to the citiesvilles.
73
213283
3370
y compris dans leurs déplacements
de la campagne à la ville.
03:50
ThroughPar le biais all of this qualitativequalitative evidencepreuve
that I was gatheringrassemblement,
74
218335
3927
En compilant toutes
ces expériences qualitatives,
03:54
I was startingdépart to see so clearlyclairement
75
222286
2824
j'ai commencé à voir très clairement
03:57
that a biggros changechangement was about to happense produire
amongparmi low-incomefaible revenu ChineseChinois people.
76
225134
4472
qu'un très grand changement
allait se produire
parmi les chinois à faible revenu.
04:03
Even thoughbien que they were surroundedentouré
by advertisementsannonces for luxuryluxe productsdes produits
77
231020
4367
Bien que cernés par les publicités
pour des produits de luxe
tels que les toilettes chics -
qui n'en voudrait pas ? -
04:07
like fancyfantaisie toiletstoilettes --
who wouldn'tne serait pas want one? --
78
235411
3495
04:10
and apartmentsappartements and carsdes voitures,
79
238930
2890
pour des appartements et des voitures,
04:13
throughpar my conversationsconversations with them,
80
241844
1820
à travers mes conversations avec eux,
04:15
I founda trouvé out that the adsles publicités
the actuallyréellement enticedattirés them the mostles plus
81
243688
3841
j'ai découvert que les pubs
qui les affectaient le plus
04:19
were the onesceux for iPhonesiPhones,
82
247553
1996
étaient celles concernant les IPhones
04:21
promisingprometteur them this entryentrée
into this high-techhaute technologie life.
83
249573
3052
qui leur promettaient l'accès
à une vie à la pointe de la technologie.
Quand j'ai vécu avec eux dans
des bidonvilles urbains comme celui-ci,
04:25
And even when I was livingvivant with them
in urbanUrbain slumsbidonvilles like this one,
84
253469
3163
04:28
I saw people investinginvestir
over halfmoitié of theirleur monthlymensuel incomele revenu
85
256656
2996
j'ai vu des gens investir
presque la moitié de leur revenu
04:31
into buyingachat a phonetéléphone,
86
259676
1623
dans l'achat d'un téléphone, lequel
devenait de plus en plus « shanzhaï »,
04:33
and increasinglyde plus en plus, they were "shanzhaiShanzhai,"
87
261323
2302
04:35
whichlequel are affordableabordable knock-offscontrefaçons
of iPhonesiPhones and other brandsmarques.
88
263649
3388
une imitation bon marché d'iPhone
et autres marques.
04:40
They're very usableutilisable.
89
268303
1625
Ils sont tout à fait utilisables.
04:42
Does the jobemploi.
90
270890
1322
Ils font l'affaire.
04:44
And after yearsannées of livingvivant
with migrantsmigrants and workingtravail with them
91
272750
5789
Après des années à vivre
et travailler avec les ambulants,
à travailler et faire
tout ce qu'ils faisaient,
04:50
and just really doing everything
that they were doing,
92
278563
3434
04:54
I startedcommencé piecingPiecing
all these dataLes données pointspoints togetherensemble --
93
282021
3597
j'ai commencé à joindre
toutes ces données ensemble -
04:57
from the things that seemsembler randomau hasard,
like me sellingvente dumplingsboulettes de pâte,
94
285642
3123
des choses à priori insignifiantes
comme la vente de raviolis chinois
05:00
to the things that were more obviousévident,
95
288789
1804
aux choses plus consistantes comme
le montant de leurs factures de téléphone.
05:02
like trackingsuivi how much they were spendingdépenses
on theirleur cellcellule phonetéléphone billsfactures.
96
290617
3232
J'ai été capable de créer une image
plus globale de ce qui se passait.
05:05
And I was ablecapable to createcréer
this much more holisticholistique picturephoto
97
293873
2639
05:08
of what was happeningévénement.
98
296536
1156
Alors, je me suis rendue compte
05:09
And that's when I startedcommencé to realizeprendre conscience de
99
297716
1722
05:11
that even the poorestplus pauvre in ChinaLa Chine
would want a smartphonesmartphone,
100
299462
3509
que même le plus pauvre, en Chine,
souhaiterait avoir un smartphone
05:14
and that they would do almostpresque anything
to get theirleur handsmains on one.
101
302995
4985
et qu'il serait prêt à tout faire
pour en avoir un.
05:21
You have to keep in mindesprit,
102
309073
2404
Rappelez-vous que les iPhone
venaient juste de sortir.
05:23
iPhonesiPhones had just come out, it was 2009,
103
311501
3084
C'était en 2009, il y a huit ans,
05:26
so this was, like, eighthuit yearsannées agodepuis,
104
314609
1885
et les Androïde ressemblaient
à peine aux iPhone.
05:28
and AndroidsAndroïdes had just startedcommencé
looking like iPhonesiPhones.
105
316518
2437
05:30
And a lot of very smartintelligent
and realisticréaliste people said,
106
318979
2507
Beaucoup de gens intelligents
et réalistes ont dit :
« Ces smartphones sont juste une mode.
05:33
"Those smartphonessmartphones -- that's just a fadFAD.
107
321510
2207
05:36
Who wants to carryporter around
these heavylourd things
108
324243
2996
Qui veut porter ces trucs lourds
dont les batteries sont faciles à épuiser
et qui se cassent en tombant ? »
05:39
where batteriesbatteries draindrain quicklyrapidement
and they breakPause everychaque time you droplaissez tomber them?"
109
327263
3487
Mais j'avais beaucoup de données
et confiance en mes intuitions.
05:44
But I had a lot of dataLes données,
110
332793
1201
05:46
and I was very confidentsur de soi
about my insightsdes idées,
111
334018
2260
J'étais donc très impatiente
de les partager avec Nokia.
05:48
so I was very excitedexcité
to sharepartager them with NokiaNokia.
112
336302
2829
05:53
But NokiaNokia was not convincedconvaincu,
113
341332
2517
Mais Nokia n'a pas été convaincu
parce que ce n'était pas du big data.
05:55
because it wasn'tn'était pas biggros dataLes données.
114
343873
2335
Ils ont dit : « Nous avons des millions
de points de données
05:59
They said, "We have
millionsdes millions of dataLes données pointspoints,
115
347022
2404
06:01
and we don't see any indicatorsindicateurs
of anyonen'importe qui wantingvouloir to buyacheter a smartphonesmartphone,
116
349450
4247
et rien n'indique que quelqu'un
veut acheter un smartphone.
Vos données basées sur 100,
bien que larges,
06:05
and your dataLes données setensemble of 100,
as diversediverse as it is, is too weakfaible
117
353721
4388
sont trop faibles pour que nous
les prenions réellement au sérieux. »
06:10
for us to even take seriouslysérieusement."
118
358133
1714
J'ai dit : « Vous avez raison.
06:12
And I said, "NokiaNokia, you're right.
119
360908
1605
Vous n'êtes pas capable de le voir
car vos enquêtes assument
06:14
Of coursecours you wouldn'tne serait pas see this,
120
362537
1560
06:16
because you're sendingenvoi out surveysenquêtes
assumingen supposant that people don't know
121
364121
3371
que les gens ne connaissent pas
les smartphones.
06:19
what a smartphonesmartphone is,
122
367516
1159
Vous ne pouvez donc pas
obtenir les données
06:20
so of coursecours you're not going
to get any dataLes données back
123
368699
2366
concernant le désir des gens
d'acheter un smartphone dans deux ans.
06:23
about people wantingvouloir to buyacheter
a smartphonesmartphone in two yearsannées.
124
371089
2572
06:25
Your surveysenquêtes, your methodsméthodes
have been designedconçu
125
373685
2118
Vos méthodes ont été conçues pour
optimiser un modèle commercial existant.
06:27
to optimizeoptimiser an existingexistant businessEntreprise modelmaquette,
126
375827
2022
Pour ma part, j’observe
les nouvelles dynamiques humaines
06:29
and I'm looking
at these emergentEmergent humanHumain dynamicsdynamique
127
377873
2608
qui ne sont pas encore apparues.
06:32
that haven'tn'a pas happenedarrivé yetencore.
128
380505
1354
06:33
We're looking outsideà l'extérieur of marketmarché dynamicsdynamique
129
381883
2438
Nous explorons en dehors de la dynamique
des marchés afin de la prédire. »
06:36
so that we can get aheaddevant of it."
130
384345
1631
Savez-vous ce qui est arrivé à Nokia ?
06:39
Well, you know what happenedarrivé to NokiaNokia?
131
387373
2244
Leur compagnie a subit un revers.
06:41
TheirLeur businessEntreprise fellest tombée off a clifffalaise.
132
389641
2365
Ceci est le prix à payer
pour avoir raté le coche.
06:44
This -- this is the costCoût
of missingmanquant something.
133
392791
3727
C'était inconcevable!
06:49
It was unfathomableinsondable.
134
397163
1999
Mais Nokia n’est pas la seule.
06:52
But Nokia'sNokia not aloneseul.
135
400003
1651
Je vois sans arrêt des organisations
rejeter des données
06:54
I see organizationsorganisations
throwinglancement out dataLes données all the time
136
402258
2581
quand elles ne viennent pas
d'une analyse quantitative
06:56
because it didn't come from a quantquant modelmaquette
137
404863
2561
ou ne s'accordent pas avec une.
06:59
or it doesn't fiten forme in one.
138
407448
1768
Ce n'est pas la faute du big data.
07:02
But it's not biggros data'sde données faultfaute.
139
410219
2048
C'est la façon dont nous utilisons
big data ; c'est notre responsabilité.
07:04
It's the way we use biggros dataLes données;
it's our responsibilityresponsabilité.
140
412942
3907
La réputation de succès de big data
07:09
BigGros data'sde données reputationréputation for successSuccès
141
417730
1911
vient de la quantification
d'environnements bien spécifiques
07:11
comesvient from quantifyingquantification de
very specificspécifique environmentsenvironnements,
142
419665
3759
tels que les réseaux
de distribution d’électricité,
07:15
like electricityélectricité powerPuissance gridsgrilles
or deliverylivraison logisticslogistique or geneticgénétique codecode,
143
423448
4913
la logistique de livraison
ou le code génétique,
où nous quantifions en systèmes
plus ou moins indépendants.
07:20
when we're quantifyingquantification de in systemssystèmes
that are more or lessMoins containedcontenu.
144
428385
4318
Mais tous les systèmes
ne sont pas aussi indépendants.
07:24
But not all systemssystèmes
are as neatlysoigneusement containedcontenu.
145
432727
2969
Lorsque les systèmes sont plus dynamiques,
07:27
When you're quantifyingquantification de
and systemssystèmes are more dynamicdynamique,
146
435720
3258
en particulier ceux
impliquant des êtres humains,
07:31
especiallynotamment systemssystèmes
that involveimpliquer humanHumain beingsêtres,
147
439002
3799
les forces sont complexes
et imprévisibles,
07:34
forcesles forces are complexcomplexe and unpredictableimprévisible,
148
442825
2426
et nous ne savons pas bien les modéliser.
07:37
and these are things
that we don't know how to modelmaquette so well.
149
445275
3486
Quand vous prédisez
un comportement humain,
07:41
OnceFois you predictprédire something
about humanHumain behaviorcomportement,
150
449204
2813
de nouveaux facteurs entrent en jeu
car les conditions changent constamment.
07:44
newNouveau factorsfacteurs emergeémerger,
151
452041
1855
07:45
because conditionsconditions
are constantlyconstamment changingen changeant.
152
453920
2365
Donc, ce cycle est infini.
07:48
That's why it's a never-endingsans fin cyclecycle.
153
456309
1803
Quand vous pensez savoir,
quelque chose d'inconnu apparaît.
07:50
You think you know something,
154
458136
1464
07:51
and then something unknowninconnu
entersentre dans the picturephoto.
155
459624
2242
C'est pourquoi compter
uniquement sur big data
07:53
And that's why just relyingen s’appuyant
on biggros dataLes données aloneseul
156
461890
3322
augmente nos risques de rater le coche
07:57
increasesaugmente the chancechance
that we'llbien missmanquer something,
157
465236
2849
tout en nous donnant l'illusion
que nous savons déjà tout.
08:00
while givingdonnant us this illusionillusion
that we alreadydéjà know everything.
158
468109
3777
Ce qui rend ce paradoxe
si difficile à voir
08:04
And what makesfait du it really harddifficile
to see this paradoxparadoxe
159
472406
3856
ou même à l'appréhender
avec notre intellect,
08:08
and even wrapemballage our brainscerveaux around it
160
476286
2659
08:10
is that we have this thing
that I call the quantificationquantification biasbiais,
161
478969
3691
c'est ce que j'appelle « le préjugé
de la quantification »,
08:14
whichlequel is the unconsciousinconscient beliefcroyance
of valuingvalorisation de the measurablemesurables
162
482684
3922
l'habitude inconsciente de privilégier
le mesurable sur le non-mesurable -
08:18
over the immeasurableincommensurable.
163
486630
1594
nous en faisons souvent
l'expérience au travail ;
08:21
And we oftensouvent experienceexpérience this at our work.
164
489222
3284
certains de nos collèges
peuvent être comme ça
08:24
Maybe we work alongsideaux côtés de
colleaguescollègues who are like this,
165
492530
2650
voir notre compagnie toute entière -
08:27
or even our wholeentier entiretout
companycompagnie maymai be like this,
166
495204
2428
où les gens deviennent
si focalisés sur ce chiffre
08:29
where people becomedevenir
so fixatedobsédé on that numbernombre,
167
497656
2546
qu'ils ne peuvent rien voir en dehors,
08:32
that they can't see anything
outsideà l'extérieur of it,
168
500226
2067
même si vous leur présentez
les preuves sous les yeux.
08:34
even when you presentprésent them evidencepreuve
right in frontde face of theirleur facevisage.
169
502317
3948
C'est un message intéressant
08:39
And this is a very appealingfaire appel messagemessage,
170
507123
3371
parce qu'il n'y a
rien de mal à quantifier.
08:42
because there's nothing
wrongfaux with quantifyingquantification de;
171
510518
2343
En fait, c'est très gratifiant.
08:44
it's actuallyréellement very satisfyingsatisfaisant.
172
512885
1430
08:46
I get a great sensesens of comfortconfort
from looking at an ExcelExcel spreadsheettableur,
173
514339
4362
Regarder une feuille de calcul Excel
me réconforte beaucoup,
même les plus simples.
08:50
even very simplesimple onesceux.
174
518725
1401
(Rires)
08:52
(LaughterRires)
175
520150
1014
C'est un peu comme si oui,
la formule marche,
08:53
It's just kindgentil of like,
176
521188
1152
08:54
"Yes! The formulaformule workedtravaillé. It's all OK.
Everything is underen dessous de controlcontrôle."
177
522364
3504
tout va bien, la situation
est sous contrôle.
Mais le problème, c'est que quantifier
devient une addiction,
08:58
But the problemproblème is
178
526792
2390
09:01
that quantifyingquantification de is addictiveaddictif.
179
529206
2661
et quand nous oublions cela
et n'avons rien pour nous le rappeler,
09:03
And when we forgetoublier that
180
531891
1382
09:05
and when we don't have something
to kindgentil of keep that in checkvérifier,
181
533297
3038
il est facile de rejeter les données
09:08
it's very easyfacile to just throwjeter out dataLes données
182
536359
2118
qui ne peuvent être exprimées
en valeurs numériques ;
09:10
because it can't be expressedexprimé
as a numericalnumérique valuevaleur.
183
538501
2718
il est facile de déraper
vers le raisonnement miracle
09:13
It's very easyfacile just to slipcaleçon
into silver-bulletMiracle thinkingen pensant,
184
541243
2921
09:16
as if some simplesimple solutionSolution existedexisté.
185
544188
2579
comme s'il existait une solution simple.
C'est un dangereux moment
pour toute organisation
09:19
Because this is a great momentmoment of dangerdanger
for any organizationorganisation,
186
547600
4062
car souvent, le futur
que nous avons besoin de prédire
09:23
because oftentimessouvent,
the futureavenir we need to predictprédire --
187
551686
2634
n'est pas dans cette botte de foin, là,
09:26
it isn't in that haystackbotte de foin,
188
554344
2166
mais plutôt dans cette tornade
qui se dirige sur nous,
09:28
but it's that tornadotornade
that's bearingpalier down on us
189
556534
2538
en dehors de la grange.
09:31
outsideà l'extérieur of the barnGrange.
190
559096
1488
Il n'y a pas de plus grand danger
que d'être incapable de voir l'inconnu.
09:34
There is no greaterplus grand riskrisque
191
562960
2326
09:37
than beingétant blindaveugle to the unknowninconnu.
192
565310
1666
Cela vous conduit à prendre
de mauvaises décisions
09:39
It can causecause you to make
the wrongfaux decisionsles décisions.
193
567000
2149
et à manquer quelque chose d'important.
09:41
It can causecause you to missmanquer something biggros.
194
569173
1974
Néanmoins cette voie
n'est pas une fatalité.
09:43
But we don't have to go down this pathchemin.
195
571734
3101
Il s'avère que l'oracle
de la Grèce antique
09:47
It turnsse tourne out that the oracleoracle
of ancientancien GreeceGrèce
196
575453
3195
contient la clé secrète
qui montre la voie à suivre.
09:50
holdstient the secretsecret keyclé
that showsmontre us the pathchemin forwardvers l'avant.
197
578672
3966
09:55
Now, recentrécent geologicalgéologique researchrecherche has shownmontré
198
583654
2595
Des recherches géologiques
récentes ont montré
que le Temple d'Apollon
dans lequel était situé le fameux oracle
09:58
that the TempleTemple of ApolloApollon,
where the mostles plus famouscélèbre oracleoracle satsam,
199
586273
3564
a été construit
entre deux failles sismiques.
10:01
was actuallyréellement builtconstruit
over two earthquaketremblement de terre faultsfailles.
200
589861
3084
Ces failles libéraient
des vapeurs pétrochimiques
10:04
And these faultsfailles would releaseLibération
these petrochemicalpétrochimique fumesfumées
201
592969
2886
du dessous de l'écorce terrestre,
10:07
from underneathsous the Earth'sDe la terre crustcroûte,
202
595879
1685
et l'oracle était littéralement assise
au-dessus de ces deux failles
10:09
and the oracleoracle literallyLittéralement satsam
right aboveau dessus these faultsfailles,
203
597588
3866
et inhalait des quantités
énormes d'éthylène...
10:13
inhalingl’inhalation enormousénorme amountsles montants
of ethyleneéthylène gasgaz, these fissuresfissures.
204
601478
3588
(Rires)
10:17
(LaughterRires)
205
605090
1008
C'est vrai !
10:18
It's truevrai.
206
606122
1173
(Rires)
10:19
(LaughterRires)
207
607319
1017
C'est vrai et c'est ce qui lui permettait
de pérorer et halluciner
10:20
It's all truevrai, and that's what madefabriqué her
babbleBabble and hallucinateavoir des hallucinations
208
608360
3509
et d'entrer dans un état
similaire à la transe.
10:23
and go into this trance-liketranse stateEtat.
209
611893
1724
10:25
She was highhaute as a kitecerf-volant!
210
613641
1770
Elle planait complètement !
10:27
(LaughterRires)
211
615435
4461
(Rires)
Donc, comment se fait-il que les gens
10:31
So how did anyonen'importe qui --
212
619920
2779
obtenaient des conseils utiles
dans son état ?
10:34
How did anyonen'importe qui get
any usefulutile adviceConseil out of her
213
622723
3030
10:37
in this stateEtat?
214
625777
1190
Eh bien, voyez-vous ces gens
autour de l'oracle ?
10:39
Well, you see those people
surroundingalentours the oracleoracle?
215
627497
2381
Ils la soutiennent
car elle est un peu dans les vapes.
10:41
You see those people holdingen portant her up,
216
629902
1879
10:43
because she's, like, a little woozypatraque?
217
631805
1717
Remarquez cet homme sur la gauche
qui tient le carnet orange.
10:45
And you see that guy
on your left-handmain gauche sidecôté
218
633546
2308
10:47
holdingen portant the orangeOrange notebookordinateur portable?
219
635878
1598
10:50
Well, those were the templetemple guidesguides,
220
638105
1730
Ce sont les guides du temple
10:51
and they workedtravaillé handmain in handmain
with the oracleoracle.
221
639859
3016
qui travaillent main
dans la main avec l'oracle.
10:56
When inquisitorsinquisiteurs would come
and get on theirleur kneesles genoux,
222
644084
2516
Quand les questionneurs
venaient et s'agenouillaient,
10:58
that's when the templetemple guidesguides
would get to work,
223
646624
2340
les guides du temple
se mettaient au travail,
car une fois les questions posées,
ils observaient les états émotionnels
11:00
because after they askeda demandé her questionsdes questions,
224
648988
1864
11:02
they would observeobserver theirleur emotionalémotif stateEtat,
225
650876
2001
et demandaient
des infos complémentaires :
11:04
and then they would askdemander them
follow-upsuivi questionsdes questions,
226
652901
2324
« Pourquoi voulez-vous
cette prédiction ? Qui êtes-vous ?
11:07
like, "Why do you want to know
this prophecyprophétie? Who are you?
227
655249
2834
Qu'allez-vous faire
de cette information ? »
11:10
What are you going to do
with this informationinformation?"
228
658107
2264
11:12
And then the templetemple guidesguides would take
this more ethnographicethnographique,
229
660395
3182
Ensuite, les guides du temple,
avec cette information
plus ethnographique et qualitative,
11:15
this more qualitativequalitative informationinformation,
230
663601
2156
11:17
and interpretinterpréter the oracle'sOracle babblingsbabblings.
231
665781
2075
interprétaient les paroles de l'oracle.
Donc, l'oracle n'était pas seule,
11:21
So the oracleoracle didn't standsupporter aloneseul,
232
669428
2292
de même, nos systèmes de big data
ne devraient pas l'être.
11:23
and neitherni should our biggros dataLes données systemssystèmes.
233
671744
2148
11:26
Now to be clearclair,
234
674630
1161
Pour clarifier, je ne dis pas
11:27
I'm not sayingen disant that biggros dataLes données systemssystèmes
are huffingsoufflant ethyleneéthylène gasgaz,
235
675815
3459
que les systèmes de big data
exhalent de l'éthylène
11:31
or that they're even givingdonnant
invalidNon valide predictionsprédictions.
236
679298
2353
ou qu'ils font des prévisions caduques.
Exactement le contraire,
ce que je veux dire
11:33
The totaltotal oppositecontraire.
237
681675
1161
11:34
But what I am sayingen disant
238
682860
2068
c'est que tout comme l'oracle
avait besoin des guides du temple,
11:36
is that in the sameMême way
that the oracleoracle needednécessaire her templetemple guidesguides,
239
684952
3832
nos systèmes de big data
ont aussi besoin d'eux.
11:40
our biggros dataLes données systemssystèmes need them, too.
240
688808
2288
11:43
They need people like ethnographersethnographes
and userutilisateur researchersdes chercheurs
241
691120
4109
Ils ont besoin des ethnographes
et des chercheurs sur les utilisateurs
pour rassembler ce que j'appelle
« les données denses ».
11:47
who can gatherrecueillir what I call thicképais dataLes données.
242
695253
2506
11:50
This is preciousprécieux dataLes données from humanshumains,
243
698502
2991
Ce sont des données précieuses
fournies par les hommes,
les histoires, émotions
et interactions non quantifiables.
11:53
like storieshistoires, emotionsémotions and interactionsinteractions
that cannotne peux pas be quantifiedquantifié.
244
701517
4102
11:57
It's the kindgentil of dataLes données
that I collectedrecueilli for NokiaNokia
245
705643
2322
C'est le genre de données
que j'ai recueillies pour Nokia
11:59
that comesvient in in the formforme
of a very smallpetit sampleéchantillon sizeTaille,
246
707989
2669
sous la forme d'un échantillon très petit
12:02
but deliversdélivre incredibleincroyable depthprofondeur of meaningsens.
247
710682
2955
mais incroyablement profond
quant au sens.
12:05
And what makesfait du it so thicképais and meatyMeaty
248
713661
3680
Ce qui le rend si dense et consistant,
c'est l'expérience
et la compréhension du récit humain.
12:10
is the experienceexpérience of understandingcompréhension
the humanHumain narrativerécit.
249
718445
4029
12:14
And that's what helpsaide to see
what's missingmanquant in our modelsdes modèles.
250
722498
3639
C'est ce qui aide à percevoir
ce qui manque dans nos modèles.
12:18
ThickÉpaisse dataLes données groundsterrains our businessEntreprise questionsdes questions
in humanHumain questionsdes questions,
251
726851
4045
Les données denses
ancrent les questions commerciales
dans les questions humaines.
12:22
and that's why integratingen intégrant
biggros and thicképais dataLes données
252
730920
3562
C'est pourquoi fusionner
big data et données denses
permet d'obtenir une image plus complète.
12:26
formsformes a more completeAchevée picturephoto.
253
734506
1689
Le big data peut offrir
des aperçus à échelle
12:28
BigGros dataLes données is ablecapable to offeroffre
insightsdes idées at scaleéchelle
254
736772
2881
et tirer le meilleur profit
de l'intelligence artificielle,
12:31
and leverageinfluence the bestmeilleur
of machinemachine intelligenceintelligence,
255
739677
2647
12:34
whereastandis que thicképais dataLes données can help us
rescueporter secours the contextle contexte lossperte
256
742348
3572
tandis que les données denses
aident à minimiser
la perte de contexte générée
en rendant big data utilisable,
12:37
that comesvient from makingfabrication biggros dataLes données usableutilisable,
257
745944
2098
et à tirer le meilleur
de l'intelligence humaine.
12:40
and leverageinfluence the bestmeilleur
of humanHumain intelligenceintelligence.
258
748066
2181
12:42
And when you actuallyréellement integrateintégrer the two,
that's when things get really funamusement,
259
750271
3552
En fait, quand vous intégrez les deux,
ça devient vraiment intéressant,
car vous ne travaillez plus uniquement
avec les données recueillies,
12:45
because then you're no longerplus long
just workingtravail with dataLes données
260
753847
2436
12:48
you've alreadydéjà collectedrecueilli.
261
756307
1196
vous travaillez avec des données
non recueillies.
12:49
You get to alsoaussi work with dataLes données
that hasn'tn'a pas been collectedrecueilli.
262
757527
2737
Vous commencez
à demander « pourquoi? » :
12:52
You get to askdemander questionsdes questions about why:
263
760288
1719
12:54
Why is this happeningévénement?
264
762031
1317
Pourquoi cela se passe-t-il ?
12:55
Now, when NetflixNetflix did this,
265
763778
1379
Quand Netflix a fait ça,
12:57
they unlockeddéverrouillé a wholeentier newNouveau way
to transformtransformer theirleur businessEntreprise.
266
765181
3035
ils ont ouvert une nouvelle voie
de transformation pour leur entreprise.
13:01
NetflixNetflix is knownconnu for theirleur really great
recommendationrecommandation algorithmalgorithme de,
267
769406
3956
Netflix est connue pour ses algorithmes
de recommandation.
13:05
and they had this $1 millionmillion prizeprix
for anyonen'importe qui who could improveaméliorer it.
268
773386
4797
Ils ont offert un million de dollars
à quiconque pouvait les améliorer
13:10
And there were winnersgagnants.
269
778207
1314
et il y a eu des gagnants.
13:12
But NetflixNetflix discovereddécouvert
the improvementsdes améliorations were only incrementalincrémentale.
270
780255
4323
Mais Netflix a découvert
que ces améliorations
étaient seulement incrémentielles.
Pour comprendre la situation,
13:17
So to really find out what was going on,
271
785404
1964
ils ont embauché un ethnographe,
Grant McCracken,
13:19
they hiredembauché an ethnographerethnographe,
GrantGrant McCrackenMcCracken,
272
787392
3741
13:23
to gatherrecueillir thicképais dataLes données insightsdes idées.
273
791157
1546
afin d'obtenir des données denses,
13:24
And what he discovereddécouvert was something
that they hadn'tn'avait pas seenvu initiallyinitialement
274
792727
3924
et il a trouvé une chose
qu'ils n'avaient pas vue à l'origine
13:28
in the quantitativequantitatif dataLes données.
275
796675
1355
dans les données quantitatives.
13:31
He discovereddécouvert that people lovedaimé
to binge-watchhyperphagie-watch.
276
799072
2728
Il a découvert que les gens
aimaient le « binge-watching ».
13:33
In factfait, people didn't even
feel guiltycoupable about it.
277
801824
2353
En fait, ils ne s'en culpabilisaient pas
mais en jouissaient.
13:36
They enjoyedapprécié it.
278
804201
1255
13:37
(LaughterRires)
279
805480
1026
Netflix a réalisé :
« Oh, c'est une nouvelle donnée ».
13:38
So NetflixNetflix was like,
"Oh. This is a newNouveau insightperspicacité."
280
806530
2356
Ils se sont tournés vers leur équipe
de science des données
13:40
So they wentest allé to theirleur dataLes données sciencescience teaméquipe,
281
808910
1938
13:42
and they were ablecapable to scaleéchelle
this biggros dataLes données insightperspicacité
282
810872
2318
qui a su comparer cette donnée
avec leurs données quantitatives.
13:45
in with theirleur quantitativequantitatif dataLes données.
283
813214
2587
13:47
And onceune fois que they verifiedvérifié it
and validatedvalidé it,
284
815825
3170
Après l'avoir vérifiée et validée,
13:51
NetflixNetflix decideddécidé to do something
very simplesimple but impactfulpercutant.
285
819019
4761
Netflix a décidé d'agir
de façon simple mais efficace.
13:56
They said, insteadau lieu of offeringoffre
the sameMême showmontrer from differentdifférent genresgenres
286
824834
6492
Au lieu d'offrir une même émission
dans différents genres
ou plus d'émissions différentes
d'utilisateurs similaires,
14:03
or more of the differentdifférent showsmontre
from similarsimilaire usersutilisateurs,
287
831350
3888
14:07
we'llbien just offeroffre more of the sameMême showmontrer.
288
835262
2554
ils ont simplement offert
plus de la même émission.
« Nous vous rendons
le Binge-watching plus facile! »
14:09
We'llNous allons make it easierPlus facile
for you to binge-watchhyperphagie-watch.
289
837840
2105
14:11
And they didn't stop there.
290
839969
1486
Ils ne se sont pas arrêtés là
mais ont fait toutes sortes de choses
14:13
They did all these things
291
841479
1474
14:14
to redesignrefonte theirleur entiretout
viewertéléspectateur experienceexpérience,
292
842977
2959
pour changer l’entière
expérience de leur spectateur
pour l'encourager au binge-watching.
14:17
to really encourageencourager binge-watchingobservation des crise de boulimie.
293
845960
1758
14:20
It's why people and friendscopains disappeardisparaître
for wholeentier weekendsfins de semaine at a time,
294
848230
3241
Voilà pourquoi les gens et les amis
disparaissent des weekends entiers
14:23
catchingcontagieux up on showsmontre
like "MasterMaster of NoneAucun."
295
851495
2343
pour regarder
les « Master of None » manqués.
14:25
By integratingen intégrant biggros dataLes données and thicképais dataLes données,
they not only improvedamélioré theirleur businessEntreprise,
296
853862
4173
En fusionnant big data et données denses,
ils ont amélioré leurs services
14:30
but they transformedtransformé how we consumeconsommer mediamédias.
297
858059
2812
et transformé la façon
dont nous consommons les médias.
14:32
And now theirleur stocksstocks are projectedprojeté
to doubledouble in the nextprochain fewpeu yearsannées.
298
860895
4552
Maintenant, il est prévu que leurs stocks
doublent dans les prochaines années.
14:38
But this isn't just about
watchingen train de regarder more videosvidéos
299
866280
3830
Mais il ne s'agit pas
de regarder plus de vidéos,
14:42
or sellingvente more smartphonessmartphones.
300
870134
1620
ou de vendre plus de smartphones.
14:44
For some, integratingen intégrant thicképais dataLes données
insightsdes idées into the algorithmalgorithme de
301
872143
4050
Pour certains, incorporer le résultat
des données denses dans cet algorithme
14:48
could mean life or deathdécès,
302
876217
2263
peut être une question de vie ou de mort,
14:50
especiallynotamment for the marginalizedmarginalisés.
303
878504
2146
en particulier pour les marginalisés.
14:53
All around the countryPays,
policepolice departmentsdépartements are usingen utilisant biggros dataLes données
304
881738
3434
Les services de Police,
dans tout le pays,
utilisent le big data
dans la prévision policière,
14:57
for predictiveprédictive policingmaintien de l’ordre,
305
885196
1963
14:59
to setensemble bondliaison amountsles montants
and sentencingdétermination de la peine recommendationsrecommandations
306
887183
3084
afin de définir les cautions
et recommandations de sentences
15:02
in waysfaçons that reinforcerenforcer existingexistant biasesbiais.
307
890291
3147
d'une manière qui renforce
les préjugés existants.
15:06
NSA'sDe NSA SkynetSkynet machinemachine learningapprentissage algorithmalgorithme de
308
894296
2423
Skynet, l'algorithme d'apprentissage
machine de la NASA
15:08
has possiblypeut-être aidedassistée par in the deathsdes morts
of thousandsmilliers of civilianscivils in PakistanPakistan
309
896743
5444
a probablement aidé à tuer
des milliers de civils au Pakistan
15:14
from misreadingerreur de lecture cellularcellulaire devicedispositif metadatamétadonnées.
310
902211
2721
en mal interprétant les métadonnées
des appareils cellulaires.
15:19
As all of our livesvies becomedevenir more automatedautomatique,
311
907131
3403
Quand nos vies deviennent
de plus en plus automatisées,
15:22
from automobilesautomobiles to healthsanté insuranceAssurance
or to employmentemploi,
312
910558
3080
des automobiles aux assurances
maladie et à l'emploi,
15:25
it is likelyprobable that all of us
313
913662
2350
il est probable que nous tous
15:28
will be impactedtouchés
by the quantificationquantification biasbiais.
314
916036
2989
allons être affectés
par les erreurs de quantification.
Mais la bonne nouvelle, c'est que
nous avons fait des progrès
15:32
Now, the good newsnouvelles
is that we'venous avons come a long way
315
920972
2621
15:35
from huffingsoufflant ethyleneéthylène gasgaz
to make predictionsprédictions.
316
923617
2450
depuis les émanations d'éthylène
de la prophétie.
15:38
We have better toolsoutils,
so let's just use them better.
317
926091
3070
Nous avons de meilleurs outils,
donc utilisons-les au mieux.
15:41
Let's integrateintégrer the biggros dataLes données
with the thicképais dataLes données.
318
929185
2323
Intégrons big data aux données denses.
15:43
Let's bringapporter our templetemple guidesguides
with the oraclesOracles,
319
931532
2261
Amenons nos guides du temple
avec les oracles.
15:45
and whetherqu'il s'agisse this work happensarrive
in companiesentreprises or nonprofitsorganismes sans but lucratif
320
933817
3376
Et que ce soit dans les entreprises,
les sociétés à but non lucratif,
15:49
or governmentgouvernement or even in the softwareLogiciel,
321
937217
2469
les gouvernements
ou même les logiciels,
15:51
all of it mattersimporte,
322
939710
1792
tout ce travail compte,
15:53
because that meansveux dire
we're collectivelycollectivement committedengagé
323
941526
3023
car il implique que tous ensemble,
nous nous engageons
15:56
to makingfabrication better dataLes données,
324
944573
2191
à créer des données meilleures,
15:58
better algorithmsalgorithmes, better outputssorties
325
946788
1836
de meilleurs algorithmes, résultats,
et de meilleures décisions.
16:00
and better decisionsles décisions.
326
948648
1643
16:02
This is how we'llbien avoidéviter
missingmanquant that something.
327
950315
3558
C'est de cette façon que nous éviterons
de manquer le coche.
16:07
(ApplauseApplaudissements)
328
955222
3948
(Applaudissements)
Translated by Hélène VERNET
Reviewed by TED Translators Admin

▲Back to top

ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com