ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com
TEDxCambridge

Tricia Wang: The human insights missing from big data

Tricia Wang: La perspectiva humana que hace falta en big data

Filmed:
1,688,539 views

¿Por qué toman malas decisiones tantas empresas, aún cuando tienen acceso a una cantidad sin precedente de datos? Con historias desde Nokia hasta Netflix y los oráculos de la antigua Grecia, Tricia Wang desmitifica las grandes bases de datos e identifica sus debilidades, sugiriendo que en vez de en ellos nos concentremos en los "datos densos"--percepciones humanas valiosas, no cuantificables -- para tomar las decisiones comerciales correctas y prosperemos en lo desconocido.
- Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers. Full bio

Double-click the English transcript below to play the video.

00:12
In ancientantiguo GreeceGrecia,
0
885
1545
En la antigua Grecia,
00:15
when anyonenadie from slavesesclavos to soldierssoldados,
poetspoetas and politicianspolíticos,
1
3436
3943
cuando alguien, desde esclavos a soldados,
poetas y políticos,
necesitaba tomar una gran decisión
sobre las preguntas más importantes,
00:19
needednecesario to make a biggrande decisiondecisión
on life'sla vida mostmás importantimportante questionspreguntas,
2
7403
4004
como, "¿Debería casarme?"
00:23
like, "Should I get marriedcasado?"
3
11431
1391
o "¿Deberíamos iniciar este viaje?"
00:24
or "Should we embarkembarcarse on this voyageviaje?"
4
12846
1857
00:26
or "Should our armyEjército
advanceavanzar into this territoryterritorio?"
5
14727
2928
"¿Debería el ejército
avanzar a este territorio?"
todos consultaban el oráculo.
00:29
they all consultedconsultado the oracleoráculo.
6
17679
2579
00:33
So this is how it workedtrabajó:
7
21020
1440
Así funcionaba:
00:34
you would bringtraer her a questionpregunta
and you would get on your kneesrodillas,
8
22484
3112
traías una pregunta y te arrodillabas,
y luego ella entraba en un trance.
00:37
and then she would go into this trancetrance.
9
25620
1871
Llevaba un par de días,
00:39
It would take a couplePareja of daysdías,
10
27515
1549
y eventualmente salía del trance,
00:41
and then eventuallyfinalmente
she would come out of it,
11
29088
2163
dando sus predicciones como respuesta.
00:43
givingdando you her predictionspredicciones as your answerresponder.
12
31275
2536
00:46
From the oracleoráculo boneshuesos of ancientantiguo ChinaChina
13
34910
2566
Desde los oráculos de huesos
de la antigua China
00:49
to ancientantiguo GreeceGrecia to Mayanmaya calendarscalendarios,
14
37500
2345
a la antigua Grecia,
a los calendarios mayas,
00:51
people have cravedanhelado for prophecyprofecía
15
39869
2296
la gente ha buscado la profecía
00:54
in orderorden to find out
what's going to happenocurrir nextsiguiente.
16
42189
3137
para enterarse de qué va a suceder.
Y eso se debe a que todos
queremos tomar la decisión correcta.
00:58
And that's because we all want
to make the right decisiondecisión.
17
46516
3239
No nos queremos perder de algo.
01:01
We don't want to missperder something.
18
49779
1545
El futuro da miedo,
01:03
The futurefuturo is scaryde miedo,
19
51892
1743
es mucho mejor
saber que podemos decidir
01:05
so it's much nicermejor
knowingconocimiento that we can make a decisiondecisión
20
53659
2717
01:08
with some assurancegarantía of the outcomeSalir.
21
56400
1982
con alguna garantía del resultado.
Bueno, tenemos un nuevo oráculo,
01:11
Well, we have a newnuevo oracleoráculo,
22
59079
1611
01:12
and it's namenombre is biggrande datadatos,
23
60714
2145
y su nombre es big data.
01:14
or we call it "WatsonWatson"
or "deepprofundo learningaprendizaje" or "neuralneural netred."
24
62883
3939
o le llamamos "Watson"
o "aprendizaje profundo" o "red neural".
Y estas son las preguntas que hacemos
a nuestro oráculo ahora,
01:19
And these are the kindsclases of questionspreguntas
we askpedir of our oracleoráculo now,
25
67340
4012
01:23
like, "What's the mostmás efficienteficiente way
to shipenviar these phonesteléfonos
26
71376
3922
"¿Cuál es la forma más eficiente
de enviar estos teléfonos
01:27
from ChinaChina to SwedenSuecia?"
27
75322
1823
de China a Suecia?"
O, "¿Cuál es la probabilidad
01:29
Or, "What are the oddsposibilidades
28
77169
1800
01:30
of my childniño beingsiendo bornnacido
with a geneticgenético disordertrastorno?"
29
78993
3363
de que mi hijo nazca
con un problema genético?"
01:34
Or, "What are the salesventas volumevolumen
we can predictpredecir for this productproducto?"
30
82952
3244
O, "¿Qué volumen de ventas podemos
proyectar para este producto?"
Tengo una perra. Se llama Elle,
y odia la lluvia.
01:40
I have a dogperro. Her namenombre is ElleElle,
and she hatesodia the rainlluvia.
31
88108
4047
01:44
And I have triedintentó everything
to untrainno entrenar her.
32
92179
3306
He tratado todo para re-entrenarla.
01:47
But because I have failedha fallado at this,
33
95509
2771
Pero como he fallado con esto,
01:50
I alsoademás have to consultconsultar
an oracleoráculo, calledllamado DarkOscuro SkyCielo,
34
98304
3286
le consulto a un oráculo
que se llama Cielos Oscuros,
01:53
everycada time before we go on a walkcaminar,
35
101614
1635
cada vez que salimos a caminar,
01:55
for very accuratepreciso weatherclima predictionspredicciones
in the nextsiguiente 10 minutesminutos.
36
103273
3577
para tener predicciones precisas
para los próximos diez minutos.
(Risas)
Ella es tan dulce.
02:01
She's so sweetdulce.
37
109535
1303
Por estas razones, nuestra industria
de oráculos es de USD 122 000 millones.
02:03
So because of all of this,
our oracleoráculo is a $122 billionmil millones industryindustria.
38
111827
5707
A pesar del tamaño de esta industria,
02:10
Now, despiteA pesar de the sizetamaño of this industryindustria,
39
118006
3376
los dividendos son
sorprendentemente bajos.
02:13
the returnsdevoluciones are surprisinglyasombrosamente lowbajo.
40
121406
2456
Invertir en big data es muy fácil,
02:16
InvestingInvertir in biggrande datadatos is easyfácil,
41
124342
2494
02:18
but usingutilizando it is harddifícil.
42
126860
1933
pero usar macrodatos es difícil.
Más del 73 % de los proyectos
de big data no son rentables,
02:21
Over 73 percentpor ciento of biggrande datadatos projectsproyectos
aren'tno son even profitablerentable,
43
129981
4040
hay ejecutivos que dicen:
02:26
and I have executivesejecutivos
comingviniendo up to me sayingdiciendo,
44
134045
2431
"Se repite el problema.
02:28
"We're experiencingexperimentar the samemismo thing.
45
136500
1789
02:30
We investedinvertido in some biggrande datadatos systemsistema,
46
138313
1753
Invertimos en algún sistema de big data,
02:32
and our employeesempleados aren'tno son makingfabricación
better decisionsdecisiones.
47
140090
2968
y nuestros empleados no toman
mejores decisiones.
02:35
And they're certainlyciertamente not comingviniendo up
with more breakthroughpenetración ideasideas."
48
143082
3162
Y definitivamente no generan
ideas innovadoras".
Esto me parece muy interesante,
02:38
So this is all really interestinginteresante to me,
49
146914
3184
02:42
because I'm a technologytecnología ethnographeretnógrafo.
50
150122
2010
porque soy etnógrafa de tecnología.
02:44
I studyestudiar and I adviseasesorar companiescompañías
51
152630
2564
Estudio y aconsejo a empresas
02:47
on the patternspatrones
of how people use technologytecnología,
52
155218
2483
en las tendencias de uso de tecnología.
02:49
and one of my interestinteresar areasáreas is datadatos.
53
157725
2678
Una de las áreas que me interesan
es el análisis de datos.
02:52
So why is havingteniendo more datadatos
not helpingración us make better decisionsdecisiones,
54
160427
5193
¿Por qué no estamos tomando
mejores decisiones,
especialmente compañías que tienen
todos los recursos
02:57
especiallyespecialmente for companiescompañías
who have all these resourcesrecursos
55
165644
2783
para invertir en estos
sistemas de big data?
03:00
to investinvertir in these biggrande datadatos systemssistemas?
56
168451
1736
03:02
Why isn't it gettingconsiguiendo any easiermás fácil for them?
57
170211
2398
¿Por qué no les está facilitando
nuevas estrategias?
Soy testigo,
03:05
So, I've witnessedtestigo the strugglelucha firsthandde primera mano.
58
173990
2634
en 2009, empecé un puesto
de investigadora en Nokia.
03:09
In 2009, I startedempezado
a researchinvestigación positionposición with NokiaNokia.
59
177374
3484
03:13
And at the time,
60
181232
1158
En esa época, Nokia era
03:14
NokiaNokia was one of the largestmás grande
cellcelda phoneteléfono companiescompañías in the worldmundo,
61
182414
3158
una de las empresas
más grandes del mundo,
dominaba los mercados emergentes
como China, México e India...
03:17
dominatingdominante emergingemergentes marketsmercados
like ChinaChina, MexicoMéjico and IndiaIndia --
62
185596
3202
03:20
all placeslugares where I had donehecho
a lot of researchinvestigación
63
188822
2502
todos sitios que yo había
investigado bastante
03:23
on how low-incomede bajos ingresos people use technologytecnología.
64
191348
2676
la forma de uso de tecnología
de perfiles de bajos ingresos.
Pasé mucho tiempo en China,
03:26
And I spentgastado a lot of extraextra time in ChinaChina
65
194048
2330
03:28
gettingconsiguiendo to know the informalinformal economyeconomía.
66
196402
2592
familiarizándome con la economía
informal.
03:31
So I did things like workingtrabajando
as a streetcalle vendorvendedor
67
199018
2401
Trabajé como vendedora ambulante
03:33
sellingde venta dumplingsalbóndigas to constructionconstrucción workerstrabajadores.
68
201443
2574
vendiendo comida a obreros.
Hice trabajo de campo,
03:36
Or I did fieldworktrabajo de campo,
69
204041
1358
03:37
spendinggasto nightsnoches and daysdías
in internetInternet cafcoste y fleteés,
70
205423
2958
pasé días y noches en cibercafés,
03:40
hangingcolgando out with Chinesechino youthjuventud,
so I could understandentender
71
208405
2546
parando con la juventud china,
para entender
cómo estaban usando
los videojuegos y móviles.
03:42
how they were usingutilizando
gamesjuegos and mobilemóvil phonesteléfonos
72
210975
2284
Y cómo los usaban en la migración
del campo a las ciudades.
03:45
and usingutilizando it betweenEntre movingemocionante
from the ruralrural areasáreas to the citiesciudades.
73
213283
3370
03:50
ThroughMediante all of this qualitativecualitativo evidenceevidencia
that I was gatheringreunión,
74
218335
3927
Con toda esta evidencia cualitativa
que estaba coleccionando,
noté claramente
03:54
I was startingcomenzando to see so clearlyclaramente
75
222286
2824
03:57
that a biggrande changecambio was about to happenocurrir
amongentre low-incomede bajos ingresos Chinesechino people.
76
225134
4472
que iba a haber un gran cambio
entre los pobres de China.
04:03
Even thoughaunque they were surroundedrodeado
by advertisementsanuncios for luxurylujo productsproductos
77
231020
4367
A pesar de estar rodeados de publicidad
para productos de lujo,
como inodoros sofisticados
-- ¿quién no quiere uno? --
04:07
like fancylujoso toiletsbaños --
who wouldn'tno lo haría want one? --
78
235411
3495
y departamentos y autos,
04:10
and apartmentsapartamentos and carscarros,
79
238930
2890
en nuestras conversaciones,
04:13
throughmediante my conversationsconversaciones with them,
80
241844
1820
04:15
I foundencontró out that the adsanuncios
the actuallyactualmente enticedseducido them the mostmás
81
243688
3841
me di cuenta de que los anuncios
que realmente les interesaban
04:19
were the onesunos for iPhonesiPhones,
82
247553
1996
eran los anuncios para iPhones,
04:21
promisingprometedor them this entryentrada
into this high-techalta tecnología life.
83
249573
3052
que les prometía acceso a
esta vida de alta tecnología.
Incluso cuando viví con ellos
en barriadas como esta,
04:25
And even when I was livingvivo with them
in urbanurbano slumstugurios like this one,
84
253469
3163
04:28
I saw people investinginvirtiendo
over halfmitad of theirsu monthlymensual incomeingresos
85
256656
2996
veía gente invirtiendo más de
la mitad de su sueldo mensual
04:31
into buyingcomprando a phoneteléfono,
86
259676
1623
para comprar un celular,
04:33
and increasinglycada vez más, they were "shanzhaishanzhai,"
87
261323
2302
y cada vez más, eran "shanzhai",
04:35
whichcual are affordableasequible knock-offsimitaciones
of iPhonesiPhones and other brandsmarcas.
88
263649
3388
que son imitaciones baratas
de iPhones y otras marcas.
Son bastante usables,
04:40
They're very usableusable.
89
268303
1625
funcionan.
04:42
Does the jobtrabajo.
90
270890
1322
Y después de años de vivir
con inmigrantes y trabajar con ellos,
04:44
And after yearsaños of livingvivo
with migrantsmigrantes and workingtrabajando with them
91
272750
5789
y básicamente hacer todo lo que
ellos hacían,
04:50
and just really doing everything
that they were doing,
92
278563
3434
empecé a unir los datos...
04:54
I startedempezado piecingempalme
all these datadatos pointspuntos togetherjuntos --
93
282021
3597
desde las cosas que parecen
al azar como yo vendiendo comida,
04:57
from the things that seemparecer randomaleatorio,
like me sellingde venta dumplingsalbóndigas,
94
285642
3123
05:00
to the things that were more obviousobvio,
95
288789
1804
a las cosas más obvias,
05:02
like trackingrastreo how much they were spendinggasto
on theirsu cellcelda phoneteléfono billsfacturas.
96
290617
3232
como calcular cuánto gastan
en las cuentas de móviles.
Así pude ver una figura más clara,
más completa,
05:05
And I was ablepoder to createcrear
this much more holisticholístico pictureimagen
97
293873
2639
de lo que estaba pasando.
05:08
of what was happeningsucediendo.
98
296536
1156
Ahí me di cuenta
05:09
And that's when I startedempezado to realizedarse cuenta de
99
297716
1722
de que hasta los más pobres de China
iban a querer un teléfono inteligente,
05:11
that even the poorestel más pobre in ChinaChina
would want a smartphoneteléfono inteligente,
100
299462
3509
05:14
and that they would do almostcasi anything
to get theirsu handsmanos on one.
101
302995
4985
y que harían casi cualquier cosa
por conseguir uno.
Acuérdense,
05:21
You have to keep in mindmente,
102
309073
2404
los iPhones acababan de salir,
era el 2009,
05:23
iPhonesiPhones had just come out, it was 2009,
103
311501
3084
05:26
so this was, like, eightocho yearsaños agohace,
104
314609
1885
o sea, hace ocho años,
05:28
and AndroidsAndroides had just startedempezado
looking like iPhonesiPhones.
105
316518
2437
y los Androids se parecían más
a los iPhones.
05:30
And a lot of very smartinteligente
and realisticrealista people said,
106
318979
2507
Y mucha gente inteligente
y realista dijo:
05:33
"Those smartphonesteléfonos inteligentes -- that's just a fadmoda.
107
321510
2207
"Esos teléfonos inteligentes
son una moda pasajera.
05:36
Who wants to carryllevar around
these heavypesado things
108
324243
2996
¿Quién quiere estar cargando
esas cosas pesadas
que se les gastan las baterías y que
se rompen cada vez que se te caen?"
05:39
where batteriesbaterías draindesagüe quicklycon rapidez
and they breakdescanso everycada time you dropsoltar them?"
109
327263
3487
05:44
But I had a lot of datadatos,
110
332793
1201
Pero yo tenía bastantes datos,
05:46
and I was very confidentconfidente
about my insightsideas,
111
334018
2260
y confiaba en mis ideas,
05:48
so I was very excitedemocionado
to sharecompartir them with NokiaNokia.
112
336302
2829
así que estaba muy entusiasmada
en compartirlas con Nokia.
Pero en Nokia no estaban convencidos,
05:53
But NokiaNokia was not convincedconvencido,
113
341332
2517
porque no era big data.
05:55
because it wasn'tno fue biggrande datadatos.
114
343873
2335
Dijeron: "Tenemos millones de datos,
05:59
They said, "We have
millionsmillones of datadatos pointspuntos,
115
347022
2404
06:01
and we don't see any indicatorsindicadores
of anyonenadie wantingfalto to buycomprar a smartphoneteléfono inteligente,
116
349450
4247
no hay ninguna indicación de que alguien
quiera comprar teléfonos inteligentes,
06:05
and your datadatos setconjunto of 100,
as diversediverso as it is, is too weakdébiles
117
353721
4388
y tu lista de 100 datos,
aún siendo diversa, es muy débil
06:10
for us to even take seriouslyseriamente."
118
358133
1714
para tomarla en serio".
Yo les dije: "Nokia, tienen razón,
06:12
And I said, "NokiaNokia, you're right.
119
360908
1605
por supuesto que no ven esto,
06:14
Of coursecurso you wouldn'tno lo haría see this,
120
362537
1560
porque Uds. mandan encuestas
suponiendo que la gente no sabe
06:16
because you're sendingenviando out surveysencuestas
assumingasumiendo that people don't know
121
364121
3371
qué es un teléfono inteligente,
06:19
what a smartphoneteléfono inteligente is,
122
367516
1159
06:20
so of coursecurso you're not going
to get any datadatos back
123
368699
2366
así que claro que no van
a obtener ningún resultado
06:23
about people wantingfalto to buycomprar
a smartphoneteléfono inteligente in two yearsaños.
124
371089
2572
sobre demanda de teléfonos inteligentes.
06:25
Your surveysencuestas, your methodsmétodos
have been designeddiseñado
125
373685
2118
Sus encuestas, sus métodos
han sido diseñados
06:27
to optimizeoptimizar an existingexistente businessnegocio modelmodelo,
126
375827
2022
para optimizar el modelo
empresarial existente,
06:29
and I'm looking
at these emergentemergente humanhumano dynamicsdinámica
127
377873
2608
y yo estoy mirando las dinámicas
humanas emergentes,
06:32
that haven'tno tiene happenedsucedió yettodavía.
128
380505
1354
que no han pasado todavía.
06:33
We're looking outsidefuera de of marketmercado dynamicsdinámica
129
381883
2438
Mirando fuera de las dinámicas del mercado
06:36
so that we can get aheadadelante of it."
130
384345
1631
para poder estar en la vanguardia".
¿Saben que le pasó a Nokia?
06:39
Well, you know what happenedsucedió to NokiaNokia?
131
387373
2244
La empresa se cayó por un barranco.
06:41
TheirSu businessnegocio fellcayó off a cliffacantilado.
132
389641
2365
Ese es el costo de ignorar algo.
06:44
This -- this is the costcosto
of missingdesaparecido something.
133
392791
3727
Fue increíble.
06:49
It was unfathomableinsondable.
134
397163
1999
Pero Nokia no está sola.
06:52
But Nokia'sNokia not alonesolo.
135
400003
1651
Veo organizaciones que desechan
datos todo el tiempo
06:54
I see organizationsorganizaciones
throwinglanzamiento out datadatos all the time
136
402258
2581
06:56
because it didn't come from a quantquant modelmodelo
137
404863
2561
porque no vienen de un modelo cuantitativo
06:59
or it doesn't fitajuste in one.
138
407448
1768
o no son compatibles con uno cuantitativo.
Pero no se debe a los
grandes volúmenes de datos.
07:02
But it's not biggrande data'sdatos faultculpa.
139
410219
2048
Es la manera en que los usamos;
nosotros somos los responsables.
07:04
It's the way we use biggrande datadatos;
it's our responsibilityresponsabilidad.
140
412942
3907
07:09
BigGrande data'sdatos reputationreputación for successéxito
141
417730
1911
La reputación exitosa de big data
07:11
comesproviene from quantifyingcuantificando
very specificespecífico environmentsambientes,
142
419665
3759
se debe a cuantificaciones
en ambientes bastante específicos,
07:15
like electricityelectricidad powerpoder gridscuadrículas
or deliveryentrega logisticslogística or geneticgenético codecódigo,
143
423448
4913
como redes eléctricas, logística de
distribución, o códigos genéticos,
07:20
when we're quantifyingcuantificando in systemssistemas
that are more or lessMenos containedcontenido.
144
428385
4318
cuando el análisis cuantitativo
es de sistemas contenidos.
Pero no todos los sistemas
son contenidos tan organizadamente.
07:24
But not all systemssistemas
are as neatlypulcramente containedcontenido.
145
432727
2969
07:27
When you're quantifyingcuantificando
and systemssistemas are more dynamicdinámica,
146
435720
3258
Cuando uno cuantifica
sistemas más dinámicos,
07:31
especiallyespecialmente systemssistemas
that involveinvolucrar humanhumano beingsseres,
147
439002
3799
especialmente sistemas
que conciernen a seres humanos,
hay fuerzas complejas e impredecibles,
07:34
forcesefectivo are complexcomplejo and unpredictableimpredecible,
148
442825
2426
07:37
and these are things
that we don't know how to modelmodelo so well.
149
445275
3486
cosas que no sabemos modelar tan bien.
Y una vez que uno predice algo
sobre la conducta humana,
07:41
OnceUna vez you predictpredecir something
about humanhumano behaviorcomportamiento,
150
449204
2813
emergen nuevos factores,
07:44
newnuevo factorsfactores emergesurgir,
151
452041
1855
07:45
because conditionscondiciones
are constantlyconstantemente changingcambiando.
152
453920
2365
porque las condiciones
cambian constantemente.
07:48
That's why it's a never-endingsin fin cycleciclo.
153
456309
1803
Por eso es un ciclo interminable.
07:50
You think you know something,
154
458136
1464
Uno cree que sabe algo
y aparece algo nuevo.
07:51
and then something unknowndesconocido
entersentra the pictureimagen.
155
459624
2242
Por eso es que confiar solo en big data,
07:53
And that's why just relyingconfiando
on biggrande datadatos alonesolo
156
461890
3322
incrementa la posibilidad
de no ver algo,
07:57
increasesaumenta the chanceoportunidad
that we'llbien missperder something,
157
465236
2849
08:00
while givingdando us this illusionespejismo
that we alreadyya know everything.
158
468109
3777
y a la vez nos da la ilusión
de saberlo todo.
Lo que hace difícil de ver
esta contradicción,
08:04
And what makeshace it really harddifícil
to see this paradoxparadoja
159
472406
3856
08:08
and even wrapenvolver our brainssesos around it
160
476286
2659
y hasta de comprenderla,
08:10
is that we have this thing
that I call the quantificationcuantificación biasparcialidad,
161
478969
3691
es algo que se llama
predisposición cuantitativa
que significa que inconscientemente
valoramos más lo que podemos medir
08:14
whichcual is the unconsciousinconsciente beliefcreencia
of valuingvalorando the measurablemensurable
162
482684
3922
08:18
over the immeasurableinconmensurable.
163
486630
1594
que lo que no es medible.
Y muy a menudo tenemos
esta experiencia en el trabajo.
08:21
And we oftena menudo experienceexperiencia this at our work.
164
489222
3284
Quizás tenemos colegas que son así,
08:24
Maybe we work alongsidejunto a
colleaguescolegas who are like this,
165
492530
2650
08:27
or even our wholetodo entiretodo
companyempresa maymayo be like this,
166
495204
2428
o quizás la empresa es así,
08:29
where people becomevolverse
so fixatedobsesionado on that numbernúmero,
167
497656
2546
donde la gente tiene una
fijación con un número,
08:32
that they can't see anything
outsidefuera de of it,
168
500226
2067
y no ve nada más,
aún si tienen las pruebas
en la punta de la nariz.
08:34
even when you presentpresente them evidenceevidencia
right in frontfrente of theirsu facecara.
169
502317
3948
Y este es un mensaje muy atractivo,
08:39
And this is a very appealingatractivo messagemensaje,
170
507123
3371
08:42
because there's nothing
wrongincorrecto with quantifyingcuantificando;
171
510518
2343
porque no hay nada malo en cuantificar;
08:44
it's actuallyactualmente very satisfyingsatisfactorio.
172
512885
1430
realmente da mucha satisfacción.
08:46
I get a great sensesentido of comfortcomodidad
from looking at an ExcelSobresalir spreadsheethoja de cálculo,
173
514339
4362
Me causa bienestar ver
una hoja de cálculo Excel,
08:50
even very simplesencillo onesunos.
174
518725
1401
hasta las más simples.
08:52
(LaughterRisa)
175
520150
1014
(Risas)
08:53
It's just kindtipo of like,
176
521188
1152
Es así:
"¡Sí, la formula funciona! Todo
está bien. Todo está bajo control".
08:54
"Yes! The formulafórmula workedtrabajó. It's all OK.
Everything is underdebajo controlcontrolar."
177
522364
3504
08:58
But the problemproblema is
178
526792
2390
Pero el problema es
que la cuantificación es adictiva.
09:01
that quantifyingcuantificando is addictiveadictivo.
179
529206
2661
09:03
And when we forgetolvidar that
180
531891
1382
Y cuando nos olvidamos de eso
09:05
and when we don't have something
to kindtipo of keep that in checkcomprobar,
181
533297
3038
y no tenemos un sistema de control,
podemos muy fácilmente desechar datos
09:08
it's very easyfácil to just throwlanzar out datadatos
182
536359
2118
09:10
because it can't be expressedexpresado
as a numericalnumérico valuevalor.
183
538501
2718
que no se pueden expresar numéricamente.
09:13
It's very easyfácil just to slipresbalón
into silver-bulletbala de plata thinkingpensando,
184
541243
2921
Es muy fácil caer en la idea milagrosa,
como si existiera una solución simple.
09:16
as if some simplesencillo solutionsolución existedexistió.
185
544188
2579
Este es un momento peligroso
para cualquier organización,
09:19
Because this is a great momentmomento of dangerpeligro
for any organizationorganización,
186
547600
4062
09:23
because oftentimesa menudo,
the futurefuturo we need to predictpredecir --
187
551686
2634
en muchos casos, el futuro que
predecimos
no está en el pajar,
09:26
it isn't in that haystackalmiar,
188
554344
2166
09:28
but it's that tornadotornado
that's bearingcojinete down on us
189
556534
2538
es un tornado que se nos viene encima
afuera del granero.
09:31
outsidefuera de of the barngranero.
190
559096
1488
No hay peor riesgo
09:34
There is no greatermayor riskriesgo
191
562960
2326
que no ver lo desconocido.
09:37
than beingsiendo blindciego to the unknowndesconocido.
192
565310
1666
09:39
It can causeporque you to make
the wrongincorrecto decisionsdecisiones.
193
567000
2149
Puede causar malas decisiones.
09:41
It can causeporque you to missperder something biggrande.
194
569173
1974
Puede causar que no veas algo importante.
Pero no es necesario
que vayamos por ese camino.
09:43
But we don't have to go down this pathcamino.
195
571734
3101
Resulta que el oráculo
de la antigua Grecia
09:47
It turnsvueltas out that the oracleoráculo
of ancientantiguo GreeceGrecia
196
575453
3195
09:50
holdssostiene the secretsecreto keyllave
that showsmuestra us the pathcamino forwardadelante.
197
578672
3966
tiene la llave secreta para
enseñarnos el camino hacia adelante.
Estudios geológicos recientes
han demostrado
09:55
Now, recentreciente geologicalgeológico researchinvestigación has shownmostrado
198
583654
2595
09:58
that the Templetemplo of ApolloApolo,
where the mostmás famousfamoso oracleoráculo satsab,
199
586273
3564
que el Templo de Apolo,
donde estaba el oráculo más famoso,
10:01
was actuallyactualmente builtconstruido
over two earthquaketerremoto faultsfallas.
200
589861
3084
fue construido sobre dos fallas sísmicas;
10:04
And these faultsfallas would releaselanzamiento
these petrochemicalpetroquímico fumesvapores
201
592969
2886
y estas fallas emiten gases
petroquímicos
10:07
from underneathdebajo the Earth'sLa tierra crustcorteza,
202
595879
1685
que están bajo la corteza terrestre,
10:09
and the oracleoráculo literallyliteralmente satsab
right aboveencima these faultsfallas,
203
597588
3866
y que el oráculo estaba literalmente
sentado sobre estas fallas,
10:13
inhalinginhalando enormousenorme amountscantidades
of ethyleneetileno gasgas, these fissuresfisuras.
204
601478
3588
inhalando cantidades inmensas de
gas etileno, por estas grietas.
(Risas)
10:17
(LaughterRisa)
205
605090
1008
Es verdad.
10:18
It's truecierto.
206
606122
1173
(Risas)
10:19
(LaughterRisa)
207
607319
1017
Todo es verdad, eso es lo que
la hacía balbucear, alucinar,
10:20
It's all truecierto, and that's what madehecho her
babblebalbucear and hallucinatealucinar
208
608360
3509
10:23
and go into this trance-likecomo un trance stateestado.
209
611893
1724
y entrar en trance.
10:25
She was highalto as a kitecometa!
210
613641
1770
¡Volar como una cometa!
10:27
(LaughterRisa)
211
615435
4461
(Risas)
(Aplausos)
Entonces cómo...
10:31
So how did anyonenadie --
212
619920
2779
¿Cómo recibió alguien buenos consejos
10:34
How did anyonenadie get
any usefulútil adviceConsejo out of her
213
622723
3030
de ella en ese estado?
10:37
in this stateestado?
214
625777
1190
Bueno, ¿ven la gente que rodeaba
al oráculo?
10:39
Well, you see those people
surroundingrodeando the oracleoráculo?
215
627497
2381
Toda esa gente que la está sujetando
10:41
You see those people holdingparticipación her up,
216
629902
1879
10:43
because she's, like, a little woozymareado y confuso?
217
631805
1717
porque está un poquito mareada.
10:45
And you see that guy
on your left-handmano izquierda sidelado
218
633546
2308
Y ¿pueden ver al hombre que
está a su izquierda,
10:47
holdingparticipación the orangenaranja notebookcuaderno?
219
635878
1598
con un cuaderno anaranjado?
Todos esos eran guías del templo,
10:50
Well, those were the templetemplo guidesguías,
220
638105
1730
10:51
and they workedtrabajó handmano in handmano
with the oracleoráculo.
221
639859
3016
y trabajaban mano a mano
con el oráculo.
Cuando las personas entraban
y se arrodillaban,
10:56
When inquisitorsinquisidores would come
and get on theirsu kneesrodillas,
222
644084
2516
los guías se ponían a trabajar,
10:58
that's when the templetemplo guidesguías
would get to work,
223
646624
2340
después que la persona preguntaba,
11:00
because after they askedpreguntó her questionspreguntas,
224
648988
1864
observaban su estado emocional,
11:02
they would observeobservar theirsu emotionalemocional stateestado,
225
650876
2001
le hacían más preguntas,
11:04
and then they would askpedir them
follow-upSeguir questionspreguntas,
226
652901
2324
como: "¿Por qué quieres saber
esta profecía? ¿Quién eres?
11:07
like, "Why do you want to know
this prophecyprofecía? Who are you?
227
655249
2834
¿Qué vas a hacer con esta información?"
11:10
What are you going to do
with this informationinformación?"
228
658107
2264
Y después los guías usaban esta
información, más etnográfica,
11:12
And then the templetemplo guidesguías would take
this more ethnographicetnográfico,
229
660395
3182
esta información más cualitativa,
11:15
this more qualitativecualitativo informationinformación,
230
663601
2156
e interpretaban los balbuceos
del oráculo.
11:17
and interpretinterpretar the oracle'soráculo babblingsbalbuceos.
231
665781
2075
Así que el oráculo no estaba solo,
11:21
So the oracleoráculo didn't standestar alonesolo,
232
669428
2292
y tampoco deberían estarlo
los sistemas de big data.
11:23
and neitherninguno should our biggrande datadatos systemssistemas.
233
671744
2148
Ahora, aclaremos,
11:26
Now to be clearclaro,
234
674630
1161
no estoy diciendo que los sistemas
de big data estén inhalando gas
11:27
I'm not sayingdiciendo that biggrande datadatos systemssistemas
are huffingresoplando ethyleneetileno gasgas,
235
675815
3459
11:31
or that they're even givingdando
invalidinválido predictionspredicciones.
236
679298
2353
o haciendo malas predicciones.
Al contrario,
11:33
The totaltotal oppositeopuesto.
237
681675
1161
estoy diciendo que
11:34
But what I am sayingdiciendo
238
682860
2068
11:36
is that in the samemismo way
that the oracleoráculo needednecesario her templetemplo guidesguías,
239
684952
3832
de la misma forma que el oráculo
necesitaba los guías de templo,
nuestros sistemas de big data
también los necesitan.
11:40
our biggrande datadatos systemssistemas need them, too.
240
688808
2288
11:43
They need people like ethnographersetnógrafos
and userusuario researchersinvestigadores
241
691120
4109
Necesitan etnógrafos e investigadores
que puedan colectar lo que
yo llamo "datos densos".
11:47
who can gatherreunir what I call thickgrueso datadatos.
242
695253
2506
Estos preciosos datos humanos,
11:50
This is preciousprecioso datadatos from humanshumanos,
243
698502
2991
como historias, emociones, interacciones
que no se pueden cuantificar.
11:53
like storiescuentos, emotionsemociones and interactionsinteracciones
that cannotno poder be quantifiedcuantificado.
244
701517
4102
11:57
It's the kindtipo of datadatos
that I collectedrecogido for NokiaNokia
245
705643
2322
Es el tipo de datos que colecté
para Nokia,
que se obtienen con pocas muestras,
11:59
that comesproviene in in the formformar
of a very smallpequeña samplemuestra sizetamaño,
246
707989
2669
pero traen información trascendente.
12:02
but deliversentrega incredibleincreíble depthprofundidad of meaningsentido.
247
710682
2955
12:05
And what makeshace it so thickgrueso and meatycarnoso
248
713661
3680
Y lo que hace esto tan denso
y sustancioso,
es la experiencia de entender
la narrativa humana.
12:10
is the experienceexperiencia of understandingcomprensión
the humanhumano narrativenarrativa.
249
718445
4029
12:14
And that's what helpsayuda to see
what's missingdesaparecido in our modelsmodelos.
250
722498
3639
Y eso es lo que ayuda a ver lo que hace
falta en nuestros modelos.
12:18
ThickGrueso datadatos groundsjardines our businessnegocio questionspreguntas
in humanhumano questionspreguntas,
251
726851
4045
Los "datos densos" arraigan nuestras
preguntas de negocios en preguntas humanas
y por eso integrando
big data y "datos densos"
12:22
and that's why integratingintegrando
biggrande and thickgrueso datadatos
252
730920
3562
12:26
formsformularios a more completecompletar pictureimagen.
253
734506
1689
formamos una figura más completa.
12:28
BigGrande datadatos is ablepoder to offeroferta
insightsideas at scaleescala
254
736772
2881
Los grandes volúmenes de datos
nos ofrecen ideas en escala,
12:31
and leverageapalancamiento the bestmejor
of machinemáquina intelligenceinteligencia,
255
739677
2647
sostienen lo mejor de
la inteligencia artificial
mientras que los "datos densos" nos
ayudan a rescatar el contexto perdido
12:34
whereasmientras thickgrueso datadatos can help us
rescuerescate the contextcontexto losspérdida
256
742348
3572
que viene del uso de big data
12:37
that comesproviene from makingfabricación biggrande datadatos usableusable,
257
745944
2098
y le saca provecho a lo mejor
de la inteligencia humana.
12:40
and leverageapalancamiento the bestmejor
of humanhumano intelligenceinteligencia.
258
748066
2181
12:42
And when you actuallyactualmente integrateintegrar the two,
that's when things get really fundivertido,
259
750271
3552
Y cuando se integra ambas cosas,
la cosa se pone divertida,
porque uno ya no trabaja solo con datos
12:45
because then you're no longermás
just workingtrabajando with datadatos
260
753847
2436
que ha recolectado.
12:48
you've alreadyya collectedrecogido.
261
756307
1196
También trabaja con datos
que nunca ha recolectado.
12:49
You get to alsoademás work with datadatos
that hasn'tno tiene been collectedrecogido.
262
757527
2737
Puede hacer preguntas como ¿por qué?
12:52
You get to askpedir questionspreguntas about why:
263
760288
1719
12:54
Why is this happeningsucediendo?
264
762031
1317
¿Por qué está pasando esto?
Ahora, cuando Netflix hizo esto,
12:55
Now, when NetflixNetflix did this,
265
763778
1379
12:57
they unlockeddesbloqueado a wholetodo newnuevo way
to transformtransformar theirsu businessnegocio.
266
765181
3035
desencadenó una nueva manera
de transformar su negocio.
13:01
NetflixNetflix is knownconocido for theirsu really great
recommendationrecomendación algorithmalgoritmo,
267
769406
3956
Netflix es conocido por su excelente
algoritmo de recomendaciones,
13:05
and they had this $1 millionmillón prizepremio
for anyonenadie who could improvemejorar it.
268
773386
4797
y tenía un premio de USD 1 millón
para cualquiera que lo pudiera mejorar.
Y hubo ganadores.
13:10
And there were winnersganadores.
269
778207
1314
Pero Netflix descubrió que las mejoras
eran solo graduales.
13:12
But NetflixNetflix discovereddescubierto
the improvementsmejoras were only incrementalincremental.
270
780255
4323
Para realmente enterarse
de lo que pasaba,
13:17
So to really find out what was going on,
271
785404
1964
13:19
they hiredcontratado an ethnographeretnógrafo,
GrantConceder McCrackenMcCracken,
272
787392
3741
contrataron a un etnógrafo,
Grant McCracken,
para compilar inferencias
de "datos densos".
13:23
to gatherreunir thickgrueso datadatos insightsideas.
273
791157
1546
13:24
And what he discovereddescubierto was something
that they hadn'tno tenía seenvisto initiallyinicialmente
274
792727
3924
Y Grant descubrió algo
que no vieron inicialmente
13:28
in the quantitativecuantitativo datadatos.
275
796675
1355
en los datos cuantitativos.
Descubrió que a la gente
le encanta mirar de una sentada.
13:31
He discovereddescubierto that people lovedamado
to binge-watchatracón.
276
799072
2728
13:33
In facthecho, people didn't even
feel guiltyculpable about it.
277
801824
2353
Tanto es así que las personas
ni se sentían culpables.
Disfrutaban.
13:36
They enjoyeddisfrutado it.
278
804201
1255
(Risas)
13:37
(LaughterRisa)
279
805480
1026
Así que Netflix dijo: "Ah, esto es nuevo".
13:38
So NetflixNetflix was like,
"Oh. This is a newnuevo insightvisión."
280
806530
2356
Incluyeron al equipo de análisis de datos,
13:40
So they wentfuimos to theirsu datadatos scienceciencia teamequipo,
281
808910
1938
13:42
and they were ablepoder to scaleescala
this biggrande datadatos insightvisión
282
810872
2318
y lograron incluir estos hallazgos
de los datos densos
13:45
in with theirsu quantitativecuantitativo datadatos.
283
813214
2587
con los datos cuantitativos.
13:47
And onceuna vez they verifiedverificado it
and validatedvalidado it,
284
815825
3170
Y una vez que lo verificaron y validaron,
13:51
NetflixNetflix decideddecidido to do something
very simplesencillo but impactfulimpactante.
285
819019
4761
Netflix decidió hacer algo muy
simple pero con mucho impacto.
Dijeron: "En vez de ofrecer
series de diferentes géneros
13:56
They said, insteaden lugar of offeringofrecimiento
the samemismo showespectáculo from differentdiferente genresgéneros
286
824834
6492
o más variedad de series
a usuarios similares,
14:03
or more of the differentdiferente showsmuestra
from similarsimilar usersusuarios,
287
831350
3888
vamos a ofrecer más de la misma serie.
14:07
we'llbien just offeroferta more of the samemismo showespectáculo.
288
835262
2554
Les vamos a facilitar
ver series de una sentada.
14:09
We'llBien make it easiermás fácil
for you to binge-watchatracón.
289
837840
2105
14:11
And they didn't stop there.
290
839969
1486
Y no pararon allí.
Hicieron todo esto
14:13
They did all these things
291
841479
1474
14:14
to redesignrediseñar theirsu entiretodo
viewerespectador experienceexperiencia,
292
842977
2959
para rediseñar la experiencia
completa de los espectadores,
14:17
to really encouragealentar binge-watchingmaratones de series.
293
845960
1758
para fomentar los atracones de series.
14:20
It's why people and friendsamigos disappeardesaparecer
for wholetodo weekendsfines de semana at a time,
294
848230
3241
Por eso es que la gente y los amigos
se desaparecen por fines de semanas,
14:23
catchingatractivo up on showsmuestra
like "MasterDominar of NoneNinguna."
295
851495
2343
están mirando shows como
Dueño de nadie.
14:25
By integratingintegrando biggrande datadatos and thickgrueso datadatos,
they not only improvedmejorado theirsu businessnegocio,
296
853862
4173
Al integrar big data con "datos densos",
no solo mejoraron su negocio,
14:30
but they transformedtransformado how we consumeconsumir mediamedios de comunicación.
297
858059
2812
sino que transformaron la manera
de consumo de la audiencia.
14:32
And now theirsu stockscepo are projectedproyectado
to doubledoble in the nextsiguiente fewpocos yearsaños.
298
860895
4552
Ahora proyectan duplicar el valor
de sus acciones en los próximos años.
Pero esto no solo se trata
de cómo consumimos programación,
14:38
But this isn't just about
watchingacecho more videosvideos
299
866280
3830
o vendemos más teléfonos inteligentes.
14:42
or sellingde venta more smartphonesteléfonos inteligentes.
300
870134
1620
14:44
For some, integratingintegrando thickgrueso datadatos
insightsideas into the algorithmalgoritmo
301
872143
4050
Para algunos, la integración de ideas
de "datos densos" a los algoritmos
14:48
could mean life or deathmuerte,
302
876217
2263
puede significar algo de vida o muerte,
14:50
especiallyespecialmente for the marginalizedmarginado.
303
878504
2146
especialmente para los marginados.
En todo el país, las comisarías
están usando big data
14:53
All around the countrypaís,
policepolicía departmentsdepartamentos are usingutilizando biggrande datadatos
304
881738
3434
14:57
for predictiveprofético policingvigilancia,
305
885196
1963
para predecir dónde patrullar;
14:59
to setconjunto bondenlace amountscantidades
and sentencingsentencia recommendationsrecomendaciones
306
887183
3084
para determinar las fianzas
y las sentencias
15:02
in waysformas that reinforcereforzarse existingexistente biasessesgos.
307
890291
3147
en maneras que refuerzan
prejuicios existentes.
El algoritmo "Skynet" de la
Agencia Nacional de Seguridad
15:06
NSA'sNSA SkynetSkynet machinemáquina learningaprendizaje algorithmalgoritmo
308
894296
2423
15:08
has possiblyposiblemente aidedayudado in the deathsmuertes
of thousandsmiles of civiliansciviles in PakistanPakistán
309
896743
5444
quizá haya contribuido a
miles de muertes de civiles
en Pakistán por malinterpretar
metadatos de aparatos móviles.
15:14
from misreadingmal lectura cellularcelular devicedispositivo metadatametadata.
310
902211
2721
15:19
As all of our livesvive becomevolverse more automatedautomatizado,
311
907131
3403
Mientras más automatizadas nuestras vidas,
desde automóviles hasta
seguro médico o empleo,
15:22
from automobilesautomóviles to healthsalud insuranceseguro
or to employmentempleo,
312
910558
3080
es probable que a todos
15:25
it is likelyprobable that all of us
313
913662
2350
15:28
will be impactedimpactado
by the quantificationcuantificación biasparcialidad.
314
916036
2989
nos afecte la parcialidad
hacia la cuantificación.
Las buenas noticias son que
hemos progresado mucho
15:32
Now, the good newsNoticias
is that we'venosotros tenemos come a long way
315
920972
2621
15:35
from huffingresoplando ethyleneetileno gasgas
to make predictionspredicciones.
316
923617
2450
desde que aspirábamos gases
para hacer predicciones.
15:38
We have better toolsherramientas,
so let's just use them better.
317
926091
3070
Tenemos mejores herramientas,
o sea que usémoslas mejor.
Integremos big data
con los "datos densos",
15:41
Let's integrateintegrar the biggrande datadatos
with the thickgrueso datadatos.
318
929185
2323
Unamos a los guías del templo
con los oráculos,
15:43
Let's bringtraer our templetemplo guidesguías
with the oraclesoráculos,
319
931532
2261
15:45
and whethersi this work happenssucede
in companiescompañías or nonprofitssin fines de lucro
320
933817
3376
y ya sea que lo hagamos en empresas
u organizaciones sin fines de lucro
15:49
or governmentgobierno or even in the softwaresoftware,
321
937217
2469
en gobiernos o en el software,
15:51
all of it mattersasuntos,
322
939710
1792
todo es importante,
porque significa que colectivamente
estamos comprometidos
15:53
because that meansmedio
we're collectivelycolectivamente committedcomprometido
323
941526
3023
15:56
to makingfabricación better datadatos,
324
944573
2191
a crear mejores datos,
15:58
better algorithmsAlgoritmos, better outputssalidas
325
946788
1836
algoritmos, resultados,
y a tomar mejores decisiones.
16:00
and better decisionsdecisiones.
326
948648
1643
16:02
This is how we'llbien avoidevitar
missingdesaparecido that something.
327
950315
3558
Así evitaremos perdernos algo.
(Aplausos)
16:07
(ApplauseAplausos)
328
955222
3948
Translated by Maria Gabriela Ahearn
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com