ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com
TEDxCambridge

Tricia Wang: The human insights missing from big data

트리시아 왕 (Tricia Wang): 빅 데이터에 없는 인간의 통찰력

Filmed:
1,688,539 views

왜 많은 기업들은 엄청난 양의 데이터를 보유하고 있으면서도 나쁜 결정을 내리게 될까요? 노키아부터 넷플릭스, 고대 그리스의 오라클 이야기까지 트리시아 왕은 빅 데이터에 대해 분명한 설명을 해주고, 이것의 위험을 알아보며, 옳바른 사업결정을 내리고 미지의 영역에서 번창하기 위해서는 실제 사람들의 귀하고, 수량화 할 수 없는 통찰력을 담은 "심층적 데이터"에 집중해야 함을 제시합니다.
- Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers. Full bio

Double-click the English transcript below to play the video.

00:12
In ancient고대의 Greece그리스,
0
885
1545
고대 그리스에서는
00:15
when anyone누군가 from slaves노예 to soldiers병사들,
poets시인들 and politicians정치인,
1
3436
3943
노예부터 군인까지,
시인과 정치인 모두 다
00:19
needed필요한 to make a big decision결정
on life's인생의 most가장 important중대한 questions질문들,
2
7403
4004
인생의 가장 중요한 질문들에 대해
큰 결정을 내려야 했어요.
00:23
like, "Should I get married기혼?"
3
11431
1391
예를 들어, "결혼을 해야 할까?"
00:24
or "Should we embark태우다 on this voyage항해?"
4
12846
1857
"항해를 떠나야 할까?"
00:26
or "Should our army육군
advance전진 into this territory영토?"
5
14727
2928
"이 지역까지 군대를 확장시켜야 할까?"
같은 질문들이죠.
00:29
they all consulted상의 한 the oracle신탁.
6
17679
2579
그들은 모두 오라클과 상의했어요.
00:33
So this is how it worked일한:
7
21020
1440
이것이 그 과정입니다.
00:34
you would bring가져오다 her a question문제
and you would get on your knees무릎,
8
22484
3112
당신은 그녀에게 질문을 가져와요.
그리고 무릎을 꿇습니다.
00:37
and then she would go into this trance황홀.
9
25620
1871
그러면 그녀는 가수상태에 빠집니다.
00:39
It would take a couple of days,
10
27515
1549
이틀 정도 걸려요.
00:41
and then eventually결국
she would come out of it,
11
29088
2163
그리고 마침내 그녀는
가수상태에서 깨어나고
00:43
giving주는 you her predictions예측 as your answer대답.
12
31275
2536
당신의 질문에 대한 예언을 합니다.
00:46
From the oracle신탁 bones of ancient고대의 China중국
13
34910
2566
고대 중국의 신탁 뼈부터
00:49
to ancient고대의 Greece그리스 to Mayan마야인 calendars달력,
14
37500
2345
고대 그리스, 마야 달력까지
00:51
people have craved갈망하는 for prophecy예언
15
39869
2296
사람들은 예언을 갈망해 왔어요.
00:54
in order주문 to find out
what's going to happen우연히 있다 next다음 것.
16
42189
3137
후에 무슨 일이 일어날지
알아내기 위해서 였죠.
00:58
And that's because we all want
to make the right decision결정.
17
46516
3239
이것은 우리 모두가 옳은 선택을
하고 싶어하기 때문입니다.
01:01
We don't want to miss미스... something.
18
49779
1545
우리는 어떤 것도
놓치고 싶어하지 않아요.
01:03
The future미래 is scary무서운,
19
51892
1743
미래는 무서워요.
01:05
so it's much nicer좋네요
knowing that we can make a decision결정
20
53659
2717
그래서 결과에 대한 확신을 가지고
01:08
with some assurance보증 of the outcome결과.
21
56400
1982
결정을 내릴 수 있다면 훨씬 좋겠지요.
01:11
Well, we have a new새로운 oracle신탁,
22
59079
1611
우리에겐 새로운 오라클이 있어요.
01:12
and it's name이름 is big data데이터,
23
60714
2145
빅 데이터라고 불리죠.
01:14
or we call it "Watson왓슨"
or "deep깊은 learning배우기" or "neural신경 net그물."
24
62883
3939
"왓슨" "딥 러닝" 아니면
"뉴럴네트"라고 부르기도 해요.
01:19
And these are the kinds종류 of questions질문들
we ask청하다 of our oracle신탁 now,
25
67340
4012
그리고 우리는 이 오라클에게
이런 질문들을 합니다.
01:23
like, "What's the most가장 efficient실력 있는 way
to ship these phones전화
26
71376
3922
"이 핸드폰들을 중국에서 스웨덴까지
배송하기 위한 가장 효율적인 방법은
01:27
from China중국 to Sweden스웨덴?"
27
75322
1823
무엇일까?"
01:29
Or, "What are the odds승산
28
77169
1800
아니면, "내 아이가 유전질환을
01:30
of my child어린이 being존재 born타고난
with a genetic유전적인 disorder무질서?"
29
78993
3363
가지고 태어날 확률은 얼마나 될까?"
01:34
Or, "What are the sales매상 volume음량
we can predict예측하다 for this product생성물?"
30
82952
3244
아니면, "이 상품이 얼마나 많은
매상을 올릴 수 있을까?"
01:40
I have a dog. Her name이름 is Elle,
and she hates싫어하다 the rain.
31
88108
4047
저는 강아지 한마리를 키워요.
이름은 엘이구요. 비를 싫어해요.
01:44
And I have tried시도한 everything
to untrain훈련시키다 her.
32
92179
3306
이것을 위해 모든 노력을 해보았어요.
01:47
But because I have failed실패한 at this,
33
95509
2771
그러나 저는 그것에 실패했기 때문에
01:50
I also또한 have to consult찾다
an oracle신탁, called전화 한 Dark어두운 Sky하늘,
34
98304
3286
산책을 나갈 때마다,
다크 스카이라고 불리우는
01:53
every...마다 time before we go on a walk산책,
35
101614
1635
오라클과 상의해야 합니다.
01:55
for very accurate정확한 weather날씨 predictions예측
in the next다음 것 10 minutes의사록.
36
103273
3577
앞으로 10분 간의 정확한
날씨예보를 얻기 위해서지요.
02:01
She's so sweet.
37
109535
1303
정말 귀여워요.
02:03
So because of all of this,
our oracle신탁 is a $122 billion십억 industry산업.
38
111827
5707
이런 점들 때문에,이
오라클은 1220억 달러 산업입니다.
02:10
Now, despite무례 the size크기 of this industry산업,
39
118006
3376
이런 규모의 산업에도 불구하고
02:13
the returns보고 are surprisingly놀랍게도 low낮은.
40
121406
2456
수익은 놀랍게도 적어요.
02:16
Investing투자 in big data데이터 is easy쉬운,
41
124342
2494
빅 데이터에 투자하는 것은 쉬워요.
02:18
but using~을 사용하여 it is hard단단한.
42
126860
1933
그러나 이용하는 것은 어렵습니다.
02:21
Over 73 percent퍼센트 of big data데이터 projects프로젝트들
aren't있지 않다. even profitable유리한,
43
129981
4040
73% 이상의 빅 데이터 프로젝트들이
이윤 조차도 못 남기고 있어요.
02:26
and I have executives경영진
coming오는 up to me saying속담,
44
134045
2431
그리고 경영진들은 제게
이렇게 이야기 하죠.
02:28
"We're experiencing경험하는 the same같은 thing.
45
136500
1789
"우리도 같은 경험을 하고 있어요.
02:30
We invested투자 한 in some big data데이터 system체계,
46
138313
1753
빅 데이터 시스템에 투자했는데
02:32
and our employees종업원 aren't있지 않다. making만들기
better decisions결정들.
47
140090
2968
우리 직원들은 더 나은 결정들을
내리지 못하고 있어요.
02:35
And they're certainly확실히 not coming오는 up
with more breakthrough돌파구 ideas아이디어."
48
143082
3162
그리고 획기적인 아이디어도
확실히 못 떠올리고 있고요."
02:38
So this is all really interesting재미있는 to me,
49
146914
3184
제게는 이 모든 것들이
정말 흥미로웠어요.
02:42
because I'm a technology과학 기술 ethnographer민족지 학자.
50
150122
2010
왜냐하면 저는
기술 민족지학자이기 때문입니다.
02:44
I study연구 and I advise권하다 companies회사들
51
152630
2564
저는 사람들이 기술을
어떻게 이용하는지에 대한
02:47
on the patterns패턴들
of how people use technology과학 기술,
52
155218
2483
패턴을 연구하고 기업들에게 조언합니다.
02:49
and one of my interest관심 areas지역 is data데이터.
53
157725
2678
그리고 저의 관심분야 중
하나가 데이터입니다.
02:52
So why is having more data데이터
not helping거들기 us make better decisions결정들,
54
160427
5193
그러면 왜 더 많은 데이터가
더 나은 결정에 도움이 되지 않을까요?
02:57
especially특히 for companies회사들
who have all these resources자원
55
165644
2783
특히, 빅 데이터 시스템에
투자할 수 있는
03:00
to invest사다 in these big data데이터 systems시스템?
56
168451
1736
모든 자료가 있는 기업들 까지도요.
03:02
Why isn't it getting점점 any easier더 쉬운 for them?
57
170211
2398
왜 그들의 결정이
쉬워지지 않는 것일까요?
03:05
So, I've witnessed목격 한 the struggle노력 firsthand직접.
58
173990
2634
저는 그 어려움을 직접 목격했습니다.
03:09
In 2009, I started시작한
a research연구 position위치 with Nokia노키아.
59
177374
3484
2009년, 저는 노키아에서
연구원으로 일하기 시작했어요.
03:13
And at the time,
60
181232
1158
그리고 그 때
03:14
Nokia노키아 was one of the largest가장 큰
cell세포 phone전화 companies회사들 in the world세계,
61
182414
3158
노키아는 세계에서 가장 큰
핸드폰 회사 중 하나였어요.
03:17
dominating지배적 인 emerging떠오르는 markets시장
like China중국, Mexico멕시코 and India인도 --
62
185596
3202
중국, 멕시코, 인도 같이
신흥 시장을 장악하고 있었고
03:20
all places장소들 where I had done끝난
a lot of research연구
63
188822
2502
저는 그 곳들에서
저임금 사람들이 어떻게
03:23
on how low-income저소득 people use technology과학 기술.
64
191348
2676
기술을 이용하는지에 대한
많은 연구를 해왔어요.
03:26
And I spent지출하다 a lot of extra특별한 time in China중국
65
194048
2330
그리고 저는 많은 시간을
03:28
getting점점 to know the informal약식의 economy경제.
66
196402
2592
비공식적인 경제에 대해 알기 위해
중국에서 보냈어요.
03:31
So I did things like working
as a street거리 vendor벤더
67
199018
2401
그래서 저는 길거리
노점상인이 되어보기도 하고
03:33
selling판매 dumplings만두 to construction구성 workers노동자.
68
201443
2574
건설 노동자들에게
만두를 팔아보기도 했어요.
03:36
Or I did fieldwork현장 조사,
69
204041
1358
아니면 현장조사를 했지요.
03:37
spending지출 nights and days
in internet인터넷 caf카페és,
70
205423
2958
피씨방에서 하루종일
03:40
hanging교수형 out with Chinese중국말 youth청소년,
so I could understand알다
71
208405
2546
중국 청년들과 지내며
그들이 어떻게 게임과
핸드폰을 사용하는지
03:42
how they were using~을 사용하여
games계략 and mobile변하기 쉬운 phones전화
72
210975
2284
03:45
and using~을 사용하여 it between중에서 moving움직이는
from the rural시골의 areas지역 to the cities도시들.
73
213283
3370
시골과 도시간이 어떻게
사용하는지도 이해할 수 있었습니다.
03:50
Through을 통하여 all of this qualitative질적 인 evidence증거
that I was gathering모임,
74
218335
3927
이렇게 제가 수집한
질적인 증거들을 통해서
03:54
I was starting출발 to see so clearly분명히
75
222286
2824
중국의 저임금 사람들 사이에서
큰 변화가 생겨날 것임이
03:57
that a big change변화 was about to happen우연히 있다
among사이에 low-income저소득 Chinese중국말 people.
76
225134
4472
아주 명확하게 보이기 시작했어요.
04:03
Even though그래도 they were surrounded둘러싸인
by advertisements광고 for luxury사치 products제작품
77
231020
4367
비록 그들은 고급 상품 광고물에
둘러싸여 있었지만
04:07
like fancy공상 toilets화장실 --
who wouldn't~ 않을거야. want one? --
78
235411
3495
고급 화장지 같은 상품이요.
누가 싫어하나요?
04:10
and apartments아파트 and cars자동차,
79
238930
2890
그리고 아파트, 차
04:13
through...을 통하여 my conversations대화 with them,
80
241844
1820
그들와 함께 한 대화를 통해서
04:15
I found녹이다 out that the ads광고들
the actually사실은 enticed유혹 한 them the most가장
81
243688
3841
저는 이러한 광고들 중에서
실제로 가장 많이 유혹한 상품은
04:19
were the ones그들 for iPhones아이폰,
82
247553
1996
첨단 기술의 삶을 약속하는
04:21
promising유망한 them this entry기입
into this high-tech첨단 기술 life.
83
249573
3052
아이폰이라는 것을 알게 되었어요.
04:25
And even when I was living생활 with them
in urban도시의 slums빈민굴 like this one,
84
253469
3163
그리고 이런 도시 빈민가에서
그들과 함께 살고있을 때 조차도
04:28
I saw people investing투자
over half절반 of their그들의 monthly월간 간행물 income수입
85
256656
2996
그들의 월급의 반 이상을
핸드폰 구매에 투자한다는 것도
04:31
into buying구매 a phone전화,
86
259676
1623
목격했습니다.
04:33
and increasingly더욱 더, they were "shanzhai산자이,"
87
261323
2302
그리고 이것들은 "산자이" 인데요.
04:35
which어느 are affordable저렴한 knock-offs녹아웃
of iPhones아이폰 and other brands브랜드.
88
263649
3388
아이폰과 다른 브랜드들의
값 싼 모조품입니다.
04:40
They're very usable쓸 수 있는.
89
268303
1625
사용가능 합니다.
04:42
Does the job.
90
270890
1322
핸드폰의 기능을 합니다.
04:44
And after years연령 of living생활
with migrants이주민 and working with them
91
272750
5789
그리고 몇년 동안 이민자들과
함께 살고, 일하고
04:50
and just really doing everything
that they were doing,
92
278563
3434
그들이 하는 모든 것을 함께 하면서
04:54
I started시작한 piecing연결
all these data데이터 points전철기 together함께 --
93
282021
3597
저는 조각 조각의 데이터를
하나로 모으기 시작했어요.
04:57
from the things that seem보다 random무작위의,
like me selling판매 dumplings만두,
94
285642
3123
제가 만두를 팔게 되는 랜덤적인 일부터
05:00
to the things that were more obvious분명한,
95
288789
1804
그들이 핸드폰 요금으로
얼마나 지출하는지와 같은
05:02
like tracking추적 how much they were spending지출
on their그들의 cell세포 phone전화 bills지폐.
96
290617
3232
명확한 일까지요.
05:05
And I was able할 수 있는 to create몹시 떠들어 대다
this much more holistic총체 주의적 picture그림
97
293873
2639
저는 일어나고 있는 일의
전체적인 그림을
05:08
of what was happening사고.
98
296536
1156
만들어 낼 수 있었습니다.
05:09
And that's when I started시작한 to realize깨닫다
99
297716
1722
그리고 이때 저는 깨달았죠.
05:11
that even the poorest가난한 in China중국
would want a smartphone스마트 폰,
100
299462
3509
중국의 제일 가난한 사람조차도
스마트 폰을 원한다는 것을요.
05:14
and that they would do almost거의 anything
to get their그들의 hands소유 on one.
101
302995
4985
그들은 스마트 폰을 손에 넣기 위해
무슨 일이든 할 것임을요.
05:21
You have to keep in mind마음,
102
309073
2404
여러분들이 명심하셔야 할 것이
05:23
iPhones아이폰 had just come out, it was 2009,
103
311501
3084
아이폰이 막 출시가 되었을 때가
2009년이었습니다.
05:26
so this was, like, eight여덟 years연령 ago...전에,
104
314609
1885
그러니까 한 8년 전의 일이네요.
05:28
and Androids안드로이드 had just started시작한
looking like iPhones아이폰.
105
316518
2437
안드로이드가 막 아이폰과 같은
형태로 출시되기 시작했습니다.
05:30
And a lot of very smart똑똑한
and realistic현실적인 people said,
106
318979
2507
많은 영리하고
현실적인 사람들이 말했어요.
05:33
"Those smartphones스마트 폰 -- that's just a fad일시적 유행.
107
321510
2207
"이런 스마트 폰들은
그냥 일시적인 유행일 뿐입니다.
05:36
Who wants to carry나르다 around
these heavy무거운 things
108
324243
2996
이렇게 무거운 것을
누가 들고 다니고 싶어할까요?
05:39
where batteries배터리 drain배수 quickly빨리
and they break단절 every...마다 time you drop하락 them?"
109
327263
3487
배터리도 금방 닳고,
떨어뜨리면 부서지는데요."
05:44
But I had a lot of data데이터,
110
332793
1201
그러나 저에게는
많은 데이터가 있었습니다.
05:46
and I was very confident자신감
about my insights통찰력,
111
334018
2260
그리고 저는 통찰력에
굉장히 자신감이 있었습니다.
05:48
so I was very excited흥분한
to share them with Nokia노키아.
112
336302
2829
그래서 이 데이터를 노키아와 공유하는 것이
정말 흥분되는 일이었죠.
05:53
But Nokia노키아 was not convinced납득시키다,
113
341332
2517
그러나 노키아는 확신하지 않았어요.
05:55
because it wasn't아니었다. big data데이터.
114
343873
2335
왜냐하면 이것은 빅 데이터가
아니였기 때문이지요.
05:59
They said, "We have
millions수백만 of data데이터 points전철기,
115
347022
2404
그들이 말하길, "우리에게는
수백만개의 데이터가 있는데
06:01
and we don't see any indicators지시계
of anyone누군가 wanting이 없이 to buy사다 a smartphone스마트 폰,
116
349450
4247
사람들이 스마트 폰을 원한다는 지표는
어디서든 찾아 볼 수가 없습니다.
06:05
and your data데이터 set세트 of 100,
as diverse다양한 as it is, is too weak약한
117
353721
4388
그리고 당신의 100개의 데이터 셋이
다양하긴 하지만, 우리가 받아들이기엔
06:10
for us to even take seriously진지하게."
118
358133
1714
너무 약합니다."
06:12
And I said, "Nokia노키아, you're right.
119
360908
1605
저는 말했죠.
"노키아, 당신 말이 맞아요.
06:14
Of course코스 you wouldn't~ 않을거야. see this,
120
362537
1560
물론 당신은 이것을 볼 수 없겠죠.
06:16
because you're sending배상 out surveys조사
assuming가정 that people don't know
121
364121
3371
왜냐하면 당신은 사람들이
스마트 폰에 대해 모른다는 가정하에
06:19
what a smartphone스마트 폰 is,
122
367516
1159
설문조사를 하고 있으니까요.
06:20
so of course코스 you're not going
to get any data데이터 back
123
368699
2366
그러니까 당연히 당신들은
사람들이 2년 내로 스마트 폰을
06:23
about people wanting이 없이 to buy사다
a smartphone스마트 폰 in two years연령.
124
371089
2572
사고 싶어한다는 데이터를
얻을 수가 없는 거예요.
당신의 설문조사와 방법은
06:25
Your surveys조사, your methods행동 양식
have been designed디자인 된
125
373685
2118
현재의 비지니스 모델을
확장시키기 위해 디자인되어 있어요.
06:27
to optimize최적화하다 an existing기존의 business사업 model모델,
126
375827
2022
06:29
and I'm looking
at these emergent나타나는 human인간의 dynamics역학
127
377873
2608
그리고 저는 아직 일어나지 않은
06:32
that haven't~하지 않았다. happened일어난 yet아직.
128
380505
1354
새로운 인간 역학을 보고 있고요.
06:33
We're looking outside외부 of market시장 dynamics역학
129
381883
2438
저희는 시장을 앞서나가기 위해
06:36
so that we can get ahead앞으로 of it."
130
384345
1631
시장 밖을 내다보고 있습니다."
06:39
Well, you know what happened일어난 to Nokia노키아?
131
387373
2244
여러분은 노키아가
어떻게 되었는지 잘 아시죠?
06:41
Their그들의 business사업 fell되다 off a cliff낭떠러지.
132
389641
2365
그들의 사업은 절벽으로 떨어졌습니다.
06:44
This -- this is the cost비용
of missing있어야 할 곳에 없는 something.
133
392791
3727
이것이 무언가를 놓친 것의 대가입니다.
06:49
It was unfathomable심오한.
134
397163
1999
불가해한 일입니다.
06:52
But Nokia's노키아 not alone혼자.
135
400003
1651
그러나 노키아 뿐만이 아닙니다.
06:54
I see organizations조직
throwing던지는 out data데이터 all the time
136
402258
2581
기관들은 항상 데이터를 버려요.
06:56
because it didn't come from a quant퀀트 model모델
137
404863
2561
왜냐하면 그 데이터들은
정량적인 모델로 수집되지 않았기 때문이지요.
06:59
or it doesn't fit적당한 in one.
138
407448
1768
아니면 그 모델에 들어맞지 않든가요.
07:02
But it's not big data's데이터 fault결점.
139
410219
2048
그러나 이것은
빅 데이터의 잘못이 아니예요.
07:04
It's the way we use big data데이터;
it's our responsibility책임.
140
412942
3907
빅 데이터 사용 방법이 문제입니다.
우리의 책임이지요.
07:09
Big data's데이터 reputation평판 for success성공
141
417730
1911
빅 데이터의 성공은
07:11
comes온다 from quantifying정량화하는
very specific특유한 environments환경,
142
419665
3759
아주 세분화된 영역을
수량화 시키는 데에서 옵니다.
07:15
like electricity전기 power grids그리드
or delivery배달 logistics기호 논리학 or genetic유전적인 code암호,
143
423448
4913
예를 들어 전력망이나,
배달물류, 유전암호 같이
07:20
when we're quantifying정량화하는 in systems시스템
that are more or less적게 contained포함 된.
144
428385
4318
변화가 별로없는 체계를
수량화 시킬 때이지요.
07:24
But not all systems시스템
are as neatly깔끔하게 contained포함 된.
145
432727
2969
그러나 모든 체계가
안정적이지는 않아요.
07:27
When you're quantifying정량화하는
and systems시스템 are more dynamic동적,
146
435720
3258
더욱 유동적인 체계를 수량화시킬 때
07:31
especially특히 systems시스템
that involve감다 human인간의 beings존재들,
147
439002
3799
특히 인간과 관련한 체계를
수량화시킬 때
07:34
forces are complex복잡한 and unpredictable예측할 수없는,
148
442825
2426
값은 복잡하고, 예측하기 어렵죠.
07:37
and these are things
that we don't know how to model모델 so well.
149
445275
3486
그리고 이것들이 우리가 어떻게
모델화 시켜야 할지 잘 모르는 부분입니다.
07:41
Once일단 you predict예측하다 something
about human인간의 behavior행동,
150
449204
2813
인간 행동에 대해 예측을 하면
07:44
new새로운 factors요인들 emerge나타나다,
151
452041
1855
다른 요소들이 생겨나요.
07:45
because conditions정황
are constantly끊임없이 changing작고 보기 흉한 사람.
152
453920
2365
왜냐하면 상황이
계속 변화하기 때문이죠.
07:48
That's why it's a never-ending끊이지 않는 cycle주기.
153
456309
1803
그래서 이것은
끝나지 않는 순환이에요.
07:50
You think you know something,
154
458136
1464
당신은 무언가를
알고 있다고 생각합니다.
07:51
and then something unknown알 수 없는
enters들어간다 the picture그림.
155
459624
2242
그리고, 알려지지 않은
무언가가 등장합니다.
07:53
And that's why just relying의지
on big data데이터 alone혼자
156
461890
3322
그렇기 때문에
빅 데이터에만 의존하는 것은
07:57
increases증가 the chance기회
that we'll miss미스... something,
157
465236
2849
우리가 모든 것을 다 알고 있다는
망상에 빠져있을 동안
08:00
while giving주는 us this illusion환각
that we already이미 know everything.
158
468109
3777
무언가를 놓칠 확률을 높여줍니다.
08:04
And what makes~을 만든다 it really hard단단한
to see this paradox역설
159
472406
3856
이런 역설을 보기 힘들게 하고
08:08
and even wrap덮개 our brains두뇌 around it
160
476286
2659
이해하기 조차도 어렵게 하는 이유는
08:10
is that we have this thing
that I call the quantification부량 bias바이어스,
161
478969
3691
우리는 수량화의 편견이라고 불리우는
08:14
which어느 is the unconscious무의식 belief믿음
of valuing가치있는 the measurable측정 가능한
162
482684
3922
수량화 할 수 있는 것이
수량화 할 수 없는 것보다
더 귀중하다는 무의식적인 믿음을
가지고 있기 때문이에요.
08:18
over the immeasurable잴 수 없는.
163
486630
1594
08:21
And we often자주 experience경험 this at our work.
164
489222
3284
그리고 이것을 우리는 종종
일터에서 경험합니다.
08:24
Maybe we work alongside나란히
colleagues동료들 who are like this,
165
492530
2650
우리는 이런 믿음을 가진
동료와 일하고 있을 수도 있어요.
08:27
or even our whole완전한 entire완전한
company회사 may할 수있다 be like this,
166
495204
2428
아니면 회사 전체가
이런 믿음을 가지고 있어서
08:29
where people become지다
so fixated고정 된 on that number번호,
167
497656
2546
사람들이 숫자에 집착하게 되고
08:32
that they can't see anything
outside외부 of it,
168
500226
2067
심지어 증거물들을
코 앞에 제시해 주어도
08:34
even when you present선물 them evidence증거
right in front of their그들의 face얼굴.
169
502317
3948
숫자 이외의 것은 볼 수 없게 되죠.
08:39
And this is a very appealing정치 message메시지,
170
507123
3371
이것은 정말 흥미로운 메세지입니다.
08:42
because there's nothing
wrong잘못된 with quantifying정량화하는;
171
510518
2343
왜냐하면 수량화하는 것이
옳지 않은 것은 아니예요.
08:44
it's actually사실은 very satisfying만족스러운.
172
512885
1430
사실 굉장히 뿌듯하죠.
08:46
I get a great sense감각 of comfort위로
from looking at an Excel뛰어나다 spreadsheet스프레드 시트,
173
514339
4362
저도 엑셀 스프레드 시트를 보면,
심지어 아주 간단한 것들만 보아도
08:50
even very simple단순한 ones그들.
174
518725
1401
굉장히 뿌듯해요.
08:52
(Laughter웃음)
175
520150
1014
(웃음)
08:53
It's just kind종류 of like,
176
521188
1152
이런 종류의 뿌듯함이죠.
08:54
"Yes! The formula공식 worked일한. It's all OK.
Everything is under아래에 control제어."
177
522364
3504
"와! 공식이 잘 세워졌다. 다 괜찮아.
모든 것이 잘 관리되고 있어."
08:58
But the problem문제 is
178
526792
2390
그러나 문제는
09:01
that quantifying정량화하는 is addictive중독성의.
179
529206
2661
수량화하는 것은 중독성이 있어요.
09:03
And when we forget잊다 that
180
531891
1382
그리고 우리가 그것을 잊어버리고
09:05
and when we don't have something
to kind종류 of keep that in check검사,
181
533297
3038
계속 체크할 거리가 없어지면
09:08
it's very easy쉬운 to just throw던지다 out data데이터
182
536359
2118
그 데이터들을 그냥 버려지기 쉬워요.
09:10
because it can't be expressed표현 된
as a numerical수치의 value.
183
538501
2718
왜냐하면 숫자로
표현될 수가 없으니까요.
09:13
It's very easy쉬운 just to slip슬립
into silver-bullet은색 총알 thinking생각,
184
541243
2921
마치 아주 간단한 해결책이
존재했던것 처럼
09:16
as if some simple단순한 solution해결책 existed존재했다.
185
544188
2579
이것이 묘책이라고 생각하기 쉬워요.
09:19
Because this is a great moment순간 of danger위험
for any organization조직,
186
547600
4062
왜냐하면 이것이 기관에게는
아주 위험한 순간이기 때문이고
09:23
because oftentimes자주,
the future미래 we need to predict예측하다 --
187
551686
2634
종종 우리가 예언해야 할 미래는
09:26
it isn't in that haystack커다란 건초 더미,
188
554344
2166
건초더미에 있지 않기 때문이죠.
09:28
but it's that tornado폭풍
that's bearing베어링 down on us
189
556534
2538
이것은 우리를 향해
외양간 밖에서 돌진하는
09:31
outside외부 of the barn외양간.
190
559096
1488
토네이도입니다.
09:34
There is no greater더 큰 risk위험
191
562960
2326
알려지지 않은 것들이 있음을
깨닫지 못하는 것보다
09:37
than being존재 blind블라인드 to the unknown알 수 없는.
192
565310
1666
더 큰 위험은 없어요.
09:39
It can cause원인 you to make
the wrong잘못된 decisions결정들.
193
567000
2149
잘못된 결정을 하게 만들죠.
09:41
It can cause원인 you to miss미스... something big.
194
569173
1974
아주 큰 무언가를 놓치게 만들죠.
09:43
But we don't have to go down this path통로.
195
571734
3101
그러나 우리가 똑같이
하지 않아도 돼요.
09:47
It turns회전 out that the oracle신탁
of ancient고대의 Greece그리스
196
575453
3195
고대 그리스의 오라클에게
09:50
holds보류하다 the secret비밀 key
that shows us the path통로 forward앞으로.
197
578672
3966
미래를 보여주는 비밀 열쇠가 있습니다.
09:55
Now, recent충적세 geological지질학의 research연구 has shown표시된
198
583654
2595
최근 지리연구에 의하면
09:58
that the Temple신전 of Apollo아폴로,
where the most가장 famous유명한 oracle신탁 sat앉은,
199
586273
3564
가장 유명한 오라클이 있는
아폴로 신전이
10:01
was actually사실은 built세워짐
over two earthquake지진 faults결함.
200
589861
3084
사실 두번의 지진단층을
겪으며 세워졌다고 합니다.
10:04
And these faults결함 would release해제
these petrochemical석유 화학 제품 fumes연기
201
592969
2886
그리고 이런 단층은
지각 밑에서 부터
10:07
from underneath아래에 the Earth's지구의 crust빵 껍질,
202
595879
1685
석유화학 가스를 방출합니다.
10:09
and the oracle신탁 literally말 그대로 sat앉은
right above위에 these faults결함,
203
597588
3866
그리고 오라클은 말그대로
이 단층 바로 위에 모셔져 있었어요.
10:13
inhaling흡입 enormous거대한 amounts금액
of ethylene에틸렌 gas가스, these fissures균열.
204
601478
3588
아주 많은 양의 에틸렌
가스를 흡입하면서요.
10:17
(Laughter웃음)
205
605090
1008
(웃음)
10:18
It's true참된.
206
606122
1173
사실이예요.
10:19
(Laughter웃음)
207
607319
1017
(웃음)
10:20
It's all true참된, and that's what made만든 her
babble떠드는 소리 and hallucinate환각시키다
208
608360
3509
다 사실이에요. 그래서 그녀는
횡설수설하며, 환각을 느낄 수 있었고
10:23
and go into this trance-like트랜스 같은 state상태.
209
611893
1724
가수상태와 비슷한
상태에 빠질 수 있었습니다.
10:25
She was high높은 as a kite!
210
613641
1770
그녀는 완전히 취해있었어요!
10:27
(Laughter웃음)
211
615435
4461
(웃음)
10:31
So how did anyone누군가 --
212
619920
2779
그려면 어떻게
10:34
How did anyone누군가 get
any useful유능한 advice조언 out of her
213
622723
3030
어떻게 이런 상태에서 유용한 조언을
10:37
in this state상태?
214
625777
1190
받을 수가 있었을까요?
10:39
Well, you see those people
surrounding주변의 the oracle신탁?
215
627497
2381
오라클 주변을 둘러싼
이 사람들 보이시나요?
10:41
You see those people holding보유 her up,
216
629902
1879
이 사람들이 그녀를 붙잡고 있어요.
10:43
because she's, like, a little woozy우기?
217
631805
1717
그녀의 머리가 조금 띵해서 일까요?
10:45
And you see that guy
on your left-hand왼손 side측면
218
633546
2308
그리고 왼쪽의 남자가 보이죠.
10:47
holding보유 the orange주황색 notebook수첩?
219
635878
1598
오렌지 색의 공책을 들고 있어요.
10:50
Well, those were the temple신전 guides안내,
220
638105
1730
이것은 신전 가이드 입니다.
10:51
and they worked일한 hand in hand
with the oracle신탁.
221
639859
3016
그리고 이들은 오라클과
손 잡고 일했어요.
10:56
When inquisitors재심 자들 would come
and get on their그들의 knees무릎,
222
644084
2516
질문자들이 와서 무릎을 꿇으면
10:58
that's when the temple신전 guides안내
would get to work,
223
646624
2340
그때가 신전 가이드가
필요한 떄 입니다.
11:00
because after they asked물었다 her questions질문들,
224
648988
1864
왜냐하면 그녀에게 질문을 한 후
11:02
they would observe관찰하다 their그들의 emotional정서적 인 state상태,
225
650876
2001
그들은 이 질문자의
감정상태를 관찰합니다.
11:04
and then they would ask청하다 them
follow-up후속 조치 questions질문들,
226
652901
2324
그리고 이런 후속 질문을 합니다.
"왜 이 예언을 알고싶어 하십니까?
당신은 누구십니까?
11:07
like, "Why do you want to know
this prophecy예언? Who are you?
227
655249
2834
11:10
What are you going to do
with this information정보?"
228
658107
2264
이 정보로 무엇을 할 것입니까?"
11:12
And then the temple신전 guides안내 would take
this more ethnographic민족 지학,
229
660395
3182
그리고 신전 가이드는 이런 민족지적인
11:15
this more qualitative질적 인 information정보,
230
663601
2156
더 질적인 정보를 담게 되고
11:17
and interpret새기다 the oracle's오라클 babblings대담.
231
665781
2075
오라클의 횡설수설한
대답을 해석해 줍니다.
11:21
So the oracle신탁 didn't stand alone혼자,
232
669428
2292
그래서 오라클은 혼자 하지 않았어요.
11:23
and neither어느 쪽도 아니다 should our big data데이터 systems시스템.
233
671744
2148
그리고 우리의 빅 데이터 시스템도
홀로 있으면 안돼요.
11:26
Now to be clear명확한,
234
674630
1161
분명하게 이야기 하자면
11:27
I'm not saying속담 that big data데이터 systems시스템
are huffing호핑 ethylene에틸렌 gas가스,
235
675815
3459
저는 빅 데이터 시스템이 에틸렌 가스를
흡입하고 있다고 말하는 것이 아닙니다.
11:31
or that they're even giving주는
invalid무효의 predictions예측.
236
679298
2353
무효한 예견을 한다고
말하는 것도 아니고요.
11:33
The total합계 opposite반대말.
237
681675
1161
아주 반대예요.
11:34
But what I am saying속담
238
682860
2068
제가 이야기 하고자 하는 것은
11:36
is that in the same같은 way
that the oracle신탁 needed필요한 her temple신전 guides안내,
239
684952
3832
오라클이 신전 가이드가
필요했던 것과 같이
11:40
our big data데이터 systems시스템 need them, too.
240
688808
2288
우리의 빅 데이터 시스템도
그런 가이드가 필요하다는 것입니다.
11:43
They need people like ethnographers민족 학자
and user사용자 researchers연구원
241
691120
4109
빅 데이터 시스템은 민족지학자나
이용자 연구원과 같이
11:47
who can gather모으다 what I call thick두꺼운 data데이터.
242
695253
2506
심층적 데이터를 수집할 수 있는
사람이 필요합니다.
11:50
This is precious귀한 data데이터 from humans인간,
243
698502
2991
이것은 사람에게서 나오는
소중한 데이터 인데요.
11:53
like stories이야기, emotions감정 and interactions상호 작용
that cannot~ 할 수 없다. be quantified계량화 된.
244
701517
4102
이야기, 감정 그리고 의사소통과 같이
수량화 될 수 없는 것들이죠.
11:57
It's the kind종류 of data데이터
that I collected모은 for Nokia노키아
245
705643
2322
그것이 제가 노키아를 위해
수집했던 데이터입니다.
11:59
that comes온다 in in the form형태
of a very small작은 sample견본 size크기,
246
707989
2669
아주 작은 표본에서 수집 되었지만
12:02
but delivers배달하다 incredible놀랄 만한 depth깊이 of meaning의미.
247
710682
2955
엄청난 깊이의 의미를 전달하죠.
12:05
And what makes~을 만든다 it so thick두꺼운 and meaty고기가 많은
248
713661
3680
그리고 이 데이터를 아주
심층적이고 알차게 만드는 것은
12:10
is the experience경험 of understanding이해
the human인간의 narrative이야기.
249
718445
4029
인간 이야기를 이해하는 경험입니다.
12:14
And that's what helps도움이된다. to see
what's missing있어야 할 곳에 없는 in our models모델.
250
722498
3639
그것이 우리 모델에서
빠진 부분을 볼 수 있게 도와줍니다.
12:18
Thick두꺼운 data데이터 grounds근거 our business사업 questions질문들
in human인간의 questions질문들,
251
726851
4045
심층적 데이터는 사업적인 질문에게
인간적인 질문을 부여합니다.
12:22
and that's why integrating통합
big and thick두꺼운 data데이터
252
730920
3562
그래서 빅 테이터와
심층적 데이터의 통합이
12:26
forms형태 a more complete완전한 picture그림.
253
734506
1689
완벽한 그림을 그려냅니다.
12:28
Big data데이터 is able할 수 있는 to offer제공
insights통찰력 at scale규모
254
736772
2881
빅 데이터는 통찰력을
척도로 제공할 수 있으며
12:31
and leverage이점 the best베스트
of machine기계 intelligence지성,
255
739677
2647
기계 지능을 최대로
이용할 수 있습니다.
12:34
whereas이므로 thick두꺼운 data데이터 can help us
rescue구출 the context문맥 loss손실
256
742348
3572
반면 심층적 데이터는
빅 데이터를 사용할 수 있게 함으로 생기는
12:37
that comes온다 from making만들기 big data데이터 usable쓸 수 있는,
257
745944
2098
문맥적 손실을 줄이는데 도움을 줘서
12:40
and leverage이점 the best베스트
of human인간의 intelligence지성.
258
748066
2181
인간 지능을 최대로
이용할 수 있게 해줍니다.
12:42
And when you actually사실은 integrate통합하다 the two,
that's when things get really fun장난,
259
750271
3552
실제로 이 두 데이터를 통합할 때
굉장히 흥미로워집니다.
12:45
because then you're no longer더 길게
just working with data데이터
260
753847
2436
왜냐하면 그때는 수집한 데이터만 가지고
12:48
you've already이미 collected모은.
261
756307
1196
일을 하는 것이 아니고
12:49
You get to also또한 work with data데이터
that hasn't~하지 않았다. been collected모은.
262
757527
2737
수집하지 않은 데이터까지 함께 가지고
일을 하게 되는 것이기 때문입니다.
12:52
You get to ask청하다 questions질문들 about why:
263
760288
1719
'왜' 라는 질문을 하게 되지요.
12:54
Why is this happening사고?
264
762031
1317
왜 이것이 일어나는 것일까?
12:55
Now, when Netflix넷플릭스 did this,
265
763778
1379
넷플릭스가 이것을 했을 때
12:57
they unlocked잠겨 있지 않은 a whole완전한 new새로운 way
to transform변환 their그들의 business사업.
266
765181
3035
그들은 그들의 사업을 변화시킬
새로운 길을 열었어요.
13:01
Netflix넷플릭스 is known알려진 for their그들의 really great
recommendation추천 algorithm연산,
267
769406
3956
넷플릭스는 아주 훌륭한 추천 알고리즘이
있는 것으로 알려져 있는데요.
13:05
and they had this $1 million백만 prize
for anyone누군가 who could improve돌리다 it.
268
773386
4797
그들은 이 알고리즘을 향상시키는데에
백만 달러의 상금을 걸었습니다.
13:10
And there were winners승자.
269
778207
1314
그리고 우승자가 있었습니다.
13:12
But Netflix넷플릭스 discovered발견 된
the improvements개량 were only incremental증분.
270
780255
4323
그러나 넥플릭스는 이런 향상이
오직 양적인 증가임을 발견했고
13:17
So to really find out what was going on,
271
785404
1964
정말 무엇이 일어나고
있는지 알아내기 위해
13:19
they hired고용 된 an ethnographer민족지 학자,
Grant부여 McCracken맥 크랙 켄,
272
787392
3741
민족지학자인
그랜트 맥크래켄을 고용하여
13:23
to gather모으다 thick두꺼운 data데이터 insights통찰력.
273
791157
1546
심층적 데이터를 수집했어요.
13:24
And what he discovered발견 된 was something
that they hadn't~하지 않았다 seen initially처음에는
274
792727
3924
그리고 그는 그들이 수량화된 데이터에서
초기에 보지 못했던 점을
13:28
in the quantitative정량적 인 data데이터.
275
796675
1355
발견하게 되었습니다.
13:31
He discovered발견 된 that people loved사랑하는
to binge-watch빙그레 시계.
276
799072
2728
그는 사람들이 몰아보기를
좋아한다는 것을 발견했어요.
13:33
In fact, people didn't even
feel guilty저지른 about it.
277
801824
2353
사실, 사람들은 몰아보는 것에
죄책감을 느끼지도 않아요.
13:36
They enjoyed즐겁게 it.
278
804201
1255
그것을 즐깁니다.
13:37
(Laughter웃음)
279
805480
1026
(웃음)
13:38
So Netflix넷플릭스 was like,
"Oh. This is a new새로운 insight통찰력."
280
806530
2356
그래서 넷플릭스는
"오, 이것은 새로운 시각이다."
13:40
So they went갔다 to their그들의 data데이터 science과학 team,
281
808910
1938
그래서 그들은 그들의
데이터 과학 팀에게 가서
13:42
and they were able할 수 있는 to scale규모
this big data데이터 insight통찰력
282
810872
2318
그들의 수량화된 데이터와 함께
13:45
in with their그들의 quantitative정량적 인 data데이터.
283
813214
2587
빅 데이터를 측정 할 수 있었어요.
13:47
And once일단 they verified확인 된 it
and validated검증 된 it,
284
815825
3170
확인하고, 입증한 후에
13:51
Netflix넷플릭스 decided결정적인 to do something
very simple단순한 but impactful충격적인.
285
819019
4761
넷플릭스는 아주 단순하면서도
영향력 있는 것을 하기로 결정했어요.
13:56
They said, instead대신에 of offering헌금
the same같은 show보여 주다 from different다른 genres장르
286
824834
6492
그들이 말하길, 다른 장르의 같은 쇼나
14:03
or more of the different다른 shows
from similar비슷한 users사용자,
287
831350
3888
비슷한 이용자에서의
다른 쇼들을 제공하는 것 대신에
14:07
we'll just offer제공 more of the same같은 show보여 주다.
288
835262
2554
우리는 그냥 같은 쇼를
계속 제공할 것입니다.
14:09
We'll make it easier더 쉬운
for you to binge-watch빙그레 시계.
289
837840
2105
우리는 당신이 더 쉽게
몰아보게 할 것입니다.
14:11
And they didn't stop there.
290
839969
1486
그리고 그들은 거기서 멈추지 않았어요.
14:13
They did all these things
291
841479
1474
그들은 모든 시청자들의 경험을
다시 디자인하기 위해,
14:14
to redesign재 설계하다 their그들의 entire완전한
viewer뷰어 experience경험,
292
842977
2959
몰아보기를 정말로 장려하기 위해
14:17
to really encourage북돋우다 binge-watching폭력.
293
845960
1758
이 모든 것들을 하였습니다.
14:20
It's why people and friends친구 disappear사라지다
for whole완전한 weekends주말 at a time,
294
848230
3241
이것이 사람들과 친구들이
주말마다 가끔씩 사라지는 이유입니다.
14:23
catching매력 있는 것 up on shows
like "Master석사 of None없음."
295
851495
2343
"Master of None"과 같은 쇼를
몰아보기 때문이죠.
14:25
By integrating통합 big data데이터 and thick두꺼운 data데이터,
they not only improved개선 된 their그들의 business사업,
296
853862
4173
빅 데이터와 심층적 데이터를 통합함으로써,
사업을 개선시켰을 뿐만아니라
14:30
but they transformed변형 된 how we consume바싹 여위다 media미디어.
297
858059
2812
우리가 어떻게 미디어를
받아들이는지를 변화시켰어요.
14:32
And now their그들의 stocks주식 are projected투영 된
to double더블 in the next다음 것 few조금 years연령.
298
860895
4552
지금 그 주식은 앞으로 몇년 안에
두 배가 뛸 것으로 예상하고 있어요.
14:38
But this isn't just about
watching보고있다 more videos비디오
299
866280
3830
그러나 이것은
더 많은 비디오를 시청하고
14:42
or selling판매 more smartphones스마트 폰.
300
870134
1620
더 많은 스마트 폰을 파는 것에
국한된 것이 아닙니다.
14:44
For some, integrating통합 thick두꺼운 data데이터
insights통찰력 into the algorithm연산
301
872143
4050
심층적 데이터를
알고리즘에 통합하는 것이
14:48
could mean life or death죽음,
302
876217
2263
몇몇의 사람들에게는 삶이나
죽음을 의미할 수도 있어요.
14:50
especially특히 for the marginalized소외된.
303
878504
2146
특히 소외된 사람들에게 말이죠.
14:53
All around the country국가,
police경찰 departments부서 are using~을 사용하여 big data데이터
304
881738
3434
모든 나라의 경찰서에서는
범죄예측을 위해
14:57
for predictive예측적인 policing치안,
305
885196
1963
빅 데이터를 사용합니다.
14:59
to set세트 bond노예 amounts금액
and sentencing양형 recommendations추천
306
887183
3084
보석금과 판결 권고를
15:02
in ways that reinforce강화하다 existing기존의 biases편향.
307
890291
3147
현존하는 편향을 보강하는
방향으로 설정합니다.
15:06
NSA'sNSA Skynet스카이 넷 machine기계 learning배우기 algorithm연산
308
894296
2423
NSA의 스카이넷 머신 러닝 알고리즘은
15:08
has possibly혹시 aided원조 한 in the deaths사망자
of thousands수천 of civilians사복 in Pakistan파키스탄
309
896743
5444
휴대폰 메타데이터를 잘못 읽어서
수천 명의 파키스탄 시민들을
죽게 했습니다
15:14
from misreading잘못 읽음 cellular세포질의 device장치 metadata메타 데이터.
310
902211
2721
15:19
As all of our lives become지다 more automated자동화 된,
311
907131
3403
우리 모든 삶이
자동차부터 의료보험, 직장까지
15:22
from automobiles자동차 to health건강 insurance보험
or to employment고용,
312
910558
3080
더욱 자동화가 되어가면서
15:25
it is likely아마도 that all of us
313
913662
2350
우리 모두
15:28
will be impacted영향을받은
by the quantification부량 bias바이어스.
314
916036
2989
수량화의 편견으로부터
영향을 받게 될 것입니다.
15:32
Now, the good news뉴스
is that we've우리는 come a long way
315
920972
2621
좋은 소식은 우리는 에탈렌 가스흡입으로
예언을 하는 것에서 부터
15:35
from huffing호핑 ethylene에틸렌 gas가스
to make predictions예측.
316
923617
2450
먼 길을 왔습니다.
15:38
We have better tools도구들,
so let's just use them better.
317
926091
3070
우리에겐 더 좋은 도구들이 있어요.
그러니까 더 좋게 이용합시다.
15:41
Let's integrate통합하다 the big data데이터
with the thick두꺼운 data데이터.
318
929185
2323
빅 데이터를 심층적 데이터와
통합합시다.
15:43
Let's bring가져오다 our temple신전 guides안내
with the oracles신탁,
319
931532
2261
오라클과 함께 있던
신전 가이드를 가져옵시다.
15:45
and whether인지 어떤지 this work happens일이
in companies회사들 or nonprofits비영리 단체
320
933817
3376
그리고 이런 일이 일어나는 곳이
기업이든, 비영리 기관이든,
15:49
or government정부 or even in the software소프트웨어,
321
937217
2469
정부이든, 심지어 소프트웨어이든지
15:51
all of it matters사안,
322
939710
1792
모두 중요합니다.
15:53
because that means방법
we're collectively공동으로 committed저지른
323
941526
3023
왜냐하면 이것은 우리가 다함께
15:56
to making만들기 better data데이터,
324
944573
2191
더 나은 데이터
더 나은 알고리즘, 더 나은 결과와
15:58
better algorithms알고리즘, better outputs산출물
325
946788
1836
더 나은 결정을 내리는 것에
전념하고 있음을 의미하기 때문이죠.
16:00
and better decisions결정들.
326
948648
1643
16:02
This is how we'll avoid기피
missing있어야 할 곳에 없는 that something.
327
950315
3558
이렇게 하면 중요한 것을
놓치지 않게 될 겁니다.
16:07
(Applause박수 갈채)
328
955222
3948
(박수)
Translated by E.K. Lee
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com