ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com
TED2018

Kashmir Hill and Surya Mattu: What your smart devices know (and share) about you

카슈미르 힐 & 수리아 마투(Kashmir Hill and Surya Mattu): 스마트 기기가 사용자에 대해 알고 공유하는 것들

Filmed:
2,030,169 views

여러분의 "스마트"기기가 여러분에게 말을 걸 수 있다면 ,그들은 누구에게 말을 걸까요? 기즈모도의 카슈미르 힐과 수리아 마투는 이를 알고 싶어했습니다. 그래서 그들은 힐의 아파트에 18개의 인터넷 연결 장치를 설치했고, 종종 특별한 라우터를 추적하기 위해 서버를 연결해서 뭘 보고하고 있는지 알아보았습니다. 그 결과는 놀라웠습니다. 그리고 조금 소름 끼치기도 했습니다. 스마트 기기에서 제공하는 데이터를 통해 수면 시간, TV시청 시간, 심지어 치아를 닦는 습관 등에 대해 알아보고 어떻게 기술 회사들이 여러분을 목표로 삼고 프로파일 할 수 있는지를 알 수 있었습니다. (이 대화에는 성인 언어가 포함되어 있습니다.)
- Technology journalist
Kashmir Hill writes about privacy and technology. Full bio - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people." Full bio

Double-click the English transcript below to play the video.

카슈미르 힐: 작년 제 생일에
00:12
Kashmir카슈미르 Hill언덕: So for my
birthday생일 last year,
0
912
2135
남편이 아마존 에코를 제게 주었습니다.
00:15
my husband남편 got me an Amazon아마존 Echo에코.
1
3071
1993
00:17
I was kind종류 of shocked충격을주게되었던, actually사실은,
2
5595
1540
사실, 저는 조금 충격을 받았습니다.
왜냐하면 우리는 둘 다 개인정보
보안 업계에서 일하기 때문입니다.
00:19
because we both양자 모두 work
in privacy은둔 and security보안.
3
7159
3234
00:22
(Laughter웃음)
4
10417
1336
(웃음)
그리고 이 장치는 마이크를 켠 채로
저희 집 한 가운데 있었어요.
00:24
And this was a device장치 that would sit앉다
in the middle중간 of our home
5
12688
3389
00:28
with a microphone마이크로폰 on,
6
16101
1436
소리를 계속 들으면서요.
00:29
constantly끊임없이 listening청취.
7
17561
1649
그런데 저희만 그런 게 아닙니다.
00:31
We're not alone혼자, though그래도.
8
19696
1254
NPR과 Edison Research의
조사에 따르면
00:32
According따라 to a survey측량 by NPRNPR
and Edison에디슨 Research연구,
9
20974
2881
00:35
one in six American미국 사람 adults성인
now has a smart똑똑한 speaker스피커,
10
23879
4079
미국 성인 6명 중 1명에게
스마트 스피커가 생겼고
그 말은 그들이 집에 가상의
비서가 있음을 의미합니다.
00:39
which어느 means방법 that they have
a virtual가상의 assistant조수 at home.
11
27982
2881
참 과감해요.
00:42
Like, that's wild야생.
12
30887
1198
00:44
The future미래, or the future미래 dystopia디스토피아,
is getting점점 here fast빠른.
13
32109
4116
미래, 아니면 미래 디스토피아는
빨리 다가오고 있습니다.
00:48
Beyond을 넘어서 that, companies회사들 are offering헌금 us
all kinds종류 of internet-connected인터넷에 연결된 devices장치들.
14
36778
4507
더 나아가 회사들은 우리에게
온갖 종류의 인터넷 기기를 제안하고 있습니다.
00:53
There are smart똑똑한 lights, smart똑똑한 locks자물쇠,
smart똑똑한 toilets화장실, smart똑똑한 toys장난감,
15
41309
4968
스마트 전등과 스마트 자물쇠,
스마트 화장실, 스마트 장난감,
스마트 섹스 토이들
00:58
smart똑똑한 sex섹스 toys장난감.
16
46301
1311
스마트해진다는 것은 기기가
인터넷에 연결할 수 있다는 겁니다.
01:00
Being존재 smart똑똑한 means방법 the device장치
can connect잇다 to the internet인터넷,
17
48323
2691
그것은 데이터를 모을 수 있습니다.
01:03
it can gather모으다 data데이터,
18
51038
1176
그리고 그것은 주인에게
말할 수 있습니다.
01:04
and it can talk to its owner소유자.
19
52238
1902
하지만 가전 제품이
여러분에게 말을 걸 때
01:06
But once일단 your appliances가전 ​​제품 can talk to you,
20
54966
2714
그들은 또 누구와 이야기하게 될까요?
01:09
who else그밖에 are they going to be talking말하는 to?
21
57704
2145
01:12
I wanted to find out,
22
60331
1365
저는 그것을 알아내고 싶었습니다.
01:13
so I went갔다 all-in모두 and turned돌린 my
one-bedroom침실 하나 apartment아파트 in San FranciscoFrancisco
23
61720
3388
그래서 저는 샌프란시스코의
원룸 아파트를 스마트 홈으로 바꾸었습니다.
01:17
into a smart똑똑한 home.
24
65132
1349
01:18
I even connected연결된 our bed침대 to the internet인터넷.
25
66800
3091
심지어 저는 침대를
인터넷에 연결하기도 했습니다.
제가 아는 한, 그것은 그저
우리 수면 습관을 측정하는 거였죠.
01:22
As far멀리 as I know, it was just
measuring자질 our sleeping자고있는 habits버릇.
26
70505
3302
01:26
I can now tell you
that the only thing worse보다 나쁜
27
74490
2081
저는 이제 여러분들께
밤에 잠을 못자는 것보다 더 나쁜 건
01:28
than getting점점 a terrible무서운 night's밤의 sleep자다
28
76595
1787
01:30
is to have your smart똑똑한 bed침대
tell you the next다음 것 day
29
78406
2417
스마트 침대가 다음날 여러분에게
"목표 미달에 낮은 수면 점수를
획득했습니다" 라고 말하는 겁니다.
01:32
that you "missed놓친 your goal
and got a low낮은 sleep자다 score점수."
30
80847
3056
01:35
(Laughter웃음)
31
83927
1380
(웃음)
01:37
It's like, "Thanks감사, smart똑똑한 bed침대.
32
85331
1437
이는 , "고마워, 스마트 침대.
01:38
As if I didn't already이미
feel like shit today오늘."
33
86792
2516
벌써 오늘 기분이
완전 꽝이 아닌 듯 말야."
(웃음)
01:41
(Laughter웃음)
34
89332
1153
01:42
All together함께, I installed설치된 18
internet-connected인터넷에 연결된 devices장치들 in my home.
35
90509
4536
다 합해서, 저의 집에는 18개의
장치들이 인터넷에 연결되어 있습니다.
저는 또한 수리아도 설치했습니다.
01:47
I also또한 installed설치된 a Surya수리야.
36
95069
2238
수리아 마튜: 안
녕하세요, 저는 수리아입니다.
01:49
Surya수리야 MattuMattu: Hi안녕, I'm Surya수리야.
37
97331
1381
01:50
(Laughter웃음)
38
98736
1198
(웃음)
01:51
I monitored감시하다 everything the smart똑똑한 home did.
39
99958
2944
저는 스마트 홈이 했던
모든 일을 감시합니다.
01:54
I built세워짐 a special특별한 router라우터 that let me look
at all the network회로망 activity활동.
40
102926
3929
모든 네트워크 활동에서 제가 볼 수 있게
특별한 공유기를 구축했습니다.
여러분은 제 라우터가 보안 경비의
한 종류라고 생각하실 수 있겠지만
01:58
You can think of my router라우터
sort종류 of like a security보안 guard가드,
41
106879
2930
02:01
compulsively강박적으로 logging벌채 반출
all the network회로망 packets패킷
42
109833
2133
스마트 홈에 들어오고 나갈 때
02:03
as they entered입력 된 and left the smart똑똑한 home.
43
111990
2047
모든 네트워크 패킷을
의무적으로 기록합니다.
02:06
KHKH: Surya수리야 and I are both양자 모두 journalists언론인,
he's not my husband남편,
44
114061
2754
KH: 수리아와 저는 둘다 저널리스트지만,
그는 제 남편이 아니며
02:08
we just work together함께 at Gizmodo기즈모.
45
116839
1676
저희는 단지 Gizmodo에서
함께 일할 뿐입니다.
02:10
SM에스엠: Thank you for clarifying명확히하는.
46
118539
1389
SM: 분명하게 해줘서 고마워요.
02:11
The devices장치들 Kashmir카슈미르 bought샀다 --
47
119952
1402
카슈미르가 구입한 장치들
저희가 흥미롭게 여긴 것은
02:13
we were interested관심있는 in understanding이해
48
121378
1692
제조업자에게 뭐라고 말하는가였습니다.
02:15
what they were saying속담
to their그들의 manufacturers제조업 자.
49
123094
2111
하지만 우리는 가정의 디지털 정보가
02:17
But we were also또한 interested관심있는
in understanding이해
50
125229
2062
02:19
what the home's홈의 digital디지털
emissions배출 look like
51
127315
2370
인터넷 서비스 제공자에게
보여지는지에 대해
02:21
to the internet인터넷 service서비스 provider공급자.
52
129709
2265
이해하는 데에도 관심이 있었습니다.
02:23
We were seeing what the ISPISP could see,
but more importantly중요하게,
53
131998
2842
우리는 ISP가 볼 수 있는 걸
보고 있었지만 더 중요한 건
그들이 무엇을 팔 수 있었는가 입니다.
02:26
what they could sell팔다.
54
134864
1181
02:28
KHKH: We ran달렸다 the experiment실험 for two months개월.
55
136069
2143
KH: 저희는 2달 동안
실험을 했습니다.
그 두 달 동안에
02:30
In that two months개월,
56
138236
1167
집 안에서는 단 한 시간도
디지털 침묵이 없었습니다.
02:31
there wasn't아니었다. a single단일 hour시간
of digital디지털 silence침묵 in the house --
57
139427
2877
심지어 한 주 동안 떠나 있을 때도요.
02:34
not even when we went갔다 away for a week.
58
142328
1932
02:36
SM에스엠: Yeah, it's so true참된.
59
144284
1174
SM: 맞아요, 사실입니다.
정보에 근거해서, 저는 여러분들이
언제 일어나고 자는지 알게 되었습니다.
02:37
Based기반 on the data데이터, I knew알고 있었다 when
you guys woke깨우다 up and went갔다 to bed침대.
60
145482
3016
심지어 카슈미르가 언제
양치를 하는지도 알게 되었습니다.
02:40
I even knew알고 있었다 when Kashmir카슈미르
brushed닦은 her teeth.
61
148522
2039
02:42
I'm not going to out your brushing칫솔질 habits버릇,
62
150585
2024
당신의 양치 습관을 공개하지 않을게요.
하지만 집에서 일할 땐
아주 분명했다고만 해 두죠.
02:44
but let's just say it was very clear명확한 to me
when you were working from home.
63
152633
3629
KH: 저는 당신이 금방 여기 있는
많은 이에게 공개했다고 생각하는데요.
02:48
KHKH: Uh, I think you just outed외출 한 them
to, like, a lot of people here.
64
156286
3212
SM: 당황하지 마세요.
이것은 단지 메타데이터일 뿐이에요.
02:51
SM에스엠: Don't be embarrassed어리둥절한,
it's just metadata메타 데이터.
65
159522
2346
저는 당신이 언제 TV를
켜고 얼마 동안 보는지 알아요.
02:54
I knew알고 있었다 when you turned돌린 on your TVTV
and how long you watched보았다 it for.
66
162472
3143
Hill 가정에 대한 재미있는 사실은
02:57
Fun장난 fact about the Hill언덕 household가정:
67
165639
1629
그들은 TV를 많이 보지 않아요.
02:59
they don't watch a lot of television텔레비전,
68
167292
1794
그런데 한 번 보면 왕창 몰아서 보죠.
03:01
but when they do,
it's usually보통 in binge파티 mode방법.
69
169110
2268
가장 좋아하는 쇼는
"Difficult People" 과 "Party Down."이에요.
03:03
Favorite특히 잘하는 shows include포함
"Difficult어려운 People" and "Party파티 Down."
70
171402
2779
Kh: 당신이 맞아요.
저는 'Party Down' 애청자예요.
03:06
KHKH: OK, you're right,
I loved사랑하는 "Party파티 Down."
71
174205
2039
그것은 훌륭한 쇼예요.
한번 꼭 보세요.
03:08
It's a great show보여 주다,
and you should definitely명확히 watch it.
72
176268
2547
하지만 "Difficult People"은
제 남편, 트레버였어요.
03:10
But "Difficult어려운 People"
was all my husband남편, Trevor트레버.
73
178839
2444
03:13
And Trevor트레버 was actually사실은 a little upset당황
that you knew알고 있었다 about his bingesbinges,
74
181307
3603
트레버는 사실 그가 한번에 몰아본다는 걸
여러분이 아는 것이 언짢아 합니다.
왜냐하면 그가 TV를 공유기에
연결한 사람이었지만
03:16
because even though그래도 he'd그는 been the one
to connect잇다 the TVTV to the router라우터,
75
184934
3334
그는 TV가 저희를 보고 있다는 것을
잊어 버렸기 때문입니다.
03:20
he forgot잊어 버렸다 that the TVTV was watching보고있다 us.
76
188292
2447
03:23
It's actually사실은 not the first time
that our TVTV has spied간첩 on us.
77
191109
3293
사실 저희의 TV가
저희를 감시한 적이 처음은 아닙니다.
03:26
The company회사 that made만든 it, VIZIO비지오,
78
194426
1699
회사가 VIZIO를 만들었고
03:28
paid유료 a 2.2 million-dollar백만 달러 settlement정착
to the government정부 just last year,
79
196149
4333
작년에 220만 달러를
정부에 합의급으로 제출했고
왜냐하면 초 단위로 우리를 포함해,
수백만 명의 사람들이
03:32
because it had been collecting수집
second-by-second두 번째, 두 번째 information정보
80
200506
3357
03:35
about what millions수백만 of people
were watching보고있다 on TVTV, including포함 us,
81
203887
3468
TV를 보고 있었는지에 대해서
정보를 모아왔기 때문입니다.
03:39
and then it was selling판매 that information정보
to data데이터 brokers중개인 and advertisers광고주.
82
207379
3705
그리고 이 정보는 브로커들과
광고업자들에게 팔렸습니다.
SM: 전형적인 감시 사업 행태죠.
03:43
SM에스엠: Ah아 ~, classic권위 있는 surveillance감시 economy경제 move움직임.
83
211108
3222
03:46
The devices장치들 Kashmir카슈미르 bought샀다
almost거의 all pinged their그들의 servers서버 daily매일.
84
214775
3866
카슈미르가 구매한 장치는
거의 매일 서버에 접속 기록을 남겼어요.
하지만 특히 어떤 기계가
특별히 많이 그랬는지 아세요?
03:50
But do you know which어느 device장치
was especially특히 chatty수다스러운?
85
218665
2396
아마존 에코입니다.
03:53
The Amazon아마존 Echo에코.
86
221085
1294
서버에 3분 마다 접속했습니다.
03:54
It contacted접촉 한 its servers서버
every...마다 three minutes의사록,
87
222403
2428
저희가 그것을 쓰든
안 쓰든 상관없이 말이죠.
03:56
regardless관계없이 of whether인지 어떤지
you were using~을 사용하여 it or not.
88
224855
2198
KH: 일반적으로 그것은 모든 장치들이
03:59
KHKH: In general일반, it was disconcerting당황한
89
227077
2183
04:01
that all these devices장치들 were having
ongoing전진 conversations대화
90
229284
2984
제게는 보이지 않는 대화를
진행하고 있을 때 놀랐습니다.
04:04
that were invisible보이지 않는 to me.
91
232292
1626
04:05
I mean, I would have had
no idea생각, without없이 your router라우터.
92
233942
2587
제 말은, 여러분이 공유기 없이는
전혀 몰랐을 겁니다.
만약 여러분이 스마트 기기를 산다면
04:08
If you buy사다 a smart똑똑한 device장치,
you should probably아마 know --
93
236553
3468
아마 기기를 갖게 된다고 생각하겠죠.
04:12
you're going to own개인적인 the device장치,
94
240045
2111
04:14
but in general일반, the company회사
is going to own개인적인 your data데이터.
95
242180
3420
하지만 보통은 회사가
여러분 데이타를 갖게 됩니다.
그럼 아시다시피 예상되는 것은
04:17
And you know, I mean,
maybe that's to be expected예상 한 --
96
245624
2572
04:20
you buy사다 an internet-connected인터넷에 연결된 device장치,
it's going to use the internet인터넷.
97
248220
3507
인터넷 접속 기기를 사면
인터넷을 사용하게 되겠죠.
하지만 이런 기기들이
04:24
But it's strange이상한 to have these devices장치들
98
252189
1842
04:26
moving움직이는 into the intimate친밀한 space공간
that is the home
99
254055
2658
집이라는 사적인 공간에 들어와서는
회사들이 우리의 기본 행동들을
추적한다는 건 이상합니다.
04:28
and allowing허락하는 companies회사들 to track선로
our really basic기본 behavior행동 there.
100
256737
3443
SM: 정말 맞아요.
04:32
SM에스엠: So true참된.
101
260204
1159
심지어 가장 평범한 데이타도
감시 경제들이 발굴해 갑니다.
04:33
Even the most가장 banal-seeming보이는 평범한 data데이터
can be mined채광 한 by the surveillance감시 economy경제.
102
261387
3539
가령, 여러분이 양치질을 얼마나 하는지
누가 신경이나 쓸까요?
04:36
For example, who cares걱정하다
how often자주 you brush브러시 your teeth?
103
264950
2575
알고 보니 치아보험 회사
빔이라는 곳이 있어요.
04:39
Well, as it turns회전 out, there's a dental이의
insurance보험 company회사 called전화 한 Beam.
104
267549
3526
그들은 2015년부터 고객들의
스마트 칫솔을 모니터링 해왔고
04:43
They've그들은 been monitoring모니터링 their그들의 customers'고객 '
smart똑똑한 toothbrushes칫솔 since이후 2015 --
105
271099
3835
물론 보험료를 할인해 주는 댓가였죠.
04:46
for discounts할인 on their그들의
premiums보험료, of course코스.
106
274958
2579
KH: 저희는 여러분 중 몇분은
어떤 생각을 하는지 압니다.
04:49
KHKH: We know what
some of you are thinking생각:
107
277561
2259
그것은 현대 세계의 계약입니다.
04:51
this is the contract계약 of the modern현대 world세계.
108
279844
2654
여러분은 조금 사생활을 포기하고
04:54
You give up a little privacy은둔,
109
282522
1427
조금의 편리함 또는 약간의 할인을
보상으로 받습니다.
04:55
and you get some convenience편의
or some price가격 breaks휴식 in return반환.
110
283973
3218
하지만 이것은 저의
스마트 홈에서의 경험이 아닙니다.
04:59
But that wasn't아니었다. my experience경험
in my smart똑똑한 home.
111
287514
2341
05:01
It wasn't아니었다. convenient편리한, it was infuriating격분시키는.
112
289879
3674
그것은 편리하지 않았고,
화가 났습니다.
인정할게요, 제
스마트 청소기를 좋아하지만
05:05
I'll admit들이다, I love my smart똑똑한 vacuum진공,
113
293577
2492
집에 있는 다른 것들이
저를 미치게 만들었죠.
05:08
but many많은 other things in the house
drove운전했다 me insane미친 것 같은:
114
296093
2405
05:10
we ran달렸다 out of electrical전기 같은 outlets소매점,
115
298522
2396
저희는 전자 매장으로 달려가서
10여 개의 앱을 다운로드받아야 했죠.
05:12
and I had to download다운로드
over a dozen다스 apps to my phone전화
116
300942
3379
모든 것을 통제하기 위해서요.
05:16
to control제어 everything.
117
304345
1327
그리고 모든 기기들이
각각 로그인을 해야했고
05:17
And then every...마다 device장치 had its own개인적인 log-in로그인,
118
305696
2089
제 칫솔도 암호가 있었어요.
05:19
my toothbrush칫솔 had a password암호 ...
119
307809
2363
(웃음)
05:22
(Laughter웃음)
120
310196
1737
특히, 스마트 커피는 지옥이었어요.
05:23
And smart똑똑한 coffee커피, especially특히,
was just a world세계 of hell지옥.
121
311957
4128
SM: 잠깐, 정말요? 클라우드 동력
커피가 정말 안 맞았어요?
05:28
SM에스엠: Wait, really? Cloud-powered클라우드 기반
coffee커피 wasn't아니었다. really working for you?
122
316109
3928
KH: 아마 제가 순진한가봐요.
좋을 거라고 생각했거든요.
05:32
KHKH: I mean, maybe I'm naive소박한,
but I thought it was going to be great.
123
320061
3238
저는 그저 아침에 일어나서
"알렉스,커피 내려줘"하면 될 줄 알았죠.
05:35
I thought we'd우리는 just wake일어나 다 up in the morning아침
and we'd우리는 say, "Alexa알렉사, make us coffee커피."
124
323323
4019
하지만 그렇게 되지는 않았죠.
05:39
But that's not how it went갔다 down.
125
327366
1873
특정 브랜드 문구를 사용해야
작동시킬 수 있었어요.
05:41
We had to use this really particular특별한,
brand-specific브랜드 관련 phrase to make it work.
126
329263
4651
05:45
It was, "Alexa알렉사, ask청하다 the BehmorBehmor
to run운영 quick빨리 start스타트."
127
333938
4608
그건, "알렉사, 비모어에게 빨리
내려 달라고 부탁해"였죠.
이건 정말 아침에 일어나서
기억하기 어려운 거였어요.
05:51
And this was just, like,
really hard단단한 to remember생각해 내다
128
339222
3342
카페인도 안 먹고 기억하긴 어렵다고요.
05:54
first thing in the morning아침,
129
342588
1334
05:55
before you have had your caffeine카페인.
130
343946
1703
05:57
(Laughter웃음)
131
345673
1103
(웃음)
05:58
And apparently분명히, it was hard단단한 to say,
132
346800
1690
그리고 말하기도 어려웠어요.
06:00
because the Echo에코 Dot
that was right next다음 것 to our bed침대
133
348514
3063
왜냐하면 우리 침대의
바로 옆에 있는 에코 닷이
06:03
just couldn't할 수 없었다 understand알다 us.
134
351601
1611
알아듣지 못했으니까요.
그래서 매일 이 문구를
에코 닷에게 소리지르면 하루를 시작했어요.
06:05
So we would basically원래 start스타트 every...마다 day
by screaming외침 this phrase at the Echo에코 Dot.
135
353704
4621
(웃음)
06:10
(Laughter웃음)
136
358349
1173
트레버는 이것을 싫어했죠.
06:11
And Trevor트레버 hated싫어하는 this.
137
359546
1466
그는, "제발, 케슈미르,
06:13
He'd그는 be like, "Please, Kashmir카슈미르,
138
361339
1748
06:15
just let me go to the kitchen부엌 and push푸시
the button단추 to make the coffee커피 run운영."
139
363111
3669
내가 주방으로 가서 버튼을 눌러
커피를 내리게 해 줘요"라고 했죠.
그리고 저는,
"아니, 그렇게 할 수 없어요!
06:19
And I'd be like, "No, you can't!
140
367379
2087
06:21
We have to do it the smart똑똑한 way!"
141
369490
2409
우리는그것을 스마트한
방법으로 해야 해!"라고요.
(웃음)
06:23
(Laughter웃음)
142
371923
1916
저희 결혼생활이 실험에서
살아남게 되어 기쁘지만
06:25
I'm happy행복 to report보고서 that our marriage결혼
survived살아남은 the experiment실험,
143
373863
3043
아주 간신히 살았어요.
06:28
but just barely간신히.
144
376930
1560
SM: 만약 당여러분이 집을
스마트하게 만드려고 하신다면
06:30
SM에스엠: If you decide결정하다 to make your home smart똑똑한,
145
378514
2047
바라건대, 카슈미르보다
분노가 덜하기를 바랍니다.
06:32
hopefully희망을 갖고, you’ll어울리다 find it
less적게 infuriating격분시키는 than Kashmir카슈미르 did.
146
380585
2849
하지만 어쨌든, 여러분이 사는
똑똑한 물건들은
06:35
But regardless관계없이, the smart똑똑한 things you buy사다
147
383458
2087
아마도 여러분을 프로파일 하기 위해
사용될 수 있습니다.
06:37
can and probably아마 are used
to target목표 and profile윤곽 you.
148
385569
3095
단지 여러분에게 있는 몇몇의 기기들이
여러분이 얼마나 부자이거나 가난한지를
06:41
Just the number번호 of devices장치들 you have
can be used to predict예측하다
149
389141
3040
06:44
how rich풍부한 or poor가난한 you are.
150
392205
1422
예측하고 있었다는 것을요.
페이스북이 이 기술을 만들었고
특허를 냈습니다.
06:45
Facebook's페이스 북의 made만든 this tech기술,
and they've그들은 also또한 patented특허받은 it.
151
393651
2767
KH: 온라인에 접속할 때마다,
추적당하는 것에 대한
06:48
KHKH: All the anxiety걱정 you currently현재 feel
every...마다 time you go online온라인,
152
396442
3686
여러분이 현재 느끼는 모든 불안감은
06:52
about being존재 tracked추적,
153
400152
1306
06:53
is about to move움직임 into your living생활 room.
154
401482
2301
여러분의 거실이나 침실로
옮겨갈 것입니다.
06:55
Or into your bedroom침실.
155
403807
1579
We-Vibe라고 불리는
섹스토이가 있습니다.
06:57
There's this sex섹스 toy장난감 called전화 한 the We-Vibe우리-바이브.
156
405950
2222
여러분은 왜 그것이 인터넷에
연결하는지 궁금해하시겠죠.
07:00
You might wonder경이 why
a sex섹스 toy장난감 connects연결하다 to the internet인터넷,
157
408577
2667
하지만 그것은 원거리 연애를 하는
두 사람을 위한 것으로
07:03
but it's for two people
who are in a long-distance긴 거리 relationship관계,
158
411268
3436
그들이 사랑을 멀리서도
공유하게 하려는 거죠.
07:06
so they can share their그들의 love from afar멀리.
159
414728
2920
몇몇 해커들이 이 장난감을
자세히 들여다 보았고
07:10
Some hackers해커 took~했다 a close닫기 look at this toy장난감
160
418259
2116
07:12
and saw it was sending배상
a lot of information정보
161
420399
2075
그리고 그것이 자신을 만든
회사로 많은 양의
07:14
back to the company회사 that made만든 it --
162
422498
2462
정보를 보내는 것을 보았습니다.
그것이 사용될 때, 얼마나 오래
그것이 사용되는지,
07:16
when it was used,
how long it was used for,
163
424984
2966
07:19
what the vibration진동 settings설정 were,
how hot뜨거운 the toy장난감 got.
164
427974
3706
진동 세팅이 어땠는지,
토이가 얼마나 뜨거워지는지요.
그것은 모두 데이터 베이스로 갔습니다.
07:23
It was all going into a database데이터 베이스.
165
431704
2189
그래서 저는 회사에 연락해서
07:25
So I reached도달 한 out to the company회사,
166
433917
2749
저는 말했죠,
"왜 이런 예민한 정보를 모으나요?"
07:28
and I said, "Why are you collecting수집
this really sensitive민감한 data데이터?"
167
436690
3302
그러자 그들은, "글쎄, 그것은
시장 조사에 효과적이에요"라고 말했습니다.
07:32
And they said, "Well, it's great
for market시장 research연구."
168
440369
3386
07:36
But they were data-mining데이터 수집
their그들의 customers'고객 ' orgasms오르가슴.
169
444592
2929
그러나 그들은 고객의 오르가즘을
데이터 채굴을 하고 있었죠.
그리고 그들은 그것에 대해
말하지 않았죠.
07:39
And they weren't하지 않았다 telling말함 them about it.
170
447545
1921
제 말은, 여러분이 사생활에
무신경할 지라도
07:41
I mean, even if
you're cavalier기사 about privacy은둔,
171
449490
2222
저는 여러분이 그것이 너무
극단적이라는 것을 인정하기를 바랍니다.
07:43
I hope기대 that you would admit들이다
that's a step단계 too far멀리.
172
451736
2595
SM: 그래서 제 섹스토이는
벙어리면 좋겠어요.
07:46
SM에스엠: This is why I want
to keep my sex섹스 toys장난감 dumb우둔한.
173
454680
2508
KH: 맞아요.
07:49
KHKH: That's great.
174
457212
1166
우리는 그것을 알게 되어 매우 기쁩니다.
07:50
We're all very glad기쁜 to know that.
175
458402
1666
(웃음)
07:52
(Laughter웃음)
176
460092
1448
SM: 제가 공유하고 싶은
데이터 포인트입니다.
07:53
SM에스엠: A data데이터 point포인트 I'm willing자발적인 to share.
177
461564
2034
(웃음)
07:55
(Laughter웃음)
178
463622
1723
카슈미르가 구매한 장치들은
쓸모 있는 것부터 성가신 것까지 다양합니다.
07:57
The devices장치들 Kashmir카슈미르 bought샀다
range범위 from useful유능한 to annoying성가신.
179
465369
2970
08:00
But the thing they all had in common공유지
180
468363
1793
하지만 그들이 가진 공통점은
그것의 제조 회사와
정보를 공유한다는 점이었습니다.
08:02
was sharing나누는 data데이터 with
the companies회사들 that made만든 them.
181
470180
2699
이메일 서비스 공급자
그리고 소셜 미디어
08:04
With email이메일 service서비스 providers공급자
and social사회적인 media미디어,
182
472903
2308
저희는 오래 전부터 그것이 무료라면,
여러분이 그 제품이라고 말했습니다.
08:07
we've우리는 long been told that if it's free비어 있는,
you're the product생성물.
183
475235
2958
하지만 사물 인터넷으로 보면
08:10
But with the internet인터넷 of things, it seems~ 같다,
184
478217
2007
그것은 여러분이 돈을 내면,
여러분이 상품이 된다는 것입니다.
08:12
even if you pay지불, you're still the product생성물.
185
480248
2008
그래서 여러분은 꼭 물어보아야하죠.
08:14
So you really have to ask청하다:
186
482280
1245
누가 여러분 스마트홈의
진정한 수혜자일까요?
08:15
Who's누가 the true참된 beneficiary수익자
of your smart똑똑한 home,
187
483549
2185
여러분이나 회사가 여러분을 채굴하나요?
08:17
you or the company회사 mining채광 you?
188
485758
1629
KH: 보세요, 우리는 기술 전문가죠.
08:19
KHKH: Look, we're a tech기술 savvy실제적 지식 crowd군중 here.
189
487411
1952
여러분 대부분이 이것들이
인터넷에 연결되어 있거나
08:21
I think most가장 of us know
that these things connect잇다 to the internet인터넷
190
489387
3112
데이터 전송하는 걸 알고 있을 거예요.
08:24
and send보내다 data데이터 out.
191
492523
1163
어쩌면 여러분이 이런 상업적 판옵티콘(감옥)에
사시는 게 괜찮을 수도 있지만
08:25
And fine, maybe you're OK with living생활
in that commercial상업적 panopticon원형 감옥,
192
493710
4018
다른 이들은 그렇지 않죠.
08:29
but others다른 사람 aren't있지 않다..
193
497752
1397
우리는 우리는 회사들이
이 장치들의 디자인을 재고하는 것이
08:31
We need the companies회사들 to rethink재고
the design디자인 of these devices장치들
194
499173
2841
우리의 사생활을 염두에 두고
08:34
with our privacy은둔 in mind마음,
195
502038
1515
08:35
because we're not all willing자발적인
to participate어느 정도 가지다 in "market시장 research연구,"
196
503577
3111
왜냐하면 우리는 "시장 조사"에
참여할 것이 아니기 때문입니다.
08:38
just because a device장치 we bought샀다
has a Wi-Fi와이파이 connection연결.
197
506712
2893
단지 우리가 산 장치 때문에
Wi-Fi연결이 되어 있습니다.
여러분께 말씀드리면
08:42
And I have to tell you,
198
510014
1198
일반적으로, 이런 일이 일어나고
있음을 알고 있어도
08:43
even when you're aware알고있는,
generally일반적으로, this is happening사고,
199
511236
2582
08:45
it's really easy쉬운 to forget잊다 that normal표준
household가정 items항목 are spying간첩 on you.
200
513842
4394
일반 가정용품들이 여러분을
엿보고 있다는 걸 잊기 쉬워요.
이것들이 여러분을
지켜보고 있다는 걸 잊기 쉽죠.
08:50
It's easy쉬운 to forget잊다
these things are watching보고있다 you,
201
518664
2350
왜냐하면 그게 카메라처럼
생기지 않았으니까요.
08:53
because they don't look like cameras카메라.
202
521038
2047
그들은 마치....
08:55
They could look like ...
203
523109
1429
글쎄, 그들은 딜도(성인용품)처럼
보일 수도 있어요.
08:56
well, they could look like a dildo딜도.
204
524562
2544
감사합니다.
08:59
Thank you.
205
527780
1152
(박수)
09:00
(Applause박수 갈채)
206
528956
3686
Translated by Eunbyul Wang
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com