ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com
TED Salon Samsung

Finn Lützow-Holm Myrstad: How tech companies deceive you into giving up your data and privacy

핀 루조-홈 미르스타드(Finn Lützow-Holm Myrstad): 개인 정보를 포기하게 만드는 기술 회사의 속임수

Filmed:
1,878,535 views

사용하고 있는 앱의 약관을 자세히 읽어본 적이 있나요? 노르웨이 소비자 협의회의 핀 루조-홈 미르스타드(Finn Lützow-Holm Myrstad)와 그의 팀은 일반적인 핸드폰에 설치되어 있는 모든 앱의 약관을 읽는 데 하루하고도 반나절이 걸렸습니다. 기술 회사가 사용자를 속이는 놀라운 방법에 대해 얘기하며 미르스타드는 사용자들이 자신의 개인 정보를 회사가 수집할 수 있도록 동의하는 것에 대한 통찰력을 제공합니다. 그리고 회사들이 당신의 정보를 상상도 못할 정도의 규모로 사용하는 방법에 대해서도 이야기 합니다.
- Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council. Full bio

Double-click the English transcript below to play the video.

00:13
Do you remember생각해 내다 when you were a child어린이,
0
1040
2416
어린 시절에 대해 떠올려 보세요.
00:15
you probably아마 had a favorite특히 잘하는 toy장난감
that was a constant일정한 companion동반자,
1
3480
3576
아마 여러분에게는 친구와 같은
가장 아끼는 장난감이 있었을 거예요.
00:19
like Christopher크리스토퍼 Robin남자 이름
had Winnie위니 the Pooh푸우,
2
7080
2616
크리스토퍼 로빈이 곰돌이 푸 인형을
가지고 다녔던 것처럼 말이죠.
00:21
and your imagination상상력
fueled연료가 공급 된 endless끝이없는 adventures모험?
3
9720
2800
그리고 여러분의 상상력은
끝없는 모험에 불을 붙였을 거예요.
00:25
What could be more innocent순진한 than that?
4
13640
2400
이보다 더 순수할 때가 있었을까요?
00:28
Well, let me introduce끼워 넣다 you
to my friend친구 CaylaCayla.
5
16800
4800
여러분들에게 제 친구
캐일라를 소개할게요.
00:34
CaylaCayla was voted투표했다 toy장난감 of the year
in countries국가 around the world세계.
6
22600
3456
캐일라는 세계에서
올해의 인형으로 선정되었습니다.
00:38
She connects연결하다 to the internet인터넷
and uses용도 speech연설 recognition인식 technology과학 기술
7
26080
3576
캐일라는 인터넷에 연결하여
음성인식 기술을 사용해
00:41
to answer대답 your child's아이의 questions질문들,
8
29680
2136
아이들의 질문에 대답을 해주거나
00:43
respond응창 성가 just like a friend친구.
9
31840
1960
친구처럼 말동무를 해 줍니다.
00:46
But the power doesn't lie거짓말
with your child's아이의 imagination상상력.
10
34920
3656
이 기술은 아이들의 상상력을
책임지지 않습니다.
00:50
It actually사실은 lies거짓말 with the company회사
harvesting수확 masses대중 of personal개인적인 information정보
11
38600
4536
사실 이 기술은
막대한 양의 개인 정보를 수집하는
회사들을 위한 것이죠.
00:55
while your family가족 is innocently무심코
chatting채팅 away in the safety안전 of their그들의 home,
12
43160
5536
여러분의 가족들은 아무것도 모른채
집이라는 안전한 공간에서
이야기를 나누고 있지만
01:00
a dangerously위험하게 false그릇된 sense감각 of security보안.
13
48720
2480
사실 이것은 위험한 가짜 안도감입니다.
01:04
This case케이스 sounded소리를 냈다 alarm경보 bells for me,
14
52840
2656
이러한 사례는 저에게
경각심을 불러일으킵니다.
01:07
as it is my job to protect보호
consumers'소비자 ' rights진상 in my country국가.
15
55520
3200
저는 우리나라 고객들의 권리를
지키는 일을 하거든요.
01:11
And with billions수십억 of devices장치들 such이러한 as cars자동차,
16
59800
3496
그리고 자동차나
에너지 미터기, 진공청소기와 같이
01:15
energy에너지 meters미터 and even vacuum진공 cleaners청소부
expected예상 한 to come online온라인 by 2020,
17
63320
5096
2020년까지 온라인 상에
등장할 것으로 예상되는
01:20
we thought this was a case케이스
worth가치 investigating조사 중 further더욱이.
18
68440
3936
수십억 가지의 기계들을 더 깊게
조사할만한 가치가 있다고 생각합니다.
01:24
Because what was CaylaCayla doing
19
72400
1896
캐일라는 자신이 배운
흥미로운 것들을 이용해
01:26
with all the interesting재미있는 things
she was learning배우기?
20
74320
2536
무엇을 하고 있었을까요?
01:28
Did she have another다른 friend친구 she was
loyal충성스러운 to and shared공유 된 her information정보 with?
21
76880
3640
캐일라는 자신이 충성하고
자신의 정보를 공유할 만한
다른 친구가 있을까요?
01:33
Yes, you guessed추측 된 right. She did.
22
81640
2776
맞습니다. 여러분이 생각하신 대로
캐일라에게는 그런 친구가 있어요.
01:36
In order주문 to play놀이 with CaylaCayla,
23
84440
2096
캐일라와 놀기 위해서는
앱을 다운받아야 합니다.
01:38
you need to download다운로드 an app
to access접속하다 all her features풍모.
24
86560
3000
그래야 캐일라의 기능에
접근할 수 있죠.
01:42
Parents부모님 must절대로 필요한 것 consent동의 to the terms자귀
being존재 changed변경된 without없이 notice주의.
25
90280
3840
부모들은 약관이 바뀐 것을 모른 채
약관에 동의하게 됩니다.
01:47
The recordings녹음 of the child어린이,
her friends친구 and family가족,
26
95280
3776
아이와 캐일라의 친구, 가족들의 기록은
표적 광고에 사용될 수 있습니다.
01:51
can be used for targeted목표로 삼은 advertising광고하는.
27
99080
1960
01:54
And all this information정보 can be shared공유 된
with unnamed이름이없는 third제삼 parties파티.
28
102080
4960
또한 이 모든 정보들은
이름 모를 제 3자와 공유되기도 하죠.
01:59
Enough충분히? Not quite아주.
29
107760
2120
이게 끝이 아닙니다.
02:02
Anyone누군가 with a smartphone스마트 폰
can connect잇다 to CaylaCayla
30
110880
4296
스마트폰을 사용하는 사람들은
일정 거리 안에서
캐일라에게 연결할 수 있어요.
02:07
within이내에 a certain어떤 distance거리.
31
115200
1600
02:09
When we confronted마주 친 the company회사
that made만든 and programmed프로그래밍 된 CaylaCayla,
32
117560
4576
캐일라를 만들고 프로그래밍한
회사에 항의했을 때
02:14
they issued발행 된 a series시리즈 of statements성명
33
122160
2256
그들은 IT 전문가만이
캐일라의 보안을 뚫을 수 있다는
02:16
that one had to be an IT expert전문가
in order주문 to breach위반 the security보안.
34
124440
4120
일련의 성명서를 발표했습니다.
02:22
Shall하여야 한다 we fact-check사실 확인 that statement성명서
and live살고 있다 hack마구 자르기 CaylaCayla together함께?
35
130039
3921
그 진실을 확인하기 위해
함께 캐일라를 해킹해 볼까요?
02:29
Here she is.
36
137920
1200
여기 캐일라가 있습니다.
02:32
CaylaCayla is equipped갖추어 준 with a Bluetooth블루투스 device장치
37
140200
3376
캐일라는 블루투스 기능을
탑재하고 있죠.
02:35
which어느 can transmit부치다 up to 60 feet피트,
38
143600
2216
이 기능으로 최대 60피트(약 18m)까지
신호를 보낼 수 있어요.
02:37
a bit비트 less적게 if there's a wall between중에서.
39
145840
2616
만약 그 사이에 벽이 있다면
도달 거리가 더 짧아지겠죠.
02:40
That means방법 I, or any stranger낯선 사람,
can connect잇다 to the doll인형
40
148480
5296
이는 즉 캐일라와 캐일라의 친구들이
방 밖에서 놀고 있을 때
02:45
while being존재 outside외부 the room
where CaylaCayla and her friends친구 are.
41
153800
3736
저 또는 다른 사람이 캐일라에
접속할 수 있다는 것을 의미합니다.
02:49
And to illustrate설명하다 this,
42
157560
2176
이를 설명하기 위해
02:51
I'm going to turn회전 CaylaCayla on now.
43
159760
2136
한번 캐일라를 켜 볼게요.
02:53
Let's see, one, two, three.
44
161920
1800
어디보자... 하나, 둘, 셋.
02:57
There. She's on. And I asked물었다 a colleague동료
45
165040
1976
아, 이제 켜졌네요.
지금 제 동료에게 밖에서
스마트폰으로 연결해 달라고 부탁했어요.
02:59
to stand outside외부 with his smartphone스마트 폰,
46
167040
2096
03:01
and he's connected연결된,
47
169160
1240
03:03
and to make this a bit비트 creepierCreepier ...
48
171320
2096
그리고 상황을 좀 더
오싹하게 만들기 위해...
03:05
(Laughter웃음)
49
173440
4056
(웃음)
03:09
let's see what kids아이들 could hear듣다 CaylaCayla say
in the safety안전 of their그들의 room.
50
177520
4920
한번 아이들이 안전한 방 안에서
캐일라가 하는 말을
들을 수 있는지 확인해 볼 거예요.
03:15
Man: Hi안녕. My name이름 is CaylaCayla. What is yours당신 것?
51
183920
2896
안녕. 나는 캐일라야.
네 이름은 뭐니?
03:18
Finn핀 사람 Myrstad미르 스타드: Uh, Finn핀 사람.
52
186840
1320
핀이야.
03:20
Man: Is your mom엄마 close닫기 by?
53
188960
1296
엄마가 옆에 계시니?
03:22
FMFM: Uh, no, she's in the store저장.
54
190280
1480
아니. 지금 가계에 계셔.
03:24
Man: Ah아 ~. Do you want
to come out and play놀이 with me?
55
192680
2376
그러면 나랑 밖에서 놀래?
03:27
FMFM: That's a great idea생각.
56
195080
1480
그래. 좋은 생각이야.
03:29
Man: Ah아 ~, great.
57
197720
1200
좋아.
03:32
FMFM: I'm going to turn회전 CaylaCayla off now.
58
200480
2136
이제 캐일라를 끄겠습니다.
03:34
(Laughter웃음)
59
202640
1200
(웃음)
03:39
We needed필요한 no password암호
60
207080
2736
이렇게 해킹을 하는 데
비밀번호가 필요하다거나
03:41
or to circumvent우회하다 any other
type유형 of security보안 to do this.
61
209840
3560
보안을 우회해야 할 필요는 없었어요.
03:46
We published출판 된 a report보고서
in 20 countries국가 around the world세계,
62
214440
3816
우리는 세계의 20개국에
이 중대한 보안상의 결함과
03:50
exposing노출 this significant중요한 security보안 flaw결점
63
218280
2976
그 밖의 다른 중대한 문제들에 대한
보고서를 발표했습니다.
03:53
and many많은 other problematic문제가있는 issues문제.
64
221280
1760
03:56
So what happened일어난?
65
224000
1240
그러자 어떤 일이 발생했을까요?
03:57
CaylaCayla was banned금지 된 in Germany독일,
66
225840
1640
캐일라는 독일에서
판매금지 처분이 되었고
04:00
taken취한 off the shelves선반
by Amazon아마존 and Wal-Mart월마트,
67
228480
3216
아마존이나 월마트에서도
판매 중지되었습니다.
04:03
and she's now peacefully평화롭게 resting쉬고있는
68
231720
3056
그리고 캐일라는 현재
04:06
at the German독일 사람 Spy스파이 Museum박물관 in Berlin베를린.
69
234800
3456
독일의 스파이 박물관에서
편히 쉬고 있죠.
04:10
(Laughter웃음)
70
238280
2776
(웃음)
04:13
However하나, CaylaCayla was also또한 for sale판매
in stores백화점 around the world세계
71
241080
4296
하지만 우리가 이와 같은
보고서를 발표한 뒤에도
04:17
for more than a year
after we published출판 된 our report보고서.
72
245400
3576
캐일라는 다른 국가의 매장에서
1년 이상 판매되었습니다.
04:21
What we uncovered폭로 된 is that
there are few조금 rules규칙들 to protect보호 us
73
249000
4256
다음과 같은 사실을 밝혀냈습니다.
우리의 정보를 지켜주는
규칙은 정말 적으며
04:25
and the ones그들 we have
are not being존재 properly정확히 enforced강요된.
74
253280
3360
그 마저도 우리를 보호하기에
적절하지 않다는 것입니다.
04:30
We need to get the security보안
and privacy은둔 of these devices장치들 right
75
258000
3856
이런 기계들이 시장에서
판매되기 전에 이런 기계의
04:33
before they enter들어가다 the market시장,
76
261880
2856
보안과 개인 정보 보호 권리를
획득해야 합니다.
04:36
because what is the point포인트
of locking잠금 a house with a key
77
264760
3976
만약 연결된 기기를 통해
집 안에 아무나 들어올 수 있다면
04:40
if anyone누군가 can enter들어가다 it
through...을 통하여 a connected연결된 device장치?
78
268760
2920
집 문을 열쇠로 잠그는 것은
소용 없기 때문이죠.
04:45
You may할 수있다 well think,
"This will not happen우연히 있다 to me.
79
273640
3296
여러분은 아마도 이런 일이
자신에게 발생하지 않을 거라고 생각하며
04:48
I will just stay머무르다 away
from these flawed결함이있는 devices장치들."
80
276960
2600
이런 문제가 있는 기기만 사용하지
않으면 된다고 생각할 수도 있어요.
04:52
But that won't습관 keep you safe안전한,
81
280600
2056
하지만 그렇다고 해서
완전하게 보호받을 수는 없습니다.
04:54
because simply간단히 by
connecting연결 to the internet인터넷,
82
282680
3176
인터넷에 연결하기만 해도
04:57
you are put in an impossible불가능한
take-it-or-leave-it가져 가든지 남겨 두든지 position위치.
83
285880
4576
여러분의 개인 정보는
노출에 취약한 상태가 되니까요.
05:02
Let me show보여 주다 you.
84
290480
1200
더 자세히 설명해 드릴게요.
05:04
Like most가장 of you,
I have dozens수십 of apps on my phone전화,
85
292400
3096
많은 분들과 마찬가지로 제 핸드폰에도
수십 개의 앱이 있습니다.
05:07
and used properly정확히,
they can make our lives easier더 쉬운,
86
295520
2856
이 앱을 적절히 사용하면
우리의 삶을 쉽고 편리하며
심지어 건강하게 할 수도 있습니다.
05:10
more convenient편리한 and maybe even healthier더 건강한.
87
298400
2440
05:13
But have we been lulled달궈진
into a false그릇된 sense감각 of security보안?
88
301960
3520
하지만 우리가 거짓된 안도감에
길들여진 적이 있을까요?
05:18
It starts시작하다 simply간단히 by ticking두색 이상의 줄무늬 a box상자.
89
306600
2440
이것은 우리가 네모칸 안에
체크를 하는 순간 시작됩니다.
05:21
Yes, we say,
90
309880
1776
맞아요.
다들 이러한 조항에 대해
읽어본 적이 있을 거예요.
05:23
I've read독서 the terms자귀.
91
311680
1440
05:27
But have you really read독서 the terms자귀?
92
315240
3040
하지만 정말 약관을
자세히 읽어 본 적이 있나요?
05:31
Are you sure they didn't look too long
93
319200
2296
약관이 그렇게
길지 않았다고 확신하나요?
05:33
and your phone전화 was running달리는 out of battery배터리,
94
321520
2056
약관을 읽다가
핸드폰 배터리가 다 닳아버리거나
05:35
and the last time you tried시도한
they were impossible불가능한 to understand알다,
95
323600
3216
약관을 읽어보려 했을 때
이해할 수 없었으며
05:38
and you needed필요한 to use the service서비스 now?
96
326840
1840
서비스를 지금 당장
사용해야 할 때가 있지 않았나요?
05:41
And now, the power
imbalance불균형 is established설립 된,
97
329840
3656
현재, 힘의 불균형이 확립되었습니다.
05:45
because we have agreed동의했다
to our personal개인적인 information정보
98
333520
3656
우리는 회사가 개인 정보를 수집하고
05:49
being존재 gathered모은 and used
on a scale규모 we could never imagine상상하다.
99
337200
3120
맘대로 이용할 수 있도록
동의해왔기 때문입니다.
05:53
This is why my colleagues동료들 and I
decided결정적인 to take a deeper더 깊은 look at this.
100
341640
3696
이러한 이유로 저와 제 동료는
이 문제를 더 깊게
파헤쳐 보기로 했습니다.
05:57
We set세트 out to read독서 the terms자귀
101
345360
3336
일반적인 핸드폰에 설치되어 있는
유명한 앱들의 약관을 읽어보기로 했습니다.
06:00
of popular인기 있는 apps on an average평균 phone전화.
102
348720
2696
06:03
And to show보여 주다 the world세계
how unrealistic비현실적인 it is
103
351440
3736
그리고 소비자들이 실제로
약관을 읽을 것이라고 기대하는 것이
06:07
to expect배고 있다 consumers소비자
to actually사실은 read독서 the terms자귀,
104
355200
3216
얼마나 비현실적인지 세계에 알리기 위해
06:10
we printed인쇄 된 them,
105
358440
1496
900쪽 이상 분량의 약관을 인쇄하여
06:11
more than 900 pages페이지들,
106
359960
1840
06:14
and sat앉은 down in our office사무실
and read독서 them out loud화려한 ourselves우리 스스로,
107
362800
3600
사무실에서 크게 읽기 시작했습니다.
06:19
streaming스트리밍 the experiment실험
live살고 있다 on our websites웹 사이트.
108
367800
2536
이 실험은 우리 웹사이트에서
실시간으로 중계되었죠.
06:22
As you can see, it took~했다 quite아주 a long time.
109
370360
2536
보시다시피 약관을 다 읽는 데는
꽤 오랜 시간이 걸렸습니다.
06:24
It took~했다 us 31 hours시간,
49 minutes의사록 and 11 seconds
110
372920
4416
약 31시간 49분 11초가
걸렸습니다.
06:29
to read독서 the terms자귀 on an average평균 phone전화.
111
377360
2576
보통 핸드폰에 있는 약관을
모두 읽는 데요.
06:31
That is longer더 길게 than a movie영화 marathon마라톤
of the "Harry괴롭히다 Potter도공" movies영화 산업
112
379960
4376
이는 영화 "해리 포터"와 "대부"의
상영시간을 합친 것보다 더 길었습니다.
06:36
and the "Godfather대부" movies영화 산업 combined결합 된.
113
384360
2496
06:38
(Laughter웃음)
114
386880
1400
(웃음)
06:41
And reading독서 is one thing.
115
389600
1936
글을 읽는 것와 이해하는 것은
별개의 문제라고 생각합니다.
06:43
Understanding이해 is another다른 story이야기.
116
391560
1976
06:45
That would have taken취한 us
much, much longer더 길게.
117
393560
3576
이해하는 것은
더 많은 시간이 소요되죠.
06:49
And this is a real레알 problem문제,
118
397160
1776
이것은 정말 중요한 문제입니다.
06:50
because companies회사들 have argued논쟁하는
for 20 to 30 years연령
119
398960
3216
기업들은 인터넷 규제에 반대해서
20년, 30년 동안 논쟁해왔으며
06:54
against반대 regulating규제하는 the internet인터넷 better,
120
402200
3056
사용자들은 조항과 약관에
동의해야 하기 때문입니다.
06:57
because users사용자 have consented동의 한
to the terms자귀 and conditions정황.
121
405280
3160
07:02
As we've우리는 shown표시된 with this experiment실험,
122
410520
1976
이 실험을 통해 보여드린 것처럼
07:04
achieving달성 informed정보를 얻은 consent동의
is close닫기 to impossible불가능한.
123
412520
2880
사전에 고지된 동의를 얻는 것은
거의 불가능한 일입니다.
07:09
Do you think it's fair공정한 to put the burden부담
of responsibility책임 on the consumer소비자?
124
417080
3524
고객들에게 책임 부담을 지우는 게
공정하다고 생각하시나요?
07:14
I don't.
125
422000
1736
저는 그렇게 생각하지 않습니다.
07:15
I think we should demand수요
less적게 take-it-or-leave-it가져 가든지 남겨 두든지
126
423760
3096
회사가 고객들에게
책임을 전가하기 보다는
사용자들이 약관에 동의하기 전에
07:18
and more understandable이해할 수 있는 terms자귀
before we agree동의하다 to them.
127
426880
3176
약관을 이해하기 쉽도록
만들어야 한다고 생각합니다.
07:22
(Applause박수 갈채)
128
430080
1536
(박수)
07:23
Thank you.
129
431640
1200
감사합니다.
07:28
Now, I would like to tell you
a story이야기 about love.
130
436200
4880
이제 여러분들께
사랑에 관한 얘기를 해드릴 거예요.
07:34
Some of the world's세계의
most가장 popular인기 있는 apps are dating데이트 apps,
131
442080
3536
세계적으로 인기가 많은 앱들 중에는
소개팅 앱이 있습니다.
07:37
an industry산업 now worth가치 more than,
or close닫기 to, three billion십억 dollars불화 a year.
132
445640
4640
이 산업은 현재 매년
30억 달러에 달하는
가치를 창출하고 있죠.
07:43
And of course코스, we're OK
sharing나누는 our intimate친밀한 details세부
133
451160
4176
물론 제 짝과 은밀한 내용을
나누는 건 괜찮죠.
07:47
with our other half절반.
134
455360
1240
07:49
But who else그밖에 is snooping스누핑,
135
457240
1976
하지만 우리 자신을 노출하는 동안
07:51
saving절약 and sharing나누는 our information정보
136
459240
2936
누군가는 우리 정보를 염탐하고
07:54
while we are baring배킹 our souls?
137
462200
1640
저장하고 공유하고 있습니다.
07:56
My team and I decided결정적인 to investigate파다 this.
138
464520
2200
우리 팀과 저는 이에 대해
조사하기로 했죠.
08:00
And in order주문 to understand알다
the issue발행물 from all angles각도
139
468920
3016
이 문제를 다양한 각도에서 이해하고
이 일을 철저하게 수행하기 위해
08:03
and to truly진실로 do a thorough철저한 job,
140
471960
2240
08:07
I realized깨달은 I had to download다운로드
141
475400
1976
세계에서 가장 인기있는 소개팅 앱을
08:09
one of the world's세계의
most가장 popular인기 있는 dating데이트 apps myself자기.
142
477400
3440
제 핸드폰에 설치해야
한다는 것을 꺠달았습니다.
08:14
So I went갔다 home to my wife아내 ...
143
482440
2296
그래서 집에 가서 제 아내에게
08:16
(Laughter웃음)
144
484760
1936
(웃음)
08:18
who I had just married기혼.
145
486720
1656
막 결혼한 사이였죠.
08:20
"Is it OK if I establish세우다 a profile윤곽
on a very popular인기 있는 dating데이트 app
146
488400
4616
"아주 인기 있는 소개팅 앱에
내 프로필을 올려도 될까
순전히 과학적인 목적인데?"
08:25
for purely전혀 scientific과학적 purposes목적?"
147
493040
1896
08:26
(Laughter웃음)
148
494960
1856
(웃음)
08:28
This is what we found녹이다.
149
496840
1496
이런 것을 찾았습니다.
08:30
Hidden숨겨진 behind뒤에 the main본관 menu메뉴
was a preticked사전 쳤 습니다 box상자
150
498360
3976
메인 메뉴 뒤에 숨어있던 것은
미리 체크되어 있던 네모 상자였습니다.
08:34
that gave the dating데이트 company회사 access접속하다
to all my personal개인적인 pictures영화 on Facebook페이스 북,
151
502360
6056
소개팅 어플 회사에게
제 페이스북에 있는
모든 사진들에 대한
접근권한을 주는 것이었죠.
08:40
in my case케이스 more than 2,000 of them,
152
508440
2856
제 페이스북 계정에는
2천 개 이상의 사진이 있었고
08:43
and some were quite아주 personal개인적인.
153
511320
2120
그 중에는 굉장히 개인적인
사진들도 많았습니다.
08:46
And to make matters사안 worse보다 나쁜,
154
514400
2216
이뿐만이 아니었습니다.
08:48
when we read독서 the terms자귀 and conditions정황,
155
516640
2056
약관 및 조항을 읽을 때
다음과 같은 것을 발견했습니다.
08:50
we discovered발견 된 the following수행원,
156
518720
1376
08:52
and I'm going to need to take out
my reading독서 glasses안경 for this one.
157
520120
3120
이걸 여러분들에게 읽어드리기 위해
제 독서용 안경을 꺼내들어야 겠네요.
08:56
And I'm going to read독서 it for you,
because this is complicated복잡한.
158
524400
2936
한번 읽어 보겠습니다.
아주 복잡한 내용입니다.
08:59
All right.
159
527360
1200
시작해 볼게요.
09:01
"By posting전기 content함유량" --
160
529440
1536
“콘텐츠를 게시하면”
09:03
and content함유량 refers언급하다 to your pictures영화, chat잡담
161
531000
1976
여기서 콘텐츠란 여러분의 사진이나
09:05
and other interactions상호 작용
in the dating데이트 service서비스 --
162
533000
2216
앱을 이용하며 다른 사람과
대화했던 내용을 의미합니다.
09:07
"as a part부품 of the service서비스,
163
535240
1256
“서비스의 일부로서,
09:08
you automatically자동으로 grant부여 to the company회사,
164
536520
1976
사용자는 자동으로 회사와
계열사, 라이센스 사용자 및 후임자에게
09:10
its affiliates제휴사, licensees면허 소지자 and successors후계자
165
538520
2176
취소 불능을 허가합니다.”
09:12
an irrevocable취소 할 수없는" -- which어느 means방법
you can't change변화 your mind마음 --
166
540720
3616
이는 여러분이 허락한 것을
취소할 수 없다는 것을 의미하죠.
09:16
"perpetual부단한" -- which어느 means방법 forever영원히 --
167
544360
2776
“영구적으로” 이는
영원하다는 것을 의미하고
09:19
"nonexclusive비독점적, transferrable이동 가능한,
sublicensable이차, fully충분히 paid-up결제 완료,
168
547160
2896
“비독점적이고, 양도 가능하며,
2차 가공 허가 및 전액 납입된,
09:22
worldwide세계적인 right and license특허
to use, copy, store저장, perform행하다,
169
550080
2696
전 세계적인 권리 및
라이센스를 콘텐츠를
사용, 복사, 저장,
실행, 표시, 재생산,
09:24
display디스플레이, reproduce낳다, record기록,
170
552800
1336
기록, 재생, 개조,
수정 및 배포하기 위해
09:26
play놀이, adapt개조 하다, modify수정하다
and distribute배포하다 the content함유량,
171
554160
2216
콘텐츠의 파생 저작물을 준비하거나
09:28
prepare준비하다 derivative유도체 works공장 of the content함유량,
172
556400
1936
09:30
or incorporate통합하다 the content함유량
into other works공장
173
558360
2016
다른 저작물에 콘텐츠를 통합하고
09:32
and grant부여 and authorize권한을 부여 sublicenses양도
of the foregoing전술한 in any media미디어
174
560400
3056
현재 알려지거나
이후에 작성되는 모든 미디어에서
이전 저작물의 라이선스를
부여하고 승인합니다.”
09:35
now known알려진 or hereafter여기서 created만들어진."
175
563480
1560
09:40
That basically원래 means방법
that all your dating데이트 history역사
176
568640
3816
이는 여러분의 모든 소개팅 기록 및
그와 관련된 모든 것들이
09:44
and everything related관련 to it
can be used for any purpose목적 for all time.
177
572480
5080
항상 어떤 목적으로든
사용될 수 있다는 것을 의미합니다.
09:50
Just imagine상상하다 your children어린이
seeing your sassy가슴 아프다 dating데이트 photos사진들
178
578520
4976
여러분의 자녀가
20년 후 피임 광고에서
여러분이 소개팅 어플에 올린
09:55
in a birth출생 control제어 ad광고 20 years연령 from now.
179
583520
2560
멋진 사진을 보았다고 상상해 보세요.
10:00
But seriously진지하게, though그래도 --
180
588400
1216
다시 본론으로 돌아가서...
10:01
(Laughter웃음)
181
589640
1600
(웃음)
10:04
what might these commercial상업적
practices관행 mean to you?
182
592880
2360
이 상업적 관행이 여러분들에게
의미하는 것은 무엇인가요?
10:08
For example, financial재정적 인 loss손실:
183
596320
2240
이 관행은 경제적 손실을
가져다 줄 수도 있습니다.
10:11
based기반 on your web편물 browsing브라우징 history역사,
184
599480
1696
여러분의 웹 검색 기록에
기반한 알고리즘은
10:13
algorithms알고리즘 might decide결정하다
whether인지 어떤지 you will get a mortgage저당 or not.
185
601200
2960
이후에 대출을 받을 것인지
아닌지를 결정할 수 있습니다.
10:16
Subconscious잠재 의식 manipulation시장 조작:
186
604840
1480
여러분의 잠재의식을
조정할 수도 있어요.
10:19
companies회사들 can analyze분석하다 your emotions감정
based기반 on your photos사진들 and chats채팅,
187
607560
3696
회사들은 여러분의 사진 또는
채팅 내역을 기반으로
여러분의 감정을 분석하여
10:23
targeting타겟팅 you with ads광고들
when you are at your most가장 vulnerable취약.
188
611280
3256
여러분이 가장 취약한 상태에 있을 때
표적 광고 대상으로 이용합니다.
10:26
Discrimination차별:
189
614560
1496
차별을 받을 수도 있습니다.
10:28
a fitness적합 app can sell팔다 your data데이터
to a health건강 insurance보험 company회사,
190
616080
3016
피트니스 앱은 여러분의 정보를
건강 보험 회사에 팔아
10:31
preventing예방 you from getting점점
coverage적용 범위 in the future미래.
191
619120
3056
미래에 보험에 가입하지
못하도록 할 수도 있어요.
10:34
All of this is happening사고
in the world세계 today오늘.
192
622200
2520
이런 일들은 전 세계에서
지금도 발생하고 있습니다.
10:37
But of course코스, not all uses용도
of data데이터 are malign유해한.
193
625800
3336
하지만 물론 모든 정보들이
악의적으로 사용되지는 않습니다.
10:41
Some are just flawed결함이있는 or need more work,
194
629160
1976
일부는 결함이 있고
보완할 필요성이 있지만
10:43
and some are truly진실로 great.
195
631160
1520
좋은 점도 있어요.
10:47
And there is some good news뉴스 as well.
196
635560
3696
그리고 희소식도 있습니다.
10:51
The dating데이트 companies회사들
changed변경된 their그들의 policies정책들 globally전 세계적으로
197
639280
3296
우리가 소개팅 어플 회사에
법적 소송을 제기한 뒤
이 회사는 자사의 정책을
세계적으로 바꾸었거든요.
10:54
after we filed줄로 자르는 a legal적법한 complaint불평.
198
642600
1680
10:57
But organizations조직 such이러한 as mine광산
199
645720
2696
하지만 제가 다니는 기관처럼
고객들의 권리를 위해
11:00
that fight싸움 for consumers'소비자 ' rights진상
can't be everywhere어디에나.
200
648440
2976
싸우는 기관들은 그리 많지 않습니다.
11:03
Nor도 아니다 can consumers소비자 fix고치다 this on their그들의 own개인적인,
201
651440
2536
또한 고객들은 이 문제를
스스로 해결할 수 없죠.
11:06
because if we know
that something innocent순진한 we said
202
654000
3576
만약 우리가 무결하다고 말한 어떤 것이
다시 돌아와 우리를
해친다는 것을 알았을 때
11:09
will come back to haunt나타나다 us,
203
657600
1456
11:11
we will stop speaking말하기.
204
659080
1896
사람들은 말하기를
멈출 것이기 때문이죠.
11:13
If we know that we are being존재
watched보았다 and monitored감시하다,
205
661000
3376
만약 우리가 감시당한다는 것을 안다면
11:16
we will change변화 our behavior행동.
206
664400
2096
우리는 행동을 바꿀 것이기 때문입니다.
11:18
And if we can't control제어 who has our data데이터
and how it is being존재 used,
207
666520
3896
또한 우리 정보를 사용하는 사람과
이것이 사용되는 방법을
통제하지 못한다면
우리 삶의 통제권을
잃게 되기 때문입니다.
11:22
we have lost잃어버린 the control제어 of our lives.
208
670440
1840
11:26
The stories이야기 I have told you today오늘
are not random무작위의 examples예제들.
209
674400
3496
제가 오늘 말씀드린 얘기는
무작위로 발생하는 일이 아닙니다.
11:29
They are everywhere어디에나,
210
677920
1776
이런 일은 언제든지 발생할 수 있으며
11:31
and they are a sign기호
that things need to change변화.
211
679720
2856
바뀌어야 할 필요가 있다는
신호를 보내고 있어요.
11:34
And how can we achieve이루다 that change변화?
212
682600
2096
그렇다면 어떻게 변화를
만들 수 있을까요?
11:36
Well, companies회사들 need to realize깨닫다
that by prioritizing우선 순위 결정 privacy은둔 and security보안,
213
684720
5576
회사들은 개인 정보 및 보안을
우선순위에 놓음으로써 신뢰를 쌓고
11:42
they can build짓다 trust믿음
and loyalty충의 to their그들의 users사용자.
214
690320
2960
사용자의 충성도를 높일 수 있음을
깨달아야 할 필요가 있겠죠.
11:46
Governments정부 must절대로 필요한 것 create몹시 떠들어 대다 a safer더 안전한 internet인터넷
215
694520
3096
정부는 강제책 및 최신 규제를 강화하여
11:49
by ensuring보장 enforcement시행
and up-to-date최신 정보 rules규칙들.
216
697640
2880
더 안전한 인터넷 환경을
구축해야 합니다.
11:53
And us, the citizens시민?
217
701400
2216
그러면 우리 시민들은
어떻게 해야 할까요?
11:55
We can use our voice목소리
218
703640
1816
우리는 발언권을 써서
11:57
to remind생각 나게하다 the world세계 that technology과학 기술
can only truly진실로 benefit이익 society사회
219
705480
5096
기술이 기본권을 존중할 때에만
사회에 진정으로 효용을 줄 수 있음을
전 세계에 상기시켜야 합니다.
12:02
if it respects인사 basic기본 rights진상.
220
710600
2600
12:05
Thank you so much.
221
713720
1576
대단히 감사합니다.
12:07
(Applause박수 갈채)
222
715320
4080
(박수)
Translated by Minjeong Lee
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com