ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

브루스 슈나이어: 보안의 신기루

Filmed:
958,315 views

안전하다고 느끼는 것과 실제로 안전한 것은 다를 수 있다고 컴퓨터 보안 전문가 브루스 슈나이어는 말한다. 그는 우리가 뉴스에서 흔히 말하는 종류의 보안 리스크를 제거하기 위해, 예를들면 공항마다 "보안 연극"을 하며 수억불을 쓰는 한편 실제로 발생할 가능성이 높은 리스크는 등한시하고 있다고 설명하고 이런 사고방식을 고칠 수 있는 방법을 제시한다.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So security보안 is two different다른 things:
0
0
2000
보안에는 두가지가 있습니다:
00:17
it's a feeling감각, and it's a reality현실.
1
2000
2000
즉, 느낌과 현실이죠.
00:19
And they're different다른.
2
4000
2000
이 두가지는 매우 다릅니다.
00:21
You could feel secure안전한
3
6000
2000
우리는 사실은 안전하지 않을 때도
00:23
even if you're not.
4
8000
2000
안전하다고 느낄 수 있죠.
00:25
And you can be secure안전한
5
10000
2000
그 반면, 안전감을 못느끼더라도
00:27
even if you don't feel it.
6
12000
2000
실제는 안전할 수 있습니다.
00:29
Really, we have two separate갈라진 concepts개념들
7
14000
2000
사실 보안이라는 단어에는
00:31
mapped맵핑 된 onto~에 the same같은 word워드.
8
16000
2000
두개의 다른 개념이 담겨 있지요.
00:33
And what I want to do in this talk
9
18000
2000
저는 이 토크에서
00:35
is to split스플릿 them apart떨어져서 --
10
20000
2000
이 단어를 둘로 분리해서
00:37
figuring생각하다 out when they diverge분기하다
11
22000
2000
그들의 의미가 어떻게 다르며,
00:39
and how they converge모이다.
12
24000
2000
어떤때 그들의 의미가 같아 지는지 말씀드리겠습니다.
00:41
And language언어 is actually사실은 a problem문제 here.
13
26000
2000
사실 이건 언어 문제입니다.
00:43
There aren't있지 않다. a lot of good words
14
28000
2000
우리가 이야기 하려는 개념에 딱 맞는
00:45
for the concepts개념들 we're going to talk about.
15
30000
3000
좋은 단어들은 그리 많지 않습니다.
00:48
So if you look at security보안
16
33000
2000
경제적 용어로 말하자면
00:50
from economic간결한 terms자귀,
17
35000
2000
보안은 원하는 보안 수준과
00:52
it's a trade-off거래.
18
37000
2000
그것을 가지는데 필요한 경비를 말합니다.
00:54
Every마다 time you get some security보안,
19
39000
2000
일정한 수준의 보안을 가지려면
00:56
you're always trading거래 off something.
20
41000
2000
그것에 대한 어떤 대가를 치뤄야 하지요.
00:58
Whether인지 어떤지 this is a personal개인적인 decision결정 --
21
43000
2000
도난경보기를 설치하느냐 안하느냐와 같은
01:00
whether인지 어떤지 you're going to install설치하다 a burglar강도 alarm경보 in your home --
22
45000
2000
개인적인 결정이건,
01:02
or a national전국의 decision결정 -- where you're going to invade침략하다 some foreign외국의 country국가 --
23
47000
3000
외국을 쳐들어갈 것인가 같은 국가적 결정이건,
01:05
you're going to trade무역 off something,
24
50000
2000
우리는 돈이나 시간, 편리성,
01:07
either어느 한 쪽 money or time, convenience편의, capabilities능력,
25
52000
3000
군사력, 그리고 심지어는 근본적인 자유 같은 것을 위해
01:10
maybe fundamental기본적인 liberties특권.
26
55000
3000
어떤 대가를 치룹니다.
01:13
And the question문제 to ask청하다 when you look at a security보안 anything
27
58000
3000
그렇기 때문에 우리가 어떤 보안책을 원할때는
01:16
is not whether인지 어떤지 this makes~을 만든다 us safer더 안전한,
28
61000
3000
그것이 우리를 더 안전하게 만드느냐 보다는
01:19
but whether인지 어떤지 it's worth가치 the trade-off거래.
29
64000
3000
그 대가를 지불할 가치가 있는가를 생각해야 합니다.
01:22
You've heard들었던 in the past과거 several수개 years연령,
30
67000
2000
우리는 사담 후세인이 더 이상 집권하지 않기 때문에
01:24
the world세계 is safer더 안전한 because Saddam사담 후세인 Hussein후세인 is not in power.
31
69000
2000
세계가 더 안전해 졌다는 말을 지난 몇해동안 듣고 있지요.
01:26
That might be true참된, but it's not terribly몹시 relevant관련된.
32
71000
3000
그건 그럴지도 모르지만 사실 그것은 별로 무관한 말입니다.
01:29
The question문제 is, was it worth가치 it?
33
74000
3000
우리가 물어야할 질문은 우리가 지불한 가치가 있었냐는 것이죠.
01:32
And you can make your own개인적인 decision결정,
34
77000
3000
그리고 난 후 이락을 침략할 가치가 있었는지를
01:35
and then you'll decide결정하다 whether인지 어떤지 the invasion침입 was worth가치 it.
35
80000
2000
우리 스스로가 판단을 내려야 합니다.
01:37
That's how you think about security보안 --
36
82000
2000
보안도 그렇게
01:39
in terms자귀 of the trade-off거래.
37
84000
2000
비용편익 측면에서 생각해야 합니다.
01:41
Now there's often자주 no right or wrong잘못된 here.
38
86000
3000
이것은 종종 옳고 그른 문제가 아니죠.
01:44
Some of us have a burglar강도 alarm경보 system체계 at home,
39
89000
2000
어떤 사람은 집에 도난경보기를 설치하고
01:46
and some of us don't.
40
91000
2000
어떤사람은 설치하지 않죠.
01:48
And it'll그것은 depend의존하다 on where we live살고 있다,
41
93000
2000
그것은 우리가 어디에 살고 있는지,
01:50
whether인지 어떤지 we live살고 있다 alone혼자 or have a family가족,
42
95000
2000
혼자 사는지 또는 가족이 있는지,
01:52
how much cool시원한 stuff물건 we have,
43
97000
2000
좋은 물건을 얼마나 가지고 있는지,
01:54
how much we're willing자발적인 to accept받아 들인다
44
99000
2000
그리고 도둑을 맞을 가능성이 얼마나 된다고
01:56
the risk위험 of theft훔침.
45
101000
2000
생각하는지에 달려있지요.
01:58
In politics정치 also또한,
46
103000
2000
정치에도 또한
02:00
there are different다른 opinions의견.
47
105000
2000
다양한 의견들이 있습니다.
02:02
A lot of times타임스, these trade-offs절충점
48
107000
2000
대부분의 경우, 비용편익 분석을 할 때
02:04
are about more than just security보안,
49
109000
2000
보안문제만 고려하지는 않는데 저는 이것이
02:06
and I think that's really important중대한.
50
111000
2000
매우 중요하다고 생각합니다.
02:08
Now people have a natural자연스러운 intuition직관
51
113000
2000
우리는 비용편익 분석을 할 때
02:10
about these trade-offs절충점.
52
115000
2000
직관적으로 선호하는 것이 각각 다릅니다.
02:12
We make them every...마다 day --
53
117000
2000
우리는 직관적인 결정을 매일 내리지요 --
02:14
last night in my hotel호텔 room,
54
119000
2000
우리는 호텔방의 문을
02:16
when I decided결정적인 to double-lock이중 잠금 장치 the door,
55
121000
2000
이중으로 잠글것인지를 결정하거나,
02:18
or you in your car when you drove운전했다 here,
56
123000
2000
오늘 여기로 올때 차를 타고 올 것인가를 결정하거나,
02:20
when we go eat먹다 lunch점심
57
125000
2000
또는 점심을 먹을때 독이 아니니까 먹자는 결정 등을 내릴때
02:22
and decide결정하다 the food's음식의 not poison and we'll eat먹다 it.
58
127000
3000
비용편익에 의거한 가치판단을 내립니다.
02:25
We make these trade-offs절충점 again and again,
59
130000
2000
우리는 이와같은 비용편익 분석을 통한
02:27
multiple배수 times타임스 a day.
60
132000
2000
가치판단을 하루에도 몇번씩 내립니다.
02:29
We often자주 won't습관 even notice주의 them.
61
134000
2000
우리는 이런 것을 무의식중에 실행하지요
02:31
They're just part부품 of being존재 alive살아 있는; we all do it.
62
136000
2000
우리는 살아있는 한 계속 이런 선택을 내리죠.
02:33
Every마다 species does it.
63
138000
3000
이건 모든 동물이 다 하는 일입니다.
02:36
Imagine상상해 보라. a rabbit토끼 in a field, eating먹기 grass잔디,
64
141000
2000
토끼가 들판에서 풀을 먹고 있다고 상상해 보세요.
02:38
and the rabbit's토끼의 going to see a fox여우.
65
143000
3000
토끼가 여우를 봅니다.
02:41
That rabbit토끼 will make a security보안 trade-off거래:
66
146000
2000
토끼는 이제 보안 비용편익 분석에 의거한 결정을 내립니다.
02:43
"Should I stay머무르다, or should I flee서두르다?"
67
148000
2000
"여기 머무를까, 도망갈까?"
02:45
And if you think about it,
68
150000
2000
이제 생각해보죠,
02:47
the rabbits토끼 that are good at making만들기 that trade-off거래
69
152000
3000
옳은 결정을 내린 토끼는 살아남아서
02:50
will tend지키다 to live살고 있다 and reproduce낳다,
70
155000
2000
자손을 남길 것이고
02:52
and the rabbits토끼 that are bad나쁜 at it
71
157000
2000
그렇지 못한 토끼는 잡아먹히거나
02:54
will get eaten먹은 or starve굶어 죽다.
72
159000
2000
굶어 죽어 버리겠죠.
02:56
So you'd당신은 think
73
161000
2000
지구상에서 가장
02:58
that us, as a successful성공한 species on the planet행성 --
74
163000
3000
성공적인 동물인
03:01
you, me, everybody각자 모두 --
75
166000
2000
여러분과 저와 우리 모두는,
03:03
would be really good at making만들기 these trade-offs절충점.
76
168000
3000
이런 결정에 아주 능숙하다고 생각할지 모릅니다.
03:06
Yet아직 it seems~ 같다, again and again,
77
171000
2000
그러나 우리는
03:08
that we're hopelessly희망없이 bad나쁜 at it.
78
173000
3000
그런 결정을 내리는데 아주 서투릅니다.
03:11
And I think that's a fundamentally근본적으로 interesting재미있는 question문제.
79
176000
3000
이건 근본적으로 아주 흥미있는 점이지요.
03:14
I'll give you the short짧은 answer대답.
80
179000
2000
우리가 이런 결정을 내리는데 서투른 이유는 간단하죠.
03:16
The answer대답 is, we respond응창 성가 to the feeling감각 of security보안
81
181000
2000
즉, 우리는 현실 자체에 대응하지 않고
03:18
and not the reality현실.
82
183000
3000
안전하냐 또는 안전하지 않냐는 느낌에 대응하기 때문이죠.
03:21
Now most가장 of the time, that works공장.
83
186000
3000
대부분의 경우 이 방식은 별 문제가 되지 않습니다.
03:25
Most가장 of the time,
84
190000
2000
왜냐하면, 대부분의 경우
03:27
feeling감각 and reality현실 are the same같은.
85
192000
3000
느낌과 실제가 일치하니까요.
03:30
Certainly확실히 that's true참된
86
195000
2000
선사시대 때 부터
03:32
for most가장 of human인간의 prehistory선사 시대.
87
197000
3000
그랬으니까요.
03:35
We've우리는 developed개발 된 this ability능력
88
200000
3000
이런 방식은 진화적으로 유리했기 때문에
03:38
because it makes~을 만든다 evolutionary진화의 sense감각.
89
203000
2000
우리는 이 능력을 발달시켰죠.
03:40
One way to think of it
90
205000
2000
어떻게 보면 우리의 위험분석 기능은
03:42
is that we're highly고도로 optimized최적화 된
91
207000
2000
10만년 전에 우리가
03:44
for risk위험 decisions결정들
92
209000
2000
동아프리카의 고원지대에서
03:46
that are endemic풍토병 to living생활 in small작은 family가족 groups여러 떼
93
211000
3000
소규모 가족단위로 살던 당시의 상황에 맞게
03:49
in the East동쪽 African아프리카 사람 highlands고원 in 100,000 B.C.
94
214000
3000
최적화 됐다고 생각할 수도 있습니다.
03:52
2010 New새로운 York요크, not so much.
95
217000
3000
2010년의 뉴욕은 완전히 상황이 다르죠.
03:56
Now there are several수개 biases편향 in risk위험 perception지각.
96
221000
3000
위험을 인식 할 때는 여러 편견이 작용합니다.
03:59
A lot of good experiments실험 in this.
97
224000
2000
이것에 대한 좋은 실험이 많이 실시됐는데
04:01
And you can see certain어떤 biases편향 that come up again and again.
98
226000
3000
일부 특정된 편견들이 여러 실험 결과에 계속 나타났습니다.
04:04
So I'll give you four.
99
229000
2000
네 가지 예를 보여드리죠.
04:06
We tend지키다 to exaggerate과장하다 spectacular장관의 and rare드문 risks위험
100
231000
3000
우리는 드물고 장대한 위험은 과장하고
04:09
and downplay과소 평가하다 common공유지 risks위험 --
101
234000
2000
흔한 위험은 경시하는 경향이 있습니다.
04:11
so flying나는 versus driving운전.
102
236000
3000
비행과 운전이 그렇죠.
04:14
The unknown알 수 없는 is perceived감지 된
103
239000
2000
또한, 우리에게 친숙한것 보다는
04:16
to be riskier위험한 than the familiar익숙한.
104
241000
3000
우리가 모르는 것을 더 위험하게 인식합니다.
04:20
One example would be,
105
245000
2000
일례로, 사람들은
04:22
people fear무서움 kidnapping유괴 by strangers낯선 사람
106
247000
3000
낯선 사람에 의한 유아납치를 두려워하는데,
04:25
when the data데이터 supports지원 kidnapping유괴 by relatives친척 is much more common공유지.
107
250000
3000
통계적으로는, 지인에 의한 납치가 훨씬 더 빈번하죠.
04:28
This is for children어린이.
108
253000
2000
어린이의 경우에 그렇죠.
04:30
Third제삼, personified인격화 된 risks위험
109
255000
3000
세번째로, 특정된 사람에 대한 위험은
04:33
are perceived감지 된 to be greater더 큰 than anonymous익명의 risks위험 --
110
258000
3000
막연히 누군가에 대한 위험보다 더 크게 인식됩니다.
04:36
so Bin큰 상자 Laden짐을 실은 is scarier무서운 because he has a name이름.
111
261000
3000
그래서 빈 라덴 이라는 이름이 우리를 더 무섭게 합니다.
04:39
And the fourth네번째
112
264000
2000
네번째로,
04:41
is people underestimate싼 어림 risks위험
113
266000
2000
사람들은 그들이 통제하지 못하는
04:43
in situations상황 they do control제어
114
268000
2000
상황에서의 위험은 과대평가하고,
04:45
and overestimate과대 평가하다 them in situations상황 they don't control제어.
115
270000
4000
그들이 통제할 수 있는 상황의 위험은 과소평가 합니다.
04:49
So once일단 you take up skydiving스카이 다이빙 or smoking흡연,
116
274000
3000
그래서, 일단 스카이다이빙이나 흡연을 시작한 사람들은
04:52
you downplay과소 평가하다 the risks위험.
117
277000
2000
그 위험들을 경시하죠.
04:54
If a risk위험 is thrust추력 upon...에 you -- terrorism테러 was a good example --
118
279000
3000
예를들어 누가 테러 같은 것의 위험에 대해 묻는다면
04:57
you'll overplay과장된 it because you don't feel like it's in your control제어.
119
282000
3000
여러분은 어쩔 수 없다고 느끼기 때문에 더 위험하게 느낍니다.
05:02
There are a bunch다발 of other of these biases편향, these cognitive인지 적 biases편향,
120
287000
3000
이 외에도 수많은 인식적 편견들이 여러분의 위험 판단에
05:05
that affect감정 our risk위험 decisions결정들.
121
290000
3000
영향을 미칩니다.
05:08
There's the availability유효성 heuristic발견 적,
122
293000
2000
가용성 추단법이라는 용어가 있는데
05:10
which어느 basically원래 means방법
123
295000
2000
간단히 말해 그 의미는
05:12
we estimate견적 the probability개연성 of something
124
297000
3000
얼마나 쉽게 머리속에 상상할 수 있는가에 따라
05:15
by how easy쉬운 it is to bring가져오다 instances인스턴스 of it to mind마음.
125
300000
4000
그것의 확률을 추정한다는 것이죠.
05:19
So you can imagine상상하다 how that works공장.
126
304000
2000
예를들어 설명을 드리죠.
05:21
If you hear듣다 a lot about tiger호랑이 attacks공격, there must절대로 필요한 것 be a lot of tigers호랑이 around.
127
306000
3000
호랑이 습격 이야기를 많이 들으면, 주변에 호랑이가 많이 있다는 말이겠죠.
05:24
You don't hear듣다 about lion사자 attacks공격, there aren't있지 않다. a lot of lions사자 around.
128
309000
3000
사자가 공격하는 얘기를 못들었으면 사자가 많이 없을테고요.
05:27
This works공장 until...까지 you invent꾸미다 newspapers신문.
129
312000
3000
실제로는 어쩌다가 일어날수 있는 위험을
05:30
Because what newspapers신문 do
130
315000
2000
반복해서 들려주는 신문이
05:32
is they repeat반복 again and again
131
317000
2000
발명되기 전까지 이런 생각은
05:34
rare드문 risks위험.
132
319000
2000
옳았습니다.
05:36
I tell people, if it's in the news뉴스, don't worry걱정 about it.
133
321000
2000
저는 사람들에게 뉴스에 어떤 얘기가 나오면
05:38
Because by definition정의,
134
323000
2000
걱정하지 말라고 합니다.
05:40
news뉴스 is something that almost거의 never happens일이.
135
325000
3000
왜냐하면, 그것은 뉴스라는 말의 정의와 같이 거의 생기지 않는다는 말이니까요.
05:43
(Laughter웃음)
136
328000
2000
(웃음)
05:45
When something is so common공유지, it's no longer더 길게 news뉴스 --
137
330000
3000
더 이상 뉴스가 아닐 정도로 흔한 사건들, 즉
05:48
car crashes사고, domestic하인 violence폭력 --
138
333000
2000
차량 충돌, 가정 내 폭력 등이
05:50
those are the risks위험 you worry걱정 about.
139
335000
3000
여러분이 걱정해야 할 위험들입니다.
05:53
We're also또한 a species of storytellers이야기꾼들.
140
338000
2000
인간은 또한 이야기를 좋아하는 동물이지요.
05:55
We respond응창 성가 to stories이야기 more than data데이터.
141
340000
3000
우리는 통계수치 보다는 이야기에 더 감동합니다.
05:58
And there's some basic기본 innumeracy인류애 going on.
142
343000
2000
우리는 숫자에 관한 한 기본적으로 무능한 면이 있습니다.
06:00
I mean, the joke농담 "One, Two, Three, Many많은" is kind종류 of right.
143
345000
3000
"하나, 둘, 셋, 많다" 같은 죠크가 대충 맞죠.
06:03
We're really good at small작은 numbers번호.
144
348000
3000
우리는 작은 숫자들은 잘 알지요.
06:06
One mango망고, two mangoes망고, three mangoes망고,
145
351000
2000
망고 하나, 망고 둘, 망고 셋처럼요.
06:08
10,000 mangoes망고, 100,000 mangoes망고 --
146
353000
2000
망고 만개나 망고 10만 개 --
06:10
it's still more mangoes망고 you can eat먹다 before they rot썩음.
147
355000
3000
이런건 먹기 전에 다 썩어버리는 숫자죠.
06:13
So one half절반, one quarter쿼터, one fifth다섯 -- we're good at that.
148
358000
3000
우리는 반 개, 1/4개, 1/5개 등은 잘 인식하지만
06:16
One in a million백만, one in a billion십억 --
149
361000
2000
100만 분의 일이나 10억분의 일은 둘 다
06:18
they're both양자 모두 almost거의 never.
150
363000
3000
똑같이 거의 제로로 취급하지요
06:21
So we have trouble수고 with the risks위험
151
366000
2000
따라서 우리는 흔하지 않은 위험들을
06:23
that aren't있지 않다. very common공유지.
152
368000
2000
다룰 때 어려움을 겪습니다.
06:25
And what these cognitive인지 적 biases편향 do
153
370000
2000
이러한 인식적 편견들은
06:27
is they act행위 as filters필터 between중에서 us and reality현실.
154
372000
3000
우리와 실제 사이에서 필터와 같은 역할을 합니다.
06:30
And the result결과
155
375000
2000
그 결과,
06:32
is that feeling감각 and reality현실 get out of whack구타,
156
377000
2000
우리의 느낌과 실제간에 괴리가 생기고,
06:34
they get different다른.
157
379000
3000
느낌은 실제와 달라집니다.
06:37
Now you either어느 한 쪽 have a feeling감각 -- you feel more secure안전한 than you are.
158
382000
3000
그러면 실제로 안전한 것 보다
06:40
There's a false그릇된 sense감각 of security보안.
159
385000
2000
더 안전하게 느끼거나
06:42
Or the other way,
160
387000
2000
또는 그 반대로
06:44
and that's a false그릇된 sense감각 of insecurity불안정.
161
389000
2000
실제는 안전하지만 안전하지 않게 느끼지요.
06:46
I write쓰다 a lot about "security보안 theater극장,"
162
391000
3000
저는 소위 말하는 "보안 연극"에 대해 글을 많이 쓰는데
06:49
which어느 are products제작품 that make people feel secure안전한,
163
394000
3000
보안연극은 안전하다는 느낌만 줄뿐
06:52
but don't actually사실은 do anything.
164
397000
2000
실지로는 아무런 역할이 없습니다.
06:54
There's no real레알 word워드 for stuff물건 that makes~을 만든다 us secure안전한,
165
399000
2000
실제로는 안전하게 만들어 주지만
06:56
but doesn't make us feel secure안전한.
166
401000
2000
안전하다는 느낌은 주지 못한다는 의미의 단어가 영어에는 없지요.
06:58
Maybe it's what the CIA'sCIA supposed가정의 to do for us.
167
403000
3000
아마 CIA가 해야하는 일이 이런 것들일지 모르죠.
07:03
So back to economics경제학.
168
408000
2000
이제 경제학으로 돌아와서,
07:05
If economics경제학, if the market시장, drives드라이브 security보안,
169
410000
4000
만약에 안전하다는 느낌에 의거해서
07:09
and if people make trade-offs절충점
170
414000
2000
경제나 시장의 보안이 좌우되고
07:11
based기반 on the feeling감각 of security보안,
171
416000
3000
사람들이 보안에 대한 비용편익 가치판단을 한다면
07:14
then the smart똑똑한 thing for companies회사들 to do
172
419000
2000
계산에 빠른 회사들의 입장에서 볼때
07:16
for the economic간결한 incentives인센티브
173
421000
2000
사람들이 안전하게 느끼게 하는 것이
07:18
are to make people feel secure안전한.
174
423000
3000
유리하겠지요.
07:21
And there are two ways to do this.
175
426000
3000
그렇게 느끼도록 하는데는 두가지 방법이 있죠.
07:24
One, you can make people actually사실은 secure안전한
176
429000
2000
첫번째는 실제로 안전하게 만든 후에
07:26
and hope기대 they notice주의.
177
431000
2000
사람들이 안전함을 깨닫게 하는 것이고
07:28
Or two, you can make people just feel secure안전한
178
433000
3000
두번째 방법은 그냥 안전하다는 느낌만 주고
07:31
and hope기대 they don't notice주의.
179
436000
3000
사람들이 눈치채지 못하길 바라는 거죠.
07:35
So what makes~을 만든다 people notice주의?
180
440000
3000
어떻게하면 사람들이 안전하다는 느낌을 가지게 할 수 있을까요?
07:38
Well a couple of things:
181
443000
2000
다음과 같은 몇가지 방법이 있겠지요.
07:40
understanding이해 of the security보안,
182
445000
2000
안전, 위험, 위협,
07:42
of the risks위험, the threats위협,
183
447000
2000
그리고 대응책을 이해하고
07:44
the countermeasures대책, how they work.
184
449000
3000
그들이 어떻게 작용한다는 것을 이해하는 것이지요.
07:47
But if you know stuff물건,
185
452000
2000
그러나 사람들이 보안에 대해 잘 알게 되면 .
07:49
you're more likely아마도 to have your feelings감정 match시합 reality현실.
186
454000
3000
현실에 일치하는 보안에 대한 느낌을 가지게 됩니다
07:52
Enough충분히 real레알 world세계 examples예제들 helps도움이된다..
187
457000
3000
제 말을 이해하는데 도움이 되도록 몆가지 실례를 말씀드리지요.
07:55
Now we all know the crime범죄 rate in our neighborhood이웃,
188
460000
3000
우리는 우리 주변의 범죄율을 잘 아는데
07:58
because we live살고 있다 there, and we get a feeling감각 about it
189
463000
3000
그 이유는 우리가 우리 지역에 살면서 가지는 느낌이
08:01
that basically원래 matches성냥 reality현실.
190
466000
3000
실제와 일치하기 때문이지요.
08:04
Security보안 theater's연극 exposed드러난
191
469000
3000
보안연극의 본성은 그것이
08:07
when it's obvious분명한 that it's not working properly정확히.
192
472000
3000
비효과적이라는 것이 분명해 질때 노출됩니다.
08:10
Okay, so what makes~을 만든다 people not notice주의?
193
475000
4000
좋아요, 그럼 어떨때 사람들이 눈치를 채지 못할까요?
08:14
Well, a poor가난한 understanding이해.
194
479000
2000
사람들이 제대로 이해하지 못할 때 그렇지요.
08:16
If you don't understand알다 the risks위험, you don't understand알다 the costs소송 비용,
195
481000
3000
우리가 위험을 이해하지 못하면, 치뤄야 하는 대가도 모르고
08:19
you're likely아마도 to get the trade-off거래 wrong잘못된,
196
484000
2000
보안에 대한 틀린 비용편익 판단을 내리기 쉽고
08:21
and your feeling감각 doesn't match시합 reality현실.
197
486000
3000
우리의 느낌과 현실이 일치하지 않지요.
08:24
Not enough충분히 examples예제들.
198
489000
2000
한가지 예를 더 들죠.
08:26
There's an inherent고유의 problem문제
199
491000
2000
자주 발생하지 않는 이벤트에는
08:28
with low낮은 probability개연성 events사건.
200
493000
2000
본질적인 문제가 있지요.
08:30
If, for example,
201
495000
2000
만약에, 예를 들어,
08:32
terrorism테러 almost거의 never happens일이,
202
497000
2000
테러행위가 거의 일어나지 않는다면,
08:34
it's really hard단단한 to judge판사
203
499000
2000
테러 방지 대책의 효능을
08:36
the efficacy효능 of counter-terrorist반테러 주의자 measures조치들.
204
501000
3000
판단하기가 정말 어렵습니다.
08:40
This is why you keep sacrificing희생시키다 virgins처녀,
205
505000
3000
그래서 우리는 계속 처녀를 제물로 바치고,
08:43
and why your unicorn일각수 defenses방어 시설 are working just great.
206
508000
3000
유니콘 방어가 여전히 효과가 있다고 믿지요.
08:46
There aren't있지 않다. enough충분히 examples예제들 of failures실패.
207
511000
3000
실패에 대한 예는 많지 않지요.
08:50
Also또한, feelings감정 that are clouding흐리게 the issues문제 --
208
515000
3000
또한, 제가 앞서 말씀드린 인지적 편견,
08:53
the cognitive인지 적 biases편향 I talked말한 about earlier일찍이,
209
518000
2000
공포감, 전통적인 믿음은
08:55
fears두려움, folk사람들 beliefs신념,
210
520000
3000
간단하게 말해 현실과는 다른 미흡한 모델이기 때문에
08:58
basically원래 an inadequate부적절한 model모델 of reality현실.
211
523000
3000
그런 느낌은 실제와 허구를 혼동시킵니다.
09:02
So let me complicate복잡하게하다 things.
212
527000
3000
이제 제가 머리를 복잡하게 만드는 말씀을 드리죠.
09:05
I have feeling감각 and reality현실.
213
530000
2000
느낌과 현실 이외에
09:07
I want to add더하다 a third제삼 element요소. I want to add더하다 model모델.
214
532000
3000
이제 모델이라는 제3의 요소를 더 추가하겠습니다.
09:10
Feeling감각 and model모델 in our head머리,
215
535000
2000
느낌과 모델은 우리의 머리속에 존재하는 한편
09:12
reality현실 is the outside외부 world세계.
216
537000
2000
현실은 외부 세계입니다.
09:14
It doesn't change변화; it's real레알.
217
539000
3000
현실은 바뀌지 않고 실제로 존재합니다.
09:17
So feeling감각 is based기반 on our intuition직관.
218
542000
2000
느낌은 우리의 직관에 의거한 것이고
09:19
Model모델 is based기반 on reason이유.
219
544000
2000
모델은 이성적인 생각에 의거한 것이죠.
09:21
That's basically원래 the difference.
220
546000
3000
그게 기본적인 차이입니다.
09:24
In a primitive원어 and simple단순한 world세계,
221
549000
2000
원시적이고 단순한 세계에서는
09:26
there's really no reason이유 for a model모델
222
551000
3000
모델이 필요하지 않았습니다.
09:29
because feeling감각 is close닫기 to reality현실.
223
554000
3000
왜냐면 느낌이 실제에 가까웠으니까요.
09:32
You don't need a model모델.
224
557000
2000
그럴 땐 모델이 필요없습니다.
09:34
But in a modern현대 and complex복잡한 world세계,
225
559000
2000
하지만 현대의 복잡한 세상에서는
09:36
you need models모델
226
561000
2000
우리가 당면하는 많은 위험을 이해하기 위해
09:38
to understand알다 a lot of the risks위험 we face얼굴.
227
563000
3000
모델이 필요합니다.
09:42
There's no feeling감각 about germs세균.
228
567000
2000
우리는 세균에 대한 느낌이 없기 때문에
09:44
You need a model모델 to understand알다 them.
229
569000
3000
세균을 이해하려면 모델이 필요합니다.
09:47
So this model모델
230
572000
2000
따라서 이 모델은
09:49
is an intelligent지적인 representation대표 of reality현실.
231
574000
3000
현실의 지적 표상이죠.
09:52
It's, of course코스, limited제한된 by science과학,
232
577000
3000
이런 모델은 물론 과학과 기술이
09:55
by technology과학 기술.
233
580000
2000
허용하는 한계에서 가능하죠.
09:57
We couldn't할 수 없었다 have a germ세균 theory이론 of disease질병
234
582000
3000
현미경을 발명하여 세균을 직접 보기 전까진
10:00
before we invented발명 된 the microscope현미경 to see them.
235
585000
3000
미생물 병인론이란 것이 없었지요.
10:04
It's limited제한된 by our cognitive인지 적 biases편향.
236
589000
3000
모델은 우리의 인식의 편견으로 만들어 집니다.
10:07
But it has the ability능력
237
592000
2000
그러나 이런 모델은
10:09
to override보수 our feelings감정.
238
594000
2000
우리의 느낌을 무력화 시킬 수 있습니다.
10:11
Where do we get these models모델? We get them from others다른 사람.
239
596000
3000
우리는 모델을 어디서 얻을까요? 바로 우리의 외부에서 얻습니다.
10:14
We get them from religion종교, from culture문화,
240
599000
3000
우리는 종교나, 문화나,
10:17
teachers교사, elders연상.
241
602000
2000
스승이나, 어르신분들로부터 모델을 얻습니다.
10:19
A couple years연령 ago...전에,
242
604000
2000
이년전에 저는 남아프리카에서
10:21
I was in South남쪽 Africa아프리카 on safari원정 여행.
243
606000
2000
사파리 여행을 했습니다.
10:23
The tracker트래커 I was with grew자랐다 up in Kruger크루거 National내셔널 Park공원.
244
608000
3000
제가 고용한 추적가는 크루거 국립공원에서 자란 사람이었지요.
10:26
He had some very complex복잡한 models모델 of how to survive생존하다.
245
611000
3000
그는 생존법에 대한 여러가지 복잡한 모델을 가지고 있었지요.
10:29
And it depended의존하는 on if you were attacked공격받은
246
614000
2000
그의 생존 모델은 그를 공격하는 맹수가
10:31
by a lion사자 or a leopard표범 or a rhino코뿔소 or an elephant코끼리 --
247
616000
2000
사자인지, 표범인지, 코뿔소인지 또는 코끼리인지에 따라 다르고
10:33
and when you had to run운영 away, and when you couldn't할 수 없었다 run운영 away, and when you had to climb상승 a tree나무 --
248
618000
3000
또한, 언제 도망가고, 언제 도망가면 안되고
10:36
when you could never climb상승 a tree나무.
249
621000
2000
나무에 올라 갈 수 있는지 또는 없는지에 따라 달랐죠.
10:38
I would have died사망 한 in a day,
250
623000
3000
제가 혼자있었으면 저는 하루도 못돼서 죽었을 겁니다.
10:41
but he was born타고난 there,
251
626000
2000
하지만 제 추적가 그곳에서 태어났고,
10:43
and he understood이해 된 how to survive생존하다.
252
628000
2000
어떻게 하면 살 수 있는지 알고 있었지요.
10:45
I was born타고난 in New새로운 York요크 City시티.
253
630000
2000
저는 뉴욕에서 태어났습니다.
10:47
I could have taken취한 him to New새로운 York요크, and he would have died사망 한 in a day.
254
632000
3000
만약에 제가 그 추적가를 뉴욕으로 데리고 오면, 그 사람은 하루안에 죽을거예요.
10:50
(Laughter웃음)
255
635000
2000
(웃음)
10:52
Because we had different다른 models모델
256
637000
2000
우리는 우리만의 경험을 바탕으로
10:54
based기반 on our different다른 experiences경험담.
257
639000
3000
우리의 고유한 모델을 가지고 있지요.
10:58
Models모델 can come from the media미디어,
258
643000
2000
모델은 대중매체로 부터 나올 수 도 있고,
11:00
from our elected선출 된 officials관리들.
259
645000
3000
정부관리가 만들 수도 있습니다.
11:03
Think of models모델 of terrorism테러,
260
648000
3000
테러,
11:06
child어린이 kidnapping유괴,
261
651000
3000
어린이 유괴,
11:09
airline공기 호스 safety안전, car safety안전.
262
654000
2000
항공기 안전, 자동차 안전 등의 모델을 생각해보세요.
11:11
Models모델 can come from industry산업.
263
656000
3000
모델은 산업계로 부터 나올 수도 있습니다.
11:14
The two I'm following수행원 are surveillance감시 cameras카메라,
264
659000
2000
저는 지금 감시 카메라와
11:16
ID신분증 cards카드,
265
661000
2000
ID 카드 모델들을 연구하고 있는데
11:18
quite아주 a lot of our computer컴퓨터 security보안 models모델 come from there.
266
663000
3000
많은 컴퓨터 보안 모델들이 이런 시스템에서 나왔지요.
11:21
A lot of models모델 come from science과학.
267
666000
3000
많은 모델은 과학에서 나오지요.
11:24
Health건강 models모델 are a great example.
268
669000
2000
건강 모델이 아주 좋은 예입니다.
11:26
Think of cancer, of bird flu독감, swine돼지 flu독감, SARS사스.
269
671000
3000
암, 조류독감, 돼지독감, 사스 같은 병들을 생각해보세요.
11:29
All of our feelings감정 of security보안
270
674000
3000
이런 병들의 안전에 대한
11:32
about those diseases질병
271
677000
2000
우리의 모든 느낌은
11:34
come from models모델
272
679000
2000
과학적 모델이 대중매체를 통해 여과된 후에
11:36
given주어진 to us, really, by science과학 filtered거르는 through...을 통하여 the media미디어.
273
681000
3000
우리에게 주어진 것입니다.
11:40
So models모델 can change변화.
274
685000
3000
그래서 모델들은 바뀔 수 있습니다.
11:43
Models모델 are not static공전.
275
688000
2000
모델들은 정적인것이 아닙니다.
11:45
As we become지다 more comfortable편안 in our environments환경,
276
690000
3000
우리가 우리의 환경에 더 잘 적응하게 되면
11:48
our model모델 can move움직임 closer더 가까운 to our feelings감정.
277
693000
4000
우리의 모델은 우리의 느낌과 비슷하게 됩니다.
11:53
So an example might be,
278
698000
2000
그 일례로,
11:55
if you go back 100 years연령 ago...전에
279
700000
2000
전기가 대중화되기 시작했던
11:57
when electricity전기 was first becoming어울리는 common공유지,
280
702000
3000
100년전으로 돌아가보면,
12:00
there were a lot of fears두려움 about it.
281
705000
2000
전기에 대한 공포심이 널리 퍼져있었지요.
12:02
I mean, there were people who were afraid두려워하는 to push푸시 doorbells초인종,
282
707000
2000
어떤 사람들은 전기 초인종에 전기가 있어서 위험하다며
12:04
because there was electricity전기 in there, and that was dangerous위험한.
283
709000
3000
초인종을 누르는 것을 두려워 했지요.
12:07
For us, we're very facile손쉬운 around electricity전기.
284
712000
3000
우리는 이제 전기에 아주 익숙해 졌죠.
12:10
We change변화 light bulbs전구
285
715000
2000
전구 바꾸는 정도는
12:12
without없이 even thinking생각 about it.
286
717000
2000
아무것도 아니죠
12:14
Our model모델 of security보안 around electricity전기
287
719000
4000
전기에 대한 우리의 모델은
12:18
is something we were born타고난 into.
288
723000
3000
우리가 타고난 것이죠.
12:21
It hasn't~하지 않았다. changed변경된 as we were growing성장하는 up.
289
726000
3000
그 모델은 우리가 자라면서 변하지 않았습니다.
12:24
And we're good at it.
290
729000
3000
우리는 전기를 잘 다루죠.
12:27
Or think of the risks위험
291
732000
2000
우리의 각 세대가 인터넷의
12:29
on the Internet인터넷 across건너서 generations세대 --
292
734000
2000
위험을 어떻게 생각하는지 보죠 --
12:31
how your parents부모님 approach접근 Internet인터넷 security보안,
293
736000
2000
여러분의 부모님과 여러분들 자신이
12:33
versus how you do,
294
738000
2000
인터넷 보안을 대하는 것이 어떻게 다르고,
12:35
versus how our kids아이들 will.
295
740000
3000
여러분의 자녀들은 앞으로 어떻게 생각할 것인가요.
12:38
Models모델 eventually결국 fade바래다 into the background배경.
296
743000
3000
그러나 모델은 시간이 흐르며 결국에는 서서히 사라집니다.
12:42
Intuitive직관적 인 is just another다른 word워드 for familiar익숙한.
297
747000
3000
직관적이라는 말은 즉 친숙하다는 말이지요.
12:45
So as your model모델 is close닫기 to reality현실,
298
750000
2000
여러분의 모델이 현실에 더 가깝게 되고
12:47
and it converges수렴하다 with feelings감정,
299
752000
2000
그 모델이 여러분의 느낌과 가깝게 되면
12:49
you often자주 don't know it's there.
300
754000
3000
모델 자체를 잊어버리게 되죠.
12:52
So a nice좋은 example of this
301
757000
2000
이런 것의 좋은 예로
12:54
came왔다 from last year and swine돼지 flu독감.
302
759000
3000
작년에 있었던 돼지독감을 들 수 있지요.
12:57
When swine돼지 flu독감 first appeared출연 한,
303
762000
2000
돼지독감이 처음 나타났던
12:59
the initial머리 글자 news뉴스 caused일으킨 a lot of overreaction과잉 반응.
304
764000
4000
초기의 뉴스들은 많은 과잉반응을 야기했습니다.
13:03
Now it had a name이름,
305
768000
2000
돼지독감이라는 이름 때문에
13:05
which어느 made만든 it scarier무서운 than the regular정규병 flu독감,
306
770000
2000
일반 독감보다 더 무섭게 들렸던 것이죠,
13:07
even though그래도 it was more deadly치명적인.
307
772000
2000
사실은 이름이 없는 일반 독감이 더 위험한데요.
13:09
And people thought doctors의사들 should be able할 수 있는 to deal거래 with it.
308
774000
4000
그리고 사람들은 그것은 의사가 해결할 문제라고 생각했죠.
13:13
So there was that feeling감각 of lack결핍 of control제어.
309
778000
2000
따라서 사람들은 그들 자신이 무력하다고 느꼈지요.
13:15
And those two things
310
780000
2000
이 두가지 이유로 해서 돼지독감이
13:17
made만든 the risk위험 more than it was.
311
782000
2000
실제보다 더 위험한 것처럼 보였죠.
13:19
As the novelty진기함 wore입었다 off, the months개월 went갔다 by,
312
784000
3000
처음에 있었던 생소함이 없어지고 시간이 지나며
13:22
there was some amount of tolerance공차,
313
787000
2000
사람들이 어느정도 돼지독감을 포용하게 되고
13:24
people got used to it.
314
789000
2000
그 위험에 익숙해 지며
13:26
There was no new새로운 data데이터, but there was less적게 fear무서움.
315
791000
3000
돼지독감에 대한 새 데이터는 안나왔는데 두려움이 많이 없어졌지요.
13:29
By autumn가을,
316
794000
2000
가을이 오며
13:31
people thought
317
796000
2000
사람들은 의사들이 돼지독감 문제를
13:33
the doctors의사들 should have solved해결 된 this already이미.
318
798000
2000
이미 해결했어야 한다고 생각했죠.
13:35
And there's kind종류 of a bifurcation분기 --
319
800000
2000
그때 사람들은 일종의 분기점에 도달해서
13:37
people had to choose고르다
320
802000
2000
돼지독감을 계속 두려워하던지
13:39
between중에서 fear무서움 and acceptance수락 --
321
804000
4000
아니면 현실을 받아들이던지
13:43
actually사실은 fear무서움 and indifference무관심 --
322
808000
2000
둘 중에 하나를 선택해야 했는데
13:45
they kind종류 of chose선택한 suspicion의혹.
323
810000
3000
사람들은 불신하는 쪽으로 기울었지요.
13:48
And when the vaccine백신 appeared출연 한 last winter겨울,
324
813000
3000
그래서 작년 겨울에 백신이 나왔을때
13:51
there were a lot of people -- a surprising놀라운 number번호 --
325
816000
3000
놀라울 정도로 많은 사람들이
13:54
who refused거절 한 to get it --
326
819000
3000
백신주사 맞기를 거부했습니다.
13:58
as a nice좋은 example
327
823000
2000
이것은
14:00
of how people's사람들의 feelings감정 of security보안 change변화, how their그들의 model모델 changes변화들,
328
825000
3000
아무런 새로운 정보가 없이
14:03
sort종류 of wildly격렬히
329
828000
2000
안전에 대한 우리의 느낌이 크게 바뀌고,
14:05
with no new새로운 information정보,
330
830000
2000
또한 모델도 바뀔 수 있다는 것을
14:07
with no new새로운 input입력.
331
832000
2000
보여주는 좋은 일례입니다.
14:09
This kind종류 of thing happens일이 a lot.
332
834000
3000
이런 일은 많이 생기지요.
14:12
I'm going to give one more complication복잡.
333
837000
3000
조금 더 복잡한 상황을 이야기 해보겠습니다.
14:15
We have feeling감각, model모델, reality현실.
334
840000
3000
느낌, 모델, 현실이 있습니다.
14:18
I have a very relativistic상대주의 view전망 of security보안.
335
843000
2000
저는 보안에 대해 매우 현실적인 견해를 가지고 있습니다.
14:20
I think it depends의존하다 on the observer관찰자.
336
845000
3000
저는 보안에 대한 생각은 사람에 따라 다르다고 생각하지요.
14:23
And most가장 security보안 decisions결정들
337
848000
2000
대부분의 보안에 대한 결정에는
14:25
have a variety종류 of people involved뒤얽힌.
338
850000
4000
다양한 사람들이 관계되어 있습니다.
14:29
And stakeholders이해 관계자
339
854000
2000
보안에 관련된 결정에 관련된
14:31
with specific특유한 trade-offs절충점
340
856000
3000
이해 당사자들은 보안 결정에
14:34
will try to influence영향 the decision결정.
341
859000
2000
영향을 주려고 할 것입니다.
14:36
And I call that their그들의 agenda비망록.
342
861000
2000
저는 그것을 그들의 '숨은 의도'라고 부르겠습니다.
14:38
And you see agenda비망록 --
343
863000
2000
그들의 숨은 의도에는
14:40
this is marketing마케팅, this is politics정치 --
344
865000
3000
마케팅도 있고, 정치도 있지요 ---
14:43
trying견딜 수 없는 to convince납득시키다 you to have one model모델 versus another다른,
345
868000
3000
그들은 여러분이 어떤 모델 대신에 다른 모델을 가지도록 하거나,
14:46
trying견딜 수 없는 to convince납득시키다 you to ignore무시하다 a model모델
346
871000
2000
또는 어떤 모델을 무시하고
14:48
and trust믿음 your feelings감정,
347
873000
3000
여러분의 느낌을 믿으라고 설득시켜서
14:51
marginalizing주 변화시키는 people with models모델 you don't like.
348
876000
3000
여러분이 좋아하지 않는 사람 이나 모델을 소외시키게 만들지요.
14:54
This is not uncommon드문.
349
879000
3000
이건 드문일이 아닙니다.
14:57
An example, a great example, is the risk위험 of smoking흡연.
350
882000
3000
아주 좋은 예의 하나는 흡연의 위험이죠.
15:01
In the history역사 of the past과거 50 years연령, the smoking흡연 risk위험
351
886000
3000
흡연의 위험에 대한 지난 50년의 역사는
15:04
shows how a model모델 changes변화들,
352
889000
2000
리스크 모델이 어떻게 바뀌었으며
15:06
and it also또한 shows how an industry산업 fights싸움 against반대
353
891000
3000
담배업계가 그들이 좋아하지 않는 모델을
15:09
a model모델 it doesn't like.
354
894000
2000
어떻게 싸워 왔는지를 보여줍니다.
15:11
Compare비교 that to the secondhand두번째 손 smoke연기 debate논쟁 --
355
896000
3000
이것은 간접흡연에 대한 논쟁에 비교해
15:14
probably아마 about 20 years연령 behind뒤에.
356
899000
3000
약 20년 정도는 뒤쳐진 것이죠.
15:17
Think about seat좌석 belts벨트.
357
902000
2000
안전벨트의 예도 들어보죠.
15:19
When I was a kid아이, no one wore입었다 a seat좌석 belt벨트.
358
904000
2000
제가 어렸을 때는 아무도 안전벨트를 매지 않았습니다.
15:21
Nowadays현대, no kid아이 will let you drive드라이브
359
906000
2000
요즘은 안전벨트를 안채워주면,
15:23
if you're not wearing착용 a seat좌석 belt벨트.
360
908000
2000
아이들이 운전을 못하게 합니다.
15:26
Compare비교 that to the airbag에어백 debate논쟁 --
361
911000
2000
에어백 논쟁과 비교해보면,
15:28
probably아마 about 30 years연령 behind뒤에.
362
913000
3000
아마 30년은 뒤쳐졌을겁니다.
15:31
All examples예제들 of models모델 changing작고 보기 흉한 사람.
363
916000
3000
이것은 모두 모델이 변하는 것을 보여주지요.
15:36
What we learn배우다 is that changing작고 보기 흉한 사람 models모델 is hard단단한.
364
921000
3000
이것은 모델을 바꾸는 것이 어렵다는 것을 보여줍니다.
15:39
Models모델 are hard단단한 to dislodge~을 내쫓다.
365
924000
2000
모델을 걷어내는 것은 힘어려운 일입니다.
15:41
If they equal같은 your feelings감정,
366
926000
2000
모델이 여러분의 느낌과 같으면
15:43
you don't even know you have a model모델.
367
928000
3000
여러분은 모델을 가지고 있는지 조차 모르지요
15:46
And there's another다른 cognitive인지 적 bias바이어스
368
931000
2000
우리는 또한 다른 인지적 편견을 가지고 있는데
15:48
I'll call confirmation확인 bias바이어스,
369
933000
2000
저는 그것을 "확인편견"이라고 부르겠습니다 .
15:50
where we tend지키다 to accept받아 들인다 data데이터
370
935000
3000
그것은 우리는 우리의 믿음과 일치하는
15:53
that confirms확인하다 our beliefs신념
371
938000
2000
데이터는 받아드리고
15:55
and reject받지 않다 data데이터 that contradicts모순 our beliefs신념.
372
940000
3000
우리의 믿음과 상반되는 데이터는 거부하는 것이지요.
15:59
So evidence증거 against반대 our model모델,
373
944000
2000
우리는 우리의 모델에 일치하지 않는 증거는
16:01
we're likely아마도 to ignore무시하다, even if it's compelling강요하는.
374
946000
3000
아무리 강력한 증거라도 무시할 가능성이 많습니다.
16:04
It has to get very compelling강요하는 before we'll pay지불 attention주의.
375
949000
3000
설득력이 아주 강한 증거래야 비로서 관심을 보이지요.
16:08
New새로운 models모델 that extend넓히다 long periods미문 of time are hard단단한.
376
953000
2000
오랜 시간이 관련되는 새 모델은 받아들이기 힘들지요.
16:10
Global글로벌 warming따뜻하게 함 is a great example.
377
955000
2000
지구 온난화가 대표적인 예입니다.
16:12
We're terrible무서운
378
957000
2000
우리는 80년 정도되는 기간에 걸친
16:14
at models모델 that span스팬 80 years연령.
379
959000
2000
모델은 잘 다루지 못합니다.
16:16
We can do to the next다음 것 harvest수확.
380
961000
2000
다음 추수시절 까지의 기간은 감당할 수 있죠.
16:18
We can often자주 do until...까지 our kids아이들 grow자라다 up.
381
963000
3000
자식이 성장할때 까지의 기간도 종종 감당할 수 있죠.
16:21
But 80 years연령, we're just not good at.
382
966000
3000
그러나 80년은 감당하지 못합니다.
16:24
So it's a very hard단단한 model모델 to accept받아 들인다.
383
969000
3000
그래서 온난화 모델은 정말 받아들이기 어렵죠.
16:27
We can have both양자 모두 models모델 in our head머리 simultaneously동시에,
384
972000
4000
우리는 두개의 모델을
16:31
right, that kind종류 of problem문제
385
976000
3000
동시에 가질 수도 있습니다.
16:34
where we're holding보유 both양자 모두 beliefs신념 together함께,
386
979000
3000
즉, 두개의 다른 믿음을 동시에 가지는 것은
16:37
right, the cognitive인지 적 dissonance불협화음.
387
982000
2000
인지부조화라고 말할 수 있죠.
16:39
Eventually결국,
388
984000
2000
그러나 결국에는
16:41
the new새로운 model모델 will replace바꾸다 the old늙은 model모델.
389
986000
3000
새로운 모델이 이전 모델을 대체하게 됩니다.
16:44
Strong강한 feelings감정 can create몹시 떠들어 대다 a model모델.
390
989000
3000
강한 느낌은 모델을 만들 수 있습니다.
16:47
September구월 11th created만들어진 a security보안 model모델
391
992000
3000
911 사태는 많은 사람들의 머리속에
16:50
in a lot of people's사람들의 heads머리.
392
995000
2000
보안에 대한 모델을 만들었습니다.
16:52
Also또한, personal개인적인 experiences경험담 with crime범죄 can do it,
393
997000
3000
또한 범죄에 관련된 개인적인 경험도 모델을 만들 수 있고,
16:55
personal개인적인 health건강 scare공황,
394
1000000
2000
건강에 대한 두려움,
16:57
a health건강 scare공황 in the news뉴스.
395
1002000
2000
건강위기 뉴스도 그럴 수 있죠.
16:59
You'll see these called전화 한 flashbulb섬광 전구 events사건
396
1004000
2000
이런것은 정신과 의사들이 말하는
17:01
by psychiatrists정신과 의사.
397
1006000
2000
소위 "섬광 이벤트"에서 볼 수 있습니다.
17:03
They can create몹시 떠들어 대다 a model모델 instantaneously순간적으로,
398
1008000
3000
이런 경험은 매우 강력한 감정을 초래하기 떄문에
17:06
because they're very emotive감정적 인.
399
1011000
3000
그 즉시로 모델을 만들 수 있죠.
17:09
So in the technological기술적 인 world세계,
400
1014000
2000
기술이 발달한 사회에 사는 사람들은
17:11
we don't have experience경험
401
1016000
2000
모델들을 판달 할 수 있는
17:13
to judge판사 models모델.
402
1018000
2000
경험을 가지고 있지 않습니다.
17:15
And we rely의지하다 on others다른 사람. We rely의지하다 on proxies프록시.
403
1020000
2000
그래서 다른 사람의 경험에 대신 의뢰하게 되지요
17:17
I mean, this works공장 as long as it's to correct옳은 others다른 사람.
404
1022000
4000
이런 방법은 다른 사람을 관리하는 목적으로는 좋죠.
17:21
We rely의지하다 on government정부 agencies에이전시
405
1026000
2000
우리는 약의 안전성 시험을
17:23
to tell us what pharmaceuticals의약품 are safe안전한.
406
1028000
5000
정부기관에 맡깁니다.
17:28
I flew날아 갔다. here yesterday어제.
407
1033000
2000
저는 어제 비행기를 타고 여기로 왔는데
17:30
I didn't check검사 the airplane비행기.
408
1035000
2000
제가 직접 비행기를 점검하지는 않았지요.
17:32
I relied의지하다 on some other group그룹
409
1037000
2000
제가 탄 비행기가 안전한지 그렇지 않은지는
17:34
to determine결정 whether인지 어떤지 my plane평면 was safe안전한 to fly파리.
410
1039000
3000
다른 사람들에게 맡깁니다.
17:37
We're here, none없음 of us fear무서움 the roof지붕 is going to collapse무너짐 on us,
411
1042000
3000
우리는 이 빌딩을 직접 점검하지 않았지만
17:40
not because we checked확인한,
412
1045000
3000
지붕이 내려 앉을지 모른다고 걱정하는 사람은 아무도 없죠.
17:43
but because we're pretty예쁜 sure
413
1048000
2000
왜냐하면 이 빌딩이 건축규정을 잘 지켰을거라고
17:45
the building건물 codes코드들 here are good.
414
1050000
3000
믿고 확신하기 때문입니다.
17:48
It's a model모델 we just accept받아 들인다
415
1053000
2000
이런것은 믿음을 통해 우리가
17:50
pretty예쁜 much by faith신앙.
416
1055000
2000
그냥 받아들이는 모델입니다.
17:52
And that's okay.
417
1057000
3000
그런건 좋습니다.
17:57
Now, what we want
418
1062000
2000
자, 우리가 원하는 것은
17:59
is people to get familiar익숙한 enough충분히
419
1064000
2000
사람들이 더 좋은 모델에
18:01
with better models모델 --
420
1066000
2000
충분히 친숙해지고 --
18:03
have it reflected반영된 in their그들의 feelings감정 --
421
1068000
2000
그들의 감정에도 반영이 되어
18:05
to allow허용하다 them to make security보안 trade-offs절충점.
422
1070000
4000
보안에 관련된 비용편익 결정을 할 수 있는 그런 모델 말이죠.
18:09
Now when these go out of whack구타,
423
1074000
2000
자, 그런데 이런 모델들이 잘 맞지 않으면,
18:11
you have two options옵션들.
424
1076000
2000
여러분들에게는 두가지 옵션이 있습니다.
18:13
One, you can fix고치다 people's사람들의 feelings감정,
425
1078000
2000
한가지는 다른 사람들의 감정에 직접 호소하여
18:15
directly직접 appeal항소 to feelings감정.
426
1080000
2000
그들의 모델을 바꾸게 하는 것이죠.
18:17
It's manipulation시장 조작, but it can work.
427
1082000
3000
이런 방식은 조작이지만 효과가 있을 수 있습니다.
18:20
The second둘째, more honest정직한 way
428
1085000
2000
좀 더 솔직한 두번째 방법은
18:22
is to actually사실은 fix고치다 the model모델.
429
1087000
3000
모델을 수정해 보는것이죠.
18:26
Change변화 happens일이 slowly천천히.
430
1091000
2000
변화는 천천히 일어납니다.
18:28
The smoking흡연 debate논쟁 took~했다 40 years연령,
431
1093000
3000
흡연에 대한 논쟁은 40년 걸렸습니다.
18:31
and that was an easy쉬운 one.
432
1096000
3000
그러나 그 문제는 쉬운편이었죠.
18:34
Some of this stuff물건 is hard단단한.
433
1099000
2000
다른 사람의 모델을 바꾸는 것은 어려운 일입니다.
18:36
I mean really though그래도,
434
1101000
2000
제말은 아마도
18:38
information정보 seems~ 같다 like our best베스트 hope기대.
435
1103000
2000
정보를 제공하는것이 제일 희망적일것 같습니다.
18:40
And I lied거짓말 한.
436
1105000
2000
제가 거짓말을 했어요.
18:42
Remember생각해 내다 I said feeling감각, model모델, reality현실;
437
1107000
2000
저는 얼마전에 감정, 모델, 현실을 말했지요.
18:44
I said reality현실 doesn't change변화. It actually사실은 does.
438
1109000
3000
현실은 바뀌지 않는다고 말했죠. 사실 현실은 변합니다.
18:47
We live살고 있다 in a technological기술적 인 world세계;
439
1112000
2000
우리는 기술이 지배하는 세상에 살기 때문에
18:49
reality현실 changes변화들 all the time.
440
1114000
3000
현실은 항상 변합니다.
18:52
So we might have -- for the first time in our species --
441
1117000
3000
그래서 아마 인류역사상 처음으로 느낌이 모델을 따라가고,
18:55
feeling감각 chases추격 model모델, model모델 chases추격 reality현실, reality's현실의 moving움직이는 --
442
1120000
3000
모델이 현실을 따라가고, 현실은 움직이고 --
18:58
they might never catch잡기 up.
443
1123000
3000
아마 현실을 따라 잡지 못할 지 모르죠.
19:02
We don't know.
444
1127000
2000
아무도 모릅니다.
19:04
But in the long-term장기간,
445
1129000
2000
그러나 오랜 기간을 통해서는
19:06
both양자 모두 feeling감각 and reality현실 are important중대한.
446
1131000
3000
느낌과 현실이 둘다 다 중요합니다.
19:09
And I want to close닫기 with two quick빨리 stories이야기 to illustrate설명하다 this.
447
1134000
3000
이점을 설명하기 위해 마지막으로 짧은 이야기를 두개 말씀드리겠습니다.
19:12
1982 -- I don't know if people will remember생각해 내다 this --
448
1137000
2000
여러분들이 기억하시는지 모르겠지만 1982년에
19:14
there was a short짧은 epidemic전염병
449
1139000
3000
미국에서 타이레놀 독살
19:17
of Tylenol타이레놀 poisonings중독 in the United유나이티드 States.
450
1142000
2000
사건이 있었습니다.
19:19
It's a horrific무서운 story이야기. Someone어떤 사람 took~했다 a bottle of Tylenol타이레놀,
451
1144000
3000
끔찍한 이야기였죠. 누군가 타에레놀 병에다가
19:22
put poison in it, closed닫은 it up, put it back on the shelf선반.
452
1147000
3000
독을 탄후, 병을 다시 닫고 진열대에 다시 올려 놓은 거죠.
19:25
Someone어떤 사람 else그밖에 bought샀다 it and died사망 한.
453
1150000
2000
어떤 사람이 그약을 사서 먹고 죽었지요.
19:27
This terrified겁에 질린 people.
454
1152000
2000
이 사건으로 사람들은 공포에 휩쓸렸었지요.
19:29
There were a couple of copycat모방 자 attacks공격.
455
1154000
2000
모방범죄의 사례도 몇개 있었지요.
19:31
There wasn't아니었다. any real레알 risk위험, but people were scared깜짝 놀란.
456
1156000
3000
실제적인 위험은 없지만 사람들은 무서워했지요.
19:34
And this is how
457
1159000
2000
이 사건 이후
19:36
the tamper-proof위조 방지 drug industry산업 was invented발명 된.
458
1161000
2000
변조방지 제약산업이 태어났지요.
19:38
Those tamper-proof위조 방지 caps모자, that came왔다 from this.
459
1163000
2000
변조방지 뚜껑이 이런 사건 때문에 생긴거죠.
19:40
It's complete완전한 security보안 theater극장.
460
1165000
2000
이런건 완전히 보안연극입니다.
19:42
As a homework숙제 assignment할당, think of 10 ways to get around it.
461
1167000
2000
이것을 우회하는 방법을 숙제로 10가지 생각해 보세요.
19:44
I'll give you one, a syringe주사기.
462
1169000
3000
제가 한가지 방법을 알려드리지요. 주사기를 쓰면 됩니다.
19:47
But it made만든 people feel better.
463
1172000
3000
하지만 이 뚜껑은 사람들을 안심시켰죠.
19:50
It made만든 their그들의 feeling감각 of security보안
464
1175000
2000
이 뚜껑은 사람들이 가진 안전하다는 느낌을
19:52
more match시합 the reality현실.
465
1177000
2000
현실에 더 맞추어 줬지요.
19:54
Last story이야기, a few조금 years연령 ago...전에, a friend친구 of mine광산 gave birth출생.
466
1179000
3000
몇년전에 제 친구가 아이를 낳았습니다.
19:57
I visit방문 her in the hospital병원.
467
1182000
2000
그래서 제가 병원으로 문병을 갔었지요.
19:59
It turns회전 out when a baby's아기의 born타고난 now,
468
1184000
2000
요즘은 아기가 태어나면
20:01
they put an RFIDRFID bracelet팔찌 on the baby아가,
469
1186000
2000
병원에서 엄마 팔찌와 똑같은
20:03
put a corresponding one on the mother어머니,
470
1188000
2000
RFID 팔찌를 아기 손목에 채우더군요.
20:05
so if anyone누군가 other than the mother어머니 takes the baby아가 out of the maternity임산부 ward,
471
1190000
2000
그래서 엄마가 아닌 다른 사람이 아기를
20:07
an alarm경보 goes간다 off.
472
1192000
2000
임산부병실에서 데리고 나가면 경보음이 울리는거죠.
20:09
I said, "Well, that's kind종류 of neat산뜻한.
473
1194000
2000
저는 "그게 아주 좋은 방법이네" 라고 말했지요.
20:11
I wonder경이 how rampant맹렬한 baby아가 snatching날치기 is
474
1196000
2000
저는 병원안에서 유아유괴가
20:13
out of hospitals병원."
475
1198000
2000
얼마나 만연한지 궁금했습니다.
20:15
I go home, I look it up.
476
1200000
2000
그래서 집에 돌아와서 찾아 봤더니.
20:17
It basically원래 never happens일이.
477
1202000
2000
그런 일은 거의 발생하지 않더군요.
20:19
But if you think about it,
478
1204000
2000
하지만 생각을 해 보면,
20:21
if you are a hospital병원,
479
1206000
2000
간호사가 아기를
20:23
and you need to take a baby아가 away from its mother어머니,
480
1208000
2000
검진하기 위해서 아기 엄마 눈앞에서
20:25
out of the room to run운영 some tests검사들,
481
1210000
2000
아기를 데리고 병실 밖으로 나갈수 있으려면,
20:27
you better have some good security보안 theater극장,
482
1212000
2000
아마 좋은 안전연극을 해야 할 것입니다.
20:29
or she's going to rip삼가 고인의 명복을 빕니다 your arm off.
483
1214000
2000
아니면 아기 엄마가 간호사의 팔을 잡아 뗄테니까요.
20:31
(Laughter웃음)
484
1216000
2000
(웃음)
20:33
So it's important중대한 for us,
485
1218000
2000
그래서 보안 시스템을 디자인하거나,
20:35
those of us who design디자인 security보안,
486
1220000
2000
보안 정책에 관련된 사람들이나
20:37
who look at security보안 policy정책,
487
1222000
3000
심지어는 보안에 관계되는
20:40
or even look at public공공의 policy정책
488
1225000
2000
공공정책에 관여된 사람들은
20:42
in ways that affect감정 security보안.
489
1227000
2000
단순히 현실만 생각할 것이 아니라
20:44
It's not just reality현실; it's feeling감각 and reality현실.
490
1229000
3000
느낌과 현실을 동시에 고려해야 합니다.
20:47
What's important중대한
491
1232000
2000
중요한것은 느낌과 현실이
20:49
is that they be about the same같은.
492
1234000
2000
거의 일치해야 한다는 것입니다.
20:51
It's important중대한 that, if our feelings감정 match시합 reality현실,
493
1236000
2000
우리의 느낌이 현실과 같으면 우리는 보안에 대한
20:53
we make better security보안 trade-offs절충점.
494
1238000
2000
보다 더 합리적인 판단을 내릴 수 있을 것입니다.
20:55
Thank you.
495
1240000
2000
감사합니다.
20:57
(Applause박수 갈채)
496
1242000
2000
(박수)
Translated by Woo Hwang
Reviewed by Young-ho Park

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com