English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDxCMU

Lorrie Faith Cranor: What’s wrong with your pa$$w0rd?

로리 패이스 크레너 (Lorrie Faith Cranor): 여러분의 암호가 잘못된 점은 뭘까요?

Filmed:
1,520,582 views

로리 패이스 크레너는 사용자와 보안 사이트가 보안을 절충하기 위해서 놀라울만큼 흔한 실수를 하는 것을 파악하기 위해 수천개의 진짜 암호를 연구했습니다. 여러분은 이렇게 묻겠죠. 그녀는 어떻게 사용자의 보안을 위협하지 않고 수천개의 암호를 연구했을까? 그 질문 자체가 이야기입니다. 알아야 할 가치가 있는 비밀 자료이죠. 특히 여러분의 암호가 123456... 이라면요.

- Security researcher
At Carnegie Mellon University, Lorrie Faith Cranor studies online privacy, usable security, phishing, spam and other research around keeping us safe online. Full bio

I am a computer컴퓨터 science과학 and engineering공학
professor교수 here at Carnegie카네기 Mellon멜론,
저는 카네기 멜론 대학교의
컴퓨터공학과 교수입니다.
00:12
and my research연구 focuses집중하다 on
usable쓸 수 있는 privacy은둔 and security보안,
저는 사용가능한 사생활과 안보에
초점을 둔 연구를 하고 있습니다.
00:15
and so my friends친구 like to give me examples예제들
제 친구들은
컴퓨터 시스템과 관련해서
00:20
of their그들의 frustrations좌절 with computing컴퓨팅 systems시스템,
짜증스런 경우를 얘기하는데
00:22
especially특히 frustrations좌절 related관련 to
특히 사용가능하지 않은
사생활과 안보에
00:25
unusable쓸 수 없는 privacy은둔 and security보안.
관련한 짜증스런 경우를 얘기하죠.
00:28
So passwords암호 are something that I hear듣다 a lot about.
전 암호와 관련된 얘기를
많이 듣는데요.
00:32
A lot of people are frustrated실망한 with passwords암호,
많은 분들이 암호 때문에
짜증스러워 하는데
00:35
and it's bad나쁜 enough충분히
아주 충분히 나쁜 정도이죠,
00:38
when you have to have one really good password암호
여러분이 기억할 수 있고
00:39
that you can remember생각해 내다
아무도 추측할 수 없는
00:42
but nobody아무도 else그밖에 is going to be able할 수 있는 to guess추측.
아주 좋은 암호 하나를
만들어야 하니까요.
00:44
But what do you do when you have accounts계정
하지만 여러분의 계좌가
00:47
on a hundred different다른 systems시스템
백 개의 다른 시스템에 있다면
어떻게 하겠습니까?
00:48
and you're supposed가정의 to have a unique독특한 password암호
고유의 암호를
00:50
for each마다 of these systems시스템?
각 시스템마다 만들어야 한다면요?
(웃음)
00:53
It's tough강인한.
힘들죠.
00:56
At Carnegie카네기 Mellon멜론, they used to make it
카네기 멜론에서는
00:58
actually사실은 pretty예쁜 easy쉬운 for us
우리가 아주 수월하게
01:00
to remember생각해 내다 our passwords암호.
암호를 기억하게 했습니다.
01:01
The password암호 requirement요건 up through...을 통하여 2009
2009년까지는
암호를 만드는 조건은
01:03
was just that you had to have a password암호
암호에
01:05
with at least가장 작은 one character캐릭터.
한 글자만 있으면 됐었죠.
01:07
Pretty예쁜 easy쉬운. But then they changed변경된 things,
아주 쉽죠.
하지만 정책을 바꾸게 되서,
01:10
and at the end종료 of 2009, they announced발표하다
2009년 말에는
01:12
that we were going to have a new새로운 policy정책,
새로운 정책을 발표했는데
01:15
and this new새로운 policy정책 required필수
새로운 정책에 따르면
01:17
passwords암호 that were at least가장 작은 eight여덟 characters문자들 long,
암호는 최소한 8자가 되어야 하고
01:19
with an uppercase대문자 letter편지, lowercase소문자 letter편지,
대문자, 소문자,
01:22
a digit손가락, a symbol상징,
숫자, 기호가 들어가야 합니다.
01:24
you couldn't할 수 없었다 use the same같은
character캐릭터 more than three times타임스,
똑같은 글자를
세 번 이상 쓸 수 없고
01:25
and it wasn't아니었다. allowed허용 된 to be in a dictionary사전.
사전에 나와 있어도 안됩니다.
01:28
Now, when they implemented이행 된 this new새로운 policy정책,
자, 대학에서
새로운 정책을 내놓았을 때
01:30
a lot of people, my colleagues동료들 and friends친구,
제 동료와 친구들을
포함한 많은 사람들이
01:32
came왔다 up to me and they said, "Wow와우,
제게 와서 이렇게 말하더군요.
01:35
now that's really unusable쓸 수 없는.
"와, 이건 정말 쓸 수가 없군.
01:36
Why are they doing this to us,
우리에게 왜 이렇게 하는 거죠?
01:38
and why didn't you stop them?"
왜 그 사람들을 막지 않았어요?"
01:39
And I said, "Well, you know what?
그래서 제가 말했죠.
"글쎄, 그거 아세요?
01:41
They didn't ask청하다 me."
나한테 물어보지 않았답니다."
01:42
But I got curious이상한, and I decided결정적인 to go talk
하지만 저는 궁금해져서
01:44
to the people in charge요금 of our computer컴퓨터 systems시스템
컴퓨터 시스템을 담당하는
사람들에게 말해서
01:47
and find out what led them to introduce끼워 넣다
무슨 이유로
01:49
this new새로운 policy정책,
새로운 정책을 내놓게 되었는지
알아보기로 했죠.
01:52
and they said that the university대학
그들이 답하기를 우리 대학이
01:54
had joined합류 한 a consortium협회 of universities대학,
여러 대학으로 이뤄진
협력단에 합류했는데
01:55
and one of the requirements요구 사항 of membership회원
가입조건 중의 하나가
01:58
was that we had to have stronger더 강한 passwords암호
강한 암호를 가져야 한다는 것이었죠.
02:00
that complied준수하다 with some new새로운 requirements요구 사항,
거기다가 몇 가지 새로운 조건이 있는데
02:03
and these requirements요구 사항 were that our passwords암호
그 조건은 암호에
02:05
had to have a lot of entropy엔트로피.
불확실성이 많아야 한다는 거였어요.
02:07
Now entropy엔트로피 is a complicated복잡한 term기간,
불확실성은 복잡한 용어인데,
02:09
but basically원래 it measures조치들 the strength of passwords암호.
기본적으로 그것은
암호의 강도를 측정합니다.
02:11
But the thing is, there isn't actually사실은
하지만 실제로는
02:14
a standard표준 measure법안 of entropy엔트로피.
불확실성을 재는
표준 측정법이 없습니다.
02:16
Now, the National내셔널 Institute학회
of Standards표준 and Technology과학 기술
국립 표준 기술 연구소(NST)는
02:18
has a set세트 of guidelines지침
지침서를 갖고 있는데
02:20
which어느 have some rules규칙들 of thumb무지
거기에 불확실성을 재는
02:22
for measuring자질 entropy엔트로피,
몇 가지 규칙이 나와있지만
02:24
but they don't have anything too specific특유한,
구체적인 것은 없습니다.
02:26
and the reason이유 they only have rules규칙들 of thumb무지
경험에 근거한
규칙만 갖고 있는 까닭은
02:29
is it turns회전 out they don't actually사실은 have any good data데이터
실제로 암호에 관해서
02:31
on passwords암호.
다양한 자료가 없기 때문입니다.
02:34
In fact, their그들의 report보고서 states,
사실 국립 표준 기술 연구소의
보고를 보면
02:36
"Unfortunately운수 나쁘게, we do not have much data데이터
"유감스럽게도 저희는
정해진 규칙에 따라
02:38
on the passwords암호 users사용자
choose고르다 under아래에 particular특별한 rules규칙들.
사용자가 선택한 암호에
관해 많은 자료가 없습니다.
02:40
NISTNIST would like to obtain얻다 more data데이터
NIST는 사용자가 실제로 선택한
02:43
on the passwords암호 users사용자 actually사실은 choose고르다,
암호에 관해
더 많은 자료를 모으고 싶지만
02:45
but system체계 administrators관리자
are understandably당연히 reluctant싫어하는
시스템 관리자는 암호 자료를
02:48
to reveal창틀 password암호 data데이터 to others다른 사람."
다른 사람에게 공개하기를 꺼립니다."
02:50
So this is a problem문제, but our research연구 group그룹
그래서 이게 문제인데 저희 연구팀은
02:53
looked보았다 at it as an opportunity기회.
이걸 기회로 봤습니다.
02:56
We said, "Well, there's a need
for good password암호 data데이터.
저희는 "좋은 암호 자료가
필요하다"고 말했죠.
02:58
Maybe we can collect수집 some good password암호 data데이터
저희가 어쩌면
좋은 암호 자료를 모을 수 있고
03:02
and actually사실은 advance전진 the state상태 of the art미술 here.
여기서 예술의 경지로
이끌어갈 지도 모르죠.
03:04
So the first thing we did is,
그래서 처음에 한 일은
03:06
we got a bag가방 of candy사탕 bars
캔디바 (막대기형의 스낵)
한 봉지를 가지고
03:08
and we walked걸었다 around campus교정
교내를 돌아다니면서
03:10
and talked말한 to students재학생, faculty학부 and staff직원,
학생, 교수, 직원들에게
03:11
and asked물었다 them for information정보
암호에 관한
03:14
about their그들의 passwords암호.
질문을 던졌습니다.
03:15
Now we didn't say, "Give us your password암호."
"암호를 말해주세요."
라고 하지는 않았어요.
03:17
No, we just asked물었다 them about their그들의 password암호.
그저 암호에 관해서 물어봤습니다.
03:20
How long is it? Does it have a digit손가락?
암호가 얼마나 길죠?
숫자가 들어갔나요?
03:22
Does it have a symbol상징?
기호가 들어갔습니까?
03:24
And were you annoyed괴로운 at having to create몹시 떠들어 대다
"지난 주에 새로운 암호를
03:25
a new새로운 one last week?
만들어야 했을 때
귀찮게 느껴졌나요?"
03:27
So we got results결과들 from 470 students재학생,
그래서 저희는 470 명의 학생,
03:30
faculty학부 and staff직원,
교수, 직원들한테서 답을 받았고
03:33
and indeed과연 we confirmed확인 된 that the new새로운 policy정책
새로운 정책이 정말로 피곤하게 한다는
03:34
was very annoying성가신,
사실을 확인했습니다.
03:36
but we also또한 found녹이다 that people said
하지만 동시에 사람들은
03:38
they felt펠트 more secure안전한 with these new새로운 passwords암호.
새 암호의 보안이 강화되었음을
느꼈다고 말했습니다.
03:40
We found녹이다 that most가장 people knew알고 있었다
대부분의 사람들이
03:43
they were not supposed가정의 to
write쓰다 their그들의 password암호 down,
암호를 적어두면
안 된다고 알고 있었고
03:45
and only 13 percent퍼센트 of them did,
오직 13% 의 사람들이
암호를 적어 두었고
03:47
but disturbingly혼란스럽게, 80 percent퍼센트 of people
놀랍게도 80 % 의 사람들이
03:50
said they were reusing재사용 their그들의 password암호.
암호를 다시 사용하고 있었습니다.
03:52
Now, this is actually사실은 more dangerous위험한
이는 암호를 적어두는 것보다
03:54
than writing쓰기 your password암호 down,
실제로 더 위험합니다.
03:56
because it makes~을 만든다 you much
more susceptible느끼기 쉬운 to attackers공격자.
왜냐하면 쉽게 공격받을
수 있기 때문입니다.
03:58
So if you have to, write쓰다 your passwords암호 down,
그러니 필요하다면
암호를 적되
04:01
but don't reuse재사용 them.
다시 사용하지는 마세요.
04:05
We also또한 found녹이다 some interesting재미있는 things
저희는 또 사람들이 암호에 쓰는
04:06
about the symbols기호들 people use in passwords암호.
기호에 대해
재미난 사실을 알았습니다.
04:08
So CMUCMU allows허락하다 32 possible가능한 symbols기호들,
카네기 멜론 대학은 사용가능한
32 개의 기호를 허용하는데
04:11
but as you can see, there's only a small작은 number번호
보시다시피 사람들은
04:14
that most가장 people are using~을 사용하여,
아주 적은 일부의 기호만
사용하고 있습니다.
04:16
so we're not actually사실은 getting점점 very much strength
그래서 암호에 들어간 기호때문에
04:18
from the symbols기호들 in our passwords암호.
암호의 강도가
그다지 세지지 않습니다.
04:21
So this was a really interesting재미있는 study연구,
이것은 정말 흥미로운 연구였는데
04:23
and now we had data데이터 from 470 people,
470 명한테 받은 자료가 있고
04:26
but in the scheme계획 of things,
일반적으로 볼 때
04:29
that's really not very much password암호 data데이터,
암호 자료가 많은 것은 아닙니다.
04:30
and so we looked보았다 around to see
그래서 암호 자료를 추가로
04:33
where could we find additional추가의 password암호 data데이터?
얻을 수 있는 곳이
어딘가 살펴봤습니다.
04:34
So it turns회전 out there are a lot of people
그런데 많은 사람들이
04:37
going around stealing훔침 passwords암호,
암호를 훔쳐서
04:39
and they often자주 go and post게시하다 these passwords암호
인터넷에
04:41
on the Internet인터넷.
훔친 암호를
올려놓는 것을 알았습니다.
04:43
So we were able할 수 있는 to get access접속하다
저희는 이렇게 도난당한 암호에
04:45
to some of these stolen훔친 password암호 sets세트.
접속할 수 있었지만
04:46
This is still not really ideal이상 for research연구, though그래도,
연구를 위해서는
적합하지 않습니다.
04:50
because it's not entirely전적으로 clear명확한
왜냐하면 이들 암호의
04:53
where all of these passwords암호 came왔다 from,
출처가 분명하지 않고
04:55
or exactly정확하게 what policies정책들 were in effect효과
사람들이 암호를 만들었을 때
04:57
when people created만들어진 these passwords암호.
어떤 방침을
따랐는지 모르기 때문이죠.
04:59
So we wanted to find some better source출처 of data데이터.
그래서 저희는 좀더 나은
자료를 찾고 싶었습니다.
05:01
So we decided결정적인 that one thing we could do
그래서 저희가
할 수 있는 방법 하나는
05:05
is we could do a study연구 and have people
연구를 하고
그래서 사람들이
05:06
actually사실은 create몹시 떠들어 대다 passwords암호 for our study연구.
저희가 하는 연구를 위해서
암호를 만들게 하는 것이죠.
05:09
So we used a service서비스 called전화 한
Amazon아마존 Mechanical기계 Turk잔인한 사람,
저희는 아마존 미케니컬 터크라는
서비스를 이용했습니다.
05:12
and this is a service서비스 where you can post게시하다
이 서비스는
05:15
a small작은 job online온라인 that takes a minute,
1 분, 몇 분, 1 시간이 걸리는
05:17
a few조금 minutes의사록, an hour시간,
작은 업무를 온라인에 올려서
05:19
and pay지불 people, a penny페니, ten cents센트, a few조금 dollars불화,
그 일을 하는 사람들에게
05:21
to do a task태스크 for you,
1 페니, 10 센트, 몇 달러를
지불하게 합니다.
05:23
and then you pay지불 them through...을 통하여 Amazon아마존.comcom.
아마존으로 지불하죠.
05:25
So we paid유료 people about 50 cents센트
그래서 저희는
사람들에게 50 센트를 주고
05:27
to create몹시 떠들어 대다 a password암호 following수행원 our rules규칙들
저희가 제시하는 규칙에 따라
05:29
and answering응답 a survey측량,
암호를 만들게 하고
설문조사에 답하도록 했습니다.
05:32
and then we paid유료 them again to come back
그리고 이틀 뒤에
05:33
two days later후에 and log로그 in
그들의 암호로 로그인해서
05:36
using~을 사용하여 their그들의 password암호 and answering응답 another다른 survey측량.
또다른 설문조사에 답하게 했죠.
05:38
So we did this, and we collected모은 5,000 passwords암호,
저희는 이런 실험을 해서
암호 5,000 개를 모았는데
05:40
and we gave people a bunch다발 of different다른 policies정책들
암호를 만들 때 필요한
05:45
to create몹시 떠들어 대다 passwords암호 with.
조건을 다양하게 줬습니다.
05:47
So some people had a pretty예쁜 easy쉬운 policy정책,
어떤 사람들한테는 아주 쉬운
정책을 줬는데
05:49
we call it Basic기본8,
기본 8 이라고 하겠습니다.
05:51
and here the only rule규칙 was that your password암호
여기서는 유일한 규칙이
05:52
had to have at least가장 작은 eight여덟 characters문자들.
8개의 글자만 있으면 됩니다.
05:55
Then some people had a much harder열심히 policy정책,
다른 사람들한테는
아주 힘든 정책을 줬는데
05:58
and this was very similar비슷한 to the CMUCMU policy정책,
이는 카네기 멜론 대학의 정책과
아주 비슷했어요.
06:00
that it had to have eight여덟 characters문자들
글자 수는 8개가 되어야 하고
06:03
including포함 uppercase대문자, lowercase소문자, digit손가락, symbol상징,
대문자, 소문자, 숫자,
기호가 있어야 하고
06:05
and pass패스 a dictionary사전 check검사.
사전에 없어야 됩니다.
06:07
And one of the other policies정책들 we tried시도한,
저희가 해본 다른 정책 중 하나는
06:09
and there were a whole완전한 bunch다발 more,
아주 다양한 실험을 했는데
06:11
but one of the ones그들 we tried시도한 was called전화 한 Basic기본16,
그 중 하나는 기본 16 이라고
부르는 것으로
06:12
and the only requirement요건 here
여기서 필요한 것은 한 가지
06:14
was that your password암호 had
to have at least가장 작은 16 characters문자들.
최소한 16개의 글자만
있으면 됩니다.
06:17
All right, so now we had 5,000 passwords암호,
자, 그래서 저희는
암호 5,000 개를 모았고
06:20
and so we had much more detailed상세한 information정보.
아주 상세한 정보를 얻게 되었죠.
06:23
Again we see that there's only a small작은 number번호
사람들이 암호에서
06:26
of symbols기호들 that people are actually사실은 using~을 사용하여
실제로 사용하는 기호는
06:29
in their그들의 passwords암호.
몇 개 뿐임을 알 수 있었어요.
06:31
We also또한 wanted to get an idea생각 of how strong강한
저희는 사람들이 만드는 암호가
06:33
the passwords암호 were that people were creating창조,
얼마나 강한지 알고 싶었습니다.
06:35
but as you may할 수있다 recall소환, there isn't a good measure법안
여러분이 기억하실 지 모르지만
06:38
of password암호 strength.
암호의 강도를 재는
좋은 측정방법은 없습니다.
06:40
So what we decided결정적인 to do was to see
그래서 저희가 한 일은
06:42
how long it would take to crack갈라진 금 these passwords암호
이들 암호를 해독하는데
걸리는 시간을 보는 거였죠.
06:45
using~을 사용하여 the best베스트 cracking열분해 tools도구들
나쁜 사람들이 사용하는
06:47
that the bad나쁜 guys are using~을 사용하여,
암호 해독기를 사용하거나
06:48
or that we could find information정보 about
연구소에서
06:50
in the research연구 literature문학.
찾을 수 있는 정보를 이용해서 말이죠.
06:52
So to give you an idea생각 of how bad나쁜 guys
나쁜 사람들이 암호를 풀 때
06:54
go about cracking열분해 passwords암호,
어떻게 하는지를 보여드리자면
06:56
they will steal훔치다 a password암호 file파일
그들은 모든 암호가 들어있는
06:59
that will have all of the passwords암호
암호 파일을 훔칩니다.
07:01
in kind종류 of a scrambled뒤섞인 form형태, called전화 한 a hash해시시,
암호가 해시라고 부르는
형태로 들어있습니다.
07:03
and so what they'll그들은 할 것이다 do is they'll그들은 할 것이다 make a guess추측
그러면 암호가 뭔지
07:06
as to what a password암호 is,
추측을 해 나갑니다.
07:08
run운영 it through...을 통하여 a hashing해싱 function기능,
해시 함수를 써서
07:10
and see whether인지 어떤지 it matches성냥
훔친 목록에 들어있는 암호와
07:12
the passwords암호 they have on
their그들의 stolen훔친 password암호 list명부.
맞는지 비교합니다.
07:14
So a dumb우둔한 attacker공격자 will try every...마다 password암호 in order주문.
멍청한 공격자는 모든 암호를
순서대로 해 볼겁니다.
07:18
They'll그들은 할 것이다 start스타트 with AAAAAAAAAA and move움직임 on to AAAABAAAAB,
AAAAAA로 시작해서
AAAAB로 옮겨갑니다.
07:21
and this is going to take a really long time
이렇게 하면
07:24
before they get any passwords암호
사람들이 실제로 가진
07:27
that people are really likely아마도 to actually사실은 have.
암호를 풀기까지
상당한 시간이 걸립니다.
07:28
A smart똑똑한 attacker공격자, on the other hand,
반면에 똑똑한 공격자는
07:31
does something much more clever영리한.
훨씬 더 영리한 방법을 씁니다.
07:33
They look at the passwords암호
그들은 훔진 암호에서
07:34
that are known알려진 to be popular인기 있는
인기가 많은
07:36
from these stolen훔친 password암호 sets세트,
암호를 보고
07:38
and they guess추측 those first.
그것들을 먼저 추측합니다.
07:40
So they're going to start스타트 by guessing짐작 "password암호,"
그래서 "암호"를 먼저 추측하고
07:41
and then they'll그들은 할 것이다 guess추측 "I love you," and "monkey원숭이,"
그 다음은 "사랑해", "원숭이",
07:43
and "12345678,"
""12345678"을 추측하죠.
07:46
because these are the passwords암호
왜냐하면 이런 암호들을
07:48
that are most가장 likely아마도 for people to have.
사람들이 자주 쓰기 때문이죠.
07:50
In fact, some of you probably아마 have these passwords암호.
어쩌면 여러분 가운데 몇 분도
이런 암호를 갖고 계실지도 모릅니다.
07:52
So what we found녹이다
그래서 암호가 얼마나 강한지
07:57
by running달리는 all of these 5,000 passwords암호 we collected모은
알아보기 위한 실험에서
저희가 모은 5 천개의 암호에서
07:58
through...을 통하여 these tests검사들 to see how strong강한 they were,
발견한 사실은
08:01
we found녹이다 that the long passwords암호
긴 암호가
08:06
were actually사실은 pretty예쁜 strong강한,
실제로 아주 강하다는 것이었어요.
08:08
and the complex복잡한 passwords암호 were pretty예쁜 strong강한 too.
복잡한 암호도 상당히 강했구요.
08:10
However하나, when we looked보았다 at the survey측량 data데이터,
하지만 저희가 조사한 자료를 봤을 때
08:13
we saw that people were really frustrated실망한
사람들은 아주 복잡한 암호 때문에
08:15
by the very complex복잡한 passwords암호,
정말 짜증스러워했습니다.
08:18
and the long passwords암호 were a lot more usable쓸 수 있는,
긴 암호는 더 사용할 수 있고
08:21
and in some cases사례, they were actually사실은
어떤 경우에는
08:23
even stronger더 강한 than the complex복잡한 passwords암호.
복잡한 암호보다 강했습니다.
08:25
So this suggests제안 that,
이 말은
08:27
instead대신에 of telling말함 people that they need
사람들한테
08:29
to put all these symbols기호들 and numbers번호
이런 기호와 숫자,
08:30
and crazy미친 things into their그들의 passwords암호,
이상한 것들을 암호에
넣으라고 하는 대신,
08:32
we might be better off just telling말함 people
긴 암호를 만들어라고
08:35
to have long passwords암호.
말하는게 나을 지도 모릅니다.
08:37
Now here's여기에 the problem문제, though그래도:
하지만 문제가 생기죠.
08:39
Some people had long passwords암호
어떤 사람들은 긴 암호를 만들지만
08:41
that actually사실은 weren't하지 않았다 very strong강한.
실제로 강하지는 않습니다.
08:43
You can make long passwords암호
여러분은 긴 암호를 만들 수 있지만
08:45
that are still the sort종류 of thing
여전히 공격자가
08:47
that an attacker공격자 could easily용이하게 guess추측.
쉽게 추측할 수 있습니다.
08:49
So we need to do more than
just say long passwords암호.
그래서 저희는 긴 암호에
덧붙여 뭔가를 할 필요가 있어요.
08:50
There has to be some additional추가의 requirements요구 사항,
어떤 부가적인 요소가 있어야 하는데,
08:54
and some of our ongoing전진 research연구 is looking at
저희가 계속하고 있는 연구의 일부는
08:56
what additional추가의 requirements요구 사항 we should add더하다
어떤 부가적인 요소를 넣어야
08:59
to make for stronger더 강한 passwords암호
강한 암호를 만들고
09:01
that also또한 are going to be easy쉬운 for people
또 사람들이 기억하기도 쉬우면서
09:03
to remember생각해 내다 and type유형.
입력하기도 쉬운지를
살펴보는 일입니다.
09:05
Another다른 approach접근 to getting점점 people to have
사람들에게 강한 암호를 만들게 하는
09:08
stronger더 강한 passwords암호 is to use a password암호 meter미터.
또다른 방법은 암호 미터를
사용하는 것인데요.
09:10
Here are some examples예제들.
여기 몇 가지 보기가 있습니다.
09:12
You may할 수있다 have seen these on the Internet인터넷
여러분이 인터넷에서
09:14
when you were creating창조 passwords암호.
암호를 만들 때 봤을 거에요.
09:15
We decided결정적인 to do a study연구 to find out
이런 암호 미터가
정말로 효과가 있는지
09:18
whether인지 어떤지 these password암호 meters미터 actually사실은 work.
살펴보기 위해 연구를 했습니다.
09:21
Do they actually사실은 help people
실제로 암호 미터가
사람들이
09:23
have stronger더 강한 passwords암호,
강한 암호를 만드는데 도움을 주는가?
09:25
and if so, which어느 ones그들 are better?
그렇다면 어느 방법이 더 나은가?
09:26
So we tested테스트 한 password암호 meters미터 that were
저희들은 서로 다른
암호 미터를 실험했습니다.
09:28
different다른 sizes크기, shapes도형, colors그림 물감,
다른 크기, 모양, 색깔,
09:31
different다른 words next다음 것 to them,
다른 말을 암호 옆에 뒀어요.
09:33
and we even tested테스트 한 one that was a dancing댄스 bunny토끼.
춤추는 토끼까지 실험했습니다.
09:34
As you type유형 a better password암호,
여러분이 좀더 나은 암호를 입력하면
09:38
the bunny토끼 dances faster더 빠른 and faster더 빠른.
토끼가 더욱더 빨리 춤을 춥니다.
09:39
So this was pretty예쁜 fun장난.
아주 재미있었어요.
09:42
What we found녹이다
저희가 발견한 사실은
09:44
was that password암호 meters미터 do work.
암호 미터가 효과가 있었다는 거죠.
09:46
(Laughter웃음)
(웃음)
09:49
Most가장 of the password암호 meters미터 were actually사실은 effective유효한,
대부분의 암호 미터가
실제 효과가 있었고
09:51
and the dancing댄스 bunny토끼 was very effective유효한 too,
춤추는 토끼도 좋은 효과가 있었지만
09:55
but the password암호 meters미터 that were the most가장 effective유효한
가장 효과가 뛰어난 암호 미터는
09:57
were the ones그들 that made만든 you work harder열심히
"잘하고 있어요" 라고
10:00
before they gave you that thumbs엄지 손가락 up and said
엄지손가락을 치켜세우는
화면을 보여주기 전까지
10:02
you were doing a good job,
사람들이 더 노력하게끔
만드는 것이었습니다.
10:04
and in fact we found녹이다 that most가장
사실 인터넷에 나오는
10:06
of the password암호 meters미터 on the Internet인터넷 today오늘
대부분의 암호 미터는
10:07
are too soft부드러운.
너무 부드럽다는 것을
발견했습니다.
10:10
They tell you you're doing a good job too early이른,
암호 미터는 "여러분이 잘하고 있다"고
너무나 일찍 말합니다.
10:10
and if they would just wait a little bit비트
그렇게 긍정적인 의견을 주기전에
10:13
before giving주는 you that positive feedback피드백,
조금만 더 기다린다면
10:15
you probably아마 would have better passwords암호.
여러분은 조금 더 나은
암호를 만들겁니다.
10:17
Now another다른 approach접근 to better passwords암호, perhaps혹시,
더 나은 암호를 만드는 또다른 방법은
10:20
is to use pass패스 phrases실없는 말 instead대신에 of passwords암호.
암호 대신
비밀어구를 사용하는 것이죠.
10:24
So this was an xkcdxkcd cartoon만화
from a couple of years연령 ago...전에,
이건 몇 년 전에 나온
xkcd 만화인데
10:27
and the cartoonist만화가 suggests제안
만화가는
10:30
that we should all use pass패스 phrases실없는 말,
우리가 비밀어구를
써야 한다고 말합니다.
10:32
and if you look at the second둘째 row of this cartoon만화,
이 만화의 둘째줄을 보면
10:34
you can see the cartoonist만화가 is suggesting제안하는
만화가가 비밀어구인
10:37
that the pass패스 phrase "correct옳은 horse battery배터리 staple스테이플"
"바른 말 밧데리 스테이플"
이라고 제안하는데
10:39
would be a very strong강한 pass패스 phrase
이것은 꽤 강한 비밀어구이고
10:42
and something really easy쉬운 to remember생각해 내다.
외우기도 쉽습니다.
10:45
He says말한다, in fact, you've already이미 remembered기억 된 it.
만화가는 여러분이 이미
그걸 외웠다고 얘기합니다.
10:47
And so we decided결정적인 to do a research연구 study연구
그래서 저희는 이것이 사실인지 아닌지
10:50
to find out whether인지 어떤지 this was true참된 or not.
확인하기 위해서 연구를 했습니다.
10:52
In fact, everybody각자 모두 who I talk to,
사실 제가 얘기한 모든 사람들이
10:54
who I mention언급하다 I'm doing password암호 research연구,
제가 암호에 관한
연구를 한다고 했더니
10:56
they point포인트 out this cartoon만화.
이 만화를 말하더군요.
10:58
"Oh, have you seen it? That xkcdxkcd.
"아, 그것 보셨어요? xkcd만화요.
10:59
Correct옳은 horse battery배터리 staple스테이플."
올바른 말 밧데리 스테이플."
11:01
So we did the research연구 study연구 to see
그래서 저희는 실제로
11:03
what would actually사실은 happen우연히 있다.
어떤 일이 벌어지는지 연구했습니다.
11:04
So in our study연구, we used Mechanical기계 Turk잔인한 사람 again,
저희가 한 연구에서
미케니컬 터크를 다시 썼는데
11:07
and we had the computer컴퓨터 pick선택 the random무작위의 words
컴퓨터가 무작위로 낱말을 뽑아서
11:10
in the pass패스 phrase.
비밀어구를 만들게 했습니다.
11:14
Now the reason이유 we did this
그렇게 한 까닭은
11:15
is that humans인간 are not very good
사람들이 무작위로 낱말을 고르는데
11:16
at picking선발 random무작위의 words.
익숙하지 않기 때문입니다.
11:18
If we asked물었다 a human인간의 to do it,
사람들한테 그렇게 하라고 하면
11:19
they would pick선택 things that were not very random무작위의.
별로 무작위적이지 않은
낱말을 고르고는 했죠.
11:21
So we tried시도한 a few조금 different다른 conditions정황.
그래서 저희는
다른 조건을 넣었습니다.
11:24
In one condition조건, the computer컴퓨터 picked뽑힌
한 조건에는, 컴퓨터가
11:26
from a dictionary사전 of the very common공유지 words
영어 사전에서
11:28
in the English영어 language언어,
아주 흔한 낱말을 고르게 했고
11:30
and so you'd당신은 get pass패스 phrases실없는 말 like
그러면 여러분은 다음과 같은
비밀어구를 얻습니다.
11:31
"try there three come."
"거기서 셋이 오게 해."
11:33
And we looked보았다 at that, and we said,
저희는 그걸 보고
11:35
"Well, that doesn't really seem보다 very memorable기억에 남는."
"쉽게 외울 수 없어보여."라고 했죠.
11:37
So then we tried시도한 picking선발 words
그래서 저희들은
11:40
that came왔다 from specific특유한 parts부분품 of speech연설,
연설의 구체적인 한 부분에서
낱말을 고르게 했습니다.
11:42
so how about noun-verb-adjective-noun명사 - 동사 - 형용사.
명사-동사-형용사-명사
이런 식으로요.
11:44
That comes온다 up with something
that's sort종류 of sentence-like문장과 같은.
그러면 일종의 문장처럼 나옵니다.
11:47
So you can get a pass패스 phrase like
그래서 다음과 같은
비밀어구가 생기죠.
11:49
"plan계획 builds빌드 sure power"
"계획은 확실한 힘을 세운다" 나
11:51
or "end종료 determines결정하다 red빨간 drug."
"마지막은 빨간 약을 결정짓는다."
11:53
And these seemed~ 같았다 a little bit비트 more memorable기억에 남는,
이것들은 좀 더 외우기가
쉬운것처럼 보이죠.
11:55
and maybe people would like those a little bit비트 better.
사람들이 이런 걸 조금 더
좋아할 지도 모르죠.
11:58
We wanted to compare비교 them with passwords암호,
저희는 비밀어구를 암호와
비교해보고 싶었습니다.
12:01
and so we had the computer컴퓨터
pick선택 random무작위의 passwords암호,
그래서 컴퓨터가 무작위로
암호를 고르게 했는데
12:03
and these were nice좋은 and short짧은, but as you can see,
이들 암호는 짧고 멋지지만
여러분이 보시다시피
12:07
they don't really look very memorable기억에 남는.
쉽게 외울 수 없게 보입니다.
12:09
And then we decided결정적인 to try something called전화 한
그 다음에는
12:11
a pronounceable발음 할 수있는 password암호.
발음하기 쉬운 암호를
연구했습니다.
12:13
So here the computer컴퓨터 picks추천 random무작위의 syllables음절
여기서는 컴퓨터가 무작위로
12:14
and puts넣다 them together함께
음절을 골라 같이 묶어서
12:17
so you have something sort종류 of pronounceable발음 할 수있는,
발음할 수 있는 낱말을 만듭니다.
12:18
like "tufritvi투 프릿 비" and "vadasabi바다 사비."
"투프리트비"나 "바다사비"
같은 것이죠.
12:20
That one kind종류 of rolls off your tongue.
그런 말은 여러분 혀에서
굴러나옵니다.
12:23
So these were random무작위의 passwords암호 that were
이렇게 무작위로 나온 암호가
12:25
generated생성 된 by our computer컴퓨터.
컴퓨터로 만들어집니다.
12:27
So what we found녹이다 in this study연구 was that, surprisingly놀랍게도,
저희가 한 연구에서
발견한 사실은 놀랍게도
12:30
pass패스 phrases실없는 말 were not actually사실은 all that good.
비밀어구가 실제로는 그렇게
훌륭하지 않다는 것입니다.
12:33
People were not really better at remembering기억하는
사람들은 이렇게
무작위로 뽑은 암호보다
12:37
the pass패스 phrases실없는 말 than these random무작위의 passwords암호,
비밀어구를 잘 외우지 못했는데
12:40
and because the pass패스 phrases실없는 말 are longer더 길게,
비밀어구가 길고
12:43
they took~했다 longer더 길게 to type유형
입력하기도 길고
12:45
and people made만든 more errors오류 while typing타자 them in.
사람들이 입력하면서
실수도 하기 때문이죠.
12:47
So it's not really a clear명확한 win승리 for pass패스 phrases실없는 말.
그래서 비밀어구의
명백한 승리는 아닙니다.
12:50
Sorry, all of you xkcdxkcd fans팬들.
xkcd 팬 여러분께는 죄송하군요.
12:53
On the other hand, we did find
다른 한편으로
12:56
that pronounceable발음 할 수있는 passwords암호
발음할 수 있는 암호가
12:58
worked일한 surprisingly놀랍게도 well,
놀랍게도 효과가 있었고
13:00
and so we actually사실은 are doing some more research연구
그러한 접근방법이 더 나은지
13:01
to see if we can make that
approach접근 work even better.
연구를 좀 더 했습니다.
13:04
So one of the problems문제들
저희가 한 연구의 일부에서
13:07
with some of the studies연구 that we've우리는 done끝난
맞닥뜨린 문제는
13:09
is that because they're all done끝난
모든 연구를
13:10
using~을 사용하여 Mechanical기계 Turk잔인한 사람,
미케니컬 터크를 이용한 것이어서
13:12
these are not people's사람들의 real레알 passwords암호.
이것들이 사람들이 사용하는
진짜 암호는 아니라는 거죠.
13:14
They're the passwords암호 that they created만들어진
저희가 하는 연구를 위해서
사람들이 만든 암호이거나
13:15
or the computer컴퓨터 created만들어진 for them for our study연구.
컴퓨터가 만든 암호입니다.
13:18
And we wanted to know whether인지 어떤지 people
저희가 알고 싶었던 것은
13:20
would actually사실은 behave굴다 the same같은 way
사람들이 자신들의 진짜 암호에도
13:22
with their그들의 real레알 passwords암호.
비슷하게 행동하는지 였습니다.
13:24
So we talked말한 to the information정보
security보안 office사무실 at Carnegie카네기 Mellon멜론
그래서 저희는 카네기멜론 대학의
정보 안전소와 얘기해서
13:26
and asked물었다 them if we could
have everybody's모두들 real레알 passwords암호.
모든 사람들의 진짜 암호를
얻을 수 있는지 물었습니다.
13:30
Not surprisingly놀랍게도, they were a little bit비트 reluctant싫어하는
당연히 그들은
13:34
to share them with us,
암호를 공개하고 싶어하지 않았어요.
13:35
but we were actually사실은 able할 수 있는 to work out
하지만 저희는 실제로 암호를
13:37
a system체계 with them
연구할 수 있는 시스템을
생각해냈습니다.
13:39
where they put all of the real레알 passwords암호
25,000 명의 카네기멜론 대학
학생, 교수, 직원들의
13:40
for 25,000 CMUCMU students재학생, faculty학부 and staff직원,
진짜 암호를
13:42
into a locked잠긴 computer컴퓨터 in a locked잠긴 room,
암호가 걸린 컴퓨터에 넣고
암호가 걸린 방에 두고
13:45
not connected연결된 to the Internet인터넷,
인터넷 연결도 끊은 채
13:47
and they ran달렸다 code암호 on it that we wrote
이들 암호를 분석하기 위해
13:49
to analyze분석하다 these passwords암호.
저희가 개발한
프로그램을 돌렸습니다.
13:51
They audited감사 한 our code암호.
그들은 저희가 개발한
프로그램을 검토한 뒤
13:53
They ran달렸다 the code암호.
그걸 실행했습니다.
13:54
And so we never actually사실은 saw
그래서 저희는 실제로
13:55
anybody's아무나 password암호.
누구의 암호도 보지 못했습니다.
13:57
We got some interesting재미있는 results결과들,
저희는 재미있는 결과를 얻었는데
14:00
and those of you Tepper테퍼 students재학생 in the back
저 뒤에 앉아있는 테퍼스쿨 학생들이
14:02
will be very interested관심있는 in this.
흥미로워 할 결과입니다.
14:03
So we found녹이다 that the passwords암호 created만들어진
컴퓨터 학부에 소속된
14:06
by people affiliated계열사 with the
school학교 of computer컴퓨터 science과학
사람들이 만든 암호는
14:10
were actually사실은 1.8 times타임스 stronger더 강한
경영 대학에 소속된
14:12
than those affiliated계열사 with the business사업 school학교.
사람들이 만든 암호보다
1.8배 강했습니다.
14:14
We have lots of other really interesting재미있는
아주 재미있는
14:18
demographic인구 통계학의 information정보 as well.
인구통계학 정보도 많은데요.
14:20
The other interesting재미있는 thing that we found녹이다
저희가 발견한
또다른 재미있는 사실은
14:22
is that when we compared비교하다
the Carnegie카네기 Mellon멜론 passwords암호
카네기멜론 대학의 암호와
14:24
to the Mechanical기계 Turk-generated터크 생성 된 passwords암호,
미케니컬 터크가 만든
암호를 비교했을 때
14:27
there was actually사실은 a lot of similarities유사점,
실제로 아주 비슷한 점이 많아서
14:29
and so this helped도움이 된 validate유효성을 검사하다 our research연구 method방법
저희가 한 연구방법을
인증하는데 도움이 되었고
14:31
and show보여 주다 that actually사실은, collecting수집 passwords암호
미케니컬 터크를 이용해서
14:33
using~을 사용하여 these Mechanical기계 Turk잔인한 사람 studies연구
암호를 모은 방법이
14:36
is actually사실은 a valid유효한 way to study연구 passwords암호.
암호를 연구하는데
효과적인 방법임을 보여줬습니다.
14:38
So that was good news뉴스.
그래서 그건 좋은 뉴스였죠.
14:41
Okay, I want to close닫기 by talking말하는 about
자, 마지막으로
14:43
some insights통찰력 I gained얻은 while on sabbatical안식일 같은
제가 작년에 안식년을
14:45
last year in the Carnegie카네기 Mellon멜론 art미술 school학교.
카네기멜론 예술 대학에서 보냈을 때
얻은 경험을 얘기하겠습니다.
14:47
One of the things that I did
제가 한 일 가운데 하나는
14:51
is I made만든 a number번호 of quilts퀼트,
조각 이불을 몇 개를 만든 거죠.
14:52
and I made만든 this quilt이불 here.
여기 보시는 조각 이불을 만들었는데
14:53
It's called전화 한 "Security보안 Blanket담요."
"안보 이불"이라고 부릅니다.
14:55
(Laughter웃음)
(웃음)
14:57
And this quilt이불 has the 1,000
이 조각 이불은
14:59
most가장 frequent빈번한 passwords암호 stolen훔친
롹 유 웹사이트에서 가장 많이
15:02
from the RockYou website웹 사이트.
도난당한 암호
1,000 개가 들어있어요.
15:05
And the size크기 of the passwords암호 is proportional비례항
암호의 크기는
15:07
to how frequently자주 they appeared출연 한
도난당한 자료에서
15:09
in the stolen훔친 dataset데이터 세트.
자주 나오는 횟수에 비례합니다.
15:11
And what I did is I created만들어진 this word워드 cloud구름,
제가 한 일은 낱말로 된
구름을 만들어서
15:13
and I went갔다 through...을 통하여 all 1,000 words,
1,000 개의 낱말을 보고
15:16
and I categorized분류 된 them into
어떤 주제로
15:18
loose느슨하게 thematic어간 형성 모음 categories카테고리.
분류를 했습니다.
15:20
And it was, in some cases사례,
어떤 경우에는
15:22
it was kind종류 of difficult어려운 to figure그림 out
어떤 주제로
15:24
what category범주 they should be in,
분류해야 할 지 모를 때도 있었죠.
15:26
and then I color-coded색으로 구분 된 them.
그 뒤에 색깔로 분류했어요.
15:28
So here are some examples예제들 of the difficulty어려움.
그 과정이 얼마나 힘들었는지
여기서 보실 수 있습니다.
15:30
So "justin저스틴."
"져스틴"은
15:33
Is that the name이름 of the user사용자,
사용자의 이름이거나
15:34
their그들의 boyfriend남자 친구, their그들의 son아들?
남자친구, 아들이겠죠?
15:36
Maybe they're a Justin저스틴 Bieber비버 fan부채.
어쩌면 져스틴 비버의
팬일지도 몰라요.
15:37
Or "princess공주님."
또는 "공주."
15:40
Is that a nickname별명?
별명일까요?
15:42
Are they Disney디즈니 princess공주님 fans팬들?
디즈니 공주의 팬일까요?
15:44
Or maybe that's the name이름 of their그들의 cat고양이.
어쩌면 고양이의 이름일수도 있겠죠.
15:45
"Iloveyou사랑해" appears등장하다 many많은 times타임스
"사랑해"는 여러 언어에서
15:49
in many많은 different다른 languages언어.
많이 나왔습니다.
15:51
There's a lot of love in these passwords암호.
이들 암호에는 사랑이 넘칩니다.
15:52
If you look carefully면밀히, you'll see there's also또한
자세히 살펴보면
15:56
some profanity욕설,
비속한 말도 있지만
15:58
but it was really interesting재미있는 to me to see
이들 암호에
16:00
that there's a lot more love than hate미움
미움보다는 사랑이 훨씬 많다는 것을
16:02
in these passwords암호.
보는게 저한테는 흥미로웠습니다.
16:04
And there are animals동물,
동물도 있었는데
16:06
a lot of animals동물,
아주 많은 동물이 나왔어요.
16:08
and "monkey원숭이" is the most가장 common공유지 animal동물
"원숭이"는 가장 흔한 동물이고
16:09
and the 14th most가장 popular인기 있는 password암호 overall사무용 겉옷.
전체로 봤을 때 14번째로
인기있는 암호입니다.
16:12
And this was really curious이상한 to me,
저는 이게 정말 궁금했어요.
16:15
and I wondered궁금해하는, "Why are monkeys원숭이 so popular인기 있는?"
"왜 이렇게 원숭이가 인기가 많지?"
16:17
And so in our last password암호 study연구,
그래서 마지막 암호 연구에서
16:20
any time we detected탐지 된 somebody어떤 사람
"원숭이"가 들어간 암호를
16:23
creating창조 a password암호 with the word워드 "monkey원숭이" in it,
만든 사람을 감지하면
16:25
we asked물었다 them why they had
a monkey원숭이 in their그들의 password암호.
암호에 원숭이를
넣는 이유를 물었습니다.
16:28
And what we found녹이다 out --
저희가 발견한 사실은
16:31
we found녹이다 17 people so far멀리, I think,
지금까지 17명이
16:33
who have the word워드 "monkey원숭이" --
"원숭이"를 암호에 썼다는 것이죠.
16:35
We found녹이다 out about a third제삼 of them said
그중의 1/3 은
16:36
they have a pet착한 애 named명명 된 "monkey원숭이"
"원숭이"라고 이름붙인
애완동물을 갖고 있거나
16:38
or a friend친구 whose누구의 nickname별명 is "monkey원숭이,"
별명이 "원숭이"인
친구가 있다고 했습니다.
16:39
and about a third제삼 of them said
그리고 1/3 은
16:42
that they just like monkeys원숭이
원숭이를 좋아하고
16:43
and monkeys원숭이 are really cute귀엽다.
원숭이가 정말 귀엽다고 말했어요.
16:45
And that guy is really cute귀엽다.
그렇게 말한 사람은 참 귀엽습니다.
16:47
So it seems~ 같다 that at the end종료 of the day,
그래서, 최종적인 경향은
16:50
when we make passwords암호,
우리가 암호를 만들 때
16:54
we either어느 한 쪽 make something that's really easy쉬운
입력하기 아주 쉽거나
16:55
to type유형, a common공유지 pattern무늬,
흔한 패턴으로 만들거나,
16:57
or things that remind생각 나게하다 us of the word워드 password암호
우리에게 그 암호를
떠올리게 하는 것들이나
17:00
or the account계정 that we've우리는 created만들어진 the password암호 for,
우리가 암호를 위해 만든 계좌나
17:03
or whatever도대체 무엇이.
다른 어떤것이든지로 만들죠.
17:06
Or we think about things that make us happy행복,
또는 우리를 행복하게
만드는 것을 생각하거나
17:09
and we create몹시 떠들어 대다 our password암호
우리를 행복하게 만드는 것에
17:11
based기반 on things that make us happy행복.
근거해서 암호를 만듭니다.
17:13
And while this makes~을 만든다 typing타자
그래서 이렇게 하는 것은
암호를 입력하고
17:15
and remembering기억하는 your password암호 more fun장난,
기억하는게 재미있게 만들지만,
17:18
it also또한 makes~을 만든다 it a lot easier더 쉬운
암호를 추측하는 것 또한
17:21
to guess추측 your password암호.
훨씬 쉽게 합니다.
17:23
So I know a lot of these TED테드 Talks협상
저는 많은 TED 강연들이
17:24
are inspirational영감을주는
영감을 주는 것을 알고 있고
17:26
and they make you think about nice좋은, happy행복 things,
기분좋고 즐거운 것을
생각하게 만들지만
17:27
but when you're creating창조 your password암호,
여러분이 암호를 만들 때는
17:30
try to think about something else그밖에.
뭔가 다른 것을 생각하도록 하세요.
17:32
Thank you.
고맙습니다.
17:34
(Applause박수 갈채)
(박수)
17:35
Translated by Gemma Lee
Reviewed by Jeong-Lan Kinser

▲Back to top

About the speaker:

Lorrie Faith Cranor - Security researcher
At Carnegie Mellon University, Lorrie Faith Cranor studies online privacy, usable security, phishing, spam and other research around keeping us safe online.

Why you should listen

Lorrie Faith Cranor is an Associate Professor of Computer Science and of Engineering and Public Policy at Carnegie Mellon University, where she is director of the CyLab Usable Privacy and Security Laboratory (CUPS) and co-director of the MSIT-Privacy Engineering masters program. She is also a co-founder of Wombat Security Technologies, Inc. She has authored over 100 research papers on online privacy, usable security, phishing, spam, electronic voting, anonymous publishing, and other topics.

Cranor plays a key role in building the usable privacy and security research community, having co-edited the seminal book Security and Usability and founded the Symposium On Usable Privacy and Security (SOUPS). She also chaired the Platform for Privacy Preferences Project (P3P) Specification Working Group at the W3C and authored the book Web Privacy with P3P. She has served on a number of boards, including the Electronic Frontier Foundation Board of Directors, and on the editorial boards of several journals. In 2003 she was named one of the top 100 innovators 35 or younger by Technology Review.

More profile about the speaker
Lorrie Faith Cranor | Speaker | TED.com