ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

제이넵 투펙치(Zeynep Tufekci): 광고를 팔기 위해 우리는 지옥을 만들고 있습니다

Filmed:
2,866,905 views

우리는 단 한번의 클릭을 통해 인공지능의 지옥을 만들어 간다고 기술 사회학자 제이넵 투펙치가 말하고 있다. 우리를 깨우치는 강연을 통해 페이스북, 구글 그리고 아마존과 같은 기업이 동일한 알고리듬을 사용해 광고를 클릭하게 하고 사용자의 정치나 사회적 정보를 쉽게 접근하고 있다. 우리는 어떻게 권력이 인공지능을 사용해 우리를 지배하는지 설명하고 대응해야 하는지를 전달하고 있다
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voice목소리 fears두려움
of artificial인공의 intelligence지성,
0
760
3536
우리가 인공지능에 대해
걱정을 할 때마다
00:16
very often자주, they invoke~을 부르다 images이미지들
of humanoid휴머노이드 robots로봇 run운영 amok아목.
1
4320
3976
종종 통제불능의 인간처럼 생긴
로봇이 생각납니다.
00:20
You know? Terminator터미네이터?
2
8320
1240
터미네이터 생각하시나요?
00:22
You know, that might be
something to consider중히 여기다,
3
10400
2336
전혀 가능성이 없다고는 할수 없습니다만
00:24
but that's a distant threat위협.
4
12760
1856
아직은 먼 미래의
이야기라 할 수 있습니다.
00:26
Or, we fret프렛 about digital디지털 surveillance감시
5
14640
3456
과거 비유법으로 처음 등장한
00:30
with metaphors은유 from the past과거.
6
18120
1776
디지털 감시시스템에 대해
우려가 큽니다.
00:31
"1984," George성 조지 Orwell's오웰 "1984,"
7
19920
2656
"1984" 조지 오웰의 "1984"
00:34
it's hitting때리는 the bestseller베스트셀러 lists기울기 again.
8
22600
2280
요즘 다시 베스터 셀러가 되고 있습니다.
00:37
It's a great book도서,
9
25960
1416
대단한 책이죠.
00:39
but it's not the correct옳은 dystopia디스토피아
for the 21st century세기.
10
27400
3880
하지만, 21세기가 지향하는
세상은 아닌 것은 사실입니다.
00:44
What we need to fear무서움 most가장
11
32080
1416
우리가 여기서 가장 두려워해야 할 것은
00:45
is not what artificial인공의 intelligence지성
will do to us on its own개인적인,
12
33520
4776
인공지능이 스스로 힘으로
어떤 일을 할 수 있을까가 아닌
권력자들이 인공지능을
어떻게 사용할 것인가입니다.
00:50
but how the people in power
will use artificial인공의 intelligence지성
13
38320
4736
00:55
to control제어 us and to manipulate교묘히 다루다 us
14
43080
2816
소설처럼
00:57
in novel소설, sometimes때때로 hidden숨겨진,
15
45920
3136
보이지 않은 곳에서
01:01
subtle세밀한 and unexpected예기치 않은 ways.
16
49080
3016
느끼지 못하지만 교묘한 방법으로
우리를 통제하고 조종하려 할 것입니다.
01:04
Much of the technology과학 기술
17
52120
1856
그러한 기술 대부분은
01:06
that threatens위협하다 our freedom자유
and our dignity존엄 in the near-term단기간에 future미래
18
54000
4336
미래에 우리의 자유와
존엄성을 침해할 수 있지만
01:10
is being존재 developed개발 된 by companies회사들
19
58360
1856
많은 기업이 뛰어들고 있습니다.
01:12
in the business사업 of capturing캡처
and selling판매 our data데이터 and our attention주의
20
60240
4936
광고주와 우리 관심사를 모아
판매하는 회사들이 시스템을 개발하고 있습니다.
01:17
to advertisers광고주 and others다른 사람:
21
65200
2256
예를 들어, 페이스북, 구글, 아마존
01:19
Facebook페이스 북, GoogleGoogle, Amazon아마존,
22
67480
3416
알리바바, 텐센트등이 있습니다.
01:22
Alibaba알리바바, TencentTencent.
23
70920
1880
현재, 인공지능 영역은 기업의 성장에
이바지를 하고 있습니다.
01:26
Now, artificial인공의 intelligence지성 has started시작한
bolstering보강 their그들의 business사업 as well.
24
74040
5496
그리고 인공지능이
01:31
And it may할 수있다 seem보다
like artificial인공의 intelligence지성
25
79560
2096
01:33
is just the next다음 것 thing after online온라인 ads광고들.
26
81680
2856
온라인 인터넷 광고의 대체재로
여겨지기도 합니다만
실은 완전히 다른 영역의 기술이고
01:36
It's not.
27
84560
1216
01:37
It's a jump도약 in category범주.
28
85800
2456
기존의 기술 범주를
뛰어넘는 분야입니다.
01:40
It's a whole완전한 different다른 world세계,
29
88280
2576
새로운 기술인 셈이죠.
01:42
and it has great potential가능성.
30
90880
2616
굉장한 잠재능력을 갖추고
우리 인간의 연구와 실험의
이해속도를 가속할 수도 있습니다.
01:45
It could accelerate가속하다 our understanding이해
of many많은 areas지역 of study연구 and research연구.
31
93520
6920
01:53
But to paraphrase의역
a famous유명한 Hollywood할리우드 philosopher철학자,
32
101120
3496
하지만 한 유명한 할리우드
철학자의 말을 조금 인용해 말씀드리면
01:56
"With prodigious거대한 potential가능성
comes온다 prodigious거대한 risk위험."
33
104640
3640
"천재적인 잠재능력은
천재적인 위험도를 수반한다."
02:01
Now let's look at a basic기본 fact
of our digital디지털 lives, online온라인 ads광고들.
34
109120
3936
현재 우리의 디지털 기술 세상인
인터넷 광고의 기본을 살펴보겠습니다.
02:05
Right? We kind종류 of dismiss버리다 them.
35
113080
2896
우리는 광고를 거의 보지 않습니다.
02:08
They seem보다 crude조잡한, ineffective효과적인.
36
116000
1976
성의도 없고, 비효율적인
매체라고 생각하는 듯합니다.
02:10
We've우리는 all had the experience경험
of being존재 followed뒤따른 on the web편물
37
118000
4256
인터넷을 하다 보면 광고가
계속 따라다니는 현상을 발견합니다.
02:14
by an ad광고 based기반 on something
we searched검색된 or read독서.
38
122280
2776
우리가 한번 찾았거나 읽었던 사이트의
광고에서 나온 광고가 원인입니다.
02:17
You know, you look up a pair of boots부츠
39
125080
1856
예를 들어, 부츠를 살려고 찾았는데
02:18
and for a week, those boots부츠 are following수행원
you around everywhere어디에나 you go.
40
126960
3376
일주일 동안, 그 부츠가 내가 어디를
검색하든 내 주변을 어슬렁거립니다.
02:22
Even after you succumb굴복하다 and buy사다 them,
they're still following수행원 you around.
41
130360
3656
심지어는, 부츠를 구매한 사람들에게도
접착제처럼 붙어서 따라다닙니다.
02:26
We're kind종류 of inured입항 한 to that kind종류
of basic기본, cheap manipulation시장 조작.
42
134040
3016
우리도 이런 싸구려 술책에 단련이
되어가고 있는 현실입니다.
02:29
We roll our eyes and we think,
"You know what? These things don't work."
43
137080
3400
우리는 눈동자를 굴리면서 생각하죠
"설마 이런 기술이 있을까" 합니다.
02:33
Except, online온라인,
44
141720
2096
그러나 온라인세상에서는
안 되는 것이 없죠.
02:35
the digital디지털 technologies기술 are not just ads광고들.
45
143840
3600
디지털 기술은 단순한 광고만
존재하는 공간이 아닙니다.
02:40
Now, to understand알다 that,
let's think of a physical물리적 인 world세계 example.
46
148240
3120
우리는 이것을 이해하기 위해서
물리적 세상을 이해해야 합니다.
02:43
You know how, at the checkout점검 counters카운터
at supermarkets슈퍼마켓, near가까운 the cashier출납원,
47
151840
4656
아시다시피, 슈퍼 계산대 앞
계산원 바로 옆을 생각해 보세요.
02:48
there's candy사탕 and gum고무
at the eye level수평 of kids아이들?
48
156520
3480
사탕과 껌 종류가 아이들
눈높이에 맞게 전시되어 있을 겁니다.
02:52
That's designed디자인 된 to make them
whine우는 소리 at their그들의 parents부모님
49
160800
3496
아이들이 부모님에게 사 달라고
조르라는 마케팅 방법의 하나죠.
02:56
just as the parents부모님
are about to sort종류 of check검사 out.
50
164320
3080
부모님들이 계산대에서 바쁠 때
조르면 다 사 주는 심리를 이용합니다.
03:00
Now, that's a persuasion설득 architecture건축물.
51
168040
2640
설득 구조 메커니즘입니다.
03:03
It's not nice좋은, but it kind종류 of works공장.
52
171160
3096
아이들 심리를 이용해서 돈을 벌지만
그래도 꽤 효과적입니다.
03:06
That's why you see it
in every...마다 supermarket슈퍼마켓.
53
174280
2040
그래서 근처 슈퍼에 가시면 다 이렇게
껌과 사탕류를 전시해 놓고 있습니다.
03:08
Now, in the physical물리적 인 world세계,
54
176720
1696
물리적 세계를 한번 생각해 보겠습니다.
03:10
such이러한 persuasion설득 architectures아키텍처
are kind종류 of limited제한된,
55
178440
2496
이러한 설득구조의 효과는
제한적입니다.
03:12
because you can only put
so many많은 things by the cashier출납원. Right?
56
180960
4816
왜냐하면 그 많은 물건을
계산원 옆에 쌓아만 둘 겁니다.
03:17
And the candy사탕 and gum고무,
it's the same같은 for everyone각자 모두,
57
185800
4296
그리고 사탕이나 껌, 이것들은
다 똑같은 하나의 물건일 뿐입니다.
03:22
even though그래도 it mostly대개 works공장
58
190120
1456
효과를 가지는 대상은
03:23
only for people who have
whiny딱딱한 little humans인간 beside빗나가서 them.
59
191600
4040
꼬맹이를 둔 부모님에게
한정될 뿐이기 때문입니다.
03:29
In the physical물리적 인 world세계,
we live살고 있다 with those limitations한계.
60
197160
3920
물질적 세계에서는 한계를 가진
불완전한 세상을 살고 있습니다.
03:34
In the digital디지털 world세계, though그래도,
61
202280
1936
하지만 디지털 세상에서는
03:36
persuasion설득 architectures아키텍처
can be built세워짐 at the scale규모 of billions수십억
62
204240
4320
수십억 개의 규모로 이루어진 설득구조가
03:41
and they can target목표, infer미루다, understand알다
63
209840
3856
목표를 설정하고, 추론하고, 학습합니다.
03:45
and be deployed배치 된 at individuals개인
64
213720
2896
그리고 각 개체에 집중해
03:48
one by one
65
216640
1216
하나 하나씩
03:49
by figuring생각하다 out your weaknesses약점,
66
217880
2136
그들의 약점을 파악하고
03:52
and they can be sent보낸
to everyone's모두의 phone전화 private은밀한 screen화면,
67
220040
5616
결과를 사람들의 휴대전화에 전송합니다.
03:57
so it's not visible명백한 to us.
68
225680
2256
우리에게 보이지 않습니다.
03:59
And that's different다른.
69
227960
1256
바로, 그것이 다른 점입니다.
04:01
And that's just one of the basic기본 things
that artificial인공의 intelligence지성 can do.
70
229240
3576
인공지능의 기본적인 기능 중
하나일 뿐입니다.
04:04
Now, let's take an example.
71
232840
1336
예를 한번 보시겠습니다.
여러분이 라스 베가스로 가는 표를 팔고
싶은 때가 있다고 하겠습니다.
04:06
Let's say you want to sell팔다
plane평면 tickets티켓 to Vegas베가스. Right?
72
234200
2696
04:08
So in the old늙은 world세계, you could think
of some demographics인구 통계 to target목표
73
236920
3496
예전에는 목표 집단을 먼저
선정하셔야 했습니다.
04:12
based기반 on experience경험
and what you can guess추측.
74
240440
2520
경험이나 여러분들이 추론해서
낸 결과를 기초로 해서 말이죠.
04:15
You might try to advertise공시 하다 to, oh,
75
243560
2816
그리고 광고를 합니다.
04:18
men남자 between중에서 the ages나이 of 25 and 35,
76
246400
2496
나이는 25세에서
35세 사이의 남성이거나
04:20
or people who have
a high높은 limit한도 on their그들의 credit신용 card카드,
77
248920
3936
아니면, 신용카드 한도가 높은
사람들을 대상으로 하거나 말입니다.
04:24
or retired은퇴 한 couples커플. Right?
78
252880
1376
또는, 퇴직하는 분들을
목표로 할 수 있습니다.
04:26
That's what you would do in the past과거.
79
254280
1816
과거에는 그런 식으로 일을 했습니다만
04:28
With big data데이터 and machine기계 learning배우기,
80
256120
2896
현재는 빅데이타와 기계학습의 영향으로
04:31
that's not how it works공장 anymore더 이상.
81
259040
1524
그렇게 일을 하지 않습니다.
04:33
So to imagine상상하다 that,
82
261320
2176
머릿속에 큰 그림을 한번 그려보시죠.
04:35
think of all the data데이터
that Facebook페이스 북 has on you:
83
263520
3856
페이스북이 가지고 있을 여러분들의
자료의 양을 상상해 보십시오.
04:39
every...마다 status지위 update최신 정보 you ever typed타이핑 된,
84
267400
2536
여러분들의 입력한 모두 상태표시
04:41
every...마다 Messenger전령 conversation대화,
85
269960
2016
메신저 대화 내용
04:44
every...마다 place장소 you logged기록 된 in from,
86
272000
1880
로그인했던 모든 장소
04:48
all your photographs사진들
that you uploaded업로드 된 there.
87
276400
3176
올린 모든사진들을 가지고 있습니다.
04:51
If you start스타트 typing타자 something
and change변화 your mind마음 and delete지우다 it,
88
279600
3776
만약 입력하다가
마음이 바뀌어 삭제한다 해도
04:55
Facebook페이스 북 keeps유지하다 those
and analyzes복수 them, too.
89
283400
3200
페이스북은 그 자료를
보관하고 분석합니다.
04:59
Increasingly더욱 더, it tries시도하다
to match시합 you with your offline오프라인 data데이터.
90
287160
3936
점점 페이스북은 온라인의 여러분과
오프라인의 여러분을 일치시킬 겁니다.
05:03
It also또한 purchases구매
a lot of data데이터 from data데이터 brokers중개인.
91
291120
3176
또, 데이터 중개상에게서
많은 정보를 사들이고 있습니다.
05:06
It could be everything
from your financial재정적 인 records기록들
92
294320
3416
그 자료는 금융정보에서부터
05:09
to a good chunk큰 덩어리 of your browsing브라우징 history역사.
93
297760
2120
검색 파편 덩어리에 이르기까지
다양한 것이 포함됩니다.
05:12
Right? In the US,
such이러한 data데이터 is routinely일상적으로 collected모은,
94
300360
5416
미국에서만 그런 자료는
일상적으로 수집되고 있습니다.
05:17
collated대조 한 and sold팔린.
95
305800
1960
그런 자료를 모아 팔아서 돈을 법니다.
05:20
In Europe유럽, they have tougher더 거친 rules규칙들.
96
308320
2440
유럽에서는 좀 더 엄격한 법을
적용하고 있습니다.
05:23
So what happens일이 then is,
97
311680
2200
그럼 실제로 여기서
05:26
by churning휘젓다 through...을 통하여 all that data데이터,
these machine-learning기계 학습 algorithms알고리즘 --
98
314920
4016
축적한 데이터를 한데 섞어버리는
기계 학습 알고리즘이 일어납니다.
05:30
that's why they're called전화 한
learning배우기 algorithms알고리즘 --
99
318960
2896
우리가 학습알고리즘이라
부르는 이유가 여기에 있습니다.
사람들의 특징을
분석하기 위해 학습하거나
05:33
they learn배우다 to understand알다
the characteristics형질 of people
100
321880
4096
예를 들어 베가스 행 비행기 표를
구매한 사람들을 분석하는 거죠.
05:38
who purchased구매 한 tickets티켓 to Vegas베가스 before.
101
326000
2520
05:41
When they learn배우다 this from existing기존의 data데이터,
102
329760
3536
일단 기존의 자료로부터 학습이 되면
05:45
they also또한 learn배우다
how to apply대다 this to new새로운 people.
103
333320
3816
새로운 고객에게 적용할 수 있는
방법을 학습하게 됩니다.
05:49
So if they're presented제시된 with a new새로운 person사람,
104
337160
3056
그렇다면 만약 새로운 학습자료가
새로운 사람에게 전달됐을 때
05:52
they can classify나누다 whether인지 어떤지 that person사람
is likely아마도 to buy사다 a ticket티켓 to Vegas베가스 or not.
105
340240
4640
그 사람은 라스 베가스행 표를 구매할
가능성에 따라 분류가 됩니다.
05:57
Fine. You're thinking생각,
an offer제공 to buy사다 tickets티켓 to Vegas베가스.
106
345720
5456
예를 들어, 여러분들은 라스 베가스행
비행기 표를 제안받았다고 해보죠.
06:03
I can ignore무시하다 that.
107
351200
1456
나는 그 제안을 무시할 수도 있습니다.
06:04
But the problem문제 isn't that.
108
352680
2216
하지만 그것이 문제가 아닙니다.
06:06
The problem문제 is,
109
354920
1576
문제는
06:08
we no longer더 길게 really understand알다
how these complex복잡한 algorithms알고리즘 work.
110
356520
4136
이런 복잡한 알고리즘이 어떻게
일을 하는가를 모른다는 것입니다.
06:12
We don't understand알다
how they're doing this categorization분류.
111
360680
3456
알고리즘의 분류체계에 관해
우리가 아는 것이 없습니다.
06:16
It's giant거대한 matrices행렬,
thousands수천 of rows and columns기둥,
112
364160
4416
엄청난 행과 열의 수로
이루어져 있습니다.
06:20
maybe millions수백만 of rows and columns기둥,
113
368600
1960
아마도 수백만 행과 열로
짜여 있을 수도 있겠죠.
06:23
and not the programmers프로그래머
114
371320
2640
프로그래머도
06:26
and not anybody아무도 who looks외모 at it,
115
374760
1680
알고리즘을 보는 사람들도 모릅니다.
06:29
even if you have all the data데이터,
116
377440
1496
비록 여러분들이 그 모든
데이터를 가지고 있어도
06:30
understands이해하다 anymore더 이상
how exactly정확하게 it's operating운영중인
117
378960
4616
어떻게 그 데이터를 운용해야 하는지
정확한 이해가 불가능하다는 점과
06:35
any more than you'd당신은 know
what I was thinking생각 right now
118
383600
3776
여기 서 있는 제 생각을 여러분들은
추측하시는 이상의 정보는 알 수 없습니다.
06:39
if you were shown표시된
a cross십자가 section섹션 of my brain.
119
387400
3960
만약 제 뇌의 단면을
보신다 해도 말이죠.
06:44
It's like we're not programming프로그램 작성 anymore더 이상,
120
392360
2576
마치 프로그래밍이
불가능한 것과 같습니다.
06:46
we're growing성장하는 intelligence지성
that we don't truly진실로 understand알다.
121
394960
4400
우리는 실제로 이해할 수 없는
지능을 생성하고 있습니다.
06:52
And these things only work
if there's an enormous거대한 amount of data데이터,
122
400520
3976
이 모든 것들은 실제로 엄청난 데이터가
있을 때만 사용 가능할 겁니다.
06:56
so they also또한 encourage북돋우다
deep깊은 surveillance감시 on all of us
123
404520
5096
그래서 그들은 우리의
일거수 일투족을 감시하게 됩니다.
07:01
so that the machine기계 learning배우기
algorithms알고리즘 can work.
124
409640
2336
기계학습 알고리즘을
사용하기 위해서입니다.
07:04
That's why Facebook페이스 북 wants
to collect수집 all the data데이터 it can about you.
125
412000
3176
페이스북은 여러분들에 대한
데이터를 최대한 많이 모으고 있습니다.
07:07
The algorithms알고리즘 work better.
126
415200
1576
자료가 많을수록
알고리즘의 효율은 높아집니다.
07:08
So let's push푸시 that Vegas베가스 example a bit비트.
127
416800
2696
아까 베가스의 예를
좀 더 발전시켜 보겠습니다.
07:11
What if the system체계
that we do not understand알다
128
419520
3680
만약 우리가 모르는 시스템이
아직 조울증을 앓는 소비자들에게
07:16
was picking선발 up that it's easier더 쉬운
to sell팔다 Vegas베가스 tickets티켓
129
424200
5136
베가스 행 비행기 표를 판매하는 경우
07:21
to people who are bipolar양극성의
and about to enter들어가다 the manic조증의 phase단계.
130
429360
3760
더 효율성이 높아진다면 어떻게 될까요?
07:25
Such이러한 people tend지키다 to become지다
overspenders과다 장벽, compulsive강제력 gamblers도박꾼들.
131
433640
4920
그런 사람들은 과소비 경향이 있고
충동구매를 할 가능성이 큽니다.
07:31
They could do this, and you'd당신은 have no clue실마리
that's what they were picking선발 up on.
132
439280
4456
그들이 구매를 한다 해도, 우리는
그 구매이유를 알 수는 없습니다.
07:35
I gave this example
to a bunch다발 of computer컴퓨터 scientists과학자들 once일단
133
443760
3616
나는 이런 예를 많은 컴퓨터
전문가들에게 몇 번 보냈는데
07:39
and afterwards나중에, one of them came왔다 up to me.
134
447400
2056
그들 중 한 명이 나에게 와서
07:41
He was troubled고생 한 and he said,
"That's why I couldn't할 수 없었다 publish출판하다 it."
135
449480
3520
난감해하면서 근거가 부족해
출판을 할 수가 없다고 말하더군요.
07:45
I was like, "Couldn't할 수 없었다. publish출판하다 what?"
136
453600
1715
나는 무엇을 출판할 수 없는지
되물어야 했습니다.
07:47
He had tried시도한 to see whether인지 어떤지 you can indeed과연
figure그림 out the onset습격 of mania열광
137
455800
5856
그 전문가는 조울증의 시작이
병리학적 증상 이전에
07:53
from social사회적인 media미디어 posts게시물
before clinical객관적인 symptoms조짐,
138
461680
3216
소셜 미디어 게시물이 원인이라는
점을 밝히고자 노력했으며
07:56
and it had worked일한,
139
464920
1776
결국, 밝혀냈습니다.
07:58
and it had worked일한 very well,
140
466720
2056
이 전부터 밝혀졌던 사안입니다.
08:00
and he had no idea생각 how it worked일한
or what it was picking선발 up on.
141
468800
4880
그런데, 어떻게 일을 수행하고
무엇을 선택하는가에 대한 이유는 몰랐습니다.
08:06
Now, the problem문제 isn't solved해결 된
if he doesn't publish출판하다 it,
142
474840
4416
출판하지 않아도
해결될 문제는 아닙니다.
08:11
because there are already이미 companies회사들
143
479280
1896
왜냐하면 이런 종류의 기술을 개발 중인
08:13
that are developing개발 중
this kind종류 of technology과학 기술,
144
481200
2536
회사들이 있고
08:15
and a lot of the stuff물건
is just off the shelf선반.
145
483760
2800
현재 많은 것들이 판매되고 있습니다.
08:19
This is not very difficult어려운 anymore더 이상.
146
487240
2576
더는 불가능한 일이 아닙니다.
08:21
Do you ever go on YouTubeYouTube
meaning의미 to watch one video비디오
147
489840
3456
비디오를 하나 보기 위해
유튜브에 들어갔다가
08:25
and an hour시간 later후에 you've watched보았다 27?
148
493320
2360
한 시간 후에 27개의
영상을 본 적이 있으신가요?
08:28
You know how YouTubeYouTube
has this column기둥 on the right
149
496760
2496
여러분들은 왜 유튜브가 오른편에
08:31
that says말한다, "Up next다음 것"
150
499280
2216
'다음 순서' 라고 있고 무엇인가가
08:33
and it autoplays자동 재생 something?
151
501520
1816
연속 재생되는 사실을 잘 알고 계시죠?
08:35
It's an algorithm연산
152
503360
1216
그것이 여러분들이 관심은 있지만
08:36
picking선발 what it thinks생각해.
that you might be interested관심있는 in
153
504600
3616
스스로 찾을 수 없다고 판단되는 것들을
08:40
and maybe not find on your own개인적인.
154
508240
1536
찾아내는 알고리즘입니다.
08:41
It's not a human인간의 editor편집자.
155
509800
1256
인간 편집자가 아닙니다.
08:43
It's what algorithms알고리즘 do.
156
511080
1416
바로 알고리즘이 수행합니다.
08:44
It picks추천 up on what you have watched보았다
and what people like you have watched보았다,
157
512520
4736
알고리듬은 여러분들이 이미 보셨거나
보신 것 중에서 좋아하는 것을 선별해
08:49
and infers유추하다 that that must절대로 필요한 것 be
what you're interested관심있는 in,
158
517280
4216
그런 종류에 관심을 가진다거나
08:53
what you want more of,
159
521520
1255
더 원한다고 추론한 후
08:54
and just shows you more.
160
522799
1336
여러분들에게 더 많은 것을 보여줍니다.
08:56
It sounds소리 like a benign온화한
and useful유능한 feature특색,
161
524159
2201
그렇지 않은 경우를 제외하고는
08:59
except when it isn't.
162
527280
1200
무척 매력적이고
유용한 장치처럼 들립니다.
09:01
So in 2016, I attended참석 한 rallies집회
of then-candidate후보자 Donald도날드 Trump지우다
163
529640
6960
저는 2016년 당시 대통령 후보였던
도널드 트럼프 대통령을 지지하는
09:09
to study연구 as a scholar학자
the movement운동 supporting지원 him.
164
537840
3336
대선 캠페인에 참여했습니다.
09:13
I study연구 social사회적인 movements동정,
so I was studying공부하는 it, too.
165
541200
3456
많은 운동에 참여했고
연구 중이었습니다.
09:16
And then I wanted to write쓰다 something
about one of his rallies집회,
166
544680
3336
그 후 나는 트럼프 지지운동에 관한
논문을 쓰고 싶었습니다.
09:20
so I watched보았다 it a few조금 times타임스 on YouTubeYouTube.
167
548040
1960
유튜브를 통해서도 많이 봤습니다.
09:23
YouTubeYouTube started시작한 recommending추천하는 to me
168
551240
3096
그 후, 유튜브에서 많은
추천 영상이 올라오더군요.
09:26
and autoplaying자동 재생 to me
white화이트 supremacist우월 주의자 videos비디오
169
554360
4256
많은 백인 우월론자들의
영상이 자동재생되었고요.
강도의 순서대로 나열되더군요.
09:30
in increasing증가하는 order주문 of extremism극단론.
170
558640
2656
09:33
If I watched보았다 one,
171
561320
1816
만약 내가 그중 하나를 보게 되면
09:35
it served봉사 한 up one even more extreme극단
172
563160
2976
그 하나의 영상은 꼬리를 물고
엄청난 양으로 늘어나면서
09:38
and autoplayed자동 재생 된 that one, too.
173
566160
1424
자동 재생이 됩니다.
09:40
If you watch Hillary힐러리 Clinton클린턴
or Bernie버니 Sanders샌더스 content함유량,
174
568320
4536
만약 여러분들이 힐러리 클린턴이나
버니 샌더스의 영상을 보신다면
09:44
YouTubeYouTube recommends추천하다
and autoplays자동 재생 conspiracy음모 left,
175
572880
4696
유튜브는 여러분에게 관련 정보를
추천하고 남아있는 음모론을 틀어줄 겁니다.
09:49
and it goes간다 downhill수월한 from there.
176
577600
1760
가히 엄청난 양의 영상을 추천합니다.
09:52
Well, you might be thinking생각,
this is politics정치, but it's not.
177
580480
3056
아마 여러분들은 정치를
떠올리시겠지만, 그렇지 않습니다.
정치 이야기가 아닙니다.
09:55
This isn't about politics정치.
178
583560
1256
09:56
This is just the algorithm연산
figuring생각하다 out human인간의 behavior행동.
179
584840
3096
인간의 행동을 파악하는
알고리듬의 이야기입니다.
09:59
I once일단 watched보았다 a video비디오
about vegetarianism채식주의 on YouTubeYouTube
180
587960
4776
한번은 채식주의에 대한
영상을 유튜브로 봤습니다.
10:04
and YouTubeYouTube recommended추천 된
and autoplayed자동 재생 된 a video비디오 about being존재 vegan완전 채식주의 자.
181
592760
4936
채식주의자에 관한 영상을
추천하고 자동 재생을 했습니다.
10:09
It's like you're never
hardcore하드 코어 enough충분히 for YouTubeYouTube.
182
597720
3016
유튜브는 여러분을
철저한 채식주의자로 분석한 겁니다.
10:12
(Laughter웃음)
183
600760
1576
(웃음)
10:14
So what's going on?
184
602360
1560
도대체 어떤 일이 일어나고 있을까요?
10:16
Now, YouTube'sYouTube의 algorithm연산 is proprietary소유권,
185
604520
3536
유튜브의 알고리즘은 전매특허이지만
10:20
but here's여기에 what I think is going on.
186
608080
2360
저는 유튜브의 알고리즘
원리를 말하고 있을 뿐입니다.
10:23
The algorithm연산 has figured문채 있는 out
187
611360
2096
유튜브의 알고리즘은
10:25
that if you can entice꾀다 people
188
613480
3696
만약, 방문객에게
더 자극적인 것을 보여줄 수 있다는
10:29
into thinking생각 that you can
show보여 주다 them something more hardcore하드 코어,
189
617200
3736
사고를 유도할 수만 있다면
10:32
they're more likely아마도 to stay머무르다 on the site대지
190
620960
2416
더 오래 유튜브에
머무를 것이라고 분석합니다.
10:35
watching보고있다 video비디오 after video비디오
going down that rabbit토끼 hole구멍
191
623400
4416
이상한 나라의 앨리스처럼
끝없는 영상의 나라로 들어가게 되고
10:39
while GoogleGoogle serves봉사하다 them ads광고들.
192
627840
1680
구글은 이들 영상에
광고를 노출하게 됩니다.
10:43
Now, with nobody아무도 minding기금 모금
the ethics윤리학 of the store저장,
193
631760
3120
아무도 유튜브의 상도덕을
신경 쓰지 않는 가운데
10:47
these sites사이트 can profile윤곽 people
194
635720
4240
유튜브는 사람들을 분석할 수 있습니다.
10:53
who are Jew유태인 haters싫어하는 사람,
195
641680
1920
유대인 증오자들
10:56
who think that Jews유태인 are parasites기생충
196
644360
2480
유대인들은 기생충이라고 여기는 사람들
11:00
and who have such이러한 explicit명백한
anti-Semitic반유대 content함유량,
197
648320
4920
그리고, 노골적인 반유대주의 영상물을
가진 사람들을 가려내고
11:06
and let you target목표 them with ads광고들.
198
654080
2000
많은 사람에게 그 영상물에
광고를 실어 전파시킵니다.
11:09
They can also또한 mobilize동원하다 algorithms알고리즘
199
657200
3536
구글은 알고리즘을
퍼뜨릴 수도 있습니다.
11:12
to find for you look-alike보기 닮은 audiences관객,
200
660760
3136
여러분과 비슷한
사람들을 찾아내기 위해서죠.
11:15
people who do not have such이러한 explicit명백한
anti-Semitic반유대 content함유량 on their그들의 profile윤곽
201
663920
5576
프로필에 반유대적인
영상물이 없는 사람들이지만
11:21
but who the algorithm연산 detects감지하다
may할 수있다 be susceptible느끼기 쉬운 to such이러한 messages메시지,
202
669520
6176
알고리듬이 감지한 사람은
그런 메시지에 취약하게 됩니다.
11:27
and lets~시키다 you target목표 them with ads광고들, too.
203
675720
1920
그리고 여러분들의 광고의
희생물로 사용하게 됩니다.
11:30
Now, this may할 수있다 sound소리
like an implausible믿을만한 example,
204
678680
2736
믿기 어려운 말로
들릴 수도 있을텐데요.
11:33
but this is real레알.
205
681440
1320
그러나 이것은 사실입니다.
11:35
ProPublica프로 공공 investigated조사한 this
206
683480
2136
프로프로비카가 이것을 조사했고
11:37
and found녹이다 that you can indeed과연
do this on Facebook페이스 북,
207
685640
3616
여러분들이 실제로 페이스북에서
광고를 하신다는 것을 발견했습니다.
11:41
and Facebook페이스 북 helpfully유익하게
offered제안 된 up suggestions제안
208
689280
2416
그리고 페이스북은
가능성 있는 제안을 하고 있습니다.
11:43
on how to broaden넓히다 that audience청중.
209
691720
1600
팔로워 수를
늘리는 방법 등을 제시하죠.
11:46
BuzzFeedBuzzFeed tried시도한 it for GoogleGoogle,
and very quickly빨리 they found녹이다,
210
694720
3016
버즈피드는 구글에 이것을 시험해 보고
바로 파악을 할 수 있었습니다.
11:49
yep, you can do it on GoogleGoogle, too.
211
697760
1736
네, 여러분들도 하실 수 있습니다.
11:51
And it wasn't아니었다. even expensive비싼.
212
699520
1696
비용도 비싸지 않았습니다.
11:53
The ProPublica프로 공공 reporter보고자
spent지출하다 about 30 dollars불화
213
701240
4416
프로프로비카의 한 기자가
약 30달러를 사용해서
11:57
to target목표 this category범주.
214
705680
2240
이 알고리즘을 이용해 봤습니다.
12:02
So last year, Donald도날드 Trump's트럼프
social사회적인 media미디어 manager매니저 disclosed공개 된
215
710600
5296
그리고, 작년에 도널드 트럼프 대통령
소셜미디어 매니저가 폭로했는데요.
12:07
that they were using~을 사용하여 Facebook페이스 북 dark어두운 posts게시물
to demobilize철거하다 people,
216
715920
5336
트럼프 진영이 페이스북의 어둠의
게시판을 운영해 사람들을 묶어두고
12:13
not to persuade설득 them,
217
721280
1376
외부인은 그들을 설득 못하게 하고
12:14
but to convince납득시키다 them not to vote투표 at all.
218
722680
2800
투표하지 말 것을 설득했다고 합니다.
12:18
And to do that,
they targeted목표로 삼은 specifically구체적으로,
219
726520
3576
그 일을 수행하기 위해, 그 미디어팀은
구체적으로 필라델피아와 같은
12:22
for example, African-American아프리카 계 미국인 men남자
in key cities도시들 like Philadelphia필라델피아,
220
730120
3896
대도시에 거주하는 흑인계층을
목표로 삼아 활동했습니다.
12:26
and I'm going to read독서
exactly정확하게 what he said.
221
734040
2456
지금부터 사실을 폭로한 그 사람의
진술을 그대로 읽어 보겠습니다.
12:28
I'm quoting인용.
222
736520
1216
그대로 인용하겠습니다.
12:29
They were using~을 사용하여 "nonpublic비공개 posts게시물
223
737760
3016
"미디어팀은 선거팀이 보기를 통제하는
12:32
whose누구의 viewership시청률 the campaign운동 controls통제 수단
224
740800
2176
비공개 게시판을 사용했습니다.
12:35
so that only the people
we want to see it see it.
225
743000
3776
우리가 그것을 보고 싶어 하는
사람들만 볼 수 있도록 관리했습니다."
12:38
We modeled모델링 된 this.
226
746800
1216
우리는 이것을 따라 해 봤습니다.
12:40
It will dramatically극적으로 affect감정 her ability능력
to turn회전 these people out."
227
748040
4720
이 기술은 사람들을 조종할 수 있는
그녀의 능력에 엄청나게 영향을 미쳤습니다.
12:45
What's in those dark어두운 posts게시물?
228
753720
2280
암흑의 게시판에는 무엇이 있었을까요?
12:48
We have no idea생각.
229
756480
1656
우리는 잘 알지 못합니다.
12:50
Facebook페이스 북 won't습관 tell us.
230
758160
1200
페이스북이 우리에게
말해주지 않을 겁니다.
12:52
So Facebook페이스 북 also또한 algorithmically알고리즘 적으로
arranges준비하다 the posts게시물
231
760480
4376
그래서 페이스북은
게시판을 여러분의 친구가
12:56
that your friends친구 put on Facebook페이스 북,
or the pages페이지들 you follow따르다.
232
764880
3736
올리는 게시물이나 당신이 팔로워 하는
페이지를 알고리즘화해서 배열하고 있습니다.
13:00
It doesn't show보여 주다 you
everything chronologically연대순으로.
233
768640
2216
모든 자료를 시간순으로
보여주지 않습니다.
13:02
It puts넣다 the order주문 in the way
that the algorithm연산 thinks생각해. will entice꾀다 you
234
770880
4816
페이스북은 그 알고리듬이 파악한 후
여러분을 더 오래 사이트에 머무르게
13:07
to stay머무르다 on the site대지 longer더 길게.
235
775720
1840
방법을 사용해
게시물의 순서를 정합니다.
13:11
Now, so this has a lot of consequences결과.
236
779040
3376
현재, 많은 결과를 만들고 있습니다.
13:14
You may할 수있다 be thinking생각
somebody어떤 사람 is snubbing저압 you on Facebook페이스 북.
237
782440
3800
여러분이 누군가 페이스북에서 당신을
거부하고 있다고 생각할 수도 있습니다.
13:18
The algorithm연산 may할 수있다 never
be showing전시 your post게시하다 to them.
238
786800
3256
그 알고리듬은 아마도 그들에게 당신의
게시물을 보여주지 않을 수 있습니다.
13:22
The algorithm연산 is prioritizing우선 순위 결정
some of them and burying매몰 the others다른 사람.
239
790080
5960
우선순위를 정하고
나머지는 묻어 버립니다.
13:29
Experiments실험 show보여 주다
240
797320
1296
연구에 따르면
13:30
that what the algorithm연산 picks추천 to show보여 주다 you
can affect감정 your emotions감정.
241
798640
4520
알고리즘이 여러분에게 보여줄 자료는
여러분에게 영향을 줄 수 있습니다.
13:36
But that's not all.
242
804600
1200
그러나, 그것이 전부가 아닙니다.
13:38
It also또한 affects영향을 미치다 political주재관 behavior행동.
243
806280
2360
알고리듬은 정치적 행동에도
영향을 미칠 수 있습니다.
13:41
So in 2010, in the midterm중간 고사 elections선거,
244
809360
4656
2010년 중간 선거에서
13:46
Facebook페이스 북 did an experiment실험
on 61 million백만 people in the US
245
814040
5896
페이스북은 미국에서 6천 백만 명에게
13:51
that was disclosed공개 된 after the fact.
246
819960
1896
선거 후에야 발표한 실험을 했습니다.
13:53
So some people were shown표시된,
"Today오늘 is election선거 day,"
247
821880
3416
사람들에게 "오늘은 선거일입니다"
라는 글을 보여 주었습니다.
13:57
the simpler더 단순한 one,
248
825320
1376
정말 간단한 실험이었습니다.
13:58
and some people were shown표시된
the one with that tiny작은 tweak비틀기
249
826720
3896
어떤 사람들에게는
14:02
with those little thumbnails미리보기 이미지
250
830640
2096
"투표했어요"버튼에
14:04
of your friends친구 who clicked클릭 한 on "I voted투표했다."
251
832760
2840
미세한 조정을 했습니다.
14:09
This simple단순한 tweak비틀기.
252
837000
1400
아주 간단한 조작이었습니다.
14:11
OK? So the pictures영화 were the only change변화,
253
839520
4296
그림만 바꾸었습니다.
14:15
and that post게시하다 shown표시된 just once일단
254
843840
3256
한번만 보여진 그 게시물은
14:19
turned돌린 out an additional추가의 340,000 voters유권자
255
847120
6056
그 선거에서 추가로 34만 명을
14:25
in that election선거,
256
853200
1696
투표하게 만들었습니다.
14:26
according~에 따라 to this research연구
257
854920
1696
그 실험에서 밝혀진 사실이고
14:28
as confirmed확인 된 by the voter유권자 rolls.
258
856640
2520
유권자 명부에서 확인된 사실입니다.
14:32
A fluke흡충? No.
259
860920
1656
우연의 일치라고요? 그렇지 않습니다.
14:34
Because in 2012,
they repeated반복 된 the same같은 experiment실험.
260
862600
5360
2012년에 다시
실험을 했기 때문입니다.
14:40
And that time,
261
868840
1736
그때는
14:42
that civic시민의 message메시지 shown표시된 just once일단
262
870600
3296
단 한 번 노출된 공공 회보가
14:45
turned돌린 out an additional추가의 270,000 voters유권자.
263
873920
4440
추가로 27만 명의
투표를 만들었습니다.
14:51
For reference참고, the 2016
US presidential대통령 election선거
264
879160
5216
참고로, 2016년 미국 대선의 결과는
14:56
was decided결정적인 by about 100,000 votes투표하다.
265
884400
3520
약 10만명 차이로 승패가 갈렸습니다.
15:01
Now, Facebook페이스 북 can also또한
very easily용이하게 infer미루다 what your politics정치 are,
266
889360
4736
현재, 페이스북은 여러분의
정치관도 아주 쉽게 추론할 수 있습니다.
15:06
even if you've never
disclosed공개 된 them on the site대지.
267
894120
2256
심지어, 한 번도 그런 게시물을
올린 적이 없는데도 말입니다.
15:08
Right? These algorithms알고리즘
can do that quite아주 easily용이하게.
268
896400
2520
알고리즘은 그런 일을
꽤 쉽게 수행합니다.
15:11
What if a platform플랫폼 with that kind종류 of power
269
899960
3896
만약, 그런 힘을 가진
네트워크가 한 후보자를
15:15
decides결정하다 to turn회전 out supporters후원자
of one candidate후보자 over the other?
270
903880
5040
선호하는 더 많은 지지자를
만든다면 어떻게 될까요?
15:21
How would we even know about it?
271
909680
2440
우리가 어떻게 그 일을
알 수가 있을까요?
15:25
Now, we started시작한 from someplace어딘가
seemingly겉으로는 innocuous무해한 --
272
913560
4136
우리는 겉보기에는 피해를
주지 않는 한 사이트의
15:29
online온라인 adds추가 following수행원 us around --
273
917720
2216
따라 다니는 광고부터
15:31
and we've우리는 landed착륙 someplace어딘가 else그밖에.
274
919960
1840
다른 사이트까지 이야기하고 있습니다.
15:35
As a public공공의 and as citizens시민,
275
923480
2456
국민이자 시민으로서
15:37
we no longer더 길게 know
if we're seeing the same같은 information정보
276
925960
3416
우리는 다른 사람과
같은 내용의 정보를 보고 있는지
15:41
or what anybody아무도 else그밖에 is seeing,
277
929400
1480
또 다른 이들이 어떤 것을 보는지
더는 알 수가 없게 되고
15:43
and without없이 a common공유지 basis기초 of information정보,
278
931680
2576
정보가 가지는 공통 원칙이
15:46
little by little,
279
934280
1616
조금씩 상실된다면
15:47
public공공의 debate논쟁 is becoming어울리는 impossible불가능한,
280
935920
3216
공공의 논쟁은 불가능하게 됩니다.
15:51
and we're just at
the beginning처음 stages단계들 of this.
281
939160
2976
우리는 현재
그 직전의 단계에 있습니다.
15:54
These algorithms알고리즘 can quite아주 easily용이하게 infer미루다
282
942160
3456
그러한 알고리즘은 아주 쉽게
15:57
things like your people's사람들의 ethnicity민족,
283
945640
3256
여러분의 민족
16:00
religious종교적인 and political주재관 viewsviews,
personality인격 traits형질,
284
948920
2336
종교, 정치적 성향, 개인적 특징
16:03
intelligence지성, happiness행복,
use of addictive중독성의 substances물질,
285
951280
3376
지능, 행복, 약물 사용
16:06
parental부모 separation분리, age나이 and genders성별,
286
954680
3136
부모의 이혼 여부, 성별등을
16:09
just from Facebook페이스 북 likes좋아하는 사람.
287
957840
1960
페이스북 좋아요 만에서도
알 수가 있습니다.
16:13
These algorithms알고리즘 can identify식별하다 protesters시위대
288
961440
4056
이러한 알고리듬은 시위자들의
정체를 분별할 수 있는데
16:17
even if their그들의 faces얼굴들
are partially부분적으로 concealed숨기는.
289
965520
2760
비록 얼굴을 부분적으로
가린다 해도 알 수가 있습니다.
16:21
These algorithms알고리즘 may할 수있다 be able할 수 있는
to detect탐지하다 people's사람들의 sexual성적 orientation정위
290
969720
6616
또한, 데이트 프로필 정보만
가지고도 사람들의 성적 취향을
16:28
just from their그들의 dating데이트 profile윤곽 pictures영화.
291
976360
3200
판단할 수 있습니다.
16:33
Now, these are probabilistic확률 론적 guesses추측하다,
292
981560
2616
이 모든 것들은 확률적 추론으로
16:36
so they're not going
to be 100 percent퍼센트 right,
293
984200
2896
100% 일치하지 않습니다
16:39
but I don't see the powerful강한 resisting저항하는
the temptation유혹 to use these technologies기술
294
987120
4896
하지만 저는 일부 불일치 조건이
존재한다는 이유만으로 이 기술의
16:44
just because there are
some false그릇된 positives긍정적 인,
295
992040
2176
사용을 꺼리는 그 어떤 개인이나
집단을 보지 못했습니다.
16:46
which어느 will of course코스 create몹시 떠들어 대다
a whole완전한 other layer of problems문제들.
296
994240
3256
물론, 이 오류가 다층 구조의
문제들을 야기할 수 있어도 말입니다.
16:49
Imagine상상해 보라. what a state상태 can do
297
997520
2936
만약, 한 주가 자신들의 시민들에
대한 엄청난 정보를 가지고
16:52
with the immense거대한 amount of data데이터
it has on its citizens시민.
298
1000480
3560
어떤 일을 할 수 있을까요?
16:56
China중국 is already이미 using~을 사용하여
face얼굴 detection발각 technology과학 기술
299
1004680
4776
중국은 이미 안면 인식 기술을 사용해
17:01
to identify식별하다 and arrest체포 people.
300
1009480
2880
사람들의 신분 파악, 체포 등에
이용하고 있습니다.
17:05
And here's여기에 the tragedy비극:
301
1013280
2136
바로 이것이 비극입니다.
17:07
we're building건물 this infrastructure하부 구조
of surveillance감시 authoritarianism권위주의
302
1015440
5536
우리는 지금 단순히 사람들이
광고를 클릭하게 할려고
17:13
merely단지 to get people to click딸깍 하는 소리 on ads광고들.
303
1021000
2960
이런 무시무시한 감시 독재국가의
시스템을 만들고 있습니다.
17:17
And this won't습관 be
Orwell's오웰 authoritarianism권위주의.
304
1025240
2576
절대 소설 속의 이야기가 아닙니다.
17:19
This isn't "1984."
305
1027839
1897
현실의 "1984"입니다.
17:21
Now, if authoritarianism권위주의
is using~을 사용하여 overt명백한 fear무서움 to terrorize겁 먹게하다 us,
306
1029760
4576
만약, 독재국가가 우리를 억압하기
위해 부당한 위협을 사용하고 있다면
17:26
we'll all be scared깜짝 놀란, but we'll know it,
307
1034359
2897
우리는 겁을 먹겠지만 알 수가 있어
17:29
we'll hate미움 it and we'll resist견디다 it.
308
1037280
2200
증오하고 저항할 것입니다.
17:32
But if the people in power
are using~을 사용하여 these algorithms알고리즘
309
1040880
4416
하지만 권력자들이
이런 알고리즘을 사용해
17:37
to quietly조용히 watch us,
310
1045319
3377
조용히 우리를 감시하고
17:40
to judge판사 us and to nudge슬쩍 찌르다 us,
311
1048720
2080
판단하거나, 조정하고
17:43
to predict예측하다 and identify식별하다
the troublemakers말썽 꾸러기 and the rebels적군,
312
1051720
4176
문제를 일으킬 수 있는 사람들을
예상한 뒤 정체를 파악할 수 있는
17:47
to deploy전개하다 persuasion설득
architectures아키텍처 at scale규모
313
1055920
3896
엄청난 규모의 회유 아키텍트를
구축하는 일이 가능해집니다.
17:51
and to manipulate교묘히 다루다 individuals개인 one by one
314
1059840
4136
또한, 개인의 약점이나
17:56
using~을 사용하여 their그들의 personal개인적인, individual개인
weaknesses약점 and vulnerabilities취약점,
315
1064000
5440
취약한 곳을 파악해서
조정할 수도 있습니다.
18:02
and if they're doing it at scale규모
316
1070720
2200
또한, 만약 권력자들이
이러한 시스템을 이용해
18:06
through...을 통하여 our private은밀한 screens스크린
317
1074080
1736
개인에 대한 검열을 한다면
18:07
so that we don't even know
318
1075840
1656
그 결과는
18:09
what our fellow사람 citizens시민
and neighbors이웃 are seeing,
319
1077520
2760
우리 국민이나 이웃들의
현실을 우리는 모를 수도 있습니다.
18:13
that authoritarianism권위주의
will envelop싸다 us like a spider's거미의 web편물
320
1081560
4816
그 독재주의는 마치
거미줄처럼 우리을 묶어서
18:18
and we may할 수있다 not even know we're in it.
321
1086400
2480
우리가 그 안에 묶여있다는
사실도 모르게 할 수 있습니다.
18:22
So Facebook's페이스 북의 market시장 capitalization자본화
322
1090440
2936
페이스북의 현재 시가총액은
18:25
is approaching접근하는 half절반 a trillion일조 dollars불화.
323
1093400
3296
5천억 달러에 육박하고 있습니다.
18:28
It's because it works공장 great
as a persuasion설득 architecture건축물.
324
1096720
3120
왜냐하면, 페이스북은 회유구조로
작동을 하고 있기 때문입니다.
18:33
But the structure구조 of that architecture건축물
325
1101760
2816
그러나 이러한 아키텍트는
18:36
is the same같은 whether인지 어떤지 you're selling판매 shoes구두
326
1104600
3216
여러분들이 신발을 팔고 있는지
18:39
or whether인지 어떤지 you're selling판매 politics정치.
327
1107840
2496
아니면 정치를 팔고 있는지
구분을 못 한다는 것입니다.
18:42
The algorithms알고리즘 do not know the difference.
328
1110360
3120
결국, 그 알고리듬은 본질적인
차이는 구분할 수 없습니다.
18:46
The same같은 algorithms알고리즘 set세트 loose느슨하게 upon...에 us
329
1114240
3296
이 같은 구조의 알고리듬은 우리의
숨통을 열어주는 기능으로 작용해
18:49
to make us more pliable휘기 쉬운 for ads광고들
330
1117560
3176
우리가 광고에 대해 대처하도록 하고
18:52
are also또한 organizing조직 our political주재관,
personal개인적인 and social사회적인 information정보 flows흐름,
331
1120760
6736
정치적, 개인적, 사회적 정보의
흐름을 구성하게 합니다.
18:59
and that's what's got to change변화.
332
1127520
1840
바로 그것이 변해야 합니다.
19:02
Now, don't get me wrong잘못된,
333
1130240
2296
하지만 너무 나쁘게만
생각하지 마시기 바랍니다.
19:04
we use digital디지털 platforms플랫폼
because they provide~을 제공하다 us with great value.
334
1132560
3680
우리가 디지털 플랫폼을 사용하는 이유는
그들이 엄청난 가치를 제공하기 때문입니다.
19:09
I use Facebook페이스 북 to keep in touch접촉
with friends친구 and family가족 around the world세계.
335
1137120
3560
나는 전 세계 친구들이나 가족들과
연락하기 위해서 페이스북을 사용하고 있습니다.
19:14
I've written about how crucial결정적인
social사회적인 media미디어 is for social사회적인 movements동정.
336
1142000
5776
소셜미디어가 사회운동에 얼마나
중요한가에 대한 논문을 쓰기도 했습니다.
19:19
I have studied공부 한 how
these technologies기술 can be used
337
1147800
3016
저는 전 세계의 검열을 피할 수 있는
방법을 찾고자 이 소셜미디어의
19:22
to circumvent우회하다 censorship검열 around the world세계.
338
1150840
2480
기술을 적용하는 연구를 하고 있습니다.
19:27
But it's not that the people who run운영,
you know, Facebook페이스 북 or GoogleGoogle
339
1155280
6416
그러나 구글이나 페이스북의 운영자들은
19:33
are maliciously악의적으로 and deliberately신중히 trying견딜 수 없는
340
1161720
2696
악의적이며 의도적으로
19:36
to make the country국가
or the world세계 more polarized극화 된
341
1164440
4456
우리나라나 세계를 양분시키고
19:40
and encourage북돋우다 extremism극단론.
342
1168920
1680
극단주의를 부추기고 있습니다.
19:43
I read독서 the many많은
well-intentioned선의의 statements성명
343
1171440
3976
저는 이 기업들이 발표한
그럴듯하게 말로 수식된
19:47
that these people put out.
344
1175440
3320
수많은 성명서를 읽었습니다.
19:51
But it's not the intent의지 or the statements성명
people in technology과학 기술 make that matter문제,
345
1179600
6056
그러나 그자들이 만들고 있는 것은
단순한 성명서나 의도 따위가 아닌
19:57
it's the structures구조
and business사업 models모델 they're building건물.
346
1185680
3560
구조들이며 기업용 상품입니다.
20:02
And that's the core핵심 of the problem문제.
347
1190360
2096
문제의 핵심은 여기에 있습니다.
20:04
Either어느 한 쪽 Facebook페이스 북 is a giant거대한 con
of half절반 a trillion일조 dollars불화
348
1192480
4720
페이스북은 5천억 달러에
달하는 거대기업이지만
20:10
and ads광고들 don't work on the site대지,
349
1198200
1896
광고는 싣지 않습니다.
20:12
it doesn't work
as a persuasion설득 architecture건축물,
350
1200120
2696
또한, 설득 구조로 운영되지 않지만
20:14
or its power of influence영향
is of great concern관심사.
351
1202840
4120
영향력은 큰 기업입니다.
20:20
It's either어느 한 쪽 one or the other.
352
1208560
1776
어느 쪽이든 해당합니다.
20:22
It's similar비슷한 for GoogleGoogle, too.
353
1210360
1600
구글도 마찬가지 입니다.
20:24
So what can we do?
354
1212880
2456
그렇다면 우리는
무엇을 할 수 있을까요?
20:27
This needs필요 to change변화.
355
1215360
1936
변화시켜야 합니다.
20:29
Now, I can't offer제공 a simple단순한 recipe레시피,
356
1217320
2576
현재, 간단한 방법은 아닙니다.
20:31
because we need to restructure구조 조정
357
1219920
2256
왜냐하면 우리는
디지털 기술이 작동하는
전체 구조를 다시 짜야 하기 때문입니다.
20:34
the whole완전한 way our
digital디지털 technology과학 기술 operates운영하다.
358
1222200
3016
20:37
Everything from the way
technology과학 기술 is developed개발 된
359
1225240
4096
기술의 발전부터
20:41
to the way the incentives인센티브,
economic간결한 and otherwise그렇지 않으면,
360
1229360
3856
성과보수나 경제가 생성되는 방법들 모두가
20:45
are built세워짐 into the system체계.
361
1233240
2280
하나의 시스템으로 발전 했습니다.
20:48
We have to face얼굴 and try to deal거래 with
362
1236480
3456
우리가 대면하고 해야 할 일은
20:51
the lack결핍 of transparency투명도
created만들어진 by the proprietary소유권 algorithms알고리즘,
363
1239960
4656
전매특허의 알고리듬에 의한
투명성의 결여와
20:56
the structural구조의 challenge도전
of machine기계 learning's학습 opacity불투명,
364
1244640
3816
기계 학습의 불투명성에 대한
구조적 도전이며
21:00
all this indiscriminate무차별의 data데이터
that's being존재 collected모은 about us.
365
1248480
3400
이 모든 무차별적인 정보 수집에
대항하는 것입니다.
21:05
We have a big task태스크 in front of us.
366
1253000
2520
우리 앞에는 큰 과제가 있습니다.
21:08
We have to mobilize동원하다 our technology과학 기술,
367
1256160
2680
변화해야 할것은 기술이고
21:11
our creativity독창성
368
1259760
1576
창의성이고
21:13
and yes, our politics정치
369
1261360
1880
정치입니다
21:16
so that we can build짓다
artificial인공의 intelligence지성
370
1264240
2656
우리가 만드는 인공지능은
21:18
that supports지원 us in our human인간의 goals목표
371
1266920
3120
인간의 목적 속에 우리를 지지하지만
21:22
but that is also또한 constrained제한된
by our human인간의 values.
372
1270800
3920
인간의 가치에 제약합니다.
21:27
And I understand알다 this won't습관 be easy쉬운.
373
1275600
2160
그 일은 쉽지 않을 것입니다.
21:30
We might not even easily용이하게 agree동의하다
on what those terms자귀 mean.
374
1278360
3600
이런 말들이 의미하는 이유에
쉽게 동의하지 못할 수 있습니다.
21:34
But if we take seriously진지하게
375
1282920
2400
하지만 만약 심각하게
21:38
how these systems시스템 that we
depend의존하다 on for so much operate조작하다,
376
1286240
5976
우리가 의지하고 있는 시스템이
어떻게 일을 하는지 생각해 본다면
21:44
I don't see how we can postpone연기하다
this conversation대화 anymore더 이상.
377
1292240
4120
저는 왜 우리가 이런 대화를
피하려 하는지 이해할 수 없습니다.
21:49
These structures구조
378
1297200
2536
그러한 구조들은
21:51
are organizing조직 how we function기능
379
1299760
4096
우리의 기능을 조직화시키고
21:55
and they're controlling제어
380
1303880
2296
통제를 합니다.
21:58
what we can and we cannot~ 할 수 없다. do.
381
1306200
2616
우리가 할 수 있는 것과
할 수 없는 것들을 구분합니다.
22:00
And many많은 of these ad-financed광고 융자 platforms플랫폼,
382
1308840
2456
그리고 광고를 위주로
운영되는 많은 플랫폼들은
22:03
they boast자랑 that they're free비어 있는.
383
1311320
1576
그들은 무료임을 내세우고 있습니다.
22:04
In this context문맥, it means방법
that we are the product생성물 that's being존재 sold팔린.
384
1312920
4560
이런 맥락에서, 우리는 팔리고 있는
상품이라는 말과 다르지 않습니다.
22:10
We need a digital디지털 economy경제
385
1318840
2736
우리는 디지털 기술이 필요하지만
22:13
where our data데이터 and our attention주의
386
1321600
3496
우리의 자료와 관심이
22:17
is not for sale판매 to the highest-bidding최고 입찰
authoritarian독재자 or demagogue선동가.
387
1325120
5080
가장 돈을 많이 거는 사업가나
사람들에게 거래가 되지 않은 세상을 꿈꿉니다.
22:23
(Applause박수 갈채)
388
1331160
3800
(박수)
22:30
So to go back to
that Hollywood할리우드 paraphrase의역,
389
1338480
3256
다시 할리우드에서 유행하는 말을
바꿔서 인용하겠습니다.
22:33
we do want the prodigious거대한 potential가능성
390
1341760
3736
"엄청난 잠재능력을 가진
22:37
of artificial인공의 intelligence지성
and digital디지털 technology과학 기술 to blossom,
391
1345520
3200
인공지능이나 디지털 기술이
꽃 피기를 기대리지만
22:41
but for that, we must절대로 필요한 것 face얼굴
this prodigious거대한 menace협박,
392
1349400
4936
그 일을 위해선, 우리는 엄청난
위험에 맞서야 하고
22:46
open-eyed눈을 뜨다 and now.
393
1354360
1936
눈을 크게 떠야 한다."
22:48
Thank you.
394
1356320
1216
감사합니다.
22:49
(Applause박수 갈채)
395
1357560
4640
(박수)
Translated by SeungGyu Min
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com