ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

제임스 브리들: 악몽과 같은 아동용 유튜브 영상물 -- 오늘날 인터넷의 폐해

Filmed:
5,404,429 views

작가 겸 예술가, 제임스 브리들(James Bridle)은 광고수익을 위해 유튜브에서 아이들의 머리를 망가뜨리는 정체불명의 사람 또는 단체가 활개치는 어둡고 낯선 인터넷의 한 구석을 들춰 봅니다. "서프라이즈 에그"와 "핑거 패밀리 송"으로부터, 알고리즘에 의해 짜깁기되어 보여지는, 우리에게 잘 알려진 만화 주인공들이 끔찍한 행동을 하는 장면을 담은 영상들은 아이들을 위협하고 착취하며, 점점 더 데이터에 의존하는 미래에 대해 경고합니다. “과학기술이 우리의 모든 문제들을 해결해 줄 거라 생각하는 대신, 그 문제들을 파악하는 데 참고로 사용해야 합니다. 그래야, 그 문제들을 제대로 이해하고 해결할 수 있습니다.”라고 그는 말합니다.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm James제임스.
0
777
1183
저는 제임스라고 합니다.
00:13
I'm a writer작가 and artist예술가,
1
1984
1686
작가 겸 예술가이고,
00:15
and I make work about technology과학 기술.
2
3694
2341
과학기술을 소재로 한
작품을 만듭니다.
00:18
I do things like draw무승부 life-size실물 크기의 outlines요점
of military drones무인 항공기
3
6454
3911
실제 크기의 군사용 드론의 윤곽을
전 세계 여러 도시의 거리에
00:22
in city시티 streets시가 around the world세계,
4
10389
1828
그리는 등의 작업을 하죠.
00:24
so that people can start스타트 to think
and get their그들의 heads머리 around
5
12241
2950
사람들이 접하기도 상상하기도
어려운 과학기술에 대해
00:27
these really quite아주 hard-to-see하드 보기
and hard-to-think-about하드-에-생각-에 대 한 technologies기술.
6
15215
3440
생각해 보고 알아 보는
기회를 제공하는 셈이죠.
00:31
I make things like neural신경 networks네트워크
that predict예측하다 the results결과들 of elections선거
7
19494
3836
또, 선거결과를 예측하는
컴퓨터 신경망을 만들기도 하는데,
00:35
based기반 on weather날씨 reports보고,
8
23354
1737
일기예보에 기반을 둔 것입니다.
00:37
because I'm intrigued흥미를 끄는 about
9
25115
1314
이런 별난 신 기술들이 가지고 있는
00:38
what the actual실제의 possibilities가능성
of these weird기묘한 new새로운 technologies기술 are.
10
26453
3924
실제 가능성에 대해 관심이
많기 때문에 가능한 일이죠.
00:43
Last year, I built세워짐
my own개인적인 self-driving자가 운전 car.
11
31405
2426
작년엔 무인 자동차도
직접 만들어 봤어요.
00:45
But because I don't
really trust믿음 technology과학 기술,
12
33855
2526
제가 기술을 신봉하진 않기 때문에,
00:48
I also또한 designed디자인 된 a trap for it.
13
36405
1928
그 차를 잡아 둘 올가미까지
디자인 했습니다.
00:50
(Laughter웃음)
14
38777
1086
(웃음)
00:51
And I do these things mostly대개 because
I find them completely완전히 fascinating매혹적인,
15
39887
4298
아주 큰 매력을 느끼기 때문에
이런 작업을 하기도 하지만,
00:56
but also또한 because I think
when we talk about technology과학 기술,
16
44209
2602
과학기술을 논할 때,
00:58
we're largely크게 talking말하는 about ourselves우리 스스로
17
46835
2619
대부분 우리 자신에 대한 것이고,
01:01
and the way that we understand알다 the world세계.
18
49478
2299
우리가 세상을 이해하는 방식에
국한되기 때문입니다.
01:03
So here's여기에 a story이야기 about technology과학 기술.
19
51801
2442
과학기술에 관련된 이야기를
하나 해 드릴게요.
01:07
This is a "surprise놀람 egg계란" video비디오.
20
55520
2830
"서프라이즈 에그" 영상입니다.
01:10
It's basically원래 a video비디오 of someone어떤 사람
opening열리는 up loads잔뜩 of chocolate초콜릿 eggs달걀
21
58374
3348
누군가 수많은
알 모양의 초콜릿을 열어,
01:13
and showing전시 the toys장난감 inside내부 to the viewer뷰어.
22
61746
2126
안에 들어 있는 장난감을
시청자들에게 보여주는 거죠.
01:16
That's it. That's all it does
for seven일곱 long minutes의사록.
23
64461
2649
그게 다에요.
7분 동안이나 계속 됩니다.
01:19
And I want you to notice주의
two things about this.
24
67428
3051
여기서 주목할 것이
두 가지 있습니다.
01:22
First of all, this video비디오
has 30 million백만 viewsviews.
25
70503
4074
우선, 이 영상의 조회수가
3천만 회라는 것입니다.
01:26
(Laughter웃음)
26
74601
1275
(웃음)
01:28
And the other thing is,
27
76376
1166
그리고 또 하나,
01:29
it comes온다 from a channel채널
that has 6.3 million백만 subscribers가입자,
28
77566
3869
630만명이 이 채널에 등록되어 있고,
01:33
that has a total합계 of eight여덟 billion십억 viewsviews,
29
81459
2680
전체 조회수가 80억회에 달하는데,
01:36
and it's all just more videos비디오 like this --
30
84163
3106
모두 이런 종류의 영상들이란 거죠.
01:40
30 million백만 people watching보고있다 a guy
opening열리는 up these eggs달걀.
31
88256
3908
한 사람이 알을 까는 장면을
3천만명이 보고 있다는 것입니다.
01:44
It sounds소리 pretty예쁜 weird기묘한, but if you search수색
for "surprise놀람 eggs달걀" on YouTubeYouTube,
32
92188
4481
별나게 들리지만, 유튜브에서
"서프라이즈 에그"를 검색해 보면,
01:48
it'll그것은 tell you there's
10 million백만 of these videos비디오,
33
96693
3523
천만개 정도의 결과가 나옵니다.
01:52
and I think that's an undercountundercount.
34
100240
1657
제가 조금 덜 센 것 같네요.
01:53
I think there's way, way more of these.
35
101921
1897
아마 훨씬 더 많겠죠.
01:55
If you keep searching수색, they're endless끝이없는.
36
103842
2242
계속 찾아 보면,
끝도 없이 나올 거예요.
01:58
There's millions수백만 and millions수백만
of these videos비디오
37
106108
2159
이런 종류의 영상들은
수 백만 개가 넘습니다.
02:00
in increasingly더욱 더 baroque바로크 combinations조합
of brands브랜드 and materials기재,
38
108291
3454
브랜드와 소재가 어지럽게
뒤엉킨 이런 영상들은
02:03
and there's more and more of them
being존재 uploaded업로드 된 every...마다 single단일 day.
39
111769
3846
매일 점점 더 많이 올라옵니다.
02:07
Like, this is a strange이상한 world세계. Right?
40
115639
3511
신기한 세상이죠. 맞나요?
02:11
But the thing is, it's not adults성인
who are watching보고있다 these videos비디오.
41
119174
3383
하지만, 이런 영상을 보는 이들은
어른들이 아니라,
02:14
It's kids아이들, small작은 children어린이.
42
122581
2921
아이들이죠, 어린 아이들이요.
02:17
These videos비디오 are
like crack갈라진 금 for little kids아이들.
43
125526
2154
아이들에게 이런 영상들은
마약과도 같습니다.
02:19
There's something about the repetition되풀이,
44
127704
2075
계속해서 반복되는 장면들,
02:21
the constant일정한 little
dopamine도파민 hit히트 of the reveal창틀,
45
129803
2468
알 속의 내용물을 확인할 때마다
조금씩 발생하는 '도파민'은
02:24
that completely완전히 hooks후크 them in.
46
132295
1866
아이들을 중독시키죠.
02:26
And little kids아이들 watch these videos비디오
over and over and over again,
47
134185
4809
어린 아이들은 이런 영상을
계속해서 보면서,
02:31
and they do it for hours시간
and hours시간 and hours시간.
48
139018
2327
몇 시간을 보내기도 합니다.
02:33
And if you try and take
the screen화면 away from them,
49
141369
2356
여러분들이 더 이상 못 보게 하면
02:35
they'll그들은 할 것이다 scream비명 and scream비명 and scream비명.
50
143749
1782
울고 불고 난리가 날 거예요.
02:37
If you don't believe me --
51
145555
1262
저를 못 믿겠으면
02:38
and I've already이미 seen people
in the audience청중 nodding꼬박 --
52
146841
2607
이미 몇분은
고개를 끄덕이는데요.
02:41
if you don't believe me, find someone어떤 사람
with small작은 children어린이 and ask청하다 them,
53
149472
3391
그럼, 어린 애를 키우는 분에게
한번 물어보세요.
02:44
and they'll그들은 할 것이다 know about
the surprise놀람 egg계란 videos비디오.
54
152887
2340
분명히 이 '서프라이즈 에그' 영상에
대해 알고 있을 겁니다.
02:47
So this is where we start스타트.
55
155251
2070
여기가 오늘 강연의 시작입니다.
02:49
It's 2018, and someone어떤 사람, or lots of people,
56
157345
3642
2018년이 된 지금,
누군가, 아니면 많은 사람들이
02:53
are using~을 사용하여 the same같은 mechanism기구 that, like,
Facebook페이스 북 and Instagram인스 타 그램 are using~을 사용하여
57
161011
3941
'페이스북'이나 '인스타그램'에서
사용하는 방식들을 이용해
02:56
to get you to keep checking확인 that app,
58
164976
1989
사람들로 하여금
계속 어플을 확인하게 하고,
02:58
and they're using~을 사용하여 it on YouTubeYouTube
to hack마구 자르기 the brains두뇌 of very small작은 children어린이
59
166989
3985
어린 아이들까지 유튜브에
중독되게 만들고 있습니다.
03:02
in return반환 for advertising광고하는 revenue수익.
60
170998
1958
모두 광고 수익을 위한 일이죠.
03:06
At least가장 작은, I hope기대
that's what they're doing.
61
174346
2001
적어도, 그게 전부였으면 합니다.
03:08
I hope기대 that's what they're doing it for,
62
176371
1955
그게 전부였으면 하는데,
03:10
because there's easier더 쉬운 ways
of making만들기 ad광고 revenue수익 on YouTubeYouTube.
63
178350
5308
더 쉽게 유튜브에서 광고로
돈 벌 수 있는 방법들이 있기 때문이죠.
03:15
You can just make stuff물건 up or steal훔치다 stuff물건.
64
183682
2332
무작정 꾸며내거나
도용하면 되니까요.
03:18
So if you search수색 for really
popular인기 있는 kids'아이들의 cartoons만화
65
186038
2635
아주 인기 많은
어린이 만화를 검색해 보면,
03:20
like "PeppaPeppa Pig돼지" or "Paw Patrol순찰,"
66
188697
1654
"페파 피그" 또는
"파우 패트롤" 같은 것들이죠,
03:22
you'll find there's millions수백만 and millions수백만
of these online온라인 as well.
67
190375
3147
수 백만개가 넘는 영상들이 뜹니다.
03:25
Of course코스, most가장 of them aren't있지 않다. posted게시 됨
by the original실물 content함유량 creators제작자.
68
193546
3352
물론, 대부분은 원작자가 아닌
이들에 의해 올라온 것들이죠.
03:28
They come from loads잔뜩 and loads잔뜩
of different다른 random무작위의 accounts계정,
69
196922
2999
무작위로 만들어진
수많은 계정으로부터 올려졌고,
03:31
and it's impossible불가능한 to know
who's누가 posting전기 them
70
199945
2240
누가, 왜 그런 영상들을 올리는지
03:34
or what their그들의 motives동기 might be.
71
202209
1822
알 수도 없습니다.
03:36
Does that sound소리 kind종류 of familiar익숙한?
72
204428
1930
어디서 들어본 얘기 같지 않나요?
03:38
Because it's exactly정확하게 the same같은 mechanism기구
73
206382
1980
우리가 디지털 서비스를 이용할 때와
03:40
that's happening사고 across건너서 most가장
of our digital디지털 services서비스,
74
208386
2600
같은 방식이기 때문입니다.
03:43
where it's impossible불가능한 to know
where this information정보 is coming오는 from.
75
211010
3207
정보들의 출처를
알 수 없는 그 방식 말이죠.
03:46
It's basically원래 fake모조품 news뉴스 for kids아이들,
76
214241
1829
말하자면 아동용 가짜 뉴스들이고,
03:48
and we're training훈련 them from birth출생
77
216094
2161
그 아이들이 태어나면서부터
03:50
to click딸깍 하는 소리 on the very first link링크
that comes온다 along...을 따라서,
78
218279
2506
검색 결과 중 맨 위에 있는 링크를
누르도록 훈련시키는 것과 같습니다.
03:52
regardless관계없이 of what the source출처 is.
79
220809
1953
그 출처와는 상관없이 말이죠.
03:54
That's doesn't seem보다 like
a terribly몹시 good idea생각.
80
222786
2603
결코 바람직한 일이 아닙니다.
03:58
Here's여기에 another다른 thing
that's really big on kids'아이들의 YouTubeYouTube.
81
226399
2710
아동용 유튜브에서
인기가 많은 것이 하나 더 있죠.
04:01
This is called전화 한 the "Finger손가락 Family가족 Song노래."
82
229133
1928
"핑거 패밀리 송"입니다.
04:03
I just heard들었던 someone어떤 사람 groan신음 소리
in the audience청중.
83
231085
2018
방금 누군가 한숨을 쉬시네요.
04:05
This is the "Finger손가락 Family가족 Song노래."
84
233127
1624
이것이 "핑거 패밀리 송"입니다.
04:06
This is the very first one I could find.
85
234775
1930
제가 가장 먼저 찾은 영상이죠.
04:08
It's from 2007, and it only has
200,000 viewsviews,
86
236729
2829
2007년에 올라온 이 영상은
조회수가 20만회 정도였어요.
04:11
which어느 is, like, nothing in this game경기.
87
239582
1976
다른 것들에 비하면
대단한 것도 아니죠.
04:13
But it has this insanely미친 듯이 earwormyearwormy tune곡조,
88
241582
2852
여기 정말 따라 부르기 쉬운
노래가 하나 있는데,
04:16
which어느 I'm not going to play놀이 to you,
89
244458
1682
여러분께 들려 드리진 않으려구요.
04:18
because it will sear시든 itself그 자체
into your brain
90
246164
2008
한 번 들으면 머리 속에서
떠나질 않거든요.
04:20
in the same같은 way that
it seared그을린 itself그 자체 into mine광산,
91
248196
2395
지금도 제 머리 속에 남아 있는데,
04:22
and I'm not going to do that to you.
92
250615
1770
여러분들까지 그렇게 만들 순 없죠.
04:24
But like the surprise놀람 eggs달걀,
93
252409
1344
'서프라이즈 에그' 처럼,
04:25
it's got inside내부 kids'아이들의 heads머리
94
253777
2164
이 영상도 아이들의 머리 속에 들어가
04:27
and addicted중독 된 them to it.
95
255965
1607
그들을 중독시켰습니다.
04:29
So within이내에 a few조금 years연령,
these finger손가락 family가족 videos비디오
96
257596
2531
그리고 몇 년 안돼,
이 '핑거 패밀리' 영상도
04:32
start스타트 appearing나타나는 everywhere어디에나,
97
260151
1303
어디를 가나 볼 수 있게 됐죠.
04:33
and you get versions버전
in different다른 languages언어
98
261478
2029
음식이나 만화의 소재가
되는 것이라면 뭐든 이용해 만든
04:35
with popular인기 있는 kids'아이들의 cartoons만화 using~을 사용하여 food식품
99
263531
2121
인기 많은 어린이 만화들을
04:37
or, frankly솔직히, using~을 사용하여 whatever도대체 무엇이 kind종류
of animation생기 elements집단
100
265676
2550
이제 다양한 종류와 언어로
04:40
you seem보다 to have lying거짓말하는 around.
101
268250
2252
접할 수 있게 된 것이죠.
04:43
And once일단 again, there are millions수백만
and millions수백만 and millions수백만 of these videos비디오
102
271002
5197
다시 말해,
이런 말도 안되는 영상들이
04:48
available유효한 online온라인 in all of these
kind종류 of insane미친 것 같은 combinations조합.
103
276223
3435
온라인 상에
몇 백만 개나 돌아 다니는 겁니다.
04:51
And the more time
you start스타트 to spend보내 with them,
104
279682
2228
이런 것들을 보는데,
시간을 쓰면 쓸수록
04:53
the crazier미친 사람 and crazier미친 사람
you start스타트 to feel that you might be.
105
281934
3694
점점 미쳐가는 기분을
느낄 수도 있습니다.
04:57
And that's where I
kind종류 of launched시작한 into this,
106
285652
3333
바로 제가 이런 기분에
빠지게 된 이유죠.
05:01
that feeling감각 of deep깊은 strangeness기묘
and deep깊은 lack결핍 of understanding이해
107
289009
3666
제 주변에서 이런 일들이
어떻게 가능하게 됐는지,
05:04
of how this thing was constructed구성된
that seems~ 같다 to be presented제시된 around me.
108
292699
4175
도저히 알 수 없는 아주 묘한
그런 기분이요.
05:08
Because it's impossible불가능한 to know
where these things are coming오는 from.
109
296898
3167
어디서 시작됐는지
알 수가 없기 때문입니다.
05:12
Like, who is making만들기 them?
110
300089
1241
도대체 누가
이런 것들을 만드는 걸까요?
05:13
Some of them appear나타나다 to be made만든
of teams of professional직업적인 animators애니메이터.
111
301354
3143
어떤 것들은 만화 제작자들에 의해
전문적으로 만들어 지기도 하고,
05:16
Some of them are just randomly무작위로
assembled조립 된 by software소프트웨어.
112
304521
2882
어떤 것들은
대충 짜집기한 티가 납니다.
05:19
Some of them are quite아주 wholesome-looking건강 한 보고
young어린 kids'아이들의 entertainers연예인.
113
307427
4253
어떤 것들은 아이들이 즐기기에
괜찮아 보이는 것도 있습니다.
05:23
And some of them are from people
114
311704
1552
어떤 것들은 아이들 곁에 있어선
05:25
who really clearly분명히
shouldn't해서는 안된다. be around children어린이 at all.
115
313280
3007
절대 안 되는 사람들이
만든 것도 있습니다.
05:28
(Laughter웃음)
116
316311
1615
(웃음)
05:30
And once일단 again, this impossibility불가능
of figuring생각하다 out who's누가 making만들기 this stuff물건 --
117
318987
4640
다시 말해, 누가 이런 것들을
만드는지 알 수가 없다는 것
05:35
like, this is a bot?
118
323651
1156
자동처리 프로그램?
05:36
Is this a person사람? Is this a troll트롤?
119
324831
2647
사람인가? 아니면 트롤인가?
05:39
What does it mean
that we can't tell the difference
120
327502
2382
우리가 이제 이런 것들을
구별할 수 없다는 것이
05:41
between중에서 these things anymore더 이상?
121
329908
1583
무엇을 의미할까요?
05:43
And again, doesn't that uncertainty불확실성
feel kind종류 of familiar익숙한 right now?
122
331515
4848
다시 말해, 이런 불확실함에
익숙하지 않으세요?
05:50
So the main본관 way people get viewsviews
on their그들의 videos비디오 --
123
338145
2580
사람들이 조회수를 올리기 위해
쓰는 주된 방법은
05:52
and remember생각해 내다, viewsviews mean money --
124
340749
1707
조회수는 곧 돈이란 걸 기억하세요.
05:54
is that they stuff물건 the titles제목들
of these videos비디오 with these popular인기 있는 terms자귀.
125
342480
4742
사람들이 많이 찾는 말을
제목에 붙여 쓰는 것입니다.
05:59
So you take, like, "surprise놀람 eggs달걀"
126
347246
1687
예를 들어,
"서프라이즈 에그"를 제목에 붙이고,
06:00
and then you add더하다
"Paw Patrol순찰," "Easter부활절 egg계란,"
127
348957
2066
"파우 패트롤", "부활절 달걀" 같은
06:03
or whatever도대체 무엇이 these things are,
128
351047
1393
말들을 마구잡이로
06:04
all of these words from other
popular인기 있는 videos비디오 into your title표제,
129
352464
2893
가져다가 곁들이는 거죠.
06:07
until...까지 you end종료 up with this kind종류 of
meaningless무의미한 mash으깨다 of language언어
130
355381
2968
인간으로서 이해할 수 없는
의미없는 말들을 줄줄이 엮어
06:10
that doesn't make sense감각 to humans인간 at all.
131
358373
2498
사람들로 하여금 그 영상들을
보게 하는 것입니다.
06:12
Because of course코스 it's only really
tiny작은 kids아이들 who are watching보고있다 your video비디오,
132
360895
3546
어차피 그런 영상을 보는건
어린 아이들인데,
06:16
and what the hell지옥 do they know?
133
364465
1827
그 아이들이 무슨 죄죠?
06:18
Your real레알 audience청중
for this stuff물건 is software소프트웨어.
134
366316
3007
사실 이런 영상들의 실질적인
시청자는 소프트웨어입니다.
06:21
It's the algorithms알고리즘.
135
369347
1156
알고리즘이죠.
06:22
It's the software소프트웨어 that YouTubeYouTube uses용도
136
370527
1855
유튜브에서 사용하는
이 소프트웨어는
06:24
to select고르다 which어느 videos비디오
are like other videos비디오,
137
372406
2483
영상들을 선별하고,
06:26
to make them popular인기 있는,
to make them recommended추천 된.
138
374913
2243
인기나 추천을 많이 받게 만듭니다.
06:29
And that's why you end종료 up with this
kind종류 of completely완전히 meaningless무의미한 mash으깨다,
139
377180
3461
그래서 이 황당한 말들이
제목과 내용 설명에
06:32
both양자 모두 of title표제 and of content함유량.
140
380665
2071
마구 쓰여지는 거죠.
06:35
But the thing is, you have to remember생각해 내다,
141
383792
1894
하지만, 꼭 명심할 것은
06:37
there really are still people within이내에
this algorithmically알고리즘 적으로 optimized최적화 된 system체계,
142
385710
4478
알고리즘으로 최적화된
이런 시스템 상에서
06:42
people who are kind종류
of increasingly더욱 더 forced강요된 to act행위 out
143
390212
2790
점점 더 괴상한 말의 조합들을
쏟아 내야하는
06:45
these increasingly더욱 더 bizarre기괴한
combinations조합 of words,
144
393026
3066
환경이 조장된다는 것입니다.
06:48
like a desperate필사적 인 improvisation즉흥 연주 artist예술가
responding응답하는 to the combined결합 된 screams비명을 지르는
145
396116
5173
마치 수 많은 아이들의
함성에 굶주린
06:53
of a million백만 toddlers유아 at once일단.
146
401313
2203
절박한 즉흥연기자처럼 말이죠.
06:57
There are real레알 people
trapped덫을 놓은 within이내에 these systems시스템,
147
405168
2468
실제로 사람들은
이런 시스템 안에 갇히게 되고,
06:59
and that's the other deeply깊이 strange이상한 thing
about this algorithmically알고리즘 적으로 driven주행하는 culture문화,
148
407660
4055
알고리즘에 의해 지배되는 사회라는
아주 기이한 현상을 초래했습니다.
07:03
because even if you're human인간의,
149
411739
1381
인간임에도 불구하고,
07:05
you have to end종료 up behaving행동하는 like a machine기계
150
413144
2145
살아남기 위해,
07:07
just to survive생존하다.
151
415313
1800
기계처럼 행동하게 된 것이죠.
07:09
And also또한, on the other side측면 of the screen화면,
152
417137
2100
그리고, 화면 반대편에는
07:11
there still are these little kids아이들
watching보고있다 this stuff물건,
153
419261
2947
어린 아이들이 여전히
이런 영상들을 보고 있고,
07:14
stuck붙어있는, their그들의 full완전한 attention주의 grabbed움켜 잡은
by these weird기묘한 mechanisms메커니즘.
154
422232
4206
이 기이한 구조에 푹 빠져 버립니다.
07:18
And most가장 of these kids아이들 are too small작은
to even use a website웹 사이트.
155
426768
2798
이런 웹사이트를 이용하는
아이들은 대부분 아주 어리죠.
07:21
They're just kind종류 of hammering망치질
on the screen화면 with their그들의 little hands소유.
156
429590
3276
작은 손으로 화면을
두들기는 것 뿐입니다.
07:24
And so there's autoplay자동 재생,
157
432890
1217
그래서 자동재생 기능이 있는 거죠.
07:26
where it just keeps유지하다 playing연주하다 these videos비디오
over and over and over in a loop고리,
158
434131
3579
이런 영상들이 계속
반복해서 보여지도록 말입니다.
07:29
endlessly끝없이 for hours시간 and hours시간 at a time.
159
437734
2059
한 번에 몇 시간씩 끝도 없습니다.
07:31
And there's so much weirdness이상한
in the system체계 now
160
439817
2843
현재 이런 시스템에는
정말 이상한 것들이 많은데,
07:34
that autoplay자동 재생 takes you
to some pretty예쁜 strange이상한 places장소들.
161
442684
3009
자동재생이 되면서
뜻밖의 영상이 보여 지기도 하죠.
07:37
This is how, within이내에 a dozen다스 steps걸음,
162
445717
2488
열 몇 번 정도를 거치면,
07:40
you can go from a cute귀엽다 video비디오
of a counting세는 train기차
163
448229
3158
기차의 수를 세는
이 깜찍한 영상에서 시작해,
07:43
to masturbating자위하는 Mickey미키 Mouse.
164
451411
2442
미키마우스가 자위하는
영상까지 보게 됩니다.
07:46
Yeah. I'm sorry about that.
165
454529
2288
맞습니다. 안타까운 일이죠.
07:48
This does get worse보다 나쁜.
166
456841
1700
이제 더 심각해집니다.
07:50
This is what happens일이
167
458565
1282
이런 것들은,
07:51
when all of these different다른 keywords키워드,
168
459871
3086
이 다양한 키워드들,
07:54
all these different다른 pieces조각들 of attention주의,
169
462981
2461
이 다양한 관심들,
07:57
this desperate필사적 인 generation세대 of content함유량,
170
465466
2807
이 필사적인 콘텐츠의 양산 등이
08:00
all comes온다 together함께 into a single단일 place장소.
171
468297
2582
한 데 모이면서 발생합니다.
08:03
This is where all those deeply깊이 weird기묘한
keywords키워드 come home to roost휴식처.
172
471871
4472
이상한 검색어들이 모여
부메랑 효과를 가져오는 거죠.
08:08
You cross-breed크로스-품종 the finger손가락 family가족 video비디오
173
476367
2391
'핑거 패밀리' 영상과
08:10
with some live-action라이브 액션 superhero수퍼 히어로 stuff물건,
174
478782
2088
슈퍼영웅이 나오는 영화들을
함께 검색해 보면,
08:12
you add더하다 in some weird기묘한,
trollishtrollish in-jokes있음-농담 or something,
175
480894
3256
그냥 장난으로
별난 검색어를 쳤을 뿐인데,
08:16
and suddenly갑자기, you come
to a very weird기묘한 place장소 indeed과연.
176
484174
3366
뜻밖에 아주 이상한 결과에
접하게 됩니다.
08:19
The stuff물건 that tends경향이있다 to upset당황 parents부모님
177
487564
2113
부모님들을 주로 화나게 하는
08:21
is the stuff물건 that has kind종류 of violent격렬한
or sexual성적 content함유량, right?
178
489701
3331
폭력적이거나 성적인 것들이죠.
맞나요?
08:25
Children's어린이 cartoons만화 getting점점 assaulted폭행을당한,
179
493056
2822
폭행이나 살인,
08:27
getting점점 killed살해 된,
180
495902
2018
짖궂은 장난 등을 보여주는
08:29
weird기묘한 pranks농담 that actually사실은
genuinely진정으로 terrify겁나게 하다 children어린이.
181
497944
3343
어린이 만화들은
아이들을 겁에 질리게 합니다.
08:33
What you have is software소프트웨어 pulling당기는 in
all of these different다른 influences영향
182
501311
3675
다양하게 영향을 미치는 영상물들을
긁어 모으는 소프트웨어가
08:37
to automatically자동으로 generate일으키다
kids'아이들의 worst가장 나쁜 nightmares악몽.
183
505010
2961
아이들에게 아주 끔찍한 악몽들을
기계적으로 제공하는 것이죠.
08:39
And this stuff물건 really, really
does affect감정 small작은 children어린이.
184
507995
2701
어린 아이들은
아주 큰 영향을 받게 됩니다.
08:42
Parents부모님 report보고서 their그들의 children어린이
being존재 traumatized외상을 입은,
185
510720
2866
부모님들은 아이들이
정신적인 충격을 받고,
08:45
becoming어울리는 afraid두려워하는 of the dark어두운,
186
513610
1392
어둠을 무서워하게 되고,
08:47
becoming어울리는 afraid두려워하는 of their그들의 favorite특히 잘하는
cartoon만화 characters문자들.
187
515026
3050
좋아하던 만화 주인공들까지
기피하게 됐다고 말합니다.
08:50
If you take one thing away from this,
it's that if you have small작은 children어린이,
188
518524
3611
오늘 꼭 기억해야 할 것 하나는,
혹시 어린 자녀분들이 계시다면,
08:54
keep them the hell지옥 away from YouTubeYouTube.
189
522159
1996
유튜브는 절대 쓰지
못하게 하란 것입니다.
08:56
(Applause박수 갈채)
190
524743
3949
(박수)
09:02
But the other thing, the thing
that really gets도착 to me about this,
191
530504
3096
그런데, 또 하나 저를 괴롭히는 건
09:05
is that I'm not sure we even really
understand알다 how we got to this point포인트.
192
533624
4629
어쩌다 상황이 이렇게까지 됐는지
알 수가 없다는 것입니다.
09:10
We've우리는 taken취한 all of this influence영향,
all of these things,
193
538951
2931
이런 영향력을 가진
모든 것들을 가져다 뒤섞어,
09:13
and mungedmunged them together함께 in a way
that no one really intended예정된.
194
541906
2953
누구도 예상치 못한
기이한 현상을 만들어 낸 것입니다.
09:16
And yet아직, this is also또한 the way
that we're building건물 the entire완전한 world세계.
195
544883
3156
그런데, 이것이 오늘날
우리가 세상을 만들어 가는 방식이죠.
09:20
We're taking취득 all of this data데이터,
196
548063
1773
이런 모든 데이터를 가지고,
09:21
a lot of it bad나쁜 data데이터,
197
549860
1447
좋지 않은 것들이 많은데요.
09:23
a lot of historical역사적인 data데이터
full완전한 of prejudice편견,
198
551331
3029
편견으로 가득한 과거의 기록들,
09:26
full완전한 of all of our worst가장 나쁜
impulses충동 of history역사,
199
554384
2837
역사상 최악의
충동적인 사건 사고들을 모아
09:29
and we're building건물 that
into huge거대한 data데이터 sets세트
200
557245
2049
거대한 데이터 집합을 만들어
09:31
and then we're automating자동화 it.
201
559318
1423
자동화시키고 있습니다.
09:32
And we're munging조작 it together함께
into things like credit신용 reports보고,
202
560765
3502
우리는 그 데이터들을 함께 섞어,
신용평가 보고서,
09:36
into insurance보험 premiums보험료,
203
564291
1634
보험료 산정,
09:37
into things like predictive예측적인
policing치안 systems시스템,
204
565949
2693
치안 예측 시스템,
09:40
into sentencing양형 guidelines지침.
205
568666
1762
양형기준 등을
정하는 데 쓰고 있습니다.
09:42
This is the way we're actually사실은
constructing건설 중의 the world세계 today오늘
206
570452
2821
오늘날 우리가
세상을 만들어 가는 방식이
09:45
out of this data데이터.
207
573297
1151
이런 데이터들에 의해
결정되는 것이죠.
09:46
And I don't know what's worse보다 나쁜,
208
574472
1698
뭐가 더 나쁜 건지 모르겠어요.
09:48
that we built세워짐 a system체계
that seems~ 같다 to be entirely전적으로 optimized최적화 된
209
576194
3228
인간이 할 수 있는
최악의 행위에 최적화된 시스템을
09:51
for the absolute순수한 worst가장 나쁜 aspects상들
of human인간의 behavior행동,
210
579446
2808
일부러 만들어 내는 것과,
09:54
or that we seem보다
to have done끝난 it by accident사고,
211
582278
2425
부지불식간에 어쩌다가
09:56
without없이 even realizing실현
that we were doing it,
212
584727
2207
그렇게 되버리는 것 중 말이죠.
09:58
because we didn't really understand알다
the systems시스템 that we were building건물,
213
586958
3382
우리가 만들고 있는 이 시스템들의
10:02
and we didn't really understand알다
how to do anything differently다르게 with it.
214
590364
3683
활용 방법 또한
전혀 알지 못하기 때문입니다.
10:06
There's a couple of things I think
that really seem보다 to be driving운전 this
215
594769
3365
이런 현상을 이끄는
두 가지 요인이 있습니다.
10:10
most가장 fully충분히 on YouTubeYouTube,
216
598158
1189
거의 유튜브에서 말이죠.
10:11
and the first of those is advertising광고하는,
217
599371
1827
첫번째, 광고입니다.
10:13
which어느 is the monetization수익 창출 of attention주의
218
601222
2837
사람들의 관심을 끌어
수익을 창출하는 것 말이죠.
10:16
without없이 any real레알 other variables변수 at work,
219
604083
3136
사실 다른 이유는 찾아보기 힘듭니다.
10:19
any care케어 for the people who are
actually사실은 developing개발 중 this content함유량,
220
607243
3885
실제 이런 콘텐츠를 만드는 사람들,
10:23
the centralization집중 of the power,
the separation분리 of those things.
221
611152
3636
권력의 중앙 집권화와 분산 등은
신경도 쓰지 않습니다.
10:26
And I think however하나 you feel
about the use of advertising광고하는
222
614812
3144
결국 이런 현상을 부추기는
광고의 사용에 대해
10:29
to kind종류 of support지원하다 stuff물건,
223
617980
1238
어떻게 생각하실지 모르지만,
10:31
the sight시각 of grown성장한 men남자 in diapers기저귀
rolling구르는 around in the sand모래
224
619242
3067
사실 제대로 알지도 못하는
알고리즘을 통해
10:34
in the hope기대 that an algorithm연산
that they don't really understand알다
225
622333
2983
혹시 돈이 될까 하고 만든,
다 큰 어른이 기저귀를 차고
10:37
will give them money for it
226
625340
1315
모래사장에서 뒹구는 이 영상이
10:38
suggests제안 that this
probably아마 isn't the thing
227
626679
2037
시사하는 것은,
10:40
that we should be basing기초
our society사회 and culture문화 upon...에,
228
628740
2563
이런 것들이 우리 사회와 문화의
기반이 되어서도,
10:43
and the way in which어느
we should be funding자금 it.
229
631327
2160
투자의 대상이 되어서도
안된다는 것입니다.
10:45
And the other thing that's kind종류 of
the major주요한 driver운전사 of this is automation오토메이션,
230
633511
3519
이런 현상을 이끄는
또 다른 요인은 자동화입니다.
10:49
which어느 is the deployment전개
of all of this technology과학 기술
231
637054
2329
소개되자마자 아무런 검증도 없이
10:51
as soon as it arrives도착하다,
without없이 any kind종류 of oversight감시,
232
639407
2521
상용화되는 과학기술의 단면이죠.
10:53
and then once일단 it's out there,
233
641952
1412
일단 그렇게 된 후에는,
10:55
kind종류 of throwing던지는 up our hands소유 and going,
"Hey, it's not us, it's the technology과학 기술."
234
643388
3843
그저 포기 한 것처럼,
"봐, 우리가 아니라, 그 기술이 문제야."
10:59
Like, "We're not involved뒤얽힌 in it."
235
647255
1642
"우리하곤 상관 없어"
하는 것 처럼 말이죠.
11:00
That's not really good enough충분히,
236
648921
1767
이건 변명에 불과합니다.
11:02
because this stuff물건 isn't
just algorithmically알고리즘 적으로 governed통치되는,
237
650712
2710
단순히 알고리즘에 의해
지배되고 있을 뿐 아니라,
11:05
it's also또한 algorithmically알고리즘 적으로 policed치안.
238
653446
2498
규제까지 받고 있기 때문이죠.
11:07
When YouTubeYouTube first started시작한
to pay지불 attention주의 to this,
239
655968
2848
유튜브가 이 문제에
처음 관심을 가지면서
11:10
the first thing they said
they'd그들은 do about it
240
658840
2087
제일 먼저 약속했던 건,
11:12
was that they'd그들은 deploy전개하다
better machine기계 learning배우기 algorithms알고리즘
241
660951
2695
콘텐츠의 관리를 위해
보다 나은 기계 학습 알고리즘을
11:15
to moderate보통의 the content함유량.
242
663670
1329
활용하겠다는 것이었습니다.
11:17
Well, machine기계 learning배우기,
as any expert전문가 in it will tell you,
243
665023
3485
글쎄요, 전문가라면 말하겠지만,
기계 학습은,
11:20
is basically원래 what we've우리는 started시작한 to call
244
668532
1896
우리가 흔히
11:22
software소프트웨어 that we don't really
understand알다 how it works공장.
245
670452
2588
예측 불가능한
소프트웨어에 쓰는 말이죠.
11:25
And I think we have
enough충분히 of that already이미.
246
673064
3983
이미 주변에서 이런 것들은
충분히 볼 수 있습니다.
11:29
We shouldn't해서는 안된다. be leaving퇴거
this stuff물건 up to AIAI to decide결정하다
247
677071
3166
올바르거나,
그렇지 않은 것의 판단을
11:32
what's appropriate적당한 or not,
248
680261
1251
인공지능에 맡겨서는 안되겠죠.
11:33
because we know what happens일이.
249
681536
1436
어떤 일이 벌어질지
우리는 잘 알고 있습니다.
11:34
It'll그것은 start스타트 censoring검열 other things.
250
682996
1688
엉뚱한 것들을 검열하기 시작하겠죠.
11:36
It'll그것은 start스타트 censoring검열 queer동성애자 content함유량.
251
684708
1783
동성애 관련 콘텐츠를
검열하기 시작할 겁니다.
11:38
It'll그것은 start스타트 censoring검열
legitimate본격적인 public공공의 speech연설.
252
686515
2237
합법적인 대중을 향한 연설도
검열하기 시작할 겁니다.
11:40
What's allowed허용 된 in these discourses논설,
253
688776
1925
이런 강연을 통해
전달할 수 있는 것들이,
11:42
it shouldn't해서는 안된다. be something
that's left up to unaccountable설명 할 수없는 systems시스템.
254
690725
3097
책임의 소재가 없는 시스템에 의해
결정되어서는 안되겠죠.
11:45
It's part부품 of a discussion토론
all of us should be having.
255
693846
2947
우리 모두 토론해 봐야 할
문제 중 하나입니다.
11:48
But I'd leave휴가 a reminder조언
256
696817
1308
그런데 그에 대한 대안 조차도
11:50
that the alternative대안 isn't
very pleasant쾌적한, either어느 한 쪽.
257
698149
2753
그다지 유쾌하지만은 않습니다.
11:52
YouTubeYouTube also또한 announced발표하다 recently요새
258
700926
1535
유튜브에서 최근 발표한
11:54
that they're going to release해제
a version번역 of their그들의 kids'아이들의 app
259
702485
2767
전적으로 사람에 의해 관리되는
11:57
that would be entirely전적으로
moderated검토 된 by humans인간.
260
705276
2407
새로운 아동용 어플입니다.
12:00
Facebook페이스 북 -- Zuckerberg주커 버그 said
much the same같은 thing at Congress대회,
261
708134
3618
페이스북의 '저커버그'도
국회 청문회에서 같은 말을 했죠.
12:03
when pressed눌린 about how they
were going to moderate보통의 their그들의 stuff물건.
262
711776
2987
콘텐츠 관리에 대해
다그침을 받았을 때 말입니다.
12:06
He said they'd그들은 have humans인간 doing it.
263
714787
1747
기계가 아닌 사람들이
그 일을 할 것이라고 했습니다.
12:08
And what that really means방법 is,
264
716558
1459
그 말인 즉슨
12:10
instead대신에 of having toddlers유아 being존재
the first person사람 to see this stuff물건,
265
718041
3223
이런 영상들을 먼저 접하던
아이들을 대신해
12:13
you're going to have underpaid급여가 부족한,
precarious믿을 수 없는 contract계약 workers노동자
266
721288
2788
박봉에 불안정한 생활을 하고,
정신 건강을 위한 지원도 받지 못하며
12:16
without없이 proper적절한 mental지적인 health건강 support지원하다
267
724100
1726
이미 그런 영상들에 의해 피폐해진
12:17
being존재 damaged손상된 by it as well.
268
725850
1376
계약직원들을 내세우는 것이죠.
12:19
(Laughter웃음)
269
727250
1096
(웃음)
12:20
And I think we can all do
quite아주 a lot better than that.
270
728370
2601
우리 모두 이보단 훨씬 더
잘 할 수 있을 거라고 믿습니다.
12:22
(Applause박수 갈채)
271
730995
2499
(박수)
12:26
The thought, I think, that brings가져다 준다 those
two things together함께, really, for me,
272
734068
4613
제 생각에, 그 두가지 문제를
모두 해결하기 위해 필요한건
12:30
is agency대리점.
273
738705
1420
바로 중재입니다.
12:32
It's like, how much do we really
understand알다 -- by agency대리점, I mean:
274
740149
3157
제가 말하는 중재는
얼마나 우리가 이해하고 있고,
12:35
how we know how to act행위
in our own개인적인 best베스트 interests이해.
275
743330
4390
우리 스스로의 이익을 위해
행동하는 방식을 말합니다.
12:39
Which어느 -- it's almost거의 impossible불가능한 to do
276
747744
1787
우리가 그 시스템을
제대로 이해하지 못한다면
12:41
in these systems시스템 that we don't
really fully충분히 understand알다.
277
749555
3485
거의 불가능한 일이겠죠.
12:45
Inequality불평등 of power
always leads리드 to violence폭력.
278
753064
3071
힘의 불균형은
언제나 폭력을 야기합니다.
12:48
And we can see inside내부 these systems시스템
279
756159
1685
이런 시스템 상에서도 마찬가지죠.
12:49
that inequality불평등 of understanding이해
does the same같은 thing.
280
757868
2611
이해의 불균형 역시
같은 결과를 초래합니다.
12:52
If there's one thing that we can do
to start스타트 to improve돌리다 these systems시스템,
281
760503
3779
이런 시스템의 개선을 위한
한가지 방법이 있다면,
12:56
it's to make them more legible읽기 쉬운
to the people who use them,
282
764306
2718
사용자들에게 더 쉽게 만들어,
12:59
so that all of us have
a common공유지 understanding이해
283
767048
2196
어떤 일들이 벌어지는지
13:01
of what's actually사실은 going on here.
284
769268
1851
다 함께 이해하는 것입니다.
13:03
The thing, though그래도, I think
most가장 about these systems시스템
285
771970
2968
이 시스템들에 관련된 문제들이
13:06
is that this isn't, as I hope기대
I've explained설명하다, really about YouTubeYouTube.
286
774962
3857
제가 잘 설명을 했으면 하는데,
단지 유튜브에 국한된 것은 아니죠.
13:10
It's about everything.
287
778843
1312
세상 모든 일들에 연관되어 있습니다.
13:12
These issues문제 of accountability책임 and agency대리점,
288
780179
2444
책임과 중재,
13:14
of opacity불투명 and complexity복잡성,
289
782647
2225
불투명함과 복잡함,
13:16
of the violence폭력 and exploitation착취
that inherently본질적으로 results결과들
290
784896
3177
폭력과, 소수에 집중된
13:20
from the concentration집중
of power in a few조금 hands소유 --
291
788097
2794
권력으로부터의 착취 등이
13:22
these are much, much larger더 큰 issues문제.
292
790915
2579
더욱 더 심각한 문제들입니다.
13:26
And they're issues문제 not just of YouTubeYouTube
and not just of technology과학 기술 in general일반,
293
794395
3687
단지 유튜브와
과학기술 전반의 문제만이 아니죠.
13:30
and they're not even new새로운.
294
798106
1265
사실 새로운 일도 아니고,
13:31
They've그들은 been with us for ages나이.
295
799395
1461
우리는 오랜동안
이런 문제들과 함께 했습니다.
13:32
But we finally마침내 built세워짐 this system체계,
this global글로벌 system체계, the internet인터넷,
296
800880
4390
그런데, 결국 인터넷이라는
글로벌 시스템이 소개되면서,
13:37
that's actually사실은 showing전시 them to us
in this extraordinary이상한 way,
297
805294
3019
이런 현상들이
우리들에게 노출된 것입니다.
13:40
making만들기 them undeniable부인할 수없는.
298
808337
1547
더이상 부정할 수 없게 말이죠.
13:41
Technology과학 기술 has this extraordinary이상한 capacity생산 능력
299
809908
2820
과학기술의 힘은 정말 놀랍습니다.
13:44
to both양자 모두 instantiate인스턴스화 and continue잇다
300
812752
3973
때론 숨겨진 엄청난 욕망과 편견들을
13:48
all of our most가장 extraordinary이상한,
often자주 hidden숨겨진 desires욕망 and biases편향
301
816749
4248
예시하고 지속되게 하며,
13:53
and encoding부호화 them into the world세계,
302
821021
1866
그것들을 암호화해
세상에 뿌리기도 하죠.
13:54
but it also또한 writes씁니다 them down
so that we can see them,
303
822911
3474
우리가 직접 볼 수 있도록,
글로 옮기기도 합니다.
13:58
so that we can't pretend체하다
they don't exist있다 anymore더 이상.
304
826409
3330
우리가 그것들의 존재를
부인할 수 없도록 말이죠.
14:01
We need to stop thinking생각 about technology과학 기술
as a solution해결책 to all of our problems문제들,
305
829763
4319
과학기술이 모든 문제들을
해결해 줄 거라 생각하는 대신,
14:06
but think of it as a guide안내서
to what those problems문제들 actually사실은 are,
306
834106
3757
그 문제들을 파악하는 데
참고로 사용해야만,
14:09
so we can start스타트 thinking생각
about them properly정확히
307
837887
2144
정확한 판단을 하고,
14:12
and start스타트 to address주소 them.
308
840055
1766
해결까지 할 수 있겠죠.
14:13
Thank you very much.
309
841845
1335
대단히 감사합니다.
14:15
(Applause박수 갈채)
310
843204
5192
(박수)
14:21
Thank you.
311
849733
1188
감사합니다.
14:22
(Applause박수 갈채)
312
850945
2869
(박수)
14:28
Helen헬렌 Walters월터스: James제임스, thank you
for coming오는 and giving주는 us that talk.
313
856839
3178
헬렌 월터스(Helen Walters):
제임스, 오늘 좋은 강연 감사드려요.
14:32
So it's interesting재미있는:
314
860041
1189
그러니까 흥미로운 건,
14:33
when you think about the films영화 where
the robotic로봇 식의 overlords군주 take over,
315
861254
3495
영화에 등장하는
로봇들이 지배하는 세상은
14:36
it's all a bit비트 more glamorous매혹적인
than what you're describing묘사하는.
316
864773
3279
지금 말씀하신 것보다 훨씬 더
매력적으로 느껴지기도 하는데요.
14:40
But I wonder경이 -- in those films영화,
you have the resistance저항 mounting설치.
317
868076
3749
제가 궁금한건, 그런 영화에는
항상 저항세력이 등장하는데,
14:43
Is there a resistance저항 mounting설치
towards...쪽으로 this stuff물건?
318
871849
3216
지금도 이런 추세에
저항하는 사람들이 있을까요?
14:47
Do you see any positive signs표지판,
green녹색 shoots of resistance저항?
319
875089
3796
어떤 긍정적인 움직임이나,
발전의 조짐 등이 보이나요?
14:52
James제임스 Bridle고삐: I don't know
about direct곧장 resistance저항,
320
880507
2416
제임스: 전면적인 저항이
있는지는 잘 모르겠어요.
14:54
because I think this stuff물건
is super감독자 long-term장기간.
321
882947
2264
장기적인 문제라고 생각해요.
14:57
I think it's baked구운 것 into culture문화
in really deep깊은 ways.
322
885235
2510
문화 속 깊이
뿌리내리고 있기 때문이죠.
14:59
A friend친구 of mine광산,
Eleanor엘레 노어 SaittaSaitta, always says말한다
323
887769
2132
엘레노어 사이터(Eleanor Saitta)란
제 친구는 항상 말합니다,
15:01
that any technological기술적 인 problems문제들
of sufficient충분한 scale규모 and scope범위
324
889935
3609
어느 정도 영향력을 가진
과학기술에 관련된 문제들은
15:05
are political주재관 problems문제들 first of all.
325
893568
2267
우선 정치에 관련돼 있다는 거죠.
15:07
So all of these things we're working
to address주소 within이내에 this
326
895859
2785
그래서 우리가 해결하려는
이 모든 문제들은
15:10
are not going to be addressed해결 된
just by building건물 the technology과학 기술 better,
327
898668
3274
단순한 과학기술의 발전이 아니라,
15:13
but actually사실은 by changing작고 보기 흉한 사람 the society사회
that's producing생산 these technologies기술.
328
901966
3464
이런 기술을 만들어 내는
사회를 변화시켜야 가능하단 거죠.
15:17
So no, right now, I think we've우리는 got
a hell지옥 of a long way to go.
329
905454
3027
그래서 지금 당장은,
아직 갈 길이 멀다고 생각합니다.
15:20
But as I said, I think by unpacking포장 풀기 them,
330
908505
1986
하지만 제가 말했듯이,
이 문제를 풀어 헤치고,
15:22
by explaining설명하는 them, by talking말하는
about them super감독자 honestly정직하게,
331
910515
2697
밝혀내고,
솔직하게 토론하면서,
15:25
we can actually사실은 start스타트
to at least가장 작은 begin시작하다 that process방법.
332
913236
2505
적어도 그 시작은
할 수 있다고 생각합니다.
15:27
HWHW: And so when you talk about
legibility읽기 쉬움 and digital디지털 literacy조용 용습,
333
915765
3562
헬렌 : 그리고, 가독성과
디지털 문해력에 대한 얘기를 들으면서
15:31
I find it difficult어려운 to imagine상상하다
334
919351
1591
제가 상상하기 어려웠던 건,
15:32
that we need to place장소 the burden부담
of digital디지털 literacy조용 용습 on users사용자 themselves그들 자신.
335
920966
3680
그 책임을 사용자들에게
지우는 것인데요.
15:36
But whose누구의 responsibility책임
is education교육 in this new새로운 world세계?
336
924670
4562
그럼 교육에 관한 책임은
새로운 이 세상 속 누구의 몫일까요?
15:41
JBJB: Again, I think this responsibility책임
is kind종류 of up to all of us,
337
929256
3612
제임스: 다시 말하지만,
우리 모두에게 있다고 생각해요.
15:44
that everything we do,
everything we build짓다, everything we make,
338
932892
2984
우리가 행하고, 구축하고,
만드는 모든 것들이
15:47
needs필요 to be made만든
in a consensual합의 된 discussion토론
339
935900
3692
그것들을 회피하는 모든 이들도
대체로 동의하게 끔
15:51
with everyone각자 모두 who's누가 avoiding피하는 it;
340
939616
1940
논의를 거쳐야 한다고 생각해요.
15:53
that we're not building건물 systems시스템
intended예정된 to trick장난 and surprise놀람 people
341
941580
4341
올바른 일을 하기 위해,
사람들을 속이고 경악케 하는
15:57
into doing the right thing,
342
945945
2300
시스템을 구축하진 않겠죠.
16:00
but that they're actually사실은 involved뒤얽힌
in every...마다 step단계 in educating교육 them,
343
948269
3236
그 교육의 모든 단계에
연관되어 있습니다.
16:03
because each마다 of these systems시스템
is educational교육적인.
344
951529
2278
왜냐면 각각의 시스템으로부터
배울 것들이 있기 때문이죠.
16:05
That's what I'm hopeful유망한 about,
about even this really grim엄한 stuff물건,
345
953831
3102
아주 우울한 문제지만,
바로 거기에 희망이 있습니다.
16:08
that if you can take it
and look at it properly정확히,
346
956957
2262
우리가 그것을 가져다 잘 살펴보면,
16:11
it's actually사실은 in itself그 자체
a piece조각 of education교육
347
959243
2089
그 자체가 일종의 교육이겠죠.
16:13
that allows허락하다 you to start스타트 seeing
how complex복잡한 systems시스템 come together함께 and work
348
961356
3762
복잡한 시스템들이
하나로 움직이는 방식을 보고,
16:17
and maybe be able할 수 있는 to apply대다
that knowledge지식 elsewhere다른 곳에 in the world세계.
349
965142
3501
아마도 그 지식을 세상 여러 곳에
활용할 수 있겠죠.
16:20
HWHW: James제임스, it's such이러한
an important중대한 discussion토론,
350
968667
2115
헬렌 : 아주 중요한 문제이고,
16:22
and I know many많은 people here
are really open열다 and prepared준비된 to have it,
351
970806
3227
많은 분들이 실제로 마음을 열고,
받아들일 준비가 되어 있는 것 같아요.
16:26
so thanks감사 for starting출발 off our morning아침.
352
974057
1859
아침부터 아주 좋은 시간 감사드립니다.
16:27
JBJB: Thanks감사 very much. Cheers건배.
353
975940
1400
제임스 : 감사합니다.
16:29
(Applause박수 갈채)
354
977364
1651
(박수)
Translated by dasol park
Reviewed by TJ Kim

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com