ABOUT THE SPEAKER
Andrew Marantz - Writer
Andrew Marantz writes narrative journalism about politics, the internet and the way we understand our world.

Why you should listen

Since 2016, Andrew Marantz has been at work on a book about the perils of virality, the myth of linear progress and the American far right. To report the book, he spent several years embedded with some of the conspiracists, white supremacists and nihilist trolls who have become experts at using social media to advance their corrosive agendas. He also watched as some of social media's earliest and most influential founders started to reckon with the forces they'd unleashed. The book, forthcoming in October from Viking Press, is called Antisocial: Online Extremists, Techno-Utopians, and the Hijacking of the American Conversation

Marantz became a staff writer at the New Yorker in 2017. Prior to that, he worked on the magazine's editorial staff, splitting his time between writing stories (about such topics as hip-hop purism and the Truman Show delusion) and editing stories (about Las Vegas night clubs, Liberian warlords and many other things). Ultimately, Marantz's main interest lies not in any particular subject matter, but in how people form beliefs -- and under what circumstances those beliefs can change for the better.

Marantz is also a contributor to Radiolab and The New Yorker Radio Hour, and has written for Harper's, Mother Jones, the New York Times and many other outlets. He holds an undergraduate degree in religion from Brown University and a master's degree in literary nonfiction from New York University. He lives in Brooklyn with his wife, who is a criminal-justice reformer; his two-year-old son, who is an excellent dancer; and an endless supply of peanut butter.

More profile about the speaker
Andrew Marantz | Speaker | TED.com
TED2019

Andrew Marantz: Inside the bizarre world of internet trolls and propagandists

앤드류 머랜츠(Andrew Marantz): 인터넷 트롤과 선동자들의 기상천외한 세상 속으로

Filmed:
1,676,355 views

기자 앤드류 머랜츠(Andrew Marantz)는 도대체 누가 온라인상의 대화의 핵심에 비주류의 논점을 자극하고, 그들의 아이디어는 어떻게 퍼지는지 알아내기 위해 3년 동안 인터넷 트롤과 소셜미디어 선동자들의 세상으로 들어가보았다. 온라인에서의 선동과 잘못된 정보의 함정 깊이 들어가, 우리가 어떻게 온라인 공간을 덜 위험하게 만들 수 있는지 배울 수 있다.
- Writer
Andrew Marantz writes narrative journalism about politics, the internet and the way we understand our world. Full bio

Double-click the English transcript below to play the video.

00:12
I spent지출하다 the past과거 three years연령
0
612
1611
저는 지난 3년간
00:14
talking말하는 to some of the worst가장 나쁜
people on the internet인터넷.
1
2247
3183
인터넷에서 볼 수 있는
최악의 사람들과 대화했습니다.
00:18
Now, if you've been online온라인 recently요새,
2
6441
2196
여러분도 온라인을 보셨겠지만
00:20
you may할 수있다 have noticed알아 차 렸던 that there's
a lot of toxic유독 한 garbage찌꺼기 out there:
3
8661
3804
정말 쓰레기 같은 것들이
많다는 걸 알 수 있죠.
00:24
racist인종 차별 주의자 memes, misogynist오산 주의자 propaganda선전,
viral바이러스 성의 misinformation오보.
4
12489
4953
인종차별 짤방, 남성우월주의,
허위 사실 유포.
00:29
So I wanted to know
who was making만들기 this stuff물건.
5
17466
2199
저는 누가 이런 걸 만드는 건지
00:31
I wanted to understand알다
how they were spreading퍼짐 it.
6
19689
2338
어떻게 퍼트려지는 건지
알고 싶었습니다.
00:34
Ultimately궁극적으로, I wanted to know
7
22051
1387
가장 알고 싶었던 건
00:35
what kind종류 of impact충격
it might be having on our society사회.
8
23462
2569
이게 우리 사회에 어떤
영향을 미치는가 였습니다.
00:38
So in 2016, I started시작한 tracing트레이싱
some of these memes back to their그들의 source출처,
9
26055
4011
그래서 2016년, 이런 짤방들의
근원을 추적하기 시작했습니다.
00:42
back to the people who were making만들기 them
or who were making만들기 them go viral바이러스 성의.
10
30090
3502
이런걸 만들고 배포하는
그런 사람들 말이에요.
00:45
I'd approach접근 those people and say,
11
33616
1634
몇몇을 찾은 후 물었죠.
00:47
"Hey, I'm a journalist기자.
Can I come watch you do what you do?"
12
35274
2906
"음, 저는 기자인데요.
좀 찾아봬도 될까요?"
00:50
Now, often자주 the response응답 would be,
13
38204
1596
많은 이들이 이렇게 답합니다.
00:51
"Why in hell지옥 would I want to talk to
14
39824
1747
"왜 내가 너 같은 브루클린 출신의
00:53
some low-t로우-t soy-boy대두 소년
Brooklyn브루클린 globalist세계 주의자 Jew유태인 cuckcuck
15
41595
2199
민주당이랑 한통속인
00:55
who's누가 in cahoots공동 with the Democrat민주당 원 Party파티?"
16
43818
2087
유대인 좌파를 봐야 되지?"
00:57
(Laughter웃음)
17
45929
1252
(웃음)
00:59
To which어느 my response응답 would be,
"Look, man, that's only 57 percent퍼센트 true참된."
18
47205
3835
저의 대답은 이렇죠.
"그건 57%만 사실이에요."
01:03
(Laughter웃음)
19
51064
1172
(웃음)
01:04
But often자주 I got the opposite반대말 response응답.
20
52633
1840
하지만 정반대 대답도 많아요.
01:06
"Yeah, sure, come on by."
21
54497
1288
"물론이죠. 오세요."
01:08
So that's how I ended끝난 up
in the living생활 room
22
56625
2081
그렇게 그들의 집으로 찾아가죠.
01:10
of a social사회적인 media미디어 propagandist선전 주의자
in Southern남부 지방 사투리 California캘리포니아.
23
58730
3125
남부 캘리포니아에 있는
소셜미디어 선동가들의 집으로요.
01:14
He was a married기혼 white화이트 guy
in his late늦은 30s.
24
62386
2381
그는 30대 유부남이였는데
01:16
He had a table in front of him
with a mug얼굴 of coffee커피,
25
64791
3182
책상 위에 커피 한잔과
01:19
a laptop휴대용 퍼스널 컴퓨터 for tweeting트위터,
26
67997
1570
트위터용 랩탑
01:21
a phone전화 for texting문자 메시지
27
69591
1848
문자용 폰
01:23
and an iPadiPad for livestreaming생력을 들려주는
to Periscope잠망경 and YouTubeYouTube.
28
71463
3236
인터넷 생중계용 아이패드까지 있었어요.
01:27
That was it.
29
75258
1161
그게 전부였어요.
01:28
And yet아직, with those tools도구들,
30
76998
1270
하지만 그것들로
01:30
he was able할 수 있는 to propel추진하다 his fringe주변,
noxious유해한 talking말하는 points전철기
31
78292
3715
그의 극단적이고 위험한 논점들을
미국인들의 일상적인 대화에
01:34
into the heart심장 of
the American미국 사람 conversation대화.
32
82031
2411
끌어 들이는게 가능했죠.
01:37
For example, one of the days I was there,
33
85144
2023
예를 들어, 제가 뉴욕에서 머무는 동안
01:39
a bomb폭탄 had just exploded폭발 한 in New새로운 York요크,
34
87191
3152
어느날 폭탄이 터졌는데
01:42
and the guy accused고발 당한 of planting심기 the bomb폭탄
had a Muslim-sounding무슬림 소리 name이름.
35
90367
3475
당시 용의자의 이름이
약간 무슬림 같았어요.
01:45
Now, to the propagandist선전 주의자 in California캘리포니아,
this seemed~ 같았다 like an opportunity기회,
36
93866
4142
캘리포니아 선동가가
이걸 놓칠리 없죠
01:50
because one of the things he wanted
37
98032
1716
그가 지지하던 것 중 하나는
01:51
was for the US to cut절단 off
almost거의 all immigration이주,
38
99772
2562
미국으로 오는 이민자를
모두 막는 것이었거든요.
01:54
especially특히 from Muslim-majority무슬림 대다수 countries국가.
39
102358
2559
특히나 무슬림 국가 이민자들요.
01:57
So he started시작한 livestreaming생력을 들려주는,
40
105424
2055
그렇게 생중계를 시작하고
01:59
getting점점 his followers추종자
worked일한 up into a frenzy격분
41
107503
2236
그의 팔로워들에게 말하죠.
02:01
about how the open열다 borders국경 agenda비망록
was going to kill죽이다 us all
42
109763
2775
국경을 닫지 않으면
미국은 끝장날거라고요.
02:04
and asking질문 them to tweet짹짹 about this,
43
112562
1768
그리고 이걸 트윗하라고 선동합니다.
02:06
and use specific특유한 hashtags해시 태그,
44
114354
1469
가장 사람들의 이목을 끌
02:07
trying견딜 수 없는 to get those hashtags해시 태그 trending동향.
45
115847
1858
해쉬태그를 사용해서 말이죠.
02:09
And tweet짹짹 they did --
46
117729
1219
물론 그들은 따르죠.
02:10
hundreds수백 and hundreds수백 of tweets트윗,
47
118972
1864
수백, 수천 개의 트윗들
02:12
a lot of them featuring특징
images이미지들 like this one.
48
120860
2379
대게 이런 사진들과 함께하죠.
02:15
So that's George성 조지 Soros소로스.
49
123263
1777
조지 소로스인데요.
02:17
He's a Hungarian헝가리 인 billionaire억만 장자
and philanthropist박애주 의자,
50
125064
2645
헝가리 출신 억만장자이자
자선가입니다.
02:19
and in the minds마음
of some conspiracists음모자들 online온라인,
51
127733
2595
하지만 온라인 음모론자들에겐
02:22
George성 조지 Soros소로스 is like
a globalist세계 주의자 bogeyman도깨비,
52
130352
2568
세계의 사악한 악당 같은 존재죠.
02:24
one of a few조금 elites엘리트 who is secretly남몰래
manipulating조작하는 all of global글로벌 affairs사무.
53
132944
4110
전 세계의 문제에 관여해
사람들을 조종하는 소수의 엘리트요.
02:29
Now, just to pause중지 here:
if this idea생각 sounds소리 familiar익숙한 to you,
54
137078
3592
여기서 잠깐,
이거 어디서 많이 들어보셨죠.
02:32
that there are a few조금 elites엘리트
who control제어 the world세계
55
140694
2392
소수의 엘리트 집단이
전 세계를 조종하는데
02:35
and a lot of them happen우연히 있다 to be rich풍부한 Jews유태인,
56
143110
2581
알고보니 그건 잘 사는 유대인인 거죠.
02:37
that's because it is one of the most가장
anti-Semitic반유대 tropes열차 in existence존재.
57
145715
3704
현존하는 반유대주의 사상 중
가장 대표적인 예입니다.
02:42
I should also또한 mention언급하다 that the guy
in New새로운 York요크 who planted심은 that bomb폭탄,
58
150296
3398
이걸 언급하지 않을 수 없군요.
그 폭탄 심었다는 남자는
02:45
he was an American미국 사람 citizen시민.
59
153718
1491
미국 시민권자입니디.
02:47
So whatever도대체 무엇이 else그밖에 was going on there,
60
155785
2204
무엇이 문제인진 몰라도
02:50
immigration이주 was not the main본관 issue발행물.
61
158013
2173
이민이 원인은 아니죠.
02:53
And the propagandist선전 주의자 in California캘리포니아,
he understood이해 된 all this.
62
161332
2832
그 캘리포니아의 선동가는
이걸 다 알고 있었어요.
02:56
He was a well-read잘 읽은 guy.
He was actually사실은 a lawyer변호사.
63
164188
2521
그는 교육받은 사람이고
실제로도 변호사죠.
02:58
He knew알고 있었다 the underlying밑에 있는 facts사리,
64
166733
1687
이런 사실들을 알고 있었어요.
03:00
but he also또한 knew알고 있었다 that facts사리
do not drive드라이브 conversation대화 online온라인.
65
168444
3191
하지만 온라인이 사실에 근거하지
않는다는 것도 알고 있었죠.
03:03
What drives드라이브 conversation대화 online온라인
66
171659
1707
온라인에서 중요한건
03:05
is emotion감정.
67
173390
1229
감정입니다.
03:07
See, the original실물 premise전제 of social사회적인 media미디어
68
175451
2010
소셜미디어의 기본적인 전제는
03:09
was that it was going
to bring가져오다 us all together함께,
69
177485
2249
이걸로 사람들을 끌어모아서
03:11
make the world세계 more open열다
and tolerant관대 한 and fair공정한 ...
70
179758
2379
열린 세상을 만들고
관대하고 정의롭게 만드는 등
03:14
And it did some of that.
71
182161
1254
어느 정도는 맞아요.
03:16
But the social사회적인 media미디어 algorithms알고리즘
have never been built세워짐
72
184503
2723
하지만 소셜미디어 알고리즘은
03:19
to distinguish드러내다 between중에서
what's true참된 or false그릇된,
73
187250
2338
사실 여부를 판단하지 않아요.
03:21
what's good or bad나쁜 for society사회,
what's prosocial사교적 인 and what's antisocial반사회적인.
74
189612
3910
사회를 위해 옳고 그른것,
친사회적인지 아닌지는 중요치 않죠.
03:25
That's just not what those algorithms알고리즘 do.
75
193965
2237
이 알고리즘은
그럴려고 만든게 아니에요.
03:28
A lot of what they do
is measure법안 engagement약혼:
76
196226
2555
이게 평가하는 건 사람들의 참여율이죠.
03:30
clicks클릭 수, comments의견, shares주식,
retweetsretweets, that kind종류 of thing.
77
198805
3021
클릭, 답글, 공유, 리트윗 같은 거요.
03:33
And if you want your content함유량
to get engagement약혼,
78
201850
2701
자기 컨텐츠를 많은 사람들이
보길 원한다면
03:36
it has to spark불꽃 emotion감정,
79
204575
1658
이 감정을 유발하면 돼요.
03:38
specifically구체적으로, what behavioral행동 적 scientists과학자들
call "high-arousal높은 각성 emotion감정."
80
206257
3500
행동과학자들은 이걸
"정서적 각성" 이라고 하는데
03:42
Now, "high높은 arousal각성" doesn't only
mean sexual성적 arousal각성,
81
210343
2490
이 "각성"이 성적인 흥분을
말하는건 아닙니다.
03:44
although이기는 하지만 it's the internet인터넷,
obviously명백하게 that works공장.
82
212857
2735
인터넷에선 뭐 그럴 수도 있지만,
긍정 혹은 부정적이던
03:47
It means방법 anything, positive or negative부정,
that gets도착 people's사람들의 hearts마음 pumping펌핑.
83
215616
4009
사람들의 가슴을 뛰게 하는
그 무언가를 의미해요.
03:51
So I would sit앉다 with these propagandistsPropagandists,
84
219649
1969
저는 선동가들을 만나왔어요.
03:53
not just the guy in California캘리포니아,
but dozens수십 of them,
85
221642
2409
그 캘리포니아 사람 말고도
많은 사람들을요.
03:56
and I would watch as they did this
again and again successfully성공적으로,
86
224075
3748
그들이 정서적 각성을 성공적으로
수행하는 모습을 봤습니다.
03:59
not because they were Russian러시아인 hackers해커,
not because they were tech기술 prodigies신동,
87
227847
3608
러시아 해커라거나
천재 기술자라거나
04:03
not because they had
unique독특한 political주재관 insights통찰력 --
88
231479
2289
깊은 정치적 통찰력을
가지고 있어서가 아니라
04:05
just because they understood이해 된
how social사회적인 media미디어 worked일한,
89
233772
2473
이 소셜미디어가 어떻게
작동하는지를 이해한거에요.
04:08
and they were willing자발적인
to exploit공적 it to their그들의 advantage이점.
90
236269
2582
그리고 그걸 이용하고자 한거죠.
04:10
Now, at first I was able할 수 있는 to tell myself자기
this was a fringe주변 phenomenon현상,
91
238865
3243
처음엔 이게 대단한 일이
아니라고 생각했습니다.
04:14
something that was
relegated강등 된 to the internet인터넷.
92
242132
2229
인터넷에만 국한된 일이라고요.
04:16
But there's really no separation분리 anymore더 이상
between중에서 the internet인터넷 and everything else그밖에.
93
244385
4352
하지만 이젠 인터넷과 실제 세상을
나누는게 무의미해요.
04:20
This is an ad광고 that ran달렸다
on multiple배수 TVTV stations
94
248761
2184
여러 TV 채널에서 방송된 광고인데요.
04:22
during...동안 the 2018 congressional의회 elections선거,
95
250969
2607
2018년 미국 중간 선거 기간이었죠.
04:25
alleging혐의 with very little evidence증거
that one of the candidates후보자
96
253600
2880
별다른 증거도 없이
국제적 조종가 조지 소로스가
04:28
was in the pocket포켓 of
international국제 노동자 동맹 manipulator속이는 사람 George성 조지 Soros소로스,
97
256504
2886
특정 후보자의
뒤를 봐주고 있다고 하죠.
04:31
who is awkwardly어색하게 photoshopped포토샵 here
next다음 것 to stacks스택 of cash현금.
98
259414
3252
돈다발 옆에 합성되어 있죠.
04:35
This is a tweet짹짹 from
the President대통령 of the United유나이티드 States,
99
263296
2654
미합중국 대통령의 트윗 내용입니다.
04:37
alleging혐의, again with no evidence증거,
100
265974
1633
역시 증거가 없지만
04:39
that American미국 사람 politics정치 is being존재
manipulated조작 된 by George성 조지 Soros소로스.
101
267631
3431
미국 정치가 조지 소로스에 의해
조종되고 있다고 합니다.
04:43
This stuff물건 that once일단 seemed~ 같았다 so shocking충격적인
and marginal가장자리 가의 and, frankly솔직히, just ignorableIgnorable,
102
271086
3974
충격적이긴 하지만
별로 시덥잖은 이런 것들이
04:47
it's now so normalized표준화 된
that we hardly거의 even notice주의 it.
103
275084
2945
이제는 사방에 널려있고
더 이상 놀랍지도 않습니다.
04:50
So I spent지출하다 about
three years연령 in this world세계.
104
278053
2066
저는 3년이라는 시간동안
04:52
I talked말한 to a lot of people.
105
280143
1670
많은 사람들과 대화를 했는데요.
04:53
Some of them seemed~ 같았다 to have
no core핵심 beliefs신념 at all.
106
281837
2466
몇몇은 딱히 신념을 가진걸로
보이진 않았습니다.
04:56
They just seemed~ 같았다 to be betting도박,
perfectly아주 rationally합리적으로,
107
284327
2583
적절히 계산을 한 후
도박을 하는거 같았죠.
04:58
that if they wanted
to make some money online온라인
108
286934
2163
온라인에서 돈을 좀 만들고 싶다거나
05:01
or get some attention주의 online온라인,
109
289121
1412
온라인에서 관심을 끌고 싶으면
05:02
they should just be
as outrageous터무니없는 as possible가능한.
110
290557
2213
최대한 충격적인 내용이면 되는거죠.
05:04
But I talked말한 to other people
who were true참된 ideologues이데올로기.
111
292794
2589
몇몇은 실제로 이데올로기에
빠져 있었죠.
05:08
And to be clear명확한, their그들의 ideology관념론
was not traditional전통적인 conservatism보수주의.
112
296173
3881
확실하게 말하자면
전통적 보수주의같은 건 아니였어요.
05:12
These were people who wanted
to revoke취소 female여자 suffrage선거권.
113
300078
3378
여성의 투표권을 박탈해야 한다거나
05:15
These were people who wanted
to go back to racial인종 segregation분리.
114
303480
2967
인종차별 시대로 돌아가야 한다거나
05:18
Some of them wanted to do away
with democracy민주주의 altogether전부.
115
306471
2809
민주주의를 없애야 한다는
사람들도 있었죠.
05:21
Now, obviously명백하게 these people
were not born타고난 believing믿는 these things.
116
309304
3112
물론 그들이 처음부터
그랬던건 아니에요.
05:24
They didn't pick선택 them up
in elementary초등학교의 school학교.
117
312440
2392
초등학교에서 배운 내용은 아니죠.
05:26
A lot of them, before they went갔다
down some internet인터넷 rabbit토끼 hole구멍,
118
314856
2992
인터넷에서 이런것에 빠지기 전에는
05:29
they had been libertarian자유 주의자
or they had been socialist사회 주의자
119
317872
2468
자유주의자나 사회주의를
믿는 사람이었거나,
05:32
or they had been something else그밖에 entirely전적으로.
120
320364
2187
아니면 완전히 다른 사람이었습니다.
05:34
So what was going on?
121
322575
1291
무슨 일이 있었던 걸까요?
05:36
Well, I can't generalize일반화하다 about every...마다 case케이스,
122
324918
2062
모든 걸 일반화 할 수 없겠지만,
05:39
but a lot of the people I spoke to,
123
327004
1687
제가 만난 많은 사람들은
05:40
they seem보다 to have a combination콤비네이션
of a high높은 IQIQ and a low낮은 EQ이퀄라이저.
124
328715
3880
높은 IQ와 낮은 EQ지수를 나타냈고
05:44
They seem보다 to take comfort위로
in anonymous익명의, online온라인 spaces공백
125
332619
3511
온라인 공간의 익명성에서
편안함을 느꼈죠.
05:48
rather차라리 than connecting연결 in the real레알 world세계.
126
336154
1987
실제 세상에서 교류하는 것 보다요.
05:50
So often자주 they would retreat후퇴
to these message메시지 boards무대
127
338810
2453
그들은 그렇게 온라인 게시판
또는 서브 레딧으로
05:53
or these subreddits하위 레딧,
128
341287
1172
도망치게 됩니다.
05:54
where their그들의 worst가장 나쁜 impulses충동
would be magnified확대 된.
129
342483
2454
그들의 충동이
표현될 수 있는 장소로요.
05:56
They might start스타트 out saying속담
something just as a sick고약한 joke농담,
130
344961
3059
처음에는 농담 식으로
한마디씩 던지는 게
06:00
and then they would get so much
positive reinforcement보강 for that joke농담,
131
348044
3344
생각보다 많은 호응을 얻으면서
06:03
so many많은 meaningless무의미한
"internet인터넷 points전철기," as they called전화 한 it,
132
351412
2821
그 공간에서 유명해져가죠.
06:06
that they might start스타트
believing믿는 their그들의 own개인적인 joke농담.
133
354257
2532
그리고 그들은 자신의
농담을 실제로 믿게 됩니다.
06:10
I talked말한 a lot with one young어린 woman여자
who grew자랐다 up in New새로운 Jersey저지,
134
358014
3524
뉴저지에서 나고 자란 한 여성과
많은 이야기를 나눴는데
06:13
and then after high높은 school학교,
she moved움직이는 to a new새로운 place장소
135
361562
2476
고등학교 졸업 후 이사를 가게되었고
06:16
and suddenly갑자기 she just felt펠트
alienated소외 된 and cut절단 off
136
364062
2254
갑자기 소외된 그녀는
모든 교류를 중단하고
06:18
and started시작한 retreating후퇴하는 into her phone전화.
137
366340
1864
핸드폰으로 빠져들게 되죠.
06:20
She found녹이다 some of these
spaces공백 on the internet인터넷
138
368850
2172
인터넷에서 가장 충격적이고
극악무도한 것이
06:23
where people would post게시하다
the most가장 shocking충격적인, heinous흉악한 things.
139
371046
2866
게시되는 몇몇 사이트를 찾게 됩니다.
06:25
And she found녹이다 this stuff물건
really off-putting불쾌한
140
373936
2269
그녀는 뭔가 미심쩍다고 생각하지만
06:28
but also또한 kind종류 of engrossing몰두하는,
141
376229
1775
뭔가가 그녀의 마음을 사로잡고
06:30
kind종류 of like she couldn't할 수 없었다
look away from it.
142
378754
2084
그녀는 거기에 중독이 되는 것이죠.
06:33
She started시작한 interacting상호 작용하는 with people
in these online온라인 spaces공백,
143
381304
2832
그녀는 온라인 상에서
사람들과 대화를 나누게 되고
06:36
and they made만든 her feel smart똑똑한,
they made만든 her feel validated검증 된.
144
384160
2799
그들은 그녀를 인정해주고
똑똑하다고 말해줍니다.
06:38
She started시작한 feeling감각 a sense감각 of community커뮤니티,
145
386983
1977
그녀는 그곳에서 소속감을 느끼고
06:40
started시작한 wondering궁금해하는 if maybe
some of these shocking충격적인 memes
146
388984
2658
점차 이런 충격적인 짤방에 어쩌면
06:43
might actually사실은 contain있다 a kernel핵심 of truth진실.
147
391666
2461
진실의 핵심이 있을지도
모른다고 생각하게 됩니다.
06:46
A few조금 months개월 later후에, she was in a car
with some of her new새로운 internet인터넷 friends친구
148
394151
3515
몇개월 후 그녀는 인터넷 친구들과
같은 차에 탄 상태로
06:49
headed향하고있는 to CharlottesvilleCharlottesville, Virginia여자 이름,
149
397690
1826
버지니아주 샬러츠빌로 향하고
06:51
to march행진 with torches횃불
in the name이름 of the white화이트 race경주.
150
399540
2688
백인 우월주의의 이름하에
횃불을 들고 행진을 합니다.
06:55
She'd흘리다 gone지나간, in a few조금 months개월,
from Obama오바마 supporter서포터
151
403033
2291
오바바의 지지자였던 그녀가
06:57
to fully충분히 radicalized과격화 된 white화이트 supremacist우월 주의자.
152
405338
2487
몇달만에 완전한
백인 우월주의자가 되어버립니다.
07:01
Now, in her particular특별한 case케이스,
153
409030
2281
그래도 그녀의 경우에는
07:03
she actually사실은 was able할 수 있는 to find her way
out of the cult숭배 of white화이트 supremacy최고.
154
411335
4132
결국 백인 우월주의 단체에서
탈출할 수 있었습니다만,
07:08
But a lot of the people
I spoke to were not.
155
416418
2060
제가 만났던 많은 사람들은
그렇지 못했죠.
07:10
And just to be clear명확한:
156
418502
1722
확실하게 말씀드리자면,
07:12
I was never so convinced납득시키다
that I had to find common공유지 ground바닥
157
420248
2966
저는 제가 만나는 모든 사람들과
항상 공통점을 찾아야 한다고
07:15
with every...마다 single단일 person사람 I spoke to
158
423238
2063
생각하는 건 아니에요.
07:17
that I was willing자발적인 to say,
159
425325
1254
이건 아니란 거죠.
07:18
"You know what, man,
you're a fascist파시스트 당원 propagandist선전 주의자, I'm not,
160
426603
3141
"아 너 극우 선동가니?
난 아니야,
07:21
whatever도대체 무엇이, let's just hug포옹 it out,
all our differences차이점들 will melt용해 away."
161
429768
3416
뭐 어쨌든 잘 지내보자.
서로 달라도 친구가 될 수 있을 거야."
07:25
No, absolutely전혀 not.
162
433208
1714
아니요, 절대 그렇지 않습니다.
07:28
But I did become지다 convinced납득시키다 that we cannot~ 할 수 없다.
just look away from this stuff물건.
163
436056
3521
하지만 저는 이걸 그냥
지나칠 순 없다고 생각합니다.
07:31
We have to try to understand알다 it,
because only by understanding이해 it
164
439601
3216
그들을 이해하기 위해 노력해야합니다.
그렇게 함으로써
07:34
can we even start스타트 to inoculate접종하다
ourselves우리 스스로 against반대 it.
165
442841
3198
우리는 이 문제를 해결하기
시작할 수 있기 때문입니다.
07:39
In my three years연령 in this world세계,
I got a few조금 nasty추잡한 phone전화 calls전화,
166
447361
3349
지난 3년간 악성 전화를
몇통 받았습니다.
07:42
even some threats위협,
167
450734
1520
그 중엔 협박 전화도 있었어요.
07:44
but it wasn't아니었다. a fraction분수 of what
female여자 journalists언론인 get on this beat박자.
168
452278
3430
사실 여성 기자들이 겪는 것에
비하면 아무것도 아닙니다.
07:48
And yeah, I am Jewish유태인,
169
456791
1391
네, 저는 유대인입니다.
07:50
although이기는 하지만, weirdly이상하게, a lot of the Nazis나치
couldn't할 수 없었다 tell I was Jewish유태인,
170
458206
3649
이상하게도, 나치 추종자들이
저를 알아보진 못하더라고요.
07:53
which어느 I frankly솔직히 just found녹이다
kind종류 of disappointing실망시키는.
171
461879
2861
솔직히 좀 실망스럽더군요.
07:56
(Laughter웃음)
172
464764
1800
(웃음)
07:58
Seriously진지하게, like, your whole완전한 job
is being존재 a professional직업적인 anti-Semite반유대.
173
466588
3966
전문 반유대주의자가 직업이면서
08:03
Nothing about me
is tipping you off at all?
174
471228
2422
나를 보고 느끼는 게 없다고?
08:05
Nothing?
175
473674
1076
아무것도?
08:06
(Laughter웃음)
176
474774
2303
(웃음)
08:09
This is not a secret비밀.
177
477983
1195
숨길 것도 아니죠.
08:11
My name이름 is Andrew앤드류 MarantzMarantz,
I write쓰다 for "The New새로운 Yorker요 니어,"
178
479202
2683
제 이름은 Andrew Marantz이고
"뉴요커"에서 일합니다.
08:13
my personality인격 type유형
is like if a SeinfeldSeinfeld episode삽화
179
481909
2521
제 성격은 마치
시트콤 사인필드의 한 에피소드를
08:16
was taped녹화 된 at the Park공원 Slope경사 Food식품 Coop비좁고 갑갑한 곳.
180
484454
1837
Park Slope Food Coop에서
08:18
Nothing?
181
486315
1162
찍은 것과 같죠.
아무것도?
08:19
(Laughter웃음)
182
487501
2513
(웃음)
08:24
Anyway어쨌든, look -- ultimately궁극적으로,
it would be nice좋은
183
492804
2231
어쨌든, 참 좋을텐데 말이죠.
08:27
if there were, like, a simple단순한 formula공식:
184
495059
2348
이것에 단순한 공식이
있었다면 말이에요.
08:29
smartphone스마트 폰 plus...을 더한 alienated소외 된 kid아이
equals같음 12 percent퍼센트 chance기회 of Nazi나치.
185
497431
3988
"핸드폰을 소유하고, 외로운 아이는
12%의 확률로 나치이다" 같은 거요.
08:33
It's obviously명백하게 not that simple단순한.
186
501918
1604
그렇게 단순하지 않지만요.
08:36
And in my writing쓰기,
187
504190
1163
제가 글을 쓸 때,
08:37
I'm much more comfortable편안
being존재 descriptive기술적 인, not prescriptive규범적인.
188
505377
3215
명령조로 적는 걸 좋아하지 않아요.
08:41
But this is TED테드,
189
509049
2641
하지만 이건 TED니
08:43
so let's get practical실용적인.
190
511714
1987
실용적으로 가봅시다.
08:45
I want to share a few조금 suggestions제안
191
513725
1626
몇 가지 제안을 할께요.
08:47
of things that citizens시민
of the internet인터넷 like you and I
192
515375
3126
여러분과 저 같은 네티즌들이
08:50
might be able할 수 있는 to do to make things
a little bit비트 less적게 toxic유독 한.
193
518525
3137
좀 덜 해로운 인터넷을
만들 수 있도록요.
08:54
So the first one is to be a smart똑똑한 skeptic회의론자.
194
522799
2300
첫 번째로,
똑똑한 회의론자 되기입니다.
08:57
So, I think there are
two kinds종류 of skepticism회의론.
195
525964
2197
두 가지 종류의
회의주의가 있다고 생각해요.
09:00
And I don't want to drown안 들리게 하다 you in technical전문인
epistemological인식 론적 information정보 here,
196
528185
4228
복잡한 철학적 내용을
다루고 싶진 않습니다.
09:04
but I call them smart똑똑한 and dumb우둔한 skepticism회의론.
197
532437
2628
똑똑한 회의주의와
멍청한 회의주의가 있는데요.
09:08
So, smart똑똑한 skepticism회의론:
198
536176
2507
똑똑한 회의주의란
09:10
thinking생각 for yourself당신 자신,
199
538707
1204
자신을 위해 생각하기
09:11
questioning질문 every...마다 claim청구,
200
539935
1192
주장에 의문 제기하기
09:13
demanding요구하는 evidence증거 --
201
541151
1442
증거 요구하기 등
09:14
great, that's real레알 skepticism회의론.
202
542617
1717
이런 것이 진짜 회의주의입니다.
09:17
Dumb벙어리 skepticism회의론:
it sounds소리 like skepticism회의론,
203
545397
2630
멍청한 회의주의는
그럴듯하게 들리지만
09:20
but it's actually사실은 closer더 가까운
to knee-jerk무릎 까마귀 contrarianism모순주의.
204
548051
2991
사실 생각없이
회의적이기만 한 것이에요.
09:23
Everyone각자 모두 says말한다 the earth지구 is round일주,
205
551817
1573
모두가 지구가 둥글다고 하는데
09:25
you say it's flat플랫.
206
553414
1356
평평하다고 하거나
09:26
Everyone각자 모두 says말한다 racism민족적 우월감 is bad나쁜,
207
554794
1567
모두가 인종차별은 나쁘다는데
09:28
you say, "I dunno몰래,
I'm skeptical의심 많은 about that."
208
556385
2585
"음 잘 모르겠는데" 라고
하는 것이죠.
09:31
I cannot~ 할 수 없다. tell you how many많은 young어린 white화이트 men남자
I have spoken말하는 to in the last few조금 years연령
209
559682
4119
지난 몇 년간 대화를 나눴던
수많은 젊은 백인 남성은
09:35
who have said,
210
563825
1156
이렇게 말하더군요.
09:37
"You know, the media미디어, my teachers교사,
they're all trying견딜 수 없는 to indoctrinate주입 me
211
565005
3400
"미디어와 내 선생들은
나를 세뇌하려고 해,
09:40
into believing믿는 in male남성 privilege특권
and white화이트 privilege특권,
212
568429
2523
여성이 차별받고
백인이 더 우대 받는 세상이라고.
09:42
but I don't know about that,
man, I don't think so."
213
570976
2452
근데 난 그건 좀 아닌거 같아."
09:45
Guys -- contrarian역설적 인
white화이트 teens열대 of the world세계 --
214
573452
3137
불만 가득찬 세상의 10대들이여,
09:48
look:
215
576613
2118
나를 보게나.
09:50
if you are being존재 a round일주 earth지구 skeptic회의론자
and a male남성 privilege특권 skeptic회의론자
216
578755
3713
당신들이 지구는 평평하고,
남성이 차별대우를 받고 있고
09:54
and a racism민족적 우월감 is bad나쁜 skeptic회의론자,
217
582492
2310
인종차별이 나쁜 게 아니라고 생각한다면
09:56
you're not being존재 a skeptic회의론자,
you're being존재 a jerk얼간이.
218
584826
2325
회의주의자가 아니라 그냥 병신인 거야.
09:59
(Applause박수 갈채)
219
587175
3593
(박수)
10:04
It's great to be independent-minded독립적 인,
we all should be independent-minded독립적 인,
220
592394
3460
독립적 사고를 하는 것은 참 좋은 거고
모두가 그래야하지만
10:07
but just be smart똑똑한 about it.
221
595878
1541
똑똑하게 해야합니다.
10:09
So this next다음 것 one is about free비어 있는 speech연설.
222
597906
1863
그 다음은 표현의 자유입니다.
10:11
You will hear듣다 smart똑똑한, accomplished뛰어난 people
who will say, "Well, I'm pro-free프로 프리 speech연설,"
223
599793
3964
똑똑하고 성공한 사람들은 자주 말하죠,
"저는 표현의 자유를 존중해요."
10:15
and they say it in this way
that it's like they're settling고정 a debate논쟁,
224
603781
3273
그리곤 마치 그들이
토론을 시작하는것 처럼 말하죠.
10:19
when actually사실은, that is the very beginning처음
of any meaningful의미있는 conversation대화.
225
607078
3815
사실 그건 의미있는 대화의
시작에 불과할 뿐인데 말이죠.
10:23
All the interesting재미있는 stuff물건
happens일이 after that point포인트.
226
611554
2473
제일 중요한건 그 이후에 시작됩니다.
10:26
OK, you're pro-free프로 프리 speech연설.
What does that mean?
227
614051
2304
표현의 자유는 좋지만
그게 무슨 의미죠?
10:28
Does it mean that David데이비드 Duke공작
and Richard리차드 Spencer스펜서
228
616379
2287
그래서 데이비드 듀크나
리처드 스펜서가
10:30
need to have active유효한 Twitter지저귀다 accounts계정?
229
618690
1845
트위터 계정을 만들어야 할까요?
10:32
Does it mean that anyone누군가
can harass괴롭히다 anyone누군가 else그밖에 online온라인
230
620888
2643
아무라도 온라인에서 타인에게
욕을 해도 되는 건가요?
10:35
for any reason이유?
231
623555
1452
아무 이유없이?
10:37
You know, I looked보았다 through...을 통하여
the entire완전한 list명부 of TED테드 speakers연설자 this year.
232
625031
3288
저는 올해 TED 강연을 한
강연자들의 전체 리스트를 살펴봤어요.
10:40
I didn't find a single단일
round일주 earth지구 skeptic회의론자.
233
628343
2036
지구가 둥글다는데
회의적인 사람은 없었죠.
10:42
Is that a violation위반 of free비어 있는 speech연설 norms규범?
234
630403
2142
이게 표현의 자유를 침해하는 건가요?
10:45
Look, we're all pro-free프로 프리 speech연설,
it's wonderful훌륭한 to be pro-free프로 프리 speech연설,
235
633086
3542
모두가 표현의 자유에 동의하고,
표현의 자유는 아주 좋은 것이지요.
10:48
but if that's all you know
how to say again and again,
236
636652
2621
하지만 당신 논리가 그게 다라면
10:51
you're standing서 있는 in the way
of a more productive생산적인 conversation대화.
237
639297
2991
더 생산적인 대화의 길을
가로 막고 있는 거예요.
10:56
Making만들기 decency예절 바름 cool시원한 again, so ...
238
644105
3135
품위를 다시 위대하게
10:59
Great!
239
647264
1198
좋습니다!
11:00
(Applause박수 갈채)
240
648486
1541
(박수)
11:02
Yeah. I don't even need to explain설명 it.
241
650051
2106
설명할 필요도 없네요.
11:04
So in my research연구, I would go
to RedditReddit or YouTubeYouTube or Facebook페이스 북,
242
652181
3846
취재 중 레딧, 유튜브, 페이스북을
자주 방문합니다.
11:08
and I would search수색 for "sharia샤리아 law"
243
656051
2300
그리고 "이슬람 법"을 검색하거나
11:10
or I would search수색 for "the Holocaust홀로 코스트,"
244
658375
2116
홀로코스트 같은 것을 검색해봅니다.
11:12
and you might be able할 수 있는 to guess추측
what the algorithms알고리즘 showed보여 주었다 me, right?
245
660515
3374
알고리즘이 저에게 어떤 것을 보여줬는지
대충 짐작이 가시죠?
11:16
"Is sharia샤리아 law sweeping청소
across건너서 the United유나이티드 States?"
246
664386
2930
"이슬람 법이 미국을
장악하고 있는가?"
11:19
"Did the Holocaust홀로 코스트 really happen우연히 있다?"
247
667340
2094
"홀로코스트는 정말 있었던 일인가?"
11:22
Dumb벙어리 skepticism회의론.
248
670291
1258
멍청한 회의주의죠.
11:24
So we've우리는 ended끝난 up in this
bizarre기괴한 dynamic동적 online온라인,
249
672835
2381
결국 우리는 편파적 선전활동을
11:27
where some people see bigoted편견없는 propaganda선전
250
675240
2092
대담하거나 위험하고 멋있다고 생각하는
11:29
as being존재 edgy초라한 or being존재 dangerous위험한 and cool시원한,
251
677356
2666
이 이상하고 활발한
온라인 세계에 이르렀습니다.
11:32
and people see basic기본 truth진실
and human인간의 decency예절 바름 as pearl-clutching펄 클러치
252
680046
3327
그리고 사람들은 실제 사실이나
또는 인간의 품위를, 충격적인 것
11:35
or virtue-signaling미덕 신호 or just boring지루한.
253
683397
2544
혹은 미덕의 과시이거나
그저 지루하다고 생각하죠.
11:38
And the social사회적인 media미디어 algorithms알고리즘,
whether인지 어떤지 intentionally의도적으로 or not,
254
686329
3289
그리고 소셜 미디어의 알고리즘은
의도했든 아니든
11:41
they have incentivized인센티브를받는 this,
255
689642
2023
이를 장려하였습니다.
11:43
because bigoted편견없는 propaganda선전
is great for engagement약혼.
256
691689
2928
편파적인 선전활동은 사람들의
참여율을 올리는데 최고이니까요.
11:46
Everyone각자 모두 clicks클릭 수 on it,
everyone각자 모두 comments의견 on it,
257
694641
2266
모두가 그것을 클릭하고,
답글을 남깁니다.
11:48
whether인지 어떤지 they love it or they hate미움 it.
258
696931
1810
그것을 좋아하든, 싫어하든 간에요.
11:51
So the number번호 one thing
that has to happen우연히 있다 here
259
699463
2288
그러므로 가장 먼저 일어나야 할 것은
11:53
is social사회적인 networks네트워크 need
to fix고치다 their그들의 platforms플랫폼.
260
701775
2938
소셜 네트워크의 플랫폼을
고치는 것 입니다.
11:57
(Applause박수 갈채)
261
705069
4149
(박수)
12:01
So if you're listening청취 to my voice목소리
and you work at a social사회적인 media미디어 company회사
262
709600
3430
만약 당신이 제 목소리를 듣고 있고,
소셜 미디어의 회사에서 일하거나
12:05
or you invest사다 in one
or, I don't know, own개인적인 one,
263
713054
2464
그 중 하나에 투자하거나
회사 하나를 소유한다면,
12:08
this tip is for you.
264
716598
1461
이 팁은 당신을 위한거죠.
12:10
If you have been optimizing최적화
for maximum최고 emotional정서적 인 engagement약혼
265
718083
3921
만약 당신이 최대한 많은 수의
감정적인 참여를 유도해왔고,
12:14
and maximum최고 emotional정서적 인 engagement약혼 turns회전 out
to be actively활발히 harming해를 입히는 the world세계,
266
722028
4113
그것이 이 세계를
능동적으로 해치고 있다면,
12:18
it's time to optimize최적화하다 for something else그밖에.
267
726165
2536
이제는 다른 것을 위해야 할 때입니다.
12:20
(Applause박수 갈채)
268
728725
3704
(박수)
12:26
But in addition부가 to putting퍼팅 pressure압력
on them to do that
269
734939
3513
그러나 이들이 이렇게 하도록
압력을 가하고
12:30
and waiting기다리는 for them
and hoping희망하는 that they'll그들은 할 것이다 do that,
270
738476
2634
실제로 행동으로 행하도록
바라고 기다리면서
12:33
there's some stuff물건 that
the rest휴식 of us can do, too.
271
741134
2502
우리가 직접 할 수 있는 일이
몇 가지 있습니다.
12:35
So, we can create몹시 떠들어 대다 some better pathways통로
or suggest제안하다 some better pathways통로
272
743660
4497
우리는 불안해하는 십대들이 진정하도록
더 나은 길을 만들어주거나,
12:40
for angsty화가 난 teens열대 to go down.
273
748181
1991
제시할 수 있습니다.
12:42
If you see something that you think
is really creative창조적 인 and thoughtful인정 있는
274
750196
3279
만약 당신이 정말 창의적이고
생각이 깊은 글을 보고
12:45
and you want to share that thing,
you can share that thing,
275
753499
2799
공유하고 싶다면, 공유해주세요.
12:48
even if it's not flooding홍수 you
with high높은 arousal각성 emotion감정.
276
756322
2656
그것이 당신의 정서적 각성을
일으키지 않아도요.
12:51
Now that is a very small작은 step단계, I realize깨닫다,
277
759002
2020
네, 이것은 아주 작은 일입니다.
12:53
but in the aggregate골재,
this stuff물건 does matter문제,
278
761046
2184
하지만 이것이 모이면
중요한 것이 됩니다.
12:55
because these algorithms알고리즘,
as powerful강한 as they are,
279
763254
2406
강력한 알고리즘은
12:57
they are taking취득 their그들의
behavioral행동 적 cues단서 from us.
280
765684
2205
우리의 참여를 신호로써
인식하기 때문이죠.
13:01
So let me leave휴가 you with this.
281
769556
1513
마지막으로 제가 할 말은,
13:03
You know, a few조금 years연령 ago...전에
it was really fashionable유행의
282
771701
2489
몇년 전에는 인터넷이
혁명적인 도구이며,
13:06
to say that the internet인터넷
was a revolutionary혁명적 인 tool수단
283
774214
2313
우리 모두를 화합하게 할 것이라고
얘기하는 것이
13:08
that was going to bring가져오다 us all together함께.
284
776551
2012
굉장한 유행이었습니다.
13:11
It's now more fashionable유행의 to say
285
779074
1589
지금 현재의 유행에 따르면,
13:12
that the internet인터넷 is a huge거대한,
irredeemable되살 수 없는 dumpster쓰레기 수거통 fire.
286
780687
3094
인터넷이 어마어마하고 구제불가능인
재앙이라고 얘기해야 합니다.
13:16
Neither어느 쪽이든 caricature풍자 만화 is really true참된.
287
784787
1832
두 가지 묘사 방식은 모두 틀렸어요.
13:18
We know the internet인터넷
is just too vast거대한 and complex복잡한
288
786643
2373
인터넷이 전부 유익하거나
해롭다고 얘기하기엔
13:21
to be all good or all bad나쁜.
289
789040
1499
너무 광대하고 복잡하다는 것을
13:22
And the danger위험 with
these ways of thinking생각,
290
790563
2087
우리는 알고 있습니다.
13:24
whether인지 어떤지 it's the utopian유토피아의 view전망
that the internet인터넷 will inevitably필연적으로 save구하다 us
291
792674
3463
인터넷은 결국 우리를 구해줄 것이라는
이상향의 관점이나,
13:28
or the dystopian디스토피아의 view전망 that it
will inevitably필연적으로 destroy멸하다 us,
292
796161
3448
우리를 파괴할 것이라는 디스토피아의
관점으로 생각하는 것의 위험은
13:31
either어느 한 쪽 way, we're letting시키는
ourselves우리 스스로 off the hook.
293
799633
2444
우리를 핵심에서 멀리 떨어뜨릴 뿐이죠.
13:35
There is nothing inevitable피할 수 없는
about our future미래.
294
803564
2606
우리의 미래에 그 어떤 것도
불가피한 것은 없습니다.
13:38
The internet인터넷 is made만든 of people.
295
806878
2001
인터넷은 사람으로 만들어진 것입니다.
13:40
People make decisions결정들
at social사회적인 media미디어 companies회사들.
296
808903
2984
소셜 미디어 회사에서
사람들이 결정을 내리며,
13:43
People make hashtags해시 태그 trend경향 or not trend경향.
297
811911
2651
인기 해시태그를 유행 시키거나
그렇지 않거나,
13:46
People make societies사회 progress진행 or regress퇴보.
298
814586
3129
사회가 발전하거나 퇴보하도록 만듭니다.
13:51
When we internalize내면화하다 that fact,
299
819120
1535
이 사실을 내면화하게 되면,
13:52
we can stop waiting기다리는
for some inevitable피할 수 없는 future미래 to arrive태어나다
300
820679
3048
우리는 불가피한 미래가 올 때 까지
기다리는게 아니라,
13:55
and actually사실은 get to work now.
301
823751
1664
직접 행동할 수 있게 됩니다.
13:58
You know, we've우리는 all been taught가르쳤다
that the arc of the moral사기 universe우주 is long
302
826842
3519
우리는 도덕의 궤적이 멀지 몰라도,
끝내는 정의를 향한다고 배웠습니다.
14:02
but that it bends굴곡 toward...쪽으로 justice정의.
303
830385
1702
14:06
Maybe.
304
834489
1230
아마도요.
14:08
Maybe it will.
305
836814
1200
아마 그럴 수도 있겠죠.
14:10
But that has always been an aspiration포부.
306
838776
2477
하지만 이는 항상
우리의 열망이었을 뿐,
14:13
It is not a guarantee보증.
307
841277
1571
보장된 것이 아닙니다.
14:15
The arc doesn't bend굽히다 itself그 자체.
308
843856
2165
궤적은 스스로 휘지 않습니다.
14:18
It's not bent굽은 inevitably필연적으로
by some mysterious신비한 force.
309
846045
3675
어떤 신비한 힘에 의해
불가피하게 휘는 것이 아닙니다.
14:21
The real레알 truth진실,
310
849744
1672
무섭지만 자유롭게도 느껴지는
14:23
which어느 is scarier무서운 and also또한 more liberating해방하는,
311
851440
2391
실제적 진실은, 궤적을 휘게 하는 것은
14:26
is that we bend굽히다 it.
312
854847
1215
바로 우리입니다.
14:28
Thank you.
313
856943
1209
감사합니다.
14:30
(Applause박수 갈채)
314
858176
2617
(박수)
Translated by Soomin Ha
Reviewed by Eunice Yunjung Nam

▲Back to top

ABOUT THE SPEAKER
Andrew Marantz - Writer
Andrew Marantz writes narrative journalism about politics, the internet and the way we understand our world.

Why you should listen

Since 2016, Andrew Marantz has been at work on a book about the perils of virality, the myth of linear progress and the American far right. To report the book, he spent several years embedded with some of the conspiracists, white supremacists and nihilist trolls who have become experts at using social media to advance their corrosive agendas. He also watched as some of social media's earliest and most influential founders started to reckon with the forces they'd unleashed. The book, forthcoming in October from Viking Press, is called Antisocial: Online Extremists, Techno-Utopians, and the Hijacking of the American Conversation

Marantz became a staff writer at the New Yorker in 2017. Prior to that, he worked on the magazine's editorial staff, splitting his time between writing stories (about such topics as hip-hop purism and the Truman Show delusion) and editing stories (about Las Vegas night clubs, Liberian warlords and many other things). Ultimately, Marantz's main interest lies not in any particular subject matter, but in how people form beliefs -- and under what circumstances those beliefs can change for the better.

Marantz is also a contributor to Radiolab and The New Yorker Radio Hour, and has written for Harper's, Mother Jones, the New York Times and many other outlets. He holds an undergraduate degree in religion from Brown University and a master's degree in literary nonfiction from New York University. He lives in Brooklyn with his wife, who is a criminal-justice reformer; his two-year-old son, who is an excellent dancer; and an endless supply of peanut butter.

More profile about the speaker
Andrew Marantz | Speaker | TED.com