ABOUT THE SPEAKER
Andrew Marantz - Writer
Andrew Marantz writes narrative journalism about politics, the internet and the way we understand our world.

Why you should listen

Since 2016, Andrew Marantz has been at work on a book about the perils of virality, the myth of linear progress and the American far right. To report the book, he spent several years embedded with some of the conspiracists, white supremacists and nihilist trolls who have become experts at using social media to advance their corrosive agendas. He also watched as some of social media's earliest and most influential founders started to reckon with the forces they'd unleashed. The book, forthcoming in October from Viking Press, is called Antisocial: Online Extremists, Techno-Utopians, and the Hijacking of the American Conversation

Marantz became a staff writer at the New Yorker in 2017. Prior to that, he worked on the magazine's editorial staff, splitting his time between writing stories (about such topics as hip-hop purism and the Truman Show delusion) and editing stories (about Las Vegas night clubs, Liberian warlords and many other things). Ultimately, Marantz's main interest lies not in any particular subject matter, but in how people form beliefs -- and under what circumstances those beliefs can change for the better.

Marantz is also a contributor to Radiolab and The New Yorker Radio Hour, and has written for Harper's, Mother Jones, the New York Times and many other outlets. He holds an undergraduate degree in religion from Brown University and a master's degree in literary nonfiction from New York University. He lives in Brooklyn with his wife, who is a criminal-justice reformer; his two-year-old son, who is an excellent dancer; and an endless supply of peanut butter.

More profile about the speaker
Andrew Marantz | Speaker | TED.com
TED2019

Andrew Marantz: Inside the bizarre world of internet trolls and propagandists

Andrew Marantz: În lumea bizară a trolilor și propagandiștilor de pe internet

Filmed:
1,676,355 views

Jurnalistul Andrew Marantz a petrecut trei ani implicat în lumea trolilor de pe internet și a propagandiștilor de pe rețelele de socializare, căutând oamenii care propulsează dezbateri extreme în inima conversației online, și încercând să înțeleagă cum își răspândesc ideile. Să coborâm în obscuritatea propagandei online și a dezinformării - și să învățăm cum putem începe să facem internetul mai puțin toxic.
- Writer
Andrew Marantz writes narrative journalism about politics, the internet and the way we understand our world. Full bio

Double-click the English transcript below to play the video.

00:12
I spenta petrecut the pasttrecut threeTrei yearsani
0
612
1611
Am petrecut ultimii trei ani
00:14
talkingvorbind to some of the worstcel mai rău
people on the internetInternet.
1
2247
3183
vorbind cu unii dintre cei mai răi
oameni de pe internet.
Dacă ați fost online recent,
00:18
Now, if you've been onlinepe net recentlyrecent,
2
6441
2196
00:20
you mayMai have noticeda observat that there's
a lot of toxictoxic garbagegunoi out there:
3
8661
3804
poate ați observat că există
o mulțime de gunoaie toxice acolo:
00:24
racistrasist memesmeme, misogynistmisogin propagandapropagandă,
viralvirale misinformationdezinformare.
4
12489
4953
glume rasiste, propagandă misogină,
dezinformare virală.
00:29
So I wanted to know
who was makingluare this stuffchestie.
5
17466
2199
Așa că am vrut să știu
cine face lucrurile astea.
00:31
I wanted to understanda intelege
how they were spreadingrăspândire it.
6
19689
2338
Am vrut să înțeleg cum le răspândeau.
În cele din urmă, am vrut să știu
00:34
UltimatelyÎn cele din urmă, I wanted to know
7
22051
1387
00:35
what kinddrăguț of impactefect
it mightar putea be havingavând on our societysocietate.
8
23462
2569
ce fel de impact ar putea avea
asupra societății noastre.
00:38
So in 2016, I starteda început tracingurmărire
some of these memesmeme back to theiral lor sourcesursă,
9
26055
4011
Astfel, în 2016 am început să urmăresc
unele glume înapoi spre sursa lor,
înapoi la oamenii care le făceau,
sau care le făceau să devină virale.
00:42
back to the people who were makingluare them
or who were makingluare them go viralvirale.
10
30090
3502
Mă adresam acestor persoane:
00:45
I'd approachabordare those people and say,
11
33616
1634
„Hei, sunt jurnalist.
Pot veni să urmăresc să faci?”
00:47
"Hey, I'm a journalistziarist.
Can I come watch you do what you do?"
12
35274
2906
Adesea răspunsul era:
00:50
Now, oftende multe ori the responseraspuns would be,
13
38204
1596
„De ce aș vrea să vorbesc cu un fătălău,
00:51
"Why in helliad would I want to talk to
14
39824
1747
00:53
some low-tlow-t soy-boysoia-baiat
BrooklynBrooklyn globalistGlobalist JewEvreu cuckCuck
15
41595
2199
un evreu slăbănog
și globalist din Brooklyn,
00:55
who'scine in cahootscahoots with the DemocratDemocrat PartyPartidul?"
16
43818
2087
care e în cârdășie cu Partidul Democrat?”
00:57
(LaughterRâs)
17
45929
1252
(Râsete)
00:59
To whichcare my responseraspuns would be,
"Look, man, that's only 57 percentla sută trueAdevărat."
18
47205
3835
La care răspunsul meu era:
„Uite, omule, asta e doar 57% adevărat.”
01:03
(LaughterRâs)
19
51064
1172
(Râsete)
Dar de multe ori am primit răspunsul opus.
01:04
But oftende multe ori I got the oppositeopus responseraspuns.
20
52633
1840
01:06
"Yeah, sure, come on by."
21
54497
1288
„Da, sigur, vino.”
01:08
So that's how I endedîncheiat up
in the livingviaţă roomcameră
22
56625
2081
Așa am ajuns în sufrageria
a unui propagandist
social media din sudul Californiei.
01:10
of a socialsocial mediamass-media propagandistpropagandist
in SouthernSud CaliforniaCalifornia.
23
58730
3125
01:14
He was a marriedcăsătorit whitealb guy
in his latetârziu 30s.
24
62386
2381
Era un tip alb căsătorit
aproape de 40 de ani.
01:16
He had a tablemasa in frontfață of him
with a mugCana of coffeecafea,
25
64791
3182
Avea o masă în fața lui
cu o cană de cafea,
01:19
a laptoplaptop for tweetingtweeting,
26
67997
1570
un laptop pentru tweeting,
01:21
a phonetelefon for textingmesaje text
27
69591
1848
un telefon pentru mesaje
01:23
and an iPadiPad for livestreaminglivestreaming
to PeriscopePeriscop and YouTubeYouTube.
28
71463
3236
și un iPad pentru transmisie în direct
pe Periscope și YouTube.
01:27
That was it.
29
75258
1161
Asta era tot.
Și totuși, cu aceste unelte,
01:28
And yetinca, with those toolsunelte,
30
76998
1270
01:30
he was ablecapabil to propelpropulsa his fringefranjuri,
noxiousnocive talkingvorbind pointspuncte
31
78292
3715
a fost capabil să-și propulseze subiectele
lui de discuție îngrozitoare și nocive
01:34
into the heartinimă of
the AmericanAmerican conversationconversaţie.
32
82031
2411
în inima dezbaterilor americane.
De exemplu, într-o zi când eram acolo,
01:37
For exampleexemplu, one of the dayszi I was there,
33
85144
2023
01:39
a bombbombă had just explodeda explodat in NewNoi YorkYork,
34
87191
3152
o bombă tocmai explodase în New York,
01:42
and the guy accusedacuzat of plantingde plantare the bombbombă
had a Muslim-soundingMusulman-de sondare nameNume.
35
90367
3475
iar bărbatul acuzat că a plantat bomba
avea un nume ce părea musulman.
01:45
Now, to the propagandistpropagandist in CaliforniaCalifornia,
this seemedpărea like an opportunityoportunitate,
36
93866
4142
Pentru propagandistul din California,
aceasta părea o oportunitate,
fiindcă unul din lucrurile
pe care și le dorea
01:50
because one of the things he wanted
37
98032
1716
01:51
was for the US to cuta taia off
almostaproape all immigrationimigrare,
38
99772
2562
era ca SUA să reducă
aproape toată imigrația,
01:54
especiallyin mod deosebit from Muslim-majorityMajoritatea musulmani countriesțări.
39
102358
2559
în special din țările majoritar musulmane.
01:57
So he starteda început livestreaminglivestreaming,
40
105424
2055
Așa că a început să transmită în direct,
făcând ca urmăritorii lui
să comenteze frenetic
01:59
gettingobtinerea his followersadepţi
workeda lucrat up into a frenzyfrenezie
41
107503
2236
despre cum agenda frontierelor deschise
urma să ne omoare pe toți,
02:01
about how the opendeschis bordersfrontiere agendaagendă
was going to killucide us all
42
109763
2775
02:04
and askingcer them to tweetTweet about this,
43
112562
1768
cerându-le să scrie pe Twitter asta,
02:06
and use specificspecific hashtagshashtags,
44
114354
1469
utilizând cuvinte specifice,
02:07
tryingîncercat to get those hashtagshashtags trendingTrend.
45
115847
1858
încercând să facă cuvintele populare.
02:09
And tweetTweet they did --
46
117729
1219
Și au scris,
02:10
hundredssute and hundredssute of tweetsTweets,
47
118972
1864
sute și sute de mesaje,
02:12
a lot of them featuringoferind
imagesimagini like this one.
48
120860
2379
multe dintre ele
prezentând imagini ca aceasta.
02:15
So that's GeorgeGeorge SorosSoros.
49
123263
1777
Acesta e George Soros.
E un miliardar și filantrop maghiar,
02:17
He's a HungarianMaghiară billionairemiliardarul
and philanthropistfilantrop,
50
125064
2645
iar în mintea
unor conspiraționiști online,
02:19
and in the mindsminți
of some conspiracistsConspiracists onlinepe net,
51
127733
2595
02:22
GeorgeGeorge SorosSoros is like
a globalistGlobalist bogeymanBogeyman,
52
130352
2568
George Soros e un baubau globalist,
02:24
one of a fewpuțini eliteselitele who is secretlysecret
manipulatingmanipulant all of globalglobal affairsafaceri.
53
132944
4110
unul din cele câteva elite ce manipulează
în secret toate treburile globale.
02:29
Now, just to pausepauză here:
if this ideaidee soundssunete familiarfamiliar to you,
54
137078
3592
Acum, fac o pauză aici:
dacă această idee vă sună familiară,
02:32
that there are a fewpuțini eliteselitele
who controlControl the worldlume
55
140694
2392
că există câteva elite
care controlează lumea
02:35
and a lot of them happenîntâmpla to be richbogat JewsEvrei,
56
143110
2581
și mulți dintre ei
se întâmplă să fie evrei bogați,
02:37
that's because it is one of the mostcel mai
anti-Semiticanti-semit tropestropilor in existenceexistenţă.
57
145715
3704
asta e pentru că e una dintre cele
mai antisemitice idei existente.
Ar trebui să menționez, de asemenea,
că cel ce a plantat bomba în New York,
02:42
I should alsode asemenea mentionmenționa that the guy
in NewNoi YorkYork who plantedplantat that bombbombă,
58
150296
3398
02:45
he was an AmericanAmerican citizencetăţean.
59
153718
1491
era cetățean american.
02:47
So whateverindiferent de elsealtfel was going on there,
60
155785
2204
Deci, orice altceva s-a întâmplat acolo,
02:50
immigrationimigrare was not the mainprincipal issueproblema.
61
158013
2173
imigrația nu era problema principală.
02:53
And the propagandistpropagandist in CaliforniaCalifornia,
he understoodînțeles all this.
62
161332
2832
Și propagandistul din California,
a înțeles toate acestea.
02:56
He was a well-readcitită guy.
He was actuallyde fapt a lawyeravocat.
63
164188
2521
Era un tip citit.
Era de fapt avocat.
02:58
He knewștiut the underlyingcare stau la baza factsfapte,
64
166733
1687
Știa faptele de bază,
03:00
but he alsode asemenea knewștiut that factsfapte
do not driveconduce conversationconversaţie onlinepe net.
65
168444
3191
dar știa și că faptele
nu stârnesc discuții online.
03:03
What drivesunități conversationconversaţie onlinepe net
66
171659
1707
Ce stârnește discuții online
03:05
is emotionemoţie.
67
173390
1229
e emoția.
03:07
See, the originaloriginal premisepremisă of socialsocial mediamass-media
68
175451
2010
Premisa principală a social media
03:09
was that it was going
to bringaduce us all togetherîmpreună,
69
177485
2249
a fost să ne aducă pe toți împreună,
să facă lumea mai deschisă,
mai tolerantă și mai corectă,
03:11
make the worldlume more opendeschis
and toleranttolerante and fairechitabil ...
70
179758
2379
03:14
And it did some of that.
71
182161
1254
și a făcut asta uneori.
Dar algoritmii social media
nu au fost niciodată construiți
03:16
But the socialsocial mediamass-media algorithmsalgoritmi
have never been builtconstruit
72
184503
2723
03:19
to distinguishdistinge betweenîntre
what's trueAdevărat or falsefals,
73
187250
2338
pentru a distinge adevărul de fals,
03:21
what's good or badrău for societysocietate,
what's prosocialprosocial and what's antisocialantisociale.
74
189612
3910
ce e bine sau rău pentru societate,
ce e prosocial de ce e antisocial.
03:25
That's just not what those algorithmsalgoritmi do.
75
193965
2237
Acești algoritmi nu fac asta.
03:28
A lot of what they do
is measuremăsura engagementlogodnă:
76
196226
2555
Ei doar măsoară implicarea:
03:30
clicksclicuri, commentscomentarii, sharesacțiuni,
retweetsretweets, that kinddrăguț of thing.
77
198805
3021
clicuri, comentarii, partajări,
repostări, acest fel de lucruri.
03:33
And if you want your contentconţinut
to get engagementlogodnă,
78
201850
2701
Și dacă doriți un conținut atrăgător,
03:36
it has to sparkscânteie emotionemoţie,
79
204575
1658
trebuie să nască o emoție,
03:38
specificallyspecific, what behavioralcomportamentale scientistsoamenii de știință
call "high-arousalHigh-excitare emotionemoţie."
80
206257
3500
ceea ce oamenii de știință
numesc „emoție excitativă ridicată”.
„Excitație ridicată”
nu înseamnă doar excitare sexuală,
03:42
Now, "highînalt arousalexcitare" doesn't only
mean sexualsexual arousalexcitare,
81
210343
2490
03:44
althoughcu toate ca it's the internetInternet,
obviouslyevident that workslucrări.
82
212857
2735
deși pe internet, evident că există.
03:47
It meansmijloace anything, positivepozitiv or negativenegativ,
that getsdevine people'soamenii lui heartsinimă pumpingde pompare.
83
215616
4009
Înseamnă orice, pozitiv sau negativ,
care face ca inima oamenilor să pompeze.
03:51
So I would sitsta with these propagandistspropagandiști,
84
219649
1969
Deci, stăteam cu acești propagandiști,
nu doar cu tipul din California,
ci cu zeci dintre ei,
03:53
not just the guy in CaliforniaCalifornia,
but dozenszeci of them,
85
221642
2409
03:56
and I would watch as they did this
again and again successfullycu succes,
86
224075
3748
și urmăream cum făceau asta
din nou și din nou cu succes,
03:59
not because they were RussianRusă hackershackeri,
not because they were techtech prodigiesminuni,
87
227847
3608
nu pentru că erau hackeri ruși,
nu pentru că erau genii ale tehnologiei,
04:03
not because they had
uniqueunic politicalpolitic insightsInsights --
88
231479
2289
nu pentru că aveau idei politice unice,
04:05
just because they understoodînțeles
how socialsocial mediamass-media workeda lucrat,
89
233772
2473
doar pentru că au înțeles
cum funcționează social media
04:08
and they were willingdispus
to exploitexploata it to theiral lor advantageavantaj.
90
236269
2582
și erau dispuși
să o exploateze în avantajul lor.
04:10
Now, at first I was ablecapabil to tell myselfeu insumi
this was a fringefranjuri phenomenonfenomen,
91
238865
3243
La început mi-am spus
că e un fenomen extrem,
ceva ce a ajuns pe internet.
04:14
something that was
relegatedretrogradată to the internetInternet.
92
242132
2229
04:16
But there's really no separationseparare anymoremai
betweenîntre the internetInternet and everything elsealtfel.
93
244385
4352
Dar nu mai există separare
între internet și orice altceva.
04:20
This is an adanunț that rana fugit
on multiplemultiplu TVTV stationsstații
94
248761
2184
Aceasta e o reclamă
difuzată pe multe posturi TV
04:22
duringpe parcursul the 2018 congressionalCongresului electionsalegeri,
95
250969
2607
în timpul alegerii congresului din 2018,
04:25
allegingîntemeiat pe with very little evidenceevidență
that one of the candidatescandidaţi
96
253600
2880
susținând cu foarte puține dovezi
că unul dintre candidați
04:28
was in the pocketbuzunar of
internationalinternaţional manipulatormanipulator GeorgeGeorge SorosSoros,
97
256504
2886
era în buzunarul manipulatorului
internațional George Soros,
04:31
who is awkwardlypenibil photoshoppedphotoshopped here
nextUrmător → to stacksstive of cashbani gheata.
98
259414
3252
care e puternic editat aici
lângă stive de numerar.
04:35
This is a tweetTweet from
the PresidentPreşedintele of the UnitedMarea StatesStatele,
99
263296
2654
Acesta e un mesaj
al președintelui Statelor Unite,
04:37
allegingîntemeiat pe, again with no evidenceevidență,
100
265974
1633
invocând, din nou, fără probe,
04:39
that AmericanAmerican politicspolitică is beingfiind
manipulatedmanipulate by GeorgeGeorge SorosSoros.
101
267631
3431
că politica americană
e manipulată de George Soros.
04:43
This stuffchestie that onceo singura data seemedpărea so shockingşocant
and marginalmarginal and, franklysincer, just ignorableneglijabil,
102
271086
3974
Lucruri care odată păreau atât de șocante,
marginale și, sincer, de ignorat,
04:47
it's now so normalizedsunt standardizate
that we hardlycu greu even noticeînștiințare it.
103
275084
2945
acum sunt atât de normal,
încât abia le mai observăm.
Așa că am stat
aproape trei ani în această lume.
04:50
So I spenta petrecut about
threeTrei yearsani in this worldlume.
104
278053
2066
04:52
I talkeda vorbit to a lot of people.
105
280143
1670
Am vorbit cu o mulțime de oameni.
04:53
Some of them seemedpărea to have
no coremiez beliefscredințe at all.
106
281837
2466
Unii dintre ei păreau
să nu aibă deloc convingeri.
04:56
They just seemedpărea to be bettingpariuri,
perfectlyperfect rationallyraţional,
107
284327
2583
Păreau doar să parieze, perfect rațional,
04:58
that if they wanted
to make some moneybani onlinepe net
108
286934
2163
că dacă vor să câștige bani online
05:01
or get some attentionAtenţie onlinepe net,
109
289121
1412
sau să obțină atenție online,
05:02
they should just be
as outrageousscandalos as possibleposibil.
110
290557
2213
trebuie să fie cât se poate de extremi.
05:04
But I talkeda vorbit to other people
who were trueAdevărat ideologuesideologii.
111
292794
2589
Dar am vorbit cu alți oameni
care erau adevărați ideologi.
05:08
And to be clearclar, theiral lor ideologyideologia
was not traditionaltradiţional conservatismconservatorism.
112
296173
3881
Și ca să fie clar, ideologia lor
nu era conservatorismul tradițional.
05:12
These were people who wanted
to revokeRevoca femaleFemeie suffragesufragiu.
113
300078
3378
Aceștia erau oameni
ce doreau să revoce votul feminin.
05:15
These were people who wanted
to go back to racialrasial segregationsegregarea.
114
303480
2967
Aceștia doreau revenirea
la segregarea rasială.
Unii dintre ei doreau
îndepărtarea totală a democrației.
05:18
Some of them wanted to do away
with democracydemocraţie altogethercu totul.
115
306471
2809
05:21
Now, obviouslyevident these people
were not bornnăscut believingcredincios these things.
116
309304
3112
E evident că acești oameni
nu s-au născut crezând aceste lucruri.
05:24
They didn't pickalege them up
in elementaryelementar schoolşcoală.
117
312440
2392
Nu le-au învățat în școala primară.
Mulți dintre ei, înainte
de a intra în obscuritățile internetului
05:26
A lot of them, before they wenta mers
down some internetInternet rabbitiepure holegaură,
118
314856
2992
05:29
they had been libertarianlibertarian
or they had been socialistsocialiste
119
317872
2468
fuseseră libertarieni sau socialiști
05:32
or they had been something elsealtfel entirelyîn întregime.
120
320364
2187
sau fuseseră cu totul altceva.
Deci, ce se întâmpla?
05:34
So what was going on?
121
322575
1291
Ei bine, nu pot generaliza
pentru fiecare caz,
05:36
Well, I can't generalizegeneraliza about everyfiecare casecaz,
122
324918
2062
05:39
but a lot of the people I spokevorbit to,
123
327004
1687
dar mulți oameni cu care am vorbit,
05:40
they seempărea to have a combinationcombinaţie
of a highînalt IQIQ and a lowscăzut EQEq.
124
328715
3880
par să aibă o combinație
între un IQ mare și un EQ mic.
05:44
They seempărea to take comfortconfort
in anonymousanonim, onlinepe net spacesspații
125
332619
3511
Par să se simtă confortabil
în spații online anonime
05:48
rathermai degraba than connectingconectarea in the realreal worldlume.
126
336154
1987
mai degrabă decât conectați
în lumea reală.
05:50
So oftende multe ori they would retreatretragere
to these messagemesaj boardsplaci
127
338810
2453
Așa că de multe ori
se retrag în aceste forumuri
sau subreddit-uri,
05:53
or these subredditssubreddits,
128
341287
1172
05:54
where theiral lor worstcel mai rău impulsesimpulsuri
would be magnifiedmărită.
129
342483
2454
unde impulsurile lor
cele mai rele vor fi amplificate.
05:56
They mightar putea startstart out sayingzicală
something just as a sickbolnav jokeglumă,
130
344961
3059
Ar putea începe
spunând ceva ca o glumă bolnavă,
06:00
and then they would get so much
positivepozitiv reinforcementarmare for that jokeglumă,
131
348044
3344
iar apoi vor primi atât de multe
aprecieri pentru această glumă,
06:03
so manymulți meaninglessfără înţeles
"internetInternet pointspuncte," as they calleddenumit it,
132
351412
2821
atât de multe „puncte pe internet”
fără sens, cum le numesc ei,
06:06
that they mightar putea startstart
believingcredincios theiral lor ownpropriu jokeglumă.
133
354257
2532
încât încep să creadă
în propria lor glumă.
06:10
I talkeda vorbit a lot with one youngtineri womanfemeie
who grewcrescut up in NewNoi JerseyJersey,
134
358014
3524
Am vorbit mult cu o tânără
care a crescut în New Jersey,
06:13
and then after highînalt schoolşcoală,
she movedmutat to a newnou placeloc
135
361562
2476
care după liceu s-a mutat într-un loc nou,
06:16
and suddenlybrusc she just feltsimțit
alienatedînstrăinat and cuta taia off
136
364062
2254
unde brusc s-a simțit
înstrăinată și izolată
06:18
and starteda început retreatingretragere into her phonetelefon.
137
366340
1864
și a început să se retragă
în telefonul ei.
06:20
She foundgăsite some of these
spacesspații on the internetInternet
138
368850
2172
A găsit unele
din aceste spații pe internet
06:23
where people would postpost
the mostcel mai shockingşocant, heinousatroce things.
139
371046
2866
unde oamenii postează
cele mai șocante și amețitoare lucruri.
06:25
And she foundgăsite this stuffchestie
really off-puttingoff-punerea
140
373936
2269
Și a considerat aceste lucruri
complet dezgustătoare,
06:28
but alsode asemenea kinddrăguț of engrossingabsorbant,
141
376229
1775
dar de asemenea captivante,
06:30
kinddrăguț of like she couldn'tnu a putut
look away from it.
142
378754
2084
ceva de care nu se putea dezlipi.
A început să interacționeze
cu cei din aceste spații online,
06:33
She starteda început interactinginteracționând with people
in these onlinepe net spacesspații,
143
381304
2832
și au făcut-o să se simtă
inteligentă, autentică.
06:36
and they madefăcut her feel smartinteligent,
they madefăcut her feel validatedvalidat.
144
384160
2799
A început să simtă
un sentiment de comunitate,
06:38
She starteda început feelingsentiment a sensesens of communitycomunitate,
145
386983
1977
a început să se întrebe dacă unele
dintre aceste idei șocante
06:40
starteda început wonderingîntrebându- if maybe
some of these shockingşocant memesmeme
146
388984
2658
06:43
mightar putea actuallyde fapt containconține a kernelkernel-ului of truthadevăr.
147
391666
2461
ar putea conține un miez de adevăr.
06:46
A fewpuțini monthsluni latermai tarziu, she was in a carmașină
with some of her newnou internetInternet friendsprieteni
148
394151
3515
Câteva luni mai târziu, era în mașină
cu noii ei prieteni de pe internet
în drum spre Charlottesville, Virginia,
06:49
headedintitulat to CharlottesvilleCharlottesville, VirginiaVirginia,
149
397690
1826
pentru a manifesta cu torțe
în numele rasei albe.
06:51
to marchMartie with torcheslanterne
in the nameNume of the whitealb racerasă.
150
399540
2688
A trecut în câteva luni,
din a-l susține pe Obama,
06:55
She'dEa ar fi goneplecat, in a fewpuțini monthsluni,
from ObamaObama supportersusţinător
151
403033
2291
06:57
to fullycomplet radicalizedradicalizat whitealb supremacistsupremaţie.
152
405338
2487
la a susține radical rasa albă.
07:01
Now, in her particularspecial casecaz,
153
409030
2281
În cazul ei particular,
07:03
she actuallyde fapt was ablecapabil to find her way
out of the cultcult of whitealb supremacysupremaţia.
154
411335
4132
ea a putut să renunțe
la cultul supremației albe.
Dar mulți oameni
cu care am vorbit nu au putut.
07:08
But a lot of the people
I spokevorbit to were not.
155
416418
2060
07:10
And just to be clearclar:
156
418502
1722
Și doar ca să fie clar:
07:12
I was never so convincedconvins
that I had to find commoncomun groundsol
157
420248
2966
nu am fost atât de convins
că trebuia să găsesc o bază comună
07:15
with everyfiecare singlesingur personpersoană I spokevorbit to
158
423238
2063
cu fiecare persoană cu care vorbeam,
07:17
that I was willingdispus to say,
159
425325
1254
încât să fiu dispus să spun:
07:18
"You know what, man,
you're a fascistfasciste propagandistpropagandist, I'm not,
160
426603
3141
„Știi ce, omule,
ești un propagandist fascist, eu nu sunt,
07:21
whateverindiferent de, let's just hugîmbrăţişare it out,
all our differencesdiferențele will meltse topesc away."
161
429768
3416
oricum, hai să ne îmbrățișăm,
și toate diferențele noastre se vor topi.”
07:25
No, absolutelyabsolut not.
162
433208
1714
Nu, absolut nu.
07:28
But I did becomedeveni convincedconvins that we cannotnu poti
just look away from this stuffchestie.
163
436056
3521
Dar am devenit convins că nu putem
să facem abstracție de aceste lucruri.
07:31
We have to try to understanda intelege it,
because only by understandingînţelegere it
164
439601
3216
Trebuie să încercăm să le înțelegem,
pentru că numai înțelegându-le
07:34
can we even startstart to inoculatese inoculează
ourselvesnoi insine againstîmpotriva it.
165
442841
3198
putem să începem
să ne inoculăm împotriva lor.
În cei trei ani în această lume,
am avut câteva apeluri telefonice urâte,
07:39
In my threeTrei yearsani in this worldlume,
I got a fewpuțini nastyurât phonetelefon callsapeluri,
166
447361
3349
07:42
even some threatsameninţări,
167
450734
1520
chiar unele amenințări,
07:44
but it wasn'tnu a fost a fractionfracțiune of what
femaleFemeie journalistsjurnaliști get on this beatbate.
168
452278
3430
dar a fost puțin comparativ cu ce primesc
jurnalistele în această luptă.
07:48
And yeah, I am JewishEvrei,
169
456791
1391
Și da, sunt evreu,
07:50
althoughcu toate ca, weirdlyWeirdly, a lot of the NazisNaziştii
couldn'tnu a putut tell I was JewishEvrei,
170
458206
3649
deși, în mod ciudat, mulți naziști
nu și-au dat seama că sunt evreu,
07:53
whichcare I franklysincer just foundgăsite
kinddrăguț of disappointinglasa de dorit.
171
461879
2861
ceea ce, sincer, e dezamăgitor.
07:56
(LaughterRâs)
172
464764
1800
(Râsete)
07:58
SeriouslySerios, like, your wholeîntreg jobloc de munca
is beingfiind a professionalprofesional anti-Semiteanti-semit.
173
466588
3966
Serios, toată treaba ta
e să fii un antisemit profesionist.
08:03
Nothing about me
is tippingbasculare you off at all?
174
471228
2422
Nimic la mine nu te intrigă deloc?
08:05
Nothing?
175
473674
1076
Chiar nimic?
08:06
(LaughterRâs)
176
474774
2303
(Râsete)
08:09
This is not a secretsecret.
177
477983
1195
Nu e un secret.
08:11
My nameNume is AndrewAndrew MarantzMarantz,
I writescrie for "The NewNoi YorkerYorker,"
178
479202
2683
Mă numesc Andrew Marantz,
scriu pentru „The New Yorker”,
08:13
my personalitypersonalitate typetip
is like if a SeinfeldSeinfeld episodeepisod
179
481909
2521
personalitatea mea
e ca și cum un episod din Seinfeld
08:16
was tapedinregistrat at the ParkPark SlopePanta FoodProduse alimentare CoopCoop.
180
484454
1837
a fost filmat la Park Slope Food Coop.
08:18
Nothing?
181
486315
1162
Nimic?
08:19
(LaughterRâs)
182
487501
2513
(Râsete)
08:24
AnywayOricum, look -- ultimatelyîn cele din urmă,
it would be nicefrumos
183
492804
2231
Oricum, în cele din urmă
ar fi frumos dacă ar exista
o formulă simplă:
08:27
if there were, like, a simplesimplu formulaformulă:
184
495059
2348
08:29
smartphonesmartphone plusla care se adauga alienatedînstrăinat kidcopil
equalseste egală 12 percentla sută chanceşansă of NaziNazist.
185
497431
3988
smartphone plus un copil înstrăinat
egal 12% mai multe șanse să devii nazist.
08:33
It's obviouslyevident not that simplesimplu.
186
501918
1604
Evident, nu e atât de simplu.
08:36
And in my writingscris,
187
504190
1163
Și în scrierile mele,
08:37
I'm much more comfortableconfortabil
beingfiind descriptivedescriptiv, not prescriptivePrescriptiv.
188
505377
3215
sunt mult mai confortabil
să fiu descriptiv, nu prescriptiv.
08:41
But this is TEDTED,
189
509049
2641
Dar acesta este TED,
08:43
so let's get practicalpractic.
190
511714
1987
deci să devenim practici.
Vreau să împărtășesc câteva sugestii,
08:45
I want to shareacțiune a fewpuțini suggestionssugestii
191
513725
1626
08:47
of things that citizenscetățeni
of the internetInternet like you and I
192
515375
3126
lucruri pe care cetățenii
de pe internet, ca voi și ca mine,
08:50
mightar putea be ablecapabil to do to make things
a little bitpic lessMai puțin toxictoxic.
193
518525
3137
le-ar putea face pentru ca lucrurile
să devină mai puțin toxice.
Primul e să fii un sceptic inteligent.
08:54
So the first one is to be a smartinteligent skepticsceptic.
194
522799
2300
Eu cred că există
două tipuri de scepticism.
08:57
So, I think there are
two kindstipuri of skepticismscepticism.
195
525964
2197
09:00
And I don't want to drownîneca you in technicaltehnic
epistemologicalepistemologice informationinformație here,
196
528185
4228
Și nu vreau să intru în informații
tehnice epistemologice aici,
09:04
but I call them smartinteligent and dumbprost skepticismscepticism.
197
532437
2628
dar eu le numesc
scepticism inteligent și prost.
09:08
So, smartinteligent skepticismscepticism:
198
536176
2507
Deci, scepticism inteligent:
09:10
thinkinggândire for yourselftu,
199
538707
1204
gândiți pentru voi,
vă îndoiți de orice afirmație,
09:11
questioningîntrebător everyfiecare claimRevendicare,
200
539935
1192
09:13
demandingcerând evidenceevidență --
201
541151
1442
solicitați dovezi,
09:14
great, that's realreal skepticismscepticism.
202
542617
1717
grozav, acesta e scepticism adevărat.
09:17
DumbProst skepticismscepticism:
it soundssunete like skepticismscepticism,
203
545397
2630
Scepticism prost: suna a scepticism,
09:20
but it's actuallyde fapt closermai aproape
to knee-jerkgenunchi-smucitură contrarianismcontrarianism.
204
548051
2991
dar e de fapt mai aproape
de o reacție contra automată.
Toți spun că Pământul e rotund,
09:23
EveryoneToată lumea saysspune the earthPământ is roundrundă,
205
551817
1573
09:25
you say it's flatapartament.
206
553414
1356
tu spui că e plat.
09:26
EveryoneToată lumea saysspune racismrasismului is badrău,
207
554794
1567
Toți spun că rasismul e rău,
09:28
you say, "I dunnostiu,
I'm skepticalsceptic about that."
208
556385
2585
tu spui: „Nu știu,
sunt sceptic în privința asta.”
09:31
I cannotnu poti tell you how manymulți youngtineri whitealb menbărbați
I have spokenvorbit to in the last fewpuțini yearsani
209
559682
4119
Foarte mulți tineri bărbați albi
cu care am vorbit în ultimii ani
09:35
who have said,
210
563825
1156
mi-au spus:
09:37
"You know, the mediamass-media, my teachersprofesori,
they're all tryingîncercat to indoctrinateÎndoctrina me
211
565005
3400
„Știi, mass-media, profesorii mei,
toți încearcă să mă îndoctrineze
09:40
into believingcredincios in malemasculin privilegeprivilegiu
and whitealb privilegeprivilegiu,
212
568429
2523
să cred în privilegiul
masculin și al albilor,
09:42
but I don't know about that,
man, I don't think so."
213
570976
2452
dar nu știu ce să zic, nu cred asta.”
Tinerilor, adolescenți albi ai lumii,
09:45
Guys -- contrariancontrarian
whitealb teensadolescenţi of the worldlume --
214
573452
3137
09:48
look:
215
576613
2118
uite:
09:50
if you are beingfiind a roundrundă earthPământ skepticsceptic
and a malemasculin privilegeprivilegiu skepticsceptic
216
578755
3713
dacă sunteți sceptici că Pământul
e rotund, că bărbații sunt privilegiați,
09:54
and a racismrasismului is badrău skepticsceptic,
217
582492
2310
și că rasismul este rău,
09:56
you're not beingfiind a skepticsceptic,
you're beingfiind a jerksmucitură.
218
584826
2325
nu sunteți sceptici, sunteți ticăloși.
09:59
(ApplauseAplauze)
219
587175
3593
(Aplauze)
E minunat să gândim critic,
cu toții ar trebui să gândim critic,
10:04
It's great to be independent-mindedindependente de suflet,
we all should be independent-mindedindependente de suflet,
220
592394
3460
10:07
but just be smartinteligent about it.
221
595878
1541
dar fiți deștepți în acest sens.
10:09
So this nextUrmător → one is about freegratuit speechvorbire.
222
597906
1863
Următoarea e
despre libertatea de exprimare.
10:11
You will hearauzi smartinteligent, accomplishedrealizat people
who will say, "Well, I'm pro-freefără Pro- speechvorbire,"
223
599793
3964
Veți auzi oameni deștepți spunând:
„Sunt pentru exprimare liberă.”
10:15
and they say it in this way
that it's like they're settlingstabilindu-se a debatedezbate,
224
603781
3273
Și spun asta ca și cum
ar încheia o dezbatere,
10:19
when actuallyde fapt, that is the very beginningînceput
of any meaningfulplin de înțeles conversationconversaţie.
225
607078
3815
când de fapt, ăsta e chiar începutul
oricărei conversații semnificative.
Toate lucrurile interesante
se întâmplă după acest punct.
10:23
All the interestinginteresant stuffchestie
happensse întâmplă after that pointpunct.
226
611554
2473
10:26
OK, you're pro-freefără Pro- speechvorbire.
What does that mean?
227
614051
2304
Bine, ești pro exprimare liberă.
Ce înseamnă asta?
10:28
Does it mean that DavidDavid DukeDuce
and RichardRichard SpencerSpencer
228
616379
2287
Înseamnă că David Duke și Richard Spencer
10:30
need to have activeactiv TwitterStare de nervozitate accountsconturi?
229
618690
1845
trebuie să aibă conturi Twitter active?
Înseamnă că oricine poate hărțui
pe oricine altcineva online
10:32
Does it mean that anyoneoricine
can harasshărţui anyoneoricine elsealtfel onlinepe net
230
620888
2643
10:35
for any reasonmotiv?
231
623555
1452
pentru orice motiv?
10:37
You know, I lookedprivit throughprin
the entireîntreg listlistă of TEDTED speakersdifuzoare this yearan.
232
625031
3288
Am analizat întreaga listă
de vorbitori TED de anul acesta.
Nu am găsit niciun sceptic
că Pământul e rotund.
10:40
I didn't find a singlesingur
roundrundă earthPământ skepticsceptic.
233
628343
2036
10:42
Is that a violationîncălcare of freegratuit speechvorbire normsnorme?
234
630403
2142
E o încălcare a normelor
de exprimare liberă?
10:45
Look, we're all pro-freefără Pro- speechvorbire,
it's wonderfulminunat to be pro-freefără Pro- speechvorbire,
235
633086
3542
Suntem toți pro exprimare liberă,
e minunat să avem exprimare liberă,
10:48
but if that's all you know
how to say again and again,
236
636652
2621
dar dacă asta e tot ce știi să spui mereu,
10:51
you're standingpermanent in the way
of a more productiveproductiv conversationconversaţie.
237
639297
2991
te opui unei conversații
mai productive.
10:56
MakingA face decencydecenta coolmisto again, so ...
238
644105
3135
Deci, să facem politețea
din nou grozavă...
10:59
Great!
239
647264
1198
Minunat!
11:00
(ApplauseAplauze)
240
648486
1541
(Aplauze)
11:02
Yeah. I don't even need to explainexplica it.
241
650051
2106
Da. Nici nu trebuie să explic.
11:04
So in my researchcercetare, I would go
to RedditReddit or YouTubeYouTube or FacebookFacebook,
242
652181
3846
În cercetarea mea aș fi mers
pe Reddit, pe YouTube sau pe Facebook,
11:08
and I would searchcăutare for "shariaSharia lawlege"
243
656051
2300
și aș fi căutat „legea sharia”
11:10
or I would searchcăutare for "the HolocaustHolocaustul,"
244
658375
2116
sau „Holocaustul”,
11:12
and you mightar putea be ablecapabil to guessghici
what the algorithmsalgoritmi showeda arătat me, right?
245
660515
3374
și puteți ghici
ce mi-au arătat algoritmii, nu?
11:16
"Is shariaSharia lawlege sweepingmăturat
acrosspeste the UnitedMarea StatesStatele?"
246
664386
2930
„Legea sharia mătura toate Statele Unite?”
11:19
"Did the HolocaustHolocaustul really happenîntâmpla?"
247
667340
2094
„Holocaustul s-a întâmplat cu adevărat?”
Scepticism prost.
11:22
DumbProst skepticismscepticism.
248
670291
1258
11:24
So we'vene-am endedîncheiat up in this
bizarrebizar dynamicdinamic onlinepe net,
249
672835
2381
Așa că am ajuns
în această dinamică bizară online,
11:27
where some people see bigotedbigot propagandapropagandă
250
675240
2092
când unii văd propaganda intolerantă
11:29
as beingfiind edgyedgy or beingfiind dangerouspericulos and coolmisto,
251
677356
2666
ca fiind tăioasă sau periculoasă și mișto,
11:32
and people see basicde bază truthadevăr
and humanuman decencydecenta as pearl-clutchingPerla-clutching
252
680046
3327
iar oamenii văd adevărul de bază
și decența umană ca fiind șocante,
11:35
or virtue-signalingvirtutea-Signaling or just boringplictisitor.
253
683397
2544
sau ca virtuți sau doar plictisitoare.
11:38
And the socialsocial mediamass-media algorithmsalgoritmi,
whetherdacă intentionallyintentionat or not,
254
686329
3289
Și algoritmii social media,
intenționat sau nu,
11:41
they have incentivizedincentivized this,
255
689642
2023
au stimulat asta,
11:43
because bigotedbigot propagandapropagandă
is great for engagementlogodnă.
256
691689
2928
pentru că propaganda intolerantă
e grozavă pentru implicare.
11:46
EveryoneToată lumea clicksclicuri on it,
everyonetoata lumea commentscomentarii on it,
257
694641
2266
Toți dau clic pe ea, toți comentează,
11:48
whetherdacă they love it or they hateură it.
258
696931
1810
fie că o iubesc, fie că o urăsc.
Deci, primul lucru
care trebuie făcut aici
11:51
So the numbernumăr one thing
that has to happenîntâmpla here
259
699463
2288
11:53
is socialsocial networksrețele need
to fixrepara theiral lor platformsplatforme.
260
701775
2938
e ca rețelele sociale
să-și repare platformele.
11:57
(ApplauseAplauze)
261
705069
4149
(Aplauze)
12:01
So if you're listeningascultare to my voicevoce
and you work at a socialsocial mediamass-media companycompanie
262
709600
3430
Deci, dacă mă ascultați acum
și lucrați la o companie de socializare
12:05
or you investinvesti in one
or, I don't know, ownpropriu one,
263
713054
2464
sau investiți într-una sau,
nu știu, dețineți una,
12:08
this tipbacsis is for you.
264
716598
1461
acest sfat e pentru voi.
12:10
If you have been optimizingoptimizarea
for maximummaxim emotionalemoţional engagementlogodnă
265
718083
3921
Dacă ați optimizat-o
pentru o implicare emoțională maximă,
12:14
and maximummaxim emotionalemoţional engagementlogodnă turnstransformă out
to be activelyactiv harmingprejudicii the worldlume,
266
722028
4113
iar implicarea emoțională maximă
se dovedește că dăunează lumii,
12:18
it's time to optimizeoptimiza for something elsealtfel.
267
726165
2536
e timpul să o optimizați pentru altceva.
12:20
(ApplauseAplauze)
268
728725
3704
(Aplauze)
12:26
But in additionplus to puttingpunând pressurepresiune
on them to do that
269
734939
3513
Dar pe lângă faptul de a pune
presiune pe ei să facă asta
12:30
and waitingaşteptare for them
and hopingîn speranța that they'llei vor do that,
270
738476
2634
și să așteptăm și să sperăm
că vor face asta,
12:33
there's some stuffchestie that
the restodihnă of us can do, too.
271
741134
2502
există și alte lucruri
pe care noi ceilalți le putem face.
12:35
So, we can createcrea some better pathwayscai
or suggestsugera some better pathwayscai
272
743660
4497
Așadar, putem crea câteva căi mai bune
sau sugera câteva căi mai bune
12:40
for angstyangsty teensadolescenţi to go down.
273
748181
1991
încât numărul tinerilor
revoltați să se reducă.
12:42
If you see something that you think
is really creativecreator and thoughtfulgrijuliu
274
750196
3279
Dacă vedeți ceva și credeți
că e cu adevărat creativ și profund
12:45
and you want to shareacțiune that thing,
you can shareacțiune that thing,
275
753499
2799
și doriți să distribuiți acel lucru,
distribuiți-l,
chiar dacă nu vă inundă
cu o emoție puternică.
12:48
even if it's not floodinginundare you
with highînalt arousalexcitare emotionemoţie.
276
756322
2656
12:51
Now that is a very smallmic stepEtapa, I realizerealiza,
277
759002
2020
E un pas foarte mic, îmi dau seama,
12:53
but in the aggregateagregat,
this stuffchestie does mattermaterie,
278
761046
2184
dar per total, aceste lucruri contează,
12:55
because these algorithmsalgoritmi,
as powerfulputernic as they are,
279
763254
2406
pentru că acești algoritmi,
pe cât de puternici sunt,
12:57
they are takingluare theiral lor
behavioralcomportamentale cuesindicii from us.
280
765684
2205
își iau indiciile
comportamentale de la noi.
13:01
So let me leavepărăsi you with this.
281
769556
1513
Deci, lasați-mă să închei cu asta.
13:03
You know, a fewpuțini yearsani agoîn urmă
it was really fashionableMonden
282
771701
2489
Acum câțiva ani era la modă
să spun că internetul
e un instrument revoluționar,
13:06
to say that the internetInternet
was a revolutionaryrevoluţionar toolinstrument
283
774214
2313
13:08
that was going to bringaduce us all togetherîmpreună.
284
776551
2012
ce avea să ne unească pe toți.
13:11
It's now more fashionableMonden to say
285
779074
1589
Acum e mai la modă să spunem
13:12
that the internetInternet is a hugeimens,
irredeemablenerambursabil dumpstertomberon firefoc.
286
780687
3094
că internetul e
un incendiu uriaș, iremediabil.
13:16
NeitherNici caricaturecaricatură is really trueAdevărat.
287
784787
1832
Niciuna nu e adevărată.
13:18
We know the internetInternet
is just too vastvast and complexcomplex
288
786643
2373
Știm că internetul e prea vast și complex
13:21
to be all good or all badrău.
289
789040
1499
pentru a fi total bun sau rău.
13:22
And the dangerPericol with
these waysmoduri of thinkinggândire,
290
790563
2087
Și pericolul cu aceste moduri de a gândi,
13:24
whetherdacă it's the utopianutopic viewvedere
that the internetInternet will inevitablyinevitabil saveSalvați us
291
792674
3463
fie că e vorba despre ideea utopică
că internetul ne va salva inevitabil
13:28
or the dystopiandistopic viewvedere that it
will inevitablyinevitabil destroydistruge us,
292
796161
3448
sau părerea distopică
că ne va distruge inevitabil,
13:31
eitherfie way, we're lettingînchiriere
ourselvesnoi insine off the hookcârlig.
293
799633
2444
oricare ar fi cazul,
suntem prea permisivi.
13:35
There is nothing inevitableinevitabil
about our futureviitor.
294
803564
2606
Nu e nimic inevitabil la viitorul nostru.
13:38
The internetInternet is madefăcut of people.
295
806878
2001
Internetul e format din oameni.
13:40
People make decisionsdeciziile
at socialsocial mediamass-media companiescompanii.
296
808903
2984
Oamenii iau decizii
în companiile de socializare.
13:43
People make hashtagshashtags trendtendinţă or not trendtendinţă.
297
811911
2651
Oamenii stabilesc trendul
unui hashtag sau nu.
13:46
People make societiessocietățile progressprogres or regressregres.
298
814586
3129
Oamenii fac ca societățile
să progreseze sau să regreseze.
13:51
When we internalizeinternalizeze that factfapt,
299
819120
1535
Dacă internalizăm acest adevăr,
13:52
we can stop waitingaşteptare
for some inevitableinevitabil futureviitor to arriveajunge
300
820679
3048
ne putem opri din așteptarea
unui viitor inevitabil
13:55
and actuallyde fapt get to work now.
301
823751
1664
și putem începe să-l construim acum.
13:58
You know, we'vene-am all been taughtînvățat
that the arcarc of the moralmorală universeunivers is long
302
826842
3519
Cu toții am fost învățați
că arcul universului moral e lung,
dar că se îndoaie spre dreptate.
14:02
but that it bendscurbe towardspre justicejustiţie.
303
830385
1702
14:06
Maybe.
304
834489
1230
Poate.
14:08
Maybe it will.
305
836814
1200
Poate o va face.
14:10
But that has always been an aspirationaspiraţia.
306
838776
2477
Dar asta a fost întotdeauna o aspirație.
14:13
It is not a guaranteegaranție.
307
841277
1571
Nu e o garanție.
14:15
The arcarc doesn't bendîndoire itselfîn sine.
308
843856
2165
Arcul nu se îndoaie de la sine.
14:18
It's not bentaplecat inevitablyinevitabil
by some mysteriousmisterios forceforta.
309
846045
3675
Nu e îndoit inevitabil
de o forță misterioasă.
14:21
The realreal truthadevăr,
310
849744
1672
Adevărul real,
14:23
whichcare is scarierinfricosator and alsode asemenea more liberatingeliberator,
311
851440
2391
care e mai înfricoșător
și de asemenea mai eliberator,
14:26
is that we bendîndoire it.
312
854847
1215
e că noi îl îndoim.
14:28
Thank you.
313
856943
1209
Vă mulțumesc!
14:30
(ApplauseAplauze)
314
858176
2617
(Aplauze)
Translated by Danut Vornicu
Reviewed by Mirel-Gabriel Alexa

▲Back to top

ABOUT THE SPEAKER
Andrew Marantz - Writer
Andrew Marantz writes narrative journalism about politics, the internet and the way we understand our world.

Why you should listen

Since 2016, Andrew Marantz has been at work on a book about the perils of virality, the myth of linear progress and the American far right. To report the book, he spent several years embedded with some of the conspiracists, white supremacists and nihilist trolls who have become experts at using social media to advance their corrosive agendas. He also watched as some of social media's earliest and most influential founders started to reckon with the forces they'd unleashed. The book, forthcoming in October from Viking Press, is called Antisocial: Online Extremists, Techno-Utopians, and the Hijacking of the American Conversation

Marantz became a staff writer at the New Yorker in 2017. Prior to that, he worked on the magazine's editorial staff, splitting his time between writing stories (about such topics as hip-hop purism and the Truman Show delusion) and editing stories (about Las Vegas night clubs, Liberian warlords and many other things). Ultimately, Marantz's main interest lies not in any particular subject matter, but in how people form beliefs -- and under what circumstances those beliefs can change for the better.

Marantz is also a contributor to Radiolab and The New Yorker Radio Hour, and has written for Harper's, Mother Jones, the New York Times and many other outlets. He holds an undergraduate degree in religion from Brown University and a master's degree in literary nonfiction from New York University. He lives in Brooklyn with his wife, who is a criminal-justice reformer; his two-year-old son, who is an excellent dancer; and an endless supply of peanut butter.

More profile about the speaker
Andrew Marantz | Speaker | TED.com