ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Hoe jij kan helpen het internet te transformeren naar een plek van vertrouwen

Filmed:
1,319,606 views

Hoe kunnen we de verspreiding van misleidende, soms gevaarlijke informatie stopzetten, maar ook een internet met vrijheid van meningsuiting als kern behouden? Misinformatie-expert Claire Wardle onderzoekt de nieuwe uitdagingen van onze vervuilde online omgeving en stelt een plan op om het internet te transformeren in een plek van vertrouwen -- met de hulp van dagelijkse gebruikers. "Laten we samen onze publieke bronnen heropbouwen", zegt zij.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterer toe doen who you are or where you liveleven,
0
1548
2516
Wie je ook bent of waar je ook woont,
00:16
I'm guessinggissen that you have
at leastminst one relativefamilielid
1
4088
2356
ik denk dat je tenminste
één familielid hebt
00:18
that likessympathieën to forwardvooruit those emailse-mails.
2
6468
2334
dat van die emails doorstuurt.
00:21
You know the onesdegenen I'm talkingpratend about --
3
9206
1900
Je weet dewelke ik bedoel,
00:23
the onesdegenen with dubiousdubieuze claimsvorderingen
or conspiracysamenzwering videosvideos.
4
11130
2854
die met rare theorieën
of complotvideo's.
00:26
And you've probablywaarschijnlijk
alreadynu al mutedgedempt them on FacebookFacebook
5
14315
2668
En je volgt hen waarschijnlijk
al niet meer op Facebook
00:29
for sharingdelen socialsociaal postsberichten like this one.
6
17007
2348
omdat ze dit soort berichten delen.
00:31
It's an imagebeeld of a bananabanaan
7
19379
1404
Een foto van een banaan
00:32
with a strangevreemd redrood crosskruis
runninglopend throughdoor the centercentrum.
8
20807
2667
met een vreemd, rood kruis in het midden.
00:35
And the texttekst around it is warningwaarschuwing people
9
23498
2139
En de tekst erbij waarschuwt mensen
00:37
not to eateten fruitsvruchten that look like this,
10
25661
2158
om dit fruit niet te eten,
00:39
suggestingsuggereren they'veze hebben been
injectedgeïnjecteerd with bloodbloed
11
27843
2028
omdat het geïnjecteerd zou zijn met bloed
00:41
contaminatedvervuild with the HIVHIV virusvirus.
12
29895
2130
besmet met het hiv-virus.
00:44
And the socialsociaal sharedelen messagebericht
abovebovenstaand it simplyeenvoudigweg sayszegt,
13
32049
2603
En de gedeelde boodschap
erboven zegt simpelweg:
00:46
"Please forwardvooruit to savebesparen liveslevens."
14
34676
2181
"Alsjeblieft delen om levens te redden."
00:49
Now, fact-checkersFactcheckers have been debunkingDebunking
this one for yearsjaar,
15
37672
3294
Feitcheckers hebben deze
al jaren geleden ontkracht,
00:52
but it's one of those rumorsgeruchten
that just won'tzal niet diedood gaan.
16
40990
2809
maar het is zo'n roddel
die maar niet wil uitdoven.
00:55
A zombieZombie rumorgerucht.
17
43823
1271
Een zombieroddel.
00:57
And, of courseCursus, it's entirelygeheel falsevals.
18
45513
2093
En het is natuurlijk helemaal niet waar.
01:00
It mightmacht be temptingverleidelijk to laughlach
at an examplevoorbeeld like this, to say,
19
48180
2959
Het is misschien verleidelijk
hierom te lachen, om te zeggen:
01:03
"Well, who would believe this, anywayin ieder geval?"
20
51163
1884
"Wie gelooft er nu zoiets?"
01:05
But the reasonreden it's a zombieZombie rumorgerucht
21
53419
1626
Maar het is net een zombieroddel,
01:07
is because it tapskranen into people'sPeople's
deepestdiepste fearsangsten about theirhun owneigen safetyveiligheid
22
55069
3889
omdat het spreekt tot de diepste angsten
over mensen hun eigen veiligheid
01:10
and that of the people they love.
23
58982
2175
en die van de mensen waar ze van houden.
01:13
And if you spendbesteden as enoughgenoeg time
as I have looking at misinformationverkeerde informatie,
24
61783
3273
En als je genoeg tijd spendeert
aan kijken naar misinformatie,
01:17
you know that this is just
one examplevoorbeeld of manyveel
25
65080
2420
dan weet je dat dit
een van de vele voorbeelden is
01:19
that tapskranen into people'sPeople's deepestdiepste
fearsangsten and vulnerabilitieskwetsbaarheden.
26
67524
3047
dat mensen hun diepste
angsten en zwaktes oproept.
01:23
EveryElke day, acrossaan de overkant the worldwereld-,
we see scoresscores of newnieuwe memesmemes on InstagramInstagram
27
71214
4369
Elke dag zien we wereldwijd
een hoop nieuwe memes op Instagram
01:27
encouragingbemoedigend parentsouders
not to vaccinatevaccineren theirhun childrenkinderen.
28
75607
3039
die ouders aanmoedigen
om hun kinderen niet te vaccineren.
01:30
We see newnieuwe videosvideos on YouTubeYouTube
explaininguitleggen that climateklimaat changeverandering is a hoaxhoax.
29
78670
4532
We zien nieuwe video's op YouTube
die klimaatverandering een hoax noemen.
01:35
And acrossaan de overkant all platformsplatforms, we see
endlesseindeloos postsberichten designedontworpen to demonizedemoniseren othersanderen
30
83226
4302
En over alle platformen heen
zien we posts die anderen demoniseren
01:39
on the basisbasis of theirhun racerace,
religiongodsdienst or sexualityseksualiteit.
31
87552
3501
op basis van hun kleur,
religie of seksualiteit.
01:44
WelcomeWelkom to one of the centralcentraal
challengesuitdagingen of our time.
32
92314
3030
Welkom bij een van
de kernuitdagingen van onze tijd.
01:47
How can we maintainin stand houden an internetinternet
with freedomvrijheid of expressionuitdrukking at the corekern,
33
95647
4025
Hoe kunnen we een internet behouden
gebaseerd op vrijheid van meningsuiting,
01:51
while alsoook ensuringervoor te zorgen that the contentinhoud
that's beingwezen disseminatedverspreid
34
99696
3303
maar ook verzekeren
dat de verspreide informatie
01:55
doesn't causeoorzaak irreparableOnherstelbare harmsHarms
to our democraciesdemocratieën, our communitiesgemeenschappen
35
103023
3886
geen onomkeerbare schade toebrengt
aan onze democratieën, gemeenschappen
01:58
and to our physicalfysiek and mentalgeestelijk well-beingwelzijn?
36
106933
2238
en aan ons fysiek en mentaal welzijn?
02:01
Because we liveleven in the informationinformatie ageleeftijd,
37
109998
2087
We leven wel in het informatietijdperk,
02:04
yetnog the centralcentraal currencyvaluta
uponop whichwelke we all dependafhangen -- informationinformatie --
38
112109
3547
maar de belangrijkste munteenheid
waar we van afhangen -- informatie --
02:07
is no longerlanger deemedgeacht entirelygeheel trustworthybetrouwbaar
39
115680
2357
blijkt niet meer helemaal betrouwbaar
02:10
and, at timestijden, can appearverschijnen
downrightronduit dangerousgevaarlijk.
40
118061
2328
en soms zelfs ronduit gevaarlijk.
02:12
This is thanksbedankt in partdeel to the runawayWeglopen
growthgroei of socialsociaal sharingdelen platformsplatforms
41
120811
3937
Dit is deels te danken
aan de onstuitbare groei van social media,
02:16
that allowtoestaan us to scrollrol throughdoor,
42
124772
1642
die ons er laten door scrollen,
02:18
where liesleugens and factsfeiten sitzitten sidekant by sidekant,
43
126438
2222
waar leugen en feit zij aan zij zitten,
02:20
but with nonegeen of the traditionaltraditioneel
signalssignalen of trustworthinessbetrouwbaarheid.
44
128684
3071
maar met geen enkel traditioneel
kenmerk van betrouwbaarheid.
02:24
And goodnessgoedheid -- our languagetaal around this
is horriblyverschrikkelijk muddledverward.
45
132268
3619
En, o god, onze taal hierover
is verschrikkelijk verwarrend.
02:27
People are still obsessedbezeten
with the phraseuitdrukking "fakenep newsnieuws,"
46
135911
3103
Mensen zijn nog steeds geobsedeerd
met het begrip 'fake news',
02:31
despiteondanks the factfeit that
it's extraordinarilybuitengewoon unhelpfulnutteloze
47
139038
2531
hoewel het buitengewoon onbehulpzaam is
02:33
and used to describebeschrijven a numberaantal of things
that are actuallywerkelijk very differentverschillend:
48
141593
3460
en gebruikt wordt om eigenlijk
totaal andere dingen te beschrijven:
02:37
liesleugens, rumorsgeruchten, hoaxeshoaxes,
conspiraciessamenzweringen, propagandapropaganda.
49
145077
3386
leugens, roddels, hoaxen,
samenzweringen, propaganda.
02:40
And I really wishwens
we could stop usinggebruik makend van a phraseuitdrukking
50
148911
2912
En ik zou willen dat we geen begrip
meer zouden gebruiken
02:43
that's been co-optedGecoöpteerd lid by politicianspolitici
right around the worldwereld-,
51
151847
2862
dat ingelijfd is door politici wereldwijd,
02:46
from the left and the right,
52
154733
1471
zowel links als rechts,
02:48
used as a weaponwapen to attackaanval
a freegratis and independentonafhankelijk presspers.
53
156228
3222
gebruikt als wapen om
vrije, onafhankelijke pers aan te vallen.
02:52
(ApplauseApplaus)
54
160307
4702
(Applaus)
02:57
Because we need our professionalprofessioneel
newsnieuws mediamedia now more than ever.
55
165033
3462
Want we hebben onze professionele
nieuwsmedia meer dan ooit nodig.
03:00
And besidesbehalve, mostmeest of this contentinhoud
doesn't even masquerademaskerade as newsnieuws.
56
168882
3373
Het meeste van deze informatie
vermomt zich zelfs niet als nieuws.
03:04
It's memesmemes, videosvideos, socialsociaal postsberichten.
57
172279
2642
Het zijn memes, video's,
social-mediaberichten.
03:06
And mostmeest of it is not fakenep;
it's misleadingmisleidende.
58
174945
3453
En het meeste is niet vals;
het is misleidend.
03:10
We tendde neiging hebben to fixatefixeren on what's truewaar or falsevals.
59
178422
3015
We fixeren vaker op waar of niet waar.
03:13
But the biggestgrootste concernbezorgdheid is actuallywerkelijk
the weaponizationstreven of contextcontext.
60
181461
4032
Maar de grootste zorg is eigenlijk
bewapening van de context.
03:18
Because the mostmeest effectiveeffectief disinformationdesinformatie
61
186855
1968
Want de meest effectieve desinformatie
03:20
has always been that
whichwelke has a kernelkernel of truthwaarheid to it.
62
188847
3048
is altijd al datgene geweest
waar een korrel waarheid in zit.
03:23
Let's take this examplevoorbeeld
from LondonLonden, from MarchMaart 2017,
63
191919
3476
Neem nu dit voorbeeld
van Londen, maart 2017,
03:27
a tweetTweet that circulatedverspreid widelywijd
64
195419
1540
een tweet die overal circuleerde
03:28
in the aftermathnasleep of a terroristterrorist incidentincident
on WestminsterWestminster BridgeBrug.
65
196983
3587
in de nasleep van een terreuraanslag
op Westminster Bridge.
Dit is een echte foto, niet vals.
03:32
This is a genuineoprecht imagebeeld, not fakenep.
66
200594
2428
03:35
The womanvrouw who appearskomt naar voren in the photographfotograaf
was interviewedgeïnterviewd afterwardsdaarna,
67
203046
3169
De vrouw op de foto
werd nadien geïnterviewd
03:38
and she explaineduitgelegd that
she was utterlyvolkomen traumatizedgetraumatiseerd.
68
206239
2409
en zij verklaarde
erg getraumatiseerd te zijn.
03:40
She was on the phonetelefoon to a lovedgeliefde one,
69
208672
1738
Zij was aan de lijn met een dierbare
03:42
and she wasn'twas niet looking
at the victimslachtoffer out of respecteerbied.
70
210434
2618
en uit respect keek ze niet
naar het slachtoffer.
03:45
But it still was circulatedverspreid widelywijd
with this IslamophobicIslamofobe framingframing,
71
213076
3960
En toch werd het verspreid
met deze islamofobe tekst,
03:49
with multiplemeerdere hashtagsHashtags,
includinginclusief: #BanIslamBanIslam.
72
217060
3046
met meerdere hashtags,
waaronder: #BanIslam.
03:52
Now, if you workedwerkte at TwitterTwitter,
what would you do?
73
220425
2398
Moest jij bij Twitter werken,
wat zou jij doen?
03:54
Would you take that down,
or would you leavehet verlof it up?
74
222847
2562
Zou je het weghalen of laten staan?
03:58
My gutdarm reactionreactie, my emotionalemotioneel reactionreactie,
is to take this down.
75
226553
3429
Mijn instinct, mijn emotionele reflex
is dit verwijderen.
04:02
I hatehaat the framingframing of this imagebeeld.
76
230006
2142
Ik haat de suggestiviteit van deze foto.
04:04
But freedomvrijheid of expressionuitdrukking
is a humanmenselijk right,
77
232585
2388
Maar vrije meningsuiting
is een mensenrecht
04:06
and if we startbegin takingnemen down speechtoespraak
that makesmerken us feel uncomfortableongemakkelijk,
78
234997
3225
en als we meningen weghalen
die ons ongemakkelijk doen voelen,
04:10
we're in troublemoeite.
79
238246
1230
hebben we een probleem.
04:11
And this mightmacht look like a clear-cutscherp omlijnd casegeval,
80
239500
2294
En al lijkt dit een duidelijke zaak,
04:13
but, actuallywerkelijk, mostmeest speechtoespraak isn't.
81
241818
1698
meestal is een mening dat niet.
04:15
These lineslijnen are incrediblyongelooflijk
difficultmoeilijk to drawtrek.
82
243540
2436
Deze lijnen trekken is enorm moeilijk.
04:18
What's a well-meaningwelmenend
decisionbesluit by one personpersoon
83
246000
2281
Wat voor de één
een goedbedoelde beslissing is,
04:20
is outrightronduit censorshipcensuur to the nextvolgende.
84
248305
2077
is ronduit censuur voor de ander.
04:22
What we now know is that
this accountaccount, TexasTexas LoneLone StarSter,
85
250759
2929
Wat we wel weten is
dat dit account, Texas Lone Star,
04:25
was partdeel of a widerbreder RussianRussisch
disinformationdesinformatie campaigncampagne,
86
253712
3230
deel uitmaakte van een weidse,
Russische desinformatie-campagne
04:28
one that has sincesinds been takeningenomen down.
87
256966
2151
en ondertussen verwijderd is.
04:31
Would that changeverandering your viewuitzicht?
88
259141
1563
Zou dat je mening veranderen?
04:33
It would minede mijne,
89
261322
1159
De mijne wel,
04:34
because now it's a casegeval
of a coordinatedgecoördineerd campaigncampagne
90
262505
2301
want dan is het
een georganiseerde campagne
om verdeeldheid te zaaien.
04:36
to sowzaaien discordonenigheid.
91
264830
1215
04:38
And for those of you who'dwie had like to think
92
266069
1961
En zij die zouden denken
04:40
that artificialkunstmatig intelligenceintelligentie-
will solveoplossen all of our problemsproblemen,
93
268054
2831
dat artificiële intelligentie
alle problemen zal oplossen,
04:42
I think we can agreemee eens
that we're a long way away
94
270909
2225
zullen het met me eens zijn
dat we veraf staan
04:45
from AIAI that's ablein staat to make sensezin
of postsberichten like this.
95
273158
2587
van AI die berichten als deze
kan begrijpen.
Dus zou ik graag drie
samenhangende problemen uitleggen
04:48
So I'd like to explainuitleg geven
threedrie interlockingvergrendeling issueskwesties
96
276856
2507
04:51
that make this so complexcomplex
97
279387
2373
die dit zo complex maken,
04:53
and then think about some waysmanieren
we can consideroverwegen these challengesuitdagingen.
98
281784
3122
om dan over manieren na te denken
om ze op te lossen.
04:57
First, we just don't have
a rationalrationeel relationshipverhouding to informationinformatie,
99
285348
3890
Ten eerste hebben we gewoon
geen rationele relatie met informatie,
05:01
we have an emotionalemotioneel one.
100
289262
1468
maar een emotionele.
05:02
It's just not truewaar that more factsfeiten
will make everything OK,
101
290754
3794
Het is niet waar dat meer feiten
alles goed maken,
05:06
because the algorithmsalgoritmen that determinebepalen
what contentinhoud we see,
102
294572
3100
want algoritmes
die bepalen wat we zien,
05:09
well, they're designedontworpen to rewardbeloning
our emotionalemotioneel responsesReacties.
103
297696
3127
zijn ontworpen om onze
emotionele reacties te belonen.
05:12
And when we're fearfulangstig,
104
300847
1381
En wanneer we angst hebben,
05:14
oversimplifiedgesimplificeerd narrativesverhalen,
conspiratorialsamenzweerderige explanationstoelichtingen
105
302252
3174
zijn sterk vereenvoudigde verhalen,
verklaringen met complotten
05:17
and languagetaal that demonizesdemonaliseert othersanderen
is farver more effectiveeffectief.
106
305450
3418
en demoniserende taal
over anderen veel effectiever.
05:21
And besidesbehalve, manyveel of these companiesbedrijven,
107
309538
1874
Bij veel van deze bedrijven
05:23
theirhun businessbedrijf modelmodel-
is attachedgehecht to attentionaandacht,
108
311436
2546
is het businessmodel gelinkt aan aandacht,
05:26
whichwelke meansmiddelen these algorithmsalgoritmen
will always be skewedscheef towardsnaar emotionemotie.
109
314006
3690
wat betekent dat deze algoritmes
altijd neigen naar emotie.
05:30
SecondTweede, mostmeest of the speechtoespraak
I'm talkingpratend about here is legalwettelijk.
110
318371
4298
Ten tweede zijn de meeste berichten
die ik hier vernoem legaal.
05:35
It would be a differentverschillend matterer toe doen
111
323081
1446
Het zou een andere zaak zijn
05:36
if I was talkingpratend about
childkind sexualseksueel abusemisbruik imagerybeeldspraak
112
324551
2341
als ik sprak over
beelden van kindermisbruik
05:38
or contentinhoud that incitesaanzet tot violencegeweld.
113
326916
1927
of inhoud die tot geweld aanspoort.
05:40
It can be perfectlyvolmaakt legalwettelijk
to postpost an outrightronduit lieliggen.
114
328867
3270
Het kan perfect legaal zijn
om een regelrechte leugen te posten.
05:45
But people keep talkingpratend about takingnemen down
"problematicproblematisch" or "harmfulschadelijk" contentinhoud,
115
333130
4034
Mensen praten over 'problematische'
of 'schadelijke' informatie verwijderen
zonder duidelijke definitie
van wat ze daarmee bedoelen,
05:49
but with no clearduidelijk definitiondefinitie
of what they mean by that,
116
337188
2609
05:51
includinginclusief MarkMark ZuckerbergZuckerberg,
117
339821
1264
inclusief Mark Zuckerberg,
05:53
who recentlykort geleden calledriep for globalglobaal
regulationregulatie to moderatematig speechtoespraak.
118
341109
3412
die net nog opriep tot globale
controle van meningsuiting.
05:56
And my concernbezorgdheid is that
we're seeingziend governmentsoverheden
119
344870
2215
En mijn zorg is dat we regeringen zien
05:59
right around the worldwereld-
120
347109
1292
over de hele wereld
06:00
rollingrollend out hastyhaastige policyhet beleid decisionsbeslissingen
121
348425
2676
die haastig een beleid invoeren
06:03
that mightmacht actuallywerkelijk triggerin gang zetten
much more seriousernstig consequencesgevolgen
122
351125
2746
wat eigenlijk veel ergere
gevolgen kan veroorzaken
06:05
when it comeskomt to our speechtoespraak.
123
353895
1714
voor onze meningsuiting.
06:08
And even if we could decidebesluiten
whichwelke speechtoespraak to take up or take down,
124
356006
3706
En ook al konden we beslissen
welke meningen te houden of verwijderen,
06:11
we'vewij hebben never had so much speechtoespraak.
125
359736
2174
we hebben nog nooit zoveel geuit.
06:13
EveryElke secondtweede, millionsmiljoenen
of piecesstukken of contentinhoud
126
361934
2131
Elke seconde worden miljoenen meningen
06:16
are uploadedgeüpload by people
right around the worldwereld-
127
364089
2107
geüpload door mensen over de hele wereld
06:18
in differentverschillend languagestalen,
128
366220
1168
in verschillende talen,
06:19
drawingtekening on thousandsduizenden
of differentverschillend culturalcultureel contextscontexten.
129
367412
2768
gebaseerd op duizenden
verschillende culturele contexten.
06:22
We'veWe hebben simplyeenvoudigweg never had
effectiveeffectief mechanismsmechanismen
130
370204
2532
We hebben simpelweg
nooit efficiënte mechanismes gehad
06:24
to moderatematig speechtoespraak at this scaleschaal,
131
372760
1738
om taal te controleren op deze schaal,
06:26
whetherof poweredaangedreven by humansmensen
or by technologytechnologie.
132
374522
2801
of het nu van mensen
of van technologie komt.
06:30
And thirdderde, these companiesbedrijven --
GoogleGoogle, TwitterTwitter, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
Ten derde zijn deze bedrijven --
Google, Twitter, Facebook, WhatsApp --
06:34
they're partdeel of a widerbreder
informationinformatie ecosystemecosysteem.
134
382252
2841
deel van een breder informatie-ecosysteem.
06:37
We like to layleggen all the blameschuld
at theirhun feetvoeten, but the truthwaarheid is,
135
385117
3352
We geven hen graag alle schuld,
maar de waarheid is
06:40
the massmassa- mediamedia and electedgekozen officialsambtenaren
can alsoook playspelen an equalGelijk rolerol
136
388493
3830
dat massamedia en verkozen ambtenaren
een even grote rol kunnen spelen
06:44
in amplifyingfrequentiebanden te versterken rumorsgeruchten and conspiraciessamenzweringen
when they want to.
137
392347
2913
in het versterken van gerucht
en complot, als ze dit willen.
06:47
As can we, when we mindlesslygedachteloos forwardvooruit
divisiveverdeeldheid or misleadingmisleidende contentinhoud
138
395800
4944
En wij ook, als we hersenloos
verdeelde of misleidende informatie delen
06:52
withoutzonder tryingproberen.
139
400768
1285
zonder moeite te doen.
06:54
We're addingtoe te voegen to the pollutionverontreiniging.
140
402077
1800
We vervuilen het alleen maar meer.
06:57
I know we're all looking for an easygemakkelijk fixrepareren.
141
405236
2618
Ik weet dat we zoeken
naar een makkelijke oplossing.
06:59
But there just isn't one.
142
407878
1667
Maar er is er geen.
07:01
Any solutionoplossing will have to be rolledrolde out
at a massivemassief scaleschaal, internetinternet scaleschaal,
143
409950
4445
Elke oplossing zal uitgerold moeten worden
op een gigantische schaal, internetschaal.
07:06
and yes, the platformsplatforms,
they're used to operatingbedrijfs- at that levelniveau.
144
414419
3261
En ja, de platformen zijn gewend
op dat niveau te opereren,
07:09
But can and should we allowtoestaan them
to fixrepareren these problemsproblemen?
145
417704
3472
maar kunnen ze deze problemen oplossen
en moeten we het toelaten?
07:13
They're certainlyzeker tryingproberen.
146
421668
1232
Proberen doen ze zeker.
07:14
But mostmeest of us would agreemee eens that, actuallywerkelijk,
we don't want globalglobaal corporationsbedrijven
147
422924
4086
Maar de meesten zouden ermee akkoord gaan
dat we geen globale ondernemingen willen
07:19
to be the guardiansbewakers of truthwaarheid
and fairnesseerlijkheid onlineonline.
148
427034
2332
als bewakers van waarheid
en eerlijkheid online.
07:21
And I alsoook think the platformsplatforms
would agreemee eens with that.
149
429390
2537
En ik denk dat ook
de platformen dat vinden.
07:24
And at the momentmoment,
they're markingmarkering theirhun owneigen homeworkhuiswerk.
150
432257
2881
Momenteel beoordelen ze
hun eigen huiswerk.
07:27
They like to tell us
151
435162
1198
Ze vertellen graag
07:28
that the interventionsinterventies
they're rollingrollend out are workingwerkend,
152
436384
2579
dat de maatregelen
die ze nemen resultaat opleveren,
maar omdat ze hun eigen
transparantieverslag schrijven,
07:30
but because they writeschrijven
theirhun owneigen transparencytransparantie reportsrapporten,
153
438987
2540
07:33
there's no way for us to independentlyonafhankelijk
verifyverifiëren what's actuallywerkelijk happeninggebeurtenis.
154
441551
3618
kunnen we op geen enkele manier
echt controleren wat er eigenlijk gebeurt.
07:38
(ApplauseApplaus)
155
446431
3342
(Applaus)
07:41
And let's alsoook be clearduidelijk
that mostmeest of the changesveranderingen we see
156
449797
2952
En laat het ook duidelijk zijn
dat de meeste veranderingen enkel gebeuren
07:44
only happengebeuren after journalistsjournalisten
undertakeondernemen an investigationonderzoek
157
452773
2994
nadat onderzoek van journalisten
vooroordelen aan het licht brengen,
07:47
and find evidencebewijsmateriaal of biasvooroordeel
158
455791
1611
07:49
or contentinhoud that breaksbreaks
theirhun communitygemeenschap guidelinesrichtlijnen.
159
457426
2829
of inhoud die de regels
van de platformen breekt.
07:52
So yes, these companiesbedrijven have to playspelen
a really importantbelangrijk rolerol in this processwerkwijze,
160
460815
4595
Dus ja, deze bedrijven moeten een
heel belangrijke rol spelen in dit proces,
07:57
but they can't controlcontrole it.
161
465434
1560
maar je kunt het ze niet
laten controleren.
07:59
So what about governmentsoverheden?
162
467855
1518
En hoe zit het met regeringen?
08:01
ManyVeel people believe
that globalglobaal regulationregulatie is our last hopehoop
163
469863
3096
Velen geloven dat globale wetten
onze laatste hoop zijn
08:04
in termstermen of cleaningschoonmaak up
our informationinformatie ecosystemecosysteem.
164
472983
2880
als het gaat om de opkuis
van ons informatie-ecosysteem.
08:07
But what I see are lawmakerswetgevers
who are strugglingworstelen to keep up to datedatum
165
475887
3166
Maar ik zie wetgevers
die worstelen om bij te blijven
08:11
with the rapidsnel changesveranderingen in technologytechnologie.
166
479077
2341
met de snel veranderende technologie.
08:13
And worseerger, they're workingwerkend in the darkdonker,
167
481442
1904
Nog erger, ze tasten in het duister,
08:15
because they don't have accesstoegang to datagegevens
168
483370
1821
omdat ze geen toegang hebben tot data
08:17
to understandbegrijpen what's happeninggebeurtenis
on these platformsplatforms.
169
485215
2650
om te begrijpen wat er gebeurt
op deze platformen.
08:20
And anywayin ieder geval, whichwelke governmentsoverheden
would we trustvertrouwen to do this?
170
488260
3071
Trouwens, welke regeringen
zouden we hiermee vertrouwen?
08:23
We need a globalglobaal responseantwoord,
not a nationalnationaal one.
171
491355
2770
We hebben een globaal
antwoord nodig, geen nationaal.
08:27
So the missingmissend linklink is us.
172
495419
2277
Dus zijn wij de ontbrekende schakel.
08:29
It's those people who use
these technologiestechnologieën everyelk day.
173
497720
3123
Het zijn de mensen die
deze technologie elke dag gebruiken.
08:33
Can we designontwerp a newnieuwe infrastructureinfrastructuur
to supportondersteuning qualitykwaliteit informationinformatie?
174
501260
4591
Kunnen we een nieuwe infrastructuur
bouwen om kwaliteitsinformatie te bieden?
08:38
Well, I believe we can,
175
506371
1230
Wel, ik denk van wel,
08:39
and I've got a fewweinig ideasideeën about
what we mightmacht be ablein staat to actuallywerkelijk do.
176
507625
3357
en ik heb enkele ideeën
over wat we echt zouden kunnen doen.
08:43
So firstlyten eerste, if we're seriousernstig
about bringingbrengen the publicopenbaar into this,
177
511006
3103
Ten eerste, als we het grote publiek
er echt bij willen betrekken,
08:46
can we take some inspirationinspiratie
from WikipediaWikipedia?
178
514133
2381
kunnen we dan inspiratie
opdoen van Wikipedia?
08:48
They'veZe hebben showngetoond us what's possiblemogelijk.
179
516538
1824
Zij hebben getoond wat mogelijk is.
08:50
Yes, it's not perfectperfect,
180
518386
1151
Het is niet perfect,
08:51
but they'veze hebben demonstratedgedemonstreerd
that with the right structuresstructuren,
181
519561
2634
maar ze hebben getoond
dat met de juiste structuren,
met een globale aanpak
en heel veel transparantie,
08:54
with a globalglobaal outlookvooruitzicht
and lots and lots of transparencytransparantie,
182
522219
2635
je iets kan bouwen dat het vertrouwen
zal winnen van de meesten.
08:56
you can buildbouwen something
that will earnverdienen the trustvertrouwen of mostmeest people.
183
524878
3096
08:59
Because we have to find a way
to tapkraan into the collectivecollectief wisdomwijsheid
184
527998
3162
Want we moeten een manier vinden
om de collectieve wijsheid en ervaring
van alle gebruikers in te zetten.
09:03
and experienceervaring of all usersgebruikers.
185
531184
2309
09:05
This is particularlyvooral the casegeval
for womenvrouw, people of colorkleur
186
533517
2646
Dit is vooral het geval
voor vrouwen, gekleurde mensen
09:08
and underrepresentedondervertegenwoordigd groupsgroepen.
187
536187
1346
en minderheden.
09:09
Because guessraden what?
188
537557
1166
Want weet je?
09:10
They are expertsexperts when it comeskomt
to hatehaat and disinformationdesinformatie,
189
538747
2735
Zij zijn experten
in haat en desinformatie,
09:13
because they have been the targetsdoelen
of these campaignscampagnes for so long.
190
541506
3516
omdat zij al zo lang het doelwit
zijn van deze campagnes.
09:17
And over the yearsjaar,
they'veze hebben been raisingverheffing flagsvlaggen,
191
545046
2350
En door de jaren heen
hebben ze vaak gewaarschuwd,
09:19
and they haven'thebben niet been listenedluisterde to.
192
547420
1665
maar er werd niet naar geluisterd.
09:21
This has got to changeverandering.
193
549109
1280
Dit moet veranderen.
09:22
So could we buildbouwen a WikipediaWikipedia for trustvertrouwen?
194
550807
4326
Dus kunnen we een Wikipedia
bouwen van vertrouwen?
09:27
Could we find a way that usersgebruikers
can actuallywerkelijk providevoorzien insightsinzichten?
195
555157
4189
Kunnen we een manier vinden
om gebruikers hun inzicht te laten geven?
09:31
They could offeraanbod insightsinzichten around
difficultmoeilijk content-moderationcontent-moderatie decisionsbeslissingen.
196
559370
3697
Zij zouden inzicht kunnen bieden
bij moeilijke beslissingen over inhoud.
09:35
They could providevoorzien feedbackterugkoppeling
197
563091
1463
Ze zouden feedback kunnen geven
09:36
when platformsplatforms decidebesluiten
they want to rollrollen out newnieuwe changesveranderingen.
198
564578
3041
wanneer platformen beslissen
om veranderingen door te voeren.
09:40
SecondTweede, people'sPeople's experienceservaringen
with the informationinformatie is personalizedgepersonaliseerde.
199
568241
4162
Ten tweede zijn ervaringen
met informatie gepersonaliseerd.
09:44
My FacebookFacebook newsnieuws feedeten geven
is very differentverschillend to yoursde jouwe.
200
572427
2643
Mijn Facebook nieuwsoverzicht
is anders dan het jouwe.
09:47
Your YouTubeYouTube recommendationsaanbevelingen
are very differentverschillend to minede mijne.
201
575094
2745
Jouw YouTube aanbevelingen
zijn anders dan de mijne.
09:49
That makesmerken it impossibleonmogelijk for us
to actuallywerkelijk examineonderzoeken
202
577863
2492
Dat maakt het onmogelijk
om echt te onderzoeken
09:52
what informationinformatie people are seeingziend.
203
580379
2023
welke informatie mensen te zien krijgen.
09:54
So could we imaginestel je voor
204
582815
1389
Dus kunnen we ons inbeelden
09:56
developingontwikkelen some kindsoort of centralizedgecentraliseerde
openOpen repositorybewaarplaats for anonymizedgeanonimiseerd datagegevens,
205
584228
4778
dat een gecentraliseerd, open geheugen
voor anonieme data ontwikkeld wordt,
10:01
with privacyprivacy and ethicalethisch
concernszorgen builtgebouwd in?
206
589030
2864
met privacy en ethische bezwaren erin?
10:04
Because imaginestel je voor what we would learnleren
207
592220
1778
Want stel je voor wat we zouden leren
10:06
if we builtgebouwd out a globalglobaal networknetwerk
of concernedbezorgd citizensburgers
208
594022
3261
als we een globaal netwerk
uitbouwden met betrokken burgers
10:09
who wanted to donatedoneren
theirhun socialsociaal datagegevens to sciencewetenschap.
209
597307
3294
die hun sociale data
zouden doneren aan de wetenschap.
10:13
Because we actuallywerkelijk know very little
210
601141
1722
Want we weten eigenlijk erg weinig
10:14
about the long-termlangetermijn consequencesgevolgen
of hatehaat and disinformationdesinformatie
211
602887
2881
over de gevolgen op lange termijn
van haat en desinformatie
10:17
on people'sPeople's attitudesattitudes and behaviorsgedragingen.
212
605792
1975
voor mensen hun houding en gedrag.
10:20
And what we do know,
213
608236
1167
En wat we wel weten,
10:21
mostmeest of that has been
carriedgedragen out in the US,
214
609427
2193
is dat dit het vaakst gebeurt in de VS,
10:23
despiteondanks the factfeit that
this is a globalglobaal problemprobleem.
215
611644
2381
ondanks het feit
dat dit een globaal probleem is.
10:26
We need to work on that, too.
216
614049
1635
Daar moeten we ook aan werken.
10:28
And thirdderde,
217
616192
1150
En ten derde,
10:29
can we find a way to connectaansluiten the dotsstippen?
218
617366
2310
kunnen we dan geen ketting maken?
10:31
No one sectorsector, let alonealleen nonprofitnon-profit,
start-upStart-up or governmentregering,
219
619700
3438
Niet één sector, laat staan nonprofit,
start-up of regering
10:35
is going to solveoplossen this.
220
623162
1422
gaat dit oplossen.
10:36
But there are very smartslim people
right around the worldwereld-
221
624608
2564
Maar er zijn erg slimme mensen
over de hele wereld
10:39
workingwerkend on these challengesuitdagingen,
222
627196
1381
die de uitdaging aangaan,
10:40
from newsroomsredacties, civilciviel societymaatschappij,
academiaacademische wereld, activistactivist groupsgroepen.
223
628601
3576
bij nieuwsredacties, de burgers,
academici, activisten.
10:44
And you can see some of them here.
224
632201
1898
En sommigen ervan zie je hier.
10:46
Some are buildinggebouw out indicatorsindicatoren
of contentinhoud credibilitygeloofwaardigheid.
225
634123
2927
Sommigen bouwen aan indicators
van geloofwaardigheid.
10:49
OthersAnderen are fact-checkingfeitencontrole,
226
637074
1246
Anderen checken de feiten,
10:50
so that falsevals claimsvorderingen, videosvideos and imagesafbeeldingen
can be down-rankedDown-gerangschikte by the platformsplatforms.
227
638344
3591
zodat valse beweringen, video's
en afbeeldingen verdwijnen van platformen.
10:53
A nonprofitnon-profit I helpedgeholpen
to foundgevonden, First DraftOntwerp,
228
641959
2213
Een nonprofit die ik
geholpen heb, First Draft,
10:56
is workingwerkend with normallynormaal competitivecompetitief
newsroomsredacties around the worldwereld-
229
644196
2968
werkt met competitieve
nieuwsredacties wereldwijd
10:59
to help them buildbouwen out investigativeonderzoek,
collaborativesamenwerkend programsprogramma's.
230
647188
3503
om samen met hen onderzoekende
samenwerkingsprogramma's te bouwen.
11:03
And DannyDanny HillisHillis, a softwaresoftware architectarchitect,
231
651231
2309
En Danny Hillis, een software architect,
11:05
is designingontwerpen a newnieuwe systemsysteem
calledriep The UnderlayOndervloer,
232
653564
2381
ontwerpt een nieuw systeem
genaamd The Underlay,
wat een geheugen zal zijn
van elke openbare verklaring van feiten,
11:07
whichwelke will be a recordrecord
of all publicopenbaar statementsstatements of factfeit
233
655969
2775
11:10
connectedaangesloten to theirhun sourcesbronnen,
234
658768
1329
verbonden aan hun bronnen,
11:12
so that people and algorithmsalgoritmen
can better judgerechter what is crediblegeloofwaardig.
235
660121
3654
zodat mensen en algoritmes beter
kunnen oordelen over wat geloofwaardig is.
11:16
And educatorsopvoeders around the worldwereld-
are testingtesting differentverschillend techniquestechnieken
236
664800
3356
En opvoeders wereldwijd
testen verschillende technieken
11:20
for findingbevinding waysmanieren to make people
criticalkritisch of the contentinhoud they consumeconsumeren.
237
668180
3484
om mensen kritisch te laten kijken
naar de informatie die ze opnemen.
11:24
All of these effortsinspanningen are wonderfulprachtig,
but they're workingwerkend in silossilo's,
238
672633
3141
Al deze inspanningen zijn fantastisch,
maar ze werken afgezonderd
11:27
and manyveel of them are woefullyjammerlijk underfundedondergefinancierd.
239
675798
2680
en vele krijgen
pijnlijk weinig financiering.
11:30
There are alsoook hundredshonderden
of very smartslim people
240
678502
2053
Er zijn ook honderden erg slimme mensen
11:32
workingwerkend insidebinnen these companiesbedrijven,
241
680579
1652
die in deze bedrijven werken,
11:34
but again, these effortsinspanningen
can feel disjointedOnsamenhangende,
242
682255
2325
maar deze inspanningen
kunnen ontwricht voelen,
11:36
because they're actuallywerkelijk developingontwikkelen
differentverschillend solutionsoplossingen to the samedezelfde problemsproblemen.
243
684604
3937
omdat ze verschillende oplossingen
ontwikkelen voor dezelfde problemen.
11:41
How can we find a way
to bringbrengen people togethersamen
244
689205
2269
Hoe zouden we mensen kunnen samenbrengen
11:43
in one physicalfysiek locationplaats
for daysdagen or weeksweken at a time,
245
691498
3278
op één fysieke locatie
voor dagen of weken na elkaar,
11:46
so they can actuallywerkelijk tackleaanpakken
these problemsproblemen togethersamen
246
694800
2396
zodat ze deze problemen
samen kunnen aanpakken
11:49
but from theirhun differentverschillend perspectivesvooruitzichten?
247
697220
1818
maar vanuit hun eigen perspectieven?
11:51
So can we do this?
248
699062
1340
Kunnen we dit?
11:52
Can we buildbouwen out a coordinatedgecoördineerd,
ambitiousambitieuze responseantwoord,
249
700426
3239
Kunnen we een gecoördineerde,
ambitieuze oplossing opzetten
11:55
one that matcheswedstrijden the scaleschaal
and the complexityingewikkeldheid of the problemprobleem?
250
703689
3709
van dezelfde schaal en complexiteit
als het probleem zelf?
11:59
I really think we can.
251
707819
1373
Ik denk echt dat het kan.
12:01
TogetherSamen, let's rebuildherbouwen
our informationinformatie commonsburgerij.
252
709216
2959
Laten we samen onze publieke
bronnen heropbouwen.
12:04
Thank you.
253
712819
1190
Dankjewel.
12:06
(ApplauseApplaus)
254
714033
3728
(Applaus)
Translated by Kelly Brosens

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com