ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Como podemos ajudar a transformar a Internet num lugar de confiança

Filmed:
1,319,606 views

Como podemos deixar de disseminar conteúdos enganadores e, às vezes, perigosos, enquanto mantemos uma Internet com liberdade de expressão no seu centro? A especialista em Desinformação, Claire Wardle, explora os novos desafios do nosso poluído ambiente "online" e traça um plano para transformar a Internet num lugar de confiança — com a ajuda dos utilizadores do dia a dia. "Juntos, vamos reconstruir as nossas informações comuns." diz ela.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterimportam who you are or where you liveviver,
0
1548
2516
Quem quer que sejam
ou onde quer que morem,
00:16
I'm guessingSupondo que that you have
at leastpelo menos one relativerelativo
1
4088
2356
aposto que vocês têm,
pelo menos um parente
00:18
that likesgosta to forwardprogressivo those emailse-mails.
2
6468
2334
que gosta de encaminhar aqueles "e-mails"
— vocês sabem de quais estou a falar —
00:21
You know the onesuns I'm talkingfalando about --
3
9206
1900
aqueles com afirmações duvidosas
ou vídeos sobre conspirações.
00:23
the onesuns with dubiousduvidosa claimsreivindicações
or conspiracyconspiração videosvídeos.
4
11130
2854
00:26
And you've probablyprovavelmente
already mutedsilenciado them on FacebookFacebook
5
14315
2668
Vocês provavelmente
já os calaram no Facebook,
00:29
for sharingcompartilhando socialsocial postsmensagens like this one.
6
17007
2348
por partilharem "posts" sociais como este:
É a imagem de uma banana
00:31
It's an imageimagem of a bananabanana
7
19379
1404
00:32
with a strangeestranho redvermelho crossCruz
runningcorrida throughatravés the centercentro.
8
20807
2667
com uma estranha cruz vermelha
passando pelo centro.
00:35
And the texttexto around it is warningAtenção people
9
23498
2139
O texto está a avisar as pessoas
00:37
not to eatcomer fruitsfrutas that look like this,
10
25661
2158
para não comerem frutas
parecidas com aquela,
00:39
suggestingsugerindo they'veeles têm been
injectedinjetado with bloodsangue
11
27843
2028
sugerindo que lhes injetaram sangue
00:41
contaminatedcontaminado with the HIVHIV virusvírus.
12
29895
2130
contaminado com VIH.
00:44
And the socialsocial sharecompartilhar messagemensagem
aboveacima it simplysimplesmente saysdiz,
13
32049
2603
A mensagem, por cima, diz simplesmente:
00:46
"Please forwardprogressivo to saveSalve  livesvidas."
14
34676
2181
"Por favor, encaminhe para salvar vidas."
00:49
Now, fact-checkersverificadores de fatos have been debunkingdesmistificação
this one for yearsanos,
15
37672
3294
Os verificadores de factos
vêm desmistificando isto há anos.
00:52
but it's one of those rumorsrumores
that just won'tnão vai diemorrer.
16
40990
2809
Mas este é um daqueles rumores
que não morrem.
00:55
A zombieZombie rumorboato.
17
43823
1271
Um rumor sobre zombies.
00:57
And, of coursecurso, it's entirelyinteiramente falsefalso.
18
45513
2093
E, claro, é inteiramente falso.
01:00
It mightpoderia be temptingtentador to laughrir
at an exampleexemplo like this, to say,
19
48180
2959
Pode ser tentador rir de um exemplo
como este, e dizer:
01:03
"Well, who would believe this, anywayde qualquer forma?"
20
51163
1884
"Bom, afinal quem acredita nisto?"
01:05
But the reasonrazão it's a zombieZombie rumorboato
21
53419
1626
Mas é um rumor sobre zombies
01:07
is because it tapstorneiras into people'spovos
deepestmais profundo fearsmedos about theirdeles ownpróprio safetysegurança
22
55069
3889
que atinge o medo mais profundo
das pessoas, sobre a sua segurança
01:10
and that of the people they love.
23
58982
2175
e a das pessoas que amam.
01:13
And if you spendgastar as enoughsuficiente time
as I have looking at misinformationdesinformação,
24
61783
3273
Se vocês gastam tanto tempo como eu
a procurar informações falsas,
01:17
you know that this is just
one exampleexemplo of manymuitos
25
65080
2420
sabem que este é apenas
um exemplo entre muitos
01:19
that tapstorneiras into people'spovos deepestmais profundo
fearsmedos and vulnerabilitiesvulnerabilidades.
26
67524
3047
que atingem o medo mais profundo
e a vulnerabilidade das pessoas.
01:23
EveryCada day, acrossatravés the worldmundo,
we see scorespontuações of newNovo memesmemes on InstagramInstagram
27
71214
4369
Todos os dias, no mundo inteiro,
vemos novos memes no Instagram,
01:27
encouragingencorajando parentsparentes
not to vaccinatevacinar theirdeles childrencrianças.
28
75607
3039
a encorajar os pais
a não vacinarem os filhos.
01:30
We see newNovo videosvídeos on YouTubeYouTube
explainingexplicando that climateclima changemudança is a hoaxengano.
29
78670
4532
Vemos novos vídeos no YouTube a explicar
que a alteração climática é uma fraude.
01:35
And acrossatravés all platformsplataformas, we see
endlesssem fim postsmensagens designedprojetado to demonizedemonizar othersoutras
30
83226
4302
Em todas as plataformas,
vemos inúmeros "posts"
concebidos para demonizar outras pessoas
01:39
on the basisbase of theirdeles racecorrida,
religionreligião or sexualitysexualidade.
31
87552
3501
segundo a sua etnia, a sua religião
ou a sua sexualidade.
01:44
WelcomeBem-vindo to one of the centralcentral
challengesdesafios of our time.
32
92314
3030
Bem-vindos a um dos problemas
centrais do nosso tempo.
01:47
How can we maintainmanter an internetInternet
with freedomliberdade of expressionexpressão at the coretestemunho,
33
95647
4025
Como conseguiremos manter
uma Internet com liberdade de expressão
01:51
while alsoAlém disso ensuringgarantindo that the contentconteúdo
that's beingser disseminateddisseminado
34
99696
3303
enquanto também asseguramos
que o conteúdo disseminado
01:55
doesn't causecausa irreparableIrreparáveis harmsprejudica a
to our democraciesdemocracias, our communitiescomunidades
35
103023
3886
não cause irreversíveis danos nas nossas
democracias, nas nossas comunidades
01:58
and to our physicalfisica and mentalmental well-beingbem-estar?
36
106933
2238
e no nosso bem-estar físico e mental?
02:01
Because we liveviver in the informationem formação ageera,
37
109998
2087
Porque vivemos na era da informação,
02:04
yetainda the centralcentral currencymoeda
uponsobre whichqual we all dependdepender -- informationem formação --
38
112109
3547
Porém, a moeda central de que
todos dependemos — a informação —
02:07
is no longermais longo deemedconsiderado entirelyinteiramente trustworthydigno de confiança
39
115680
2357
já não é considerada totalmente fiável.
02:10
and, at timesvezes, can appearaparecer
downrightextremoso dangerousperigoso.
40
118061
2328
E, às vezes, pode ser
francamente perigosa.
Isto é graças, em parte, ao crescimento
das plataformas de partilha social
02:12
This is thanksobrigado in partparte to the runawayfugir
growthcrescimento of socialsocial sharingcompartilhando platformsplataformas
41
120811
3937
02:16
that allowpermitir us to scrollrolagem throughatravés,
42
124772
1642
que podemos percorrer,
02:18
where liesmentiras and factsfatos sitsentar sidelado by sidelado,
43
126438
2222
onde mentiras e factos estão lado a lado,
02:20
but with noneNenhum of the traditionaltradicional
signalssinais of trustworthinessconfiabilidade.
44
128684
3071
mas sem nenhum dos tradicionais
sinais de credibilidade.
02:24
And goodnessbondade -- our languagelíngua around this
is horriblyhorrivelmente muddledatrapalhados.
45
132268
3619
E bem... a nossa linguagem em volta disto
é horrivelmente confusa.
02:27
People are still obsessedobcecado
with the phrasefrase "fakefalso newsnotícia,"
46
135911
3103
As pessoas continuam obcecadas
pela expressão "fake news",
02:31
despiteapesar de the factfacto that
it's extraordinarilyextraordinariamente unhelpfulinútil
47
139038
2531
apesar do facto de ela ser
extraordinariamente inútil
02:33
and used to describedescrever a numbernúmero of things
that are actuallyna realidade very differentdiferente:
48
141593
3460
e de ser usada para descrever
coisas que são muito diferentes:
02:37
liesmentiras, rumorsrumores, hoaxesenganações,
conspiraciesconspirações, propagandapropaganda.
49
145077
3386
Mentiras, boatos, fraudes,
conspirações, propaganda.
02:40
And I really wishdesejo
we could stop usingusando a phrasefrase
50
148911
2912
Eu espero que nós possamos
deixar de usar uma expressão
02:43
that's been co-optedcooptado by politicianspolíticos
right around the worldmundo,
51
151847
2862
que foi adotada por políticos
do mundo inteiro,
02:46
from the left and the right,
52
154733
1471
da esquerda até à direita,
02:48
used as a weaponarma to attackataque
a freelivre and independentindependente presspressione.
53
156228
3222
tem sido usada como arma para atacar
uma imprensa livre e independente,
02:52
(ApplauseAplausos)
54
160307
4702
(Aplausos)
02:57
Because we need our professionalprofissional
newsnotícia mediameios de comunicação now more than ever.
55
165033
3462
Precisamos dos "media" profissionais
agora mais do que nunca.
Além disso, na maioria, estes conteúdos
nem vêm mascarados como notícias.
03:00
And besidesalém de, mosta maioria of this contentconteúdo
doesn't even masqueradebaile de máscaras as newsnotícia.
56
168882
3373
03:04
It's memesmemes, videosvídeos, socialsocial postsmensagens.
57
172279
2642
São memes, vídeos, "posts" sociais.
03:06
And mosta maioria of it is not fakefalso;
it's misleadingenganosa.
58
174945
3453
A maioria deles não são falsos,
são enganadores.
Nós tendemos a fixar-nos
no que é verdadeiro ou falso.
03:10
We tendtende to fixatese fixam on what's trueverdade or falsefalso.
59
178422
3015
03:13
But the biggestmaior concernpreocupação is actuallyna realidade
the weaponizationcandidata of contextcontexto.
60
181461
4032
Mas a maior preocupação
é fazer do contexto uma arma.
03:18
Because the mosta maioria effectiveeficaz disinformationdesinformação
61
186855
1968
Porque a desinformação mais eficaz
03:20
has always been that
whichqual has a kernelkernel of truthverdade to it.
62
188847
3048
sempre foi aquela que contém
uma parte de verdade.
03:23
Let's take this exampleexemplo
from LondonLondres, from MarchMarço de 2017,
63
191919
3476
Vamos ver este exemplo, de Londres,
de março de 2017.
03:27
a tweetTweet that circulatedcirculou widelyamplamente
64
195419
1540
Um "tweet" que circulou amplamente
03:28
in the aftermathrescaldo of a terroristterrorista incidentincidente
on WestminsterWestminster BridgePonte.
65
196983
3587
na sequência de um incidente
terrorista na ponte de Westminster.
03:32
This is a genuinegenuíno imageimagem, not fakefalso.
66
200594
2428
Esta é uma imagem real, não é falsa.
03:35
The womanmulher who appearsaparece in the photographfotografia
was interviewedentrevistado afterwardsdepois,
67
203046
3169
A mulher que aparece na fotografia
foi entrevistada depois
03:38
and she explainedexplicado that
she was utterlycompletamente traumatizedtraumatizado.
68
206239
2409
e explicou que estava totalmente
traumatizada.
Estava a falar ao telemóvel
com um ente querido
03:40
She was on the phonetelefone to a lovedAmado one,
69
208672
1738
03:42
and she wasn'tnão foi looking
at the victimvítima out of respectrespeito.
70
210434
2618
e não estava a olhar
para a vítima, por respeito.
03:45
But it still was circulatedcirculou widelyamplamente
with this IslamophobicIslamofóbico framingenquadramento,
71
213076
3960
Mesmo assim, circulou amplamente
retratado como islamofobia,
03:49
with multiplemúltiplo hashtagshashtags,
includingIncluindo: #BanIslamBanIslam BanIslam.
72
217060
3046
com múltiplas "hashtags",
incluindo: #BanIslam.
Se vocês trabalhassem no Twitter,
o que é que fariam?
03:52
Now, if you workedtrabalhou at TwitterTwitter,
what would you do?
73
220425
2398
03:54
Would you take that down,
or would you leavesair it up?
74
222847
2562
Eliminavam-no ou deixavam-no?
03:58
My gutintestino reactionreação, my emotionalemocional reactionreação,
is to take this down.
75
226553
3429
A minha reação intuitiva,
emocional, é eliminar.
04:02
I hateódio the framingenquadramento of this imageimagem.
76
230006
2142
Odeio o enquadramento desta imagem.
Mas a liberdade de expressão
é um direito dos homens,
04:04
But freedomliberdade of expressionexpressão
is a humanhumano right,
77
232585
2388
04:06
and if we startcomeçar takinglevando down speechdiscurso
that makesfaz com que us feel uncomfortabledesconfortável,
78
234997
3225
E se começarmos a eliminar discursos
que nos deixam desconfortáveis,
04:10
we're in troubleproblema.
79
238246
1230
vamos arranjar problemas.
04:11
And this mightpoderia look like a clear-cutclaro casecaso,
80
239500
2294
Este pode parecer um caso claro,
04:13
but, actuallyna realidade, mosta maioria speechdiscurso isn't.
81
241818
1698
mas a maioria não é assim.
04:15
These lineslinhas are incrediblyincrivelmente
difficultdifícil to drawdesenhar.
82
243540
2436
Estas linhas são extremamente
difíceis de traçar.
04:18
What's a well-meaningbem-intencionado
decisiondecisão by one personpessoa
83
246000
2281
O que é uma decisão
bem intencionada de uma pessoa
04:20
is outrightsem rodeios censorshipcensura to the nextPróximo.
84
248305
2077
é pura censura para outra.
04:22
What we now know is that
this accountconta, TexasTexas LoneSolitário StarEstrela,
85
250759
2929
Sabemos agora que esta conta,
Texas Lone Star,
04:25
was partparte of a widermais largo RussianRusso
disinformationdesinformação campaigncampanha,
86
253712
3230
fez parte de uma ampla campanha
de desinformação russa,
04:28
one that has sinceDesde a been takenocupado down.
87
256966
2151
uma que, a partir daí, foi eliminada.
04:31
Would that changemudança your viewVisão?
88
259141
1563
Isso mudaria a vossa opinião?
04:33
It would minemeu,
89
261322
1159
Mudou a minha,
04:34
because now it's a casecaso
of a coordinatedcoordenado campaigncampanha
90
262505
2301
Porque agora é um caso
de uma campanha coordenada
04:36
to sowporca discorddiscórdia.
91
264830
1215
para semear a discórdia.
04:38
And for those of you who'dquem iria like to think
92
266069
1961
Para quem goste de pensar
que a inteligência artificial
vai resolver os nossos problemas,
04:40
that artificialartificial intelligenceinteligência
will solveresolver all of our problemsproblemas,
93
268054
2831
eu acho que podemos concordar
que estamos muito longe
04:42
I think we can agreeaceita
that we're a long way away
94
270909
2225
04:45
from AIAI that's ablecapaz to make sensesentido
of postsmensagens like this.
95
273158
2587
de uma IA que consiga
interpretar "posts" como este.
04:48
So I'd like to explainexplicar
threetrês interlockingbloqueio issuesproblemas
96
276856
2507
Gostava de explicar
três problemas interligados
04:51
that make this so complexcomplexo
97
279387
2373
que tornam isto muito complexo
04:53
and then think about some waysmaneiras
we can considerconsiderar these challengesdesafios.
98
281784
3122
e depois pensar nalgumas formas
de considerar esses problemas.
04:57
First, we just don't have
a rationalracional relationshiprelação to informationem formação,
99
285348
3890
Primeiro, não temos
uma relação racional com a informação,
05:01
we have an emotionalemocional one.
100
289262
1468
temos uma relação emocional.
05:02
It's just not trueverdade that more factsfatos
will make everything OK,
101
290754
3794
Não é verdade que mais factos
façam tudo ficar Ok,
05:06
because the algorithmsalgoritmos that determinedeterminar
what contentconteúdo we see,
102
294572
3100
porque os algoritmos que determinam
os conteúdos que vemos
05:09
well, they're designedprojetado to rewardrecompensa
our emotionalemocional responsesrespostas.
103
297696
3127
são concebidos para recompensar
as nossas reações emocionais.
05:12
And when we're fearfulcom medo,
104
300847
1381
Quando estamos com medo,
05:14
oversimplifiedsimplificada narrativesnarrativas,
conspiratorialconspiratória explanationsexplicações
105
302252
3174
as narrativas simplificadas,
as explicações conspiratórias
05:17
and languagelíngua that demonizesDemoniza othersoutras
is farlonge more effectiveeficaz.
106
305450
3418
e uma linguagem que demoniza
outras pessoas são muito mais eficazes.
05:21
And besidesalém de, manymuitos of these companiesempresas,
107
309538
1874
Além disso, em muitas destas empresas,
05:23
theirdeles businesso negócio modelmodelo
is attachedem anexo to attentionatenção,
108
311436
2546
os modelos de negócios
estão ligados à atenção.
05:26
whichqual meanssignifica these algorithmsalgoritmos
will always be skewedenviesada towardsem direção emotionemoção.
109
314006
3690
Ou seja, estes algoritmos
serão sempre virados para as emoções.
05:30
SecondSegundo, mosta maioria of the speechdiscurso
I'm talkingfalando about here is legallegal.
110
318371
4298
Segundo, a maioria dos discursos
de que estou a falar, é legal.
05:35
It would be a differentdiferente matterimportam
111
323081
1446
Seria uma questão diferente
se falasse de imagens
de abuso sexual infantil
05:36
if I was talkingfalando about
childcriança sexualsexual abuseAbuso imageryimagens
112
324551
2341
ou de conteúdos que incitam à violência.
05:38
or contentconteúdo that incitesincita violenceviolência.
113
326916
1927
05:40
It can be perfectlyperfeitamente legallegal
to postpostar an outrightsem rodeios liementira.
114
328867
3270
É perfeitamente legal publicar
uma mentira descarada.
05:45
But people keep talkingfalando about takinglevando down
"problematicproblemático" or "harmfulprejudicial" contentconteúdo,
115
333130
4034
Mas continuamos a falar de eliminar
conteúdos problemáticos ou prejudiciais,
sem uma clara definição
do que queremos dizer com isso,
05:49
but with no clearClaro definitiondefinição
of what they mean by that,
116
337188
2609
05:51
includingIncluindo MarkMark ZuckerbergZuckerberg,
117
339821
1264
incluindo Mark Zuckerberg
05:53
who recentlyrecentemente calledchamado for globalglobal
regulationregulamento to moderatemoderado speechdiscurso.
118
341109
3412
que pediu uma regulamentação
mundial para moderar o discurso.
05:56
And my concernpreocupação is that
we're seeingvendo governmentsgovernos
119
344870
2215
A minha preocupação é que vemos governos
05:59
right around the worldmundo
120
347109
1292
pelo mundo inteiro
06:00
rollingrolando out hastyprecipitada policypolítica decisionsdecisões
121
348425
2676
a tomar decisões políticas precipitadas
06:03
that mightpoderia actuallyna realidade triggerdesencadear
much more seriousgrave consequencesconsequências
122
351125
2746
que podem desencadear
consequências muito mais graves
06:05
when it comesvem to our speechdiscurso.
123
353895
1714
quando se trata do nosso discurso.
06:08
And even if we could decidedecidir
whichqual speechdiscurso to take up or take down,
124
356006
3706
E mesmo que pudéssemos decidir
qual o discurso a manter ou a eliminar,
06:11
we'venós temos never had so much speechdiscurso.
125
359736
2174
nunca tivemos tantos discursos.
06:13
EveryCada secondsegundo, millionsmilhões
of piecespeças of contentconteúdo
126
361934
2131
A cada segundo, milhões
de peças de conteúdos
06:16
are uploadedcarregado by people
right around the worldmundo
127
364089
2107
são descarregadas no mundo inteiro,
em idiomas diferentes,
06:18
in differentdiferente languageslínguas,
128
366220
1168
com milhares de diferentes
contextos culturais.
06:19
drawingdesenhando on thousandsmilhares
of differentdiferente culturalcultural contextscontextos de.
129
367412
2768
06:22
We'veTemos simplysimplesmente never had
effectiveeficaz mechanismsmecanismos
130
370204
2532
Nós nunca tivemos
mecanismos eficazes
06:24
to moderatemoderado speechdiscurso at this scaleescala,
131
372760
1738
para moderar discursos a esta escala,
06:26
whetherse poweredalimentado by humanshumanos
or by technologytecnologia.
132
374522
2801
sejam feitos por seres humanos
ou por tecnologia.
06:30
And thirdterceiro, these companiesempresas --
GoogleGoogle, TwitterTwitter, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
E terceiro, essas empresas — a Google,
o Twitter, o Facebook, o Whatsapp —
06:34
they're partparte of a widermais largo
informationem formação ecosystemecossistema.
134
382252
2841
fazem parte de um ecossistema
mais amplo de informações.
06:37
We like to laydeitar all the blameculpa
at theirdeles feetpés, but the truthverdade is,
135
385117
3352
Nós gostamos de lhes atribuir
todas as culpas,
mas os "media" de massas
e os funcionários eleitos
06:40
the massmassa mediameios de comunicação and electedeleito officialsfuncionários
can alsoAlém disso playToque an equaligual roleFunção
136
388493
3830
também ampliam rumores
e conspirações, quando querem.
06:44
in amplifyingamplificando rumorsrumores and conspiraciesconspirações
when they want to.
137
392347
2913
Tal como nós, quando encaminhamos,
sem pensar,
06:47
As can we, when we mindlesslysem pensar forwardprogressivo
divisivedivisionista or misleadingenganosa contentconteúdo
138
395800
4944
conteúdos facciosos ou enganadores,
06:52
withoutsem tryingtentando.
139
400768
1285
sem os testarmos.
06:54
We're addingadicionando to the pollutionpoluição.
140
402077
1800
Estamos a contribuir para a poluição.
06:57
I know we're all looking for an easyfácil fixconsertar.
141
405236
2618
Eu sei que todos procuramos
um remédio fácil.
Mas não há nenhum.
06:59
But there just isn't one.
142
407878
1667
07:01
Any solutionsolução will have to be rolledrolou out
at a massivemaciço scaleescala, internetInternet scaleescala,
143
409950
4445
Qualquer solução terá de ser desenvolvida
a uma escala enorme, à escala da Internet,
07:06
and yes, the platformsplataformas,
they're used to operatingoperativo at that levelnível.
144
414419
3261
E sim, as plataformas estão acostumadas
a trabalhar a esse nível.
07:09
But can and should we allowpermitir them
to fixconsertar these problemsproblemas?
145
417704
3472
Mas podemos ou devemos deixar
que elas resolvam estes problemas?
07:13
They're certainlyCertamente tryingtentando.
146
421668
1232
Certamente estão a tentar
07:14
But mosta maioria of us would agreeaceita that, actuallyna realidade,
we don't want globalglobal corporationscorporações
147
422924
4086
mas muitos de nós concordará
que não queremos empresas globais
que sejam guardiãs
da verdade e da justiça "online".
07:19
to be the guardiansGuardiões of truthverdade
and fairnessJustiça onlineconectados.
148
427034
2332
07:21
And I alsoAlém disso think the platformsplataformas
would agreeaceita with that.
149
429390
2537
Também acho que as plataformas
concordarão com isso.
07:24
And at the momentmomento,
they're markingmarcação theirdeles ownpróprio homeworkdever de casa.
150
432257
2881
Neste momento, elas estão
a fazer o seu trabalho.
07:27
They like to tell us
151
435162
1198
Elas gostam de nos dizer
07:28
that the interventionsintervenções
they're rollingrolando out are workingtrabalhando,
152
436384
2579
que as intervenções que implementam,
estão a funcionar
07:30
but because they writeEscreva
theirdeles ownpróprio transparencytransparência reportsrelatórios,
153
438987
2540
mas, como são eles que escrevem
os seus relatórios,
não há maneira de verificarmos,
independentemente, o que acontece.
07:33
there's no way for us to independentlyindependentemente
verifyverificar what's actuallyna realidade happeningacontecendo.
154
441551
3618
07:38
(ApplauseAplausos)
155
446431
3342
(Aplausos)
07:41
And let's alsoAlém disso be clearClaro
that mosta maioria of the changesalterar we see
156
449797
2952
E sejamos claros, a maioria
das mudanças que vemos
07:44
only happenacontecer after journalistsjornalistas
undertakecomprometer-se an investigationinvestigação
157
452773
2994
somente acontece depois
de os jornalistas investigarem
e encontrarem provas de preconceitos
07:47
and find evidenceevidência of biasviés
158
455791
1611
07:49
or contentconteúdo that breaksrompe
theirdeles communitycomunidade guidelinesdiretrizes.
159
457426
2829
ou conteúdos que violam
as orientações da comunidade.
07:52
So yes, these companiesempresas have to playToque
a really importantimportante roleFunção in this processprocesso,
160
460815
4595
Estas empresas têm de desempenhar
um papel importante neste processo
07:57
but they can't controlao controle it.
161
465434
1560
mas não podem controlá-lo.
07:59
So what about governmentsgovernos?
162
467855
1518
Então e os governos?
Muitos acreditam que a regulamentação
global é a nossa última esperança
08:01
ManyMuitos people believe
that globalglobal regulationregulamento is our last hopeesperança
163
469863
3096
08:04
in termstermos of cleaninglimpeza up
our informationem formação ecosystemecossistema.
164
472983
2880
em termos de limpar o nosso
ecossistema de informações.
08:07
But what I see are lawmakerslegisladores
who are strugglinglutando to keep up to dateencontro
165
475887
3166
Mas só vejo legisladores
a lutar para se manterem atualizados
08:11
with the rapidrápido changesalterar in technologytecnologia.
166
479077
2341
com as rápidas mudanças na tecnologia.
08:13
And worsepior, they're workingtrabalhando in the darkSombrio,
167
481442
1904
E pior, estão a trabalhar no escuro,
08:15
because they don't have accessAcesso to datadados
168
483370
1821
porque não têm acesso aos dados
08:17
to understandCompreendo what's happeningacontecendo
on these platformsplataformas.
169
485215
2650
para perceberem o que está a acontecer
nessas plataformas.
08:20
And anywayde qualquer forma, whichqual governmentsgovernos
would we trustConfiar em to do this?
170
488260
3071
De qualquer modo, em que governos
confiaríamos para fazer isso?
08:23
We need a globalglobal responseresposta,
not a nationalnacional one.
171
491355
2770
Precisamos de uma resposta mundial,
não uma resposta nacional.
08:27
So the missingausência de linkligação is us.
172
495419
2277
Portanto, a ligação em falta somos nós.
08:29
It's those people who use
these technologiestecnologias everycada day.
173
497720
3123
são as pessoas que usam as tecnologias
todos os dias.
08:33
Can we designdesenhar a newNovo infrastructurea infraestrutura
to supportApoio, suporte qualityqualidade informationem formação?
174
501260
4591
Podemos conceber uma nova infraestrutura
para suportar informações de qualidade?
08:38
Well, I believe we can,
175
506371
1230
Eu acredito que sim
08:39
and I've got a fewpoucos ideasidéias about
what we mightpoderia be ablecapaz to actuallyna realidade do.
176
507625
3357
e tenho algumas ideias
sobre o que podemos fazer.
08:43
So firstlyprimeiramente, if we're seriousgrave
about bringingtrazendo the publicpúblico into this,
177
511006
3103
Primeiro, se quisermos mesmo
que o público participe nisto,
08:46
can we take some inspirationinspiração
from WikipediaWikipédia?
178
514133
2381
podemos tirar alguma inspiração
da Wikipedia?
08:48
They'veEles já shownmostrando us what's possiblepossível.
179
516538
1824
Eles mostraram-nos o que é possível.
08:50
Yes, it's not perfectperfeito,
180
518386
1151
Sim, não é perfeito,
08:51
but they'veeles têm demonstrateddemonstrado
that with the right structuresestruturas,
181
519561
2634
Mas demonstraram
que, com as estruturas certas,
com uma perspetiva global,
e muito mais transparência,
08:54
with a globalglobal outlookperspectiva
and lots and lots of transparencytransparência,
182
522219
2635
podemos construir algo
que ganhe a confiança da maioria.
08:56
you can buildconstruir something
that will earnGanhe the trustConfiar em of mosta maioria people.
183
524878
3096
08:59
Because we have to find a way
to taptoque into the collectivecoletivo wisdomsabedoria
184
527998
3162
Porque temos de achar uma forma
de explorar a sabedoria coletiva
09:03
and experienceexperiência of all usersComercial.
185
531184
2309
e a experiência de todos os utilizadores.
09:05
This is particularlyparticularmente the casecaso
for womenmulheres, people of colorcor
186
533517
2646
Isso é especialmente o caso
das mulheres,
das pessoas de cor,
dos grupos mal representados.
09:08
and underrepresentedsub-representado groupsgrupos.
187
536187
1346
09:09
Because guessacho what?
188
537557
1166
Sabem que mais?
09:10
They are expertsespecialistas when it comesvem
to hateódio and disinformationdesinformação,
189
538747
2735
Eles são especialistas quando
se fala de ódio e desinformação,
09:13
because they have been the targetsalvos
of these campaignscampanhas for so long.
190
541506
3516
porque têm sido o alvo
dessas campanhas há muito tempo.
09:17
And over the yearsanos,
they'veeles têm been raisingcriando flagsbandeiras,
191
545046
2350
Ao longo dos anos,
ergueram as suas bandeiras
09:19
and they haven'tnão tem been listenedOuvido to.
192
547420
1665
mas não têm sido escutados.
09:21
This has got to changemudança.
193
549109
1280
Isto tem de mudar.
09:22
So could we buildconstruir a WikipediaWikipédia for trustConfiar em?
194
550807
4326
Então podemos construir
uma Wikipedia para a confiança?
Haverá uma forma de os utilizadores
contribuírem com ideias?
09:27
Could we find a way that usersComercial
can actuallyna realidade provideprovidenciar insightsintuições?
195
555157
4189
Podem contribuir com ideias sobre difíceis
decisões para moderação de conteúdos.
09:31
They could offeroferta insightsintuições around
difficultdifícil content-moderationmoderação de conteúdo decisionsdecisões.
196
559370
3697
09:35
They could provideprovidenciar feedbackcomentários
197
563091
1463
Podem fornecer "feedback"
09:36
when platformsplataformas decidedecidir
they want to rolllista out newNovo changesalterar.
198
564578
3041
quando as plataformas decidirem
querer lançar novas mudanças.
09:40
SecondSegundo, people'spovos experiencesexperiências
with the informationem formação is personalizedpersonalizado.
199
568241
4162
Segundo, as experiências das pessoas
com a informação são personalizadas.
O meu "feed" de notícias do Facebook
é diferente do vosso.
09:44
My FacebookFacebook newsnotícia feedalimentação
is very differentdiferente to yoursSua.
200
572427
2643
09:47
Your YouTubeYouTube recommendationsrecomendações
are very differentdiferente to minemeu.
201
575094
2745
As vossas recomendações do YouTube
são diferentes das minhas.
09:49
That makesfaz com que it impossibleimpossível for us
to actuallyna realidade examineexaminar
202
577863
2492
Isso impossibilita-nos de examinar
09:52
what informationem formação people are seeingvendo.
203
580379
2023
que informações é que
as pessoas estão a ver.
09:54
So could we imagineImagine
204
582815
1389
Então, podemos imaginar
09:56
developingem desenvolvimento some kindtipo of centralizedcentralizado
openaberto repositoryrepositório for anonymizedanónimos datadados,
205
584228
4778
desenvolver algum tipo de repositório
aberto centralizado para dados anónimos,
10:01
with privacyprivacidade and ethicalético
concernspreocupações builtconstruído in?
206
589030
2864
com privacidade e preocupações éticas
nele incluídas?
10:04
Because imagineImagine what we would learnaprender
207
592220
1778
Porque imaginem o que aprenderíamos
10:06
if we builtconstruído out a globalglobal networkrede
of concernedpreocupado citizenscidadãos
208
594022
3261
se construíssemos uma rede global
de cidadãos preocupados
10:09
who wanted to donatedoar
theirdeles socialsocial datadados to scienceCiência.
209
597307
3294
que quisessem doar os seus dados
sociais para a ciência.
10:13
Because we actuallyna realidade know very little
210
601141
1722
Porque nós sabemos muito pouco
sobre as consequências a longo prazo
do ódio e da desinformação
10:14
about the long-termlongo prazo consequencesconsequências
of hateódio and disinformationdesinformação
211
602887
2881
10:17
on people'spovos attitudesatitudes and behaviorscomportamentos.
212
605792
1975
nas atitudes e comportamentos das pessoas.
E a maior parte do que sabemos,
10:20
And what we do know,
213
608236
1167
10:21
mosta maioria of that has been
carriedtransportado out in the US,
214
609427
2193
tem sido realizada nos EUA,
10:23
despiteapesar de the factfacto that
this is a globalglobal problemproblema.
215
611644
2381
apesar do facto de ser
um problema mundial.
10:26
We need to work on that, too.
216
614049
1635
Precisamos de trabalhar nisto também.
10:28
And thirdterceiro,
217
616192
1150
E terceiro, podemos achar
uma forma de juntar os pontos?
10:29
can we find a way to connectconectar the dotspontos?
218
617366
2310
10:31
No one sectorsetor, let alonesozinho nonprofitsem fins lucrativos,
start-upstart-up or governmentgoverno,
219
619700
3438
Nenhum setor, muito menos o não-lucrativo,
as "startups" ou os governos,
10:35
is going to solveresolver this.
220
623162
1422
vão solucionar isto.
10:36
But there are very smartinteligente people
right around the worldmundo
221
624608
2564
Mas há pessoas muito inteligentes
em todo o mundo
a trabalhar nestes problemas,
nas salas de imprensa,
10:39
workingtrabalhando on these challengesdesafios,
222
627196
1381
10:40
from newsroomsredações, civilCivil societysociedade,
academiaAcademia, activistativista groupsgrupos.
223
628601
3576
na sociedade civil, na academia,
em grupos de ativistas.
10:44
And you can see some of them here.
224
632201
1898
Podemos ver alguns deles aqui.
Alguns estão a criar indicadores
de credibilidade de conteúdos.
10:46
Some are buildingconstrução out indicatorsindicadores
of contentconteúdo credibilitycredibilidade.
225
634123
2927
10:49
OthersOutros are fact-checkingverificação de fatos,
226
637074
1246
Outros, verificam factos,
para retirar das plataformas
10:50
so that falsefalso claimsreivindicações, videosvídeos and imagesimagens
can be down-rankeddown-classificado by the platformsplataformas.
227
638344
3591
as afirmações, os vídeos
e as imagens falsas.
10:53
A nonprofitsem fins lucrativos I helpedajudou
to foundencontrado, First DraftProjecto,
228
641959
2213
A First Draft, uma organização
sem fins lucrativos,
10:56
is workingtrabalhando with normallynormalmente competitivecompetitivo
newsroomsredações around the worldmundo
229
644196
2968
está a trabalhar com redações
competitivas do mundo inteiro,
10:59
to help them buildconstruir out investigativeinvestigação,
collaborativecolaborativo programsprogramas.
230
647188
3503
para as ajudar a criar programas
investigativos e colaborativos.
11:03
And DannyDanny HillisHillis, a softwareProgramas architectarquiteto,
231
651231
2309
Danny Hills, uma arquiteta de "software"
está a conceber um novo sistema,
chamado The Underlay
11:05
is designingprojetando a newNovo systemsistema
calledchamado The UnderlaySubjacência,
232
653564
2381
11:07
whichqual will be a recordregistro
of all publicpúblico statementsafirmações of factfacto
233
655969
2775
que vai ser um registo
das declarações públicas de factos
relacionados com as suas fontes,
11:10
connectedconectado to theirdeles sourcesfontes,
234
658768
1329
11:12
so that people and algorithmsalgoritmos
can better judgejuiz what is crediblecredível.
235
660121
3654
para as pessoas e os algoritmos
avaliarem melhor o que é credível.
11:16
And educatorseducadores around the worldmundo
are testingtestando differentdiferente techniquestécnicas
236
664800
3356
Educadores do mundo inteiro
estão a testar diferentes técnicas
11:20
for findingencontrando waysmaneiras to make people
criticalcrítico of the contentconteúdo they consumeconsumir.
237
668180
3484
para encontrar maneiras
de ensinar as pessoas
a serem críticas
dos conteúdos que consomem.
11:24
All of these effortsesforços are wonderfulMaravilhoso,
but they're workingtrabalhando in silossilos,
238
672633
3141
Todos estes esforços são ótimos,
mas estão a trabalhar isoladamente.
11:27
and manymuitos of them are woefullyLamentavelmente underfundedmuitos recursos.
239
675798
2680
Muitos deles, infelizmente,
têm falta de fundos.
Também há centenas de pessoas
muito inteligentes
11:30
There are alsoAlém disso hundredscentenas
of very smartinteligente people
240
678502
2053
11:32
workingtrabalhando insidedentro these companiesempresas,
241
680579
1652
a trabalhar nestas empresas,
11:34
but again, these effortsesforços
can feel disjointeddesconexa,
242
682255
2325
mas, de novo, estes esforços
podem parecer desligados,
11:36
because they're actuallyna realidade developingem desenvolvimento
differentdiferente solutionssoluções to the samemesmo problemsproblemas.
243
684604
3937
pois estão a desenvolver diferentes
soluções para os mesmos problemas.
Como podemos achar uma forma
de reunir as pessoas
11:41
How can we find a way
to bringtrazer people togetherjuntos
244
689205
2269
11:43
in one physicalfisica locationlocalização
for daysdias or weekssemanas at a time,
245
691498
3278
num local físico, durante dias
ou semanas, ao mesmo tempo,
11:46
so they can actuallyna realidade tackleatacar
these problemsproblemas togetherjuntos
246
694800
2396
para eles poderem abordar
estes problemas juntos
mas segundo as suas diferentes
perspetivas?
11:49
but from theirdeles differentdiferente perspectivesperspectivas?
247
697220
1818
11:51
So can we do this?
248
699062
1340
Então, podemos fazer isto?
11:52
Can we buildconstruir out a coordinatedcoordenado,
ambitiousambicioso responseresposta,
249
700426
3239
Podemos construir uma resposta
coordenada e ambiciosa?
11:55
one that matchescorresponde a the scaleescala
and the complexitycomplexidade of the problemproblema?
250
703689
3709
Uma resposta que iguale a escala
e a complexidade do problema?
11:59
I really think we can.
251
707819
1373
Acho que podemos.
12:01
TogetherJuntos, let's rebuildreconstruir
our informationem formação commonsbens comuns.
252
709216
2959
Juntos, vamos reconstruir
as nossas informações comuns.
12:04
Thank you.
253
712819
1190
Obrigada.
12:06
(ApplauseAplausos)
254
714033
3728
(Aplausos)
Translated by Shoji Ohashi
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com