ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Como você pode ajudar a transformar a Internet em um lugar confiável

Filmed:
1,319,606 views

Como podemos acabar com a disseminação de conteúdo enganoso, eventualmente perigoso, enquanto mantemos uma Internet com a liberdade de expressão em foco? A especialista em desinformação Claire Wardle explora o novo desafio do nosso ambiente on-line poluído e mapeia um plano para transformar a Internet em um lugar confiável, com a ajuda dos usuários comuns. "Juntos vamos reconstruir nosso acervo de informações", diz ela.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matter who you are or where you live,
0
1548
2516
Não importa quem seja ou onde more,
00:16
I'm guessing that you have
at least one relative
1
4088
2356
eu chutaria que você tem
pelo menos um parente
00:18
that likes to forward those emails.
2
6468
2334
que gosta de encaminhar aqueles e-mails.
00:21
You know the ones I'm talking about --
3
9206
1900
Sabem do que estou falando,
aqueles com alegações duvidosas
ou vídeos conspiratórios.
00:23
the ones with dubious claims
or conspiracy videos.
4
11130
2854
00:26
And you've probably
already muted them on Facebook
5
14315
2668
E vocês provavelmente já
não os seguem mais no Facebook
00:29
for sharing social posts like this one.
6
17007
2348
por compartilhar publicações como esta.
00:31
It's an image of a banana
7
19379
1404
É uma imagem de uma banana
00:32
with a strange red cross
running through the center.
8
20807
2667
com uma estranha cruz vermelha
passando pelo centro.
00:35
And the text around it is warning people
9
23498
2139
E o texto advertindo as pessoas
a não comerem frutas
que tenham essa aparência,
00:37
not to eat fruits that look like this,
10
25661
2158
sugerindo que foram injetadas
00:39
suggesting they've been
injected with blood
11
27843
2028
com sangue contaminado com HIV.
00:41
contaminated with the HIV virus.
12
29895
2130
00:44
And the social share message
above it simply says,
13
32049
2603
E a mensagem compartilhada só diz:
00:46
"Please forward to save lives."
14
34676
2181
"Compartilhe para salvar vidas."
00:49
Now, fact-checkers have been debunking
this one for years,
15
37672
3294
Verificadores de fatos
já desmentem essa há anos,
00:52
but it's one of those rumors
that just won't die.
16
40990
2809
mas é um daqueles boatos
que simplesmente não acabam.
00:55
A zombie rumor.
17
43823
1271
Um boato zumbi.
00:57
And, of course, it's entirely false.
18
45513
2093
E, óbvio, é completamente falso.
01:00
It might be tempting to laugh
at an example like this, to say,
19
48180
2959
Pode ser tentador rir
de um exemplo desses,
dizer: "Bem, quem acreditaria nisso?"
01:03
"Well, who would believe this, anyway?"
20
51163
1884
Mas a razão para ser um boato zumbi
01:05
But the reason it's a zombie rumor
21
53419
1626
é que explora nossos medos
mais profundos sobre a própria segurança
01:07
is because it taps into people's
deepest fears about their own safety
22
55069
3889
e a das pessoas que amamos.
01:10
and that of the people they love.
23
58982
2175
01:13
And if you spend as enough time
as I have looking at misinformation,
24
61783
3273
E quando se passa tanto tempo
quanto eu vendo desinformação,
01:17
you know that this is just
one example of many
25
65080
2420
você sabe que esse
é só um exemplo de muitos
01:19
that taps into people's deepest
fears and vulnerabilities.
26
67524
3047
que exploram nossos medos
e vulnerabilidades mais profundos.
01:23
Every day, across the world,
we see scores of new memes on Instagram
27
71214
4369
Todo dia, ao redor do mundo,
vemos muitos novos memes no Instagram
01:27
encouraging parents
not to vaccinate their children.
28
75607
3039
incentivando os pais
a não vacinarem os filhos.
01:30
We see new videos on YouTube
explaining that climate change is a hoax.
29
78670
4532
Vemos novos vídeos no YouTube
explicando que a mudança
climática é uma farsa.
01:35
And across all platforms, we see
endless posts designed to demonize others
30
83226
4302
E em todas as plataformas,
vemos inúmeras publicações
feitas para demonizar pessoas
baseado em raça, religião ou sexualidade.
01:39
on the basis of their race,
religion or sexuality.
31
87552
3501
01:44
Welcome to one of the central
challenges of our time.
32
92314
3030
Bem-vindos a um dos principais
desafios do nosso tempo.
01:47
How can we maintain an internet
with freedom of expression at the core,
33
95647
4025
Como podemos manter uma Internet
com liberdade de expressão em foco,
01:51
while also ensuring that the content
that's being disseminated
34
99696
3303
e ao mesmo tempo garantir
que o conteúdo sendo disseminado
01:55
doesn't cause irreparable harms
to our democracies, our communities
35
103023
3886
não cause danos irreparáveis
às nossas democracias, comunidades
01:58
and to our physical and mental well-being?
36
106933
2238
e nosso bem-estar físico e mental?
02:01
Because we live in the information age,
37
109998
2087
Porque vivemos na era da informação,
02:04
yet the central currency
upon which we all depend -- information --
38
112109
3547
porém, a moeda central de que
todos dependemos, informação,
02:07
is no longer deemed entirely trustworthy
39
115680
2357
já não é mais considerada
totalmente confiável
02:10
and, at times, can appear
downright dangerous.
40
118061
2328
e às vezes pode parecer
completamente perigosa.
Isso se dá em parte graças
02:12
This is thanks in part to the runaway
growth of social sharing platforms
41
120811
3937
ao crescimento desenfreado
de plataformas de compartilhamento
02:16
that allow us to scroll through,
42
124772
1642
que nos permitem ir rolando,
02:18
where lies and facts sit side by side,
43
126438
2222
onde mentiras e fatos estão lado a lado,
02:20
but with none of the traditional
signals of trustworthiness.
44
128684
3071
mas sem nenhum dos sinais
tradicionais de credibilidade.
02:24
And goodness -- our language around this
is horribly muddled.
45
132268
3619
E puxa vida! Nossa linguagem disso
é horrivelmente atrapalhada.
02:27
People are still obsessed
with the phrase "fake news,"
46
135911
3103
As pessoas ainda estão obcecadas
com o termo "fake news",
02:31
despite the fact that
it's extraordinarily unhelpful
47
139038
2531
apesar do fato de ser
extremamente desnecessário
02:33
and used to describe a number of things
that are actually very different:
48
141593
3460
e usado para descrever muitas coisas
que são, na verdade, bem diferentes:
02:37
lies, rumors, hoaxes,
conspiracies, propaganda.
49
145077
3386
mentiras, boatos, farsas,
conspirações, campanhas.
02:40
And I really wish
we could stop using a phrase
50
148911
2912
Queria que parássemos de usar um termo
02:43
that's been co-opted by politicians
right around the world,
51
151847
2862
que foi adotado por políticos
de todo o mundo,
02:46
from the left and the right,
52
154733
1471
de esquerda e de direita,
02:48
used as a weapon to attack
a free and independent press.
53
156228
3222
usado como arma para atacar
uma imprensa livre e independente.
02:52
(Applause)
54
160307
4702
(Aplausos)
02:57
Because we need our professional
news media now more than ever.
55
165033
3462
Pois precisamos dos nossos
noticiários profissionais
agora mais do que nunca.
03:00
And besides, most of this content
doesn't even masquerade as news.
56
168882
3373
E além disso, a maioria desse conteúdo
nem disfarça ser notícia.
03:04
It's memes, videos, social posts.
57
172279
2642
São memes, vídeos, publicações.
03:06
And most of it is not fake;
it's misleading.
58
174945
3453
E a maior parte não é falsa; é enganosa.
03:10
We tend to fixate on what's true or false.
59
178422
3015
Temos a tendência de focar
o que é verdadeiro ou falso.
03:13
But the biggest concern is actually
the weaponization of context.
60
181461
4032
Mas a maior preocupação
é o contexto usado como arma.
03:18
Because the most effective disinformation
61
186855
1968
Porque a desinformação mais eficaz
sempre foi aquela que tem
uma pitada de verdade.
03:20
has always been that
which has a kernel of truth to it.
62
188847
3048
03:23
Let's take this example
from London, from March 2017,
63
191919
3476
Usemos esse exemplo de Londres,
de março de 2017,
03:27
a tweet that circulated widely
64
195419
1540
Um tuíte que circulou bastante
03:28
in the aftermath of a terrorist incident
on Westminster Bridge.
65
196983
3587
na sequência de um incidente terrorista
na Ponte de Westminster.
03:32
This is a genuine image, not fake.
66
200594
2428
Essa imagem é genuína, não falsa.
03:35
The woman who appears in the photograph
was interviewed afterwards,
67
203046
3169
A mulher que aparece na foto
foi entrevistada em seguida
e explicou que ficou
profundamente traumatizada.
03:38
and she explained that
she was utterly traumatized.
68
206239
2409
03:40
She was on the phone to a loved one,
69
208672
1738
Ela estava no telefone com um ente querido
03:42
and she wasn't looking
at the victim out of respect.
70
210434
2618
e não olhava para a vítima por respeito.
03:45
But it still was circulated widely
with this Islamophobic framing,
71
213076
3960
Mas ainda assim circulou abertamente
com um enquadramento islamofóbico,
03:49
with multiple hashtags,
including: #BanIslam.
72
217060
3046
com diversas hashtags,
incluindo: #BanIslam.
03:52
Now, if you worked at Twitter,
what would you do?
73
220425
2398
E se você trabalhasse
no Twitter, o que faria?
03:54
Would you take that down,
or would you leave it up?
74
222847
2562
Você o apagaria ou deixaria lá?
03:58
My gut reaction, my emotional reaction,
is to take this down.
75
226553
3429
Meu instinto, minha reação
emocional, seria de apagar.
04:02
I hate the framing of this image.
76
230006
2142
Eu detesto o enquadramento dessa imagem.
04:04
But freedom of expression
is a human right,
77
232585
2388
Mas liberdade de expressão
é um direito humano
04:06
and if we start taking down speech
that makes us feel uncomfortable,
78
234997
3225
e se começarmos a apagar discursos
que nos deixam desconfortáveis,
04:10
we're in trouble.
79
238246
1230
aí teremos problemas.
04:11
And this might look like a clear-cut case,
80
239500
2294
E esse pode parecer um caso nítido,
04:13
but, actually, most speech isn't.
81
241818
1698
mas a maioria dos discursos não é.
04:15
These lines are incredibly
difficult to draw.
82
243540
2436
Essa linha é incrivelmente
difícil de definir.
O que é uma decisão
bem-intencionada de uma pessoa
04:18
What's a well-meaning
decision by one person
83
246000
2281
04:20
is outright censorship to the next.
84
248305
2077
é censura indiscutível para a outra.
04:22
What we now know is that
this account, Texas Lone Star,
85
250759
2929
O que sabemos agora
é que essa conta, Texas Lone Star,
04:25
was part of a wider Russian
disinformation campaign,
86
253712
3230
foi parte de uma campanha russa
mais ampla de desinformação,
04:28
one that has since been taken down.
87
256966
2151
uma que já foi derrubada.
04:31
Would that change your view?
88
259141
1563
Será que isso mudaria sua opinião?
A minha sim,
04:33
It would mine,
89
261322
1159
porque agora é o caso
de uma campanha coordenada
04:34
because now it's a case
of a coordinated campaign
90
262505
2301
para semear discórdia.
04:36
to sow discord.
91
264830
1215
04:38
And for those of you who'd like to think
92
266069
1961
E para vocês que gostariam de pensar
que a inteligência artificial resolverá
todos os nossos problemas,
04:40
that artificial intelligence
will solve all of our problems,
93
268054
2831
04:42
I think we can agree
that we're a long way away
94
270909
2225
concordemos que estamos bem longe
de IA que consiga entender
publicações como esta.
04:45
from AI that's able to make sense
of posts like this.
95
273158
2587
Então eu gostaria de explicar
três questões interligadas
04:48
So I'd like to explain
three interlocking issues
96
276856
2507
04:51
that make this so complex
97
279387
2373
que complicam muito essa questão
04:53
and then think about some ways
we can consider these challenges.
98
281784
3122
e pensar em algumas maneiras
para considerar esses desafios.
04:57
First, we just don't have
a rational relationship to information,
99
285348
3890
Primeiro, não temos um relacionamento
racional com a informação,
05:01
we have an emotional one.
100
289262
1468
e sim um emocional.
05:02
It's just not true that more facts
will make everything OK,
101
290754
3794
Não é verdade que mais fatos
farão tudo ficar bem,
05:06
because the algorithms that determine
what content we see,
102
294572
3100
porque os algoritmos que determinam
que conteúdo nós vemos
05:09
well, they're designed to reward
our emotional responses.
103
297696
3127
são projetados para recompensar
nossa resposta emocional.
05:12
And when we're fearful,
104
300847
1381
E quando temos medo,
05:14
oversimplified narratives,
conspiratorial explanations
105
302252
3174
narrativas simplistas,
explicações conspiratórias
05:17
and language that demonizes others
is far more effective.
106
305450
3418
e linguagem que demoniza os outros
são muito mais eficazes.
05:21
And besides, many of these companies,
107
309538
1874
E além disso, muitas dessas empresas
05:23
their business model
is attached to attention,
108
311436
2546
têm um modelo de negócios
vinculado à atenção,
o que significa que esses algoritmos serão
sempre enviesados para o lado emocional.
05:26
which means these algorithms
will always be skewed towards emotion.
109
314006
3690
05:30
Second, most of the speech
I'm talking about here is legal.
110
318371
4298
Segundo, grande parte do discurso
de que estou falando aqui é legal.
Seria um problema diferente
05:35
It would be a different matter
111
323081
1446
se eu falasse de imagens
de abuso sexual infantil
05:36
if I was talking about
child sexual abuse imagery
112
324551
2341
ou conteúdo que incite violência.
05:38
or content that incites violence.
113
326916
1927
05:40
It can be perfectly legal
to post an outright lie.
114
328867
3270
Pode ser perfeitamente legal
postar uma mentira descarada.
As pessoas continuam falando de apagar
conteúdo "problemático" ou "nocivo",
05:45
But people keep talking about taking down
"problematic" or "harmful" content,
115
333130
4034
05:49
but with no clear definition
of what they mean by that,
116
337188
2609
mas sem definição clara
do que querem dizer com isso,
como Mark Zuckerberg,
que recentemente reivindicou
05:51
including Mark Zuckerberg,
117
339821
1264
05:53
who recently called for global
regulation to moderate speech.
118
341109
3412
uma regulação global
para moderar o discurso.
05:56
And my concern is that
we're seeing governments
119
344870
2215
E minha preocupação
é estarmos vendo governos
ao redor do mundo todo
05:59
right around the world
120
347109
1292
06:00
rolling out hasty policy decisions
121
348425
2676
lançando decisões
precipitadas de políticas
06:03
that might actually trigger
much more serious consequences
122
351125
2746
que podem, de fato, provocar
consequências muito mais sérias
06:05
when it comes to our speech.
123
353895
1714
quando se trata do nosso discurso.
06:08
And even if we could decide
which speech to take up or take down,
124
356006
3706
E mesmo se pudéssemos decidir
quais discursos publicar ou apagar,
06:11
we've never had so much speech.
125
359736
2174
nunca tivemos tanto discurso.
06:13
Every second, millions
of pieces of content
126
361934
2131
A cada segundo, milhões de conteúdos
06:16
are uploaded by people
right around the world
127
364089
2107
são publicados por pessoas do mundo todo
em diferentes idiomas, recorrendo
a milhares de contextos diferentes.
06:18
in different languages,
128
366220
1168
06:19
drawing on thousands
of different cultural contexts.
129
367412
2768
06:22
We've simply never had
effective mechanisms
130
370204
2532
Nunca tivemos mecanismos eficazes
06:24
to moderate speech at this scale,
131
372760
1738
para moderar discurso a essa escala,
06:26
whether powered by humans
or by technology.
132
374522
2801
seja impulsionado por humano
ou por tecnologia.
06:30
And third, these companies --
Google, Twitter, Facebook, WhatsApp --
133
378284
3944
E terceiro, essas empresas:
Google, Twitter, Facebook, WhatsApp;
06:34
they're part of a wider
information ecosystem.
134
382252
2841
são parte de um ecossistema
de informação mais amplo.
06:37
We like to lay all the blame
at their feet, but the truth is,
135
385117
3352
Gostamos de pôr toda a culpa nelas,
mas os meios de comunicação
06:40
the mass media and elected officials
can also play an equal role
136
388493
3830
e os representantes eleitos
podem ter um papel equivalente
06:44
in amplifying rumors and conspiracies
when they want to.
137
392347
2913
para amplificar boatos
e conspirações se quiserem.
06:47
As can we, when we mindlessly forward
divisive or misleading content
138
395800
4944
Assim como nós, quando
compartilhamos cegamente
conteúdo polêmico
ou enganoso sem querer.
06:52
without trying.
139
400768
1285
06:54
We're adding to the pollution.
140
402077
1800
Estamos criando mais poluição.
06:57
I know we're all looking for an easy fix.
141
405236
2618
Sei que todos buscamos uma solução fácil.
06:59
But there just isn't one.
142
407878
1667
Mas não há nenhuma.
07:01
Any solution will have to be rolled out
at a massive scale, internet scale,
143
409950
4445
Qualquer solução teria que ser lançada
numa escala massiva, escala de Internet,
07:06
and yes, the platforms,
they're used to operating at that level.
144
414419
3261
e sim, as plataformas estão acostumadas
a operar nesse nível.
07:09
But can and should we allow them
to fix these problems?
145
417704
3472
Mas será que podemos e devemos
permiti-las reparar esses problemas?
Certamente estão tentando,
07:13
They're certainly trying.
146
421668
1232
07:14
But most of us would agree that, actually,
we don't want global corporations
147
422924
4086
mas a maioria de nós concordaria
que não queremos multinacionais
07:19
to be the guardians of truth
and fairness online.
148
427034
2332
como guardiãs da verdade
e da justiça on-line.
07:21
And I also think the platforms
would agree with that.
149
429390
2537
E também acho que
as plataformas concordariam.
07:24
And at the moment,
they're marking their own homework.
150
432257
2881
E agora elas mesmas estão
determinando sua nota.
07:27
They like to tell us
151
435162
1198
Gostam de nos dizer que as intervenções
que estão aplicando funcionam,
07:28
that the interventions
they're rolling out are working,
152
436384
2579
mas como elas mesmas escrevem
os relatórios de transparência,
07:30
but because they write
their own transparency reports,
153
438987
2540
não conseguimos verificar
o que está acontecendo de fato.
07:33
there's no way for us to independently
verify what's actually happening.
154
441551
3618
07:38
(Applause)
155
446431
3342
(Aplausos)
07:41
And let's also be clear
that most of the changes we see
156
449797
2952
E sejamos claros que a maioria
das mudanças que vemos
07:44
only happen after journalists
undertake an investigation
157
452773
2994
só acontecem depois
que jornalistas investigam
07:47
and find evidence of bias
158
455791
1611
e acham evidência de parcialidade
ou conteúdo que viola
suas diretrizes de comunidade.
07:49
or content that breaks
their community guidelines.
159
457426
2829
07:52
So yes, these companies have to play
a really important role in this process,
160
460815
4595
Então sim, essa empresas têm que ter
um papel fundamental no processo,
07:57
but they can't control it.
161
465434
1560
mas elas não podem controlá-lo.
07:59
So what about governments?
162
467855
1518
E que tal os governos?
Muita gente acredita
08:01
Many people believe
that global regulation is our last hope
163
469863
3096
que regulamentação global
é nossa última esperança
08:04
in terms of cleaning up
our information ecosystem.
164
472983
2880
em termos de sanear
nosso ecossistema de informação.
08:07
But what I see are lawmakers
who are struggling to keep up to date
165
475887
3166
Mas o que vejo são legisladores
que têm dificuldade de acompanhar
08:11
with the rapid changes in technology.
166
479077
2341
as mudanças rápidas em tecnologia.
08:13
And worse, they're working in the dark,
167
481442
1904
E pior, estão trabalhando no escuro,
porque não têm acesso aos dados
08:15
because they don't have access to data
168
483370
1821
08:17
to understand what's happening
on these platforms.
169
485215
2650
para entender o que está acontecendo
nessas plataformas.
08:20
And anyway, which governments
would we trust to do this?
170
488260
3071
E afinal, a quais governos
confiaríamos essas tarefas?
08:23
We need a global response,
not a national one.
171
491355
2770
Precisamos de uma resposta
global, não nacional.
08:27
So the missing link is us.
172
495419
2277
Nós somos o elemento que falta.
08:29
It's those people who use
these technologies every day.
173
497720
3123
São aquelas pessoas que usam
essas tecnologias todo dia.
08:33
Can we design a new infrastructure
to support quality information?
174
501260
4591
Será que podemos criar uma infraestrutura
que reforce a qualidade da informação?
Bem, acho que sim,
08:38
Well, I believe we can,
175
506371
1230
E tenho algumas ideias
do que podemos conseguir fazer.
08:39
and I've got a few ideas about
what we might be able to actually do.
176
507625
3357
08:43
So firstly, if we're serious
about bringing the public into this,
177
511006
3103
Primeiro, se quisermos mesmo
envolver o público,
08:46
can we take some inspiration
from Wikipedia?
178
514133
2381
será que conseguimos
nos inspirar na Wikipedia?
08:48
They've shown us what's possible.
179
516538
1824
Eles nos mostraram o que é possível.
08:50
Yes, it's not perfect,
180
518386
1151
Sim, não é perfeito,
mas demonstraram que,
com as estruturas corretas,
08:51
but they've demonstrated
that with the right structures,
181
519561
2634
com uma perspectiva global
e muita transparência,
08:54
with a global outlook
and lots and lots of transparency,
182
522219
2635
dá para construir algo que
mereça a confiança de muita gente.
08:56
you can build something
that will earn the trust of most people.
183
524878
3096
08:59
Because we have to find a way
to tap into the collective wisdom
184
527998
3162
Porque é preciso achar um jeito
de explorar o conhecimento coletivo
e a experiência de todos os usuários.
09:03
and experience of all users.
185
531184
2309
09:05
This is particularly the case
for women, people of color
186
533517
2646
Esse é o caso particularmente
para mulheres, negros
09:08
and underrepresented groups.
187
536187
1346
e grupos sub-representados.
09:09
Because guess what?
188
537557
1166
E adivinhem por quê?
Eles são especialistas
em ódio e desinformação,
09:10
They are experts when it comes
to hate and disinformation,
189
538747
2735
pois já foram o alvo
dessas campanhas por muito tempo.
09:13
because they have been the targets
of these campaigns for so long.
190
541506
3516
09:17
And over the years,
they've been raising flags,
191
545046
2350
E ao longo dos anos, eles vêm alertando
09:19
and they haven't been listened to.
192
547420
1665
e nunca foram escutados.
Isso tem que mudar.
09:21
This has got to change.
193
549109
1280
09:22
So could we build a Wikipedia for trust?
194
550807
4326
Será que podemos criar
uma Wikipedia da credibilidade?
09:27
Could we find a way that users
can actually provide insights?
195
555157
4189
Será que podemos encontrar um jeito
dos usuários darem ideias?
09:31
They could offer insights around
difficult content-moderation decisions.
196
559370
3697
Podem dar ideias sobre decisões difíceis
de moderação de conteúdo.
09:35
They could provide feedback
197
563091
1463
Podem fornecer feedback
09:36
when platforms decide
they want to roll out new changes.
198
564578
3041
quando as plataformas decidirem
que querem aplicar novas mudanças.
09:40
Second, people's experiences
with the information is personalized.
199
568241
4162
Segundo, a experiência das pessoas
com informação é personalizada.
Minha linha do tempo no Facebook
é bem diferente da sua.
09:44
My Facebook news feed
is very different to yours.
200
572427
2643
Suas recomendações no YouTube
são bem diferentes das minhas.
09:47
Your YouTube recommendations
are very different to mine.
201
575094
2745
09:49
That makes it impossible for us
to actually examine
202
577863
2492
Isso impossibilita que analisemos
09:52
what information people are seeing.
203
580379
2023
quais informações as pessoas estão vendo.
Será que podemos imaginar
09:54
So could we imagine
204
582815
1389
09:56
developing some kind of centralized
open repository for anonymized data,
205
584228
4778
o desenvolvimento de um tipo
de repositório aberto e centralizado
para dados anonimizados,
10:01
with privacy and ethical
concerns built in?
206
589030
2864
com questões éticas
e de privacidade integradas?
10:04
Because imagine what we would learn
207
592220
1778
Pois imaginem o que descobriríamos
10:06
if we built out a global network
of concerned citizens
208
594022
3261
se construíssemos uma rede global
de cidadãos interessados
10:09
who wanted to donate
their social data to science.
209
597307
3294
que quisessem doar
dados sociais para a ciência.
Porque sabemos mesmo muito pouco
10:13
Because we actually know very little
210
601141
1722
sobre as consequências de longo prazo
do ódio e da desinformação
10:14
about the long-term consequences
of hate and disinformation
211
602887
2881
10:17
on people's attitudes and behaviors.
212
605792
1975
nas atitudes e comportamento das pessoas.
E o que de fato sabemos,
10:20
And what we do know,
213
608236
1167
10:21
most of that has been
carried out in the US,
214
609427
2193
quase tudo foi elaborado nos EUA,
10:23
despite the fact that
this is a global problem.
215
611644
2381
apesar de esse ser um problema global.
10:26
We need to work on that, too.
216
614049
1635
Temos que trabalhar nisso também.
10:28
And third,
217
616192
1150
E terceiro, será que encontramos
um jeito de ligar os pontos?
10:29
can we find a way to connect the dots?
218
617366
2310
10:31
No one sector, let alone nonprofit,
start-up or government,
219
619700
3438
Nenhum setor, especialmente
o não-lucrativo, start-ups ou governos,
10:35
is going to solve this.
220
623162
1422
vai resolver isso sozinho.
10:36
But there are very smart people
right around the world
221
624608
2564
Mas há pessoas muito inteligentes
no mundo todo todo
trabalhando nesses desafios,
10:39
working on these challenges,
222
627196
1381
10:40
from newsrooms, civil society,
academia, activist groups.
223
628601
3576
de salas de imprensa, sociedade civil,
meio acadêmico, grupos ativistas.
10:44
And you can see some of them here.
224
632201
1898
E podem ver alguns aqui.
Alguns estão criando indicadores
de credibilidade de conteúdo.
10:46
Some are building out indicators
of content credibility.
225
634123
2927
Outros verificam fatos, para que
declarações, vídeo e imagens falsas
10:49
Others are fact-checking,
226
637074
1246
10:50
so that false claims, videos and images
can be down-ranked by the platforms.
227
638344
3591
sejam ofuscados pelas plataformas.
Uma não-lucrativa
que ajudei a fundar, a First Draft,
10:53
A nonprofit I helped
to found, First Draft,
228
641959
2213
10:56
is working with normally competitive
newsrooms around the world
229
644196
2968
está trabalhando com salas
de imprensa em todo o mundo
para ajudar a construir programas
investigativos e colaborativos.
10:59
to help them build out investigative,
collaborative programs.
230
647188
3503
E Danny Hills, um arquiteto de software,
11:03
And Danny Hillis, a software architect,
231
651231
2309
está projetando um novo sistema
chamado "The Underlay",
11:05
is designing a new system
called The Underlay,
232
653564
2381
11:07
which will be a record
of all public statements of fact
233
655969
2775
que será um arquivo
de todas as constatações públicas
11:10
connected to their sources,
234
658768
1329
conectadas às suas fontes,
11:12
so that people and algorithms
can better judge what is credible.
235
660121
3654
para que as pessoas e os algoritmos
possam julgar melhor o que é confiável.
11:16
And educators around the world
are testing different techniques
236
664800
3356
E educadores de todo o mundo
estão testando técnicas diferentes
11:20
for finding ways to make people
critical of the content they consume.
237
668180
3484
de fazer com que as pessoas sejam
mais críticas do conteúdo que consomem.
Todo esse trabalho é maravilhoso,
mas estão trabalhando isoladamente
11:24
All of these efforts are wonderful,
but they're working in silos,
238
672633
3141
11:27
and many of them are woefully underfunded.
239
675798
2680
e muitos não têm financiamento suficiente.
Há também centenas
de pessoas muito inteligentes
11:30
There are also hundreds
of very smart people
240
678502
2053
trabalhando nessas empresas,
11:32
working inside these companies,
241
680579
1652
11:34
but again, these efforts
can feel disjointed,
242
682255
2325
mas esses esforços parecem desconexos,
11:36
because they're actually developing
different solutions to the same problems.
243
684604
3937
porque estão desenvolvendo
soluções diferentes para o mesmo problema.
Como podemos encontrar um jeito
de aproximar as pessoas
11:41
How can we find a way
to bring people together
244
689205
2269
11:43
in one physical location
for days or weeks at a time,
245
691498
3278
em um local físico por dias ou semanas,
para que possam abordar
esses problemas em conjunto,
11:46
so they can actually tackle
these problems together
246
694800
2396
11:49
but from their different perspectives?
247
697220
1818
mas de diferentes perspectivas?
11:51
So can we do this?
248
699062
1340
Então, será que conseguimos?
Conseguimos criar uma resposta
coordenada e ambiciosa,
11:52
Can we build out a coordinated,
ambitious response,
249
700426
3239
11:55
one that matches the scale
and the complexity of the problem?
250
703689
3709
que se adeque à escala
e à complexidade do problema?
11:59
I really think we can.
251
707819
1373
Eu acho mesmo que sim.
12:01
Together, let's rebuild
our information commons.
252
709216
2959
Juntos vamos reconstruir
nosso acervo de informações.
12:04
Thank you.
253
712819
1190
Obrigada.
12:06
(Applause)
254
714033
3728
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com