ABOUT THE SPEAKER
Julia Shaw - Psychological scientist
Julia Shaw is best known for her work in the areas of memory and criminal psychology.

Why you should listen

In 2017 Dr. Julia Shaw cofounded the memory science and artificial intelligence start-up Spot. Spot helps employees report workplace harassment and discrimination and empowers organizations to build a more inclusive and respectful work environment.

In 2016 Shaw published her bestselling book The Memory Illusion, which has appeared in 18 languages. Her second book, Evil: The Science Behind Humanity's Dark Side, was released in Germany in September 2018 and was a Der Spiegel top-20 best seller. She is also a regular contributor to Scientific American.

Besides her research, Shaw is a regular keynote speaker on the topic of memory hacking and artificial intelligence. She also consults as an expert on legal cases, particularly cases involving historical allegations.

More profile about the speaker
Julia Shaw | Speaker | TED.com
TEDxLondon

Julia Shaw: A memory scientist's advice on reporting harassment and discrimination

Julia Shaw: Conselho de cientista da memória sobre denúncias de assédio e discriminação

Filmed:
1,624,490 views

Como você transforma uma lembrança, especialmente de um evento traumático, em evidência concreta de um crime? Julia Shaw trabalha nesse desafio, por meio da combinação de ferramentas de ciência da memória e inteligência artificial para alterar a maneira pela qual denunciamos assédio e preconceito no local de trabalho. Ela compartilha três lições para pôr em prática se alguém foi assediado ou discriminado e apresenta Spot, a ferramenta de denúncia on-line gratuita e anônima que ajuda a capacitar as vítimas.
- Psychological scientist
Julia Shaw is best known for her work in the areas of memory and criminal psychology. Full bio

Double-click the English transcript below to play the video.

00:13
Me Too and Time's Up have highlighted
0
1359
3257
"Me Too" e "Time's Up" destacaram
00:16
that harassment and discrimination
are a shockingly common part
1
4640
4336
que o assédio e a discriminação
são uma parte surpreendentemente comum
00:21
of many people's lived reality,
2
9000
2056
da realidade de muitas pessoas,
00:23
and that this reality
extends into the workplace.
3
11080
3776
e que essa realidade se estende
ao local de trabalho.
00:26
Whether in tech or finance,
sports or the service industry,
4
14880
4096
Seja em tecnologia, finanças, esportes
ou na indústria de serviços,
00:31
every day we seem to hear another story
about an abuse of power
5
19000
3736
parece que todos os dias ouvimos
outra história sobre abuso de poder
00:34
or another grossly inappropriate
workplace behavior.
6
22760
3456
ou outro comportamento extremamente
inadequado no local de trabalho.
00:38
People are furious.
7
26240
1976
As pessoas estão furiosas.
00:40
They're taking to Twitter and social media
to voice that this must change.
8
28240
4360
Estão indo ao Twitter e às mídias sociais
para expressar que isso deve mudar.
00:45
But it's time to move beyond the hashtag.
9
33240
2616
Mas é hora de ir além da "hashtag".
00:47
It's time for us to report
harassment and discrimination
10
35880
3496
É hora de denunciarmos
o assédio e a discriminação
00:51
to those who can fix this mess.
11
39400
2176
àqueles que podem dar um jeito
nessa confusão.
00:53
And it's time for us
to talk about harassment
12
41600
2536
E é hora de falarmos sobre o assédio
de uma maneira mais inclusiva:
00:56
in a more inclusive way:
13
44160
1936
00:58
not just about sexual harassment,
14
46120
2096
não apenas sobre assédio sexual,
01:00
but to encourage people to come forward
15
48240
1976
mas para incentivar as pessoas
a se manifestarem
01:02
about harassment and discrimination
based on other characteristics
16
50240
3616
sobre o assédio e a discriminação
com base em outras características
tais como idade, deficiência ou etnia.
01:05
such as age, disability or ethnicity.
17
53880
2680
01:09
Because only together can we fix
18
57480
2416
Porque somente juntos podemos consertar
as causas e as consequências do assédio.
01:11
the underlying causes
and consequences of harassment.
19
59920
3040
01:15
You see, most of us will,
20
63760
1616
A maioria de nós, em algum
momento de nossa vida,
01:17
at some point in our lives,
21
65400
1336
01:18
experience workplace
harassment or discrimination.
22
66760
2896
passará por assédio ou discriminação
no local de trabalho.
Pesquisas mostram que, particularmente,
mulheres, pessoas de cor
01:21
Research shows that particularly
women, people of color
23
69680
3416
01:25
and people who openly identify as LGBTQI
are likely to be targeted,
24
73120
5136
e pessoas que se identificam abertamente
como LGBTQI são alvos prováveis,
e, para algumas pessoas, é uma parte
dominante e persistente da realidade.
01:30
and for some people, this is a pervasive
and persistent part of their reality.
25
78280
4216
01:34
And for most of these people --
26
82520
1856
A maioria dessas pessoas,
01:36
98 percent according to some studies --
27
84400
2616
98% segundo alguns estudos,
01:39
most of these people will never
speak up and tell their employer.
28
87040
3200
nunca se posiciona e fala
com seu empregador.
01:43
Too often, harassment and discrimination
is a lonely and isolating experience,
29
91080
5056
Muitas vezes, o assédio e a discriminação
são uma experiência solitária e isolante,
01:48
but we need to help people
out from under their desks.
30
96160
2856
mas temos que ajudar as pessoas
a sair de debaixo das mesas.
01:51
We need to empower people to have a voice.
31
99040
2240
Precisamos capacitar as pessoas
a terem uma voz.
01:55
The reasonable first question
that everybody asks
32
103200
2616
A primeira pergunta razoável
que todos fazem
01:57
once they've been harassed
is "What do I do now?"
33
105840
3016
após terem sido assediados
é: "O que faço agora?"
02:00
And this is what I want to help you with.
34
108880
1960
É com isso que quero ajudar vocês.
02:03
Navigating the barriers to reporting
can be absolutely dizzying.
35
111760
4560
Atravessar as barreiras para denunciar
pode ser totalmente desnorteante.
02:09
How can we speak up in a society
36
117080
1896
Como podemos nos posicionar
em uma sociedade
02:11
that too often discredits
or diminishes our experiences?
37
119000
3736
que, muitas vezes, desmerece
ou diminui nossas experiências?
02:14
How can we speak up in a society
38
122760
2496
Como podemos nos posicionar
em uma sociedade
02:17
that is likely to be
retributive towards us?
39
125280
4175
que provavelmente será punitiva para nós?
02:21
How can we deal with the silencing
that goes on all around us?
40
129479
4401
Como podemos lidar com o silenciamento
que acontece ao nosso redor?
02:27
Making matters worse,
41
135080
2096
Para piorar as coisas,
02:29
often our memories are the only
evidence we have of what happened.
42
137200
5216
muitas vezes nossas lembranças são a única
evidência que temos do que aconteceu.
02:34
Now, here's where I can come in.
43
142440
1776
Posso entrar aqui.
02:36
I'm a memory scientist,
44
144240
1376
Sou cientista da memória
02:37
and I specialize in how we remember
important emotional events.
45
145640
4336
e me especializo em como nos lembramos
de eventos emocionais importantes.
02:42
I've particularly focused
on how the memory interview process
46
150000
3896
Meu foco principal é como o processo
de entrevista de memória
02:45
can severely impact the evidentiary
quality of reports that we produce.
47
153920
4440
pode ter um grave impacto na qualidade
das evidências dos relatórios que geramos.
02:51
A bad interview can lead you
to forget details or misremember them
48
159200
3896
Uma entrevista ruim pode levar a esquecer
detalhes ou lembrá-los de maneira errada,
02:55
while a good interview can forever
change your life for the better.
49
163120
3680
enquanto uma boa entrevista pode mudar
para sempre sua vida para melhor.
02:59
After looking at lab reports
and working,
50
167680
3736
Depois de analisar
relatórios de laboratório,
trabalhar e estudar essa questão
03:03
studying this issue both in the courtroom
and in research settings,
51
171440
4096
tanto no tribunal
quanto em cenários de pesquisa,
03:07
I've dissected all the different things
that can go wrong with our memories
52
175560
4456
examinei todas as coisas diferentes
que podem dar errado com nossa memória
03:12
that can really threaten your case.
53
180040
2016
e realmente ameaçar seu caso.
03:14
And now I'm turning my attention
to helping people tackle
54
182080
3496
Agora estou voltando minha atenção
para ajudar as pessoas a lidar
03:17
recording and reporting of workplace
harassment and discrimination.
55
185600
3440
com o registro e a denúncia de assédio
e discriminação no local de trabalho.
03:22
There's three things that I've learned
from my research on this
56
190080
2976
Há três coisas que aprendi
com minha pesquisa sobre isso
03:25
that you can immediately apply
57
193080
1736
que você pode aplicar imediatamente
03:26
if you've been harassed
or discriminated against at work.
58
194840
3176
se você foi assediado
ou discriminado no trabalho.
03:30
I want to help you
turn your memory into evidence --
59
198040
4056
Quero ajudar você a transformar
sua memória em evidência,
03:34
evidence that even
a memory skeptic like me
60
202120
2176
na qual é improvável que mesmo uma cética
em memória como eu encontre defeitos.
03:36
is unlikely to find fault with.
61
204320
1840
03:39
First of all, James Comey had it right.
62
207400
2896
Antes de mais nada,
James Comey estava certo.
03:42
The former head of the FBI
used to sit in his car,
63
210320
3416
O ex-chefe do FBI costumava
sentar-se no carro,
03:45
lock himself in after meetings
with the president
64
213760
2416
trancar-se depois de reuniões
com o presidente
03:48
and write down absolutely everything
he could remember about what happened.
65
216200
3976
e anotar absolutamente
tudo o que conseguia lembrar
sobre o que aconteceu.
03:52
The now-famous recordings
proved to be quite useful later on.
66
220200
4816
Os registros agora famosos provaram
ser bastante úteis mais tarde.
03:57
Be like Comey.
67
225040
1776
Seja como Comey.
03:58
Now, you don't need to lock yourself
into your car to do this,
68
226840
2976
Você não precisa se trancar
em seu carro para fazer isso,
mas, por favor, imediatamente
depois de algo acontecer,
04:01
but please, immediately
after something happens,
69
229840
2296
04:04
I want you to contemporaneously
record what happened.
70
232160
3136
quero que registre o fato atentamente.
04:07
And do this before talking
to anyone else about it.
71
235320
2496
Faça isso antes de falar
com mais alguém a respeito,
04:09
Because as soon as your share your story
72
237840
1936
porque, ao compartilhar sua história
com amigos, familiares,
colegas ou terapeutas,
04:11
with friends or family
or colleagues or therapists,
73
239800
2616
04:14
you have the potential to distort
or change your memory of the event.
74
242440
3616
você pode distorcer ou mudar
sua lembrança do evento.
04:18
Uncontaminated, contemporaneous
evidence is worth gold.
75
246080
4080
Evidências atuais,
não contaminadas valem ouro.
04:22
Second: the type of evidence matters.
76
250800
3296
Segundo: o tipo de evidência é importante.
04:26
Sure, you can do a handwritten
note of what happens,
77
254120
2616
Claro que você pode anotar o fato à mão,
mas como irá provar quando foi escrito?
04:28
but how do you prove when you wrote it?
78
256760
1880
04:31
Instead, pull out
your computer or smartphone
79
259240
2496
Em vez disso, pegue
seu computador ou smartphone
04:33
and make a note that's time-stamped,
80
261760
2496
e faça uma anotação com data e hora
04:36
where you can prove
this was recorded at this time.
81
264280
2680
para que possa provar
o momento do registro.
04:39
Contemporaneous,
time-stamped evidence is better.
82
267600
3080
Evidências atuais, com registro
de data e hora, são melhores.
04:45
Finally, make sure what you're writing
down is actually relevant.
83
273360
5336
Finalmente, garanta que o que você
está anotando é realmente relevante.
04:50
Too often, we see that people
bring out Facebook messages,
84
278720
3936
Muitas vezes, vemos que as pessoas
revelam mensagens do Facebook,
04:54
they bring out time-stamped
pieces of evidence,
85
282680
2216
evidências com registro de data e hora,
04:56
but sure, they're
not particularly relevant,
86
284920
2096
mas, com certeza, não há relevância
nem utilidade particular.
04:59
they're not particularly useful.
87
287040
1816
05:00
It's easy to write an emotional,
unstructured account of what happened --
88
288880
3856
É fácil escrever um relato emocional
e não estruturado do que aconteceu.
05:04
understandable because
it's an emotional experience --
89
292760
3536
É compreensível, porque é
uma experiência emocional,
05:08
but those might not actually be
the details that matter later on
90
296320
3056
mas podem não ser os detalhes que importam
mais tarde para uma investigação.
05:11
for an investigation.
91
299400
1240
05:13
Write down this list.
92
301160
1936
Anote esta lista.
05:15
I want you to keep track of this
and simply fill in the blanks.
93
303120
4040
Quero que acompanhe isso e simplesmente
preencha os espaços em branco.
05:20
First of all, what happened?
94
308360
2016
Antes de mais nada, o que aconteceu?
05:22
In as much detail as possible,
95
310400
1576
Descreva a situação
o mais detalhadamente possível
05:24
describe the situation,
96
312000
1656
05:25
and do it on the day it happened
if at all possible.
97
313680
2656
e, se possível, faça isso no dia
em que aconteceu.
05:28
Second, who was there?
98
316360
1496
Segundo: quem estava lá?
05:29
Were there any witnesses?
99
317880
1336
Havia testemunhas?
05:31
This becomes crucial potentially later on.
100
319240
2576
Isso pode ser decisivo mais tarde.
05:33
What exact time and date did this happen?
101
321840
2576
Em que dia e horário exatos
o fato aconteceu?
05:36
What location? Where did this happen?
102
324440
2056
Em que lugar? Onde aconteceu?
05:38
Who did you tell after the event?
103
326520
2336
Com quem você conversou depois do evento?
05:40
How did it make you feel
during and after it happened?
104
328880
2936
Como você se sentiu durante
e depois do que aconteceu?
05:43
And is there any other evidence
such as WhatsApps, photos or emails
105
331840
4776
Há outras evidências,
como WhatsApp, fotos ou e-mails
05:48
that might lend
more credibility to your case.
106
336640
2640
que possam dar mais credibilidade ao caso?
05:52
These are all details that are incredibly
easy to record contemporaneously
107
340200
3936
São detalhes incrivelmente fáceis
de registrar nesse período,
05:56
but are also incredibly easy
to forget later on.
108
344160
2736
mas também incrivelmente fáceis
de se esquecer mais tarde.
05:58
Humans, according to research,
often overestimate their ability
109
346920
3976
O ser humano, de acordo com pesquisas,
muitas vezes superestima sua capacidade
06:02
to remember important
emotional details later on.
110
350920
2776
de lembrar detalhes emocionais
importantes mais tarde.
06:05
Assume that you're going to forget.
111
353720
2216
Presuma que você irá esquecer.
06:07
Assume you have to write it down.
112
355960
2200
Presuma que você tenha que anotar.
06:11
Now, these three pieces of advice
are a good start,
113
359920
3496
Esses três conselhos são um bom começo,
06:15
but of course they don't overcome
a lot of the other barriers to reporting.
114
363440
4376
mas é claro que não superam
muitas outras barreiras para a denúncia.
06:19
According to the Equality
and Human Rights Commission,
115
367840
2896
De acordo com a Equality
and Human Rights Commission,
06:22
which published a report in 2018,
116
370760
2256
que publicou um relatório em 2018,
06:25
there's one key recommendation
to overcome some of the other fears
117
373040
3736
há uma recomendação chave
para superar alguns dos outros medos,
06:28
often associated with reporting
these kinds of incidents to your employer.
118
376800
3960
muitas vezes associados à denúncia
desses tipos de incidentes ao empregador.
06:33
One piece of advice that they made?
119
381520
1720
Um conselho que eles deram?
06:35
Have an online, anonymous reporting tool.
120
383880
3136
Tenha uma ferramenta de denúncia
on-line e anônima.
06:39
Only that way, they say,
121
387040
1616
Só assim, dizem eles,
06:40
can you truly overcome many
of the fears associated with reporting.
122
388680
3280
você pode realmente superar muitos
dos medos associados à denúncia.
06:44
Now, in line with this,
123
392760
1296
De acordo com isso,
06:46
and informed by what
was happening all around me
124
394080
3416
e informada pelo que estava
acontecendo ao meu redor
06:49
and taking and applying
the memory science,
125
397520
2976
e tomando e aplicando
a ciência da memória,
06:52
the science that I had
been doing for many years,
126
400520
2616
que eu vinha fazendo há muitos anos,
06:55
I sat down with a number of people
127
403160
2056
sentei-me com algumas pessoas
06:57
and we together created TalkToSpot.com.
128
405240
3040
e juntos criamos o TalkToSpot.com.
07:01
Spot is an online,
anonymous reporting tool
129
409080
2936
Spot é uma ferramenta de denúncia
on-line e anônima
07:04
that helps you record and report
workplace harassment and discrimination.
130
412040
3736
que ajuda a registrar e denunciar assédio
e discriminação no local de trabalho.
07:07
It allows you to do it anonymously,
131
415800
1696
Permite que você faça isso
de maneira anônima e gratuita
07:09
it allows you to do it for free,
132
417520
1656
07:11
and it's completely evidence-based.
133
419200
1896
e é completamente baseado em evidências.
07:13
You don't have to talk to a person,
134
421120
1696
Você não precisa falar com uma pessoa,
07:14
there's no fear of judgment,
135
422840
1456
não há medo de julgamento,
07:16
and you can do it
whenever and wherever you need.
136
424320
2680
e você pode fazer isso
quando e onde precisar.
07:21
Now you have the power to walk through
an evidence-based memory interview.
137
429040
5200
Agora você tem o poder de passar
por uma entrevista de memória
baseada em evidências.
07:26
Now, this is called a cognitive interview.
138
434800
2056
Chama-se entrevista cognitiva.
07:28
This is the same technique that police use
when they're doing their job properly.
139
436880
4216
É a mesma técnica usada pela polícia
quando faz o trabalho adequadamente.
07:33
So in best-case scenarios,
140
441120
2096
Então, nos melhores cenários,
07:35
people who are being asked
about important emotional events
141
443240
2816
as pessoas são questionadas
sobre eventos emocionais importantes
07:38
are being asked in line
with the cognitive interview.
142
446080
3176
de acordo com a entrevista cognitiva.
Isso leva você a todas
as informações relevantes
07:41
Now, this walks you through
all the relevant information
143
449280
3856
07:45
so that at the end,
after you've talked to the bot --
144
453160
2816
de modo que, no final, depois
de ter falado com o programa,
07:48
which is an automatic messaging system --
145
456000
3496
que é um sistema de mensagens automáticas,
07:51
after you've talked to the bot,
146
459520
1496
ele gera um registro em PDF
com data, hora e assinatura segura,
07:53
it generates a PDF record
that's time-stamped and securely signed
147
461040
3296
07:56
that you can keep for yourself as evidence
in case you want to share it later,
148
464360
4056
que você pode manter como evidência,
caso queira compartilhar mais tarde,
08:00
or you can submit it
to your employer right away.
149
468440
2520
ou você pode enviar
a seu empregador imediatamente.
08:03
And in line with recommendations,
150
471920
1616
De acordo com as recomendações,
você pode enviar a seu empregador
de maneira anônima.
08:05
you can submit it
to your employer anonymously.
151
473560
2520
08:09
But a reporting tool is only as useful
as the audience that's listening.
152
477000
4736
Mas uma ferramenta de denúncia é tão útil
quanto o público que está ouvindo.
08:13
So if your employer
is truly committed to change,
153
481760
2856
Então, se seu empregador está
realmente empenhado em mudar,
08:16
we've decided to also offer them
the tool to respond.
154
484640
3736
decidimos também oferecer a ele
a ferramenta para responder.
08:20
So if organizations work with us
155
488400
2936
Então, se as organizações
trabalham conosco
08:23
and are truly committed to doing something
156
491360
2056
e estão mesmo comprometidas a fazer algo
sobre assédio e discriminação no trabalho,
08:25
about workplace harassment
and discrimination,
157
493440
2176
elas também podem responder a você,
08:27
they're also able to respond to you
even if you've chosen to stay anonymous.
158
495640
4896
mesmo que você tenha optado
por permanecer anônimo.
08:32
We think it's important that you can work
together with your employer
159
500560
3256
Consideramos importante que você
possa trabalhar com seu empregador
08:35
to tackle this issue.
160
503840
1720
para tentar resolver esse problema.
08:38
We think that everybody wins
when we bring light into this dark issue.
161
506720
4616
Achamos que todos ganham
quando trazemos luz
a essa questão obscura.
08:43
Whether it happens to you
or to someone you know,
162
511360
2655
Se isso acontecer com você
ou com alguém conhecido,
08:46
recording and reporting what happened
163
514039
1897
registrar e denunciar o ocorrido
08:47
can really improve
how we talk about these issues.
164
515960
4096
pode realmente melhorar a maneira
pela qual falamos sobre esses problemas.
08:52
And if you're an organization,
165
520080
1455
Se você for uma organização,
isto é um convite para que seus
funcionários tenham acesso
08:53
this is a call to give
your employees access
166
521559
2737
08:56
to better and more effective
reporting mechanisms.
167
524320
2856
a mecanismos de denúncia
melhores e mais eficazes.
08:59
We know that the current methods
that are used in most organizations
168
527200
5136
Sabemos que os métodos atuais
usados na maioria das organizações
09:04
don't work effectively.
169
532360
1360
não funcionam de maneira eficaz.
09:06
It's time to change that if you're
committed to inclusion and diversity.
170
534560
3720
É hora de mudar isso
se você estiver comprometido
com a inclusão e a diversidade.
09:13
It's time for us
to celebrate our diversity.
171
541480
2720
É hora de celebrarmos nossa diversidade.
09:17
It's time for us to give a voice
172
545080
3056
É hora de darmos uma voz
09:20
to those who have for too long
been denied one.
173
548160
2840
àqueles a quem, por muito tempo,
tem sido negada uma.
09:23
It's time for us to celebrate
those who come forward,
174
551640
3216
É hora de celebrarmos
as pessoas que se apresentarem,
09:26
even if they feel
they need to stay anonymous --
175
554880
2256
mesmo que sintam que precisem permanecer
anônimas e mascaradas para fazer isso.
09:29
to stay masked to do so.
176
557160
1976
09:31
It's time for a reporting revolution.
177
559160
2560
É hora de uma revolução nas denúncias.
09:34
Thank you.
178
562600
1336
Obrigada.
(Aplausos)
09:35
(Applause)
179
563960
4240
Translated by Maurício Kakuei Tanaka
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Julia Shaw - Psychological scientist
Julia Shaw is best known for her work in the areas of memory and criminal psychology.

Why you should listen

In 2017 Dr. Julia Shaw cofounded the memory science and artificial intelligence start-up Spot. Spot helps employees report workplace harassment and discrimination and empowers organizations to build a more inclusive and respectful work environment.

In 2016 Shaw published her bestselling book The Memory Illusion, which has appeared in 18 languages. Her second book, Evil: The Science Behind Humanity's Dark Side, was released in Germany in September 2018 and was a Der Spiegel top-20 best seller. She is also a regular contributor to Scientific American.

Besides her research, Shaw is a regular keynote speaker on the topic of memory hacking and artificial intelligence. She also consults as an expert on legal cases, particularly cases involving historical allegations.

More profile about the speaker
Julia Shaw | Speaker | TED.com