ABOUT THE SPEAKER
Petter Johansson - Experimental psychologist
Petter Johansson and his research group study self-knowledge and attitude change using methods ranging from questionnaires to close-up card magic.

Why you should listen

Petter Johansson is an associate professor in cognitive science, and together with Lars Hall he runs the Choice Blindness Lab at Lund University in Sweden. 
 
The main theme of Johansson's research is self-knowledge: How much do we know about ourselves, and how do we come to acquire this knowledge? To study these questions, he and his collaborators have developed an experimental paradigm known as "choice blindness." The methodological twist in these experiments is to use magic tricks to manipulate the outcome of people's choices -- and then measure to what extent and in what ways people react to these changes. The general finding is that participants often fail to detect when they receive the opposite of their choice, and when asked to explain, they readily construct and confabulate answers motivating a choice they only believe they intended to make. The effect has been demonstrated in choice experiments on topics such as facial attractiveness, consumer choice and moral and political decision making.

More profile about the speaker
Petter Johansson | Speaker | TED.com
TEDxUppsalaUniversity

Petter Johansson: Do you really know why you do what you do?

Petter Johansson: Será que você sabe por que faz o que faz?

Filmed:
1,423,138 views

O psicólogo experimental Petter Johansson estuda a "cegueira de escolha", um fenômeno através do qual convencemos a nós mesmos que estamos recebendo o que queremos, mesmo quando não estamos. Numa palestra esclarecedora, ele mostra experimentos (criados em parceria com mágicos!) que visam a responder à pergunta: "Por que fazemos o que fazemos?" As descobertas têm grandes implicações para a natureza do autoconhecimento para a forma como reagimos quando diante de uma manipulação. Talvez você não se conhece tão bem quanto acredita.
- Experimental psychologist
Petter Johansson and his research group study self-knowledge and attitude change using methods ranging from questionnaires to close-up card magic. Full bio

Double-click the English transcript below to play the video.

00:12
So why do you think
the rich should pay more in taxes?
0
800
3560
Por que você acha que os ricos
devem pagar mais impostos?
00:16
Why did you buy the latest iPhone?
1
4400
2376
Por que você comprou
o iPhone mais recente?
00:18
Why did you pick your current partner?
2
6800
2456
Por que escolheu seu companheiro atual?
00:21
And why did so many people
vote for Donald Trump?
3
9280
3416
E por que tantos norte-americanos
votaram em Donald Trump?
Quais foram as razões?
Por que você fez isso?
00:24
What were the reasons, why did they do it?
4
12720
2520
00:27
So we ask this kind
of question all the time,
5
15990
2106
Fazemos esse tipo de pergunta o tempo todo
00:30
and we expect to get an answer.
6
18120
1736
e esperamos obter uma resposta.
00:31
And when being asked,
we expect ourselves to know the answer,
7
19880
3136
Quando nos perguntam essas coisas,
esperamos ter uma resposta
00:35
to simply tell why we did as we did.
8
23040
2480
que simplesmente explique
por que agimos de tal forma.
Mas será que sabemos mesmo a razão?
00:38
But do we really know why?
9
26440
1720
00:41
So when you say that you prefer
George Clooney to Tom Hanks,
10
29000
3456
Quando você diz que prefere
o George Clooney ao Tom Hanks,
00:44
due to his concern for the environment,
11
32479
2057
devido à sua preocupação com o ambiente,
00:46
is that really true?
12
34560
1200
será que isso é verdade?
Você pode ser totalmente sincero
00:48
So you can be perfectly sincere
and genuinely believe
13
36560
2496
e realmente acreditar
que essa é a razão da sua escolha,
00:51
that this is the reason
that drives your choice,
14
39080
2936
00:54
but to me, it may still feel
like something is missing.
15
42040
2600
mas, pra mim, ainda pode parecer
que algo não bate.
Devido à natureza
da subjetividade dessas questões,
00:57
As it stands, due to
the nature of subjectivity,
16
45560
3176
01:00
it is actually very hard to ever prove
that people are wrong about themselves.
17
48760
4320
na verdade é bem difícil provar que
as pessoas estão erradas sobre si mesmas.
01:06
So I'm an experimental psychologist,
18
54600
2136
Eu sou psicólogo experimental
01:08
and this is the problem
we've been trying to solve in our lab.
19
56760
3536
e é esse o problema que estamos tentando
solucionar em nossos estudos.
01:12
So we wanted to create an experiment
20
60320
2176
Queríamos criar um experimento
01:14
that would allow us to challenge
what people say about themselves,
21
62520
3536
que nos permitisse desafiar
o que as pessoas dizem sobre si mesmas,
01:18
regardless of how certain they may seem.
22
66080
2680
independentemente
do quanto pareçam convictas.
Mas enganar as pessoas
sobre suas próprias opiniões é difícil.
01:21
But tricking people
about their own mind is hard.
23
69960
2736
01:24
So we turned to the professionals.
24
72720
2376
Então, buscamos ajuda profissional:
01:27
The magicians.
25
75120
1200
a dos mágicos.
Eles são especialistas em criar
a ilusão da livre escolha.
01:29
So they're experts at creating
the illusion of a free choice.
26
77120
2896
Quando eles dizem:
"Pegue uma carta, qualquer carta",
01:32
So when they say, "Pick a card, any card,"
27
80040
2296
01:34
the only thing you know
is that your choice is no longer free.
28
82360
2920
a única coisa que você sabe
é que sua escolha não é mais livre.
01:38
So we had a few fantastic
brainstorming sessions
29
86200
2376
Tivemos algumas reuniões
fantásticas e proveitosas
01:40
with a group of Swedish magicians,
30
88600
1856
com um grupo de mágicos suecos
que nos ajudaram a elaborar um método
01:42
and they helped us create a method
31
90480
1642
01:44
in which we would be able to manipulate
the outcome of people's choices.
32
92147
3973
com o qual pudéssemos manipular
o resultado das escolhas das pessoas.
Assim, saberíamos quando estivessem
erradas sobre si mesmas,
01:48
This way we would know
when people are wrong about themselves,
33
96760
2936
01:51
even if they don't know this themselves.
34
99720
2040
mesmo que não soubessem disso.
01:54
So I will now show you
a short movie showing this manipulation.
35
102480
4656
Vou mostrar agora um breve vídeo
que mostra essa manipulação.
01:59
So it's quite simple.
36
107160
1416
É bem simples.
02:00
The participants make a choice,
37
108600
2136
Os participantes fazem uma escolha,
mas acabo lhes dando o oposto.
02:02
but I end up giving them the opposite.
38
110760
2256
02:05
And then we want to see:
How did they react, and what did they say?
39
113040
3520
Depois, queremos saber como eles
reagiram e o que disseram.
É bem simples, mas veja se você consegue
perceber a mágica acontecendo.
02:09
So it's quite simple, but see
if you can spot the magic going on.
40
117240
3160
Isso foi filmado com participantes reais,
que não sabem o que está acontecendo.
02:13
And this was shot with real participants,
they don't know what's going on.
41
121440
3520
(Vídeo) Petter Johansson:
Oi, meu nome é Petter.
02:19
(Video) Petter Johansson:
Hi, my name's Petter.
42
127000
2216
Mulher: Oi, me chamo Becka.
02:21
Woman: Hi, I'm Becka.
43
129240
1215
PJ: Vou te mostrar fotos como esta,
02:22
PJ: I'm going to show you
pictures like this.
44
130479
2137
e você terá que decidir
qual acha mais atraente.
02:24
And you'll have to decide
which one you find more attractive.
45
132640
2896
Becka: Tudo bem.
02:27
Becka: OK.
46
135560
1216
PJ: De vez em quando vou perguntar
por que você prefere o rosto que escolheu.
02:28
PJ: And then sometimes,
I will ask you why you prefer that face.
47
136800
3176
02:32
Becka: OK.
48
140000
1216
Becka: Tudo bem.
02:33
PJ: Ready?
Becka: Yeah.
49
141240
1200
PJ: Preparada?
Becka: Sim.
02:43
PJ: Why did you prefer that one?
50
151120
1816
PJ: Por que escolheu esse?
02:44
Becka: The smile, I think.
51
152960
1496
Becka: Pelo sorriso, eu acho.
02:46
PJ: Smile.
52
154480
1200
PJ: Sorriso.
Homem: A da esquerda.
02:52
Man: One on the left.
53
160400
1240
02:57
Again, this one just struck me.
54
165520
1640
Ela me chamou a atenção.
Bela foto.
02:59
Interesting shot.
55
167760
1616
03:01
Since I'm a photographer,
I like the way it's lit and looks.
56
169400
3000
Como sou fotógrafo,
gosto da luminosidade e da aparência.
03:06
Petter Johansson: But now comes the trick.
57
174280
2040
PJ: É aí que entra o truque.
(Vídeo) Mulher: Essa.
03:10
(Video) Woman 1: This one.
58
178120
1280
03:16
PJ: So they get the opposite
of their choice.
59
184240
2280
PJ: E recebem o oposto do que escolheram.
03:20
And let's see what happens.
60
188520
1600
Vejamos o que acontece.
03:28
Woman 2: Um ...
61
196240
1200
Mulher 2: Hum...
03:35
I think he seems a little more
innocent than the other guy.
62
203760
2800
Acho que ele parece
um pouco mais inocente que o outro.
Homem: A da esquerda.
03:45
Man: The one on the left.
63
213360
1240
03:49
I like her smile
and contour of the nose and face.
64
217280
3696
Gosto do sorriso dela
e do contorno do nariz e do rosto.
03:53
So it's a little more interesting
to me, and her haircut.
65
221000
2760
É um pouquinho mais atraente
pra mim, além do cabelo.
Mulher 3: Essa.
04:00
Woman 3: This one.
66
228040
1200
Prefiro o de sorriso maroto.
04:03
I like the smirky look better.
67
231520
1576
04:05
PJ: You like the smirky look better?
68
233120
2000
PJ: Prefere o de sorriso maroto?
Mulher 3: Sim.
04:09
(Laughter)
69
237680
3176
(Risos)
04:12
Woman 3: This one.
70
240880
1200
Mulher 3: Essa.
PJ: O que a fez escolhê-lo?
04:15
PJ: What made you choose him?
71
243280
1400
04:17
Woman 3: I don't know,
he looks a little bit like the Hobbit.
72
245520
2896
Mulher 3: Sei lá, ele parece
um pouco com o Hobbit.
04:20
(Laughter)
73
248440
2056
(Risos)
PJ: E o que acontece no fim
04:22
PJ: And what happens in the end
74
250520
1496
quando revelo o verdadeiro
objetivo do experimento?
04:24
when I tell them the true nature
of the experiment?
75
252040
3096
É isso. Só tenho que fazer
algumas perguntas.
04:27
Yeah, that's it. I just have to
ask a few questions.
76
255160
2456
Homem: Claro.
04:29
Man: Sure.
77
257640
1216
PJ: O que achou do experimento?
Foi fácil ou difícil?
04:30
PJ: What did you think
of this experiment, was it easy or hard?
78
258880
2976
Homem: Foi fácil.
PJ: Fácil?
04:33
Man: It was easy.
79
261880
1240
PJ: Durante os experimentos,
troquei as fotos três vezes.
04:36
PJ: During the experiments,
80
264040
1336
04:37
I actually switched
the pictures three times.
81
265400
3336
04:40
Was this anything you noticed?
82
268760
1576
Você notou?
04:42
Man: No. I didn't notice any of that.
83
270360
1816
Homem: Não, não percebi nada.
04:44
PJ: Not at all?
Man: No.
84
272200
1496
PJ: Nada mesmo?
Homem: Não.
04:45
Switching the pictures as far as ...
85
273720
2096
Você trocou as fotos, tipo...
04:47
PJ: Yeah, you were pointing at one of them
but I actually gave you the opposite.
86
275840
3816
PJ: Pois é, você apontava pra uma,
mas eu lhe dava a outra.
Homem: A outra... Tá, não.
04:51
Man: The opposite one.
OK, when you --
87
279680
1816
Isso mostra como estava
meu grau de atenção.
04:53
No. Shows you how much
my attention span was.
88
281520
2256
04:55
(Laughter)
89
283800
1520
(Risos)
04:58
PJ: Did you notice that sometimes
during the experiment
90
286880
3016
PJ: Notou que, às vezes,
durante o experimento,
05:01
I switched the pictures?
91
289920
2136
eu troquei as fotos?
05:04
Woman 2: No, I did not notice that.
92
292080
2016
Mulher 2: Não, não percebi.
05:06
PJ: You were pointing at one,
but then I gave you the other one.
93
294120
3000
PJ: Você apontava pra uma,
mas eu lhe dava a outra.
Não percebeu quando fiz isso?
05:09
No inclination of that happening?
94
297920
1616
05:11
Woman 2: No.
95
299560
1576
Mulher 2: Não.
05:13
Woman 2: I did not notice.
96
301160
1256
Não percebi.
05:14
(Laughs)
97
302440
1936
(Risos)
05:16
PJ: Thank you.
98
304400
1216
PJ: Obrigado.
05:17
Woman 2: Thank you.
99
305640
1376
Mulher 2: Obrigada.
05:19
PJ: OK, so as you probably
figured out now,
100
307040
2056
PJ: Bom, como vocês
já devem ter percebido,
05:21
the trick is that I have
two cards in each hand,
101
309120
2256
o truque é que tenho
duas cartas em cada mão
e, quando entrego uma delas,
05:23
and when I hand one of them over,
102
311400
1576
a preta meio que desaparece
na superfície escura da mesa.
05:25
the black one kind of disappears
into the black surface on the table.
103
313000
4360
05:30
So using pictures like this,
104
318640
1736
Usando fotos assim,
05:32
normally not more than 20 percent
of the participants detect these tries.
105
320400
4376
geralmente não mais que 20%
dos participantes detectam essas manobras.
05:36
And as you saw in the movie,
106
324800
1416
Como vocês viram no vídeo,
05:38
when in the end
we explain what's going on,
107
326240
3176
quando explicamos no fim o que aconteceu,
05:41
they're very surprised and often refuse
to believe the trick has been made.
108
329440
4376
as pessoas ficam bem surpresas
e normalmente se recusam a crer no truque.
05:45
So this shows that this effect
is quite robust and a genuine effect.
109
333840
4776
Isso mostra que esse efeito
é bem consistente e natural.
05:50
But if you're interested
in self-knowledge, as I am,
110
338640
2656
Se vocês tiverem interesse
em autoconhecimento, como eu,
05:53
the more interesting bit is,
111
341320
1336
o mais interessante é:
05:54
OK, so what did they say
when they explained these choices?
112
342680
3936
o que elas disseram
quando explicaram essas escolhas?
05:58
So we've done a lot of analysis
113
346640
1496
Fizemos muitas análises
dos relatos verbais nesses experimentos.
06:00
of the verbal reports
in these experiments.
114
348160
2080
06:03
And this graph simply shows
115
351360
2456
Esse gráfico mostra simplesmente
06:05
that if you compare
what they say in a manipulated trial
116
353840
4776
que, se compararmos o que dizem
num teste manipulado
com o que dizem num teste não manipulado,
06:10
with a nonmanipulated trial,
117
358640
1376
06:12
that is when they explain
a normal choice they've made
118
360040
2776
ou seja, quando explicam
uma escolha normal que fizeram
06:14
and one where we manipulated the outcome,
119
362840
2496
e uma em que nós interferimos,
vemos que as explicações
são incrivelmente semelhantes.
06:17
we find that they are remarkably similar.
120
365360
2456
06:19
So they are just as emotional,
just as specific,
121
367840
3056
São tão emocionais,
tão específicas quanto,
06:22
and they are expressed
with the same level of certainty.
122
370920
3200
e são expressas
com o mesmo grau de certeza.
06:27
So the strong conclusion to draw from this
123
375120
2336
A grande conclusão que tiramos disso
é que, se não há diferença entre
uma escolha real e uma escolha manipulada,
06:29
is that if there are no differences
124
377480
2216
06:31
between a real choice
and a manipulated choice,
125
379720
3696
06:35
perhaps we make things up all the time.
126
383440
2440
talvez inventemos as coisas o tempo todo.
Também fizemos estudos
06:38
But we've also done studies
127
386680
1336
em que tentamos combinar
o que elas dizem e os rostos reais,
06:40
where we try to match what they say
with the actual faces.
128
388040
3016
06:43
And then we find things like this.
129
391080
1880
e descobrimos coisas como esta.
06:45
So here, this male participant,
he preferred the girl to the left,
130
393760
5056
Aqui, um participante
preferiu a moça à esquerda,
06:50
he ended up with the one to the right.
131
398840
1856
mas acabou com a da direita,
06:52
And then, he explained
his choice like this.
132
400720
2816
e ele justificou sua escolha assim:
06:55
"She is radiant.
133
403560
1296
"Ela é radiante.
06:56
I would rather have approached her
at the bar than the other one.
134
404880
3096
Num bar, eu abordaria ela em vez da outra.
E adoro brincos".
07:00
And I like earrings."
135
408000
1616
Independentemente do que o tenha feito
escolher a moça à esquerda no início,
07:01
And whatever made him choose
the girl on the left to begin with,
136
409640
3496
07:05
it can't have been the earrings,
137
413160
1576
não pode ter sido os brincos,
pois era a moça da direita que os usava.
07:06
because they were actually
sitting on the girl on the right.
138
414760
2856
Esse é um exemplo claro
de construção pós-evento.
07:09
So this is a clear example
of a post hoc construction.
139
417640
3776
07:13
So they just explained
the choice afterwards.
140
421440
2800
As pessoas simplesmente
justificaram a escolha depois.
07:17
So what this experiment shows is,
141
425320
2296
Esse experimento mostra
07:19
OK, so if we fail to detect
that our choices have been changed,
142
427640
3656
que, bem, se não conseguimos perceber
que nossas escolhas foram manipuladas,
07:23
we will immediately start
to explain them in another way.
143
431320
3200
imediatamente começamos
a justificá-las de outra forma.
07:27
And what we also found
144
435520
1256
Também descobrimos
07:28
is that the participants
often come to prefer the alternative,
145
436800
3216
que os participantes geralmente
passam a preferir a outra opção
07:32
that they were led to believe they liked.
146
440040
2256
a que foram induzidos
a acreditar que gostavam.
07:34
So if we let them do the choice again,
147
442320
2016
Se os deixamos escolher novamente,
07:36
they will now choose the face
they had previously rejected.
148
444360
3760
vão escolher o rosto
que haviam rejeitado antes.
07:41
So this is the effect
we call "choice blindness."
149
449520
2296
Chamamos esse efeito
de "cegueira de escolha".
07:43
And we've done
a number of different studies --
150
451840
2216
Realizamos diversos estudos:
tentamos com escolhas de consumo,
07:46
we've tried consumer choices,
151
454080
2536
07:48
choices based on taste and smell
and even reasoning problems.
152
456640
4416
escolhas baseadas em cheiro
e até em solução de problemas.
Mas é claro que todos queremos saber:
07:53
But what you all want to know is of course
153
461080
2056
será que isso se aplica a escolhas
mais complexas e relevantes,
07:55
does this extend also
to more complex, more meaningful choices?
154
463160
3936
07:59
Like those concerning
moral and political issues.
155
467120
3080
como as relacionadas
a questões morais e políticas?
08:04
So the next experiment,
it needs a little bit of a background.
156
472400
4216
Antes de mostrar o próximo experimento,
preciso explicar algumas coisas.
08:08
So in Sweden, the political landscape
157
476640
4256
Na Suécia,
o cenário político é dominado por um bloco
de esquerda e um bloco de direita.
08:12
is dominated by a left-wing
and a right-wing coalition.
158
480920
3360
08:17
And the voters may move a little bit
between the parties within each coalition,
159
485720
4416
Alguns eleitores trocam
de partidos dentro de cada bloco,
08:22
but there is very little movement
between the coalitions.
160
490160
2760
mas trocam muito pouco de bloco.
08:25
And before each elections,
161
493680
1976
Antes de cada período de eleições,
08:27
the newspapers and the polling institutes
162
495680
4216
os jornais e institutos de pesquisa
08:31
put together what they call
"an election compass"
163
499920
2616
realizam o que eles chamam
de "termômetro eleitoral",
08:34
which consists of a number
of dividing issues
164
502560
3336
que consiste de algumas perguntas
sobre questões polêmicas
08:37
that sort of separates the two coalitions.
165
505920
2336
que meio que distinguem os dois blocos,
08:40
Things like if tax on gasoline
should be increased
166
508280
3735
coisas do tipo: se o imposto
sobre a gasolina deve aumentar
08:44
or if the 13 months of paid parental leave
167
512039
4096
ou se os 13 meses pagos
da licença parental
08:48
should be split equally
between the two parents
168
516159
2496
devem ser divididos igualmente
entre pai e mãe
08:50
in order to increase gender equality.
169
518679
2721
visando à igualdade de gênero.
08:54
So, before the last Swedish election,
170
522840
2216
Bem, antes das últimas eleições na Suécia,
08:57
we created an election compass of our own.
171
525080
2600
realizamos nosso próprio
termômetro eleitoral.
09:00
So we walked up to people in the street
172
528480
2136
Abordamos pessoas nas ruas
09:02
and asked if they wanted
to do a quick political survey.
173
530640
3336
e perguntamos se queriam participar
de uma pesquisa política rápida.
09:06
So first we had them state
their voting intention
174
534000
2456
Primeiro, perguntamos
sua intenção de voto,
09:08
between the two coalitions.
175
536480
1360
se na esquerda ou na direita.
09:10
Then we asked them
to answer 12 of these questions.
176
538560
3776
Depois pedimos que respondessem
12 dessas perguntas.
09:14
They would fill in their answers,
177
542360
1976
Elas preenchiam suas respostas
e pedíamos que justificassem:
09:16
and we would ask them to discuss,
178
544360
1616
09:18
so OK, why do you think
tax on gas should be increased?
179
546000
5496
"Mas por que você acha que o imposto
sobre a gasolina precisa aumentar?"
09:23
And we'd go through the questions.
180
551520
2096
E fazíamos isso com todas as perguntas.
09:25
Then we had a color coded template
181
553640
3896
Então, usávamos uma tabela
codificada por cores
09:29
that would allow us
to tally their overall score.
182
557560
2936
que nos permitia calcular
a pontuação geral.
09:32
So this person would have
one, two, three, four
183
560520
3456
Essa pessoa teria um, dois, três, quatro,
09:36
five, six, seven, eight, nine
scores to the left,
184
564000
3296
cinco, seis, sete, oito,
nove pontos para a esquerda.
09:39
so he would lean to the left, basically.
185
567320
2680
Então, basicamente,
se inclinaria para a esquerda.
09:42
And in the end, we also had them
fill in their voting intention once more.
186
570800
4440
No fim, também as fizemos preencher
sua intenção de voto mais uma vez.
09:48
But of course, there was
also a trick involved.
187
576160
2280
Claro, também havia um truque.
09:51
So first, we walked up to people,
188
579360
2176
Primeiro, abordávamos as pessoas,
perguntávamos sua intenção de voto
09:53
we asked them
about their voting intention
189
581560
2056
e, quando começavam a preencher,
09:55
and then when they started filling in,
190
583640
2256
09:57
we would fill in a set of answers
going in the opposite direction.
191
585920
5456
preenchíamos um grupo
de respostas opostas.
10:03
We would put it under the notepad.
192
591400
2576
Colocávamos embaixo do bloco de notas.
10:06
And when we get the questionnaire,
193
594000
2776
Quando pegávamos o questionário,
10:08
we would simply glue it on top
of the participant's own answer.
194
596800
3320
simplesmente o colávamos
em cima das respostas dos participantes.
Aí, pronto,
10:16
So there, it's gone.
195
604000
1240
questionávamos sobre cada pergunta:
10:24
And then we would ask
about each of the questions:
196
612280
2376
"Qual foi seu raciocínio aqui?"
10:26
How did you reason here?
197
614680
1536
Eles explicavam, e juntos
calculávamos a pontuação geral.
10:28
And they'll state the reasons,
198
616240
1736
10:30
together we will sum up
their overall score.
199
618000
2480
10:34
And in the end, they will state
their voting intention again.
200
622800
3680
No fim, eles informavam
sua intenção de voto novamente.
10:41
So what we find first of all here,
201
629960
1656
A primeira coisa que descobrimos
10:43
is that very few of these
manipulations are detected.
202
631640
4216
é que pouquíssimas dessas
manipulações são percebidas,
10:47
And they're not detected
in the sense that they realize,
203
635880
2656
não "percebidas" no sentido de:
"Tá, vocês mudaram minha resposta",
10:50
"OK, you must have changed my answer,"
204
638560
1856
mas mais no sentido de:
10:52
it was more the case that,
205
640440
1256
"Devo ter entendido mal a pergunta
na primeira vez em que a li. Posso mudar?"
10:53
"OK, I must've misunderstood
the question the first time I read it.
206
641720
3176
10:56
Can I please change it?"
207
644920
1240
10:59
And even if a few of these
manipulations were changed,
208
647080
5136
Mesmo que algumas dessas
manipulações fossem mudadas,
11:04
the overall majority was missed.
209
652240
2136
a grande maioria passava despercebida.
11:06
So we managed to switch 90 percent
of the participants' answers
210
654400
3656
Conseguíamos alterar 90%
das respostas dos participantes
11:10
from left to right, right to left,
their overall profile.
211
658080
3160
de esquerda para direita
e vice-versa, seu perfil geral.
11:14
And what happens then when
they are asked to motivate their choices?
212
662800
4400
O que acontecia quando pedíamos
que justificassem suas escolhas?
11:20
And here we find much more
interesting verbal reports
213
668160
3056
Aqui encontramos relatos verbais
muito mais interessantes
11:23
than compared to the faces.
214
671240
2016
se comparados aos rostos.
11:25
People say things like this,
and I'll read it to you.
215
673280
3360
As pessoas dizem coisas
como esta que vou ler pra vocês.
11:29
So, "Large-scale governmental surveillance
of email and internet traffic
216
677720
3736
"O monitoramento em larga escala
de e-mails e tráfego de internet
11:33
ought to be permissible as means to combat
international crime and terrorism."
217
681480
4336
deve ser admitido como forma de combate
a crimes internacionais e ao terrorismo".
11:37
"So you agree to some extent
with this statement." "Yes."
218
685840
2716
"Então, de alguma forma,
você concorda com a frase." "Sim."
11:40
"So how did you reason here?"
219
688580
1500
"Qual foi seu raciocínio aqui?"
11:43
"Well, like, as it is so hard to get
at international crime and terrorism,
220
691600
4936
"Bem, como é difícil desvendar
crimes internacionais e terrorismo,
11:48
I think there should be
those kinds of tools."
221
696560
2776
acho que devem existir
esses tipos de recursos."
11:51
And then the person remembers an argument
from the newspaper in the morning.
222
699360
3616
Aí, a pessoa se lembra de um argumento
do jornal que leu de manhã.
11:55
"Like in the newspaper today,
223
703000
1616
"No jornal de hoje,
11:56
it said they can like,
listen to mobile phones from prison,
224
704640
3376
estava escrito que eles podem
ouvir conversas via celular em prisões,
12:00
if a gang leader tries to continue
his crimes from inside.
225
708040
3536
caso um criminoso tente dar continuidade
aos seus crimes de dentro da prisão.
12:03
And I think it's madness
that we have so little power
226
711600
2816
Acho loucura termos tão pouco poder
pra evitar essas coisas,
12:06
that we can't stop those things
227
714440
1656
se há algo que de fato podemos fazer."
12:08
when we actually have
the possibility to do so."
228
716120
2936
12:11
And then there's a little bit
back and forth in the end:
229
719080
2696
E aí, há uma pequena hesitação no final:
"Não gosto que tenham acesso
a tudo que faço,
12:13
"I don't like that they have access
to everything I do,
230
721800
2576
mas ainda assim acho
que vale a pena no fim das contas".
12:16
but I still think
it's worth it in the long run."
231
724400
2576
12:19
So, if you didn't know that this person
232
727000
2536
Sem saber que essa pessoa
acabara de participar
12:21
just took part in
a choice blindness experiment,
233
729560
2256
de um experimento de cegueira de escolha,
12:23
I don't think you would question
234
731840
1856
acho que vocês não questionariam
12:25
that this is the true attitude
of that person.
235
733720
3120
que essa seja a verdadeira
opinião dessa pessoa.
12:29
And what happens in the end,
with the voting intention?
236
737800
2856
E o que acontece no fim
com a intenção de votação?
12:32
What we find -- that one is also
clearly affected by the questionnaire.
237
740680
4696
Descobrimos que as pessoas são claramente
influenciadas pelo questionário.
12:37
So we have 10 participants
238
745400
1736
Temos dez participantes
mudando de esquerda para direita.
12:39
shifting from left to right
or from right to left.
239
747160
2976
12:42
We have another 19
that go from clear voting intention
240
750160
2536
Temos outros 19 que passam
de uma intenção clara de voto à incerteza.
12:44
to being uncertain.
241
752720
1456
12:46
Some go from being uncertain
to clear voting intention.
242
754200
3096
Alguns passam da incerteza
a uma clara intenção de voto.
12:49
And then there is a number of participants
staying uncertain throughout.
243
757320
4736
E alguns participantes continuam
na incerteza durante todo o experimento.
12:54
And that number is interesting
244
762080
1576
Isso é interessante
12:55
because if you look
at what the polling institutes say
245
763680
4616
porque, se avaliarmos o que os institutos
de pesquisas afirmam perto das eleições,
13:00
the closer you get to an election,
246
768320
1656
as únicas pessoas que meio que estão
no jogo são as que não têm certeza.
13:02
the only people that are sort of in play
247
770000
2136
13:04
are the ones that are
considered uncertain.
248
772160
2656
13:06
But we show there is a much larger number
249
774840
3216
Mas mostramos que há
um número bem maior de pessoas
13:10
that would actually consider
shifting their attitudes.
250
778080
2800
que na verdade estariam dispostas
a mudar de opinião.
13:13
And here I must point out, of course,
that you are not allowed to use this
251
781640
3496
Devo esclarecer, é claro,
que não se pode usar isso
13:17
as an actual method
to change people's votes
252
785160
2616
como método para mudar
o voto das pessoas antes de uma eleição.
13:19
before an election,
253
787800
1496
13:21
and we clearly debriefed them afterwards
254
789320
3616
Obviamente as interrogamos depois
13:24
and gave them every
opportunity to change back
255
792960
2296
e lhes demos todas as chances de mudar
para a opinião que tinham antes.
13:27
to whatever they thought first.
256
795280
2480
Mas descobrimos que se você consegue
fazer com que as pessoas
13:30
But what this shows is
that if you can get people
257
798600
2336
13:32
to see the opposite view and engage
in a conversation with themselves,
258
800960
5536
vejam o ponto de vista oposto
e conversem consigo mesmas,
13:38
that could actually make them
change their views.
259
806520
2920
elas podem na verdade
acabar mudando de opinião.
Pois bem.
13:42
OK.
260
810400
1200
13:44
So what does it all mean?
261
812760
1656
O que isso tudo significa?
O que acredito que aconteça aqui?
13:46
What do I think is going on here?
262
814440
2416
13:48
So first of all,
263
816880
1216
Antes de mais nada,
13:50
a lot of what we call self-knowledge
is actually self-interpretation.
264
818120
4856
muito do que consideramos autoconhecimento
é na verdade autointerpretação.
13:55
So I see myself make a choice,
265
823000
2496
Eu me vejo fazendo uma escolha
13:57
and then when I'm asked why,
266
825520
2776
e, quando me pergunto por quê,
14:00
I just try to make
as much sense of it as possible
267
828320
2536
simplesmente tento ao máximo
justificá-la ao explicá-la.
14:02
when I make an explanation.
268
830880
1936
Mas fazemos isso tão rápido
e com tanta facilidade
14:04
But we do this so quickly
and with such ease
269
832840
3016
14:07
that we think we actually know the answer
when we answer why.
270
835880
4280
que achamos que sabemos a resposta
quando respondemos por quê.
14:13
And as it is an interpretation,
271
841040
3096
Como se trata de uma interpretação,
claro que às vezes cometemos erros,
14:16
of course we sometimes make mistakes.
272
844160
2296
14:18
The same way we make mistakes
when we try to understand other people.
273
846480
3520
da mesma forma que os cometemos
quando tentamos entender outras pessoas.
14:23
So beware when you ask people
the question "why"
274
851160
3696
Então, tenha cuidado ao perguntar
"por quê" aos outros
14:26
because what may happen
is that, if you asked them,
275
854880
4896
pois o que pode acontecer
é que, se você perguntar:
14:31
"So why do you support this issue?"
276
859800
4016
"Mas por que você apoia
esse posicionamento?",
14:35
"Why do you stay in this job
or this relationship?" --
277
863840
3216
"Por que continua nesse emprego
ou nesse relacionamento?",
14:39
what may happen when you ask why
is that you actually create an attitude
278
867080
3416
o que pode acontecer
é você acabar criando uma opinião
14:42
that wasn't there
before you asked the question.
279
870520
2240
que não existia antes
de você fazer a pergunta.
14:45
And this is of course important
in your professional life, as well,
280
873440
3176
Claro que isso também é importante
em nossa vida profissional,
ou poderia ser;
14:48
or it could be.
281
876640
1216
por exemplo, se você cria algo
e aí pergunta às pessoas:
14:49
If, say, you design something
and then you ask people,
282
877880
2536
"Por que você acha isso bom ou ruim?",
14:52
"Why do you think this is good or bad?"
283
880440
2256
14:54
Or if you're a journalist
asking a politician,
284
882720
3056
ou se você é jornalista
e pergunta a um político:
14:57
"So, why did you make this decision?"
285
885800
2376
"Por que o senhor tomou essa decisão?",
15:00
Or if indeed you are a politician
286
888200
1936
ou se você mesmo é um político
15:02
and try to explain
why a certain decision was made.
287
890160
2640
e tenta explicar por que
uma decisão foi tomada.
15:06
So this may all seem a bit disturbing.
288
894080
3576
Isso tudo pode parecer perturbador,
15:09
But if you want to look at it
from a positive direction,
289
897680
3496
mas se quisermos analisar
por uma perspectiva positiva,
15:13
it could be seen as showing,
290
901200
1736
poderia ser visto assim:
15:14
OK, so we're actually
a little bit more flexible than we think.
291
902960
3376
"Tá, na verdade somos um pouco
mais flexíveis do que achamos ser.
15:18
We can change our minds.
292
906360
1896
Podemos mudar de ideia,
15:20
Our attitudes are not set in stone.
293
908280
2456
nossas opiniões não são imutáveis,
15:22
And we can also change
the minds of others,
294
910760
3176
e podemos também mudar
a opinião dos outros
15:25
if we can only get them
to engage with the issue
295
913960
2376
se conseguirmos fazê-los avaliar a questão
e enxergá-la do ponto de vista oposto".
15:28
and see it from the opposite view.
296
916360
1680
15:31
And in my own personal life,
since starting with this research --
297
919400
3936
Desde que iniciei essa pesquisa,
a minha própria vida pessoal...
15:35
So my partner and I,
we've always had the rule
298
923360
2576
Eu e minha companheira
sempre tivemos uma regra:
15:37
that you're allowed to take things back.
299
925960
2296
podemos voltar atrás
nas coisas que dizemos.
15:40
Just because I said
I liked something a year ago,
300
928280
2336
Eu ter dito um ano atrás
que gostava de algo
15:42
doesn't mean I have to like it still.
301
930640
2040
não significa que ainda tenho que gostar.
15:45
And getting rid of the need
to stay consistent
302
933480
2816
Não termos a obrigação
de mantermos nossas opiniões
15:48
is actually a huge relief and makes
relational life so mush easier to live.
303
936320
4360
é na verdade um grande alívio
e torna a vida a dois bem mais fácil.
15:53
Anyway, so the conclusion must be:
304
941720
2360
Enfim, a conclusão é a seguinte:
15:57
know that you don't know yourself.
305
945320
2496
tenha consciência de que você
não conhece a si mesmo,
15:59
Or at least not as well
as you think you do.
306
947840
2320
pelo menos não tão bem
quanto você acredita.
16:03
Thanks.
307
951480
1216
Obrigado.
16:04
(Applause)
308
952720
4640
(Aplausos)
Translated by Leonardo Silva
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Petter Johansson - Experimental psychologist
Petter Johansson and his research group study self-knowledge and attitude change using methods ranging from questionnaires to close-up card magic.

Why you should listen

Petter Johansson is an associate professor in cognitive science, and together with Lars Hall he runs the Choice Blindness Lab at Lund University in Sweden. 
 
The main theme of Johansson's research is self-knowledge: How much do we know about ourselves, and how do we come to acquire this knowledge? To study these questions, he and his collaborators have developed an experimental paradigm known as "choice blindness." The methodological twist in these experiments is to use magic tricks to manipulate the outcome of people's choices -- and then measure to what extent and in what ways people react to these changes. The general finding is that participants often fail to detect when they receive the opposite of their choice, and when asked to explain, they readily construct and confabulate answers motivating a choice they only believe they intended to make. The effect has been demonstrated in choice experiments on topics such as facial attractiveness, consumer choice and moral and political decision making.

More profile about the speaker
Petter Johansson | Speaker | TED.com