ABOUT THE SPEAKER
Robb Willer - Social psychologist
Robb Willer's political research has investigated various topics, including economic inequality, racial prejudice, masculine overcompensation and Americans' views of climate change.

Why you should listen

Robb Willer is a professor of sociology, psychology and organizational behavior at Stanford University. He studies the role of morality in politics. His research shows how moral values, typically a source of ideological division, can also be used to bring people together. His political research has investigated various topics, including economic inequality, racial prejudice, masculine overcompensation and Americans' views of climate change.

Willer has won numerous awards for his teaching and research, including the Golden Apple Teaching Award, the only award given by UC-Berkeley’s student body. Willer's class, "Self and Society," was the highest enrollment class at UC-Berkeley. His consulting clients have included the Bill and Melinda Gates Foundation, the Open Society Foundation, the Last Resort Exoneration Project and the Department of Justice.

Willer's writing has appeared in the New York Times and the Washington Post, including his op-eds "The Secret to Political Persuasion" and "Is the Environment a Moral Cause?"

Willer received a Ph.D from Cornell University and a BA from the University of Iowa. Before becoming a professor, he worked as a dishwasher, construction worker, mover, line cook and union organizer.

More profile about the speaker
Robb Willer | Speaker | TED.com
TEDxMarin

Robb Willer: How to have better political conversations

Robb Willer: Como ter conversas políticas melhores

Filmed:
2,681,111 views

Robb Willer estuda as forças que nos unem e nos dividem. Como psicólogo social, ele pesquisa como os valores morais, tipicamente uma fonte de divisão, podem também ser usados para juntar as pessoas. Willer compartilha atraentes pensamentos de como podemos diminuir a divisão ideológica e oferecer dicas intuitivos nas formas de sermos mais persuasivos enquanto falamos sobre política.
- Social psychologist
Robb Willer's political research has investigated various topics, including economic inequality, racial prejudice, masculine overcompensation and Americans' views of climate change. Full bio

Double-click the English transcript below to play the video.

00:12
So you probably have the sense,
as most people do,
0
760
3056
Vocês provavelmente têm
a opinião, que muitas pessoas têm,
00:15
that polarization
is getting worse in our country,
1
3840
3656
de que a polarização está
ficando pior em nosso país,
00:19
that the divide
between the left and the right
2
7520
3456
de que a divisão entre esquerda e direita
00:23
is as bad as it's been
in really any of our lifetimes.
3
11000
3536
está pior do que nunca foi
em qualquer tempo.
00:26
But you might also reasonably wonder
if research backs up your intuition.
4
14560
5280
Mas você se pergunta se as pesquisas
batem com a sua intuição.
00:32
And in a nutshell,
the answer is sadly yes.
5
20560
4680
Resumindo, a resposta infelizmente é sim.
00:38
In study after study, we find
6
26920
2016
Em seguidos estudos, descobrimos
00:40
that liberals and conservatives
have grown further apart.
7
28960
3680
que liberais e conservadores
têm se distanciado.
00:45
They increasingly wall themselves off
in these ideological silos,
8
33440
4776
Cada vez mais estão
se isolando ideologicamente,
00:50
consuming different news,
talking only to like-minded others
9
38240
4136
consumindo diferentes notícias, falando
apenas com pessoas de posições semelhantes
00:54
and more and more choosing
to live in different parts of the country.
10
42400
3240
e, cada vez mais, escolhendo viver
em diferentes partes do país.
00:58
And I think that
most alarming of all of it
11
46720
3216
Acho que o mais alarmante de tudo isso
01:01
is seeing this rising
animosity on both sides.
12
49960
3800
é ver o aumento
da animosidade dos dois lados.
01:06
Liberals and conservatives,
13
54440
1656
Liberais e conservadores,
01:08
Democrats and Republicans,
14
56120
1896
democratas e republicanos,
01:10
more and more they just
don't like one another.
15
58040
3120
cada vez mais não se gostam.
01:14
You see it in many different ways.
16
62320
2016
É possível ver isso de várias maneiras.
01:16
They don't want to befriend one another.
They don't want to date one another.
17
64360
3656
Eles não querem ser amigos.
Eles não querem namorar uns com os outros.
01:20
If they do, if they find out,
they find each other less attractive,
18
68040
3296
Se isso acontecer, e descobrirem,
acharão o outro menos atraente
01:23
and they more and more don't want
their children to marry someone
19
71360
3096
e, cada vez mais, não querem
que seus filhos se casem com alguém
01:26
who supports the other party,
20
74480
1696
que apoie o outro partido,
01:28
a particularly shocking statistic.
21
76200
1760
uma estatística chocante.
01:31
You know, in my lab,
the students that I work with,
22
79640
2816
No meu laboratório,
os estudantes com quem trabalho,
01:34
we're talking about
some sort of social pattern --
23
82480
3456
falávamos sobre
esse tipo de padrão social.
01:37
I'm a movie buff, and so I'm often like,
24
85960
3536
Sou um fanático por filmes,
então sempre me pergunto:
01:41
what kind of movie are we in here
with this pattern?
25
89520
2960
em que tipo de filme estamos
que tenha esse padrão?
01:45
So what kind of movie are we in
with political polarization?
26
93080
3280
Em que tipo de filme estamos
inseridos na polarização política?
01:49
Well, it could be a disaster movie.
27
97080
2720
Bem, pode ser um filme
do estilo catástrofe.
01:52
It certainly seems like a disaster.
28
100880
1680
De fato, parece uma catástrofe.
01:54
Could be a war movie.
29
102920
2000
Pode ser um filme de guerra.
01:57
Also fits.
30
105640
1200
Também se encaixa.
01:59
But what I keep thinking is that
we're in a zombie apocalypse movie.
31
107480
3816
Mas fico pensando que estamos
num filme apocalíptico de zumbis.
02:03
(Laughter)
32
111320
1456
(Risos)
02:04
Right? You know the kind.
33
112800
2296
Certo? Vocês conhecem esses filmes.
02:07
There's people wandering around in packs,
34
115120
2416
Há pessoas vagando em bandos,
02:09
not thinking for themselves,
35
117560
1776
que não pensam por si próprias,
02:11
seized by this mob mentality
36
119360
1616
capturadas por essa visão de massa
02:13
trying to spread their disease
and destroy society.
37
121000
3240
tentando espalhar suas doenças
e destruir a sociedade.
02:17
And you probably think, as I do,
38
125480
2336
E vocês provavelmente pensam, como eu,
02:19
that you're the good guy
in the zombie apocalypse movie,
39
127840
3456
que vocês são os mocinhos
num filme apocalíptico de zumbis
02:23
and all this hate and polarization,
it's being propagated by the other people,
40
131320
3696
e que todo esse ódio e polarização
estão sendo espalhados pelos outros,
02:27
because we're Brad Pitt, right?
41
135040
1880
porque nós somos o Brad Pitt, certo?
02:29
Free-thinking, righteous,
42
137760
2896
Somos pessoas de pensamento livre, justas,
02:32
just trying to hold on
to what we hold dear,
43
140680
2296
apenas tentando ser
fiéis ao que nos é caro,
02:35
you know, not foot soldiers
in the army of the undead.
44
143000
3576
não como soldados de infantaria
no exército dos mortos-vivos.
02:38
Not that.
45
146600
1456
Isso não.
02:40
Never that.
46
148080
1200
Isso nunca.
02:42
But here's the thing:
47
150080
1496
Mas é o seguinte:
02:43
what movie do you suppose
they think they're in?
48
151600
2720
em que filme vocês acham
que eles pensam que estão?
02:47
Right?
49
155480
1216
Certo?
02:48
Well, they absolutely think
that they're the good guys
50
156720
2536
Bem, com certeza eles pensam
que são os mocinhos
02:51
in the zombie apocalypse movie. Right?
51
159280
1856
de um filme apocalíptico de zumbis.
02:53
And you'd better believe
that they think that they're Brad Pitt
52
161160
2976
E seria melhor você acreditar
que eles pensam ser o Brad Pitt
02:56
and that we, we are the zombies.
53
164160
2120
e nós somos os zumbis.
03:01
And who's to say that they're wrong?
54
169120
2360
E quem irá dizer que eles estão errados?
03:04
I think that the truth is
that we're all a part of this.
55
172440
3120
Penso que a verdade é
que todos fazemos parte disso.
03:08
And the good side of that
is that we can be a part of the solution.
56
176240
3160
O lado bom disso é que podemos
ser parte da solução.
03:12
So what are we going to do?
57
180280
2000
Então, o que vamos fazer?
03:15
What can we do to chip away
at polarization in everyday life?
58
183320
4256
O que podemos fazer para sair
da polarização na nossa vida cotidiana?
03:19
What could we do to connect with
and communicate with
59
187600
3816
O que podemos fazer
para nos conectar e nos comunicar
03:23
our political counterparts?
60
191440
1720
com os nossos adversários políticos?
03:25
Well, these were exactly the questions
that I and my colleague, Matt Feinberg,
61
193720
4136
Bem, essas foram as questões pelas quais
meu amigo, Matt Feinberg, e eu
03:29
became fascinated with a few years ago,
62
197880
1858
ficamos fascinados há alguns anos
03:31
and we started
doing research on this topic.
63
199762
2200
e começamos a pesquisar sobre o assunto.
03:34
And one of the first things
that we discovered
64
202920
2976
E uma das primeiras descobertas,
03:37
that I think is really helpful
for understanding polarization
65
205920
3456
que acho realmente útil
para o entendimento da polarização
03:41
is to understand
66
209400
1216
é entender
03:42
that the political divide in our country
is undergirded by a deeper moral divide.
67
210640
4416
que a divisão política no nosso país
tem como base uma profunda divisão moral.
03:47
So one of the most robust findings
in the history of political psychology
68
215080
4776
Uma das mais fortes descobertas
na história da psicologia política
03:51
is this pattern identified
by Jon Haidt and Jesse Graham,
69
219880
3696
é este padrão identificado
por Jon Haidt e Jesse Graham,
03:55
psychologists,
70
223600
1216
psicólogos,
03:56
that liberals and conservatives
tend to endorse different values
71
224840
4016
que liberais e conservadores
tendem a apoiar valores diferentes,
04:00
to different degrees.
72
228880
1200
em diferentes níveis.
04:02
So for example, we find that liberals
tend to endorse values like equality
73
230600
5496
Por exemplo, vemos que os liberais
tendem a apoiar valores como a igualdade,
04:08
and fairness and care
and protection from harm
74
236120
3656
justiça, cuidado e proteção contra danos
04:11
more than conservatives do.
75
239800
2136
mais do que os conservadores.
04:13
And conservatives tend to endorse
values like loyalty, patriotism,
76
241960
5256
E os conservadores tendem a apoiar
valores como fidelidade, patriotismo,
04:19
respect for authority and moral purity
77
247240
3456
respeito pelas autoridades e pureza moral
04:22
more than liberals do.
78
250720
2080
mais do que os liberais.
04:25
And Matt and I were thinking
that maybe this moral divide
79
253920
4056
Matt e eu estávamos pensando
que talvez essa divisão moral
04:30
might be helpful
for understanding how it is
80
258000
3096
seja útil para o entendimento
de como liberais e conservadores
falam uns com os outros
04:33
that liberals and conservatives
talk to one another
81
261120
2416
04:35
and why they so often
seem to talk past one another
82
263560
2416
e por que sempre parece
um diálogo de surdos
04:38
when they do.
83
266000
1216
quando conversam.
04:39
So we conducted a study
84
267240
1976
Então conduzimos um estudo
04:41
where we recruited liberals to a study
85
269240
3096
em que recrutamos
liberais para um pesquisa
04:44
where they were supposed
to write a persuasive essay
86
272360
2456
em que deveriam escrever
um ensaio persuasivo
04:46
that would be compelling to a conservative
in support of same-sex marriage.
87
274840
4440
para um conservador em apoio ao casamento
entre pessoas do mesmo sexo.
04:51
And what we found was that liberals
tended to make arguments
88
279800
3256
E o que descobrimos foi
que os liberais tenderam a argumentar
04:55
in terms of the liberal moral values
of equality and fairness.
89
283080
4176
em termos de valores morais liberais
de igualdade e justiça.
04:59
So they said things like,
90
287280
1736
Então disseram coisas como:
05:01
"Everyone should have the right
to love whoever they choose,"
91
289040
3376
"Todos deveriam ter o direito
de amar quem quer que escolham",
05:04
and, "They" -- they being gay Americans --
92
292440
2576
e: "Eles" - gays americanos -
05:07
"deserve the same equal rights
as other Americans."
93
295040
2760
"merecem os mesmos direitos
como qualquer outro americano".
05:10
Overall, we found
that 69 percent of liberals
94
298360
3216
Em geral, descobrimos que 69% dos liberais
05:13
invoked one of the more liberal
moral values in constructing their essay,
95
301600
5416
invocaram um dos valores morais
mais liberais para concluir seus ensaios,
05:19
and only nine percent invoked
one of the more conservative moral values,
96
307040
3696
e apenas 9% invocaram um dos valores
morais mais conservadores,
05:22
even though they were supposed
to be trying to persuade conservatives.
97
310760
3416
mesmo que supostamente estivessem
tentando persuadir os conservadores.
05:26
And when we studied conservatives
and had them make persuasive arguments
98
314200
4296
Ao estudarmos os conservadores e pedirmos
para construírem argumentos persuasivos
05:30
in support of making English
the official language of the US,
99
318520
2896
em favor de tornar o inglês
a língua oficial dos EUA,
05:33
a classically conservative
political position,
100
321440
2536
a clássica posição política conservadora,
05:36
we found that they weren't
much better at this.
101
324000
2216
descobrimos que eles não eram
muito melhores nisso:
05:38
59 percent of them made arguments
102
326240
1616
59% deles construíram argumentos
05:39
in terms of one of the more
conservative moral values,
103
327880
2696
em termos de valores
morais mais conservadores,
05:42
and just eight percent
invoked a liberal moral value,
104
330600
2496
e apenas 8% invocaram
valores morais liberais,
05:45
even though they were supposed
to be targeting liberals for persuasion.
105
333120
3360
embora o objetivo deles fosse
convencer os liberais.
05:49
Now, you can see right away
why we're in trouble here. Right?
106
337480
4040
Vocês podem ver claramente
que temos problemas, certo?
05:54
People's moral values,
they're their most deeply held beliefs.
107
342280
3496
Os valores morais das pessoas
são as suas crenças mais profundas.
05:57
People are willing
to fight and die for their values.
108
345800
3400
Elas estão dispostas a lutar
e morrer por esses valores.
06:01
Why are they going to give that up
just to agree with you
109
349720
2696
Por que iriam renunciá-los
apenas para concordar com você
06:04
on something that they don't particularly
want to agree with you on anyway?
110
352440
3536
sobre algo com que particularmente
não querem concordar de forma alguma?
06:08
If that persuasive appeal that
you're making to your Republican uncle
111
356000
3256
Se o argumento convincente
que você faz para o seu tio republicano
06:11
means that he doesn't
just have to change his view,
112
359280
2416
exige que não apenas
ele tem de mudar sua posição,
06:13
he's got to change
his underlying values, too,
113
361720
2166
mas também seus valores essenciais,
06:15
that's not going to go very far.
114
363910
1560
não vai funcionar.
06:18
So what would work better?
115
366080
1320
Então o que seria melhor?
06:20
Well, we believe it's a technique
that we call moral reframing,
116
368200
4296
Bem, acreditamos que é uma técnica
que chamamos de reforma moral,
06:24
and we've studied it
in a series of experiments.
117
372520
2616
e estudamos isso em vários experimentos.
06:27
In one of these experiments,
118
375160
1496
Em um desses experimentos,
06:28
we recruited liberals
and conservatives to a study
119
376680
3136
recrutamos liberais
e conservadores para um estudo
06:31
where they read one of three essays
120
379840
2296
em que eles liam um de três ensaios
06:34
before having their environmental
attitudes surveyed.
121
382160
3040
antes de terem suas atitudes
ambientalistas pesquisadas.
06:37
And the first of these essays
122
385640
1496
E o primeiro desses ensaios,
06:39
was a relatively conventional
pro-environmental essay
123
387160
3376
era relativamente convencional
a favor do ambientalismo,
06:42
that invoked the liberal values
of care and protection from harm.
124
390560
4016
invocava valores liberais de cuidado
e proteção contra danos.
06:46
It said things like,
"In many important ways
125
394600
2536
Eram ditas coisas como:
"Nós estamos, de muitas formas,
06:49
we are causing real harm
to the places we live in,"
126
397160
2816
causando danos reais
aos lugares em que vivemos",
06:52
and, "It is essential
that we take steps now
127
400000
2816
e: "É essencial que caminhemos
06:54
to prevent further destruction
from being done to our Earth."
128
402840
2920
para prevenir que mais destruição
seja feita na Terra".
06:59
Another group of participants
129
407120
1416
Outro grupo de participantes
07:00
were assigned to read
a really different essay
130
408560
2216
foi designado para ler
um ensaio bem diferente
07:02
that was designed to tap into
the conservative value of moral purity.
131
410800
4440
que foi concebido para explorar
o valor conservador da pureza moral.
07:08
It was a pro-environmental essay as well,
132
416190
1986
Era também a favor do ambientalismo
07:10
and it said things like,
133
418200
1496
e dizia coisas como:
07:11
"Keeping our forests, drinking water,
and skies pure is of vital importance."
134
419720
4240
"Manter nossas florestas, água potável
e céus limpos é de vital importância".
07:17
"We should regard the pollution
135
425000
1496
"Devemos considerar a poluição
07:18
of the places we live in
to be disgusting."
136
426520
2040
dos lugares em que vivemos
como repulsiva".
07:21
And, "Reducing pollution
can help us preserve
137
429160
2096
E: "Reduzir a poluição pode
nos ajudar a preservar
07:23
what is pure and beautiful
about the places we live."
138
431280
3160
o que é puro e belo
nos lugares onde vivemos".
07:27
And then we had a third group
139
435880
1416
Tínhamos um terceiro grupo
07:29
that were assigned
to read just a nonpolitical essay.
140
437320
2496
designado para ler
apenas um ensaio não político.
07:31
It was just a comparison group
so we could get a baseline.
141
439840
2736
Era apenas um grupo de comparação
para nos basearmos.
07:34
And what we found when we surveyed people
142
442600
1953
E o que vimos ao entrevistar as pessoas,
07:36
about their environmental
attitudes afterwards,
143
444577
2199
sobre suas atitudes ambientalistas,
foi que, para os liberais,
não importava qual ensaio eles leram.
07:38
we found that liberals,
it didn't matter what essay they read.
144
446800
2936
Eles tendiam a ter atitudes altamente
a favor do ambientalismo.
07:41
They tended to have highly
pro-environmental attitudes regardless.
145
449760
3096
07:44
Liberals are on board
for environmental protection.
146
452880
2416
Os liberais apoiam proteção ambiental.
Os conservadores, porém,
07:47
Conservatives, however,
147
455320
1216
07:48
were significantly more supportive
of progressive environmental policies
148
456560
4416
apoiavam de forma mais significativa
as políticas ambientais progressivas
07:53
and environmental protection
149
461000
1536
e de proteção ambiental
07:54
if they had read the moral purity essay
150
462560
2056
se tivessem lido o ensaio da pureza moral
07:56
than if they read
one of the other two essays.
151
464640
2400
do que se lessem
um dos outros dois ensaios.
08:00
We even found that conservatives
who read the moral purity essay
152
468160
3096
Ainda vimos que os conservadores
que leram o ensaio da pureza moral
08:03
were significantly more likely to say
that they believed in global warming
153
471280
3496
foram muito mais propensos a dizer
que acreditavam no aquecimento global
08:06
and were concerned about global warming,
154
474800
1905
e estavam preocupados com isso,
08:08
even though this essay
didn't even mention global warming.
155
476729
2727
mesmo que esse ensaio
nem mencionasse aquecimento global.
08:11
That's just a related environmental issue.
156
479480
2456
É só uma questão ambiental correlacionada.
08:13
But that's how robust
this moral reframing effect was.
157
481960
3080
Mas isso mostra quão forte
é o efeito de redefinição moral.
08:17
And we've studied this on a whole slew
of different political issues.
158
485960
3736
E estudamos isso em toda extensão
de diferentes questões políticas.
08:21
So if you want to move conservatives
159
489720
3736
Então se você quer
sensibilizar conservadores
sobre o casamento entre pessoas do mesmo
sexo ou seguro nacional de saúde,
08:25
on issues like same-sex marriage
or national health insurance,
160
493480
3096
08:28
it helps to tie these liberal
political issues to conservative values
161
496600
3456
ajuda ligar as questões políticas liberais
aos valores conservadores,
08:32
like patriotism and moral purity.
162
500080
2800
como patriotismo e pureza moral.
08:35
And we studied it the other way, too.
163
503800
2096
E estudamos isso também do outro lado.
08:37
If you want to move liberals
to the right on conservative policy issues
164
505920
3816
Se você quer sensibilizar liberais
para a direita nas políticas conservadoras
08:41
like military spending and making English
the official language of the US,
165
509760
4616
como gastos militares ou fazer do inglês
a língua oficial dos EUA,
08:46
you're going to be more persuasive
166
514400
1656
terá mais poder de persuasão
08:48
if you tie those conservative
policy issues to liberal moral values
167
516080
3336
se ligar as políticas conservadoras
aos valores morais liberais,
08:51
like equality and fairness.
168
519440
1880
como igualdade e justiça.
08:54
All these studies
have the same clear message:
169
522640
2856
Todos esses estudos têm
a mesma mensagem clara:
08:57
if you want to persuade
someone on some policy,
170
525520
2936
se você quer convencer alguém
sobre alguma política,
09:00
it's helpful to connect that policy
to their underlying moral values.
171
528480
3840
vale conectar tal política
à base de valores morais deles.
09:05
And when you say it like that
172
533520
2176
E quando você diz isso dessa forma
09:07
it seems really obvious. Right?
173
535720
1496
parece realmente óbvio. Certo?
09:09
Like, why did we come here tonight?
174
537240
1776
Como: por que viemos aqui esta noite?
09:11
Why --
175
539040
1216
Por que...
09:12
(Laughter)
176
540280
1536
(Risos)
09:13
It's incredibly intuitive.
177
541840
2040
É incrivelmente intuitivo.
09:17
And even though it is,
it's something we really struggle to do.
178
545400
3296
E mesmo assim, é algo que temos
dificuldade em fazer.
09:20
You know, it turns out that when we go
to persuade somebody on a political issue,
179
548720
3856
Sabem, acontece que quando tentamos
convencer alguém de uma questão política,
09:24
we talk like we're speaking into a mirror.
180
552600
2736
falamos como se estivéssemos
falando dentro de um espelho.
09:27
We don't persuade so much
as we rehearse our own reasons
181
555360
4376
Não convencemos muito enquanto
ensaiamos nossas próprias razões,
09:31
for why we believe
some sort of political position.
182
559760
2880
por que acreditamos
em certas posições políticas.
09:35
We kept saying when we were designing
these reframed moral arguments,
183
563400
4416
Continuamos a dizer quando estamos
predispostos a reformar argumentos morais:
09:39
"Empathy and respect,
empathy and respect."
184
567840
2640
"Empatia e respeito, empatia e respeito".
09:43
If you can tap into that,
185
571040
1456
Se você consegue alcançar isso,
09:44
you can connect
186
572520
1656
você consegue se conectar
09:46
and you might be able to persuade
somebody in this country.
187
574200
2800
e poderá ter capacidade
de convencer alguém nesse país.
09:49
So thinking again
188
577560
2416
Então, repensando
09:52
about what movie we're in,
189
580000
2280
em que tipo de filme estamos,
09:55
maybe I got carried away before.
190
583200
1576
talvez eu tenha exagerado antes.
09:56
Maybe it's not a zombie apocalypse movie.
191
584800
1960
Talvez não seja um filme de zumbis.
09:59
Maybe instead it's a buddy cop movie.
192
587520
1920
Talvez um filme de amigos policiais.
10:02
(Laughter)
193
590040
2016
(Risos)
10:04
Just roll with it, just go with it please.
194
592080
2016
Apenas pensem nisso, por favor.
10:06
(Laughter)
195
594120
1440
(Risos)
10:08
You know the kind:
there's a white cop and a black cop,
196
596480
2696
Vocês conhecem: um policial
branco e um policial negro,
10:11
or maybe a messy cop and an organized cop.
197
599200
2136
talvez um atrapalhado e um organizado.
10:13
Whatever it is, they don't get along
198
601360
2056
O que quer que seja, eles não se dão bem
10:15
because of this difference.
199
603440
1286
porque eles são diferentes.
10:17
But in the end, when they have
to come together and they cooperate,
200
605520
3216
Mas no final, quando eles têm
de se unir e cooperar mutuamente,
10:20
the solidarity that they feel,
201
608760
1936
a solidariedade que sentem
10:22
it's greater because of that gulf
that they had to cross. Right?
202
610720
3640
é maior por causa daquele abismo
que eles tiveram de transpor, certo?
10:27
And remember that in these movies,
203
615280
1976
E lembrem que, nesses filmes,
10:29
it's usually worst in the second act
204
617280
2896
a segunda parte é geralmente pior
10:32
when our leads are further apart
than ever before.
205
620200
2400
quando nossas posições
estão mais separadas que antes.
10:35
And so maybe that's
where we are in this country,
206
623440
2336
E talvez seja assim
que estamos nesse país,
10:37
late in the second act
of a buddy cop movie --
207
625800
2176
no final da segunda
parte de um filme policial...
10:40
(Laughter)
208
628000
2576
(Risos)
10:42
torn apart but about
to come back together.
209
630600
3080
despedaçados, porém prestes a se juntar.
10:47
It sounds good,
210
635400
1656
Isso parece legal,
10:49
but if we want it to happen,
211
637080
1856
mas se quisermos que isso aconteça,
10:50
I think the responsibility
is going to start with us.
212
638960
2720
acho que a responsabilidade
começará por nós.
10:54
So this is my call to you:
213
642520
2160
Então, esta é a minha mensagem para vocês:
10:57
let's put this country back together.
214
645480
2000
vamos reconstruir este país juntos.
11:01
Let's do it despite the politicians
215
649080
3056
Vamos fazê-lo, apesar dos políticos
11:04
and the media and Facebook and Twitter
216
652160
2856
e da mídia e Facebook e Twitter
11:07
and Congressional redistricting
217
655040
1536
e da divisão do Congresso
11:08
and all of it,
all the things that divide us.
218
656600
2720
e tudo o mais, tudo que nos divide.
11:12
Let's do it because it's right.
219
660360
2240
Vamos fazer isso porque é o certo.
11:15
And let's do it
because this hate and contempt
220
663920
4416
E façamos isso porque esse ódio e desprezo
11:20
that flows through all of us every day
221
668360
2160
que flui por nós todos os dias,
11:23
makes us ugly and it corrupts us,
222
671400
3176
nos torna feios e nos corrompe
11:26
and it threatens
the very fabric of our society.
223
674600
3320
e ameaça a estrutura da nossa sociedade.
11:31
We owe it to one another and our country
224
679960
2656
Devemos isso uns aos outros
e ao nosso país,
11:34
to reach out and try to connect.
225
682640
2160
estender a mão e tentar nos conectar.
11:38
We can't afford to hate them any longer,
226
686000
3160
Não podemos mais nos permitir odiá-los,
11:42
and we can't afford
to let them hate us either.
227
690200
2200
e também não podemos
permitir que eles nos odeiem.
11:45
Empathy and respect.
228
693880
1360
Empatia e respeito.
11:47
Empathy and respect.
229
695880
1240
Empatia e respeito.
11:49
If you think about it, it's the very least
that we owe our fellow citizens.
230
697920
3800
Se pararmos pra pensar, é o mínimo
que devemos aos nossos amigos cidadãos.
11:54
Thank you.
231
702400
1216
Obrigado.
11:55
(Applause)
232
703640
4685
(Aplausos)
Translated by Silvia Nogueira
Reviewed by Wanderley Jesus

▲Back to top

ABOUT THE SPEAKER
Robb Willer - Social psychologist
Robb Willer's political research has investigated various topics, including economic inequality, racial prejudice, masculine overcompensation and Americans' views of climate change.

Why you should listen

Robb Willer is a professor of sociology, psychology and organizational behavior at Stanford University. He studies the role of morality in politics. His research shows how moral values, typically a source of ideological division, can also be used to bring people together. His political research has investigated various topics, including economic inequality, racial prejudice, masculine overcompensation and Americans' views of climate change.

Willer has won numerous awards for his teaching and research, including the Golden Apple Teaching Award, the only award given by UC-Berkeley’s student body. Willer's class, "Self and Society," was the highest enrollment class at UC-Berkeley. His consulting clients have included the Bill and Melinda Gates Foundation, the Open Society Foundation, the Last Resort Exoneration Project and the Department of Justice.

Willer's writing has appeared in the New York Times and the Washington Post, including his op-eds "The Secret to Political Persuasion" and "Is the Environment a Moral Cause?"

Willer received a Ph.D from Cornell University and a BA from the University of Iowa. Before becoming a professor, he worked as a dishwasher, construction worker, mover, line cook and union organizer.

More profile about the speaker
Robb Willer | Speaker | TED.com