ABOUT THE SPEAKERS
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
TEDNYC

Jonathan Haidt: Can a divided America heal?

Jonathan Haidt: Os Estados Unidos divididos podem se curar?

Filmed:
2,005,570 views

Como os EUA podem se recuperar depois da eleição presidencial negativa e partidária de 2016? O psicólogo social Jonathan Haidt estuda a moral que forma a base de nossas escolhas políticas. Em um diálogo com o curador do TED Chris Anderson, ele descreve os padrões de pensamento e as causas históricas que levaram à essa divisão tão intensa nos Estados Unidos e apresenta uma visão de como o país pode seguir em frente.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio

Double-click the English transcript below to play the video.

Chris Anderson: Então, Jon,
isso parece assustador.
00:12
Chris Anderson: So, Jon, this feels scary.
0
936
2200
Jonathan Haidt: Sim.
00:15
Jonathan Haidt: Yeah.
1
3160
1165
CA: Parece que o mundo está de uma forma
como não víamos há muito tempo.
00:16
CA: It feels like the world is in a place
2
4349
1990
00:18
that we haven't seen for a long time.
3
6363
1837
00:20
People don't just disagree
in the way that we're familiar with,
4
8224
4561
As pessoas não discordam mais
da forma que estávamos habituados,
00:24
on the left-right political divide.
5
12809
1900
divididos entre esquerda e direita.
00:26
There are much deeper differences afoot.
6
14733
3001
Diferenças bem mais profundas
estão em andamento.
00:29
What on earth is going on,
and how did we get here?
7
17758
3266
O que está acontecendo,
e como chegamos a este ponto?
00:33
JH: This is different.
8
21048
3003
JH: Isso é diferente.
00:36
There's a much more
apocalyptic sort of feeling.
9
24075
3227
Há um sentimento muito mais apocalíptico.
00:39
Survey research by Pew Research shows
10
27326
2326
A pesquisa feita pela Pew Research mostra
00:41
that the degree to which we feel
that the other side is not just --
11
29676
3709
que o grau de sentimento
que temos pelo outro lado não é só...
00:45
we don't just dislike them;
we strongly dislike them,
12
33409
2974
nós não só não gostamos deles;
nós não gostamos muito deles,
00:48
and we think that they are
a threat to the nation.
13
36407
3476
e achamos que eles são
uma ameaça para a nação.
00:51
Those numbers have been going up and up,
14
39907
1964
Esses número têm crescido cada vez mais,
e estão em mais de 50% agora,
em ambos os lados.
00:53
and those are over 50 percent
now on both sides.
15
41895
2737
00:56
People are scared,
16
44656
1151
As pessoas estão com medo
pois isso parece ser diferente;
00:57
because it feels like this is different
than before; it's much more intense.
17
45831
3627
é muito mais intenso.
Sempre que olho qualquer tipo
de quebra-cabeça social,
01:01
Whenever I look
at any sort of social puzzle,
18
49482
2520
01:04
I always apply the three basic
principles of moral psychology,
19
52026
3117
aplico os três princípios
básicos de psicologia moral,
e acho que eles vão nos ajudar aqui.
01:07
and I think they'll help us here.
20
55167
1894
01:09
So the first thing that you
have to always keep in mind
21
57085
2733
A primeira coisa que sempre
devemos ter em mente,
01:11
when you're thinking about politics
22
59842
1736
quando pensamos em política,
01:13
is that we're tribal.
23
61602
1380
é que somos tribais.
01:15
We evolved for tribalism.
24
63006
1523
Evoluímos através do tribalismo.
01:16
One of the simplest and greatest
insights into human social nature
25
64553
3169
Uma das maiores e mais simples descobertas
sobre a natureza social humana
01:19
is the Bedouin proverb:
26
67746
1173
é o provérbio beduíno:
"Eu contra meu irmão;
01:20
"Me against my brother;
27
68943
1392
01:22
me and my brother against our cousin;
28
70359
1927
eu e meu irmão contra nosso primo;
01:24
me and my brother and cousins
against the stranger."
29
72310
2502
eu, meu irmão e meus primos
contra o estranho".
01:26
And that tribalism allowed us
to create large societies
30
74836
4724
E esse tribalismo nos permitiu
criar grandes sociedades
01:31
and to come together
in order to compete with others.
31
79584
3032
e nos unirmos para competir com outros.
01:34
That brought us out of the jungle
and out of small groups,
32
82640
3681
Isso nos tirou da selva
e dos pequenos grupos,
mas significa que estamos
em um eterno conflito.
01:38
but it means that we have
eternal conflict.
33
86345
2023
01:40
The question you have to look at is:
34
88392
1741
A questão que devemos olhar é:
quais aspectos da nossa sociedade
01:42
What aspects of our society
are making that more bitter,
35
90157
2664
tornam isso mais difícil,
e quais acalmam esse conflito?
01:44
and what are calming them down?
36
92845
1530
CA: Esse é um provérbio muito sombrio.
01:46
CA: That's a very dark proverb.
37
94399
1561
01:47
You're saying that that's actually
baked into most people's mental wiring
38
95984
4173
Você está dizendo que isso está incutido
nos circuitos mentais das pessoas,
01:52
at some level?
39
100181
1151
em certo nível?
01:53
JH: Oh, absolutely. This is just
a basic aspect of human social cognition.
40
101356
3804
JH: Absolutamente. Isso é só um aspecto
básico do conhecimento social humano.
Mas também podemos conviver
de forma muito pacífica,
01:57
But we can also live together
really peacefully,
41
105184
2323
01:59
and we've invented all kinds
of fun ways of, like, playing war.
42
107531
3395
e inventamos várias formas
divertidas de, digamos, brincar de guerra.
02:02
I mean, sports, politics --
43
110950
1382
Esportes, política, todos são formas
de exercitarmos essa natureza tribal
02:04
these are all ways that we get
to exercise this tribal nature
44
112356
3695
02:08
without actually hurting anyone.
45
116075
1583
sem realmente ferir ninguém.
Também somos muito bons em negociar,
em explorar e em encontrar novas pessoas.
02:09
We're also really good at trade
and exploration and meeting new people.
46
117682
4345
Então temos que ver nosso tribalismo
como algo que tem altos e baixos:
02:14
So you have to see our tribalism
as something that goes up or down --
47
122051
3299
não estamos fadados a estar sempre
lutando uns com os outros,
02:17
it's not like we're doomed
to always be fighting each other,
48
125374
2852
mas nunca teremos a paz munidal.
02:20
but we'll never have world peace.
49
128250
1850
CA: O tamanho dessa tribo
pode encolher ou aumentar.
02:22
CA: The size of that tribe
can shrink or expand.
50
130980
3222
JH: Isso.
02:26
JH: Right.
51
134226
1151
CA: O tamanho do que consideramos "nós"
02:27
CA: The size of what we consider "us"
52
135401
1987
02:29
and what we consider "other" or "them"
53
137412
2421
e do que consideramos "o outro" ou "eles"
02:31
can change.
54
139857
2130
pode mudar.
02:34
And some people believed that process
could continue indefinitely.
55
142610
5590
E alguns acreditam que esse processo
pode continuar indefinidamente.
02:40
JH: That's right.
56
148224
1192
JH: Isso mesmo.
02:41
CA: And we were indeed expanding
the sense of tribe for a while.
57
149440
3206
CA: E sem dúvida expandimos
o sentido de tribo por um tempo.
JH: Sim, e acredito que estamos chegando,
02:44
JH: So this is, I think,
58
152670
1161
02:45
where we're getting at what's possibly
the new left-right distinction.
59
153855
3355
possivelmente, à nova distinção
entre esquerda e direita.
02:49
I mean, the left-right
as we've all inherited it,
60
157234
2323
A esquerda e direita,
como nós as conhecemos,
02:51
comes out of the labor
versus capital distinction,
61
159581
2839
vêm da distinção entre trabalho e capital,
02:54
and the working class, and Marx.
62
162444
2375
das classes trabalhadoras e de Marx.
02:56
But I think what we're seeing
now, increasingly,
63
164843
2249
Mas o que vemos agora,
de maneira crescente,
02:59
is a divide in all the Western democracies
64
167116
2854
é uma divisão, em todas
as democracias ocidentais,
03:01
between the people
who want to stop at nation,
65
169994
3707
entre as pessoas que querem
ir só até o conceito de nação,
as pessoas mais provincianas,
03:05
the people who are more parochial --
66
173725
1750
03:07
and I don't mean that in a bad way --
67
175499
1797
e não falo isso de maneira pejorativa,
03:09
people who have much more
of a sense of being rooted,
68
177320
2800
pessoas com um maior senso de ter raízes,
03:12
they care about their town,
their community and their nation.
69
180144
3193
que se preocupam com sua cidade,
sua comunidade e sua nação...
03:15
And then those who are
anti-parochial and who --
70
183824
4037
e os que são anti-provincianos e que...
sempre que fico confuso, penso
na música "Imagine", de John Lennon:
03:19
whenever I get confused, I just think
of the John Lennon song "Imagine."
71
187885
3400
"Imagine que não existem países,
nada pelo qual matar ou morrer".
03:23
"Imagine there's no countries,
nothing to kill or die for."
72
191309
2829
03:26
And so these are the people
who want more global governance,
73
194162
3213
Essas são as pessoas que querem
uma governança mais global,
03:29
they don't like nation states,
they don't like borders.
74
197399
2674
elas não gostam de nações
nem de fronteiras.
03:32
You see this all over Europe as well.
75
200097
1825
Vemos isso por toda a Europa também.
03:33
There's a great metaphor guy --
actually, his name is Shakespeare --
76
201946
3226
Um cara de grandes metáforas,
na verdade seu nome é Shakespeare,
escrevia no Reino Unido dez anos atrás.
03:37
writing ten years ago in Britain.
77
205196
1581
03:38
He had a metaphor:
78
206801
1167
Ele tinha uma metáfora:
03:39
"Are we drawbridge-uppers
or drawbridge-downers?"
79
207992
3273
"Nós vamos levantar ou abaixar a ponte?"
03:43
And Britain is divided
52-48 on that point.
80
211289
2905
E o Reino Unido está dividido
na proporção de 52 por 48.
E os Estados Unidos estão divididos
nessa proporção, também.
03:46
And America is divided on that point, too.
81
214218
2120
03:49
CA: And so, those of us
who grew up with The Beatles
82
217379
3577
CA: Então, aqueles de nós
que cresceram com os Beatles
03:52
and that sort of hippie philosophy
of dreaming of a more connected world --
83
220980
3574
e com esse tipo de filosofia hippie
de sonhar com um mundo mais conectado,
isso parece tão idealista e "como pode
alguém pensar mal a esse respeito?"
03:56
it felt so idealistic and "how could
anyone think badly about that?"
84
224578
3841
04:00
And what you're saying is that, actually,
85
228736
2011
E o que você está dizendo, na verdade,
04:02
millions of people today
feel that that isn't just silly;
86
230771
4302
é que hoje milhões de pessoas
sentem que isso não é apenas tolo;
04:07
it's actually dangerous and wrong,
and they're scared of it.
87
235097
2861
na verdade é perigoso e errado,
e elas estão com medo disso.
JH: Acho que o grande problema na Europa,
e também aqui, é a questão da imigração.
04:09
JH: I think the big issue, especially
in Europe but also here,
88
237982
3026
04:13
is the issue of immigration.
89
241032
1367
E acho que precisamos olhar
com muito cuidado
04:14
And I think this is where
we have to look very carefully
90
242423
3069
04:17
at the social science
about diversity and immigration.
91
245516
3631
para as ciências sociais
sobre diversidade e imigração.
04:21
Once something becomes politicized,
92
249171
1714
Uma vez que algo é politizado,
uma vez que se torna algo
que a esquerda ama e a direita...
04:22
once it becomes something
that the left loves and the right --
93
250909
3024
04:25
then even the social scientists
can't think straight about it.
94
253957
3101
nem mesmo os cientistas sociais
conseguem ser imparciais a respeito.
04:29
Now, diversity is good in a lot of ways.
95
257082
1957
A diversidade é boa em várias maneiras.
Ela claramente traz mais inovação.
04:31
It clearly creates more innovation.
96
259063
2207
A economia americana
cresceu enormemente em função dela.
04:33
The American economy
has grown enormously from it.
97
261294
2477
04:35
Diversity and immigration
do a lot of good things.
98
263795
2382
A diversidade e a imigração
trazem muitas coisas boas.
04:38
But what the globalists,
I think, don't see,
99
266201
2628
Mas o que eu acho
que os globalistas não veem,
04:40
what they don't want to see,
100
268853
1507
o que eles não querem ver,
04:42
is that ethnic diversity
cuts social capital and trust.
101
270384
6278
é que a diversidade étnica reduz
o capital social e a confiança.
Há um estudo muito importante
04:48
There's a very important
study by Robert Putnam,
102
276686
2336
de Robert Putnam,
o autor de "Bowling Alone",
04:51
the author of "Bowling Alone,"
103
279046
1856
04:52
looking at social capital databases.
104
280926
1855
que olha bases de dados
de capitais sociais.
04:54
And basically, the more people
feel that they are the same,
105
282805
2947
Basicamente, quanto mais as pessoas sentem
que são iguais, mais confiam nos outros,
04:57
the more they trust each other,
106
285776
1507
e mais podem ter um Estado
que redistribui bem-estar social.
04:59
the more they can have
a redistributionist welfare state.
107
287307
2740
Os países escandinavos
são tão maravilhosos
05:02
Scandinavian countries are so wonderful
108
290071
1971
porque eles têm esse legado
de serem países pequenos e homogêneos.
05:04
because they have this legacy
of being small, homogenous countries.
109
292066
3349
05:07
And that leads to
a progressive welfare state,
110
295439
3717
E isso leva a um Estado
de bem-estar social progressivo,
05:11
a set of progressive
left-leaning values, which says,
111
299180
2803
um conjunto progressivo
de valores de esquerda que diz:
05:14
"Drawbridge down!
The world is a great place.
112
302007
3001
"Abaixem a ponte!
O mundo é um lugar ótimo.
05:17
People in Syria are suffering --
we must welcome them in."
113
305032
3032
As pessoas na Síria estão sofrendo,
devemos recebê-las bem".
05:20
And it's a beautiful thing.
114
308088
1377
E isso é muito bonito.
05:21
But if, and I was in Sweden
this summer,
115
309934
2583
Mas se, e eu estava na Suécia neste verão,
se o discurso na Suécia
é politicamente correto
05:24
if the discourse in Sweden
is fairly politically correct
116
312541
3183
05:27
and they can't talk about the downsides,
117
315748
2237
e não se pode falar
sobre as desvantagens,
05:30
you end up bringing a lot of people in.
118
318009
1987
você acaba trazendo um monte de pessoas.
Isso vai reduzir o capital social,
05:32
That's going to cut social capital,
119
320020
1692
o que torna difícil manter
um Estado de bem-estar social,
05:33
it makes it hard to have a welfare state
120
321736
1945
05:35
and they might end up,
as we have in America,
121
323705
2556
e eles podem terminar, como aqui nos EUA,
05:38
with a racially divided, visibly
racially divided, society.
122
326285
3613
com uma sociedade
visivelmente dividida por raças.
Então é muito desconfortável
falar sobre tudo isso.
05:41
So this is all very
uncomfortable to talk about.
123
329922
2260
Mas acho que é isso que precisa ser visto,
especialmente na Europa, mas também aqui.
05:44
But I think this is the thing,
especially in Europe and for us, too,
124
332206
3245
05:47
we need to be looking at.
125
335475
1193
CA: Você está dizendo
que pessoas razoáveis,
05:48
CA: You're saying that people of reason,
126
336692
2086
05:50
people who would consider
themselves not racists,
127
338802
2488
pessoas que não se considerariam racistas,
05:53
but moral, upstanding people,
128
341314
1727
mas pessoas morais, éticas,
05:55
have a rationale that says
humans are just too different;
129
343065
2946
têm um lado racional que diz
que os humanos são muito diferentes;
05:58
that we're in danger of overloading
our sense of what humans are capable of,
130
346035
5439
que corremos o risco
de exceder nossa percepção
sobre o que os humanos são capazes,
ao misturar pessoas muito diferentes.
06:03
by mixing in people who are too different.
131
351498
2490
06:06
JH: Yes, but I can make it
much more palatable
132
354012
3540
JH: Sim, mas posso
tornar isso mais palatável
06:09
by saying it's not necessarily about race.
133
357576
2798
dizendo que isso não tem,
necessariamente, a ver com raça.
06:12
It's about culture.
134
360819
1267
Tem a ver com cultura.
06:14
There's wonderful work by a political
scientist named Karen Stenner,
135
362110
4173
Há um trabalho maravilhoso
de uma cientista política
chamada Karen Stenner,
06:18
who shows that when people have a sense
136
366307
3227
que mostra que, quando
uma pessoa tem a percepção
06:21
that we are all united,
we're all the same,
137
369558
2235
de que estamos todos unidos,
somos todos iguais,
06:23
there are many people who have
a predisposition to authoritarianism.
138
371817
3250
há muitas pessoas com predisposição
para o autoritarismo.
Essas pessoas não são
particularmente racistas
06:27
Those people aren't particularly racist
139
375091
2042
06:29
when they feel as through
there's not a threat
140
377157
2167
quando elas sentem que não há
uma ameaça à nossa ordem social e moral.
06:31
to our social and moral order.
141
379348
1699
Mas se você colocá-las de prontidão,
pensando que estamos nos dividindo,
06:33
But if you prime them experimentally
142
381071
2033
06:35
by thinking we're coming apart,
people are getting more different,
143
383128
3132
que as pessoas estão
ficando mais diferentes,
06:38
then they get more racist, homophobic,
they want to kick out the deviants.
144
386284
3523
elas se tornam mais racistas, homofóbicas,
querem expulsar os diferentes.
06:41
So it's in part that you get
an authoritarian reaction.
145
389831
2907
Em parte você obtém
uma reação autoritária.
06:44
The left, following through
the Lennonist line --
146
392762
2337
A esquerda, seguindo a linha lennonista,
06:47
the John Lennon line --
147
395123
1286
a linha de John Lennon,
06:48
does things that create
an authoritarian reaction.
148
396433
2409
faz coisas que geram
uma reação autoritária.
Estamos vendo isso nos Estados Unidos,
com a direita alternativa.
06:50
We're certainly seeing that
in America with the alt-right.
149
398866
2795
Vimos isso no Reino Unido
e por toda a Europa.
06:53
We saw it in Britain,
we've seen it all over Europe.
150
401685
2582
06:56
But the more positive part of that
151
404291
2582
Mas a parte postitiva disso
06:58
is that I think the localists,
or the nationalists, are actually right --
152
406897
4297
é que os localistas,
ou os nacionalistas, têm razão:
07:03
that, if you emphasize
our cultural similarity,
153
411218
3787
se enfatizarmos
nossa similaridade cultural,
07:07
then race doesn't actually
matter very much.
154
415029
2227
a raça realmente não significa muito.
07:09
So an assimilationist
approach to immigration
155
417280
2708
Então uma abordagem
de assimilação dos imigrantes
elimina muitos desses problemas.
07:12
removes a lot of these problems.
156
420012
1557
Se você valoriza ter um estado
que oferece bem-estar social,
07:13
And if you value having
a generous welfare state,
157
421593
2387
07:16
you've got to emphasize
that we're all the same.
158
424004
2473
deve enfatizar o fato
de sermos todos iguais.
07:18
CA: OK, so rising immigration
and fears about that
159
426840
3094
CA: Certo, então o aumento da imigração
e dos medos em relação a isso
07:21
are one of the causes
of the current divide.
160
429958
3167
são duas das causas da atual divisão.
Quais são as outras?
07:25
What are other causes?
161
433149
1713
07:26
JH: The next principle of moral psychology
162
434886
2021
JH: O próximo princípio
da psicologia moral
07:28
is that intuitions come first,
strategic reasoning second.
163
436931
3803
é que intuição vem primeiro,
raciocínio estratégico vem depois.
Provavelmente você já ouviu
o termo "raciocínio motivado"
07:32
You've probably heard
the term "motivated reasoning"
164
440758
2480
07:35
or "confirmation bias."
165
443262
1607
ou "viés de confirmação".
07:36
There's some really interesting work
166
444893
1917
Há trabalhos muito interessantes
07:38
on how our high intelligence
and our verbal abilities
167
446834
3077
sobre como nossa inteligência
e nossas habilidades verbais
07:41
might have evolved
not to help us find out the truth,
168
449935
3202
podem ter evoluído não para nos ajudar
a encontrar a verdade,
mas para nos ajudar a manipular
os outros, defender nossa reputação...
07:45
but to help us manipulate each other,
defend our reputation ...
169
453161
2972
07:48
We're really, really good
at justifying ourselves.
170
456157
2966
Somos realmente muito bons
em justificar a nós mesmos.
07:51
And when you bring
group interests into account,
171
459147
2367
E quando você considera
interesses de grupos,
07:53
so it's not just me,
it's my team versus your team,
172
461538
2737
não é mais apenas eu,
é o meu time contra o seu,
ainda que você avalie evidências
de que o seu lado está errado,
07:56
whereas if you're evaluating evidence
that your side is wrong,
173
464299
2913
simplesmente não podemos aceitar isso.
07:59
we just can't accept that.
174
467236
1757
08:01
So this is why you can't win
a political argument.
175
469017
2717
Por isso não se consegue vencer
um argumento político.
08:03
If you're debating something,
176
471758
1493
Se você está debatendo algo,
08:05
you can't persuade the person
with reasons and evidence,
177
473275
3047
você não pode persuadir a pessoa
com razões e evidências,
08:08
because that's not
the way reasoning works.
178
476346
2345
porque não é assim
que o raciocínio funciona.
08:10
So now, give us the internet,
give us Google:
179
478715
3115
Então vamos ver a Internet,
vamos ver o Google:
08:14
"I heard that Barack Obama
was born in Kenya.
180
482522
2730
"Eu ouvi que Barack Obama nasceu no Kenya.
08:17
Let me Google that -- oh my God!
10 million hits! Look, he was!"
181
485276
3948
Vou pesquisar isso... Nossa! Dez milhões
de resultados! Veja, ele nasceu lá!"
08:21
CA: So this has come as an unpleasant
surprise to a lot of people.
182
489248
3140
CA: Então isso foi uma surpresa
desagradável para muita gente.
As mídias sociais normalmente
são consideradas pelos tecno-otimistas
08:24
Social media has often been framed
by techno-optimists
183
492412
2848
08:27
as this great connecting force
that would bring people together.
184
495284
5247
como uma grande força de conexão
que vai unir as pessoas.
08:32
And there have been some
unexpected counter-effects to that.
185
500555
3922
E ocorreram alguns
efeitos colaterais inesperados.
08:36
JH: That's right.
186
504922
1151
JH: Isso mesmo.
Por isso estou encantado com a visão
yin-yang sobre a natureza humana
08:38
That's why I'm very enamored
of yin-yang views
187
506097
2381
08:40
of human nature and left-right --
188
508502
1618
e a esquerda e direita, de que cada lado
está certo sobre algumas coisas,
08:42
that each side is right
about certain things,
189
510144
2466
08:44
but then it goes blind to other things.
190
512634
2121
mas cego sobre outras.
08:46
And so the left generally believes
that human nature is good:
191
514779
2978
A esquerda geralmente acredita
que a natureza humana é boa:
vamos juntar as pessoas, derrubar
as paredes, e tudo ficará bem.
08:49
bring people together, knock down
the walls and all will be well.
192
517781
3165
A direita, os conservadores
sociais, não os libertários,
08:52
The right -- social conservatives,
not libertarians --
193
520970
2558
08:55
social conservatives generally
believe people can be greedy
194
523552
4253
conservadores sociais em geral acreditam
que as pessoas podem ser gananciosas,
08:59
and sexual and selfish,
195
527829
1382
sexuais e egoístas,
09:01
and we need regulation,
and we need restrictions.
196
529235
2420
e precisam de regulação e restrições.
09:04
So, yeah, if you knock down all the walls,
197
532214
2402
Sendo assim, se você derrubar os muros
e permitir que as pessoas
de todo o mundo se comuniquem,
09:06
allow people to communicate
all over the world,
198
534640
2229
09:08
you get a lot of porn and a lot of racism.
199
536893
2058
você terá muita pornografia e racismo.
CA: Então nos ajude a entender.
09:10
CA: So help us understand.
200
538975
1261
09:12
These principles of human nature
have been with us forever.
201
540260
5552
Esses princípios da natureza humana
têm estado sempre conosco.
09:18
What's changed that's deepened
this feeling of division?
202
546918
4774
O que mudou, que aprofundou
esse sentimento de divisão?
09:24
JH: You have to see six to ten
different threads all coming together.
203
552360
4656
JH: Você deve ver seis a dez
linhas diferentes se unindo.
09:29
I'll just list a couple of them.
204
557373
1693
Vou listar apenas algumas delas.
09:31
So in America, one of the big --
actually, America and Europe --
205
559398
4478
Nos Estados Unidos,
e na verdade também na Europa,
uma das maiores
é a Segunda Guerra Mundial.
09:35
one of the biggest ones is World War II.
206
563900
1913
Há uma pesquisa interessante,
feita por Joe Henrich e outros,
09:37
There's interesting research
from Joe Henrich and others
207
565837
2643
09:40
that says if your country was at war,
208
568504
2403
que diz que se seu país esteve em guerra,
especialmente quando você era jovem,
09:42
especially when you were young,
209
570931
1557
09:44
then we test you 30 years later
in a commons dilemma
210
572512
3114
e 30 anos depois você for testado
na tragédia dos comuns
ou no dilema dos prisioneiros,
09:47
or a prisoner's dilemma,
211
575650
1329
09:49
you're more cooperative.
212
577003
1291
você é mais cooperativo.
09:50
Because of our tribal nature, if you're --
213
578983
2873
Devido à nossa natureza tribal, você...
09:53
my parents were teenagers
during World War II,
214
581880
2917
meus pais eram adolescentes
durante a Segunda Guerra Mundial,
09:56
and they would go out
looking for scraps of aluminum
215
584821
2561
e eles saíam à procura
de pedaços de alumínio
para ajudar nos esforços de guerra.
09:59
to help the war effort.
216
587406
1189
10:00
I mean, everybody pulled together.
217
588619
2178
Quero dizer, todo mundo pegava junto.
10:02
And so then these people go on,
218
590821
1529
E assim essas pessoas seguiram em frente,
cresceram nos negócios e governos,
10:04
they rise up through business
and government,
219
592374
2398
assumiram posições de liderança.
10:06
they take leadership positions.
220
594796
1631
10:08
They're really good
at compromise and cooperation.
221
596451
3251
Elas são muito boas
em compromisso e cooperação.
Todas elas se aposentaram na década de 90.
10:11
They all retire by the '90s.
222
599726
1935
10:13
So we're left with baby boomers
by the end of the '90s.
223
601685
3301
E fomos deixados com os "baby boomers"
no final da década de 90.
10:17
And their youth was spent fighting
each other within each country,
224
605010
3967
E eles passaram a juventude lutando
entre si ou com outros países,
10:21
in 1968 and afterwards.
225
609001
1647
em 1968 e depois.
10:22
The loss of the World War II generation,
"The Greatest Generation,"
226
610672
3994
A perda da geração da Segunda Guerra,
a "Geração Grandiosa", é enorme.
10:26
is huge.
227
614690
1284
10:28
So that's one.
228
616567
1175
Essa é uma delas.
10:30
Another, in America,
is the purification of the two parties.
229
618440
3123
Outra, nos Estados Unidos,
é a purificação dos dois partidos.
Usualmente havia republicanos liberais
e democratas conservadores.
10:33
There used to be liberal Republicans
and conservative Democrats.
230
621949
3047
Então os Estados Unidos em meados
do século 20 era realmente bipartidário.
10:37
So America had a mid-20th century
that was really bipartisan.
231
625020
3167
10:40
But because of a variety of factors
that started things moving,
232
628211
4367
Mas devido a uma série de fatores
que fizeram as coisas se modificarem,
10:44
by the 90's, we had a purified
liberal party and conservative party.
233
632602
3398
na década de 90 temos um partido liberal
e um partido conservador puros.
Então agora as pessoas em cada partido
são de fato diferentes,
10:48
So now, the people in either party
really are different,
234
636024
2645
10:50
and we really don't want
our children to marry them,
235
638693
2483
e não queremos que nossas
crianças casem com elas,
10:53
which, in the '60s,
didn't matter very much.
236
641200
2068
o que, na década de 60,
não importava muito.
10:55
So, the purification of the parties.
237
643292
1797
Então, a purificação dos partidos.
10:57
Third is the internet and, as I said,
238
645113
2472
A terceira é a internet e, como eu disse,
10:59
it's just the most amazing stimulant
for post-hoc reasoning and demonization.
239
647609
4683
é a causa e efeito que mais estimula
o raciocínio e a demonização.
11:04
CA: The tone of what's happening
on the internet now is quite troubling.
240
652316
4792
CA: O tom do que está acontecendo
na internet é muito inquietante.
11:09
I just did a quick search
on Twitter about the election
241
657132
2847
Eu fiz uma pesquisa rápida
no Twitter sobre a eleição
11:12
and saw two tweets next to each other.
242
660003
2920
e vi dois tuítes próximos um do outro.
11:15
One, against a picture of racist graffiti:
243
663335
4212
Um, sobre uma imagem
de um grafite racista:
11:20
"This is disgusting!
244
668007
1633
"Isso é nojento! A feiura nesse país
foi trazida por #Trump".
11:21
Ugliness in this country,
brought to us by #Trump."
245
669664
3170
11:25
And then the next one is:
246
673424
1382
E o outro é:
11:27
"Crooked Hillary
dedication page. Disgusting!"
247
675339
3303
"Página da Hillary Desonesta. Repulsiva!"
11:31
So this idea of "disgust"
is troubling to me.
248
679176
4207
Essa ideia de "repulsa",
para mim, é perturbadora.
11:35
Because you can have an argument
or a disagreement about something,
249
683407
3235
Se você tem um argumento
ou uma discordância sobre alguma coisa,
11:38
you can get angry at someone.
250
686666
1561
você pode ficar raivoso com alguém.
11:41
Disgust, I've heard you say,
takes things to a much deeper level.
251
689094
3593
A repulsa, ouvi você dizer,
leva as coisas a um nível bem mais baixo.
11:44
JH: That's right. Disgust is different.
252
692711
1887
JH: Isso mesmo. Repulsa é diferente.
11:46
Anger -- you know, I have kids.
253
694622
1963
Raiva... veja, eu tenho filhos.
11:48
They fight 10 times a day,
254
696609
1750
Eles brigam dez vezes por dia,
11:50
and they love each other 30 times a day.
255
698383
1967
e se amam trinta vezes por dia.
11:52
You just go back and forth:
you get angry, you're not angry;
256
700374
2910
Você só fica no vai e vem:
fica brabo, deixa de ficar,
fica brabo, deixa de ficar;
11:55
you're angry, you're not angry.
257
703308
1523
Mas repulsa é diferente.
11:56
But disgust is different.
258
704855
1310
Repulsa dá a ideia de pessoa
sub-humana, monstruosa,
11:58
Disgust paints the person
as subhuman, monstrous,
259
706189
4473
12:02
deformed, morally deformed.
260
710686
1809
deformada, moralmente deformada.
12:04
Disgust is like indelible ink.
261
712519
2424
Repulsa é como tinta permanente.
12:07
There's research from John Gottman
on marital therapy.
262
715768
3515
Há uma pesquisa de John Gottman
sobre terapia de casal.
12:11
If you look at the faces -- if one
of the couple shows disgust or contempt,
263
719307
5125
Se você olhar os rostos e um deles
expressar repulsa ou desprezo,
12:16
that's a predictor that they're going
to get divorced soon,
264
724456
3096
é um indício de que em breve
eles irão se separar,
12:19
whereas if they show anger,
that doesn't predict anything,
265
727576
2899
mas se eles demonstram raiva,
isso não indica nada,
porque se você souber lidar com a raiva,
ela é até uma coisa boa.
12:22
because if you deal with anger well,
it actually is good.
266
730499
2709
Então essa eleição é diferente.
12:25
So this election is different.
267
733232
1452
O próprio Donald Trump
usa muito a palavra "repulsivo".
12:26
Donald Trump personally
uses the word "disgust" a lot.
268
734708
3654
12:30
He's very germ-sensitive,
so disgust does matter a lot --
269
738386
2857
Ele é muito sensível a germes,
então a repulsa importa muito a ele
12:33
more for him, that's something
unique to him --
270
741267
3910
para ele é algo bem pessoal,
12:37
but as we demonize each other more,
271
745201
2903
mas se demonizamos uns aos outros,
12:40
and again, through
the Manichaean worldview,
272
748128
3409
e de novo, através
de uma visão maniqueísta
12:43
the idea that the world
is a battle between good and evil
273
751561
2730
de que o mundo é uma batalha
entre o bem e o mal,
12:46
as this has been ramping up,
274
754315
1347
e isso tem aumentado,
12:47
we're more likely not just to say
they're wrong or I don't like them,
275
755686
3326
em vez de apenas dizer que eles
estão errados ou que não gostamos deles,
12:51
but we say they're evil, they're satanic,
276
759036
2536
dizemos que eles são malignos, satânicos,
são repulsivos, revoltantes.
12:53
they're disgusting, they're revolting.
277
761596
1921
12:55
And then we want nothing to do with them.
278
763541
2866
E não queremos ter nada com eles.
12:58
And that's why I think we're seeing it,
for example, on campus now.
279
766806
3487
Penso que é por isso que temos visto
muito disso nas universidades.
Temos visto a necessidade de manter
as pessoas fora dos campus,
13:02
We're seeing more the urge
to keep people off campus,
280
770317
2640
13:04
silence them, keep them away.
281
772981
1945
silenciá-las, mantê-las distantes.
13:06
I'm afraid that this whole
generation of young people,
282
774950
2595
Receio que toda essa geração de jovens,
se a introdução deles na política
envolve tanta repulsa,
13:09
if their introduction to politics
involves a lot of disgust,
283
777569
3793
13:13
they're not going to want to be involved
in politics as they get older.
284
781386
3705
eles não vão querer envolver-se
com política quando ficarem mais velhos.
13:17
CA: So how do we deal with that?
285
785506
1840
CA: E como lidamos com isso?
13:19
Disgust. How do you defuse disgust?
286
787370
4480
Repulsa. Como se combate a repulsa?
13:24
JH: You can't do it with reasons.
287
792874
1948
JH: Você não consegue
fazer isso com bom senso.
13:27
I think ...
288
795312
1191
Eu acho...
13:30
I studied disgust for many years,
and I think about emotions a lot.
289
798257
3217
Eu estudei a repulsa por muitos anos
e penso muito sobre emoções,
13:33
And I think that the opposite
of disgust is actually love.
290
801498
3525
e acho que o oposto da repulsa
é, na verdade, o amor.
13:37
Love is all about, like ...
291
805764
3091
Amor é...
13:41
Disgust is closing off, borders.
292
809239
2571
Repulsa é criar barreiras, fronteiras.
13:43
Love is about dissolving walls.
293
811834
2545
Amor é derrubar muros.
13:47
So personal relationships, I think,
294
815074
2480
Então acho que as relações pessoais
13:49
are probably the most
powerful means we have.
295
817578
2759
são, provavelmente,
os meios mais poderosos que temos.
13:53
You can be disgusted by a group of people,
296
821291
2697
Você pode sentir repulsa
por um grupo de pessoas,
mas então conhece uma pessoa em particular
13:56
but then you meet a particular person
297
824012
1918
13:57
and you genuinely discover
that they're lovely.
298
825954
2776
e descobre que eles são adoráveis.
14:00
And then gradually that chips away
or changes your category as well.
299
828754
4296
E isso gradualmente
vai mudando sua percepção.
14:06
The tragedy is, Americans used to be
much more mixed up in the their towns
300
834016
5977
A tragédia é que os americanos costumavam
ser bem mais misturados, em suas cidades,
14:12
by left-right or politics.
301
840017
2134
pela direita e esquerda ou pela política,
14:14
And now that it's become
this great moral divide,
302
842175
2331
e agora isso se tornou
uma grande divisão moral,
14:16
there's a lot of evidence
that we're moving to be near people
303
844530
3143
existem muitas evidências que estamos
nos aproximando de pessoas
que são politicamente como nós.
14:19
who are like us politically.
304
847697
1512
14:21
It's harder to find somebody
who's on the other side.
305
849233
2530
É difícil encontrar alguém
que esteja do outro lado.
14:23
So they're over there, they're far away.
306
851787
2290
Eles estão lá, bem distantes.
14:26
It's harder to get to know them.
307
854101
1570
É difícil conhecê-los.
14:27
CA: What would you say to someone
or say to Americans,
308
855695
4224
CA: O que você diria para alguém,
ou para os americanos,
para as pessoas em geral,
14:31
people generally,
309
859943
1158
14:33
about what we should understand
about each other
310
861125
2609
sobre o que devemos
entender sobre os outros
14:35
that might help us rethink for a minute
311
863758
3475
que pode nos fazer
repensar, por um minuto,
14:39
this "disgust" instinct?
312
867257
2203
essa "repulsa" instintiva.
14:42
JH: Yes.
313
870086
1152
JH: Sim.
14:43
A really important
thing to keep in mind --
314
871262
2153
Uma coisa muito
importante de ter em mente...
14:45
there's research by political
scientist Alan Abramowitz,
315
873439
4716
existem pesquisas feitas
pelo cientista poítico Alan Abramowitz
14:50
showing that American democracy
is increasingly governed
316
878179
3993
mostrando que cada vez mais
a democracia americana é governada
14:54
by what's called "negative partisanship."
317
882196
2243
pela chamada "negação partidária".
14:56
That means you think,
OK there's a candidate,
318
884875
3111
Isso significa que você pensa
que tudo bem, há um candidato,
15:00
you like the candidate,
you vote for the candidate.
319
888010
2406
você gosta dele e vota nele.
15:02
But with the rise of negative advertising
320
890440
2059
Mas com o aumento da propaganda negativa
15:04
and social media
and all sorts of other trends,
321
892523
2224
das mídias sociais
e diversas outras tendências,
15:06
increasingly, the way elections are done
322
894771
2041
cada vez mais as eleições acontecem
de forma que cada lado faz o outro
15:08
is that each side tries to make
the other side so horrible, so awful,
323
896836
3981
parecer tão horrivel, tão medonho,
que por falta de opção você
vai votar no meu candidato.
15:12
that you'll vote for my guy by default.
324
900841
2041
15:15
And so as we more and more vote
against the other side
325
903319
2970
E quanto mais votamos contra o outro lado
e não pelo nosso lado,
15:18
and not for our side,
326
906313
1331
15:19
you have to keep in mind
that if people are on the left,
327
907668
5507
temos que ter em mente
que as pessoas de esquerda
vão pensar: "Bem, eu sempre achei
que os republicanos eram ruins,
15:25
they think, "Well, I used to think
that Republicans were bad,
328
913199
2910
agora o Donald Trump comprova isso.
15:28
but now Donald Trump proves it.
329
916133
1483
15:29
And now every Republican,
I can paint with all the things
330
917640
2851
Agora posso atribuir
a todos os republicanos
essas coisas que penso sobre o Trump".
15:32
that I think about Trump."
331
920515
1382
Isso não é necessariamente verdade.
15:33
And that's not necessarily true.
332
921921
1593
15:35
They're generally not very happy
with their candidate.
333
923538
2692
Normalmente eles não estão
satisfeitos com seus candidatos.
15:38
This is the most negative partisanship
election in American history.
334
926254
4716
Essa é a eleição de maior negação
partidária da história dos Estados Unidos.
15:43
So you have to first separate
your feelings about the candidate
335
931860
3363
Então primeiro você precisa separar
seus sentimentos sobre o candidato
15:47
from your feelings about the people
who are given a choice.
336
935247
2937
dos seus sentimentos
sobre as pessoas que têm uma escolha.
15:50
And then you have to realize that,
337
938208
2483
E então você tem que perceber
que, como todos nós vivemos
em um mundo moral à parte...
15:53
because we all live
in a separate moral world --
338
941246
2420
15:55
the metaphor I use in the book
is that we're all trapped in "The Matrix,"
339
943690
3451
e a metáfora que usei no livro
é que estamos presos em "Matrix",
15:59
or each moral community is a matrix,
a consensual hallucination.
340
947165
3524
ou cada comunidade moral é uma Matrix,
uma alucinação coletiva....
16:02
And so if you're within the blue matrix,
341
950713
2243
Então se você está do lado dos azuis,
16:04
everything's completely compelling
that the other side --
342
952980
3194
tudo comprova que do outro lado
16:08
they're troglodytes, they're racists,
they're the worst people in the world,
343
956198
3631
eles são trogloditas, racistas,
são as piores pessoas do mundo,
16:11
and you have all the facts
to back that up.
344
959853
2104
e você tem todos os fatos
que comprovam isso.
16:13
But somebody in the next house from yours
345
961981
2275
Mas alguém na casa ao lado
16:16
is living in a different moral matrix.
346
964280
2033
vive em um mundo moral diferente do seu.
16:18
They live in a different video game,
347
966337
1947
Eles vivem um videogame diferente,
e veem um conjunto de fatos
completamente diferente.
16:20
and they see a completely
different set of facts.
348
968308
2378
16:22
And each one sees
different threats to the country.
349
970710
2676
E cada um vê ameaças
diferentes ao seu país.
16:25
And what I've found
from being in the middle
350
973410
2090
E o que eu descobri por estar no meio
16:27
and trying to understand both sides
is: both sides are right.
351
975524
2927
e tentar entender os dois lados é:
os dois lados estão certos.
Existem várias ameaças a este país,
e cada lado é incapaz de ver todas elas.
16:30
There are a lot of threats
to this country,
352
978475
2120
16:32
and each side is constitutionally
incapable of seeing them all.
353
980619
3485
16:36
CA: So, are you saying
that we almost need a new type of empathy?
354
984963
6519
CA: Então você está dizendo que todos nós
precisamos de um novo tipo de empatia?
16:43
Empathy is traditionally framed as:
355
991506
2170
A empatia tradicionalmente
é enquadrada como:
"Oh, eu sinto a sua dor e consigo
me colocar nos seus sapatos".
16:45
"Oh, I feel your pain.
I can put myself in your shoes."
356
993700
2691
16:48
And we apply it to the poor,
the needy, the suffering.
357
996415
2929
E aplicamos isso aos pobres,
aos necessitados, aos sofredores.
16:52
We don't usually apply it
to people who we feel as other,
358
1000023
3823
Normalmente não aplicamos isso
a pessoas que sentimos como opostas
16:55
or we're disgusted by.
359
1003870
1465
ou por quem sentimos repulsa.
16:57
JH: No. That's right.
360
1005359
1151
JH: Não. É isso.
16:58
CA: What would it look like
to build that type of empathy?
361
1006534
4830
CA: Como seria se conseguíssemos
construir esse tipo de empatia?
17:04
JH: Actually, I think ...
362
1012268
1238
JH: Na verdade, eu acho...
Empatia é um tópico
muito em alta na psicologia,
17:06
Empathy is a very, very
hot topic in psychology,
363
1014145
2305
e é um termo muito popular,
especialmente na esquerda.
17:08
and it's a very popular word
on the left in particular.
364
1016474
2658
Empatia para as classes preferidas
de vítimas é uma coisa boa.
17:11
Empathy is a good thing, and empathy
for the preferred classes of victims.
365
1019156
4000
Então é importante
sentir empatia pelos grupos
17:15
So it's important to empathize
366
1023180
1453
17:16
with the groups that we on the left
think are so important.
367
1024657
2824
que nós, da esquerda, achamos importantes.
Isso é facil fazer, porque você
ganha pontos por isso.
17:19
That's easy to do,
because you get points for that.
368
1027505
2531
17:22
But empathy really should get you points
if you do it when it's hard to do.
369
1030442
3649
Você deveria receber pontos ao ter
empatia em situações difíceis de tê-la.
E eu acho...
17:26
And, I think ...
370
1034513
1754
Bem, tivemos um longo período de 50 anos
lidando com nossos problemas de raça
17:28
You know, we had a long 50-year period
of dealing with our race problems
371
1036291
5088
17:33
and legal discrimination,
372
1041403
2255
e discriminação legal,
e essa foi uma das nossas prioridades
por muito tempo e ainda é importante,
17:35
and that was our top priority
for a long time
373
1043682
2187
17:37
and it still is important.
374
1045893
1250
mas espero que, com este ano,
as pessoas vejam
17:39
But I think this year,
375
1047167
1529
17:40
I'm hoping it will make people see
376
1048720
2404
que temos uma ameaça
existencial em nossas mãos.
17:43
that we have an existential
threat on our hands.
377
1051148
2795
17:45
Our left-right divide, I believe,
378
1053967
2667
Acredito que a divisão
em esquerda e direita
17:48
is by far the most important
divide we face.
379
1056658
2160
é a divisão mais importante
que enfrentamos.
17:50
We still have issues about race
and gender and LGBT,
380
1058842
3031
Ainda temos questões
sobre raça, gênero e LGBTs,
17:53
but this is the urgent need
of the next 50 years,
381
1061897
3371
mas essa é a necessidade urgente
dos próximos 50 anos;
17:57
and things aren't going
to get better on their own.
382
1065292
2861
as coisas não vão melhorar sozinhas.
18:01
So we're going to need to do
a lot of institutional reforms,
383
1069021
2835
Precisaremos fazer muitas reformas
institucionais e podemos falar sobre isso,
18:03
and we could talk about that,
384
1071880
1409
18:05
but that's like a whole long,
wonky conversation.
385
1073313
2330
mas essa é uma conversa longa e tortuosa,
18:07
But I think it starts with people
realizing that this is a turning point.
386
1075667
3846
mas acho que ela começa com as pessoas
percebendo que esse é um ponto de virada.
18:11
And yes, we need a new kind of empathy.
387
1079537
2809
E sim, precisamos
de um novo tipo de empatia.
Temos que nos dar conta:
18:14
We need to realize:
388
1082370
1505
18:15
this is what our country needs,
389
1083899
1542
é disso que nosso país precisa
18:17
and this is what you need
if you don't want to --
390
1085465
2354
e é disso que você
precisa, se não quiser...
Levantem as mãos se querem passar
os próximos quatro anos
18:19
Raise your hand if you want
to spend the next four years
391
1087843
2695
tão raivosos e preocupados
como estiveram no último ano.
18:22
as angry and worried as you've been
for the last year -- raise your hand.
392
1090562
3486
Então, se você quer fugir disso,
18:26
So if you want to escape from this,
393
1094072
1705
leia Buda, Jesus, Marcus Aurelius.
18:27
read Buddha, read Jesus,
read Marcus Aurelius.
394
1095801
2151
18:29
They have all kinds of great advice
for how to drop the fear,
395
1097976
5062
Eles têm todo tipo de conselhos
sobre como acabar com o medo,
18:35
reframe things,
396
1103062
1178
repensar tudo,
18:36
stop seeing other people as your enemy.
397
1104264
2083
parar de ver os outros como inimigos.
18:38
There's a lot of guidance in ancient
wisdom for this kind of empathy.
398
1106371
3307
Há muita orientação para esse tipo
de empatia nas sabedorias antigas.
18:41
CA: Here's my last question:
399
1109702
1377
CA: Minha última pergunta:
18:43
Personally, what can
people do to help heal?
400
1111103
4335
Pessoalmente, o que as pessoas
podem fazer para ajudar nessa cura?
18:47
JH: Yeah, it's very hard to just decide
to overcome your deepest prejudices.
401
1115462
4083
JH: Sim, é muito difícil decidir abrir mão
de seus preconceitos mais profundos.
18:51
And there's research showing
402
1119569
1461
E as pesquisas mostram
18:53
that political prejudices are deeper
and stronger than race prejudices
403
1121054
4349
que hoje os preconceitos políticos
são mais fortes e profundos que os de raça
18:57
in the country now.
404
1125427
1260
em nosso país.
18:59
So I think you have to make an effort --
that's the main thing.
405
1127395
3432
Então acho que é preciso fazer
um esforço, isso é o principal.
Esforçar-se para realmente
encontrar alguém.
19:02
Make an effort to actually meet somebody.
406
1130851
2004
19:04
Everybody has a cousin, a brother-in-law,
407
1132879
2210
Todo mundo tem um primo, um cunhado,
19:07
somebody who's on the other side.
408
1135113
1869
alguém que é do outro lado.
19:09
So, after this election --
409
1137006
1816
Então, depois dessa eleição,
19:11
wait a week or two,
410
1139252
1351
espere uma semana ou duas,
19:12
because it's probably going to feel
awful for one of you --
411
1140627
2836
porque provavelmente vai ser
horrível para um de vocês,
19:15
but wait a couple weeks, and then
reach out and say you want to talk.
412
1143487
4152
mas espere por umas semanas
e então diga que você quer conversar.
19:19
And before you do it,
413
1147663
1424
E antes de fazê-lo, leia Dale Carnegie:
"Como fazer amigos e influenciar pessoas".
19:21
read Dale Carnegie, "How to Win
Friends and Influence People" --
414
1149111
3145
19:24
(Laughter)
415
1152280
1039
(Risos)
19:25
I'm totally serious.
416
1153343
1167
Estou falando sério.
19:26
You'll learn techniques
if you start by acknowledging,
417
1154534
2590
Você vai aprender técnicas, se você
começar reconhecendo e dizendo:
19:29
if you start by saying,
418
1157148
1161
"Veja, não concordamos em muita coisa,
19:30
"You know, we don't agree on a lot,
419
1158333
1670
mas uma coisa eu realmente
respeito em você, tio",
19:32
but one thing I really respect
about you, Uncle Bob,"
420
1160027
2538
19:34
or "... about you conservatives, is ... "
421
1162589
2059
ou "... em seu conservadorismo..."
Você consegue achar alguma coisa.
19:36
And you can find something.
422
1164672
1334
19:38
If you start with some
appreciation, it's like magic.
423
1166030
2763
Se você começar com algum
elogio, é como mágica.
19:40
This is one of the main
things I've learned
424
1168817
2114
Essa é uma das principais
coisas que aprendi
19:42
that I take into my human relationships.
425
1170955
1913
que levo para minhas relações humanas.
19:44
I still make lots of stupid mistakes,
426
1172892
1920
Ainda cometo muitos erros tolos,
mas sou incrivelmente bom
em pedir desculpas
19:46
but I'm incredibly good
at apologizing now,
427
1174836
2016
e em reconhecer que alguém
tinha razão em alguma coisa.
19:48
and at acknowledging what
somebody was right about.
428
1176876
2417
19:51
And if you do that,
429
1179317
1154
E se você faz isso, o diálogo
realmente flui bem e é divertido.
19:52
then the conversation goes really well,
and it's actually really fun.
430
1180495
3494
19:56
CA: Jon, it's absolutely fascinating
speaking with you.
431
1184717
2645
CA: Jon, é absolutamente
fascinante conversar com você.
19:59
It's really does feel like
the ground that we're on
432
1187386
3758
Realmente parece que o terreno
sobre o qual estamos pisando
20:03
is a ground populated by deep questions
of morality and human nature.
433
1191168
4867
é habitado por profundas questões
sobre a moral e a natureza humana.
20:08
Your wisdom couldn't be more relevant.
434
1196366
2424
Sua sabedoria não poderia
ser mais relevante.
Muito obrigado por compartilhar
esse tempo conosco.
20:10
Thank you so much for sharing
this time with us.
435
1198814
2295
JH: Obrigado, Chris.
20:13
JH: Thanks, Chris.
436
1201133
1152
JH: Obrigado a todos.
20:14
JH: Thanks, everyone.
437
1202309
1161
(Aplausos)
20:15
(Applause)
438
1203494
2000
Translated by Cláudia Sander
Reviewed by Leonardo Silva

▲Back to top

ABOUT THE SPEAKERS
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com