ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

Johnathan Haidt despre rădăcinile morale ale liberalilor și conservatorilor

Filmed:
3,635,704 views

Psihologul Jonathan Haidt studiază cele cinci valori morale care formează baza alegerilor noastre politice, fie că suntem de stânga, de dreapta, sau de centru. În această prelegere edificatoare, el precizează valorile preferențiale onorate de liberali, respectiv conservatori.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
SupposeSă presupunem că that two AmericanAmerican friendsprieteni are travelingcălător togetherîmpreună in ItalyItalia.
0
1000
3000
Presupunem că doi prieteni americani călătoresc împreună în Italia.
00:22
They go to see Michelangelo'sMichelangelo "DavidDavid,"
1
4000
2000
Merg să vadă statuia 'David' a lui Michelangelo,
00:24
and when they finallyin sfarsit come facefață to facefață with the statuestatuie,
2
6000
2000
și când, în cele din urmă, ajung față-n față cu ea,
00:26
they bothambii freezeîngheţa deadmort in theiral lor trackspiese.
3
8000
2000
amândoi rămân încremeniți.
00:28
The first guy -- we'llbine call him AdamAdam --
4
10000
2000
Primul -- să-i spunem Adam --
00:30
is transfixedtransfixed by the beautyfrumuseţe of the perfectperfect humanuman formformă.
5
12000
3000
e transfigurat de frumusețea formei umane perfecte.
00:33
The secondal doilea guy -- we'llbine call him BillProiect de lege --
6
15000
2000
Cel de-al doilea -- să-i spunem Bill --
00:35
is transfixedtransfixed by embarrassmentjenă, at staringholbat at the thing there in the centercentru.
7
17000
4000
e transfigurat de jenă privind la acel lucru acolo în mijloc.
00:40
So here'saici e my questionîntrebare for you:
8
22000
2000
Deci, iată întrebarea mea pentru voi.
00:42
whichcare one of these two guys was more likelyprobabil to have votedau votat for GeorgeGeorge BushBush,
9
24000
4000
Care din aceste două persoane e mai probabil să fi votat pentru George Bush,
00:46
whichcare for AlAl GoreGore?
10
28000
2000
și care pentru Al Gore?
00:48
I don't need a showspectacol of handsmâini
11
30000
1000
N-am nevoie să ridicați mâna
00:49
because we all have the samela fel politicalpolitic stereotypesstereotipuri.
12
31000
3000
pentru că toți avem aceleași stereotipuri politice.
00:52
We all know that it's BillProiect de lege.
13
34000
2000
Toți știm că Bill ar fi votat pentru Bush.
00:54
And in this casecaz, the stereotypestereotip correspondscorespunde to realityrealitate.
14
36000
4000
Și în acest caz, stereotipurile corespund realității.
00:58
It really is a factfapt that liberalsLiberalii are much highersuperior than conservativesConservatorii
15
40000
3000
Chiar este adevărat ca liberalii sunt deasupra conservatorilor
01:01
on a majormajor personalitypersonalitate traittrăsătură calleddenumit opennesssinceritate to experienceexperienţă.
16
43000
3000
în ce privește trăsătura numită deschidere către experiențe.
01:04
People who are highînalt in opennesssinceritate to experienceexperienţă
17
46000
2000
Persoanele care au dorință ridicată pentru experiențe
01:06
just craveimplora noveltynoutate, varietyvarietate, diversitydiversitate, newnou ideasidei, travelvoiaj.
18
48000
4000
caută noutate, varietate, diversitate, idei noi, călătorii.
01:10
People lowscăzut on it like things that are familiarfamiliar, that are safesigur and dependabledemn de încredere.
19
52000
5000
Celor fără această trăsătură le plac lucrurile familiare, sigure și de încredere.
01:15
If you know about this traittrăsătură,
20
57000
2000
Dacă știi despre această trăsătură,
01:17
you can understanda intelege a lot of puzzlespuzzle-uri about humanuman behaviorcomportament.
21
59000
2000
poți înțelege multe enigme ale comportamentului uman.
01:19
You can understanda intelege why artistsartiști are so differentdiferit from accountantscontabili.
22
61000
3000
Poți înțelege de ce artiștii diferă atât de mult de contabili.
01:22
You can actuallyde fapt predictprezice what kindstipuri of bookscărți they like to readcitit,
23
64000
2000
Poți chiar prezice genul de cărți pe care le citesc,
01:24
what kindstipuri of placeslocuri they like to travelvoiaj to,
24
66000
2000
locurile în care le place să călătorească,
01:26
and what kindstipuri of foodalimente they like to eatmânca.
25
68000
2000
ce fel de mâncare le place.
01:28
OnceO dată you understanda intelege this traittrăsătură, you can understanda intelege
26
70000
3000
Odată ce înțelegi această trăsătură, poți înțelege
01:31
why anybodycineva would eatmânca at Applebee'sAutovehicule pe, but not anybodycineva that you know.
27
73000
4000
de ce-ar mânca cineva la Applebee, dar niciunul dintre cunoscuții tăi.
01:35
(LaughterRâs)
28
77000
6000
(Râsete)
01:41
This traittrăsătură alsode asemenea tellsspune us a lot about politicspolitică.
29
83000
2000
Această trăsătură ne spune multe despre politică.
01:43
The mainprincipal researchercercetător of this traittrăsătură, RobertRobert McCraeMcCrae saysspune that,
30
85000
3000
Cel mai important cercetător al ei, Robert McCrae spune că:
01:46
"OpenDeschis individualspersoane fizice have an affinityafinitate for liberalliberale, progressiveprogresiv, left-wingaripa stângă politicalpolitic viewsvizualizari" --
31
88000
4000
"Indivizii deschiși au o afinitate pentru vederi politice liberale, progresive, de stânga" --
01:50
they like a societysocietate whichcare is opendeschis and changingschimbare --
32
92000
2000
vor o societate deschisă și în schimbare --
01:52
"whereasîntrucât closedînchis individualspersoane fizice preferprefera conservativeconservator, traditionaltradiţional, right-wingaripa dreapta viewsvizualizari."
33
94000
5000
"în timp ce indivizii închiși preferă vederi conservatoare, tradiționale, de dreapta."
01:57
This traittrăsătură alsode asemenea tellsspune us a lot about the kindstipuri of groupsGrupuri people joina adera.
34
99000
4000
Aceasta trăsătură ne spune mult și despre genul de grupuri cu care se asociază.
02:01
So here'saici e the descriptionDescriere of a groupgrup I foundgăsite on the WebWeb.
35
103000
2000
Iată descrierea unui grup găsit pe web.
02:03
What kindstipuri of people would joina adera a globalglobal communitycomunitate
36
105000
2000
Ce fel de persoane s-ar asocia într-o comunitate globală
02:05
welcomingSalutând people from everyfiecare disciplinedisciplina and culturecultură,
37
107000
2000
deschisă oamenilor din orice disciplină și cultură,
02:07
who seekcăuta a deeperMai adânc understandingînţelegere of the worldlume,
38
109000
2000
care caută o înțelegere mai profundă a lumii,
02:09
and who hopesperanţă to turnviraj that understandingînţelegere into a better futureviitor for us all?
39
111000
3000
și care speră să transforme acea înțelegere într-un viitor mai bun pentru noi toți?
02:12
This is from some guy namednumit TedTed.
40
114000
2000
Oh, perspectiva asta aparține cuiva pe nume TED.
02:14
(LaughterRâs)
41
116000
2000
(Râsete)
02:16
Well, let's see now, if opennesssinceritate predictsprezice who becomesdevine liberalliberale,
42
118000
4000
Ei bine, dacă deschiderea prezice cine devine liberal,
02:20
and opennesssinceritate predictsprezice who becomesdevine a TEDsterTEDster,
43
122000
2000
și cine participă la TED,
02:22
then mightar putea we predictprezice that mostcel mai TEDstersTEDsters are liberalliberale?
44
124000
3000
atunci, am putea prezice că cei mai multi participanți la TED sunt liberali?
02:25
Let's find out.
45
127000
1000
Să vedem.
02:26
I'm going to askcere you to raisea ridica your handmână, whetherdacă you are liberalliberale, left of centercentru --
46
128000
4000
Vă voi ruga să ridicați mâna, dacă sunteți liberal, de stânga --
02:30
on socialsocial issuesprobleme, we're talkingvorbind about, primarilyîn primul rând --
47
132000
2000
vorbim, în primul rând, de probleme sociale --
02:32
or conservativeconservator, and I'll give a thirdal treilea optionopțiune,
48
134000
2000
sau conservator; vă voi da și o a treia opțiune,
02:34
because I know there are a numbernumăr of libertariansliberali in the audiencepublic.
49
136000
2000
pentru că știu că sunt câțiva libertarieni în audiență.
02:36
So, right now, please raisea ridica your handmână --
50
138000
2000
Deci, acum, vă rog să ridicați mâna --
02:38
down in the simulcastsimulcast roomscamere, too,
51
140000
1000
și în cabinele de presă,
02:39
let's let everybodytoata lumea see who'scine here --
52
141000
2000
să-i putem vedea toți.
02:41
please raisea ridica your handmână if you would say that you are liberalliberale or left of centercentru.
53
143000
3000
Vă rog să ridicați mâna dacă ați spune că sunteți liberal sau de stânga.
02:44
Please raisea ridica your handmână highînalt right now. OK.
54
146000
3000
Vă rog să ridicați mâna acum. Bine.
02:48
Please raisea ridica your handmână if you'dte-ai say you're libertarianlibertarian.
55
150000
2000
Vă rog să ridicați mâna dacă ați spune că sunteți libertarian.
02:51
OK, about a -- two dozenduzină.
56
153000
2000
OK, în jur de -- două duzini.
02:53
And please raisea ridica your handmână if you'dte-ai say you are right of centercentru or conservativeconservator.
57
155000
3000
Și vă rog să ridicați mâna dacă ați spune că sunteți de dreapta sau conservator.
02:56
One, two, threeTrei, fourpatru, fivecinci -- about eightopt or 10.
58
158000
5000
Unu, doi, trei, patru, cinci -- în jur de opt sau zece.
03:02
OK. This is a bitpic of a problemproblemă.
59
164000
3000
În regulă. Asta ridică o mică problemă.
03:05
Because if our goalpoartă is to understanda intelege the worldlume,
60
167000
3000
Pentru că, dacă scopul nostru e să înțelegem lumea,
03:08
to seekcăuta a deeperMai adânc understandingînţelegere of the worldlume,
61
170000
2000
să căutăm o înțelegere mai profundă a lumii,
03:10
our generalgeneral lacklipsă of moralmorală diversitydiversitate here is going to make it harderMai tare.
62
172000
3000
lipsa noastră generală de diversitate morală de aici va ridica dificultăți.
03:13
Because when people all shareacțiune valuesvalorile, when people all shareacțiune moralsmorala,
63
175000
4000
Pentru că, atunci când oamenii împărtășesc valori, perspective morale,
03:17
they becomedeveni a teamechipă, and onceo singura data you engageangaja the psychologyPsihologie of teamsechipe,
64
179000
3000
ei devin o echipă, și, odată activată psihologia de echipă,
03:20
it shutsse închide down open-mindeddeschis la minte thinkinggândire.
65
182000
2000
se anulează gândirea deschisă.
03:25
When the liberalliberale teamechipă losespierde, as it did in 2004,
66
187000
4000
Când echipa liberală pierde, așa cum s-a întâmplat în 2004,
03:29
and as it almostaproape did in 2000, we comfortconfort ourselvesnoi insine.
67
191000
4000
sau, la limită, în 2000, ne consolăm reciproc.
03:33
(LaughterRâs)
68
195000
2000
(Râsete)
03:35
We try to explainexplica why halfjumătate of AmericaAmerica votedau votat for the other teamechipă.
69
197000
4000
Încercăm să explicăm de ce jumătate din America a votat pentru cealaltă echipă.
03:39
We think they musttrebuie sa be blindedorbit by religionreligie, or by simplesimplu stupidityprostie.
70
201000
5000
Credem că trebuie să fi fost orbiți de religie sau de prostie.
03:44
(LaughterRâs)
71
206000
3000
(Râsete)
03:47
(ApplauseAplauze)
72
209000
8000
(Aplauze)
03:55
So, if you think that halfjumătate of AmericaAmerica votesvoturi RepublicanRepublican
73
217000
6000
Deci, dacă tu crezi că jumătate din America votează cu republicanii
04:01
because they are blindedorbit in this way,
74
223000
3000
pentru că sunt orbiți în felul ăsta,
04:04
then my messagemesaj to you is that you're trappedprins in a moralmorală matrixMatrix,
75
226000
3000
atunci mesajul meu este că ești prins în capcană între ziduri morale,
04:07
in a particularspecial moralmorală matrixMatrix.
76
229000
1000
împotmolit într-o anumită matrice morală.
04:08
And by the matrixMatrix, I mean literallyliteralmente the matrixMatrix, like the moviefilm "The MatrixMatrix."
77
230000
4000
Prin matrice, mă refer la propriu, la o matrice de tipul celei din filmul "The Matrix."
04:12
But I'm here todayastăzi to give you a choicealegere.
78
234000
2000
Dar mă aflu azi aici pentru a vă oferi o opțiune.
04:14
You can eitherfie take the bluealbastru pillpilulă and stickbăț to your comfortingreconfortant delusionsiluzii,
79
236000
4000
Poți lua pastila albastră, rămânând la iluziile tale reconfortante,
04:18
or you can take the redroșu pillpilulă,
80
240000
2000
sau poți lua pastila roșie,
04:20
learnînvăța some moralmorală psychologyPsihologie and stepEtapa outsidein afara the moralmorală matrixMatrix.
81
242000
3000
să înveți puțină psihologie a moralei și să păsești afară din matrice.
04:23
Now, because I know --
82
245000
2000
Acum, pentru că știu --
04:25
(ApplauseAplauze) --
83
247000
3000
(Aplauze)
04:28
OK, I assumepresupune that answersrăspunsuri my questionîntrebare.
84
250000
2000
În regulă, presupun că asta îmi răspunde la întrebare.
04:30
I was going to askcere you whichcare one you pickedales, but no need.
85
252000
2000
Voiam să vă întreb ce pastilă ați alege, dar nu mai e nevoie.
04:32
You're all highînalt in opennesssinceritate to experienceexperienţă, and besidesin afara de asta,
86
254000
2000
Toți aveți niveluri mari de deschidere către experiențe, și în plus,
04:34
it looksarată like it mightar putea even tastegust good, and you're all epicuresepicures.
87
256000
3000
pare să aibă un gust bun; și toți sunteți epicurieni.
04:37
So anywayoricum, let's go with the redroșu pillpilulă.
88
259000
2000
Oricum, să mergem cu pastila roșie.
04:39
Let's studystudiu some moralmorală psychologyPsihologie and see where it takes us.
89
261000
2000
Să studiem puțin din psihologia moralei și să vedem unde ne duce.
04:41
Let's startstart at the beginningînceput.
90
263000
2000
Să începem cu începutul.
04:43
What is moralitymoralitate and where does it come from?
91
265000
2000
Ce este moralitatea și de unde vine?
04:45
The worstcel mai rău ideaidee in all of psychologyPsihologie
92
267000
2000
Cea mai proastă idee din întreaga psihologie
04:47
is the ideaidee that the mindminte is a blankgol slateArdezie at birthnaștere.
93
269000
3000
e ideea că mintea e o tablă goală la naștere.
04:50
DevelopmentalDezvoltare psychologyPsihologie has shownafișate
94
272000
2000
Psihologia dezvoltării a arătat
04:52
that kidscopii come into the worldlume alreadydeja knowingcunoaștere so much
95
274000
2000
despre copii că vin pe lume știind deja destul de mult
04:54
about the physicalfizic and socialsocial worldslumi,
96
276000
2000
despre lumea fizică și cea socială,
04:56
and programmedprogramate to make it really easyuşor for them to learnînvăța certainanumit things
97
278000
4000
programați să le fie ușor să învețe unele lucruri
05:00
and hardgreu to learnînvăța othersalții.
98
282000
1000
dar greu să învețe altele.
05:01
The bestCel mai bun definitiondefiniție of innatenessinnateness I've ever seenvăzut --
99
283000
2000
Cea mai bună definiție a trăsăturilor înnăscute pe care am văzut-o --
05:03
this just clarifiesclarifică so manymulți things for me --
100
285000
2000
care mie îmi clarifică multe aspecte --
05:05
is from the braincreier scientistom de stiinta GaryGary MarcusMarcus.
101
287000
2000
aparține cercetătorului în știința creierului Gary Marcus.
05:07
He saysspune, "The initialiniţială organizationorganizare of the braincreier does not dependdepinde that much on experienceexperienţă.
102
289000
5000
El spune: "Structurarea inițială a creierului nu depinde prea mult de experiență.
05:12
NatureNatura providesprevede a first draftproiect, whichcare experienceexperienţă then revisesAffs.
103
294000
3000
Natura furnizează un prim draft, pe care experiența o modifică.
05:15
Built-inClădire-înăuntru doesn't mean unmalleableunmalleable;
104
297000
2000
Înnăscut nu înseamnă că nu e maleabil;
05:17
it meansmijloace organizedorganizat in advanceavans of experienceexperienţă."
105
299000
3000
înseamnă că e structurat precedând experiența."
05:20
OK, so what's on the first draftproiect of the moralmorală mindminte?
106
302000
2000
Bine, atunci ce se află în acest prim tipar al minții morale?
05:22
To find out, my colleaguecoleg, CraigCraig JosephIosif, and I
107
304000
3000
Ca să aflăm, colegul meu Craig Joseph și cu mine
05:25
readcitit throughprin the literatureliteratură on anthropologyantropologie,
108
307000
2000
am citit literatură antropologică,
05:27
on culturecultură variationvariaţia in moralitymoralitate
109
309000
2000
literatură despre variațiile culturale ale moralității
05:29
and alsode asemenea on evolutionaryevolutiv psychologyPsihologie, looking for matchesmeciuri.
110
311000
2000
și despre psihologia evolutivă, căutând potriviri.
05:31
What are the sortsfelul of things that people talk about acrosspeste disciplinesdiscipline?
111
313000
3000
Care sunt lucrurile comune despre care oamenii vorbesc în diferite discipline,
05:34
That you find acrosspeste culturesculturi and even acrosspeste speciesspecie?
112
316000
2000
pe care le găsești în diferite culturi și chiar la diferite specii?
05:36
We foundgăsite fivecinci -- fivecinci bestCel mai bun matchesmeciuri,
113
318000
2000
Am găsit cinci -- cinci potriviri,
05:38
whichcare we call the fivecinci foundationsfundatii of moralitymoralitate.
114
320000
2000
pe care noi le numim cele cinci fundamente ale moralității.
05:40
The first one is harmdăuna/careîngrijire.
115
322000
2000
Primul e asocierea apărare de rău<-->grija pentru altul.
05:42
We're all mammalsmamifere here, we all have a lot of neuralneural and hormonalhormonale programmingprogramare
116
324000
4000
Suntem toți mamifere aici, toți suntem programați neural și hormonal
05:46
that makesmărci us really bondlegătură with othersalții, careîngrijire for othersalții,
117
328000
2000
să ne legăm de alții, să avem grijă de ei,
05:48
feel compassioncompasiune for othersalții, especiallyin mod deosebit the weakslab and vulnerablevulnerabil.
118
330000
3000
să simțim compasiune, în special pentru cei slabi și vulnerabili.
05:51
It gives us very strongputernic feelingssentimente about those who causecauza harmdăuna.
119
333000
3000
Asta ne face să avem sentimente puternice pentru cei ce fac rău.
05:54
This moralmorală foundationfundație underliesstă la baza about 70 percentla sută
120
336000
3000
Acest fundament al moralei stă la baza a 70%
05:57
of the moralmorală statementsdeclaraţii I've heardauzit here at TEDTED.
121
339000
2000
din afirmațiile morale pe care le-am auzit aici la TED.
05:59
The secondal doilea foundationfundație is fairnesscorectitudine/reciprocityreciprocitate.
122
341000
3000
Al doilea fundament e corelația corectitudine<->reciprocitate.
06:02
There's actuallyde fapt ambiguousambiguu evidenceevidență
123
344000
2000
Există dovezi ambigue
06:04
as to whetherdacă you find reciprocityreciprocitate in other animalsanimale,
124
346000
2000
legate de reciprocitate la alte animale,
06:06
but the evidenceevidență for people could not be clearermai clare.
125
348000
2000
dar în ce privește oamenii dovezile sunt cât se poate de clare.
06:08
This NormanNorman RockwellRockwell paintingpictură is calleddenumit "The GoldenAur RuleRegula,"
126
350000
2000
Această pictură de Norman Rockwell se numește "Regula de aur",
06:10
and we heardauzit about this from KarenKaren ArmstrongArmstrong, of coursecurs,
127
352000
2000
și am auzit de la Karen Armstrong, desigur,
06:12
as the foundationfundație of so manymulți religionsreligii.
128
354000
3000
ca stă la baza multor religii.
06:15
That secondal doilea foundationfundație underliesstă la baza the other 30 percentla sută
129
357000
2000
Acest al doilea fundament susține celelalte 30 de procente
06:17
of the moralmorală statementsdeclaraţii I've heardauzit here at TEDTED.
130
359000
2000
ale enunțurilor morale pe care le-am auzit la TED.
06:19
The thirdal treilea foundationfundație is in-groupin-Group/loyaltyloialitate.
131
361000
2000
Al treilea fundament este loialitatea interioară de grup.
06:21
You do find groupsGrupuri in the animalanimal kingdomregat --
132
363000
2000
Găsești grupuri și în lumea animalelor --
06:23
you do find cooperativeCooperativa groupsGrupuri --
133
365000
2000
găsești grupuri care colaborează --
06:25
but these groupsGrupuri are always eitherfie very smallmic or they're all siblingsfraţii.
134
367000
3000
Dar aceste grupuri ori sunt foarte mici, ori sunt formate din frați.
06:28
It's only amongprintre humansoameni that you find very largemare groupsGrupuri of people
135
370000
3000
Doar printre oameni găsești grupuri mari de indivizi
06:31
who are ablecapabil to cooperatecoopera, joina adera togetherîmpreună into groupsGrupuri,
136
373000
3000
care pot coopera, se pot asocia --
06:34
but in this casecaz, groupsGrupuri that are unitedUnit to fightluptă other groupsGrupuri.
137
376000
4000
dar în acest caz, grupurile se unesc pentru a se lupta cu alte grupuri.
06:38
This probablyprobabil comesvine from our long historyistorie of tribaltribal livingviaţă, of tribaltribal psychologyPsihologie.
138
380000
4000
Asta probabil vine din istoria noastră tribală îndelungată, din psihologia tribală.
06:42
And this tribaltribal psychologyPsihologie is so deeplyprofund pleasurableplacute
139
384000
2000
Iar această psihologie tribală este atât de profund gratificantă,
06:44
that even when we don't have tribestriburi,
140
386000
2000
încât chiar și atunci când nu trăim în triburi,
06:46
we go aheadînainte and make them, because it's fundistracţie.
141
388000
3000
ni le alcătuim pentru că e amuzant.
06:49
(LaughterRâs)
142
391000
3000
(Râsete)
06:52
SportsSport is to warrăzboi as pornographypornografie is to sexsex.
143
394000
3000
Sportul e pentru război ce e pornografia pentru sex.
06:55
We get to exerciseexercițiu some ancientvechi, ancientvechi drivesunități.
144
397000
3000
Avem ocazia să exersăm niște nevoi vechi, ancestrale.
06:58
The fourthAl patrulea foundationfundație is authorityautoritate/respectrespect.
145
400000
3000
Al patrulea fundament e relația respect<-->autoritate.
07:01
Here you see submissivesupus gesturesgesturi from two membersmembrii of very closelyîndeaproape relatedlegate de speciesspecie.
146
403000
3000
Aici vedeți gesturi de supunere la doi membri ai unor specii înrudite --
07:04
But authorityautoritate in humansoameni is not so closelyîndeaproape basedbazat on powerputere and brutalitybrutalitatea,
147
406000
4000
dar autoritatea la oameni nu e atât de mult bazată pe putere și brutalitate,
07:08
as it is in other primatesprimate.
148
410000
2000
ca la alte primate.
07:10
It's basedbazat on more voluntaryvoluntar deferencerespect,
149
412000
2000
Este bazată mai mult pe deferență voluntară,
07:12
and even elementselement of love, at timesori.
150
414000
2000
și, câteodată, chiar elemente de dragoste.
07:14
The fiftha cincea foundationfundație is puritypuritate/sanctitysfinţenie.
151
416000
2000
Al cincilea fundament e legătura puritate<-->sanctitate.
07:16
This paintingpictură is calleddenumit "The AllegoryAlegorie Of ChastityCastitate,"
152
418000
3000
Această pictură se numește "Alegoria castității"
07:19
but purity'spuritate pe not just about suppressingsuprimarea femaleFemeie sexualitysexualitate.
153
421000
3000
dar puritatea nu se referă doar la suprimarea sexualității feminine.
07:22
It's about any kinddrăguț of ideologyideologia, any kinddrăguț of ideaidee
154
424000
3000
Se referă la orice fel de ideologie, orice fel de idee
07:25
that tellsspune you that you can attainatinge virtuevirtutea
155
427000
2000
care îți spune că poți atinge virtutea
07:27
by controllingcontrolul what you do with your bodycorp,
156
429000
1000
controlând ceea ce faci cu corpul tău,
07:28
by controllingcontrolul what you put into your bodycorp.
157
430000
2000
controlând ceea ce pui în el.
07:30
And while the politicalpolitic right mayMai moralizeScoate o morală sexsex much more,
158
432000
4000
Și în timp ce politica de dreapta moralizează sexul mai mult,
07:34
the politicalpolitic left is really doing a lot of it with foodalimente.
159
436000
2000
politica de stânga face același lucru în privința mâncării.
07:36
FoodProduse alimentare is becomingdevenire extremelyextrem moralizedmoralized nowadaysin zilele de azi,
160
438000
2000
Mâncarea devine extrem de moralizată azi,
07:38
and a lot of it is ideasidei about puritypuritate,
161
440000
2000
și mult din această idee se referă la puritate,
07:40
about what you're willingdispus to touchatingere, or put into your bodycorp.
162
442000
3000
la ce vrei să atingi sau să pui în corpul tău.
07:43
I believe these are the fivecinci bestCel mai bun candidatescandidaţi
163
445000
3000
Cred că aceștia cinci sunt cei mai buni candidați
07:46
for what's writtenscris on the first draftproiect of the moralmorală mindminte.
164
448000
2000
pentru ceea ce este deja scris în primul draft al minții morale.
07:48
I think this is what we come with, at leastcel mai puţin
165
450000
1000
Cred că cel puțin cu asta venim pe lume,
07:49
a preparednessde pregătire to learnînvăța all of these things.
166
451000
3000
o afinitate pentru a învăța toate aceste lucruri.
07:52
But as my sonfiu, MaxMax, growsdezvoltă up in a liberalliberale collegecolegiu townoraș,
167
454000
3000
Dar dacă fiul meu Max va crește într-un oraș universitar liberal,
07:56
how is this first draftproiect going to get revisedrevizuit?
168
458000
2000
cum se va modifica acest prim tipar preexistent?
07:58
And how will it endSfârşit up beingfiind differentdiferit
169
460000
2000
Și cum va ajunge să difere
08:00
from a kidcopil bornnăscut 60 milesmile southsud of us in LynchburgLynchburg, VirginiaVirginia?
170
462000
3000
de al unui copil născut 60 de mile mai la sud, in Lynchburg, Virginia?
08:03
To think about culturecultură variationvariaţia, let's try a differentdiferit metaphormetaforă.
171
465000
2000
Ca să vizualizăm diferențele culturale, să încercăm o altă metaforă.
08:05
If there really are fivecinci systemssisteme at work in the mindminte --
172
467000
3000
Dacă sunt cu adevărat cinci sisteme funcționale în minte la naștere --
08:08
fivecinci sourcessurse of intuitionsintuiții and emotionsemoții --
173
470000
2000
cinci surse de intuiții și emoții --
08:10
then we can think of the moralmorală mindminte
174
472000
2000
atunci ne putem gândi la mintea morală
08:12
as beingfiind like one of those audioaudio equalizersEgalizatoare that has fivecinci channelscanale,
175
474000
2000
ca la un egalizator audio cu cinci canale,
08:14
where you can seta stabilit it to a differentdiferit settingcadru on everyfiecare channelcanal.
176
476000
2000
la care poți potrivi separat fiecare canal.
08:16
And my colleaguescolegii, BrianBrian NosekNosek and JesseJesse GrahamGraham, and I,
177
478000
3000
Colegii mei Brian Nosek, Jesse Graham și cu mine,
08:19
madefăcut a questionnairechestionar, whichcare we put up on the WebWeb at wwwwww.YourMoralsYourMorals.orgorg.
178
481000
5000
am alcătuit un chestionar pe care l-am încărcat la www.YourMorals.org.
08:24
And so fardeparte, 30,000 people have takenluate this questionnairechestionar, and you can too.
179
486000
5000
Până acum 30.000 de persoane au completat chestionarul; și voi puteți.
08:29
Here are the resultsrezultate.
180
491000
1000
Iată rezultatele.
08:30
Here are the resultsrezultate from about 23,000 AmericanAmerican citizenscetățeni.
181
492000
3000
Rezultatele de la aproximativ 23.000 de cetățeni americani.
08:33
On the left, I've plottedgrafic the scoresscoruri for liberalsLiberalii;
182
495000
2000
La stânga am compilat rezultatele pentru liberali,
08:35
on the right, those for conservativesConservatorii; in the middlemijloc, the moderatesmoderaţi.
183
497000
2000
la dreapta pe cele ale conservatorilor, în mijloc, pe cele ale moderaților.
08:37
The bluealbastru linelinia showsspectacole you people'soamenii lui responsesrăspunsuri
184
499000
2000
Linia albastră vă indică răspunsurile de mijloc
08:39
on the averagein medie of all the harmdăuna questionsîntrebări.
185
501000
2000
la întrebările legate de vătămare.
08:41
So, as you see, people careîngrijire about harmdăuna and careîngrijire issuesprobleme.
186
503000
3000
Deci, asa cum vedeți, oamenilor le pasă de genul acesta de probleme.
08:44
They give highînalt endorsementaprobarea of these sortsfelul of statementsdeclaraţii
187
506000
2000
Susțin în mare măsură genul acesta de enunțuri
08:46
all acrosspeste the boardbord, but as you alsode asemenea see,
188
508000
2000
în toate categoriile, dar vedeți și că
08:48
liberalsLiberalii careîngrijire about it a little more than conservativesConservatorii -- the linelinia slopespante down.
189
510000
3000
liberalilor le pasă un pic mai mult decât consevatorilor, curba e descendentă.
08:51
SameAcelaşi storypoveste for fairnesscorectitudine.
190
513000
2000
La fel și în cazul corectitudinii.
08:53
But look at the other threeTrei lineslinii.
191
515000
2000
Dar priviți celelalte trei linii,
08:55
For liberalsLiberalii, the scoresscoruri are very lowscăzut.
192
517000
2000
pentru liberali scorurile sunt foarte mici.
08:57
LiberalsLiberalii are basicallype scurt sayingzicală, "No, this is not moralitymoralitate.
193
519000
2000
Liberalii practic spun: "Nu, asta nu ține de moralitate.
08:59
In-groupIn-Group, authorityautoritate, puritypuritate -- this stuffchestie has nothing to do with moralitymoralitate. I rejectrespinge it."
194
521000
3000
Loialitatea în grup, autoritatea, puritatea -- astea n-au nimic de-a face cu moralitatea. Le resping."
09:02
But as people get more conservativeconservator, the valuesvalorile risecreştere.
195
524000
2000
Dar pe măsură ce oamenii sunt mai conservatori, valorile cresc.
09:04
We can say that liberalsLiberalii have a kinddrăguț of a two-channeldouă canale,
196
526000
3000
Putem spune că liberalii au un fel de sistem cu două canale,
09:07
or two-foundationdouă-Fundatia moralitymoralitate.
197
529000
1000
o moralitate cu două fundamente.
09:08
ConservativesConservatorii have more of a five-foundationcinci-Fundatia,
198
530000
2000
Conservatorii au cinci fundamente,
09:10
or five-channelcinci canale moralitymoralitate.
199
532000
2000
sau o moralitate cu cinci canale.
09:12
We find this in everyfiecare countryțară we look at.
200
534000
1000
Găsim același lucru în orice țară am căuta.
09:13
Here'sAici este the datadate for 1,100 CanadiansCanadienii.
201
535000
2000
Iată datele pentru 1.100 de canadieni.
09:15
I'll just flipflip- throughprin a fewpuțini other slidesslide-uri.
202
537000
2000
Voi trece rapid prin celelalte pagini.
09:17
The U.K., AustraliaAustralia, NewNoi ZealandZeelandă, WesternWestern EuropeEuropa, EasternEst EuropeEuropa,
203
539000
3000
Marea Britanie, Ausralita, Noua Zeelandă, Europa de Vest, Europa de Est,
09:20
LatinLatină AmericaAmerica, the MiddleOrientul Mijlociu EastEst, EastEst AsiaAsia and SouthSud AsiaAsia.
204
542000
4000
America Latină, Orientul Mijlociu, Asia de Est și Asia de Sud.
09:24
NoticeNotificare alsode asemenea that on all of these graphsgrafice,
205
546000
2000
De asemenea observați în toate aceste grafice,
09:26
the slopepantă is steepermai abruptă on in-groupin-Group, authorityautoritate, puritypuritate.
206
548000
3000
înclinația e mai mare în loialitatea de grup, autoritate și puritate.
09:29
WhichCare showsspectacole that withinîn any countryțară,
207
551000
2000
Ceea ce arată că în diferite țări
09:31
the disagreementdezacord isn't over harmdăuna and fairnesscorectitudine.
208
553000
3000
dezacordul nu apare la vătămare sau la cortectitudine.
09:34
EverybodyToata lumea -- I mean, we debatedezbate over what's fairechitabil --
209
556000
2000
Toată lumea -- e adevărat că dezbatem ce e corect --
09:36
but everybodytoata lumea agreeseste de acord that harmdăuna and fairnesscorectitudine mattermaterie.
210
558000
3000
dar toată lumea e de acord că grija pentru ceilalți și corectitudinea contează.
09:39
MoralMorală argumentsargumente withinîn culturesculturi
211
561000
2000
Argumentele morale din cadrul diferitelor culturi
09:41
are especiallyin mod deosebit about issuesprobleme of in-groupin-Group, authorityautoritate, puritypuritate.
212
563000
3000
diferă la loialitate, autoritate, puritate.
09:44
This effectefect is so robustrobust that we find it no mattermaterie how we askcere the questionîntrebare.
213
566000
3000
Acest efect e atât de robust, încât îl găsim indiferent de cum punem întrebarea.
09:47
In one recentRecent studystudiu,
214
569000
2000
Într-un studiu recent,
09:49
we askedîntrebă people to supposepresupune you're about to get a dogcâine.
215
571000
2000
am cerut oamenilor să-și imagineze că urmează să cumpere un câine.
09:51
You pickedales a particularspecial breedrasă,
216
573000
1000
Ați ales o anumită rasă,
09:52
you learnedînvățat some newnou informationinformație about the breedrasă.
217
574000
2000
ați aflat noi informații despre rasă.
09:54
SupposeSă presupunem că you learnînvăța that this particularspecial breedrasă is independent-mindedindependente de suflet,
218
576000
3000
Presupunem că ați aflat că cei din această rasă sunt independenți
09:57
and relatesse referă to its ownerproprietar as a friendprieten and an equalegal?
219
579000
2000
și se raportează la stăpân ca la un prieten sau ca la un egal.
09:59
Well, if you are a liberalliberale, you say, "Hey, that's great!"
220
581000
2000
Ei bine, dacă ești liberal spui "Super, e grozav!
10:01
Because liberalsLiberalii like to say, "FetchAdu, please."
221
583000
2000
pentru că liberalilor pe place să spună "Aport! Te rog!"
10:03
(LaughterRâs)
222
585000
4000
(Râsete)
10:08
But if you're conservativeconservator, that's not so attractiveatractiv.
223
590000
3000
Dar dacă ești conservator nu mai e chiar atractiv.
10:11
If you're conservativeconservator, and you learnînvăța that a dog'scâine extremelyextrem loyalfideli
224
593000
3000
Dacă ești conservator și afli despre câine că-i extrem de loial
10:14
to its home and familyfamilie, and doesn't warmcald up quicklyrepede to strangersstrăini,
225
596000
2000
față de casă și familie și că nu se împrietenește repede cu străinii,
10:16
for conservativesConservatorii, well, loyaltyloialitate is good -- dogscâini oughttrebui to be loyalfideli.
226
598000
3000
pentru conservatori loialitatea e bună -- câinii trebuie să fie loiali.
10:19
But to a liberalliberale, it soundssunete like this dogcâine
227
601000
2000
Dar pentru un liberal, câinele ăsta pare
10:21
is runningalergare for the RepublicanRepublican nominationnominalizarea.
228
603000
2000
a fi un candidat republican.
10:23
(LaughterRâs)
229
605000
1000
(Râsete)
10:24
So, you mightar putea say, OK,
230
606000
2000
Deci ai putea spune, OK,
10:26
there are these differencesdiferențele betweenîntre liberalsLiberalii and conservativesConservatorii,
231
608000
2000
există aceste diferențe între liberali și conservatori,
10:28
but what makesmărci those threeTrei other foundationsfundatii moralmorală?
232
610000
2000
dar în ce constau celelalte trei fundamente morale?
10:30
Aren'tNu sunt those just the foundationsfundatii of xenophobiaxenofobia
233
612000
2000
Nu sunt ele exact fundamentele xenofobiei,
10:32
and authoritarianismautoritarism and PuritanismPuritanismul?
234
614000
2000
autoritarismului și puritanismului?
10:34
What makesmărci them moralmorală?
235
616000
1000
Cum sunt acestea legate de moralitate?
10:35
The answerRăspuns, I think, is containedconținea in this incredibleincredibil triptychTriptic from HieronymusHieronymus BoschBosch,
236
617000
3000
Răspunsul, cred, e conținut în incredibilul triptic al lui Hieronymus Bosch,
10:38
"The GardenGradina of EarthlyPământeşti DelightsDelicii."
237
620000
2000
"The Garden of Earthly Delights" [Grădina Plăcerilor Lumești].
10:40
In the first panelpanou, we see the momentmoment of creationcreare.
238
622000
3000
În primul cadru vedem momentul creației.
10:43
All is orderedordonat, all is beautifulfrumoasa, all the people and animalsanimale
239
625000
4000
Totul e în ordine, totul e frumos, toți oamenii și animalele
10:47
are doing what they're supposedpresupus to be doing, where they're supposedpresupus to be.
240
629000
3000
fac ce trebuie să facă, se află unde trebuie să se afle.
10:50
But then, givendat the way of the worldlume, things changeSchimbare.
241
632000
3000
Dar apoi, date fiind cunoscutele căi lumești, lucrurile se schimbă.
10:53
We get everyfiecare personpersoană doing whateverindiferent de he wants,
242
635000
2000
Toți ajung să facă ce vor,
10:55
with everyfiecare aperturedeschidere of everyfiecare other personpersoană and everyfiecare other animalanimal.
243
637000
3000
din fiecare perspectivă a fiecărei persoane sau animal.
10:58
Some of you mightar putea recognizerecunoaşte this as the '60s.
244
640000
2000
Unii din voi recunoașteți asta drept anii '60.
11:00
(LaughterRâs)
245
642000
1000
(Râsete)
11:01
But the '60s inevitablyinevitabil gives way to the '70s,
246
643000
4000
Dar anii 60 inevitabil cedează anilor '70,
11:05
where the cuttingsbutaşi of the aperturesorificii hurtrănit a little bitpic more.
247
647000
4000
unde consecințele haosului dor puțin mai mult.
11:09
Of coursecurs, BoschBosch calleddenumit this helliad.
248
651000
2000
Bineînțeles, Bosch numește acest cadru Iadul.
11:11
So this triptychTriptic, these threeTrei panelspanouri
249
653000
3000
Deci acest triptic, aceste trei cadre,
11:14
portraysă ilustreze the timelessatemporal truthadevăr that orderOrdin tendsa tinde to decaydezintegrare.
250
656000
5000
înfățișează adevărul veșnic că ordinea tinde să se deterioreze.
11:19
The truthadevăr of socialsocial entropyentropie.
251
661000
2000
Adevărul entropiei sociale.
11:21
But lestca nu cumva you think this is just some partparte of the ChristianCreştină imaginationimaginație
252
663000
3000
Dar ca să nu credeți că asta-i doar parte din imaginația creștină,
11:24
where ChristiansCreştinii have this weirdciudat problemproblemă with pleasureplăcere,
253
666000
2000
unde creștinii au această problemă ciudată legată de plăcere,
11:26
here'saici e the samela fel storypoveste, the samela fel progressionprogresie,
254
668000
3000
iată aceeași poveste, aceeași progresie,
11:29
told in a paperhârtie that was publishedpublicat in NatureNatura a fewpuțini yearsani agoîn urmă,
255
671000
3000
relatată într-o lucrare publicată în revista 'Natura' acum câțiva ani,
11:32
in whichcare ErnstErnst FehrFehr and SimonSimon GachterGachter had people playa juca a commonscommons dilemmadilemă.
256
674000
4000
în care Ernst Fehr și Simon Gachter au supus oamenii la dilema rației.
11:36
A gamejoc in whichcare you give people moneybani,
257
678000
2000
Un joc în care dai oamenilor bani
11:38
and then, on eachfiecare roundrundă of the gamejoc,
258
680000
2000
și apoi după fiecare tură de joc
11:40
they can put moneybani into a commoncomun potoală,
259
682000
2000
ei pot pune bani într-un vas comun,
11:42
and then the experimenterexperimentator doublesduble what's in there,
260
684000
2000
iar experimentatorul dublează suma,
11:44
and then it's all dividedîmpărțit amongprintre the playersjucători.
261
686000
2000
după care totul se împarte la jucători.
11:46
So it's a really nicefrumos analoganalog for all sortsfelul of environmentalde mediu issuesprobleme,
262
688000
3000
E o analogie destul de bună pentru tot felul de probleme de mediu
11:49
where we're askingcer people to make a sacrificesacrificiu
263
691000
2000
unde cerem oamenilor să facă un sacrificiu
11:51
and they themselvesînșiși don't really benefitbeneficiu from theiral lor ownpropriu sacrificesacrificiu.
264
693000
2000
iar ei înșiși nu beneficiază cu adevărat de pe urma sacrificiului lor.
11:53
But you really want everybodytoata lumea elsealtfel to sacrificesacrificiu,
265
695000
2000
Ai vrea ca toți ceilalți să se sacrifice,
11:55
but everybodytoata lumea has a temptationispita to a freegratuit ridecălătorie.
266
697000
2000
dar toți sunt tentați să câștige fără să contribuie.
11:57
And what happensse întâmplă is that, at first, people startstart off reasonablyîn mod rezonabil cooperativeCooperativa --
267
699000
4000
La început oamenii sunt rezonabil de cooperanți --
12:01
and this is all playedjucat anonymouslyanonim.
268
703000
2000
-- totul se joacă anonim --
12:03
On the first roundrundă, people give about halfjumătate of the moneybani that they can.
269
705000
3000
la prima tură oamenii dau jumătate din ce ar putea.
12:06
But they quicklyrepede see, "You know what, other people aren'tnu sunt doing so much thoughdeşi.
270
708000
3000
Dar curând observă că alții totuși nu contribuie așa mult.
12:09
I don't want to be a suckerfraier. I'm not going to cooperatecoopera."
271
711000
2000
"Nu vreau să fiu un fraier. Nu voi mai coopera."
12:11
And so cooperationcooperare quicklyrepede decaysdezintegrări from reasonablyîn mod rezonabil good, down to closeînchide to zerozero.
272
713000
4000
Și astfel cooperarea decade rapid de la rezonabil de bună la aproape zero.
12:15
But then -- and here'saici e the tricktruc --
273
717000
2000
Dar apoi -- și aici e șmecheria --
12:17
FehrFehr and GachterGachter said, on the seventhal șaptelea roundrundă, they told people,
274
719000
2000
au spus Fehr și Gachter -- la a șaptea tură au spus oamenilor:
12:19
"You know what? NewNoi ruleregulă.
275
721000
2000
"Știți ceva? Avem o regulă nouă.
12:21
If you want to give some of your ownpropriu moneybani
276
723000
2000
Dacă vreți să dați parte din banii voștri
12:23
to punishpedepsi people who aren'tnu sunt contributingcontribuind, you can do that."
277
725000
4000
ca să pedepsiți pe cei ce nu contribuie, puteți face asta".
12:27
And as sooncurând as people heardauzit about the punishmentpedeapsă issueproblema going on,
278
729000
3000
Imediat cum au auzit de posibilitatea aplicării pedepsei
12:30
cooperationcooperare shootslăstari up.
279
732000
2000
cooperarea s-a îmbunătățit.
12:32
It shootslăstari up and it keepspăstrează going up.
280
734000
2000
S-a îmbunătățit și a continuat să crească.
12:34
There's a lot of researchcercetare showingarătând that to solverezolva cooperativeCooperativa problemsProbleme, it really helpsajută.
281
736000
3000
Cercetări numeroase arată că la rezolvarea problemei cooperării, asta ajută.
12:37
It's not enoughdestul to just appealrecurs to people'soamenii lui good motivesmotivele.
282
739000
2000
Nu e destul să apelezi la bunele motivații ale oamenilor,
12:39
It really helpsajută to have some sortfel of punishmentpedeapsă.
283
741000
2000
cu adevărat ajută să existe un sistem de pedeapsă.
12:41
Even if it's just shamerușine or embarrassmentjenă or gossipbârfă,
284
743000
2000
Chiar dacă e doar stinghereală, rușine sau clevetire,
12:43
you need some sortfel of punishmentpedeapsă to bringaduce people,
285
745000
3000
e nevoie de-o formă de pedeapsă pentru a-i face pe oameni,
12:46
when they're in largemare groupsGrupuri, to cooperatecoopera.
286
748000
2000
când e vorba de grupuri mari, să coopereze.
12:48
There's even some recentRecent researchcercetare suggestingsugerând that religionreligie --
287
750000
3000
Există niște cercetări care sugerează că religia --
12:51
primingamorsare God, makingluare people think about God --
288
753000
2000
răspunzând în fața lui Dumnezeu, făcând oamenii să se gândească la Dumnezeu --
12:53
oftende multe ori, in some situationssituații, leadsOportunitati to more cooperativeCooperativa, more pro-socialPro-sociale behaviorcomportament.
289
755000
5000
adesea, în unele situații conduce la comportamente mai cooperante, mai orientate social.
12:59
Some people think that religionreligie is an adaptationadaptare
290
761000
2000
Unii cred că religia este o adaptare
13:01
evolvedevoluat bothambii by culturalcultural and biologicalbiologic evolutionevoluţie
291
763000
2000
provenită din evoluția culturală și biologică
13:03
to make groupsGrupuri to coherecohere,
292
765000
2000
pentru a face grupurile să se unească,
13:05
in partparte for the purposescop of trustingîncrederea în eachfiecare other,
293
767000
2000
pe de o parte pentru a avea încredere unul în altul,
13:07
and then beingfiind more effectiveefectiv at competingconcurent with other groupsGrupuri.
294
769000
2000
și apoi pentru a fi mai eficienți în competiția cu alte grupuri.
13:09
I think that's probablyprobabil right,
295
771000
1000
Cred că e probabil adevărat,
13:10
althoughcu toate ca this is a controversialcontroversat issueproblema.
296
772000
2000
deși acesta e un aspect controversat.
13:12
But I'm particularlyîn special interestedinteresat in religionreligie,
297
774000
2000
Dar mă interesează în mod deosebit religia,
13:14
and the originorigine of religionreligie, and in what it does to us and for us.
298
776000
3000
originile religiei, ce face ea pentru noi și ce efecte are asupra noastră.
13:17
Because I think that the greatestcea mai mare wondermirare in the worldlume is not the GrandGrand CanyonCanyon.
299
779000
4000
Deoarece cred că cea mai mare minune din lume nu este Marele Canyon.
13:21
The GrandGrand CanyonCanyon is really simplesimplu.
300
783000
2000
Marele Canyon e foarte simplu.
13:23
It's just a lot of rockstâncă, and then a lot of waterapă and windvânt, and a lot of time,
301
785000
3000
E multă stâncă, multă apă și vânt, și apoi mult timp
13:26
and you get the GrandGrand CanyonCanyon.
302
788000
2000
și obții Marele Canyon.
13:28
It's not that complicatedcomplicat.
303
790000
1000
Nu-i complicat.
13:29
This is what's really complicatedcomplicat,
304
791000
2000
Ceea ce e cu adevărat complicat
13:31
that there were people livingviaţă in placeslocuri like the GrandGrand CanyonCanyon,
305
793000
2000
e că au existat oameni trăind în locuri ca Marele Canyon
13:33
cooperatingcooperarea with eachfiecare other, or on the savannahssavane of AfricaAfrica,
306
795000
2000
cooperând unii cu alții, sau în savanele Africii,
13:35
or on the frozenîngheţat shoresmalul of AlaskaAlaska, and then some of these villagessate
307
797000
3000
sau pe țărmurile înghețate din Alaska, iar unele din aceste sate
13:38
grewcrescut into the mightyputernic citiesorase of BabylonBabilon, and RomeRoma, and TenochtitlanTenochtitlan.
308
800000
4000
au evoluat în cetăți puternice ca Babylonul, Roma, Tenochtitlan.
13:42
How did this happenîntâmpla?
309
804000
1000
Cum s-a întâmplat asta?
13:43
This is an absoluteabsolut miraclemiracol, much harderMai tare to explainexplica than the GrandGrand CanyonCanyon.
310
805000
3000
Acesta e un adevărat miracol, mult mai greu de explicat decât Marele Canyon.
13:46
The answerRăspuns, I think, is that they used everyfiecare toolinstrument in the toolboxtrusă de scule.
311
808000
3000
Răspunsul, cred, constă în faptul că au folosit toate metodele posibile.
13:49
It tooka luat all of our moralmorală psychologyPsihologie
312
811000
2000
Ne-a trebuit toată psihologia moralei
13:51
to createcrea these cooperativeCooperativa groupsGrupuri.
313
813000
2000
să creăm aceste grupuri cooperante.
13:53
Yes, you do need to be concernedîngrijorat about harmdăuna,
314
815000
2000
Da, trebuie să te preocupe apărarea de rău,
13:55
you do need a psychologyPsihologie of justicejustiţie.
315
817000
1000
îți trebuie o psihologie a dreptății.
13:56
But it really helpsajută to organizeorganiza a groupgrup if you can have sub-groupssub-grupe,
316
818000
3000
Dar e de mare folos să organizezi un grup dacă ai sub-grupuri,
13:59
and if those sub-groupssub-grupe have some internalintern structurestructura,
317
821000
3000
și dacă acele subgrupuri au structură internă,
14:02
and if you have some ideologyideologia that tellsspune people
318
824000
2000
și dacă ai o ideologie care le spune oamenilor
14:04
to suppresssuprima theiral lor carnalityCarnalitatea, to pursueurmări highersuperior, noblermai nobil endscapete.
319
826000
4000
să-și suprime carnalitatea, să aspire la scopuri mai înalte, mai nobile.
14:08
And now we get to the cruxCrucea Sudului of the disagreementdezacord
320
830000
2000
Și acum ajungem la miezul dezacordului
14:10
betweenîntre liberalsLiberalii and conservativesConservatorii.
321
832000
2000
între liberali și conservatori.
14:12
Because liberalsLiberalii rejectrespinge threeTrei of these foundationsfundatii.
322
834000
2000
Pentru că liberalii resping trei din aceste fundamente.
14:14
They say "No, let's celebratesărbători diversitydiversitate, not commoncomun in-groupin-Group membershipcalitatea de membru."
323
836000
3000
Ei spun: "Nu, hai să celebrăm diversitatea, nu apartenența uniformă la grupuri".
14:17
They say, "Let's questionîntrebare authorityautoritate."
324
839000
2000
Ei spun: "Hai să punem sub semnul întrebării autoritatea".
14:19
And they say, "Keep your lawslegii off my bodycorp."
325
841000
2000
Și mai spun: "Ține-ți legile departe de trupul meu"
14:21
LiberalsLiberalii have very noblenobil motivesmotivele for doing this.
326
843000
3000
Liberalii au motive foarte nobile pentru aceste acțiuni.
14:24
TraditionalTradiţionale authorityautoritate, traditionaltradiţional moralitymoralitate can be quitedestul de repressiverepresiv,
327
846000
3000
Autoritatea tradițională, moralitatea tradițională poate fi foarte represivă
14:27
and restrictiverestrictive to those at the bottomfund, to womenfemei, to people that don't fitpotrivi in.
328
849000
3000
și restrictivă pentru cei de jos, pentru femei, pentru oameni care nu se integrează.
14:30
So liberalsLiberalii speakvorbi for the weakslab and oppressedasupriţi.
329
852000
2000
Deci liberalii vorbesc pentru cei slabi și asupriți.
14:32
They want changeSchimbare and justicejustiţie, even at the riskrisc of chaoshaos.
330
854000
2000
Vor schimbare și dreptate chiar cu riscul haosului.
14:34
This guy'sbaieti shirtcămaşă saysspune, "Stop bitchingbitching, startstart a revolutionrevoluţie."
331
856000
3000
Sloganul de pe tricoul liberalului spune: "Nu te mai plânge, pornește revoluția".
14:37
If you're highînalt in opennesssinceritate to experienceexperienţă, revolutionrevoluţie is good,
332
859000
2000
Dacă ești deschis la experiențe, revoluția e bună,
14:39
it's changeSchimbare, it's fundistracţie.
333
861000
2000
presupune schimbare, e distractiv.
14:41
ConservativesConservatorii, on the other handmână, speakvorbi for institutionsinstituții and traditionstradiții.
334
863000
3000
Conservatorii, pe de altă parte, favorizează instituțiile și tradițiile.
14:44
They want orderOrdin, even at some costa costat to those at the bottomfund.
335
866000
4000
Ei vor ordine, chiar cu prețul plătit de cei de jos.
14:48
The great conservativeconservator insightînțelegere is that orderOrdin is really hardgreu to achieveobține.
336
870000
2000
Profunda intuiție conservatoare este că ordinea e foarte greu de obținut.
14:50
It's really preciousprețios, and it's really easyuşor to losepierde.
337
872000
3000
E cu adevărat valoroasă și e foarte ușor de pierdut.
14:53
So as EdmundEdmund BurkeBurke said, "The restraintsrestricţii on menbărbați,
338
875000
2000
Deci, după cum spunea Edmund Burke: "Restricțiile asupra oamenilor
14:55
as well as theiral lor libertieslibertăţi, are to be reckonedsocotit amongprintre theiral lor rightsdrepturile."
339
877000
3000
precum și libertățile lor trebuie considerate printre drepturile lor".
14:58
This was after the chaoshaos of the FrenchFranceză RevolutionRevoluţia.
340
880000
2000
Asta a fost după haosul revoluției franceze.
15:00
So onceo singura data you see this -- onceo singura data you see
341
882000
2000
Deci odată ce vedeți că
15:02
that liberalsLiberalii and conservativesConservatorii bothambii have something to contributea contribui,
342
884000
3000
liberalii și conservatorii au amândoi ceva de contribuit,
15:05
that they formformă a balanceechilibru on changeSchimbare versusimpotriva stabilitystabilitate --
343
887000
3000
că ei formează o balanță între schimbare vs. stabilitate --
15:08
then I think the way is opendeschis to stepEtapa outsidein afara the moralmorală matrixMatrix.
344
890000
3000
cred atunci că soluția e să ieșim în afara matricei morale.
15:11
This is the great insightînțelegere that all the AsianAsiatice religionsreligii have attainedatins.
345
893000
5000
Aceasta e deosebita profunzime pe care religiile Asiei au atins-o.
15:16
Think about yinYin and yangYang.
346
898000
2000
Gândiți-vă la Yin și Yang.
15:18
YinYin and yangYang aren'tnu sunt enemiesinamici. YinYin and yangYang don't hateură eachfiecare other.
347
900000
2000
Yin și Yang nu sunt dușmani. Yin și Yang nu se urăsc unul pe altul.
15:20
YinYin and yangYang are bothambii necessarynecesar, like night and day,
348
902000
2000
Yin și Yang sunt amândoi necesari, ca ziua și noaptea,
15:22
for the functioningfuncționare of the worldlume.
349
904000
2000
pentru funcționarea lumii.
15:24
You find the samela fel thing in HinduismHinduismul.
350
906000
2000
Găsești același aspect în Hindism.
15:26
There are manymulți highînalt godszei in HinduismHinduismul.
351
908000
2000
Există mulți dumnezei în Hinduism.
15:28
Two of them are VishnuVishnu, the preserverochelari de protecţie, and ShivaShiva, the destroyerdistrugator.
352
910000
3000
Doi dintre ei sunt Vishnu apărătorul și Shiva distrugătorul.
15:31
This imageimagine actuallyde fapt is bothambii of those godszei sharingpartajare the samela fel bodycorp.
353
913000
3000
Această imagine e sugestionată prin cei doi dumnezei împărtășind același trup.
15:34
You have the markingsmarcaje of VishnuVishnu on the left,
354
916000
2000
Ai acțiunile lui Vishnu pe partea stângă,
15:36
so we could think of VishnuVishnu as the conservativeconservator god.
355
918000
3000
deci te poți gândi la Vishnu ca la un dumnezeu conservator.
15:39
You have the markingsmarcaje of ShivaShiva on the right,
356
921000
2000
Ai acțiunile lui Shiva pe dreapta,
15:41
Shiva'sLui Shiva the liberalliberale god. And they work togetherîmpreună.
357
923000
2000
Shiva e dumnezeul liberal -- și ei lucrează împreună.
15:43
You find the samela fel thing in BuddhismBudism.
358
925000
2000
Găsești același lucru în Buddhism.
15:45
These two stanzasstrofe containconține, I think, the deepestcea mai adâncă insightsInsights
359
927000
2000
Aceste două strofe conțin, cred, cele mai profunde înțelegeri
15:47
that have ever been attainedatins into moralmorală psychologyPsihologie.
360
929000
3000
care au fost vreodată atinse de psihologia moralei.
15:50
From the ZenZen mastermaestru Seng-ts'anAndreea-ts'an:
361
932000
2000
Zen master Seng-ts'an:
15:52
"If you want the truthadevăr to standstand clearclar before you, never be for or againstîmpotriva.
362
934000
4000
"Dacă vrei adevărul să-ți stea clar în fața ochilor, nu fi niciodată pro sau contra,
15:56
The strugglelupta betweenîntre for and againstîmpotriva is the mind'smintea lui worstcel mai rău diseaseboală."
363
938000
4000
lupta între pro și contra e cea mai grea boală a minții".
16:00
Now unfortunatelydin pacate, it's a diseaseboală
364
942000
2000
Totuși, din păcate, e o boală
16:02
that has been caughtprins by manymulți of the world'slume leadersliderii.
365
944000
2000
cu care s-au molipsit mulți din conducătorii lumii.
16:04
But before you feel superiorsuperior to GeorgeGeorge BushBush,
366
946000
3000
Dar înainte de-a te simți superior lui George Bush,
16:07
before you throwarunca a stonepiatră, askcere yourselftu, do you acceptAccept this?
367
949000
4000
înainte să arunci cu piatra, întreabă-te: accepți această provocare?
16:11
Do you acceptAccept steppingpas cu pas out of the battleluptă of good and evilrău?
368
953000
3000
Accepți să pășești în afara luptei dintre bine și rău?
16:14
Can you be not for or againstîmpotriva anything?
369
956000
3000
Poți să fii nici pro nici contra?
16:18
So, what's the pointpunct? What should you do?
370
960000
3000
Deci care-i esența? Ce-ar trebui să faci?
16:21
Well, if you take the greatestcea mai mare insightsInsights
371
963000
2000
Ei bine, dacă consideri cele mai profunde intuiții
16:23
from ancientvechi AsianAsiatice philosophiesfilosofii and religionsreligii,
372
965000
2000
din filozofiile și religiile Asiei
16:25
and you combinecombina them with the latestcele mai recente researchcercetare on moralmorală psychologyPsihologie,
373
967000
2000
și le combini cu ultimele cercetări ale psihologiei morale,
16:27
I think you come to these conclusionsconcluziile:
374
969000
2000
ajungi, cred, la aceste concluzii:
16:29
that our righteousdrept mindsminți were designedproiectat by evolutionevoluţie
375
971000
4000
Mințile noastre prezumpțioase au fost programate de evoluție
16:33
to uniteuni us into teamsechipe, to dividedivide us againstîmpotriva other teamsechipe
376
975000
3000
să ne unească în echipe, să ne dividă împotriva altor echipe
16:36
and then to blindORB us to the truthadevăr.
377
978000
2000
iar apoi să ne orbească în distingerea adevărului.
16:39
So what should you do? Am I tellingspune you to not strivesă depună eforturi?
378
981000
4000
Deci ce-ar trebui să faceți? Să nu vă zbateți?
16:43
Am I tellingspune you to embraceîmbrăţişare Seng-ts'anAndreea-ts'an and stop,
379
985000
3000
Să îmbrățișați doctrina lui Seng-ts'an și să încetați
16:46
stop with this strugglelupta of for and againstîmpotriva?
380
988000
3000
lupta între pro și contra?
16:49
No, absolutelyabsolut not. I'm not sayingzicală that.
381
991000
2000
Nu, categoric nu. Nu spun asta.
16:51
This is an amazinguimitor groupgrup of people who are doing so much,
382
993000
3000
Ăsta e un grup de oameni care fac atât de mult,
16:54
usingutilizând so much of theiral lor talenttalent, theiral lor brilliancestrălucire, theiral lor energyenergie, theiral lor moneybani,
383
996000
4000
folosind mare parte din talentul, genialitatea, energia și banii proprii,
16:58
to make the worldlume a better placeloc, to fightluptă --
384
1000000
2000
pentru a face lumea un loc mai bun --
17:00
to fightluptă wrongsrelele, to solverezolva problemsProbleme.
385
1002000
3000
pentru a lupta împotriva nedreptăților, pentru a rezolva problemele umanității.
17:04
But as we learnedînvățat from SamanthaSamantha PowerPutere, in her storypoveste
386
1006000
4000
Dar după cum am învățat de la Samantha Power în povestea ei
17:08
about SergioSergio VieiraVieira dede MelloMello, you can't just go chargingîncărcare in,
387
1010000
5000
despre Sergio Vieira de Mello, nu poți pur și simplu să alergi
17:13
sayingzicală, "You're wronggresit, and I'm right."
388
1015000
2000
spunând: ”tu greșești și eu am dreptate. "
17:15
Because, as we just heardauzit, everybodytoata lumea thinkscrede they are right.
389
1017000
4000
Pentru că după cum am văzut, fiecare crede că are dreptate.
17:19
A lot of the problemsProbleme we have to solverezolva
390
1021000
2000
Multe probleme pe care le avem de rezolvat
17:21
are problemsProbleme that requirenecesita us to changeSchimbare other people.
391
1023000
3000
sunt probleme care implică să-i schimbăm pe ceilalți.
17:24
And if you want to changeSchimbare other people, a much better way to do it
392
1026000
3000
Și dacă vrei să schimbi oamenii, o cale mult mai bună este
17:27
is to first understanda intelege who we are -- understanda intelege our moralmorală psychologyPsihologie,
393
1029000
4000
ca mai întâi să înțelegi cine suntem -- să înțelegi psihologia moralei,
17:31
understanda intelege that we all think we're right -- and then stepEtapa out,
394
1033000
3000
să înțelegi că toți gândim că avem dreptate -- și apoi să pășești în afară --
17:34
even if it's just for a momentmoment, stepEtapa out -- checkVerifica in with Seng-ts'anAndreea-ts'an.
395
1036000
4000
chiar și pentru un moment, pășește în afară -- amintește-ți de Seng-ts'an.
17:38
StepPas out of the moralmorală matrixMatrix,
396
1040000
2000
Ieși din matricea moralei,
17:40
just try to see it as a strugglelupta playingjoc out,
397
1042000
2000
încearcă să o vezi ca pe o luptă în desfășurare
17:42
in whichcare everybodytoata lumea does think they're right,
398
1044000
2000
în care toți sunt convinși că au dreptate,
17:44
and everybodytoata lumea, at leastcel mai puţin, has some reasonsmotive -- even if you disagreedezacord with them --
399
1046000
2000
și toți cel puțin au motive -- chiar dacă tu nu ești de acord --
17:46
everybodytoata lumea has some reasonsmotive for what they're doing.
400
1048000
2000
toți au o motivație pentru ceea ce fac.
17:48
StepPas out.
401
1050000
1000
Pășeșete în afara cadrului.
17:49
And if you do that, that's the essentialesenţial movemișcare to cultivatecultiva moralmorală humilityumilinţă,
402
1051000
4000
Dacă faci asta faci mișcarea esențială ce cultivă umilitate morală,
17:53
to get yourselftu out of this self-righteousnessauto-neprihănire,
403
1055000
1000
pentru a te scoate din acest cadru de prezumție,
17:54
whichcare is the normalnormal humanuman conditioncondiție.
404
1056000
2000
care e condiția umană primară.
17:56
Think about the DalaiDavid LamaLupu.
405
1058000
2000
Gândește-te la Dalai Lama.
17:58
Think about the enormousenorm moralmorală authorityautoritate of the DalaiDavid LamaLupu --
406
1060000
3000
Gândește-te la uriașa autoritate morală a lui Dalai Lama --
18:01
and it comesvine from his moralmorală humilityumilinţă.
407
1063000
2000
ea izvorăște din umilitatea sa morală.
18:05
So I think the pointpunct -- the pointpunct of my talk,
408
1067000
2000
Deci cred că scopul principal al dezbaterii mele
18:07
and I think the pointpunct of TEDTED --
409
1069000
3000
și cred că și esența perspectivei TED,
18:10
is that this is a groupgrup that is passionatelycu pasiune engagedangajat
410
1072000
3000
este că acesta e un grup angajat cu pasiune
18:13
in the pursuiturmărire of changingschimbare the worldlume for the better.
411
1075000
2000
în preocuparea de a schimba lumea în una mai bună.
18:15
People here are passionatelycu pasiune engagedangajat
412
1077000
3000
Participanții de aici sunt angajați cu pasiune
18:18
in tryingîncercat to make the worldlume a better placeloc.
413
1080000
2000
în încercarea de-a face lumea mai bună.
18:20
But there is alsode asemenea a passionatepasionat commitmentangajament to the truthadevăr.
414
1082000
3000
Dar există și un devotament pătimaș pentru adevăr.
18:23
And so I think that the answerRăspuns is to use that passionatepasionat commitmentangajament
415
1085000
4000
Deci, cred că soluția constă în folosirea acelui devotament înflăcărat
18:27
to the truthadevăr to try to turnviraj it into a better futureviitor for us all.
416
1089000
4000
pentru adevăr pentru a face un viitor mai bun pentru noi toți.
18:31
Thank you.
417
1093000
1000
Mulțumesc.
18:32
(ApplauseAplauze)
418
1094000
3000
(Aplauze)
Translated by Ariana Bleau Lugo
Reviewed by Magda Marcu

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com