ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Filip Zimbardo: Si njerëzit e thjeshtë kthehen në përbindësha... ose heronj

Filmed:
7,078,283 views

Philip Zimbardo e di se sa e lehtë është për njerëz të këndshëm të bëhen të këqinj. Në këtë prezantim, ai tregon ide depërtuese dhe foto grafike të papara nga gjyqet e Abu Ghraib. Pastaj ai flet për të kundërtën: sa e lehtë është të bëhesh hero, dhe si mund ti përgjigjemi kësaj sfide.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
Philosophers, dramatists, theologians
0
1000
3000
Filozofët, dramaturgët, teologët
00:16
have grappled with this question for centuries:
1
4000
2000
janë marrë me këtë pyetje për shekuj të tërë:
00:18
what makes people go wrong?
2
6000
2000
Përse bëhen njerezit të këqinj?
00:20
Interestingly, I asked this question when I was a little kid.
3
8000
2000
Në mënyrë interesante, unë e bëja këtë pyetje kur isha i vogël.
00:23
When I was a kid growing up in the South Bronx, inner-city ghetto
4
11000
2000
Kur isha fëmijë në Bronksin jugor, në një geto në qytet
00:25
in New York, I was surrounded by evil,
5
13000
2000
në Nju Jork, i rrethuar nga e keqja,
00:28
as all kids are who grew up in an inner city.
6
16000
2000
si të gjithë fëmijët që u rriten në qendrat e qyteteve.
00:30
And I had friends who were really good kids,
7
18000
2000
Dhe kisha shokë që ishin fëmijë shumë të mirë,
00:32
who lived out the Dr. Jekyll Mr. Hyde scenario -- Robert Louis Stevenson.
8
20000
4000
që jetonin situatën e Dr. Xhekyll - Z. Hajd -- Robert Luis Stivenson.
00:36
That is, they took drugs, got in trouble, went to jail.
9
24000
4000
Dmth, bënin drogë, gjendeshin në telashe, futeshin në burg.
00:40
Some got killed, and some did it without drug assistance.
10
28000
4000
Disa u vranë, disa e bënë pa ndihmën e drogave.
00:44
So when I read Robert Louis Stevenson, that wasn't fiction.
11
32000
3000
Prandaj kur lexova Robert Louis Stevenson, nuk mu duk histori e trilluar.
00:47
The only question is, what was in the juice?
12
35000
1000
Pyetja e vetme ishte, çfarë kishte brenda lengut?
00:48
And more importantly, that line between good and evil --
13
36000
5000
Dhe ajo akoma më e rëndësishme, ai kufiri midis të mirës dhe të keqes --
00:53
which privileged people like to think is fixed and impermeable,
14
41000
3000
që njerëzit e privilegjuar e konsiderojnë të fiksuar dhe të padepërtueshëm,
00:56
with them on the good side, and the others on the bad side --
15
44000
3000
me ata vetë nga ana e mirë, dhe të tjerët nga ana e keqe --
00:59
I knew that line was movable, and it was permeable.
16
47000
3000
E dija që ai kufi ishte i lëvizshëm, dhe që mund të depërtohej.
01:02
Good people could be seduced across that line,
17
50000
2000
Njerëzit e mirë mund të tundohen ta kapërcejnë këtë kufi,
01:05
and under good and some rare circumstances, bad kids could recover
18
53000
3000
dhe në disa kushte të rralla dhe të mira, fëmijët e këqinj mund të sherohen
01:08
with help, with reform, with rehabilitation.
19
56000
3000
me ndihmë, me reforma, me rehabilitim.
01:12
So I want to begin with this this wonderful illusion
20
60000
2000
Prandaj dua të filloj me këtë iluzion të mrekullueshëm.
01:14
by [Dutch] artist M.C. Escher.
21
62000
2000
nga artisti hollandez M.C. Escher.
01:17
If you look at it and focus on the white,
22
65000
1000
Nëse e shikoni dhe përqendroheni tek e bardha,
01:18
what you see is a world full of angels.
23
66000
2000
do të shihni një botë plot me ëngjëj.
01:20
But let's look more deeply, and as we do,
24
68000
3000
Por le ta shohim më me vëmendje, dhe duke parë më thellë,
01:23
what appears is the demons, the devils in the world.
25
71000
3000
shfaqen demonët, shejtanet e botës.
01:27
And that tells us several things.
26
75000
1000
Dhe kjo na tregon disa gjëra.
01:28
One, the world is, was, will always be filled with good and evil,
27
76000
3000
Një: bota është, ka qenë dhe do të jetë gjithmonë plot me të mirën dhe të keqen,
01:31
because good and evil is the yin and yang of the human condition.
28
79000
3000
sepse e mira dhe e keqja janë Jin dhe Jan i natyrës njerëzore.
01:34
It tells me something else. If you remember,
29
82000
2000
Më tregon edhe diçka tjetër. Nëse mbani mend,
01:36
God's favorite angel was Lucifer.
30
84000
3000
ëngjëlli i preferuar i Zotit ishte Luciferi.
01:39
Apparently, Lucifer means "the light."
31
87000
2000
Me sa duket, Lucifer do të thotë "drita."
01:42
It also means "the morning star," in some scripture.
32
90000
2000
Në disa shkrime të vjetra, do të thotë edhe "ylli i mëngjesit".
01:44
And apparently, he disobeyed God,
33
92000
3000
Dhe me sa duket ai nuk ju bind Zotit,
01:47
and that's the ultimate disobedience to authority.
34
95000
3000
dhe kjo është rebelimi më i madh kundrejt autoritetit.
01:50
And when he did, Michael, the archangel, was sent
35
98000
3000
Dhe kur ai nuk u bind, engëlli Mikael u dërgua
01:54
to kick him out of heaven along with the other fallen angels.
36
102000
3000
për ta nxjerrë jashtë nga parajsa së bashku më ëngjëjt e tjerë të rënë.
01:57
And so Lucifer descends into hell, becomes Satan,
37
105000
3000
Dhe kështu, Luciferi kur futet në ferr, bëhet Satani,
02:01
becomes the devil, and the force of evil in the universe begins.
38
109000
2000
kthehet në djall, dhe forca e së keqes në univers fillonë.
02:03
Paradoxically, it was God who created hell as a place to store evil.
39
111000
5000
Paradoksi është që Zoti krijoi ferrin si vendin për të mbyllur të keqen.
02:09
He didn't do a good job of keeping it there though.
40
117000
1000
Por nuk pati sukses që ta mbante aty ama.
02:10
So, this arc of the cosmic transformation
41
118000
3000
Prandaj ky hark i shndërrimit kozmik
02:13
of God's favorite angel into the Devil,
42
121000
2000
i ëngjëllit të preferuar të Zotit në Djall,
02:15
for me, sets the context for understanding human beings
43
123000
4000
për mua përbën bazën për të kuptuar qëniet njerëzore
02:19
who are transformed from good, ordinary people
44
127000
3000
që shndërrohen nga njerëz të mirë dhe të rëndomtë
02:22
into perpetrators of evil.
45
130000
2000
në shkaktarë e të keqes.
02:24
So the Lucifer effect, although it focuses on the negatives --
46
132000
4000
Prandaj Efekti Lucifer, ndonëse përqendrohet tek negativja --
02:28
the negatives that people can become,
47
136000
3000
gjërat negative që njerëzit bëhen,
02:31
not the negatives that people are --
48
139000
1000
jo gjërat e këqija që njerëzit janë --
02:32
leads me to a psychological definition. Evil is the exercise of power.
49
140000
6000
më shtyn tek një përkufizim psikologjik: e keqja vjen nga zbatimi i pushtetit.
02:38
And that's the key: it's about power.
50
146000
2000
Dhe kjo është kyce: bëhet fjalë për pushtet.
02:40
To intentionally harm people psychologically,
51
148000
3000
Në mënyrë që dikush të dëmtojë të tjerët psikologjikisht,
02:44
to hurt people physically, to destroy people mortally, or ideas,
52
152000
3000
ti shkaktojë vuajtje fizike, vdekje apo ti dhunojë idete
02:47
and to commit crimes against humanity.
53
155000
2000
apo për të bërë krime kundër njerëzimit.
02:51
If you Google "evil," a word that should surely have withered by now,
54
159000
3000
Nëse kërkoni në Google, "e keqja", një fjalë që duhet të ishte zhdukur deri tani,
02:54
you come up with 136 million hits in a third of a second.
55
162000
4000
do të gjeni mbi 136 milion rezultate në 0.33 sekonda.
02:58
A few years ago -- I am sure all of you were shocked, as I was,
56
166000
4000
Disa vjet më parë - jam i sigurt që u tronditët po aq sa unë,
03:02
with the revelation of American soldiers
57
170000
3000
nga shpallja e ushtarëve amerikanë
03:05
abusing prisoners in a strange place
58
173000
3000
që abuzonin te burgosurit në një vend të cuditshëm
03:08
in a controversial war, Abu Ghraib in Iraq.
59
176000
3000
në një luftë të debatuar shumë: Abu Graib në Irak.
03:11
And these were men and women
60
179000
1000
Dhe këta ishin gra dhe burra
03:12
who were putting prisoners through unbelievable humiliation.
61
180000
5000
që po i detyronin të burgosurit të bënin veprime tepër turpëruese,
03:18
I was shocked, but I wasn't surprised,
62
186000
1000
U trondita, por nuk u habita,
03:19
because I had seen those same visual parallels
63
187000
2000
sepse i kisha parë këto paralele vizuale
03:22
when I was the prison superintendent of the Stanford Prison Study.
64
190000
3000
kur isha mbikëqyrës i burgut në Studimin e Burgut të Stanford.
03:25
Immediately the Bush administration military said ... what?
65
193000
2000
Menjëherë administrata ushtarake e Bush tha... cfarë?
03:28
What all administrations say when there's a scandal.
66
196000
2000
Cfarë të gjitha administratat thonë kur ka një skandal.
03:30
"Don't blame us. It's not the system. It's the few bad apples,
67
198000
3000
"Mos na e vini ne fajin. Nuk e ka fajin sistemi. Janë disa mollë të prishura,
03:34
the few rogue soldiers."
68
202000
1000
ata ushtarët rebelë."
03:35
My hypothesis is, American soldiers are good, usually.
69
203000
3000
Hipoteza ime është që ushtarët amerikanë janë të mirë, zakonisht.
03:38
Maybe it was the barrel that was bad.
70
206000
2000
Mbase ishte tyta e pushkës që ishte e keqe.
03:40
But how am I going to -- how am I going to deal with that hypothesis?
71
208000
3000
Por si mundem unë të përballem me këtë hipotezën time?
03:43
I became an expert witness
72
211000
1000
U bëra dëshmitar ekspert
03:44
for one of the guards, Sergeant Chip Frederick,
73
212000
2000
për një nga rojet, rreshterin Chip Frederik,
03:46
and in that position, I had access to the dozen investigative reports.
74
214000
4000
dhe në këtë rol, kisha mundësi të shihja një mori raportesh hetuesish.
03:50
I had access to him. I could study him,
75
218000
3000
Kisha mundësi të komunikoja edhe me atë. Mund ta studioja atë,
03:54
have him come to my home, get to know him,
76
222000
1000
të vinte në shtëpinë time, ta njihja nga afër,
03:55
do psychological analysis to see, was he a good apple or bad apple.
77
223000
4000
të bëja një analizë psikologjike për të parë nëse ishte mollë e mirë apo e keqe.
03:59
And thirdly, I had access to all of the 1,000 pictures
78
227000
4000
Dhe e treta, mund të shihja të gjitha 1,000 fotot
04:03
that these soldiers took.
79
231000
1000
që këta ushtarë bënë.
04:05
These pictures are of a violent or sexual nature.
80
233000
2000
Këto foto kanë karakter të dhunshëm ose seksual.
04:07
All of them come from the cameras of American soldiers.
81
235000
3000
Të gjitha janë bërë me aparate fotografike të ushtarëve amerikanë.
04:11
Because everybody has a digital camera or cell phone camera,
82
239000
2000
Sepse të gjithë kishin aparat dixhital ose aparat tek telefoni celular,
04:13
they took pictures of everything. More than 1,000.
83
241000
2000
dhe bënë foto të gjithckaje. Mbi 1,000 copë.
04:16
And what I've done is I organized them into various categories.
84
244000
2000
Dhe unë i organizova këto foto sipas disa kategorive.
04:18
But these are by United States military police, army reservists.
85
246000
5000
Por këto foto janë bërë nga Policia Ushtarake e Shteteve të Bashkuara, Ushtarët Rezervë.
04:24
They are not soldiers prepared for this mission at all.
86
252000
3000
Këta ushtarë nuk janë aspak të përgatitur për këtë lloj misioni.
04:27
And it all happened in a single place, Tier 1-A, on the night shift.
87
255000
5000
Dhe gjithcka ndodhi në një vend të vetëm, Niveli 1A, në turnin e natës.
04:32
Why? Tier 1-A was the center for military intelligence.
88
260000
3000
Përse? Niveli 1A ishte qendra për inteligjencën ushtarake.
04:35
It was the interrogation hold. The CIA was there.
89
263000
3000
Atje bëheshin marrjet në pyetje. CIA ishte atje.
04:39
Interrogators from Titan Corporation, all there,
90
267000
2000
Hetuesit nga Korporata Titan, të gjithë ishin atje,
04:41
and they're getting no information about the insurgency.
91
269000
3000
dhe nuk po mblidhnin dot asnjë informacion mbi kryengritjen.
04:45
So they're going to put pressure on these soldiers,
92
273000
1000
Prandaj po u bënin presion këtyre ushtarëve,
04:46
military police, to cross the line,
93
274000
2000
Policisë Ushtarake, që të kalonin cakun normal,
04:49
give them permission to break the will of the enemy,
94
277000
3000
duke u dhënë leje të thyenin vullnetin e armikut,
04:52
to prepare them for interrogation, to soften them up,
95
280000
2000
ti përgatisnin për tu marrë në pyetje, ti zbusnin,
04:54
to take the gloves off. Those are the euphemisms,
96
282000
2000
tu hiqnin dorashkat. Këto janë metaforat,
04:56
and this is how it was interpreted.
97
284000
3000
dhe kështu u nënkuptuan ato.
05:00
Let's go down to that dungeon.
98
288000
1000
Eja shkojmë në bodrum,
05:01
(Camera shutter)
99
289000
37000
(klikim aparati)
05:38
(Thuds)
100
326000
6000
(zhurmë goditje)
05:45
(Camera shutter)
101
333000
14000
(klikim aparati)
05:59
(Thuds)
102
347000
10000
(zhurme goditje)
06:09
(Breathing)
103
357000
8000
(frymëmarrje)
06:17
(Bells)
104
365000
31000
(zile)
06:49
So, pretty horrific.
105
397000
3000
Domethënë goxha e tmerrshme.
06:52
That's one of the visual illustrations of evil.
106
400000
3000
Ky është një nga ilustrimet pamore të së keqes.
06:55
And it should not have escaped you that
107
403000
1000
Dhe nuk duhet tju ketë shpëtuar që
06:56
the reason I paired the prisoner with his arms out
108
404000
4000
arsyeja përse e ciftëzova të burgosurin me krahët hapur
07:00
with Leonardo da Vinci's ode to humanity
109
408000
3000
me Oden për Njerëzimin të Leonardo da Vincit,
07:03
is that that prisoner was mentally ill.
110
411000
2000
është sepse ai i burgosur kishte një sëmundje mendore.
07:05
That prisoner covered himself with shit every day,
111
413000
2000
Ai i burgosur mbulohej me jashtëqitjet e veta cdo ditë,
07:07
and they used to have to roll him in dirt so he wouldn't stink.
112
415000
3000
dhe e bënin të rrokullisej në dhe që të mos mbante erë.
07:10
But the guards ended up calling him "Shit Boy."
113
418000
2000
Por rojet filluan ta thërrisnin: Cun Muti.
07:12
What was he doing in that prison
114
420000
2000
Cfarë po bënte në burg ai
07:14
rather than in some mental institution?
115
422000
3000
në vend të një institucioni mendor?
07:17
In any event, here's former Secretary of Defense Rumsfeld.
116
425000
3000
Për cdo rast, ja ku është Sekretari i Mbrojtjes Rumsfeld.
07:20
He comes down and says, "I want to know, who is responsible?
117
428000
2000
vjen dhe thotë "Dua të di kush mban përgjegjësi?
07:22
Who are the bad apples?" Well, that's a bad question.
118
430000
3000
Cilat janë mollët e prishura?" Në fakt, kjo është një pyetje e keqe.
07:25
You have to reframe it and ask, "What is responsible?"
119
433000
3000
Duhet perifrazuar dhe pyetur, "Cfarë është përgjegjëse?"
07:28
Because "what" could be the who of people,
120
436000
2000
Sepse "cfare" mund të ishte cilët njerëz,
07:30
but it could also be the what of the situation,
121
438000
2000
por mund edhe të ishte cila situatë,
07:32
and obviously that's wrongheaded.
122
440000
2000
dhe është e qartë që kjo është e gabuar.
07:34
So how do psychologists go about understanding
123
442000
2000
Pra si merren psikologët
07:36
such transformations of human character,
124
444000
2000
këto transformime të personalitetit njerëzor,
07:38
if you believe that they were good soldiers
125
446000
2000
nëse ju besoni që ata ishin ushtarë të mirë
07:40
before they went down to that dungeon?
126
448000
1000
përpara se të shkonin poshtë tek bodrumi?
07:42
There are three ways. The main way is -- it's called dispositional.
127
450000
2000
Ka tre mënyra. Mënyra kryesore quhet karakteriale.
07:44
We look at what's inside of the person, the bad apples.
128
452000
3000
Shohim cfarë ka brenda personi, mollët e prishura.
07:48
This is the foundation of all of social science,
129
456000
3000
Kjo është baza e të gjitha shkencave shoqërore,
07:51
the foundation of religion, the foundation of war.
130
459000
2000
baza e besimeve fetare, baza e luftës.
07:55
Social psychologists like me come along and say, "Yeah,
131
463000
2000
Psikologët socialë vijnë dhe thonë, "Po
07:57
people are the actors on the stage,
132
465000
2000
njerëit janë aktorët në këtë skenë,
07:59
but you'll have to be aware of what that situation is.
133
467000
2000
por duhet pasur paraysh situata ku ata veprojnë.
08:01
Who are the cast of characters? What's the costume?
134
469000
3000
Cilët janë trupa e personazheve? Cfarë konstumesh veshin?
08:04
Is there a stage director?"
135
472000
1000
A ka një drejtor skenik?"
08:05
And so we're interested in, what are the external factors
136
473000
2000
Kështu pra na interesojnë cilët janë faktorët e jashtëm
08:08
around the individual -- the bad barrel?
137
476000
2000
përreth individit, tytës së keqe?
08:10
And social scientists stop there, and they miss the big point
138
478000
3000
Dhe shkencëtarët shoqërorë ndalojnë atje dhe e humbin të gjithë pikën e rëndësishme
08:13
that I discovered when I became an expert witness for Abu Ghraib.
139
481000
3000
që unë zbulova kur u bëra dëshmitar ekspert për Abu Graib.
08:16
The power is in the system.
140
484000
2000
Pushteti është në sistem.
08:18
The system creates the situation that corrupts the individuals,
141
486000
3000
Sistemi krijon situatat që korruptojnë individët,
08:21
and the system is the legal, political, economic, cultural background.
142
489000
5000
dhe sistemi është struktura ligjore, politike, ekonomike dhe kulturore.
08:26
And this is where the power is of the bad-barrel makers.
143
494000
3000
Dhe nga kjo strukturë vjen pushteti i tytave të këqija.
08:29
So if you want to change a person, you've got to change the situation.
144
497000
3000
Prandaj nëse doni të ndryshoni personin, atëherë duhet ndryshuar situata.
08:32
If you want to change the situation,
145
500000
1000
Dhe nëse doni të ndryshoni situatën,
08:33
you've got to know where the power is, in the system.
146
501000
2000
duhet të dini se ku është pushteti brenda sistemit.
08:35
So the Lucifer effect involves understanding
147
503000
2000
Prandaj Efekti i Luciferit përfshin të kuptuarit
08:37
human character transformations with these three factors.
148
505000
5000
të transformimeve të personalitetit njerëzor me këto tre faktorë.
08:43
And it's a dynamic interplay.
149
511000
1000
Dhe ky është një ndërveprim dinamik.
08:44
What do the people bring into the situation?
150
512000
2000
Cfarë kontribuojnë këta njerëz tek kjo situatë?
08:46
What does the situation bring out of them?
151
514000
2000
Cfarë nxjerr në pah brenda tyre kjo situatë?
08:48
And what is the system that creates and maintains that situation?
152
516000
4000
Dhe cfarë është sistemi qe krijon dhe mban këtë situate?
08:52
So my book, "The Lucifer Effect," recently published, is about,
153
520000
2000
Pra, libri im i botuar kohët e fundit, Efekti Lucifer
08:54
how do you understand how good people turn evil?
154
522000
2000
si të kujtojmë si njerëzit e mirë bëhen të këqinj?
08:57
And it has a lot of detail
155
525000
1000
Dhe përmban shumë detaje
08:58
about what I'm going to talk about today.
156
526000
2000
mbi temën që do të trajtoj sot.
09:01
So Dr. Z's "Lucifer Effect," although it focuses on evil,
157
529000
3000
Pra Efekti Lucifer i Dr. Z-së, sado që përqendrohet tek e keqja,
09:04
really is a celebration of the human mind's
158
532000
2000
është në fakt një kremtim i kapacitetit të
09:06
infinite capacity to make any of us kind or cruel,
159
534000
4000
pafund të mendjes njerëzore të na bëjë të përzemërt apo mizor,
09:10
caring or indifferent, creative or destructive,
160
538000
3000
të kujdesshëm apo indiferent, krijues apo shkatërruesm
09:13
and it makes some of us villains.
161
541000
2000
dhe disa nga ne i bën maskarenj.
09:15
And the good news story that I'm going to hopefully come to
162
543000
2000
Dhe lajmet e mira që dua të arrij si përfundim tju jap
09:18
at the end is that it makes some of us heroes.
163
546000
2000
është që në fund të fundit, disa nga ne i bën heronj.
09:20
This is a wonderful cartoon in the New Yorker,
164
548000
3000
Ky është një vizatim në revistën New Yorker,
09:23
which really summarizes my whole talk:
165
551000
2000
që në fakt përmbledh të gjithë fjalimin tim:
09:25
"I'm neither a good cop nor a bad cop, Jerome.
166
553000
2000
"Nuk jam as polici i mirë as ai i keq, Zherom.
09:27
Like yourself, I'm a complex amalgam
167
555000
2000
Ashtu si edhe ti, jam një amalgam i komplikuar
09:29
of positive and negative personality traits
168
557000
2000
i tipareve pozitive dhe negative të karakterit
09:32
that emerge or not, depending on the circumstances."
169
560000
3000
që ngrenë kokën ose jo, në varësi të rrethanave."
09:35
(Laughter)
170
563000
2000
(të qeshura)
09:37
There's a study some of you think you know about,
171
565000
3000
Ka një studim që disa nga ju mendojnë që dini mbi të,
09:40
but very few people have ever read the story. You watched the movie.
172
568000
4000
por shumë pak njerëz kanë lexuar historinë. Ju keni parë filmin.
09:44
This is Stanley Milgram, little Jewish kid from the Bronx,
173
572000
3000
Ky është Stenli Milgrom, një fëmijë i vogël hebre nga Bronksi,
09:47
and he asked the question, "Could the Holocaust happen here, now?"
174
575000
3000
dhe ai bëri pyetjen, "A mund të ndodh holokausti këtu, tani?"
09:51
People say, "No, that's Nazi Germany,
175
579000
1000
Dhe njerëit thanë, "Jo, ai ndodhi në Gjermaninë naziste,
09:52
that's Hitler, you know, that's 1939."
176
580000
2000
Ishte Hitleri, e ke parasysh, në 1939."
09:54
He said, "Yeah, but suppose Hitler asked you,
177
582000
2000
Dhe ai tha, "Po, por po sikur Hitleri tju pyesë,
09:56
'Would you electrocute a stranger?' 'No way, not me, I'm a good person.' "
178
584000
3000
"A do të elektrizonit një të panjohur?" "E pamundur, unë jam një njeri i mirë."
10:00
He said, "Why don't we put you in a situation
179
588000
1000
Dhe ai thotë "Përse nuk ju vendosim ju në një situatë
10:01
and give you a chance to see what you would do?"
180
589000
2000
dhe të shohim se cfarë do të bënit vërtete?
10:03
And so what he did was he tested 1,000 ordinary people.
181
591000
4000
Dhe prandaj ai testoit 1,000 veta normalë.
10:07
500 New Haven, Connecticut, 500 Bridgeport.
182
595000
3000
500 në Nju Heivën, Konektikat; 500 Brixhport.
10:10
And the ad said, "Psychologists want to understand memory.
183
598000
4000
Dhe reklama tha, "Psikologët duan të kuptojnë kujtesën,
10:14
We want to improve people's memory,
184
602000
1000
duam të përmirësojmë kujtesën e njerëzve,
10:15
because memory is the key to success." OK?
185
603000
3000
sepse kujtesa është faktor kyc për suksesin." Dakort?
10:18
"We're going to give you five bucks -- four dollars for your time."
186
606000
5000
Do tju japim 5 dollarë - 4 dollarë për kohën që harxhuat,"
10:24
And it said, "We don't want college students.
187
612000
1000
Dhe thuhet, "Nuk duam studentë nga kolegjet;
10:25
We want men between 20 and 50."
188
613000
2000
duam burra midis 20-50 vjec"
10:27
In the later studies, they ran women.
189
615000
1000
-- në studimet e tjera u përfshinë edhe gratë --
10:28
Ordinary people: barbers, clerks, white-collar people.
190
616000
4000
njerëz të thjeshtë: berberë, punonjës zyrash, administrata.
10:32
So, you go down, and one of you is going to be a learner,
191
620000
3000
Pra paraqiteni, dhe njëri nga ju do të jetë nxënësi,
10:35
and one of you is going to be a teacher.
192
623000
1000
dhe tjetri mësuesi.
10:36
The learner's a genial, middle-aged guy.
193
624000
2000
Nxënësi është një njeri i zakonshëm.
10:38
He gets tied up to the shock apparatus in another room.
194
626000
3000
I lidhur me një aparat shokues në një dhomë tjetër.
10:41
The learner could be middle-aged, could be as young as 20.
195
629000
3000
Nxënësi mund të jetë rreth të tridhjetave-dyzetave, ose edhe njëzet vjec.
10:44
And one of you is told by the authority, the guy in the lab coat,
196
632000
4000
Dhe njërit prej jush i thuhet nga autoritetet, ata me përparëse të bardhë,
10:48
"Your job as teacher is to give this guy material to learn.
197
636000
3000
"Puna juaj është ti jepni këtij djali materiale për të mësuar.
10:51
Gets it right, reward him.
198
639000
1000
Nëse e bën mirë, shpërbleje.
10:52
Gets it wrong, you press a button on the shock box.
199
640000
2000
Nëse e bën keq, ju shtypni butonin në kutinë shokuese.
10:54
The first button is 15 volts. He doesn't even feel it."
200
642000
3000
Butoni i parë është 15 volt. As që nuk do ta ndjejë."
10:58
That's the key. All evil starts with 15 volts.
201
646000
3000
Dhe ky është celësi. Cdo e keqe fillon me 15 volt.
11:01
And then the next step is another 15 volts.
202
649000
2000
Dhe pastaj hapi tjetër është 15 volt.
11:04
The problem is, at the end of the line, it's 450 volts.
203
652000
2000
Problemi është se grada e fundit arrin në 450 volt.
11:06
And as you go along, the guy is screaming,
204
654000
3000
Dhe ndërkohë që ju vazhdoni, ai tjetri po bërtet,
11:09
"I've got a heart condition! I'm out of here!"
205
657000
2000
"Kam një sëmundje zemre! Më nxirrni jashtë prej këtej!"
11:11
You're a good person. You complain.
206
659000
2000
Ju jeni një njeri i mirë. Dhe ankoheni.
11:13
"Sir, who's going to be responsible if something happens to him?"
207
661000
2000
"Zotëri, kush është përgjegjës nëse atij i ndodh dicka?"
11:15
The experimenter says, "Don't worry, I will be responsible.
208
663000
3000
Dhe eksperimentuesi thotë "Mos u shqetësoni, mbaj unë përgjegjësi.
11:18
Continue, teacher."
209
666000
1000
Vazhdoni, mësues."
11:19
And the question is, who would go all the way to 450 volts?
210
667000
4000
Dhe pyetja mbetet, kush do të shkonte deri në 450 volt?
11:24
You should notice here, when it gets up to 375,
211
672000
2000
Ju lutem vini re këtu, kur arrin 375,
11:26
it says, "Danger. Severe Shock."
212
674000
1000
pajisja thotë, "Rrezik: Shok i rëndë."
11:28
When it gets up to here, there's "XXX" -- the pornography of power.
213
676000
3000
Kur arrin deri këtu, thotë "XXX": pronografia e pushtetit.
11:31
(Laughter)
214
679000
1000
(Qeshje)
11:32
So Milgram asks 40 psychiatrists,
215
680000
1000
Atëherë Milgrom pyet 40 psikiatristë,
11:33
"What percent of American citizens would go to the end?"
216
681000
3000
"Sa përqind e qytetarëve Amerikan do të shkonin deri në fund?"
11:37
They said only one percent. Because that's sadistic behavior,
217
685000
3000
Dhe ata thanë 1%. Sepse kjo është një sjellje sadiste,
11:40
and we know, psychiatry knows, only one percent of Americans are sadistic.
218
688000
3000
dhe ne e dimë, psikiatria e di, që vetëm një përqind e Amerikanëve janë sadistë.
11:44
OK. Here's the data. They could not be more wrong.
219
692000
4000
ok. Ja ku janë të dhënat. Nuk mund ta kishin më gabim.
11:48
Two thirds go all the way to 450 volts. This was just one study.
220
696000
5000
Dy të tretat e njerëzve arritën 450 volt. Dhe ky ishte vetëm një studim.
11:53
Milgram did more than 16 studies. And look at this.
221
701000
3000
Milgram bëri më shumë se 16 studime. Dhe shikojini.
11:56
In study 16, where you see somebody like you go all the way,
222
704000
4000
Në 16 studime, ku disa njerëz si ju shkojnë deri në fund,
12:00
90 percent go all the way. In study five, if you see people rebel, 90 percent rebel.
223
708000
6000
90% shkojnë deri në fund. Në studimin 5, nëse i shikoni njerëzit që rebelohen, 90% rebelohen.
12:06
What about women? Study 13 -- no different than men.
224
714000
3000
Po femrat? Studimi 13: asnjë ndryshim nga burrat.
12:10
So Milgram is quantifying evil as the willingness of people
225
718000
3000
Prandaj Milgrom e përkufizon të keqen si gatishmërinë e njerëzve
12:13
to blindly obey authority, to go all the way to 450 volts.
226
721000
3000
për tju bindur autoritetit verbërisht, për të shkuar deri në 450 volt.
12:16
And it's like a dial on human nature.
227
724000
2000
Dhe është si një celës burmë mbi natyrën njerëzore.
12:18
A dial in a sense that you can make almost everybody totally obedient,
228
726000
4000
Një celës në kuptimin që mund të bësh cdo njeri totalisht të bindur
12:23
down to the majority, down to none.
229
731000
2000
ndaj shumicës dhe asnjërit.
12:25
So what are the external parallels? For all research is artificial.
230
733000
4000
Por cilat janë paralelet e jashtme? Sepse cdo kërkim është artificial.
12:29
What's the validity in the real world?
231
737000
1000
Cfarë vlere ka në botën reale?
12:30
912 American citizens committed suicide or were murdered
232
738000
4000
912 qytetarë amerike u vetëvranë ose u vranë
12:34
by family and friends in Guyana jungle in 1978,
233
742000
3000
nga familja ose miqtë në xhunglën e Guajanës në 1978,
12:37
because they were blindly obedient to this guy, their pastor --
234
745000
3000
sepse ju bindën verbërisht një njeriu, pastorit të tyre.
12:40
not their priest -- their pastor, Reverend Jim Jones.
235
748000
2000
Jo priftit. Pastorit, Reverendit Xhim Xhouns.
12:42
He persuaded them to commit mass suicide.
236
750000
3000
Ai jua mbushi mendjen të bënin vetëvraje në grup.
12:46
And so, he's the modern Lucifer effect,
237
754000
1000
Pra ai është efekti Lucifer modern.
12:47
a man of God who becomes the Angel of Death.
238
755000
3000
Një njeri i Zotit që kthehet në Angjelin e Vdekjes.
12:52
Milgram's study is all about individual authority to control people.
239
760000
4000
Studimi i Milgramit përqendrohet tek si autoriteti i individit mund të kontrollojë njerëzit.
12:56
Most of the time, we are in institutions,
240
764000
3000
Shumicën e kohës ne jemi në institucione
13:00
so the Stanford Prison Study is a study of the power of institutions
241
768000
3000
prandaj studimi i Burgut në Stanford është studim i pushtetit të institucioneve
13:03
to influence individual behavior.
242
771000
2000
për të influencuar sjelljen e individëve.
13:05
Interestingly, Stanley Milgram and I were in the same high school class
243
773000
3000
Vlen të përmendet që Stenli Milgrom dhe unë frekuentuam të njëjtën shkollë të mesme
13:08
in James Monroe in the Bronx, 1954.
244
776000
3000
në Xheims Monrou në Bronks, 1954.
13:13
So this study, which I did
245
781000
1000
Pra ky studimi, që unë bëra
13:14
with my graduate students, especially Craig Haney --
246
782000
2000
me studentët e mi pas universitar, sidomos Kreig Heni,
13:16
we also began work with an ad.
247
784000
1000
filloi gjithashtu me një reklamë.
13:17
We didn't have money, so we had a cheap, little ad,
248
785000
2000
Nuk kishim fonde, prandaj bëmë një reklamë të vogël dhe të lirë,
13:19
but we wanted college students for a study of prison life.
249
787000
3000
por donim student kolegji për një studim të jetës së burgut.
13:22
75 people volunteered, took personality tests.
250
790000
3000
Patëm 75 vullnetarë që bënë teste personaliteti.
13:25
We did interviews. Picked two dozen:
251
793000
2000
Bëmë intervistat. Zgjodhëm 24 veta:
13:27
the most normal, the most healthy.
252
795000
1000
më normalët, më të shëndetshmit.
13:29
Randomly assigned them to be prisoner and guard.
253
797000
2000
Pa plan i ndamë në të burgosur dhe në roje.
13:31
So on day one, we knew we had good apples.
254
799000
2000
Pra në ditën e parë e dinim që kishim mollë të mira.
13:33
I'm going to put them in a bad situation.
255
801000
2000
Jam duke i vënë në një situatë të vështirë.
13:35
And secondly, we know there's no difference
256
803000
2000
Dhe e dyta, e dimë që nuk ka diferencë
13:38
between the boys who are going to be guards
257
806000
1000
ndërmjet djemve që do të jenë roje
13:39
and the boys who are going to be prisoners.
258
807000
1000
dhe atyre që do të jenë të burgosur.
13:41
The kids who were going to be prisoners,
259
809000
1000
Të rinjve që do të bëheshin të burgosur,
13:42
we said, "Wait at home in the dormitories. The study will begin Sunday."
260
810000
2000
ju thamë, "Prisni në dhomat tuaja në konvikt. Studimi do të fillojë të djelën."
13:45
We didn't tell them
261
813000
1000
Nuk u thamë
13:46
that the city police were going to come and do realistic arrests.
262
814000
36000
që Policia e Qytetit do të vinte dhe të bënte arrestime të vërteta.
14:22
(Video) Student: A police car pulls up in front, and a cop comes to the front door,
263
850000
6000
Burri në Video: një makinë policie afrohet, dhe polici shkon tek dera kryesore
14:28
and knocks, and says he's looking for me.
264
856000
2000
troket dhe thotë që po më kërkonte mua.
14:30
So they, right there, you know, they took me out the door,
265
858000
2000
Dhe ata, mu aty, më morën nga dera,
14:33
they put my hands against the car.
266
861000
3000
mi vunë duart mbi makinë.
14:36
It was a real cop car, it was a real policeman,
267
864000
2000
Ishte një makinë policie e vërtetë dhe një polic i vërtetë,
14:39
and there were real neighbors in the street,
268
867000
1000
kishte komshinj të vërtetë në rrugë
14:40
who didn't know that this was an experiment.
269
868000
4000
që nuk e dinin që ishte eksperiment.
14:44
And there was cameras all around and neighbors all around.
270
872000
3000
Dhe kishte kamera gjithandej dhe komshinj rreth e përqark.
14:47
They put me in the car, then they drove me around Palo Alto.
271
875000
3000
Më vunë në makinë dhe i ramë Palo Alto rreth e rrotull.
14:52
They took me to the police station,
272
880000
3000
Më cuan tek rajoni i policisë,
14:55
the basement of the police station. Then they put me in a cell.
273
883000
10000
në bodrumin e rajonit të policisë. Më futën në një birucë.
15:05
I was the first one to be picked up, so they put me in a cell,
274
893000
2000
Isha i pari që më morën, dhe më futën në një birucë,
15:07
which was just like a room with a door with bars on it.
275
895000
4000
që ngjante me një dhomë me një dorë me shufra hekuri.
15:12
You could tell it wasn't a real jail.
276
900000
1000
E dinim që nuk ishte një burg i vërtetë.
15:13
They locked me in there, in this degrading little outfit.
277
901000
5000
Më kycën aty, më një uniformë të turpshme.
15:19
They were taking this experiment too seriously.
278
907000
2000
Po e merrnin shumë seriozisht eksperimentin.
15:21
Philip Zimbardo: Here are the prisoners who are going to be dehumanized.
279
909000
2000
ja ku janë të burgosurit që do të cnjerëzohen.
15:23
They're going to become numbers.
280
911000
1000
Do të kthehen në numra.
15:24
Here are the guards with the symbols of power and anonymity.
281
912000
3000
Ja ku janë rojet me simbolet e pushtetit dhe anonimitetit.
15:27
Guards get prisoners
282
915000
1000
Rojet marrin të burgosurit
15:28
to clean the toilet bowls out with their bare hands,
283
916000
2000
për të pastruar banjat me duar,
15:30
to do other humiliating tasks.
284
918000
2000
për të bërë detyra të tjera poshtëruese.
15:32
They strip them naked. They sexually taunt them.
285
920000
2000
I zhveshin lakuriq. I ngacmojnë seksualisht.
15:34
They begin to do degrading activities,
286
922000
2000
Ata fillojnë të bëjnë aktivitete poshtëruese,
15:36
like having them simulate sodomy.
287
924000
2000
si psh të pretendojnë sikur po bëjnë akte sadiste.
15:38
You saw simulating fellatio in soldiers in Abu Ghraib.
288
926000
3000
Ju patë veprime të akteve seksuale gojore ndër ushtarët në Abu Greib.
15:41
My guards did it in five days. The stress reaction was so extreme
289
929000
5000
Rojet e mia e bënë për 5 ditë. Reagimi ndaj stresit ishte kaq ekstrem,
15:46
that normal kids we picked because they were healthy
290
934000
2000
sa të rinjtë normalë që ne zgjodhëm sepse ishin të shëndetshëm
15:48
had breakdowns within 36 hours.
291
936000
2000
u thyen brenda 36 orëve.
15:50
The study ended after six days, because it was out of control.
292
938000
4000
Studimi ndaloi pas 6 ditësh sepse doli jashtë kontrollit.
15:54
Five kids had emotional breakdowns.
293
942000
2000
5 të rinj patën trauma emocionale.
15:58
Does it make a difference if warriors go to battle
294
946000
2000
A ka ndryshim nëse luftëtarët shkojnë në betejë
16:00
changing their appearance or not?
295
948000
2000
dhe ndryshojnë pamjen e tyre apo jo?
16:02
Does it make a difference if they're anonymous,
296
950000
1000
A ka të bëjë anonimiteti
16:03
in how they treat their victims?
297
951000
2000
me si ata influencojnë viktimat e tyre?
16:05
We know in some cultures, they go to war,
298
953000
1000
E dimë që disa kultura shkojnë në luftë,
16:06
they don't change their appearance.
299
954000
1000
dhe nuk e ndryshojnë pamjen e tyre.
16:07
In other cultures, they paint themselves like "Lord of the Flies."
300
955000
2000
Në disa kultura të tjera, lyhen me ngjyra si tek "Zoti i Mizave."
16:09
In some, they wear masks.
301
957000
2000
Në disa veshin maska.
16:11
In many, soldiers are anonymous in uniform.
302
959000
3000
në shumë, ushtarët janë anonimë me uniformat e tyre.
16:14
So this anthropologist, John Watson, found
303
962000
2000
Pra ky antropologjisti, Xhon Uatson, zbuloi
16:17
23 cultures that had two bits of data.
304
965000
2000
23 kultura që kishin dy të dhëna specifike.
16:19
Do they change their appearance? 15.
305
967000
2000
A e ndryshojnë pamjen e tyre? 15
16:21
Do they kill, torture, mutilate? 13.
306
969000
2000
A vrasin, torturojnë, gjymtojnë? 13
16:23
If they don't change their appearance,
307
971000
2000
Nëse nuk e ndryshojnë pamjen e tyre
16:25
only one of eight kills, tortures or mutilates.
308
973000
2000
vetëm një në tetë vrasin, torturojnë, apo gjymtojnë.
16:27
The key is in the red zone.
309
975000
2000
Pika kyce është në zonën e ndaluar.
16:29
If they change their appearance,
310
977000
1000
Nëse ndryshojnë pamjen,
16:30
12 of 13 -- that's 90 percent -- kill, torture, mutilate.
311
978000
4000
12 në 13 - 90 përqind - vrasin, torturojnë, gjymtojnë.
16:35
And that's the power of anonymity.
312
983000
1000
Dhe ky është pushteti i anonimitetit.
16:36
So what are the seven social processes
313
984000
2000
Pra cilat janë shtatë proceset sociale
16:38
that grease the slippery slope of evil?
314
986000
2000
që grasatojnë tatëpjetën e së keqes?
16:40
Mindlessly taking the first small step.
315
988000
2000
Pa mendje hidhet hapi i parë i vogel.
16:42
Dehumanization of others. De-individuation of Self.
316
990000
3000
Cnjerëzimi i të tjerëve. C-individualizimi i vetes.
16:45
Diffusion of personal responsibility. Blind obedience to authority.
317
993000
3000
Shpërhapja e përgjegjësisë personale. Bindje e verbër ndaj autoritetit.
16:49
Uncritical conformity to group norms.
318
997000
1000
Konformizëm me normat e grupit.
16:50
Passive tolerance to evil through inaction or indifference.
319
998000
3000
Toleranca pasive i së keqes nëpërmjet mos-veprimit ose indiferencës.
16:54
And it happens when you're in a new or unfamiliar situation.
320
1002000
2000
Dhe ndodh kur jeni në një situatë të re ose të pahasur më parë.
16:56
Your habitual response patterns don't work.
321
1004000
2000
Modelet e zakonshme të përgjigjes nuk funksionojnë.
16:59
Your personality and morality are disengaged.
322
1007000
2000
Personaliteti dhe moraliteti yt largohen nga njëri-tjetri.
17:01
"Nothing is easier than to denounce the evildoer;
323
1009000
3000
"Asgjë nuk është më e lehtë se sa të denoncosh një keq-bërës;
17:04
nothing more difficult than understanding him," Dostoyevksy tells us.
324
1012000
3000
asgjë nuk është më e vështirë se sa ta kuptosh atë," na tregon Dostojevski.
17:07
Understanding is not excusing. Psychology is not excuse-iology.
325
1015000
4000
Të kuptuarit nuk është të justifikosh. Psikologjia nuk është justifikim-ologji.
17:12
So social and psychological research reveals
326
1020000
1000
Pra kërkimet sociale dhe psikologjike tregojnë
17:13
how ordinary, good people can be transformed without the drugs.
327
1021000
4000
si njerëzit e rëndomtë mund të transformohen pa drogat.
17:17
You don't need it. You just need the social-psychological processes.
328
1025000
3000
Nuk keni nevojë. Ju duhen thjesht proceset socio-psikologjike.
17:20
Real world parallels? Compare this with this.
329
1028000
4000
Paralele me botën e vërtetë? Krahasoni këtë me këtë.
17:26
James Schlesinger -- and I'm going to have to end with this -- says,
330
1034000
2000
Xheims Shlesinger - dhe me këtë do ta mbyll - thotë:
17:28
"Psychologists have attempted to understand how and why
331
1036000
2000
"Psikologët janë munduar të kuptojnë si dhe përse
17:31
individuals and groups who usually act humanely
332
1039000
2000
individët dhe grupet që normalisht sillen në mënyrë njerëzore
17:33
can sometimes act otherwise in certain circumstances."
333
1041000
3000
mund të sillen ndonjëherë ndryshe në situata të caktuara."
17:37
That's the Lucifer effect.
334
1045000
1000
Ky është Efekti Lucifer.
17:38
And he goes on to say, "The landmark Stanford study
335
1046000
2000
Dhe ai vazhdon të thotë, "Studimi i rëndësishëm i Stanford
17:40
provides a cautionary tale for all military operations."
336
1048000
4000
është një histori paralajmëruese për operacionet ushtarake."
17:44
If you give people power without oversight,
337
1052000
2000
nëse ju jep njerëzve pushtet pa kontroll,
17:47
it's a prescription for abuse. They knew that, and let that happen.
338
1055000
3000
është recetë për abuzim. Ata e dinin këtë dhe e lanë të ndodhte.
17:50
So another report, an investigative report by General Fay,
339
1058000
5000
Një raport tjetër, një raport hetues nga Gjenerali Fei,
17:55
says the system is guilty. And in this report,
340
1063000
2000
thotë që sistemi është për tu fajësuar, dhe në këtë raport
17:57
he says it was the environment that created Abu Ghraib,
341
1065000
3000
ai thotë që ishte ambjenti që krijoi Abi Greib
18:00
by leadership failures that contributed
342
1068000
2000
nëpërmjet falimentimeve të udhëheqjes që kontribuan
18:02
to the occurrence of such abuse,
343
1070000
1000
në bërjen e këtyre abuzimeve,
18:03
and the fact that it remained undiscovered
344
1071000
2000
dhe në faktin që nuk u zbuluan
18:05
by higher authorities for a long period of time.
345
1073000
2000
nga autoritetet e larta për një kohë të gjatë.
18:07
Those abuses went on for three months. Who was watching the store?
346
1075000
4000
Këto abuzime vazhduan për 3 muaj. Kush po i shikonte magazinat?
18:11
The answer is nobody, and, I think, nobody on purpose.
347
1079000
2000
Përgjigja është askush, dhe mendoj, askush pa qëllim.
18:14
He gave the guards permission to do those things,
348
1082000
1000
Ai u dha lejen e rojeve për të bërë këto gjëra,
18:15
and they knew nobody was ever going to come down to that dungeon.
349
1083000
3000
dhe e dinin që askush nuk do të vinte në atë bodrum.
18:18
So you need a paradigm shift in all of these areas.
350
1086000
3000
Prandaj duhet një shndërrim në strukturën teorike të këtyre fushave.
18:21
The shift is away from the medical model
351
1089000
2000
Largimi nga modeli mjekësor
18:23
that focuses only on the individual.
352
1091000
2000
që përqendrohet vetëm tek individi.
18:25
The shift is toward a public health model
353
1093000
2000
Drejt një modeli të shëndetit publik
18:28
that recognizes situational and systemic vectors of disease.
354
1096000
3000
që njeh dhe pranon vektorët rrethanorë dhe sistemikë të sëmundjeve.
18:31
Bullying is a disease. Prejudice is a disease. Violence is a disease.
355
1099000
4000
Tiranizimi është sëmundje. Paragjykimi është sëmundje. Dhuna është sëmundje.
18:35
And since the Inquisition, we've been dealing with problems
356
1103000
2000
Dhe që nga Inkuizicioni, ne kemi pasur probleme
18:37
at the individual level. And you know what? It doesn't work.
357
1105000
3000
në nivel individual. Dhe a e dini cfarë? Nuk po funksionon.
18:40
Aleksandr Solzhenitsyn says, "The line between good and evil
358
1108000
3000
Aleksandër Solzhenitsin tha që vija midis të mirës dhe të keqes
18:43
cuts through the heart of every human being."
359
1111000
2000
ndan në mes zemrën e cdo qëniejeje njerëzore.
18:45
That means that line is not out there.
360
1113000
2000
Kjo do të thotë që vija nuk është atje tutje.
18:47
That's a decision that you have to make. That's a personal thing.
361
1115000
3000
Por një vendim që duhet marrë. Kjo është një gjë personale.
18:50
So I want to end very quickly on a positive note.
362
1118000
3000
Dua ta mbyll me një pikë pozitive:
18:53
Heroism as the antidote to evil,
363
1121000
2000
heroizmi si kundërhelmi i së keqes.
18:56
by promoting the heroic imagination,
364
1124000
1000
Duke promovuar imagjinatën heroike,
18:57
especially in our kids, in our educational system.
365
1125000
3000
sidomos në fëmijët tanë, në sistemin tonë arsimor.
19:00
We want kids to think, I'm the hero in waiting,
366
1128000
2000
Duam që fëmijët të mendojnë, jam një hero në pritje,
19:02
waiting for the right situation to come along,
367
1130000
2000
duke pritur për situatën e duhur të vijë,
19:05
and I will act heroically.
368
1133000
1000
dhe unë do të sillem heroikisht.
19:06
My whole life is now going to focus away from evil --
369
1134000
2000
E gjithë jeta ime do të fokusohet larg së keqes
19:08
that I've been in since I was a kid -- to understanding heroes.
370
1136000
3000
që ka qënë një fokus i imi që kur isha fëmijë, drejt kuptimit të heronjve.
19:11
Banality of heroism
371
1139000
1707
Dhe tani ideja e heroizmit
19:13
is, it's ordinary people who do heroic deeds.
372
1140707
2293
është, janë njerëzit e zakonshëm që bëjnë vepra heroike.
19:15
It's the counterpoint to Hannah Arendt's "Banality of Evil."
373
1143000
3000
Kjo është kundër përgjigja ndaj Banalitetit të së Keqes të Hana Arendt.
19:18
Our traditional societal heroes are wrong,
374
1146000
3000
Heronjtë tradicionalë të shoqërive tona janë të gabuar,
19:21
because they are the exceptions.
375
1149000
1000
sepse ata janë përjashtimi.
19:22
They organize their whole life around this.
376
1150000
2000
Ata e organizojnë jetën e tyre përreth kësaj.
19:24
That's why we know their names.
377
1152000
1000
Prandaj ua dimë emrat.
19:25
And our kids' heroes are also wrong models for them,
378
1153000
2000
Dhe heronjtë e fëmijve tanë janë modele për ta,
19:27
because they have supernatural talents.
379
1155000
2000
sepse kanë talente mbi-njerëzore.
19:30
We want our kids to realize most heroes are everyday people,
380
1158000
2000
Duam që fëmijët të kuptojnë që shumica e heronjve janë njerëz të jetës së përditshme,
19:32
and the heroic act is unusual. This is Joe Darby.
381
1160000
4000
dhe një akt heroik është i pazakontë. Ky është Xho Darbi.
19:36
He was the one that stopped those abuses you saw,
382
1164000
2000
Ai ndaloi abuzimet që ju patë,
19:38
because when he saw those images,
383
1166000
2000
sepse kur i pa ato imazhe,
19:40
he turned them over to a senior investigating officer.
384
1168000
3000
ja dorëzoi një oficeri të lartë hetuesie.
19:43
He was a low-level private, and that stopped it. Was he a hero? No.
385
1171000
3000
Ishte një ushtar i thjeshtë që e ndaloi. A ishte hero ai? Jo.
19:47
They had to put him in hiding, because people wanted to kill him,
386
1175000
3000
Ju desh ta fshihnin, sepse njerëzit donin ta vrisnin,
19:50
and then his mother and his wife.
387
1178000
1000
pastaj edhe mamanë dhe gruan e tij.
19:51
For three years, they were in hiding.
388
1179000
2000
Për tre vjet ata u fshehën.
19:53
This is the woman who stopped the Stanford Prison Study.
389
1181000
3000
Kjo është gruaja që ndaloi Studimin e Burgut të Stanford.
19:56
When I said it got out of control, I was the prison superintendent.
390
1184000
3000
Kur i thashë që kishte dalë jashtë kontrollit, isha drejtor i burgut.
19:59
I didn't know it was out of control. I was totally indifferent.
391
1187000
3000
Nuk e dija që kishte dalë jashtë kontrollit. Isha totalisht indiferent.
20:02
She came down, saw that madhouse and said,
392
1190000
2000
Ajo erdhi, pa katrahurën, dhe tha,
20:04
"You know what, it's terrible what you're doing to those boys.
393
1192000
3000
"A e dini cfarë gjëje të tmerrshme po u bëni këtyre djemve.
20:07
They're not prisoners, they're not guards,
394
1195000
1000
Ata nuk janë të burgosur, nuk janë roje,
20:08
they're boys, and you are responsible."
395
1196000
2000
janë djem, dhe janë të përgjegjshëm."
20:11
And I ended the study the next day.
396
1199000
2000
Dhe unë e ndalova studimin ditën tjetër.
20:13
The good news is I married her the next year.
397
1201000
2000
Lajmi i mirë është u martuam vitin tjetër.
20:15
(Laughter)
398
1203000
3000
(qeshje)
20:18
(Applause)
399
1206000
7000
(duartrokitje)
20:25
I just came to my senses, obviously.
400
1213000
2000
Më erdhën mend, pa dyshim.
20:27
So situations have the power to do, through --
401
1215000
2000
Pra situatat kanë pushtetin të bëjnë, nëpërmjet --
20:31
but the point is, this is the same situation
402
1219000
1000
ama ideja është që është e njëjta situatë
20:32
that can inflame the hostile imagination in some of us,
403
1220000
4000
që na ndez imagjinatën e dhunshme brenda disave prej nesh,
20:36
that makes us perpetrators of evil,
404
1224000
2000
që na kthen në keq-bërës,
20:38
can inspire the heroic imagination in others. It's the same situation.
405
1226000
3000
po ajo situatë mund të frymëzojë imagjinatën heroike të të tjerëve. E njëjta situatë.
20:42
And you're on one side or the other.
406
1230000
1000
Dhe ju jeni në njërën anë apo tjetrën.
20:43
Most people are guilty of the evil of inaction,
407
1231000
2000
Shumë njerëz janë fajtorë për të keqen e mos-veprimit,
20:45
because your mother said, "Don't get involved. Mind your own business."
408
1233000
3000
sepse mamaja ju tha, "Mos u përzje, merru me punët e tua."
20:48
And you have to say, "Mama, humanity is my business."
409
1236000
3000
Dhe ju duhet ti thoni, "Mama, njerëzia është biznesi im."
20:51
So the psychology of heroism is -- we're going to end in a moment --
410
1239000
2000
Pra psikologjia e heroizimit është -- do ta mbyllim pas nja casti --
20:53
how do we encourage children in new hero courses,
411
1241000
4000
si ti inkurjaojmë fëmijët në kurse të heronjve të rinj,
20:57
that I'm working with Matt Langdon -- he has a hero workshop --
412
1245000
3000
që po punoj me Mat Lengdon - ai ka një seminar heronjsh --
21:00
to develop this heroic imagination, this self-labeling,
413
1248000
3000
për të zhvilluar këtë imagjinatë heroike, këtë vetë-përcaktim,
21:03
"I am a hero in waiting," and teach them skills.
414
1251000
3000
"Jam një hero në pritje," dhe ti mësojmë atyre aftësitë.
21:06
To be a hero, you have to learn to be a deviant,
415
1254000
2000
për të qenë hero, duhet të mësosh të jesh deviant,
21:09
because you're always going against the conformity of the group.
416
1257000
2000
sepse gjithmonë po shkon kundër bindjes së grupit.
21:11
Heroes are ordinary people whose social actions are extraordinary. Who act.
417
1259000
4000
Heronjtë janë njerëzit e zakonshëm, veprimet sociale të të cilëve janë të jashtëzakonshme. Ata që veprojnë.
21:15
The key to heroism is two things.
418
1263000
2000
Kyci i heroizmit janë dy gjëra.
21:17
A: you've got to act when other people are passive.
419
1265000
2000
A: Duhet të veprosh kur njerëz të tjerë janë pasivë.
21:20
B: you have to act socio-centrically, not egocentrically.
420
1268000
3000
B: Duhet të veprosh me fokus mbi shoqërinë, jo veten.
21:23
And I want to end with the story that some of you know,
421
1271000
2000
Dhe dua ta mbyll me një histori që disa nga ju e dinë,
21:25
about Wesley Autrey, New York subway hero.
422
1273000
2000
për Uesli Otri, heroi i trenit nëntokësor në Nju Jork.
21:27
Fifty-year-old African-American construction worker.
423
1275000
2000
Një punëtor ndërtimi afrikano-amerikan 50 vjecar.
21:29
He's standing on a subway in New York.
424
1277000
2000
Ai po
21:31
A white guy falls on the tracks.
425
1279000
1000
një burrë i bardhë bie mbi shinat.
21:32
The subway train is coming. There's 75 people there.
426
1280000
3000
Treni nëntokësor po vjen. Ka 75 veta në pistë.
21:35
You know what? They freeze.
427
1283000
1000
A e dini cfarë? Ata ngrijnë.
21:36
He's got a reason not to get involved.
428
1284000
2000
Ai ka një arsye të mos përfshihet.
21:38
He's black, the guy's white, and he's got two little kids.
429
1286000
2000
Eshtë i zi, ai tjetri është i bardhë, dhe ka dy fëmijë të vegjël.
21:41
Instead, he gives his kids to a stranger,
430
1289000
1000
Përkundrazi, ai ja jep fëmijët një të huaji,
21:42
jumps on the tracks, puts the guy between the tracks,
431
1290000
3000
hidhet mbi shinat, e shtyn tjetrin midis shinave,
21:45
lies on him, the subway goes over him.
432
1293000
2000
shtrihet mbi të, treni u kalon sipër.
21:47
Wesley and the guy -- 20 and a half inches height.
433
1295000
3000
Uesli dhe tjetri, 52cm lartësi.
21:51
The train clearance is 21 inches.
434
1299000
2000
Treni është 53 m i lartë nga toka.
21:53
A half an inch would have taken his head off.
435
1301000
2000
1cm do tja kishte hequr kokën.
21:56
And he said, "I did what anyone could do,"
436
1304000
3000
Dhe ai tha, "Bëra atë që do të kishte bërë cdokush,"
21:59
no big deal to jump on the tracks.
437
1307000
1000
hedhja në shina nuk ishte ndonjë gjë e madhe.
22:00
And the moral imperative is "I did what everyone should do."
438
1308000
4000
Dhe shtysa morale është "bëra atë që cdo njeri duhet të kishte bërë."
22:04
And so one day, you will be in a new situation.
439
1312000
2000
Pra një ditë do të jeni në një situatë të re.
22:07
Take path one, you're going to be a perpetrator of evil.
440
1315000
2000
Po të merrni një rrugë, ktheheni në keqbërës.
22:09
Evil, meaning you're going to be Arthur Andersen.
441
1317000
3000
E keqja, dmth bëheni Artur Anderson.
22:12
You're going to cheat, or you're going to allow bullying.
442
1320000
2000
Do të kopjoni, do të lejoni tiraninë.
22:14
Path two, you become guilty of the evil of passive inaction.
443
1322000
2000
Rruga #2: do të jeni fajtor për të keqen e mos-veprimit.
22:17
Path three, you become a hero.
444
1325000
1000
Rruga e 3-të: bëheni hero.
22:18
The point is, are we ready to take the path
445
1326000
3000
ideja është, a jemi gati ta marrim këtë rrugë
22:21
to celebrating ordinary heroes,
446
1329000
2000
për të festuar heronjtë e zakonshëm,
22:23
waiting for the right situation to come along
447
1331000
2000
duke pritur për situatën e duhur të vijë,
22:25
to put heroic imagination into action?
448
1333000
2000
për të zbatuar imagjinatën heroike?
22:27
Because it may only happen once in your life,
449
1335000
3000
Sepse mund të ndodhë vetëm një herë në jetën tuaj,
22:31
and when you pass it by, you'll always know,
450
1339000
1000
dhe kur ju kalon pranë, gjithmonë do ta dini,
22:32
I could have been a hero and I let it pass me by.
451
1340000
3000
Mund të kisha qënë një hero dhe e lashë të më humbte mundësia.
22:35
So the point is thinking it and then doing it.
452
1343000
2000
Pra ideja është ta mendosh, dhe pastaj ta bësh.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
Dua tju falënderoj. Falemnderit. Falemnderit.
22:40
Let's oppose the power of evil systems at home and abroad,
454
1348000
3000
Le ta kundërshtojmë pushtetin e sistemeve të së keqes, këtu dhe jashtë shtetit,
22:43
and let's focus on the positive.
455
1351000
2000
dhe le të përqendrohemi tek pozitivja.
22:45
Advocate for respect of personal dignity, for justice and peace,
456
1353000
3000
Mbështetës të respektit për dinjitetin individual, për drejtësi dhe paqe,
22:48
which sadly our administration has not been doing.
457
1356000
2000
që fatkeqësisht, qeveria jonë nuk e ka bërë.
22:50
Thanks so much.
458
1358000
1000
Ju falemnderit shumë.
22:51
(Applause)
459
1359000
13000
(duartrokitje)
Translated by Elona Toska
Reviewed by Valbona Bushi

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com