ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

דן אריאלי: היזהרו מניגודי אינטרסים

Filmed:
1,284,831 views

בשיחה קצרה זו, מספר הפסיכולוג דן אריאלי שני סיפורים אישיים המתארים ניגוד אינטרסים מדעי: איך מטרות אישיות החסרות ראיה לטווח ארוך משפיעות, באופן מודע או לא, על החיפוש אחר ידע ותובנה. הוא מזכיר לנו לשים לב למוחותינו הכה-אנושיים כשאנחנו חושבים על השאלות הגדולות.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospitalבית חולים for a long time.
0
1000
3000
אז.. הייתי בבית חולים הרבה זמן.
00:19
And a fewמְעַטִים yearsשנים after I left, I wentהלך back,
1
4000
3000
ואחרי כמה שנים השתחררתי, חזרתי,
00:22
and the chairmanיו"ר of the burnלשרוף departmentמַחלָקָה was very excitedנִרגָשׁ to see me --
2
7000
3000
וראש מחלקת כוויות היה נרגש מאוד לראות אותי --
00:25
said, "Danדן, I have a fantasticפַנטַסטִי newחָדָשׁ treatmentיַחַס for you."
3
10000
3000
אמר, "דן, יש לי טיפול חדש ופנטסטי בשבילך."
00:28
I was very excitedנִרגָשׁ. I walkedהלך with him to his officeמִשׂרָד.
4
13000
2000
התרגשתי מאוד. הלכתי איתו למשרדו.
00:30
And he explainedהסביר to me that, when I shaveלְגַלֵחַ,
5
15000
3000
והוא הסביר לי שכשאני מתגלח,
00:33
I have little blackשָׁחוֹר dotsנקודות on the left sideצַד of my faceפָּנִים where the hairשיער is,
6
18000
3000
יש לי נקודות שחורות קטנות של שיער בצד שמאל של הפנים,
00:36
but on the right sideצַד of my faceפָּנִים
7
21000
2000
אבל בצד ימין של הפנים
00:38
I was badlyרע burnedנשרף so I have no hairשיער,
8
23000
2000
נכוויתי קשות אז אין לי שיער
00:40
and this createsיוצר lackחוֹסֶר of symmetryסִימֶטרִיָה.
9
25000
2000
וזה יוצר חוסר סימטריה
00:42
And what's the brilliantמַברִיק ideaרַעְיוֹן he had?
10
27000
2000
ומה הרעיון המבריק שהיה לו?
00:44
He was going to tattooלְקַעֲקֵעַ little blackשָׁחוֹר dotsנקודות
11
29000
2000
הוא רצה לקעקע נקודות שחורות קטנות
00:46
on the right sideצַד of my faceפָּנִים
12
31000
3000
בצד ימין של הפנים שלי
00:49
and make me look very symmetricסימטרי.
13
34000
2000
ולגרום לי להראות מאוד סימטרי.
00:51
It soundedנשמע interestingמעניין. He askedשאל me to go and shaveלְגַלֵחַ.
14
36000
3000
זה נשמע מעניין. הוא ביקש ממני ללכת להתגלח.
00:54
Let me tell you, this was a strangeמוּזָר way to shaveלְגַלֵחַ,
15
39000
2000
הרשו לי לומר לכם, זאת היתה דרך מוזרה להתגלח,
00:56
because I thought about it
16
41000
2000
בגלל שחשבתי על זה
00:58
and I realizedהבין that the way I was shavingגילוח then
17
43000
2000
והבנתי שהדרך שבה התגלחתי הפעם
01:00
would be the way I would shaveלְגַלֵחַ for the restמנוחה of my life --
18
45000
2000
תהיה הדרך שבה אתגלח בשארית חיי --
01:02
because I had to keep the widthרוֹחַב the sameאותו.
19
47000
2000
כי הייתי צריך לשמור את הרוחב זהה.
01:04
When I got back to his officeמִשׂרָד,
20
49000
2000
כשחזרתי למשרדו,
01:06
I wasn'tלא היה really sure.
21
51000
2000
לא הייתי בטוח באמת.
01:08
I said, "Can I see some evidenceעֵדוּת for this?"
22
53000
2000
אמרתי, "אפשר לראות ראיות לדבר הזה?"
01:10
So he showedparagraphs me some picturesתמונות
23
55000
2000
אז הוא הראה לי כמה תמונות
01:12
of little cheeksלחיים with little blackשָׁחוֹר dotsנקודות --
24
57000
2000
של לחיים קטנות עם נקודות שחורות קטנות --
01:14
not very informativeאִינפוֹרמָטִיבִי.
25
59000
2000
לא מאוד ברור.
01:16
I said, "What happensקורה when I growלגדול olderישן יותר and my hairשיער becomesהופך whiteלבן?
26
61000
2000
אמרתי, "מה יקרה כשאזדקן והשיער שלי ילבין?
01:18
What would happenלִקְרוֹת then?"
27
63000
2000
מה יקרה אז?"
01:20
"Oh, don't worryדאגה about it," he said.
28
65000
2000
"הו, אל תדאג," הוא אמר.
01:22
"We have lasersלייזרים; we can whitenלְהַלבִּין it out."
29
67000
3000
"יש לנו לייזרים; נוכל להלבין אותו."
01:25
But I was still concernedמודאג,
30
70000
2000
אבל עדיין הייתי מוטרד,
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
אז אמרתי: "אתה יודע מה, אני לא אעשה את זה."
01:30
And then cameבא one of the biggestהגדול ביותר guiltאַשׁמָה tripsטיולים of my life.
32
75000
4000
ואז החלה רודפת אותי תחושת אשם מהחזקות בחיי.
01:34
This is comingמגיע from a Jewishיהודי guy, all right, so that meansאומר a lot.
33
79000
3000
ואומר את זה יהודי, אז זה אומר הרבה.
01:37
(Laughterצחוק)
34
82000
2000
(צחוק)
01:39
And he said, "Danדן, what's wrongלא בסדר with you?
35
84000
3000
והוא אמר, "דן, מה הבעיה שלך?
01:42
Do you enjoyלהנות looking non-symmetricלא סימטרי?
36
87000
2000
אתה נהנה להראות לא סימטרי?
01:44
Do you have some kindסוג of pervertedמְסוּלָף pleasureהנאה from this?
37
89000
5000
האם אתה מפיק איזושהי הנאה מעוותת מזה?
01:49
Do womenנשים feel pityרַחֲמִים for you
38
94000
2000
האם נשים מרחמות עליך
01:51
and have sexמִין with you more frequentlyבתדירות גבוהה?"
39
96000
3000
ומקיימות איתך יחסי מין לעיתים יותר תכופות?"
01:54
Noneאף אחד of those happenedקרה.
40
99000
3000
כלום מאלו לא קרה.
01:58
And this was very surprisingמַפתִיעַ to me,
41
103000
2000
וזה הפתיע אותי מאוד,
02:00
because I've goneנעלם throughדרך manyרב treatmentsטיפולים --
42
105000
2000
כי עברתי טיפולים רבים --
02:02
there were manyרב treatmentsטיפולים I decidedהחליט not to do --
43
107000
2000
והרבה טיפולים שהחלטתי לא לעבור --
02:04
and I never got this guiltאַשׁמָה tripטיול to this extentהרחבה.
44
109000
2000
ומעולם לא גרמו לי להרגיש רגשות אשם כאלה.
02:06
But I decidedהחליט not to have this treatmentיַחַס.
45
111000
2000
אבל החלטתי לא לעבור את הטיפול הזה.
02:08
And I wentהלך to his deputyסְגָן and askedשאל him, "What was going on?
46
113000
2000
ופניתי אל סגנו ושאלתי אותו, "מה קרה פה?
02:10
Where was this guiltאַשׁמָה tripטיול comingמגיע from?"
47
115000
2000
מאיפה הגיעו רגשות האשם האלה שהוא ניסה להטיל עליי?"
02:12
And he explainedהסביר that they have doneבוצע this procedureתהליך on two patientsחולים alreadyכְּבָר,
48
117000
4000
והוא הסביר שהם ביצעו את הטיפול הזה כבר על שני חולים,
02:16
and they need the thirdשְׁלִישִׁי patientסבלני for a paperעיתון they were writingכְּתִיבָה.
49
121000
3000
והיו צריכים את השלישי בשביל מאמר שהם כותבים.
02:19
(Laughterצחוק)
50
124000
2000
(צחוק)
02:21
Now you probablyכנראה think that this guy'sשל הבחור a schmuckשמוק.
51
126000
2000
עכשיו אתם בטח חושבים שהבחור ההוא היה שמוק.
02:23
Right, that's what he seemsנראה like.
52
128000
2000
כן, כך זה נראה.
02:25
But let me give you a differentשונה perspectiveפֶּרספֶּקטִיבָה on the sameאותו storyכַּתָבָה.
53
130000
3000
אבל הרשו לי להציג לכם פרספקטיבה שונה על אותו סיפור.
02:28
A fewמְעַטִים yearsשנים agoלִפנֵי, I was runningרץ some of my ownשֶׁלוֹ experimentsניסויים in the labמַעבָּדָה.
54
133000
3000
לפני כמה שנים, ביצעתי כמה מהניסויים שלי במעבדה.
02:31
And when we runלָרוּץ experimentsניסויים,
55
136000
2000
וכשאנחנו מבצעים ניסויים,
02:33
we usuallyבְּדֶרֶך כְּלַל hopeלְקַווֹת that one groupקְבוּצָה will behaveלְהִתְנַהֵג differentlyבאופן שונה than anotherאַחֵר.
56
138000
3000
אנחנו בד"כ מצפים שקבוצה אחת תתנהג בשונה מהאחרת.
02:36
So we had one groupקְבוּצָה that I hopedקיווה theirשֶׁלָהֶם performanceביצועים would be very highגָבוֹהַ,
57
141000
3000
אז היתה לנו קבוצה אחת שציפיתי שביצועיה יהיו גבוהים מאוד,
02:39
anotherאַחֵר groupקְבוּצָה that I thought theirשֶׁלָהֶם performanceביצועים would be very lowנָמוּך,
58
144000
3000
קבוצה אחרת שחשבתי שביצועיה יהיו נמוכים מאוד.
02:42
and when I got the resultsתוצאות, that's what we got --
59
147000
2000
וכשקיבלתי את התוצאות, זה מה שהיה --
02:44
I was very happyשַׂמֵחַ -- asideבַּצַד from one personאדם.
60
149000
3000
הייתי מרוצה מאוד -- חוץ מאיש אחד.
02:47
There was one personאדם in the groupקְבוּצָה
61
152000
2000
היה איש אחד בקבוצה
02:49
that was supposedאמור to have very highגָבוֹהַ performanceביצועים
62
154000
2000
שהיתה אמורה להיות בעלת ביצועים גבוהים מאוד
02:51
that was actuallyלמעשה performingמְבַצֵעַ terriblyנוֹרָא.
63
156000
2000
שהיה למעשה בעל ביצועים איומים.
02:53
And he pulledמשך the wholeכֹּל mean down,
64
158000
2000
והוא משך את כל הממוצע למטה,
02:55
destroyingלהרוס my statisticalסטָטִיסטִי significanceמַשְׁמָעוּת of the testמִבְחָן.
65
160000
3000
והרס את המובהקות הסטטיסטית של הניסוי.
02:59
So I lookedהביט carefullyבקפידה at this guy.
66
164000
2000
אז בחנתי אותו בקפדנות.
03:01
He was 20-some-כמה yearsשנים olderישן יותר than anybodyמִישֶׁהוּ elseאַחֵר in the sampleלִטעוֹם.
67
166000
3000
הוא היה בכ20 שנה יותר מבוגר מכל אחד אחר בדגימה.
03:04
And I rememberedנזכר that the oldישן and drunkenשיכור guy
68
169000
2000
ונזכרתי בשיכור הזקן
03:06
cameבא one day to the labמַעבָּדָה
69
171000
2000
שבא יום אחד למעבדה
03:08
wantingרוצה to make some easyקַל cashכסף מזומן
70
173000
2000
ורצה להרוויח קצת כסף קל
03:10
and this was the guy.
71
175000
2000
וזה היה אותו איש.
03:12
"Fantasticפַנטַסטִי!" I thought. "Let's throwלזרוק him out.
72
177000
2000
"פנטסטי!" ישבתי. "בואו נעיף אותו מהניסוי
03:14
Who would ever includeלִכלוֹל a drunkenשיכור guy in a sampleלִטעוֹם?"
73
179000
3000
מי בכלל יכלול שיכור בניסוי?"
03:17
But a coupleזוּג of daysימים laterיותר מאוחר,
74
182000
2000
אבל לאחר כמה ימים,
03:19
we thought about it with my studentsסטודנטים,
75
184000
2000
חשבנו על זה עם הסטודנטים שלי,
03:21
and we said, "What would have happenedקרה if this drunkenשיכור guy was not in that conditionמַצָב?
76
186000
3000
ואמרנו, "מה היה קורה אם השיכור הזה לא היה בתנאים האלה?
03:24
What would have happenedקרה if he was in the other groupקְבוּצָה?
77
189000
2000
מה היה קורה אם הוא היה בקבוצה השנייה?
03:26
Would we have thrownנזרק him out then?"
78
191000
2000
האם היינו מעיפים אותו מהניסוי אז?"
03:28
We probablyכנראה wouldn'tלא have lookedהביט at the dataנתונים at all,
79
193000
2000
בטח בכלל לא היינו מסתכלים על הנתונים,
03:30
and if we did look at the dataנתונים,
80
195000
2000
ואם כן היינו מסתכלים,
03:32
we'dלהתחתן probablyכנראה have said, "Fantasticפַנטַסטִי! What a smartלִכאוֹב guy who is performingמְבַצֵעַ this lowנָמוּך,"
81
197000
3000
בטח היינו אומרים, "פנטסטי! איזה בחור חכם עם ביצועים כ"כ נמוכים,"
03:35
because he would have pulledמשך the mean of the groupקְבוּצָה lowerנמוך יותר,
82
200000
2000
כי הוא היה מושך את הממוצע של הקבוצה נמוך יותר,
03:37
givingמַתָן us even strongerיותר חזק statisticalסטָטִיסטִי resultsתוצאות than we could.
83
202000
3000
נותן לנו מובהקות סטטיסטית חזקה אף יותר.
03:41
So we decidedהחליט not to throwלזרוק the guy out and to rerunrerun the experimentלְנַסוֹת.
84
206000
3000
אז החלטנו לא להעיף את הבחור ולהריץ את הניסוי מחדש.
03:44
But you know, these storiesסיפורים,
85
209000
3000
אבל אתם יודעים, הסיפורים האלה,
03:47
and lots of other experimentsניסויים that we'veיש לנו doneבוצע on conflictsסכסוכים of interestריבית,
86
212000
3000
ועוד ניסויים רבים שערכנו בנושא ניגוד אינטרסים,
03:50
basicallyבעיקרון kindסוג of bringלְהָבִיא two pointsנקודות
87
215000
2000
בעיקרון, מחדדים אצלי
03:52
to the foregroundחֲזִית for me.
88
217000
2000
שתי נקודות.
03:54
The first one is that in life we encounterפְּגִישָׁה manyרב people
89
219000
3000
הראשונה היא שבחיינו אנחנו נתקלים בהרבה אנשים
03:57
who, in some way or anotherאַחֵר,
90
222000
3000
אשר, בדרך כזו או אחרת,
04:00
try to tattooלְקַעֲקֵעַ our facesפרצופים.
91
225000
2000
מנסים לקעקע את פנינו.
04:02
They just have the incentivesתמריצים that get them to be blindedעיוור to realityמְצִיאוּת
92
227000
3000
פשוט יש להם את התמריצים שגורמים להם להיות עוורים למציאות
04:05
and give us adviceעֵצָה that is inherentlyמטבע הדברים biasedמְשׁוּחָד.
93
230000
3000
ולתת לנו עצות מוטות באופן אינהרנטי.
04:08
And I'm sure that it's something that we all recognizeלזהות,
94
233000
2000
ואני בטוח שזה דבר שכולנו מזהים,
04:10
and we see that it happensקורה.
95
235000
2000
ואנחנו רואים שזה קורה.
04:12
Maybe we don't recognizeלזהות it everyכֹּל time,
96
237000
2000
אולי אנחנו לא מזהים זאת תמיד,
04:14
but we understandמבין that it happensקורה.
97
239000
2000
אבל אנחנו מבינים שזה קורה.
04:16
The mostרוב difficultקָשֶׁה thing, of courseקוּרס, is to recognizeלזהות
98
241000
2000
הדבר הקשה ביותר הוא, כמובן, לזהות
04:18
that sometimesלִפְעָמִים we too
99
243000
2000
שלפעמים גם אנחנו
04:20
are blindedעיוור by our ownשֶׁלוֹ incentivesתמריצים.
100
245000
2000
מתעוורים בגלל התמריצים שלנו.
04:22
And that's a much, much more difficultקָשֶׁה lessonשיעור to take into accountחֶשְׁבּוֹן.
101
247000
3000
וזה לקח שקשה הרבה הרבה יותר לקחת בחשבון.
04:25
Because we don't see how conflictsסכסוכים of interestריבית work on us.
102
250000
4000
כי אנחנו לא רואים איך ניגודי אינטרסים פועלים עלינו.
04:29
When I was doing these experimentsניסויים,
103
254000
2000
כשערכתי את הניסויים האלה,
04:31
in my mindאכפת, I was helpingמָנָה scienceמַדָע.
104
256000
2000
במוחי, הייתי עוזר למדע.
04:33
I was eliminatingביטול the dataנתונים
105
258000
2000
הייתי מבטל את הנתונים
04:35
to get the trueנָכוֹן patternתַבְנִית of the dataנתונים to shineזוהר throughדרך.
106
260000
2000
כדי לאפשר לדפוס הנתונים האמיתי לבלוט.
04:37
I wasn'tלא היה doing something badרַע.
107
262000
2000
לא עשיתי משהו רע.
04:39
In my mindאכפת, I was actuallyלמעשה a knightאַבִּיר
108
264000
2000
במוחי, הייתי בעצם אביר
04:41
tryingמנסה to help scienceמַדָע moveמהלך \ לזוז \ לעבור alongלְאוֹרֶך.
109
266000
2000
המנסה לעזור למדע להתקדם.
04:43
But this was not the caseמקרה.
110
268000
2000
אך לא כך היה.
04:45
I was actuallyלמעשה interferingמִתעַרֵב with the processתהליך with lots of good intentionsכוונות.
111
270000
3000
בעצם הפרעתי לתהליך עם הרבה כוונות טובות.
04:48
And I think the realאמיתי challengeאתגר is to figureדמות out
112
273000
2000
ואני חושב שהאתגר האמיתי הוא להבין
04:50
where are the casesבמקרים in our livesחיים
113
275000
2000
איפה יש מקרים כאלה בחיינו
04:52
where conflictsסכסוכים of interestריבית work on us,
114
277000
2000
שניגודי אינטרסים פועלים עלינו,
04:54
and try not to trustאמון our ownשֶׁלוֹ intuitionאינטואיציה to overcomeלְהִתְגַבֵּר it,
115
279000
3000
ולנסות ולא לסמוך על האינטואיציה שלנו להתגבר עליהם,
04:57
but to try to do things
116
282000
2000
אלא לנסות ולעשות דברים
04:59
that preventלִמְנוֹעַ us from fallingנופל preyטֶרֶף to these behaviorsהתנהגויות,
117
284000
2000
אשר ימנעו מאיתנו מליפול קורבן להתנהגויות אלו,
05:01
because we can createלִיצוֹר lots of undesirableבִּלתִי רָצוּי circumstancesנסיבות.
118
286000
3000
כי אנחנו יכולים ליצור נסיבות לא רצויות רבות.
05:05
I do want to leaveלעזוב you with one positiveחִיוּבִי thought.
119
290000
2000
אני כן רוצה להשאיר אותכם עם מחשבה חיובית אחת.
05:07
I mean, this is all very depressingמְדַכֵּא, right --
120
292000
2000
אני מתכוון, כל זה מאוד מדכא --
05:09
people have conflictsסכסוכים of interestריבית, we don't see it, and so on.
121
294000
3000
לאנשים יש ניגודי אינטרסים, אנחנו לא רואים אותם, וכו'.
05:12
The positiveחִיוּבִי perspectiveפֶּרספֶּקטִיבָה, I think, of all of this
122
297000
2000
נקודת המבט החיובית, אני חושב, של כל זה
05:14
is that, if we do understandמבין when we go wrongלא בסדר,
123
299000
3000
היא שאם נבין שאנחנו טועים
05:17
if we understandמבין the deepעָמוֹק mechanismsמנגנונים
124
302000
2000
אם נבין את המנגנונים העמוקים
05:19
of why we failלְהִכָּשֵׁל and where we failלְהִכָּשֵׁל,
125
304000
2000
של למה אנחנו נכשלים ואיפה אנחנו נכשלים,
05:21
we can actuallyלמעשה hopeלְקַווֹת to fixלתקן things.
126
306000
2000
אנחנו יכולים למעשה לקוות לתקן את הדברים.
05:23
And that, I think, is the hopeלְקַווֹת. Thank you very much.
127
308000
2000
וזאת, לדעתי, התקווה. תודה רבה.
05:25
(Applauseתְשׁוּאוֹת)
128
310000
4000
(תשואות)
Translated by ran amitay
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com