ABOUT THE SPEAKER
Barry Schwartz - Psychologist
Barry Schwartz studies the link between economics and psychology, offering startling insights into modern life. Lately, working with Ken Sharpe, he's studying wisdom.

Why you should listen

In his 2004 book The Paradox of Choice, Barry Schwartz tackles one of the great mysteries of modern life: Why is it that societies of great abundance — where individuals are offered more freedom and choice (personal, professional, material) than ever before — are now witnessing a near-epidemic of depression? Conventional wisdom tells us that greater choice is for the greater good, but Schwartz argues the opposite: He makes a compelling case that the abundance of choice in today's western world is actually making us miserable.

Infinite choice is paralyzing, Schwartz argues, and exhausting to the human psyche. It leads us to set unreasonably high expectations, question our choices before we even make them and blame our failures entirely on ourselves. His relatable examples, from consumer products (jeans, TVs, salad dressings) to lifestyle choices (where to live, what job to take, who and when to marry), underscore this central point: Too much choice undermines happiness.

Schwartz's previous research has addressed morality, decision-making and the varied inter-relationships between science and society. Before Paradox he published The Costs of Living, which traces the impact of free-market thinking on the explosion of consumerism -- and the effect of the new capitalism on social and cultural institutions that once operated above the market, such as medicine, sports, and the law.

Both books level serious criticism of modern western society, illuminating the under-reported psychological plagues of our time. But they also offer concrete ideas on addressing the problems, from a personal and societal level.

Schwartz is the author of the TED Book, Why We Work

More profile about the speaker
Barry Schwartz | Speaker | TED.com
TED2009

Barry Schwartz: Our loss of wisdom

Barry Schwartz : de notre perte de sagesse

Filmed:
4,075,680 views

Barry Schwartz défend avec passion l'idée que la «sagesse pratique» peut guérir les maux de notre société hyper-bureaucratisée. Il soutient avec force que les règles nous font défaut, que les mesures incitatives ont souvent des effets inverses et que la sagesse pratique, celle de tous les jours, nous aidera à rebâtir notre monde.
- Psychologist
Barry Schwartz studies the link between economics and psychology, offering startling insights into modern life. Lately, working with Ken Sharpe, he's studying wisdom. Full bio

Double-click the English transcript below to play the video.

00:12
In his inaugural address,
0
0
2000
Dans son discours inaugural,
00:14
Barack Obama appealed to each of us to give our best
1
2000
4000
Barack Obama nous a demandé de donner le meilleur de nous-mêmes
00:18
as we try to extricate ourselves from this current financial crisis.
2
6000
6000
dans nos efforts pour nous tirer de la crise financière actuelle.
00:24
But what did he appeal to?
3
12000
2000
Mais que nous a-t-il demandé au juste ?
00:26
He did not, happily, follow in the footsteps of his predecessor,
4
14000
4000
Il ne nous a pas demandé, comme l'avait fait son prédécesseur,
00:30
and tell us to just go shopping.
5
18000
3000
de simplement aller magasiner.
00:34
Nor did he tell us, "Trust us. Trust your country.
6
22000
4000
Il n'a dit «Faites-nous confiance, ayez confiance en votre pays...
00:38
Invest, invest, invest."
7
26000
3000
... investissez, investissez, investissez.»
00:42
Instead, what he told us was to put aside childish things.
8
30000
5000
Il nous a plutôt demandé de laisser de côté les enfantillages.
00:47
And he appealed to virtue.
9
35000
3000
Il a fait appel à la vertu.
00:51
Virtue is an old-fashioned word.
10
39000
4000
Le mot «vertu» fait un peu vieillot
00:55
It seems a little out of place in a cutting-edge environment like this one.
11
43000
5000
et semble déplacé dans notre monde ultra-moderne.
01:00
And besides, some of you might be wondering,
12
48000
3000
De plus, certains d'entre vous se demandent peut-être :
01:03
what the hell does it mean?
13
51000
3000
«Qu'est-ce que ça veut dire ?»
01:06
Let me begin with an example.
14
54000
3000
Prenons un exemple.
01:09
This is the job description of a hospital janitor
15
57000
3000
Voici la description des tâches d'un concierge d'hôpital.
01:12
that is scrolling up on the screen.
16
60000
3000
C'est ce qui défile à l'écran.
01:15
And all of the items on it are unremarkable.
17
63000
5000
Ces tâches n'ont rien de remarquable.
01:20
They're the things you would expect:
18
68000
3000
On pouvait s'y attendre :
01:23
mop the floors, sweep them, empty the trash, restock the cabinets.
19
71000
5000
passer la vadrouille, balayer, vider les poubelles, remplir les placards...
01:28
It may be a little surprising how many things there are,
20
76000
3000
Le nombre de tâches est un peu étonnant,
01:31
but it's not surprising what they are.
21
79000
2000
mais les tâches elles-mêmes ne le sont pas.
01:33
But the one thing I want you to notice about them is this:
22
81000
3000
Toutefois, remarquez ceci :
01:36
even though this is a very long list,
23
84000
3000
même si cette liste est très longue,
01:39
there isn't a single thing on it that involves other human beings.
24
87000
5000
elle ne contient aucune mention de l'aspect humain.
01:44
Not one.
25
92000
3000
Aucune.
01:47
The janitor's job could just as well be done in a mortuary as in a hospital.
26
95000
5000
Il pourrait s'agir de l'entretien d'une morgue comme de celle d'un hôpital.
01:52
And yet, when some psychologists interviewed hospital janitors
27
100000
5000
Et pourtant, quand des psychologues interviewèrent des concierges d'hôpitaux
01:57
to get a sense of what they thought their jobs were like,
28
105000
3000
pour savoir ce qu'ils pensaient de leur travail,
02:00
they encountered Mike,
29
108000
3000
ils parlèrent à Mike,
02:03
who told them about how he stopped mopping the floor
30
111000
3000
qui leur a dit comment il s'était arrêté de nettoyer le plancher
02:06
because Mr. Jones was out of his bed getting a little exercise,
31
114000
3000
pour laisser M. Jones reprendre des forces
02:09
trying to build up his strength, walking slowly up and down the hall.
32
117000
4000
en faisant les cent pas dans le couloir.
02:13
And Charlene told them about how she ignored her supervisor's admonition
33
121000
6000
Et il y a Charlene qui, ignorant les avertissements de son superviseur,
02:19
and didn't vacuum the visitor's lounge
34
127000
3000
n'a pas passé l'aspirateur
02:22
because there were some family members who were there all day, every day
35
130000
3000
dans le salon des visiteurs
02:25
who, at this moment, happened to be taking a nap.
36
133000
3000
où des gens fatigués faisaient une sieste.
02:28
And then there was Luke,
37
136000
2000
Puis il y a Luc,
02:30
who washed the floor in a comatose young man's room twice
38
138000
4000
qui a lavé deux fois le plancher de la chambre d'un comateux
02:34
because the man's father, who had been keeping a vigil for six months,
39
142000
5000
dont le père, qui le veillait depuis six mois,
02:39
didn't see Luke do it the first time,
40
147000
3000
n'avait pas vu Luc laver le plancher la première fois,
02:42
and his father was angry.
41
150000
2000
et le père était en colère.
02:44
And behavior like this from janitors, from technicians, from nurses
42
152000
6000
Ce type de comportement de la part de concierges, de techniciens, d'infirmiers,
02:50
and, if we're lucky now and then, from doctors,
43
158000
3000
et, si on est chanceux, de médecins,
02:53
doesn't just make people feel a little better,
44
161000
3000
non seulement fait plaisir,
02:56
it actually improves the quality of patient care
45
164000
3000
mais améliore la qualité des soins
02:59
and enables hospitals to run well.
46
167000
3000
et permet le bon fonctionnement des hôpitaux.
03:02
Now, not all janitors are like this, of course.
47
170000
3000
Tous les concierges n'agissent pas ainsi,
03:05
But the ones who are think that these sorts of human interactions
48
173000
6000
mais ceux qui le font pensent que ces interactions humaines,
03:11
involving kindness, care and empathy
49
179000
3000
pleines de gentillesse, d'attention et d'empathie,
03:14
are an essential part of the job.
50
182000
2000
sont essentielles à leur travail.
03:16
And yet their job description contains not one word about other human beings.
51
184000
5000
Et pourtant, la description de tâches n'en fait aucune mention.
03:21
These janitors have the moral will to do right by other people.
52
189000
6000
Ces concierges ont l'intention morale d'agir pour le bien d'autrui.
03:27
And beyond this, they have the moral skill to figure out what "doing right" means.
53
195000
7000
Bien plus, ils comprennent ce que signifie «faire le bien».
03:34
"Practical wisdom," Aristotle told us,
54
202000
5000
Aristote a défini la «sagesse pratique» comme
03:39
"is the combination of moral will and moral skill."
55
207000
3000
l'intention morale combinée à l'aptitude morale.
03:42
A wise person knows when and how to make the exception to every rule,
56
210000
7000
La personne sage sait quand et comment faire exception à la règle,
03:49
as the janitors knew when to ignore the job duties in the service of other objectives.
57
217000
6000
tout comme les concierges savent quand ignorer les consignes pour atteindre d'autres objectifs.
03:55
A wise person knows how to improvise,
58
223000
4000
La personne sage sait improviser,
03:59
as Luke did when he re-washed the floor.
59
227000
3000
comme a su le faire Luc.
04:02
Real-world problems are often ambiguous and ill-defined
60
230000
3000
Les problèmes concrets sont souvent ambigus,
04:05
and the context is always changing.
61
233000
3000
et le contexte change toujours.
04:08
A wise person is like a jazz musician --
62
236000
3000
Le personne sage est comme le musicien de jazz
04:11
using the notes on the page, but dancing around them,
63
239000
3000
qui suit la partition tout en se donnant des libertés
04:14
inventing combinations that are appropriate for the situation and the people at hand.
64
242000
7000
et qui compose en fonction de la situation et des gens.
04:21
A wise person knows how to use these moral skills
65
249000
3000
La personne sage met ces aptitudes morales
04:24
in the service of the right aims.
66
252000
3000
au service du bien,
04:27
To serve other people, not to manipulate other people.
67
255000
4000
pour aider les gens, non pas pour les manipuler.
04:31
And finally, perhaps most important,
68
259000
3000
Enfin, un point crucial :
04:34
a wise person is made, not born.
69
262000
3000
la sagesse n'est pas innée, elle est acquise.
04:37
Wisdom depends on experience,
70
265000
3000
La sagesse dépend de l'expérience,
04:40
and not just any experience.
71
268000
3000
mais pas de n'importe laquelle.
04:43
You need the time to get to know the people that you're serving.
72
271000
4000
Il faut connaître ceux à qui on rend service.
04:47
You need permission to be allowed to improvise,
73
275000
3000
Il faut aussi avoir la permission d'improviser,
04:50
try new things, occasionally to fail and to learn from your failures.
74
278000
5000
d'expérimenter, d'échouer, et d'apprendre de ses échecs.
04:55
And you need to be mentored by wise teachers.
75
283000
3000
Il faut être guidé par des gens sages.
04:58
When you ask the janitors who behaved like the ones I described
76
286000
5000
Les concierges comme ceux dont il s'agissait tout à l'heure
05:03
how hard it is to learn to do their job,
77
291000
3000
disent tous que pour bien faire leur travail,
05:06
they tell you that it takes lots of experience.
78
294000
3000
il faut beaucoup d'expérience,
05:09
And they don't mean it takes lots of experience to learn how to mop floors and empty trash cans.
79
297000
4000
non pas pour laver le plancher et vider les ordures,
05:13
It takes lots of experience to learn how to care for people.
80
301000
5000
mais pour prendre soin des gens.
05:19
At TED, brilliance is rampant.
81
307000
4000
À TED, l'intelligence est omniprésente.
05:23
It's scary.
82
311000
2000
Ça donne le frisson.
05:25
The good news is you don't need to be brilliant to be wise.
83
313000
5000
Or, il n'est pas nécessaire d'être brillant pour être sage.
05:30
The bad news is that without wisdom,
84
318000
4000
Malheureusement, sans la sagesse,
05:34
brilliance isn't enough.
85
322000
3000
l'intelligence ne suffit pas.
05:37
It's as likely to get you and other people into trouble as anything else.
86
325000
6000
Sans la sagesse, l'intelligence est aussi capable de causer des ennuis.
05:43
(Applause)
87
331000
3000
(Applaudissements)
05:46
Now, I hope that we all know this.
88
334000
3000
J'espère que nous le savons tous.
05:49
There's a sense in which it's obvious,
89
337000
3000
C'est évident, et pourtant,
05:52
and yet, let me tell you a little story.
90
340000
3000
écoutez bien cette histoire.
05:55
It's a story about lemonade.
91
343000
3000
C'est une histoire de limonade.
05:58
A dad and his seven-year-old son were watching a Detroit Tigers game at the ballpark.
92
346000
6000
Un homme et son fils assistaient à un match des Tigers, à Détroit.
06:04
His son asked him for some lemonade
93
352000
2000
Le fils demande au père de la limonade.
06:06
and Dad went to the concession stand to buy it.
94
354000
3000
Le père va donc en chercher.
06:09
All they had was Mike's Hard Lemonade,
95
357000
3000
Mais il ne trouva que de la «Mike's Hard Lemonade»,
06:12
which was five percent alcohol.
96
360000
3000
qui contient 5% d'alcool.
06:15
Dad, being an academic, had no idea that Mike's Hard Lemonade contained alcohol.
97
363000
6000
Étant du genre intellectuel, le père ignorait ce fait.
06:21
So he brought it back.
98
369000
3000
Il la rapporta donc à son fils.
06:24
And the kid was drinking it, and a security guard spotted it,
99
372000
3000
Un garde de sécurité vit alors le fils boire
06:27
and called the police, who called an ambulance
100
375000
3000
et appela la police, qui fît venir une ambulance
06:30
that rushed to the ballpark, whisked the kid to the hospital.
101
378000
3000
qui amena aussitôt l'enfant à l'hôpital.
06:33
The emergency room ascertained that the kid had no alcohol in his blood.
102
381000
4000
Là, on détermina que l'alcoolémie du garçon était nulle.
06:37
And they were ready to let the kid go.
103
385000
3000
On s'apprêtait donc à le laisser partir,
06:40
But not so fast.
104
388000
3000
mais pas si vite...
06:43
The Wayne County Child Welfare Protection Agency said no.
105
391000
4000
Les services de protection de l'enfance sont intervenus,
06:47
And the child was sent to a foster home for three days.
106
395000
4000
et l'envoyèrent dans une famille d'accueil pendant 3 jours.
06:51
At that point, can the child go home?
107
399000
3000
Pouvait-il enfin rentrer chez lui ?
06:54
Well, a judge said yes, but only if the dad leaves the house and checks into a motel.
108
402000
9000
Le juge dit oui, à condition que le père quitte la maison et s'installe à l'hôtel.
07:06
After two weeks, I'm happy to report,
109
414000
3000
Heureusement, après deux semaines,
07:09
the family was reunited.
110
417000
2000
la famille fut enfin réunie.
07:11
But the welfare workers and the ambulance people
111
419000
3000
Les travailleurs sociaux, les ambulanciers
07:14
and the judge all said the same thing:
112
422000
3000
et le juge ont tous dit la même chose :
07:17
"We hate to do it but we have to follow procedure."
113
425000
4000
«On n'aime pas ça, mais il faut suivre la procédure.»
07:21
How do things like this happen?
114
429000
4000
Comment une telle situation est-elle possible ?
07:25
Scott Simon, who told this story on NPR,
115
433000
4000
C'est Scott Simon qui raconta cette histoire à la radio publique.
07:29
said, "Rules and procedures may be dumb,
116
437000
4000
Il ajouta : «Les règles et les procédures sont peut-être stupides,
07:33
but they spare you from thinking."
117
441000
3000
mais elles nous épargnent l'effort de réfléchir.»
07:36
And, to be fair, rules are often imposed
118
444000
2000
Souvent, les règlements sont en vigueur
07:38
because previous officials have been lax
119
446000
3000
à cause du laxisme antérieur de fonctionnaires,
07:41
and they let a child go back to an abusive household.
120
449000
3000
qui ont laissé un enfant maltraité dans sa famille.
07:44
Fair enough.
121
452000
1000
D'accord...
07:45
When things go wrong, as of course they do,
122
453000
3000
Lorsque les choses vont mal,
07:48
we reach for two tools to try to fix them.
123
456000
4000
on tente de corriger la situation par deux moyens.
07:52
One tool we reach for is rules.
124
460000
3000
Le premier est d'établir des règles.
07:55
Better ones, more of them.
125
463000
3000
Davantage de règles, des meilleures...
07:58
The second tool we reach for is incentives.
126
466000
3000
L'autre moyen est d'établir des incitatifs.
08:01
Better ones, more of them.
127
469000
3000
Davantage, des meilleurs...
08:04
What else, after all, is there?
128
472000
3000
Que faire d'autre ?
08:07
We can certainly see this in response to the current financial crisis.
129
475000
5000
C'est ce qu'on a fait pour palier la crise financière.
08:12
Regulate, regulate, regulate.
130
480000
3000
Des règlements et encore des règlements.
08:15
Fix the incentives, fix the incentives, fix the incentives ...
131
483000
3000
Changer les incitatifs, et encore des incitatifs.
08:18
The truth is that neither rules nor incentives
132
486000
3000
En vérité, les règlements et les incitatifs
08:21
are enough to do the job.
133
489000
2000
ne sont pas suffisants.
08:23
How could you even write a rule that got the janitors to do what they did?
134
491000
4000
Quel règlement aurait incité les concierges à faire ce qu'ils ont fait ?
08:27
And would you pay them a bonus for being empathic?
135
495000
3000
Et un bonus pour l'empathie ?
08:30
It's preposterous on its face.
136
498000
4000
Ce serait ridicule.
08:34
And what happens is that as we turn increasingly to rules,
137
502000
5000
De plus en plus, nous nous fions aux règlements.
08:39
rules and incentives may make things better in the short run,
138
507000
4000
Les règlements et les incitatifs sont intéressants à court terme,
08:43
but they create a downward spiral
139
511000
3000
mais ils aggravent la situation
08:46
that makes them worse in the long run.
140
514000
2000
et la détériorent à long terme.
08:48
Moral skill is chipped away by an over-reliance on rules
141
516000
5000
Dépendre des règles réduit notre aptitude morale,
08:53
that deprives us of the opportunity
142
521000
2000
nous privant de l'occasion
08:55
to improvise and learn from our improvisations.
143
523000
3000
d'improviser et d'apprendre.
08:58
And moral will is undermined
144
526000
3000
L'intention morale est sapée
09:01
by an incessant appeal to incentives
145
529000
3000
par de constants incitatifs
09:04
that destroy our desire to do the right thing.
146
532000
3000
qui ruinent notre désir d'accomplir la chose à faire.
09:07
And without intending it,
147
535000
2000
Sans le vouloir,
09:09
by appealing to rules and incentives,
148
537000
4000
en se fiant aux règles et aux incitatifs,
09:13
we are engaging in a war on wisdom.
149
541000
2000
on fait la guerre à la sagesse.
09:15
Let me just give you a few examples,
150
543000
3000
Laissez-moi vous donner quelques exemples
09:18
first of rules and the war on moral skill.
151
546000
3000
de règles et de guerre à l'aptitude morale.
09:21
The lemonade story is one.
152
549000
2000
L'histoire de la limonade est était un.
09:23
Second, no doubt more familiar to you,
153
551000
3000
Un autre, mieux connu,
09:26
is the nature of modern American education:
154
554000
3000
est le système d'éducation moderne américain :
09:29
scripted, lock-step curricula.
155
557000
3000
prévisible, au programme trop directif.
09:32
Here's an example from Chicago kindergarten.
156
560000
3000
Voici l'exemple d'une maternelle à Chicago.
09:35
Reading and enjoying literature
157
563000
2000
(Lecture, littérature...
09:37
and words that begin with 'B.'
158
565000
2000
et mots commençant par B.)
09:39
"The Bath:" Assemble students on a rug
159
567000
3000
(Bain : rassemblez les enfants sur un tapis...
09:42
and give students a warning about the dangers of hot water.
160
570000
2000
et prévenez-les des dangers de l'eau chaude.)
09:44
Say 75 items in this script to teach a 25-page picture book.
161
572000
5000
75 directives pour un livre d'images de 25 pages.
09:49
All over Chicago in every kindergarten class in the city,
162
577000
3000
Dans toutes les maternelles de Chicago,
09:52
every teacher is saying the same words in the same way on the same day.
163
580000
7000
tous les enseignants disent la même chose, de la même manière, le même jour.
09:59
We know why these scripts are there.
164
587000
4000
On sait à quoi servent ces directives.
10:03
We don't trust the judgment of teachers enough
165
591000
3000
On ne fait pas assez confiance aux enseignants
10:06
to let them loose on their own.
166
594000
3000
pour les laisser libres de juger par eux-mêmes.
10:09
Scripts like these are insurance policies against disaster.
167
597000
3000
Ces directives sont là pour éviter les catastrophes.
10:12
And they prevent disaster.
168
600000
3000
Et elles préviennent les catastrophes,
10:15
But what they assure in its place is mediocrity.
169
603000
5000
mais en retour, elles garantissent la médiocrité.
10:20
(Applause)
170
608000
7000
(Applaudissements)
10:27
Don't get me wrong. We need rules!
171
615000
2000
Il faut des règles, c'est sûr !
10:29
Jazz musicians need some notes --
172
617000
2000
Les jazzmen ont besoin de notes
10:31
most of them need some notes on the page.
173
619000
2000
sur leurs partitions.
10:33
We need more rules for the bankers, God knows.
174
621000
2000
Les banquiers doivent être encadrés !
10:35
But too many rules prevent accomplished jazz musicians
175
623000
4000
Mais trop de règles empêchent les bons musiciens
10:39
from improvising.
176
627000
2000
d'improviser
10:41
And as a result, they lose their gifts,
177
629000
3000
et leur talent en est gâché.
10:44
or worse, they stop playing altogether.
178
632000
3000
Ou pire, ils cessent de jouer.
10:47
Now, how about incentives?
179
635000
3000
Et les incitatifs dans tout ça ?
10:50
They seem cleverer.
180
638000
2000
Ils semblent plus astucieux.
10:52
If you have one reason for doing something
181
640000
2000
Si tu as une motivation
10:54
and I give you a second reason for doing the same thing,
182
642000
3000
et que je t'en donne une autre,
10:57
it seems only logical that two reasons are better than one
183
645000
3000
tu auras deux raisons d'agir,
11:00
and you're more likely to do it.
184
648000
3000
et il est plus probable que tu agiras.
11:03
Right?
185
651000
2000
N'est-ce pas ?
11:05
Well, not always.
186
653000
2000
Pas toujours...
11:07
Sometimes two reasons to do the same thing seem to compete with one another
187
655000
3000
Parfois, deux motivations se nuisent
11:10
instead of complimenting,
188
658000
2000
au lieu de se compléter,
11:12
and they make people less likely to do it.
189
660000
3000
ce qui empêche les gens d'agir.
11:15
I'll just give you one example because time is racing.
190
663000
3000
J'ai juste le temps de donner un exemple.
11:18
In Switzerland, back about 15 years ago,
191
666000
3000
En Suisse, il y a 15 ans,
11:21
they were trying to decide where to site nuclear waste dumps.
192
669000
3000
on cherchait un site où enfuir des déchets nucléaires.
11:24
There was going to be a national referendum.
193
672000
3000
Un référendum allait être tenu sur cette question.
11:27
Some psychologists went around and polled citizens who were very well informed.
194
675000
3000
Des psychologues demandèrent à des gens bien informés
11:30
And they said, "Would you be willing to have a nuclear waste dump in your community?"
195
678000
3000
s'ils voulaient d'un tel site dans leur communauté.
11:33
Astonishingly, 50 percent of the citizens said yes.
196
681000
5000
Étonnamment, 50 % des citoyens ont répondu oui.
11:38
They knew it was dangerous.
197
686000
2000
Ils étaient conscients des dangers
11:40
They thought it would reduce their property values.
198
688000
3000
et de la perte de valeur de leur propriété.
11:43
But it had to go somewhere
199
691000
3000
Mais les déchets devaient être enfouis,
11:46
and they had responsibilities as citizens.
200
694000
3000
et les citoyens devaient agir de façon responsable.
11:49
The psychologists asked other people a slightly different question.
201
697000
4000
Les psychologues ont ensuite demandé aux gens
11:53
They said, "If we paid you six weeks' salary every year
202
701000
3000
s'ils accepteraient un site dans leur communauté
11:56
would you be willing to have a nuclear waste dump in your community?"
203
704000
4000
en compensation d'un salaire de six semaines par an.
12:00
Two reasons. It's my responsibility and I'm getting paid.
204
708000
4000
Deux motivations : le devoir et la rémunération.
12:04
Instead of 50 percent saying yes,
205
712000
3000
Au lieu de 50 % des répondants,
12:07
25 percent said yes.
206
715000
3000
c'est 25% qui étaient d'accord.
12:10
What happens is that
207
718000
3000
Voici ce qui s'est produit :
12:13
the second this introduction of incentive gets us
208
721000
4000
le second incitatif nous fait passer
12:17
so that instead of asking, "What is my responsibility?"
209
725000
3000
de la question «Quelles sont mes responsabilités?»
12:20
all we ask is, "What serves my interests?"
210
728000
3000
à «Quels sont mes intérêts ?»
12:23
When incentives don't work,
211
731000
2000
Quand les incitatifs ne fonctionnent pas,
12:25
when CEOs ignore the long-term health of their companies
212
733000
3000
quand les directeurs ignorent les intérêts à long terme
12:28
in pursuit of short-term gains that will lead to massive bonuses,
213
736000
4000
au profit de boni à court terme,
12:32
the response is always the same.
214
740000
4000
la réaction est toujours la même :
12:36
Get smarter incentives.
215
744000
3000
instituer de meilleurs incitatifs.
12:40
The truth is that there are no incentives that you can devise
216
748000
3000
En vérité, il n'existe pas d'incitatif
12:43
that are ever going to be smart enough.
217
751000
3000
capable d'améliorer les choses.
12:46
Any incentive system can be subverted by bad will.
218
754000
4000
Tout système d'incitatifs peut être corrompu par la mauvaise volonté.
12:50
We need incentives. People have to make a living.
219
758000
4000
Il faut des incitatifs, et il faut gagner sa vie,
12:54
But excessive reliance on incentives
220
762000
2000
mais dépendre des incitatifs
12:56
demoralizes professional activity
221
764000
3000
démoralise l'activité professionnelle
12:59
in two senses of that word.
222
767000
3000
dans deux sens du terme.
13:02
It causes people who engage in that activity to lose morale
223
770000
4000
Ça sape le moral des gens
13:06
and it causes the activity itself to lose morality.
224
774000
4000
et ça cause une perte de moralité de leur profession.
13:10
Barack Obama said, before he was inaugurated,
225
778000
5000
Avant son investiture, Barack Obama a dit de se questionner
13:15
"We must ask not just 'Is it profitable?' but 'Is it right?'"
226
783000
4000
sur la justesse, et pas seulement sur la rentabilité.
13:19
And when professions are demoralized,
227
787000
3000
Et quand les professions perdent de leur éthique,
13:22
everyone in them becomes dependent on -- addicted to -- incentives
228
790000
5000
les gens qui les exercent deviennent dépendants des incitatifs
13:27
and they stop asking "Is it right?"
229
795000
3000
et ne questionnent plus la moralité d'une action.
13:30
We see this in medicine.
230
798000
3000
On le voit en médecine...
13:33
("Although it's nothing serious, let's keep an eye on it to make sure it doesn't turn into a major lawsuit.")
231
801000
4000
(Ce n'est rien de grave, mais restons vigilants. Faudrait pas que ça devienne une poursuite pour faute professionnelle.)
13:37
And we certainly see it in the world of business.
232
805000
2000
Dans le monde des affaires aussi...
13:39
("In order to remain competitive in today's marketplace, I'm afraid we're going to have to replace you with a sleezeball.")
233
807000
6000
(Pour rester compétitif dans le marché d'aujourd'hui, on va devoir te remplacer par un salaud.)
13:45
("I sold my soul for about a tenth of what the damn things are going for now.")
234
813000
5000
(J'ai vendu mon âme pour le dixième de sa valeur marchande actuelle !)
13:50
It is obvious that this is not the way people want to do their work.
235
818000
3000
Personne ne veut travailler comme ça.
13:53
So what can we do?
236
821000
3000
Alors que faire ?
13:56
A few sources of hope:
237
824000
3000
Voici quelques pistes :
13:59
we ought to try to re-moralize work.
238
827000
3000
Il faudrait «remoraliser» le travail.
14:02
One way not to do it: teach more ethics courses.
239
830000
6000
Pour ce faire, surtout ne donnez PAS un cours d'éthique.
14:08
(Applause)
240
836000
3000
(Applaudissements)
14:11
There is no better way to show people that you're not serious
241
839000
3000
Rien ne montre mieux le manque de sérieux
14:14
than to tie up everything you have to say about ethics
242
842000
3000
que de résumer tout ce qu'on sait sur l'éthique
14:17
into a little package with a bow and consign it to the margins as an ethics course.
243
845000
5000
dans un petit cours d'éthique en marge d'un programme.
14:22
What to do instead?
244
850000
2000
Mais que faire alors ?
14:24
One: Celebrate moral exemplars.
245
852000
4000
Célébrons les modèles de moralité.
14:28
Acknowledge, when you go to law school,
246
856000
3000
Les étudiants en droit se lancent dans le domaine
14:31
that a little voice is whispering in your ear
247
859000
3000
parce qu'une petite voix leur raconte
14:34
about Atticus Finch.
248
862000
3000
l'histoire d'Atticus Finch.
14:37
No 10-year-old goes to law school to do mergers and acquisitions.
249
865000
3000
Aucun jeune ne fait du droit pour faire des fusions et des acquisitions.
14:40
People are inspired by moral heroes.
250
868000
3000
Les êtres moraux nous inspirent.
14:43
But we learn that with sophistication
251
871000
3000
Cependant, il n'est pas de bon ton
14:46
comes the understanding that you can't acknowledge that you have moral heroes.
252
874000
4000
de reconnaître qu'on a pour héros des êtres moraux.
14:50
Well, acknowledge them.
253
878000
2000
Eh bien, reconnaissez-les.
14:52
Be proud that you have them.
254
880000
2000
Soyez fiers d'en avoir.
14:54
Celebrate them.
255
882000
2000
Célébrez-les.
14:56
And demand that the people who teach you acknowledge them and celebrate them too.
256
884000
3000
Demandez à vos enseignants de les reconnaître et de les célébrer.
14:59
That's one thing we can do.
257
887000
3000
C'est une chose qu'on peut faire.
15:02
I don't know how many of you remember this:
258
890000
3000
Vous vous souvenez peut-être
15:05
another moral hero, 15 years ago, Aaron Feuerstein,
259
893000
4000
d'Aaron Feuerstein, un «héros de moralité».
15:09
who was the head of Malden Mills in Massachusetts --
260
897000
3000
Il était à la tête de Malden Mills, au Massachussetts,
15:12
they made Polartec --
261
900000
2000
qui fabriquait les tissus Polartec.
15:14
The factory burned down.
262
902000
2000
L'usine a passée au feu.
15:16
3,000 employees. He kept every one of them on the payroll.
263
904000
3000
Il a gardé tous ses 3000 salariés.
15:19
Why? Because it would have been a disaster for them
264
907000
3000
Pourquoi ? Pour éviter une catastrophe,
15:22
and for the community if he had let them go.
265
910000
3000
tant pour eux que pour la communauté.
15:25
"Maybe on paper our company is worth less to Wall Street,
266
913000
4000
«La société vaut moins au yeux de Wall Street,
15:29
but I can tell you it's worth more. We're doing fine."
267
917000
4000
mais à mes yeux, elle vaut plus. Tout va bien.»
15:33
Just at this TED we heard talks from several moral heroes.
268
921000
4000
À cette session de TED, nous avons vu plusieurs héros de moralité,
15:37
Two were particularly inspiring to me.
269
925000
3000
dont deux m'ont particulièrement inspiré.
15:40
One was Ray Anderson, who turned --
270
928000
3000
Le premier est Ray Anderson...
15:43
(Applause)
271
931000
3000
(Applaudissements)
15:46
-- turned, you know, a part of the evil empire
272
934000
3000
... qui transforma une partie de l'empire maléfique
15:49
into a zero-footprint, or almost zero-footprint business.
273
937000
3000
en une entreprise laissant presque aucune empreinte écologique.
15:52
Why? Because it was the right thing to do.
274
940000
4000
Pourquoi ? Parce que c'était la chose juste à faire.
15:56
And a bonus he's discovering is
275
944000
3000
En prime, il s'aperçoit aujourd'hui
15:59
he's actually going to make even more money.
276
947000
3000
qu'il fera encore plus d'argent.
16:02
His employees are inspired by the effort.
277
950000
3000
Ses employés sont inspirés par ses efforts.
16:05
Why? Because there happy to be doing something that's the right thing to do.
278
953000
4000
Pourquoi ? Parce qu'ils aiment accomplir la chose à faire.
16:09
Yesterday we heard Willie Smits talk about re-foresting in Indonesia.
279
957000
5000
Hier, nous avons entendu Willie Smits parler de la reforestation en Indonésie.
16:14
(Applause)
280
962000
3000
(Applaudissements)
16:17
In many ways this is the perfect example.
281
965000
3000
C'est l'exemple parfait
16:20
Because it took the will to do the right thing.
282
968000
3000
parce qu'il fallait vouloir accomplir la chose à faire.
16:23
God knows it took a huge amount of technical skill.
283
971000
3000
Il fallait une aptitude technique énorme.
16:26
I'm boggled at how much he and his associates needed to know
284
974000
3000
Je suis ahuri par la quantité de choses qu'il faillait savoir
16:29
in order to plot this out.
285
977000
3000
pour réaliser ce projet.
16:32
But most important to make it work --
286
980000
3000
Mais le plus important,
16:35
and he emphasized this --
287
983000
2000
et il l'a souligné lui-même,
16:37
is that it took knowing the people in the communities.
288
985000
3000
c'est qu'il fallait connaître les gens des communautés.
16:40
Unless the people you're working with are behind you,
289
988000
5000
Sans l'appui des gens avec qui on travaille,
16:45
this will fail.
290
993000
2000
on va à l'échec.
16:47
And there isn't a formula to tell you how to get the people behind you,
291
995000
3000
Pour gagner cet appui, il n'existe pas de formule,
16:50
because different people in different communities
292
998000
3000
car les gens des différentes communautés
16:53
organize their lives in different ways.
293
1001000
3000
s'organisent et vivent différemment.
16:56
So there's a lot here at TED, and at other places, to celebrate.
294
1004000
3000
Il y a donc de quoi célébrer, ici à TED et ailleurs.
16:59
And you don't have to be a mega-hero.
295
1007000
3000
Pas besoin d'être un super héros.
17:02
There are ordinary heroes.
296
1010000
2000
Il y a des héros ordinaires,
17:04
Ordinary heroes like the janitors who are worth celebrating too.
297
1012000
3000
comme les concierges, qu'on peut aussi célébrer.
17:07
As practitioners each and every one of us should strive
298
1015000
3000
Dans notre profession, nous devrions nous s'efforcer
17:10
to be ordinary, if not extraordinary heroes.
299
1018000
3000
d'être au moins des héros ordinaires.
17:13
As heads of organizations,
300
1021000
2000
En tant que dirigeants,
17:15
we should strive to create environments
301
1023000
2000
nous devrions créer des milieux
17:17
that encourage and nurture both moral skill and moral will.
302
1025000
5000
qui favorisent l'aptitude morale et l'intention morale.
17:22
Even the wisest and most well-meaning people
303
1030000
3000
Même les plus sages et les mieux intentionnés
17:25
will give up if they have to swim against the current
304
1033000
3000
abandonnent lorsqu'ils sont à contre-courant
17:28
in the organizations in which they work.
305
1036000
3000
dans leur milieu de travail.
17:31
If you run an organization, you should be sure
306
1039000
3000
Comme dirigeants, vous devriez vous assurer
17:34
that none of the jobs -- none of the jobs --
307
1042000
3000
qu'aucun poste, aucun,
17:37
have job descriptions like the job descriptions of the janitors.
308
1045000
3000
n'a une description de tâches comme celle des concierges.
17:40
Because the truth is that
309
1048000
3000
En vérité, tout travail
17:43
any work that you do that involves interaction with other people
310
1051000
3000
qui demande d'interagir avec d'autres
17:46
is moral work.
311
1054000
3000
est un travail moral.
17:49
And any moral work depends upon practical wisdom.
312
1057000
4000
Et tout travail moral repose sur la sagesse pratique.
17:53
And, perhaps most important,
313
1061000
3000
Et peut-être plus important encore,
17:56
as teachers, we should strive to be the ordinary heroes,
314
1064000
3000
nous, en tant que professeurs, nous devons être des héros ordinaires,
17:59
the moral exemplars, to the people we mentor.
315
1067000
4000
des modèles de moralité pour les étudiants.
18:03
And there are a few things that we have to remember as teachers.
316
1071000
3000
En qualité de professeur, il faut se rappeler
18:06
One is that we are always teaching.
317
1074000
4000
qu'on est toujours en train d'enseigner.
18:10
Someone is always watching.
318
1078000
3000
Il y a toujours quelqu'un qui nous regarde.
18:13
The camera is always on.
319
1081000
2000
La caméra tourne toujours.
18:15
Bill Gates talked about the importance of education
320
1083000
3000
Bill Gates a parlé de l'importance de l'éducation,
18:18
and, in particular, the model that KIPP was providing:
321
1086000
3000
et particulièrement du modèle KIPP (Knowledge is Power).
18:21
"Knowledge is power."
322
1089000
2000
«Savoir, c'est pouvoir.»
18:24
And he talked about a lot of the wonderful things
323
1092000
3000
Il a parlé des choses merveilleuses
18:27
that KIPP is doing
324
1095000
2000
que KIPP réalise
18:29
to take inner-city kids and turn them in the direction of college.
325
1097000
4000
pour que les jeunes défavorisés poursuivent leurs études.
18:33
I want to focus on one particular thing KIPP is doing
326
1101000
3000
J'aimerais souligner une action de KIPP
18:36
that Bill didn't mention.
327
1104000
2000
que Bill n'a pas mentionnée.
18:39
That is that they have come to the realization
328
1107000
2000
Ils se sont rendu compte
18:42
that the single most important thing kids need to learn
329
1110000
2000
que la chose la plus importante à apprendre,
18:44
is character.
330
1112000
1000
c'est le caractère.
18:45
They need to learn to respect themselves.
331
1113000
3000
Les enfants doivent apprendre à se respecter,
18:48
They need to learn to respect their schoolmates.
332
1116000
3000
apprendre à respecter leurs camarades,
18:51
They need to learn to respect their teachers.
333
1119000
3000
apprendre à respecter leurs professeurs
18:54
And, most important, they need to learn to respect learning.
334
1122000
3000
et surtout, apprendre à respecter l'apprentissage.
18:57
That's the principle objective.
335
1125000
2000
C'est l'objectif principal.
18:59
If you do that, the rest is just pretty much a coast downhill.
336
1127000
4000
Si on fait cela, le reste est facile.
19:03
And the teachers: the way you teach these things to the kids
337
1131000
3000
Pour inculquer cela aux enfants,
19:06
is by having the teachers and all the other staff embody it every minute of every day.
338
1134000
7000
les profs et le personnel doivent représenter cet idéal sans relâche.
19:13
Obama appealed to virtue.
339
1141000
2000
Obama a fait appel à la vertu.
19:15
And I think he was right.
340
1143000
2000
Je crois qu'il avait raison.
19:17
And the virtue I think we need above all others is practical wisdom,
341
1145000
4000
Et la vertu dont nous avons le plus besoin, c'est la sagesse pratique,
19:21
because it's what allows other virtues -- honesty, kindness, courage and so on --
342
1149000
7000
car elle permet à l'honnêteté, à la gentillesse, au courage, etc.,
19:28
to be displayed at the right time and in the right way.
343
1156000
3000
de bien s'exprimer, au bon moment.
19:31
He also appealed to hope.
344
1159000
3000
Obama fît aussi appel à l'espoir.
19:34
Right again.
345
1162000
2000
Il avait raison.
19:36
I think there is reason for hope.
346
1164000
3000
On a raison de croire à l'espoir.
19:39
I think people want to be allowed to be virtuous.
347
1167000
3000
Les gens veulent être vertueux.
19:42
In many ways, it's what TED is all about.
348
1170000
4000
C'est d'ailleurs un des principaux objectifs de TED :
19:46
Wanting to do the right thing
349
1174000
3000
vouloir faire ce qui est bien.
19:49
in the right way
350
1177000
2000
de la bonne manière
19:51
for the right reasons.
351
1179000
2000
et pour les bonnes raisons.
19:53
This kind of wisdom is within the grasp of each and every one of us
352
1181000
3000
Ce type de sagesse est à la portée de tous
19:56
if only we start paying attention.
353
1184000
3000
si seulement on y porte attention.
19:59
Paying attention to what we do,
354
1187000
3000
Porter de l'attention à nos actions,
20:02
to how we do it,
355
1190000
2000
à la façon dont de les réaliser,
20:04
and, perhaps most importantly,
356
1192000
2000
et plus important encore peut-être,
20:06
to the structure of the organizations within which we work,
357
1194000
3000
à la structure des organisations pour lesquelles nous travaillons
20:09
so as to make sure that it enables us and other people to develop wisdom
358
1197000
5000
pour nous assurer qu'elles nous laissent cultiver la sagesse
20:14
rather than having it suppressed.
359
1202000
3000
plutôt que la réprimer.
20:17
Thank you very much.
360
1205000
2000
Merci beaucoup.
20:20
Thank you.
361
1208000
2000
Merci.
20:22
(Applause)
362
1210000
3000
(Applaudissements)
20:25
Chris Anderson: You have to go and stand out here a sec.
363
1213000
3000
Chris Anderson : Reste encore une seconde.
20:31
Barry Schwartz: Thank you very much.
364
1219000
2000
Barry Schwartz : Merci beaucoup.
20:33
(Applause)
365
1221000
6000
(Applaudissements)
Translated by Philippe Axelsen
Reviewed by Geneviève Cocke

▲Back to top

ABOUT THE SPEAKER
Barry Schwartz - Psychologist
Barry Schwartz studies the link between economics and psychology, offering startling insights into modern life. Lately, working with Ken Sharpe, he's studying wisdom.

Why you should listen

In his 2004 book The Paradox of Choice, Barry Schwartz tackles one of the great mysteries of modern life: Why is it that societies of great abundance — where individuals are offered more freedom and choice (personal, professional, material) than ever before — are now witnessing a near-epidemic of depression? Conventional wisdom tells us that greater choice is for the greater good, but Schwartz argues the opposite: He makes a compelling case that the abundance of choice in today's western world is actually making us miserable.

Infinite choice is paralyzing, Schwartz argues, and exhausting to the human psyche. It leads us to set unreasonably high expectations, question our choices before we even make them and blame our failures entirely on ourselves. His relatable examples, from consumer products (jeans, TVs, salad dressings) to lifestyle choices (where to live, what job to take, who and when to marry), underscore this central point: Too much choice undermines happiness.

Schwartz's previous research has addressed morality, decision-making and the varied inter-relationships between science and society. Before Paradox he published The Costs of Living, which traces the impact of free-market thinking on the explosion of consumerism -- and the effect of the new capitalism on social and cultural institutions that once operated above the market, such as medicine, sports, and the law.

Both books level serious criticism of modern western society, illuminating the under-reported psychological plagues of our time. But they also offer concrete ideas on addressing the problems, from a personal and societal level.

Schwartz is the author of the TED Book, Why We Work

More profile about the speaker
Barry Schwartz | Speaker | TED.com