ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

Laurie Santos: Małpia ekonomia jest równie irracjonalna jak nasza.

Filmed:
1,506,660 views

Laurie Santos szuka korzeni ludzkiego nierozsądku poprzez obserwację, jak z nami spokrewnione ssaki naczelne podejmują decyzje. Seria sprytnych eksperymentów z "małpoekonomią" pokazuje, że małpy podejmują podobne głupie decyzje, jakie my też podejmujemy.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startpoczątek my talk todaydzisiaj with two observationsobserwacje
0
2000
2000
Rozpocznę mój wykład od dwóch obserwacji
00:19
about the humanczłowiek speciesgatunki.
1
4000
2000
na temat gatunku ludzkiego.
00:21
The first observationobserwacja is something that you mightmoc think is quitecałkiem obviousoczywisty,
2
6000
3000
Pierwszą obserwację można uznać za dość oczywistą,
00:24
and that's that our speciesgatunki, HomoHomo sapienssapiens,
3
9000
2000
chodzi o to, że nasz gatunek, homo sapiens,
00:26
is actuallytak właściwie really, really smartmądry --
4
11000
2000
jest rzeczywiście bardzo, bardzo mądry --
00:28
like, ridiculouslyśmiesznie smartmądry --
5
13000
2000
wręcz śmiesznie mądry --
00:30
like you're all doing things
6
15000
2000
bo robicie rzeczy,
00:32
that no other speciesgatunki on the planetplaneta does right now.
7
17000
3000
których nie robi żaden inny gatunek na Ziemi.
00:35
And this is, of coursekurs,
8
20000
2000
I oczywiście to nie jest pierwszy raz,
00:37
not the first time you've probablyprawdopodobnie recognizeduznane this.
9
22000
2000
gdy to pewnie przyznaliście.
00:39
Of coursekurs, in additiondodanie to beingistota smartmądry, we're alsorównież an extremelyniezwykle vainpróżno speciesgatunki.
10
24000
3000
Oczywiście, prócz bycia mądrym, jesteśmy też wyjątkowo próżnym gatunkiem.
00:42
So we like pointingwskazując out the factfakt that we're smartmądry.
11
27000
3000
Więc lubimy podkreślać fakt, że jesteśmy mądrzy.
00:45
You know, so I could turnskręcać to prettyładny much any sageszałwia
12
30000
2000
Wiecie, mogłabym wskazać dowolnego myśliciela,
00:47
from ShakespeareSzekspir to StephenStephen ColbertColbert
13
32000
2000
od Szekspira to Stephena Colberta,
00:49
to pointpunkt out things like the factfakt that
14
34000
2000
by wykazać między innymi fakt,
00:51
we're nobleszlachetny in reasonpowód and infinitenieskończony in facultieswydziały
15
36000
2000
że jesteśmy szlachetni rozumem i nieograniczeni w talentach
00:53
and just kinduprzejmy of awesome-erniesamowite-er than anything elsejeszcze on the planetplaneta
16
38000
2000
i tak jakby wspanialsi niż cokolwiek innego na Ziemi,
00:55
when it comespochodzi to all things cerebralmózgowy.
17
40000
3000
jeśli chodzi o wszystko związane z mózgiem.
00:58
But of coursekurs, there's a seconddruga observationobserwacja about the humanczłowiek speciesgatunki
18
43000
2000
Ale oczywiście, istnieje druga obserwacja o gatunku ludzkim,
01:00
that I want to focusskupiać on a little bitkawałek more,
19
45000
2000
na której chciałabym się teraz nieco skupić,
01:02
and that's the factfakt that
20
47000
2000
a chodzi o fakt, że
01:04
even thoughchociaż we're actuallytak właściwie really smartmądry, sometimesczasami uniquelywyjątkowo smartmądry,
21
49000
3000
mimo iż jesteśmy naprawdę mądrzy, czasami wyjatkowo mądrzy,
01:07
we can alsorównież be incrediblyniewiarygodnie, incrediblyniewiarygodnie dumbgłupi
22
52000
3000
potrafimy też być niewiarygodnie głupi,
01:10
when it comespochodzi to some aspectsaspekty of our decisiondecyzja makingzrobienie.
23
55000
3000
jeśli chodzi o pewne aspekty naszego podejmowania decyzji.
01:13
Now I'm seeingwidzenie lots of smirkssmirks out there.
24
58000
2000
Dostrzegam teraz na waszych twarzach uśmieszek.
01:15
Don't worrymartwić się, I'm not going to call anyonektokolwiek in particularszczególny out
25
60000
2000
Nie martwcie się, nie zamierzam wypominać nikomu konkretnemu
01:17
on any aspectsaspekty of your ownwłasny mistakesbłędy.
26
62000
2000
przyczyn jego własnych błędów.
01:19
But of coursekurs, just in the last two yearslat
27
64000
2000
Ale oczywiście, tylko przez ostatnie dwa lata
01:21
we see these unprecedentedbez precedensu examplesprzykłady of humanczłowiek ineptitudenieudolności.
28
66000
3000
obserwowaliśmy bezprecedensowe przykłady ludzkiej niezaradności.
01:24
And we'vemamy watchedoglądaliśmy as the toolsprzybory we uniquelywyjątkowo make
29
69000
3000
I obserwowaliśmy, jak narzędzia, które tylko my tworzymy,
01:27
to pullCiągnąć the resourceszasoby out of our environmentśrodowisko
30
72000
2000
by wydobyć surowce z natury,
01:29
kinduprzejmy of just blowcios up in our facetwarz.
31
74000
2000
tak jakby wybuchały nam w twarz.
01:31
We'veMamy watchedoglądaliśmy the financialbudżetowy marketsrynki that we uniquelywyjątkowo createStwórz --
32
76000
2000
Obserwowaliśmy rynki finansowe, które tylko my tworzymy –
01:33
these marketsrynki that were supposeddomniemany to be foolproofniezawodny --
33
78000
3000
rynki, które miały być niezawodne –
01:36
we'vemamy watchedoglądaliśmy them kinduprzejmy of collapsezawalić się before our eyesoczy.
34
81000
2000
obserwowaliśmy, jak tak jakby zawaliły się na naszych oczach.
01:38
But bothobie of these two embarrassingżenujące examplesprzykłady, I think,
35
83000
2000
Ale sądzę, że oba te zawstydzające przykłady
01:40
don't highlightPodświetl what I think is mostwiększość embarrassingżenujące
36
85000
3000
nie uwydatniają tego, co moim zdaniem jest najbardziej zawstydzające,
01:43
about the mistakesbłędy that humansludzie make,
37
88000
2000
jeśli chodzi o błędy popełniane przez ludzi,
01:45
whichktóry is that we'dpoślubić like to think that the mistakesbłędy we make
38
90000
3000
czyli to, że wolimy myśleć, że nasze błędy
01:48
are really just the resultwynik of a couplepara badzły applesjabłka
39
93000
2000
są tak naprawdę spowodowane przez paru niekompetentnych,
01:50
or a couplepara really sortsortować of FAILFAIL Blog-worthyBlog godny decisionsdecyzje.
40
95000
3000
albo kilka decyzji naprawdę godnych umieszczenia na FailBlogu.
01:53
But it turnsskręca out, what socialspołeczny scientistsnaukowcy are actuallytak właściwie learninguczenie się
41
98000
3000
Ale okazuje się, o czym rzeczywiście dowiadują się socjologowie,
01:56
is that mostwiększość of us, when put in certainpewny contextsKonteksty,
42
101000
3000
że większość z nas w określonych okolicznościach
01:59
will actuallytak właściwie make very specifickonkretny mistakesbłędy.
43
104000
3000
popełni pewne określone błędy.
02:02
The errorsbłędy we make are actuallytak właściwie predictablemożliwy do przewidzenia.
44
107000
2000
Błędy, które popełniamy, są w rzeczywistości przewidywalne.
02:04
We make them again and again.
45
109000
2000
Wciąż i wciąż je popełniamy.
02:06
And they're actuallytak właściwie immuneodporny to lots of evidencedowód.
46
111000
2000
I właściwie są one odporne na dowody.
02:08
When we get negativenegatywny feedbackinformacje zwrotne,
47
113000
2000
Kiedy uzyskujemy negatywny odzew,
02:10
we still, the nextNastępny time we're facetwarz with a certainpewny contextkontekst,
48
115000
3000
wciąż, gdy ponownie stajemy w obliczu pewnych okoliczności,
02:13
tendzmierzać to make the samepodobnie errorsbłędy.
49
118000
2000
popełniamy takie same błędy.
02:15
And so this has been a realreal puzzlepuzzle to me
50
120000
2000
No i to była dla mnie prawdziwa zagadka,
02:17
as a sortsortować of scholaruczony of humanczłowiek natureNatura.
51
122000
2000
jako pewnego rodzaju badaczki ludzkiej natury.
02:19
What I'm mostwiększość curiousciekawy about is,
52
124000
2000
Najbardziej w tym intryguje mnie to,
02:21
how is a speciesgatunki that's as smartmądry as we are
53
126000
3000
jak tak mądry gatunek, jak my,
02:24
capablezdolny of suchtaki badzły
54
129000
2000
jest zdolny do popełniania cały czas
02:26
and suchtaki consistentzgodny errorsbłędy all the time?
55
131000
2000
tak dużych i tak konsekwentnych błędów
02:28
You know, we're the smartestnajmądrzejszy thing out there, why can't we figurepostać this out?
56
133000
3000
Wiecie, jesteśmy tu najmądrzejsi, czemu nie potrafimy tego rozgryźć?
02:31
In some sensesens, where do our mistakesbłędy really come from?
57
136000
3000
Innymi słowy, skąd naprawdę biorą się nasze pomyłki?
02:34
And havingmający thought about this a little bitkawałek, I see a couplepara differentróżne possibilitiesmożliwości.
58
139000
3000
I po przemyśleniach widzę parę różnych możliwości.
02:37
One possibilitymożliwość is, in some sensesens, it's not really our faultwina.
59
142000
3000
Jedna z nich to to, że w pewnym sensie to nie jest nasza wina.
02:40
Because we're a smartmądry speciesgatunki,
60
145000
2000
Skoro jesteśmy mądrym gatunkiem,
02:42
we can actuallytak właściwie createStwórz all kindsrodzaje of environmentsśrodowiska
61
147000
2000
to możemy tworzyć wszelakie środowiska,
02:44
that are superWspaniały, superWspaniały complicatedskomplikowane,
62
149000
2000
które są super-, super-skomplikowane,
02:46
sometimesczasami too complicatedskomplikowane for us to even actuallytak właściwie understandzrozumieć,
63
151000
3000
czasami zbyt skomplikowane, byśmy je tak naprawdę zrozumieli,
02:49
even thoughchociaż we'vemamy actuallytak właściwie createdstworzony them.
64
154000
2000
chociaż to właśnie my je stworzyliśmy.
02:51
We createStwórz financialbudżetowy marketsrynki that are superWspaniały complexzłożony.
65
156000
2000
Stworzyliśmy super-skomplikowane rynki finansowe.
02:53
We createStwórz mortgagehipoteka termswarunki that we can't actuallytak właściwie dealsprawa with.
66
158000
3000
Stworzyliśmy system kredytów hipotecznych, z którym właściwie sobie nie radzimy.
02:56
And of coursekurs, if we are put in environmentsśrodowiska where we can't dealsprawa with it,
67
161000
3000
No i rzecz jasna, jeśli znajdziemy się w środowisku, w którym sobie nie radzimy,
02:59
in some sensesens makesczyni sensesens that we actuallytak właściwie
68
164000
2000
w pewnym sensie logiczne jest, że naprawdę
03:01
mightmoc messbałagan certainpewny things up.
69
166000
2000
możemy coś zepsuć.
03:03
If this was the casewalizka, we'dpoślubić have a really easyłatwo solutionrozwiązanie
70
168000
2000
Gdyby tak było, mielibyśmy naprawdę łatwe rozwiązanie
03:05
to the problemproblem of humanczłowiek errorbłąd.
71
170000
2000
problemu ludzkich błędów.
03:07
We'dChcielibyśmy actuallytak właściwie just say, okay, let's figurepostać out
72
172000
2000
Powiedzielibyśmy: „Dobrze, sprawdźmy więc,
03:09
the kindsrodzaje of technologiestechnologie we can't dealsprawa with,
73
174000
2000
z jakimi technologiami sobie nie radzimy,
03:11
the kindsrodzaje of environmentsśrodowiska that are badzły --
74
176000
2000
jakie środowiska są nieodpowiednie –
03:13
get ridpozbyć się of those, designprojekt things better,
75
178000
2000
pozbądźmy się ich, zaprojektujmy je lepiej
03:15
and we should be the nobleszlachetny speciesgatunki
76
180000
2000
i staniemy się szlachetnym gatunkiem,
03:17
that we expectoczekiwać ourselvesmy sami to be.
77
182000
2000
którym oczekujemy się czuć.
03:19
But there's anotherinne possibilitymożliwość that I find a little bitkawałek more worryingfrasobliwy,
78
184000
3000
Ale jest też inna możliwość, która mnie osobiście bardziej martwi,
03:22
whichktóry is, maybe it's not our environmentsśrodowiska that are messedzabrudzony up.
79
187000
3000
czyli to, że może to nie z naszym otoczeniem jest nie tak.
03:25
Maybe it's actuallytak właściwie us that's designedzaprojektowany badlyźle.
80
190000
3000
Może tak właściwie to my jesteśmy źle skonstruowani.
03:28
This is a hintWskazówka that I've gottenzdobyć
81
193000
2000
To wskazówka, którą otrzymałam
03:30
from watchingoglądanie the wayssposoby that socialspołeczny scientistsnaukowcy have learnednauczyli about humanczłowiek errorsbłędy.
82
195000
3000
patrząc, w jaki sposób socjologowie poznawali ludzkie błędy.
03:33
And what we see is that people tendzmierzać to keep makingzrobienie errorsbłędy
83
198000
3000
A co widzimy, to to, że ludzie ciągle popełniają te same błędy
03:36
exactlydokładnie the samepodobnie way, over and over again.
84
201000
3000
dokładnie tak samo za każdym razem.
03:39
It feelsczuje like we mightmoc almostprawie just be builtwybudowany
85
204000
2000
Wygląda, jakbyśmy niemal byli zbudowani,
03:41
to make errorsbłędy in certainpewny wayssposoby.
86
206000
2000
by mylić się w określony sposób.
03:43
This is a possibilitymożliwość that I worrymartwić się a little bitkawałek more about,
87
208000
3000
To możliwość, która bardziej mnie martwi,
03:46
because, if it's us that's messedzabrudzony up,
88
211000
2000
bo jeśli to my jesteśmy wadliwi,
03:48
it's not actuallytak właściwie clearjasny how we go about dealingpostępowanie with it.
89
213000
2000
to właściwie nie wiadomo, jak mamy sobie z tym radzić.
03:50
We mightmoc just have to acceptzaakceptować the factfakt that we're errorbłąd proneskłonny
90
215000
3000
Możemy po prostu zaakceptować to, że jesteśmy podatni na błędy
03:53
and try to designprojekt things around it.
91
218000
2000
i próbować projektować rzeczy zgodnie z tym.
03:55
So this is the questionpytanie my studentsstudenci and I wanted to get at.
92
220000
3000
Więc oto pytanie, za które ja i moi studenci chcieliśmy się wziąć.
03:58
How can we tell the differenceróżnica betweenpomiędzy possibilitymożliwość one and possibilitymożliwość two?
93
223000
3000
Jak odróżnić wariant pierwszy od wariantu drugiego?
04:01
What we need is a populationpopulacja
94
226000
2000
Potrzebujemy więc populacji,
04:03
that's basicallygruntownie smartmądry, can make lots of decisionsdecyzje,
95
228000
2000
która jest dość mądra, może podejmować wiele decyzji,
04:05
but doesn't have accessdostęp to any of the systemssystemy we have,
96
230000
2000
ale nie ma dostępu do tych systemów, do którym my mamy,
04:07
any of the things that mightmoc messbałagan us up --
97
232000
2000
do żadnych rzeczy, które mogły nas popsuć –
04:09
no humanczłowiek technologytechnologia, humanczłowiek culturekultura,
98
234000
2000
ani ludzkiej technologii, ani ludzkiej kultury,
04:11
maybe even not humanczłowiek languagejęzyk.
99
236000
2000
może nawet nie do ludzkiego języka.
04:13
And so this is why we turnedobrócony to these guys here.
100
238000
2000
I dlatego zwróciliśmy się to tych kolesi.
04:15
These are one of the guys I work with. This is a brownbrązowy capuchinKapucynów monkeymałpa.
101
240000
3000
To z tymi kolesiami pracuję. Są to kapucynki czubate.
04:18
These guys are NewNowy WorldŚwiat primatesnaczelne ssaki,
102
243000
2000
Są one ssakami naczelnymi Nowego Świata,
04:20
whichktóry meansznaczy they brokezepsuł się off from the humanczłowiek branchgałąź
103
245000
2000
co znaczy, że odłączyły się od gałęzi prowadzącej do ludzi
04:22
about 35 millionmilion yearslat agotemu.
104
247000
2000
jakieś 35 milionów lat temu.
04:24
This meansznaczy that your great, great, great great, great, great --
105
249000
2000
To znaczy, że wasza pra-, pra-, pra-, pra-, pra-, pra- –
04:26
with about fivepięć millionmilion "greatsMistrzów" in there --
106
251000
2000
i jeszcze tak z pięć milionów "pra" –
04:28
grandmotherbabcia was probablyprawdopodobnie the samepodobnie great, great, great, great
107
253000
2000
babcia była prawdopodobnie tą samą pra-, pra-, pra-, pra-
04:30
grandmotherbabcia with fivepięć millionmilion "greatsMistrzów" in there
108
255000
2000
babcią z pięcioma milionami "pra-" po drodze,
04:32
as HollyHolly up here.
109
257000
2000
którą miała ta oto Holly.
04:34
You know, so you can take comfortkomfort in the factfakt that this guy up here is a really really distantodległy,
110
259000
3000
Wiecie, możecie się pocieszyć faktem, że w rzeczywistości jest to wasza naprawdę daleka,
04:37
but albeitaczkolwiek evolutionaryewolucyjny, relativekrewny.
111
262000
2000
chociaż tylko ewolucyjnie, krewna.
04:39
The good newsAktualności about HollyHolly thoughchociaż is that
112
264000
2000
To, co można dobrego powiedzieć o Holly, to to,
04:41
she doesn't actuallytak właściwie have the samepodobnie kindsrodzaje of technologiestechnologie we do.
113
266000
3000
że nie posiada tego samego rodzaju technologii, które my mamy.
04:44
You know, she's a smartmądry, very cutciąć creaturekreatura, a primatePrymas as well,
114
269000
3000
Wiecie, to mądre, bardzo sprytne stworzenie, też ssak naczelny,
04:47
but she lacksbrakuje all the stuffrzeczy we think mightmoc be messingMessing us up.
115
272000
2000
ale brakuje jej tego wszystkiego, o czym sądzimy, że mogło nas popsuć.
04:49
So she's the perfectidealny testtest casewalizka.
116
274000
2000
Jest więc idealnym obiektem doświadczalnym.
04:51
What if we put HollyHolly into the samepodobnie contextkontekst as humansludzie?
117
276000
3000
Co będzie, jeśli umieścimy Holly w tym samym kontekście co ludzi?
04:54
Does she make the samepodobnie mistakesbłędy as us?
118
279000
2000
Czy popełnia takie same błędy jak my?
04:56
Does she not learnuczyć się from them? And so on.
119
281000
2000
Czy się na nich nie uczy? I tak dalej.
04:58
And so this is the kinduprzejmy of thing we decidedzdecydowany to do.
120
283000
2000
I właśnie tego typu rzeczy postanowiliśmy zrobić.
05:00
My studentsstudenci and I got very excitedpodekscytowany about this a fewkilka yearslat agotemu.
121
285000
2000
Parę lat temu, moi studenci i ja bardzo się tym podniecaliśmy.
05:02
We said, all right, let's, you know, throwrzucać so problemsproblemy at HollyHolly,
122
287000
2000
Mówiliśmy: No dobra, zasypmy Holly problemami,
05:04
see if she messesMES these things up.
123
289000
2000
zobaczymy, czy coś zabałagani.
05:06
First problemproblem is just, well, where should we startpoczątek?
124
291000
3000
Pierwszy problem, to, cóż, od czego powinniśmy zacząć?
05:09
Because, you know, it's great for us, but badzły for humansludzie.
125
294000
2000
Bo wiecie, dla nas to świetnie, ale dla ludzi już gorzej.
05:11
We make a lot of mistakesbłędy in a lot of differentróżne contextsKonteksty.
126
296000
2000
Popełniamy mnóstwo błędów w wielu różnych sytuacjach.
05:13
You know, where are we actuallytak właściwie going to startpoczątek with this?
127
298000
2000
Wiecie, od której strony tak właściwie zaczniemy?
05:15
And because we startedRozpoczęty this work around the time of the financialbudżetowy collapsezawalić się,
128
300000
3000
A ponieważ zaczęliśmy pracę w czasach finansowego krachu,
05:18
around the time when foreclosuresForeclosures were hittinguderzanie the newsAktualności,
129
303000
2000
gdy w telewizji wciąż mówiono o zajęciach komorniczych,
05:20
we said, hhmmhhmm, maybe we should
130
305000
2000
stwierdziliśmy, hmmm, może powinniśmy
05:22
actuallytak właściwie startpoczątek in the financialbudżetowy domaindomena.
131
307000
2000
zacząć od spraw finansowych.
05:24
Maybe we should look at monkey'sMonkey's economicgospodarczy decisionsdecyzje
132
309000
3000
Może powinniśmy przyjrzeć się małpim decyzjom ekonomicznym
05:27
and try to see if they do the samepodobnie kindsrodzaje of dumbgłupi things that we do.
133
312000
3000
i zobaczyć, czy robią te same głupie rzeczy, co my.
05:30
Of coursekurs, that's when we hittrafienie a sortsortować seconddruga problemproblem --
134
315000
2000
Oczywiście, wtedy natrafiliśmy na drugi problem –
05:32
a little bitkawałek more methodologicalmetodologiczne --
135
317000
2000
nieco bardziej metodologiczny –
05:34
whichktóry is that, maybe you guys don't know,
136
319000
2000
czyli, może o tym nie wiecie,
05:36
but monkeysmałpy don't actuallytak właściwie use moneypieniądze. I know, you haven'tnie mam metspotkał them.
137
321000
3000
ale małpy tak właściwie to nie używają pieniędzy. Wiem, nie spotkaliście ich.
05:39
But this is why, you know, they're not in the queuekolejka behindza you
138
324000
2000
Ale wiecie, to dlatego, że nie stoją za wami w kolejce
05:41
at the grocerysklep spożywczy storesklep or the ATMATM -- you know, they don't do this stuffrzeczy.
139
326000
3000
do kasy czy bankomatu, wiecie, one takich rzeczy nie robią.
05:44
So now we facedw obliczu, you know, a little bitkawałek of a problemproblem here.
140
329000
3000
Więc wiecie, stanęliśmy przed takim drobnym problemem:
05:47
How are we actuallytak właściwie going to askzapytać monkeysmałpy about moneypieniądze
141
332000
2000
Jak właściwie mamy spytać małpy o pieniądze,
05:49
if they don't actuallytak właściwie use it?
142
334000
2000
jeśli one ich nie używają?
05:51
So we said, well, maybe we should just, actuallytak właściwie just suckssać it up
143
336000
2000
Więc stwierdziliśmy, że może powinniśmy po prostu zakasać rękawy
05:53
and teachnauczać monkeysmałpy how to use moneypieniądze.
144
338000
2000
i nauczyć małpy posługiwania się pieniędzmi.
05:55
So that's just what we did.
145
340000
2000
I to właśnie zrobiliśmy.
05:57
What you're looking at over here is actuallytak właściwie the first unitjednostka that I know of
146
342000
3000
To, na co właśnie patrzycie, to o ile mi wiadomo pierwsza jednostka
06:00
of non-humannieludzi currencyWaluta.
147
345000
2000
nie-ludzkiej waluty.
06:02
We weren'tnie były very creativetwórczy at the time we startedRozpoczęty these studiesstudia,
148
347000
2000
Na początku naszych badań nie byliśmy zbyt kreatywni,
06:04
so we just callednazywa it a tokentoken.
149
349000
2000
więc nazwaliśmy ją żetonem.
06:06
But this is the unitjednostka of currencyWaluta that we'vemamy taughtnauczony our monkeysmałpy at YaleYale
150
351000
3000
Ale właśnie to jest waluta, którą nauczyliśmy w Yale nasze małpy
06:09
to actuallytak właściwie use with humansludzie,
151
354000
2000
używać własciwie wspólnie z ludźmi,
06:11
to actuallytak właściwie buykupować differentróżne piecessztuk of foodjedzenie.
152
356000
3000
by kupować różne rodzaje pożywienie.
06:14
It doesn't look like much -- in factfakt, it isn't like much.
153
359000
2000
Nie wygląda na wartościowe – i rzeczywiście, nie jest wartościowe.
06:16
Like mostwiększość of our moneypieniądze, it's just a piecekawałek of metalmetal.
154
361000
2000
Jak większość naszych pieniędzy, to tylko kawałek metalu.
06:18
As those of you who'vekto takenwzięty currencieswaluty home from your tripwycieczka know,
155
363000
3000
Jak ci z was, którzy przywieźli pieniądze z wycieczek zagranicznych, wiedzą,
06:21
oncepewnego razu you get home, it's actuallytak właściwie prettyładny uselessbezużyteczny.
156
366000
2000
że po powrocie do domu są one własciwie zupełnie bezużyteczne.
06:23
It was uselessbezużyteczny to the monkeysmałpy at first
157
368000
2000
Na początku były bezużyteczne dla małp,
06:25
before they realizedrealizowany what they could do with it.
158
370000
2000
dopóki nie zrozumiały, co mogą z nimi zrobić.
06:27
When we first gavedał it to them in theirich enclosuresobudowy,
159
372000
2000
Gdy daliśmy je im po raz pierwszy w ich pomieszczeniach,
06:29
they actuallytak właściwie kinduprzejmy of pickeddoborowy them up, lookedspojrzał at them.
160
374000
2000
to je tak sobie podnosiły, oglądały.
06:31
They were these kinduprzejmy of weirddziwne things.
161
376000
2000
Takie jakieś dziwaczne przedmioty.
06:33
But very quicklyszybko, the monkeysmałpy realizedrealizowany
162
378000
2000
Ale bardzo szybko małpy zrozumiały,
06:35
that they could actuallytak właściwie handdłoń these tokenstokeny over
163
380000
2000
że faktycznie mogą wymienić te żetony
06:37
to differentróżne humansludzie in the lablaboratorium for some foodjedzenie.
164
382000
3000
u różnych ludzi w laboratorium na jedzenie.
06:40
And so you see one of our monkeysmałpy, MaydayMAYDAY, up here doing this.
165
385000
2000
A więc widzicie jedną z naszych małp, Mayday, robiącą to.
06:42
This is A and B are kinduprzejmy of the pointszwrotnica where she's sortsortować of a little bitkawałek
166
387000
3000
A i B to momenty, kiedy jeszcze się interesowała
06:45
curiousciekawy about these things -- doesn't know.
167
390000
2000
tymi przedmiotami – nie wie.
06:47
There's this waitingczekanie handdłoń from a humanczłowiek experimentereksperymentator,
168
392000
2000
Tutaj wyciągnięta ręka nadzorującego człowieka
06:49
and MaydayMAYDAY quicklyszybko figuresfigury out, apparentlywidocznie the humanczłowiek wants this.
169
394000
3000
i Mayday w mig pojmuje, że widocznie człowiek to chce.
06:52
HandsRęce it over, and then getsdostaje some foodjedzenie.
170
397000
2000
Podaje i dostaje w zamian jedzenie.
06:54
It turnsskręca out not just MaydayMAYDAY, all of our monkeysmałpy get good
171
399000
2000
Okazuje się, że nie tylko Mayday, wszystkie małpy radzą sobie
06:56
at tradinghandlowy tokenstokeny with humanczłowiek salesmanSprzedawca.
172
401000
2000
z wymianą żetonów ze sprzedawcą.
06:58
So here'soto jest just a quickszybki videowideo of what this lookswygląda like.
173
403000
2000
Oto króciutki filmik, jak to wygląda.
07:00
Here'sTutaj jest MaydayMAYDAY. She's going to be tradinghandlowy a tokentoken for some foodjedzenie
174
405000
3000
To Mayday. Zamierza wymienić żeton na jedzenie,
07:03
and waitingczekanie happilySzczęśliwie and gettinguzyskiwanie her foodjedzenie.
175
408000
3000
czeka i dostaje to jedzenie.
07:06
Here'sTutaj jest FelixFelix, I think. He's our alphaalfa malemęski; he's a kinduprzejmy of bigduży guy.
176
411000
2000
To chyba Felix, nasz samiec alfa; dość spory facet.
07:08
But he too waitsczeka patientlycierpliwie, getsdostaje his foodjedzenie and goesidzie on.
177
413000
3000
Ale on też cierpliwie czeka, dostaje jedzenie i odchodzi.
07:11
So the monkeysmałpy get really good at this.
178
416000
2000
Więc małpy naprawdę sobie z tym radzą.
07:13
They're surprisinglyzaskakująco good at this with very little trainingtrening.
179
418000
3000
Są w tym zadziwiająco dobre już po krótkim treningu.
07:16
We just alloweddozwolony them to pickwybierać this up on theirich ownwłasny.
180
421000
2000
Pozwoliliśmy im tylko samodzielnie się tego nauczyć.
07:18
The questionpytanie is: is this anything like humanczłowiek moneypieniądze?
181
423000
2000
Pytanie brzmi: czy to przypomina ludzkie pieniądze?
07:20
Is this a marketrynek at all,
182
425000
2000
Czy to w ogóle jest rynek,
07:22
or did we just do a weirddziwne psychologist'spsychologa tricksztuczka
183
427000
2000
czy tylko dziwna psychologiczna sztuczka,
07:24
by gettinguzyskiwanie monkeysmałpy to do something,
184
429000
2000
by nakłonić małpy do czegoś
07:26
looking smartmądry, but not really beingistota smartmądry.
185
431000
2000
pozornie mądrego, ale w rzeczywistości nie.
07:28
And so we said, well, what would the monkeysmałpy spontaneouslyspontanicznie do
186
433000
3000
Więc pytaliśmy: co by małpy robiły spontanicznie,
07:31
if this was really theirich currencyWaluta, if they were really usingza pomocą it like moneypieniądze?
187
436000
3000
gdyby to była naprawdę ich waluta, gdyby naprawdę używały jej jak pieniędzy?
07:34
Well, you mightmoc actuallytak właściwie imaginewyobrażać sobie them
188
439000
2000
Cóż, rzeczywiście możecie wyobrazić je sobie,
07:36
to do all the kindsrodzaje of smartmądry things
189
441000
2000
że robią mnóstwo różnych mądrych rzeczy,
07:38
that humansludzie do when they startpoczątek exchangingWymiana moneypieniądze with eachkażdy other.
190
443000
3000
które robią ludzie, gdy zaczynają wymieniać się pieniędzmi między sobą.
07:41
You mightmoc have them startpoczątek payingintratny attentionUwaga to pricecena,
191
446000
3000
Możecie sprawić, że zaczną zwracać uwagę na cenę,
07:44
payingintratny attentionUwaga to how much they buykupować --
192
449000
2000
na to, ile kupują – pewnego rodzaju
07:46
sortsortować of keepingkonserwacja tracktor of theirich monkeymałpa tokentoken, as it were.
193
451000
3000
pilnowanie własnych żetonów, jak pieniędzy.
07:49
Do the monkeysmałpy do anything like this?
194
454000
2000
Czy małpy robią coś w tym stylu?
07:51
And so our monkeymałpa marketplacerynek was bornurodzony.
195
456000
3000
I tak narodził się małpi rynek.
07:54
The way this worksPrace is that
196
459000
2000
Działa to na takiej zasadzie, że
07:56
our monkeysmałpy normallynormalnie liverelacja na żywo in a kinduprzejmy of bigduży zooogród zoologiczny socialspołeczny enclosurezałącznik.
197
461000
3000
nasze małpy normalnie mieszkają na dużym zoologicznym wybiegu.
07:59
When they get a hankeringtęsknota for some treatstraktuje,
198
464000
2000
Kiedy nachodzi je ochota na smakołyki,
08:01
we actuallytak właściwie alloweddozwolony them a way out
199
466000
2000
pozwalamy im przejść z dużego wybiegu
08:03
into a little smallermniejszy enclosurezałącznik where they could enterwchodzić the marketrynek.
200
468000
2000
do małego, gdzie mogą pójść na targ.
08:05
UponPo enteringwstępowanie the marketrynek --
201
470000
2000
Po wejściu na targowisko –
08:07
it was actuallytak właściwie a much more funzabawa marketrynek for the monkeysmałpy than mostwiększość humanczłowiek marketsrynki
202
472000
2000
dla małp był to o wiele przyjemniejszy targ, niż ludzkie targi,
08:09
because, as the monkeysmałpy enteredweszła the doordrzwi of the marketrynek,
203
474000
3000
bo jak tylko małpy przekraczały próg targu,
08:12
a humanczłowiek would give them a bigduży walletPortfel fullpełny of tokenstokeny
204
477000
2000
człowiek dawał im wielki portfel pełen żetonów,
08:14
so they could actuallytak właściwie tradehandel the tokenstokeny
205
479000
2000
więc faktycznie mogły wymieniać żetony
08:16
with one of these two guys here --
206
481000
2000
u tych tutaj dwóch facetów –
08:18
two differentróżne possiblemożliwy humanczłowiek salesmensprzedawczyni
207
483000
2000
dwóch możliwych ludzkich handlarzy,
08:20
that they could actuallytak właściwie buykupować stuffrzeczy from.
208
485000
2000
od których mogli kupować towar.
08:22
The salesmensprzedawczyni were studentsstudenci from my lablaboratorium.
209
487000
2000
Handlarzami byli studenci z mojego laboratorium.
08:24
They dressedubrany differentlyróżnie; they were differentróżne people.
210
489000
2000
Inaczej się ubierali, byli innymi ludźmi.
08:26
And over time, they did basicallygruntownie the samepodobnie thing
211
491000
3000
I cały czas robili praktycznie jedną rzecz,
08:29
so the monkeysmałpy could learnuczyć się, you know,
212
494000
2000
więc małpy mogły się nauczyć,
08:31
who soldsprzedany what at what pricecena -- you know, who was reliableniezawodny, who wasn'tnie było, and so on.
213
496000
3000
kto co za ile sprzedawał – komu można zaufać, komu nie i tak dalej.
08:34
And you can see that eachkażdy of the experimentersbadaczy
214
499000
2000
Widzicie, że każdy z eksperymentatorów
08:36
is actuallytak właściwie holdingtrzymać up a little, yellowżółty foodjedzenie dishdanie.
215
501000
3000
trzyma mały żółty pojemnik z jedzeniem
08:39
and that's what the monkeymałpa can for a singlepojedynczy tokentoken.
216
504000
2000
i właśnie tyle małpa dostaje za jeden żeton.
08:41
So everything costskoszty one tokentoken,
217
506000
2000
Więc wszystko kosztuje jeden żeton,
08:43
but as you can see, sometimesczasami tokenstokeny buykupować more than othersinni,
218
508000
2000
ale jak widać, czasami za żeton można kupić więcej niż innym razem,
08:45
sometimesczasami more grapeswinogron than othersinni.
219
510000
2000
czasami więcej winogron niż innym razem.
08:47
So I'll showpokazać you a quickszybki videowideo of what this marketplacerynek actuallytak właściwie lookswygląda like.
220
512000
3000
Pokażę wam krótki film, jak taki targ właściwie wygląda.
08:50
Here'sTutaj jest a monkey-eye-viewmałpa eye-view. MonkeysMałpy are shorterkrótszy, so it's a little shortkrótki.
221
515000
3000
Oto widok z perspektywy małpy. Małpy są niższe, więc jest nieco niski.
08:53
But here'soto jest HoneyMiód.
222
518000
2000
A oto Honey.
08:55
She's waitingczekanie for the marketrynek to openotwarty a little impatientlyniecierpliwie.
223
520000
2000
Czeka dość niecierpliwie na otwarcie targu.
08:57
All of a suddennagły the marketrynek opensotwiera się. Here'sTutaj jest her choicewybór: one grapeswinogron or two grapeswinogron.
224
522000
3000
Nagle targ się otwiera. Ma wybór: jedno czy dwa winogrona.
09:00
You can see HoneyMiód, very good marketrynek economistekonomista,
225
525000
2000
Widzicie jaka z Honey świetna ekonomistka rynkowa,
09:02
goesidzie with the guy who givesdaje more.
226
527000
3000
wybiera faceta, który daje więcej.
09:05
She could teachnauczać our financialbudżetowy advisersdoradcy a fewkilka things or two.
227
530000
2000
Mogłaby nauczyć paru rzeczy naszych doradców finansowych.
09:07
So not just HoneyMiód,
228
532000
2000
Nie tylko Honey,
09:09
mostwiększość of the monkeysmałpy wentposzedł with guys who had more.
229
534000
3000
Większość małp wybierała facetów, którzy mieli więcej.
09:12
MostWiększość of the monkeysmałpy wentposzedł with guys who had better foodjedzenie.
230
537000
2000
Większość małp wybierała facetów, którzy mieli lepsze jedzenie.
09:14
When we introducedwprowadzony salesobroty, we saw the monkeysmałpy paidpłatny attentionUwaga to that.
231
539000
3000
Gdy wprowadziliśmy przeceny, małpy zwróciły na to uwagę.
09:17
They really caredpod opieką about theirich monkeymałpa tokentoken dollardolar.
232
542000
3000
Naprawdę troszczyły się o swojego małpiego żetonowego dolara.
09:20
The more surprisingzaskakujący thing was that when we collaboratedwspółpracował with economistsekonomiści
233
545000
3000
Bardziej zaskakujące okazało się, że gdy współpracując z ekonomistami
09:23
to actuallytak właściwie look at the monkeys'małpy datadane usingza pomocą economicgospodarczy toolsprzybory,
234
548000
3000
przyjrzeliśmy się małpim danym przy pomocy narzędzi ekonomicznych,
09:26
they basicallygruntownie matcheddopasowane, not just qualitativelyjakościowo,
235
551000
3000
pasowały, nie tylko jakościowo,
09:29
but quantitativelyilościowo with what we saw
236
554000
2000
ale i ilościowo, do tego, co robią
09:31
humansludzie doing in a realreal marketrynek.
237
556000
2000
ludzie na prawdziwym rynku.
09:33
So much so that, if you saw the monkeys'małpy numbersliczby,
238
558000
2000
Do tego stopnia, że jeśli widzielibyście liczby małp,
09:35
you couldn'tnie mógł tell whetherczy they cameoprawa ołowiana witrażu from a monkeymałpa or a humanczłowiek in the samepodobnie marketrynek.
239
560000
3000
nie bylibyście w stanie powiedzieć, czy pochodzą od małp, czy od ludzi na tym samym rynku.
09:38
And what we'dpoślubić really thought we'dpoślubić doneGotowe
240
563000
2000
I co uważaliśmy, że zrobiliśmy,
09:40
is like we'dpoślubić actuallytak właściwie introducedwprowadzony something
241
565000
2000
to, że własciwie wprowadziliśmy coś, co
09:42
that, at leastnajmniej for the monkeysmałpy and us,
242
567000
2000
przynajmniej dla małp i dla nas
09:44
worksPrace like a realreal financialbudżetowy currencyWaluta.
243
569000
2000
działa jak prawdziwa waluta.
09:46
QuestionPytanie is: do the monkeysmałpy startpoczątek messingMessing up in the samepodobnie wayssposoby we do?
244
571000
3000
Pytanie brzmi: czy małpy zaczną zawalać sprawę, jak my?
09:49
Well, we alreadyjuż saw anecdotallyAnecdotally a couplepara of signsznaki that they mightmoc.
245
574000
3000
Cóż, zauważyliśmy żartobliwie nieco oznak, które mogłyby na to wskazywać.
09:52
One thing we never saw in the monkeymałpa marketplacerynek
246
577000
2000
Czego nie widzieliśmy na małpim targu,
09:54
was any evidencedowód of savingoszczędność --
247
579000
2000
to dowody jakiegokolwiek oszczędzania –
09:56
you know, just like our ownwłasny speciesgatunki.
248
581000
2000
Wiecie, tak jak u naszego gatunku.
09:58
The monkeysmałpy enteredweszła the marketrynek, spentwydany theirich entireCały budgetbudżet
249
583000
2000
Małpy szły na targ, wydawały cały budżet,
10:00
and then wentposzedł back to everyonekażdy elsejeszcze.
250
585000
2000
a potem wracały do pozostałych.
10:02
The other thing we alsorównież spontaneouslyspontanicznie saw,
251
587000
2000
Dodatkowo mogliśmy zaobserwować,
10:04
embarrassinglyżenująco enoughdość,
252
589000
2000
ze sporym zażenowaniem,
10:06
is spontaneousspontaniczny evidencedowód of larcenykradzież.
253
591000
2000
spontaniczne przypadki kradzieży.
10:08
The monkeysmałpy would rip-offrip-off the tokenstokeny at everykażdy availabledostępny opportunityokazja --
254
593000
3000
Małpy przy każdej okazji wyrywały żetony z rąk –
10:11
from eachkażdy other, oftenczęsto from us --
255
596000
2000
innym małpom, często nam –
10:13
you know, things we didn't necessarilykoniecznie think we were introducingwprowadzanie,
256
598000
2000
wiecie, coś, co niekoniecznie chcieliśmy wprowadzić,
10:15
but things we spontaneouslyspontanicznie saw.
257
600000
2000
ale co spontanicznie zaobserwowaliśmy.
10:17
So we said, this lookswygląda badzły.
258
602000
2000
Stwierdziliśmy więc: jest źle.
10:19
Can we actuallytak właściwie see if the monkeysmałpy
259
604000
2000
Czy na pewno możemy stwierdzić,
10:21
are doing exactlydokładnie the samepodobnie dumbgłupi things as humansludzie do?
260
606000
3000
czy małpy robią dokładnie te same głupie rzeczy, co ludzie?
10:24
One possibilitymożliwość is just kinduprzejmy of let
261
609000
2000
Jedno rozwiązanie to po prostu
10:26
the monkeymałpa financialbudżetowy systemsystem playgrać out,
262
611000
2000
zostawić małpi system finansowy samemu sobie,
10:28
you know, see if they startpoczątek callingpowołanie us for bailoutsratunkowych in a fewkilka yearslat.
263
613000
2000
sprawdzić, czy za parę lat będą chciały od nas pomocy.
10:30
We were a little impatientniecierpliwy so we wanted
264
615000
2000
Byliśmy nieco niecierpliwi, więc chcieliśmy
10:32
to sortsortować of speedprędkość things up a bitkawałek.
265
617000
2000
wszystko nieco przyspieszyć.
10:34
So we said, let's actuallytak właściwie give the monkeysmałpy
266
619000
2000
Więc stwierdziliśmy: postawmy przed małpami
10:36
the samepodobnie kindsrodzaje of problemsproblemy
267
621000
2000
te same rodzaje problemów,
10:38
that humansludzie tendzmierzać to get wrongźle
268
623000
2000
z którymi ludzie sobie nie radzą
10:40
in certainpewny kindsrodzaje of economicgospodarczy challengeswyzwania,
269
625000
2000
w pewnych rodzajach wyzwań ekonomicznych
10:42
or certainpewny kindsrodzaje of economicgospodarczy experimentseksperymenty.
270
627000
2000
lub przy pewnego rodzaju ekonomicznych eksperymentach.
10:44
And so, sinceod the bestNajlepiej way to see how people go wrongźle
271
629000
3000
A więc najlepszym sposobem stwierdzenia, jak ludzie się mylą,
10:47
is to actuallytak właściwie do it yourselfsiebie,
272
632000
2000
jest właściwie zrobić to samemu.
10:49
I'm going to give you guys a quickszybki experimenteksperyment
273
634000
2000
Przeprowadzę z wami krótki eksperyment,
10:51
to sortsortować of watch your ownwłasny financialbudżetowy intuitionsintuicje in actionczynność.
274
636000
2000
by zaobserwować waszą intuicję finansową w akcji.
10:53
So imaginewyobrażać sobie that right now
275
638000
2000
Wyobraźcie sobie teraz,
10:55
I handedprzekazany eachkażdy and everykażdy one of you
276
640000
2000
że dałam każdemu z was
10:57
a thousandtysiąc U.S. dollarsdolarów -- so 10 crispCrisp hundredsto dollardolar billsrachunki.
277
642000
3000
po tysiąc dolarów – dziesięć szeleszczących stówek.
11:00
Take these, put it in your walletPortfel
278
645000
2000
Weźcie je, włóżcie do portfela
11:02
and spendwydać a seconddruga thinkingmyślący about what you're going to do with it.
279
647000
2000
i pomyślcie przez chwilę, co z nimi zrobicie.
11:04
Because it's yoursTwój now; you can buykupować whatevercokolwiek you want.
280
649000
2000
Bo są teraz wasze, możecie kupić, co chcecie.
11:06
DonateDarować it, take it, and so on.
281
651000
2000
Podarować, wziąć i tak dalej.
11:08
SoundsDźwięki great, but you get one more choicewybór to earnZarabiaj a little bitkawałek more moneypieniądze.
282
653000
3000
Brzmi świetnie, ale dam wam jeszcze jedną okazję na zarobienie pieniędzy.
11:11
And here'soto jest your choicewybór: you can eitherzarówno be riskyryzykowny,
283
656000
3000
Macie taki wybór: albo zaryzykujecie,
11:14
in whichktóry casewalizka I'm going to fliptrzepnięcie one of these monkeymałpa tokenstokeny.
284
659000
2000
a wtedy rzucę jedną z tych małpich monet.
11:16
If it comespochodzi up headsgłowy, you're going to get a thousandtysiąc dollarsdolarów more.
285
661000
2000
Jak wypadnie orzeł, dostaniecie kolejny tysiąc dolarów.
11:18
If it comespochodzi up tailsogony, you get nothing.
286
663000
2000
Jak wypadnie reszka, nie dostajecie nic.
11:20
So it's a chanceszansa to get more, but it's prettyładny riskyryzykowny.
287
665000
3000
Więc macie szansę dostać więcej, ale jest spore ryzyko.
11:23
Your other optionopcja is a bitkawałek safebezpieczny. Your just going to get some moneypieniądze for sure.
288
668000
3000
Drugi wariant jest bezpieczniejszy. Dostaniecie pewną kwotę gwarantowaną.
11:26
I'm just going to give you 500 bucksdolców.
289
671000
2000
Po prostu dam wam 500 dolarów.
11:28
You can stickkij it in your walletPortfel and use it immediatelynatychmiast.
290
673000
3000
Możecie schować je do portfela i zaraz wydać.
11:31
So see what your intuitionintuicja is here.
291
676000
2000
Więc zobaczmy, jaka jest w tym przypadku wasza intuicja.
11:33
MostWiększość people actuallytak właściwie go with the play-it-safePlay-it kasa optionopcja.
292
678000
3000
Większość ludzi wybiera wariant bezpieczny.
11:36
MostWiększość people say, why should I be riskyryzykowny when I can get 1,500 dollarsdolarów for sure?
293
681000
3000
Większość ludzi mówi: czemu mam ryzykować, jak mogę dostać 1500 na pewniaka?
11:39
This seemswydaje się like a good betZakład. I'm going to go with that.
294
684000
2000
Wygląda na dobry zakład. Mam zamiar go zrobić.
11:41
You mightmoc say, ehEH, that's not really irrationalirracjonalny.
295
686000
2000
Możecie rzec: to nie jest naprawdę nierozsądne.
11:43
People are a little risk-averseboi się ryzyka. So what?
296
688000
2000
Ludzie niezbyt lubią ryzyko. I co z tego?
11:45
Well, the "so what?" comespochodzi when startpoczątek thinkingmyślący
297
690000
2000
Cóż, zobaczymy," co z tego", gdy zaczniemy
11:47
about the samepodobnie problemproblem
298
692000
2000
rozważać ten sam problem,
11:49
setzestaw up just a little bitkawałek differentlyróżnie.
299
694000
2000
ale nieco inaczej sformułowany.
11:51
So now imaginewyobrażać sobie that I give eachkażdy and everykażdy one of you
300
696000
2000
Wyobraźcie sobie teraz, że daję każdemu z was
11:53
2,000 dollarsdolarów -- 20 crispCrisp hundredsto dollardolar billsrachunki.
301
698000
3000
2000 dolarów – 20 szeleszczących stówek.
11:56
Now you can buykupować doublepodwójnie to stuffrzeczy you were going to get before.
302
701000
2000
Możecie teraz kupić dwa razy więcej rzeczy niż poprzednio.
11:58
Think about how you'dty byś feel stickingklejący it in your walletPortfel.
303
703000
2000
Pomyślcie, jakbyście się czuli wkładając te pieniądze do portfela.
12:00
And now imaginewyobrażać sobie that I have you make anotherinne choicewybór
304
705000
2000
I teraz wyobraźcie sobie, że zmuszam was do innej decyzji.
12:02
But this time, it's a little bitkawałek worsegorzej.
305
707000
2000
Ale tym razem będzie nieco gorzej.
12:04
Now, you're going to be decidingdecydowanie how you're going to losestracić moneypieniądze,
306
709000
3000
Teraz będziecie decydować, jak stracicie pieniądze,
12:07
but you're going to get the samepodobnie choicewybór.
307
712000
2000
ale będziecie dokonywać tego samego wyboru.
12:09
You can eitherzarówno take a riskyryzykowny lossutrata --
308
714000
2000
Albo wybierzecie ryzykowną stratę –
12:11
so I'll fliptrzepnięcie a coinmoneta. If it comespochodzi up headsgłowy, you're going to actuallytak właściwie losestracić a lot.
309
716000
3000
rzucę monetą. Jak wypadnie orzeł, to tracicie naprawdę dużo.
12:14
If it comespochodzi up tailsogony, you losestracić nothing, you're fine, get to keep the wholecały thing --
310
719000
3000
Jeśli wypadnie reszka, nie tracicie nic, w porządku, zatrzymujecie całość –
12:17
or you could playgrać it safebezpieczny, whichktóry meansznaczy you have to reachdosięgnąć back into your walletPortfel
311
722000
3000
albo wybierzecie wariant bezpieczny, co znaczy, że sięgniecie do portfela
12:20
and give me fivepięć of those $100 billsrachunki, for certainpewny.
312
725000
3000
i dacie mi pięć z tych studolarowych banknotów.
12:23
And I'm seeingwidzenie a lot of furrowedzmarszczył browsbrwi out there.
313
728000
3000
Widzę u was sporo zmarszczonych czół.
12:26
So maybe you're havingmający the samepodobnie intuitionsintuicje
314
731000
2000
Więc pewnie macie taką samą intuicję,
12:28
as the subjectstematy that were actuallytak właściwie testedprzetestowany in this,
315
733000
2000
jak ci, którzy faktycznie byli tak testowani,
12:30
whichktóry is when presentedprzedstawione with these optionsopcje,
316
735000
2000
czyli że mając do wyboru takie dwie opcje,
12:32
people don't choosewybierać to playgrać it safebezpieczny.
317
737000
2000
ludzie nie wybierają tej bezpiecznej.
12:34
They actuallytak właściwie tendzmierzać to go a little riskyryzykowny.
318
739000
2000
Wolą tak naprawdę nieco zaryzykować.
12:36
The reasonpowód this is irrationalirracjonalny is that we'vemamy givendany people in bothobie situationssytuacje
319
741000
3000
Jest to nieracjonalne, bo w obydwu przypadkach dajemy ludziom
12:39
the samepodobnie choicewybór.
320
744000
2000
taki sam wybór.
12:41
It's a 50/50 shotstrzał of a thousandtysiąc or 2,000,
321
746000
3000
Albo równe szanse na tysiąc lub dwa tysiące,
12:44
or just 1,500 dollarsdolarów with certaintypewność.
322
749000
2000
albo gwarantowane 1500 dolarów.
12:46
But people'sludzie intuitionsintuicje about how much riskryzyko to take
323
751000
3000
Ale ludzka intuicja o tym ile podjąć ryzyka
12:49
variesróżni się od dependingw zależności on where they startedRozpoczęty with.
324
754000
2000
zależy od tego, od czego zaczynali.
12:51
So what's going on?
325
756000
2000
Więc o co w tym chodzi?
12:53
Well, it turnsskręca out that this seemswydaje się to be the resultwynik
326
758000
2000
Cóż, okazuje się, że wydaje się to być skutkiem
12:55
of at leastnajmniej two biasesuprzedzenia that we have at the psychologicalpsychologiczny levelpoziom.
327
760000
3000
co najmniej dwu uprzedzeń, które mamy na poziomie psychologicznym.
12:58
One is that we have a really hardciężko time thinkingmyślący in absoluteabsolutny termswarunki.
328
763000
3000
Raz, naprawdę trudno jest nam myśleć w pojęciach absolutnych.
13:01
You really have to do work to figurepostać out,
329
766000
2000
Trzeba nieco się natrudzić, by zrozumieć,
13:03
well, one option'sopcji a thousandtysiąc, 2,000;
330
768000
2000
że jeden wariant to 1000 lub 2000,
13:05
one is 1,500.
331
770000
2000
a drugi to 1500.
13:07
InsteadZamiast tego, we find it very easyłatwo to think in very relativekrewny termswarunki
332
772000
3000
Zamiast tego łatwiej nam myśleć w kategoriach względnych,
13:10
as optionsopcje changezmiana from one time to anotherinne.
333
775000
3000
gdy warianty się zmieniają.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessmniej."
334
778000
3000
Więc myślimy coś w stylu: „Och, dostanę więcej” lub „Och, dostanę mniej”.
13:16
This is all well and good, exceptz wyjątkiem that
335
781000
2000
Wszystko byłoby w porządku, poza tym,
13:18
changeszmiany in differentróżne directionswskazówki
336
783000
2000
że zmiany w różnych kierunkach
13:20
actuallytak właściwie effectefekt whetherczy or not we think
337
785000
2000
faktycznie wpływają na to, czy uznajemy,
13:22
optionsopcje are good or not.
338
787000
2000
czy wybór jest dobry czy zły.
13:24
And this leadswskazówki to the seconddruga biasstronniczość,
339
789000
2000
A to prowadzi nas do drugiego uprzedzenia,
13:26
whichktóry economistsekonomiści have callednazywa lossutrata aversionniechęć do.
340
791000
2000
które ekonomiści nazywają awersją w stosunku do strat.
13:28
The ideapomysł is that we really hatenienawidzić it when things go into the redczerwony.
341
793000
3000
Chodzi o to, że naprawdę nie znosimy być na minusie.
13:31
We really hatenienawidzić it when we have to losestracić out on some moneypieniądze.
342
796000
2000
Nienawidzimy konieczności stracenia pieniędzy.
13:33
And this meansznaczy that sometimesczasami we'lldobrze actuallytak właściwie
343
798000
2000
A to znaczy, że czasami faktycznie zmieniamy
13:35
switchprzełącznik our preferencesPreferencje to avoiduniknąć this.
344
800000
2000
nasze preferencje, by tego uniknąć.
13:37
What you saw in that last scenarioscenariusz is that
345
802000
2000
W tym ostatnim przykładzie mogliście zobaczyć,
13:39
subjectstematy get riskyryzykowny
346
804000
2000
że badani ryzykują,
13:41
because they want the smallmały shotstrzał that there won'tprzyzwyczajenie be any lossutrata.
347
806000
3000
bo chcą mieć szanse na to, że nie poniosą żadnej straty.
13:44
That meansznaczy when we're in a riskryzyko mindsetsposób myślenia --
348
809000
2000
To znaczy, że kiedy myślimy o ryzyku –
13:46
excusepretekst me, when we're in a lossutrata mindsetsposób myślenia,
349
811000
2000
przepraszam, kiedy myślimy o stracie –
13:48
we actuallytak właściwie becomestają się more riskyryzykowny,
350
813000
2000
stajemy się bardziej skłonni do ryzyka,
13:50
whichktóry can actuallytak właściwie be really worryingfrasobliwy.
351
815000
2000
co może być naprawdę niepokojące.
13:52
These kindsrodzaje of things playgrać out in lots of badzły wayssposoby in humansludzie.
352
817000
3000
Te rzeczy często wychodzą ludziom na złe.
13:55
They're why stockZbiory investorsinwestorzy holdutrzymać ontona losingprzegrywający stocksdyby longerdłużej --
353
820000
3000
To dlatego inwestujący na giełdzie przetrzymują akcje tracące na wartości–
13:58
because they're evaluatingoceny them in relativekrewny termswarunki.
354
823000
2000
bo oceniają ich wartość w kategoriach względnych.
14:00
They're why people in the housingmieszkaniowy marketrynek refusedodmówił to sellSprzedać theirich housedom --
355
825000
2000
To dlatego ludzie na rynku nieruchomości nie chcieli sprzedawać domu –
14:02
because they don't want to sellSprzedać at a lossutrata.
356
827000
2000
bo nie chcieli sprzedać ze stratą.
14:04
The questionpytanie we were interestedzainteresowany in
357
829000
2000
To, co nas interesuje,
14:06
is whetherczy the monkeysmałpy showpokazać the samepodobnie biasesuprzedzenia.
358
831000
2000
to czy małpy mają podobne uprzedzenia.
14:08
If we setzestaw up those samepodobnie scenariosscenariusze in our little monkeymałpa marketrynek,
359
833000
3000
Czy jeśli zaaranżujemy takie same sytuacje na małpim targu,
14:11
would they do the samepodobnie thing as people?
360
836000
2000
to zrobią one to samo, co ludzie?
14:13
And so this is what we did, we gavedał the monkeysmałpy choiceswybory
361
838000
2000
I to właśnie zrobiliśmy, daliśmy małpom wybór
14:15
betweenpomiędzy guys who were safebezpieczny -- they did the samepodobnie thing everykażdy time --
362
840000
3000
między bezpiecznymi sprzedawcami – zawsze robiącymi to samo –
14:18
or guys who were riskyryzykowny --
363
843000
2000
a ryzykownymi –
14:20
they did things differentlyróżnie halfpół the time.
364
845000
2000
zachowującymi się raz tak, a raz tak.
14:22
And then we gavedał them optionsopcje that were bonusesbonusy --
365
847000
2000
Daliśmy im opcje, które były bonusami –
14:24
like you guys did in the first scenarioscenariusz --
366
849000
2000
tak jak wam w pierwszym przypadku –
14:26
so they actuallytak właściwie have a chanceszansa more,
367
851000
2000
więc miały szansę na więcej,
14:28
or piecessztuk where they were experiencingdoświadczanie lossesstraty --
368
853000
3000
lub takie, przy których ponosiły stratę –
14:31
they actuallytak właściwie thought they were going to get more than they really got.
369
856000
2000
myślały, że dostaną więcej, niż w rzeczywistości dostawały.
14:33
And so this is what this lookswygląda like.
370
858000
2000
A wygląda to właśnie tak.
14:35
We introducedwprowadzony the monkeysmałpy to two newNowy monkeymałpa salesmensprzedawczyni.
371
860000
2000
Przedstawiliśmy małpom dwóch nowych sprzedawców.
14:37
The guy on the left and right bothobie startpoczątek with one piecekawałek of grapewinogron,
372
862000
2000
Obaj faceci zaczynają od jednego winogrona,
14:39
so it lookswygląda prettyładny good.
373
864000
2000
więc nie jest źle.
14:41
But they're going to give the monkeysmałpy bonusesbonusy.
374
866000
2000
Ale oni będą dawać małpom bonusy.
14:43
The guy on the left is a safebezpieczny bonusBonus.
375
868000
2000
Ten po lewej daje gwarantowane bonusy.
14:45
All the time, he addsdodaje one, to give the monkeysmałpy two.
376
870000
3000
Zawsze dodaje jedno, a więc daje małpom dwa.
14:48
The guy on the right is actuallytak właściwie a riskyryzykowny bonusBonus.
377
873000
2000
Z kolei ten po prawej ma bonusy ryzykowne.
14:50
SometimesCzasami the monkeysmałpy get no bonusBonus -- so this is a bonusBonus of zerozero.
378
875000
3000
Czasem małpy nie dostają bonusu – czyli bonus wynosi zero.
14:53
SometimesCzasami the monkeysmałpy get two extradodatkowy.
379
878000
3000
Czasem małpy dostają dwa gratis.
14:56
For a bigduży bonusBonus, now they get threetrzy.
380
881000
2000
Jako duży bonus dostają łącznie trzy.
14:58
But this is the samepodobnie choicewybór you guys just facedw obliczu.
381
883000
2000
Ale to jest ten sam wybór, przed którym byliście wy.
15:00
Do the monkeysmałpy actuallytak właściwie want to playgrać it safebezpieczny
382
885000
3000
Czy małpy właściwie wolą grać bezpiecznie
15:03
and then go with the guy who'skto jest going to do the samepodobnie thing on everykażdy trialpróba,
383
888000
2000
i kupować od faceta, który przykażdej próbie robi to samo,
15:05
or do they want to be riskyryzykowny
384
890000
2000
czy chcą zaryzykować
15:07
and try to get a riskyryzykowny, but bigduży, bonusBonus,
385
892000
2000
i spróbować dostać ryzykowny, ale duży bonus,
15:09
but riskryzyko the possibilitymożliwość of gettinguzyskiwanie no bonusBonus.
386
894000
2000
licząc się z ryzykiem niedostania żadnego.
15:11
People here playedgrał it safebezpieczny.
387
896000
2000
Tutaj, ludzie zagrali zachowawczo.
15:13
TurnsWłącza out, the monkeysmałpy playgrać it safebezpieczny too.
388
898000
2000
Okazało się, że małpy również.
15:15
QualitativelyJakościowo and quantitativelyilościowo,
389
900000
2000
W sensie ilościowym i jakościowym
15:17
they choosewybierać exactlydokładnie the samepodobnie way as people,
390
902000
2000
wybierały dokładnie tak samo jak ludzie
15:19
when testedprzetestowany in the samepodobnie thing.
391
904000
2000
badani pod tym samym kątem.
15:21
You mightmoc say, well, maybe the monkeysmałpy just don't like riskryzyko.
392
906000
2000
Powiecie pewnie, że małpy po prostu nie lubią ryzyka.
15:23
Maybe we should see how they do with lossesstraty.
393
908000
2000
Może zobaczmy, jak radzą sobie w obliczu strat.
15:25
And so we ranpobiegł a seconddruga versionwersja of this.
394
910000
2000
Przeprowadziliśmy drugą wersję eksperymentu.
15:27
Now, the monkeysmałpy meetspotykać się two guys
395
912000
2000
Teraz małpy poznają dwóch facetów,
15:29
who aren'tnie są givingdający them bonusesbonusy;
396
914000
2000
którzy nie będą dawać bonusów.
15:31
they're actuallytak właściwie givingdający them lessmniej than they expectoczekiwać.
397
916000
2000
W rzeczywistości będą im dawać mniej, niż się spodziewają.
15:33
So they look like they're startingstartowy out with a bigduży amountilość.
398
918000
2000
Wyglądają, jakby zaczynali ze sporą porcją.
15:35
These are threetrzy grapeswinogron; the monkey'sMonkey's really psychedpsychicznie for this.
399
920000
2000
Trzy winogrona, małpa ma na nie wielką ochotę.
15:37
But now they learnuczyć się these guys are going to give them lessmniej than they expectoczekiwać.
400
922000
3000
Ale teraz dowiadują się, że oni dadzą im mniej, niż się spodziewały.
15:40
They guy on the left is a safebezpieczny lossutrata.
401
925000
2000
Ten po lewej powoduje gwarantowane straty.
15:42
EveryKażdy singlepojedynczy time, he's going to take one of these away
402
927000
3000
Za każdym razem zabiera jedno z winogron
15:45
and give the monkeysmałpy just two.
403
930000
2000
i daje małpie tylko dwa.
15:47
the guy on the right is the riskyryzykowny lossutrata.
404
932000
2000
Ten po prawej powoduje ryzykowne straty.
15:49
SometimesCzasami he givesdaje no lossutrata, so the monkeysmałpy are really psychedpsychicznie,
405
934000
3000
Czasem nie zabiera nic, więc małpy są naprawdę na to nastawione,
15:52
but sometimesczasami he actuallytak właściwie givesdaje a bigduży lossutrata,
406
937000
2000
ale czasem powoduje dużą stratę,
15:54
takingnabierający away two to give the monkeysmałpy only one.
407
939000
2000
zabiera dwa, a daje małpie tylko jedno winogrono.
15:56
And so what do the monkeysmałpy do?
408
941000
2000
A co robią małpy?
15:58
Again, samepodobnie choicewybór; they can playgrać it safebezpieczny
409
943000
2000
Znowu, ten sam wybór: mogą grać zachowawczo,
16:00
for always gettinguzyskiwanie two grapeswinogron everykażdy singlepojedynczy time,
410
945000
3000
otrzymując za każdym razem dwa winogrona,
16:03
or they can take a riskyryzykowny betZakład and choosewybierać betweenpomiędzy one and threetrzy.
411
948000
3000
albo mogą zaryzykować i wybrać opcję "jedno albo trzy".
16:06
The remarkableznakomity thing to us is that, when you give monkeysmałpy this choicewybór,
412
951000
3000
Zadziwiające, że kiedy postawisz małpy przed takim wyborem,
16:09
they do the samepodobnie irrationalirracjonalny thing that people do.
413
954000
2000
robią tę samą nieracjonalną rzecz, co ludzie.
16:11
They actuallytak właściwie becomestają się more riskyryzykowny
414
956000
2000
Stają się bardziej skłonne do ryzyka,
16:13
dependingw zależności on how the experimentersbadaczy startedRozpoczęty.
415
958000
3000
w zależności od tego, jaka była początkowa oferta.
16:16
This is crazyzwariowany because it suggestswskazuje that the monkeysmałpy too
416
961000
2000
To szaleństwo, bo sugeruje, że małpy też
16:18
are evaluatingoceny things in relativekrewny termswarunki
417
963000
2000
oceniają rzeczy w kategoriach względnych,
16:20
and actuallytak właściwie treatingleczenie lossesstraty differentlyróżnie than they treatleczyć gainszyski.
418
965000
3000
a straty faktycznie traktują inaczej niż zyski.
16:23
So what does all of this mean?
419
968000
2000
Więc co to wszystko znaczy?
16:25
Well, what we'vemamy shownpokazane is that, first of all,
420
970000
2000
Cóż, po pierwsze, to pokazaliśmy,
16:27
we can actuallytak właściwie give the monkeysmałpy a financialbudżetowy currencyWaluta,
421
972000
2000
że faktycznie możemy dać małpom pieniądze,
16:29
and they do very similarpodobny things with it.
422
974000
2000
a one robią z nimi bardzo podobne rzeczy, jak my.
16:31
They do some of the smartmądry things we do,
423
976000
2000
Robią pewne te same mądre rzeczy,
16:33
some of the kinduprzejmy of not so nicemiły things we do,
424
978000
2000
pewne te same nie bardzo miłe rzeczy,
16:35
like stealkraść it and so on.
425
980000
2000
jak kradzież i tak dalej.
16:37
But they alsorównież do some of the irrationalirracjonalny things we do.
426
982000
2000
Ale robią też pewne nieracjonalne rzeczy, które my też robimy.
16:39
They systematicallysystematycznie get things wrongźle
427
984000
2000
Regularnie popełniają błędy
16:41
and in the samepodobnie wayssposoby that we do.
428
986000
2000
i to w ten sam sposób, jak my.
16:43
This is the first take-homezabrać do domu messagewiadomość of the Talk,
429
988000
2000
To jest pierwsza rzecz do wyniesienia z tego wystąpienia,
16:45
whichktóry is that if you saw the beginningpoczątek of this and you thought,
430
990000
2000
że jeśli zobaczyliście początek prezentacji i pomyśleliście:
16:47
oh, I'm totallycałkowicie going to go home and hirezatrudnić a capuchinKapucynów monkeymałpa financialbudżetowy adviserDoradca.
431
992000
2000
„Och, jak wrócę do domu, to koniecznie zatrudnię kapucynkę jako doradcę finansowego.
16:49
They're way cuterładniejsza than the one at ... you know --
432
994000
2000
Są ładniejsze niż ci w... wiecie...”
16:51
Don't do that; they're probablyprawdopodobnie going to be just as dumbgłupi
433
996000
2000
Nie róbcie tego, będą najprawdopodobniej równie głupie,
16:53
as the humanczłowiek one you alreadyjuż have.
434
998000
3000
jak ludzie, których już zatrudniacie.
16:56
So, you know, a little badzły -- Sorry, sorry, sorry.
435
1001000
2000
Więc wiecie, niestety – przykro mi.
16:58
A little badzły for monkeymałpa investorsinwestorzy.
436
1003000
2000
Szkoda dla małpich inwestorów.
17:00
But of coursekurs, you know, the reasonpowód you're laughingśmiać się is badzły for humansludzie too.
437
1005000
3000
Oczywiście, wiecie, to, z czego się śmiejecie, źle świadczy też o ludziach.
17:03
Because we'vemamy answeredodpowiedział the questionpytanie we startedRozpoczęty out with.
438
1008000
3000
Ponieważ odpowiedzieliśmy na nasze początkowe pytanie.
17:06
We wanted to know where these kindsrodzaje of errorsbłędy cameoprawa ołowiana witrażu from.
439
1011000
2000
Chcieliśmy wiedzieć, skąd się bierze ten rodzaj błędów.
17:08
And we startedRozpoczęty with the hopenadzieja that maybe we can
440
1013000
2000
I zaczęliśmy z nadzieją, że że może uda nam się
17:10
sortsortować of tweakuszczypnąć our financialbudżetowy institutionsinstytucje,
441
1015000
2000
poprawić nieco nasze instytucje finansowe,
17:12
tweakuszczypnąć our technologiestechnologie to make ourselvesmy sami better.
442
1017000
3000
poprawić technologię, by było nam lepiej.
17:15
But what we'vemamy learnuczyć się is that these biasesuprzedzenia mightmoc be a deepergłębiej partczęść of us than that.
443
1020000
3000
Ale dowiedzieliśmy się, że te uprzedzenia mogą tkwić w nas znacznie głębiej.
17:18
In factfakt, they mightmoc be duez powodu to the very natureNatura
444
1023000
2000
Właściwie to może wynikać z samej natury
17:20
of our evolutionaryewolucyjny historyhistoria.
445
1025000
2000
naszej historii ewolucyjnej.
17:22
You know, maybe it's not just humansludzie
446
1027000
2000
Wiecie, może to nie tylko ludzie
17:24
at the right sidebok of this chainłańcuch that's dunceygłupota.
447
1029000
2000
po prawej stronie tego łańcucha są durniami.
17:26
Maybe it's sortsortować of dunceygłupota all the way back.
448
1031000
2000
Może ta głupota tkwi w nas od samego początku.
17:28
And this, if we believe the capuchinKapucynów monkeymałpa resultswyniki,
449
1033000
3000
A to, o ile wierzymy wynikom kapucynek
17:31
meansznaczy that these dunceygłupota strategiesstrategie
450
1036000
2000
znaczy, że te durne strategie
17:33
mightmoc be 35 millionmilion yearslat oldstary.
451
1038000
2000
mogą mieć 35 milionów lat.
17:35
That's a long time for a strategystrategia
452
1040000
2000
To sporo czasu, by strategia
17:37
to potentiallypotencjalnie get changedzmienione around -- really, really oldstary.
453
1042000
3000
mogła się zmienić – naprawdę, naprawdę dużo.
17:40
What do we know about other oldstary strategiesstrategie like this?
454
1045000
2000
Co wiemy o innych takich starych strategiach?
17:42
Well, one thing we know is that they tendzmierzać to be really hardciężko to overcomeprzezwyciężać.
455
1047000
3000
Cóż, jedno co wiemy to to, że bywają one niezwykle trudne do przezwyciężenia.
17:45
You know, think of our evolutionaryewolucyjny predilectionszczególne upodobanie
456
1050000
2000
Wiecie, pomyślcie o naszej ewolucyjnej skłonności
17:47
for eatingjedzenie sweetSłodkie things, fattytłuszczowych things like cheesecakeSernik.
457
1052000
3000
do jedzenia słodkich, tłustych rzeczy, jak sernik.
17:50
You can't just shutzamknąć that off.
458
1055000
2000
Nie można z tym po prostu skończyć.
17:52
You can't just look at the dessertdeser cartwózek as say, "No, no, no. That lookswygląda disgustingobrzydliwy to me."
459
1057000
3000
Nie można spojrzeć na wózek z deserami i powiedzieć: „Nie, nie. To wygląda obrzydliwe.”
17:55
We're just builtwybudowany differentlyróżnie.
460
1060000
2000
Jesteśmy inaczej skonstruowani.
17:57
We're going to perceivepostrzegają it as a good thing to go after.
461
1062000
2000
Będziemy uważać to za coś wartego podążania.
17:59
My guessodgadnąć is that the samepodobnie thing is going to be trueprawdziwe
462
1064000
2000
Zgaduję, że to samo okaże się prawdą, jeśli chodzi
18:01
when humansludzie are perceivingpostrzegania
463
1066000
2000
o ludzkie postrzeganie
18:03
differentróżne financialbudżetowy decisionsdecyzje.
464
1068000
2000
różnych decyzji finansowych.
18:05
When you're watchingoglądanie your stocksdyby plummetpion into the redczerwony,
465
1070000
2000
Gdy widzisz, że twoje akcje lecą na łeb na szyję,
18:07
when you're watchingoglądanie your housedom pricecena go down,
466
1072000
2000
kiedy widzisz, że cena twojego domu spada,
18:09
you're not going to be ablezdolny to see that
467
1074000
2000
nie będziesz mógł patrzeć na to inaczej,
18:11
in anything but oldstary evolutionaryewolucyjny termswarunki.
468
1076000
2000
niż w starych ewolucyjnych kategoriach.
18:13
This meansznaczy that the biasesuprzedzenia
469
1078000
2000
To znaczy, że uprzedzenia,
18:15
that leadprowadzić investorsinwestorzy to do badlyźle,
470
1080000
2000
które skłaniają inwerstorów do pomyłek,
18:17
that leadprowadzić to the foreclosurewykluczenie crisiskryzys
471
1082000
2000
które prowadzą do kryzysu niewypłacalności,
18:19
are going to be really hardciężko to overcomeprzezwyciężać.
472
1084000
2000
będą naprawdę trudne do przezwyciężenia.
18:21
So that's the badzły newsAktualności. The questionpytanie is: is there any good newsAktualności?
473
1086000
2000
To więc jest zła wiadomość. Pytanie: czy jest jakaś dobra?
18:23
I'm supposeddomniemany to be up here tellingwymowny you the good newsAktualności.
474
1088000
2000
Miałam być tu, by przekazywać wam dobre wiadomości.
18:25
Well, the good newsAktualności, I think,
475
1090000
2000
Dobrą wiadomością jest to, jak sądzę,
18:27
is what I startedRozpoczęty with at the beginningpoczątek of the Talk,
476
1092000
2000
czym zaczęłam swoje wystąpienie,
18:29
whichktóry is that humansludzie are not only smartmądry;
477
1094000
2000
że ludzie są nie tylko mądrzy,
18:31
we're really inspirationallyInspirationally smartmądry
478
1096000
2000
jesteśmy inspirująco mądrzy
18:33
to the restodpoczynek of the animalszwierzęta in the biologicalbiologiczny kingdomKrólestwo.
479
1098000
3000
dla całej reszty zwierząt w królestwie natury.
18:36
We're so good at overcomingprzezwyciężenie our biologicalbiologiczny limitationsograniczenia --
480
1101000
3000
Jesteśmy tak dobrzy w przezwyciężaniu naszych biologicznych ograniczeń –
18:39
you know, I flewlatał over here in an airplanesamolot.
481
1104000
2000
wiecie, przyleciałam tutaj samolotem.
18:41
I didn't have to try to flapklapka my wingsskrzydełka.
482
1106000
2000
Nie musiałam machać skrzydłami.
18:43
I'm wearingma na sobie contactkontakt lensessoczewki now so that I can see all of you.
483
1108000
3000
Noszę soczewki kontaktowe, dzięki czemu widzę was wszystkich.
18:46
I don't have to relypolegać on my ownwłasny near-sightednessNear-sightedness.
484
1111000
3000
Nie muszę ulegać własnej krótkowzroczności.
18:49
We actuallytak właściwie have all of these casesprzypadki
485
1114000
2000
Istnieje mnóstwo przypadków,
18:51
where we overcomeprzezwyciężać our biologicalbiologiczny limitationsograniczenia
486
1116000
3000
gdzie przezwyciężamy nasze biologiczne ograniczenia
18:54
throughprzez technologytechnologia and other meansznaczy, seeminglypozornie prettyładny easilyz łatwością.
487
1119000
3000
technologią i innymi metodami; wygląda na to, że dość łatwo.
18:57
But we have to recognizerozpoznać that we have those limitationsograniczenia.
488
1122000
3000
Ale musimy też przyznać, że mamy te ograniczenia.
19:00
And here'soto jest the rubRUB.
489
1125000
2000
I to jest przeszkoda.
19:02
It was CamusCamus who oncepewnego razu said that, "Man is the only speciesgatunki
490
1127000
2000
Camus powiedział kiedyś: „Człowiek to jedyny gatunek,
19:04
who refusesodmawia to be what he really is."
491
1129000
3000
który odmawia bycia tym, czym w rzeczywistości jest”.
19:07
But the ironyironia is that
492
1132000
2000
A ironia jest w tym,
19:09
it mightmoc only be in recognizingrozpoznawanie our limitationsograniczenia
493
1134000
2000
że tylko poprzez przyznanie się do swoich ograniczeń
19:11
that we can really actuallytak właściwie overcomeprzezwyciężać them.
494
1136000
2000
zdołamy je tak naprawdę przezwyciężyć.
19:13
The hopenadzieja is that you all will think about your limitationsograniczenia,
495
1138000
3000
Mam nadzieję, że pomyślicie o swoich ograniczeniach,
19:16
not necessarilykoniecznie as unovercomablezaakceptujecie,
496
1141000
3000
nie koniecznie jako nie do pokonania,
19:19
but to recognizerozpoznać them, acceptzaakceptować them
497
1144000
2000
ale rozpoznacie je, zaakceptujecie
19:21
and then use the worldświat of designprojekt to actuallytak właściwie figurepostać them out.
498
1146000
3000
i użyjecie świata projektu, by je w końcu zrozumieć.
19:24
That mightmoc be the only way that we will really be ablezdolny
499
1149000
3000
To może być jedyny sposób, w jaki będziemy mogli
19:27
to achieveosiągać our ownwłasny humanczłowiek potentialpotencjał
500
1152000
2000
osiągnąć nasz własny ludzki potencjał
19:29
and really be the nobleszlachetny speciesgatunki we hopenadzieja to all be.
501
1154000
3000
i naprawdę staniemy się szlachetni tak, jak pragniemy.
19:32
Thank you.
502
1157000
2000
Dziękuję.
19:34
(ApplauseAplauz)
503
1159000
5000
(Oklaski)
Translated by Karol Stasiak
Reviewed by Anna Heintze

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com