ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

Лори Сантос: Маймунска икономика, ирационална като нашата

Filmed:
1,506,660 views

Лори Сантос търси корените на човешката ирационалност, гледайки начина по който нашите предци-примати вземат решения. Серия умни експерименти в "маймуноикономиката" показват, че някои от глупавите избори, които правим, ги правят и маймуните.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startначало my talk todayднес with two observationsнаблюдения
0
2000
2000
Искам да започна лекцията си днес с две наблюдения
00:19
about the humanчовек speciesвид.
1
4000
2000
за човешкият вид.
00:21
The first observationнаблюдение is something that you mightбиха могли, може think is quiteсъвсем obviousочевиден,
2
6000
3000
Първото наблюдение е нещо, което можете да помислите, че е доста очевидно,
00:24
and that's that our speciesвид, HomoХомо sapiensсапиенс,
3
9000
2000
и това е, че нашият вид, Хомо сапиенс,
00:26
is actuallyвсъщност really, really smartумен --
4
11000
2000
е всъщност наистина, наистина умен --
00:28
like, ridiculouslyабсурдно smartумен --
5
13000
2000
като, смешно умен --
00:30
like you're all doing things
6
15000
2000
като вие всички правите неща
00:32
that no other speciesвид on the planetпланета does right now.
7
17000
3000
които никой друг вид на планетата не прави точно сега.
00:35
And this is, of courseкурс,
8
20000
2000
И това, разбира се,
00:37
not the first time you've probablyвероятно recognizedразпознат this.
9
22000
2000
не е първият път, в който вие вероятно сте осъзнали това.
00:39
Of courseкурс, in additionдопълнение to beingсъщество smartумен, we're alsoсъщо an extremelyизвънредно vainнапразно speciesвид.
10
24000
3000
Разбира се, освен бидейки умни, ние сме също крайно суетен вид.
00:42
So we like pointingсочещи out the factфакт that we're smartумен.
11
27000
3000
И обичаме да отбелязваме факта, че сме умни.
00:45
You know, so I could turnзавой to prettyкрасива much any sageградински чай
12
30000
2000
Така че бих могла да посоча кой да е мъдър човек
00:47
from ShakespeareШекспир to StephenСтивън ColbertКолбер
13
32000
2000
от Шекспир до Стивън Колберт
00:49
to pointточка out things like the factфакт that
14
34000
2000
и да отбележа неща като факта, че
00:51
we're nobleблагородник in reasonпричина and infiniteбезкраен in facultiesфакултети
15
36000
2000
сме благородни в причината и безкрайни в способностите
00:53
and just kindмил of awesome-erстрахотно-er than anything elseоще on the planetпланета
16
38000
2000
и просто някак си по-страхотни от всичко друго на планетата
00:55
when it comesидва to all things cerebralцеребрална.
17
40000
3000
когато стане въпрос за всички интелектуални неща.
00:58
But of courseкурс, there's a secondвтори observationнаблюдение about the humanчовек speciesвид
18
43000
2000
Но разбира се, има второ наблюдение за човешкият вид
01:00
that I want to focusфокус on a little bitмалко more,
19
45000
2000
на което искам да се фокусирам малко повече,
01:02
and that's the factфакт that
20
47000
2000
и това е факта, че
01:04
even thoughвъпреки че we're actuallyвсъщност really smartумен, sometimesпонякога uniquelyеднозначно smartумен,
21
49000
3000
дори това, че сме всъщност доста умни, понякога уникално умни,
01:07
we can alsoсъщо be incrediblyневероятно, incrediblyневероятно dumbтъп
22
52000
3000
можем да бъдем също и уникално, невероятно тъпи
01:10
when it comesидва to some aspectsаспекти of our decisionрешение makingприготвяне.
23
55000
3000
когато се погледнат някои аспекти на нашите решения.
01:13
Now I'm seeingвиждане lots of smirkssmirks out there.
24
58000
2000
Виждам много самодоволни усмивки там.
01:15
Don't worryтревожа, I'm not going to call anyoneнякой in particularособен out
25
60000
2000
Не се безпокойте, няма да посоча някого от вас
01:17
on any aspectsаспекти of your ownсобствен mistakesгрешки.
26
62000
2000
за някакъв аспект на вашите грешки.
01:19
But of courseкурс, just in the last two yearsгодини
27
64000
2000
Но разбира се, само в последните 2 години
01:21
we see these unprecedentedбезпрецедентен examplesпримери of humanчовек ineptitudeабсурдност.
28
66000
3000
виждаме тези безпрецедентни примери на човешко абсурдност.
01:24
And we'veние имаме watchedГледах as the toolsинструменти we uniquelyеднозначно make
29
69000
3000
И ние сме гледали като уредите, които правим уникално
01:27
to pullдърпам the resourcesресурси out of our environmentзаобикаляща среда
30
72000
2000
да извличаме ресурсите от нашата околна среда
01:29
kindмил of just blowудар up in our faceлице.
31
74000
2000
нещо като удар по лицето ни.
01:31
We'veНие сме watchedГледах the financialфинансов marketsпазари that we uniquelyеднозначно createсъздавам --
32
76000
2000
Гледали сме финансовите пазари, които ние уникално създаваме --
01:33
these marketsпазари that were supposedпредполагаем to be foolproofсъвсем прост --
33
78000
3000
тези пазари, които трябваше да са доказано умни --
01:36
we'veние имаме watchedГледах them kindмил of collapseколапс before our eyesочи.
34
81000
2000
гледали сме ги да колабират пред нашите очи.
01:38
But bothи двете of these two embarrassingнеудобно examplesпримери, I think,
35
83000
2000
Но и двата тези срамни примера, мисля,
01:40
don't highlightМаркирайте what I think is mostнай-много embarrassingнеудобно
36
85000
3000
не подчертават това, което мисля че е най-срамното
01:43
about the mistakesгрешки that humansхората make,
37
88000
2000
за грешките, които хората правят,
01:45
whichкойто is that we'dние искаме like to think that the mistakesгрешки we make
38
90000
3000
което е това, че ние бихме искали да мислим, че грешките които правим,
01:48
are really just the resultрезултат of a coupleдвойка badлошо applesябълки
39
93000
2000
са наистина просто резултат на две лоши ябълки
01:50
or a coupleдвойка really sortвид of FAILНЕ УСПЕЯТ Blog-worthyБлог-достоен decisionsрешения.
40
95000
3000
или две решения, достойни за блога на провалите.
01:53
But it turnsзавои out, what socialсоциален scientistsучени are actuallyвсъщност learningизучаване на
41
98000
3000
Но се се оказва, че това, което социалните учени всъщност учат
01:56
is that mostнай-много of us, when put in certainопределен contextsконтексти,
42
101000
3000
е, че повечето от нас, поставени в опредлен контекст,
01:59
will actuallyвсъщност make very specificспецифичен mistakesгрешки.
43
104000
3000
всъщност ще направят много специфични грешки.
02:02
The errorsгрешки we make are actuallyвсъщност predictableпредсказуем.
44
107000
2000
Грешките, които правим са на практика предвидими.
02:04
We make them again and again.
45
109000
2000
Правим ги отново и отново.
02:06
And they're actuallyвсъщност immuneс имунитет to lots of evidenceдоказателства.
46
111000
2000
И те са всъщност неподатливи на купищата данни.
02:08
When we get negativeотрицателен feedbackобратна връзка,
47
113000
2000
Когато получаваме негативна обратна информация,
02:10
we still, the nextследващия time we're faceлице with a certainопределен contextконтекст,
48
115000
3000
ние, още следващият път, когато се сблъскаме с определен контекст,
02:13
tendсклонен to make the sameедин и същ errorsгрешки.
49
118000
2000
сме склонни да правим същите грешки.
02:15
And so this has been a realреален puzzleпъзели to me
50
120000
2000
И така, това наистина беше сериозна загадка за мен
02:17
as a sortвид of scholarучен of humanчовек natureприрода.
51
122000
2000
като вид учен на човешката природа.
02:19
What I'm mostнай-много curiousлюбопитен about is,
52
124000
2000
Това, за което съм най-любопитна е,
02:21
how is a speciesвид that's as smartумен as we are
53
126000
3000
как вид, който е толкова умен колкото нас,
02:24
capableспособен of suchтакъв badлошо
54
129000
2000
е способен на такива лоши
02:26
and suchтакъв consistentпоследователен errorsгрешки all the time?
55
131000
2000
и такива постоянни грешки през цялото време?
02:28
You know, we're the smartestумният thing out there, why can't we figureфигура this out?
56
133000
3000
Нали сме най-умното нещо тук, защо не можем да намерим разрешение на това?
02:31
In some senseсмисъл, where do our mistakesгрешки really come from?
57
136000
3000
В някакъв смисъл, от къде наистина идват нашите грешки?
02:34
And havingкато thought about this a little bitмалко, I see a coupleдвойка differentразличен possibilitiesвъзможности.
58
139000
3000
И мислейки за това малко, виждам две различни възможности.
02:37
One possibilityвъзможност is, in some senseсмисъл, it's not really our faultотказ.
59
142000
3000
Една възможност е в някакъв смисъл, не е наистина наша вината.
02:40
Because we're a smartумен speciesвид,
60
145000
2000
Защото ние сме умен вид,
02:42
we can actuallyвсъщност createсъздавам all kindsвидове of environmentsсреди
61
147000
2000
можем всъщност да създадем всякакви видове околна среда
02:44
that are superсупер, superсупер complicatedсложен,
62
149000
2000
които са супер, супер сложни,
02:46
sometimesпонякога too complicatedсложен for us to even actuallyвсъщност understandразбирам,
63
151000
3000
понякога твърде сложни дори да ги разберем,
02:49
even thoughвъпреки че we'veние имаме actuallyвсъщност createdсъздаден them.
64
154000
2000
въпреки, че ние всъщност сме ги създали.
02:51
We createсъздавам financialфинансов marketsпазари that are superсупер complexкомплекс.
65
156000
2000
Създавааме финансови пазари, които са супер слосни.
02:53
We createсъздавам mortgageипотека termsусловия that we can't actuallyвсъщност dealсделка with.
66
158000
3000
Създаваме ипотечни термини, с които не можем всъщност да се справим.
02:56
And of courseкурс, if we are put in environmentsсреди where we can't dealсделка with it,
67
161000
3000
И разбира се ако сме поставени в среда, в която не можем да се оправим,
02:59
in some senseсмисъл makesправи senseсмисъл that we actuallyвсъщност
68
164000
2000
някак си има логика в това, че в действителност
03:01
mightбиха могли, може messбъркотия certainопределен things up.
69
166000
2000
можем да объркаме определени неща.
03:03
If this was the caseслучай, we'dние искаме have a really easyлесно solutionрешение
70
168000
2000
Ако това е случаят, бихме имали наистина лесно решение
03:05
to the problemпроблем of humanчовек errorгрешка.
71
170000
2000
на проблема на човешката грешка.
03:07
We'dНие ще actuallyвсъщност just say, okay, let's figureфигура out
72
172000
2000
Просто бихме казали, ок, нека да разберем
03:09
the kindsвидове of technologiesтехнологии we can't dealсделка with,
73
174000
2000
видовете технологии, с които не можем да се справим,
03:11
the kindsвидове of environmentsсреди that are badлошо --
74
176000
2000
видовете околна среда, които са лоши --
03:13
get ridизбавям of those, designдизайн things better,
75
178000
2000
да се отървем от тях, да проектираме нещата по-добре,
03:15
and we should be the nobleблагородник speciesвид
76
180000
2000
и трябва да станем възвишеният вид,
03:17
that we expectочаквам ourselvesсебе си to be.
77
182000
2000
който очакваме да бъдем.
03:19
But there's anotherоще possibilityвъзможност that I find a little bitмалко more worryingтревожна,
78
184000
3000
Но има друга възможност, която намирам за малко по-тревожеща,
03:22
whichкойто is, maybe it's not our environmentsсреди that are messedПратеник up.
79
187000
3000
която е, че може би не нашите околни среди са объркани.
03:25
Maybe it's actuallyвсъщност us that's designedпроектиран badlyзле.
80
190000
3000
Може би всъщност ние сме замислени лошо.
03:28
This is a hintнамек that I've gottenнамерила
81
193000
2000
Това е загатване, което получих
03:30
from watchingгледане the waysначини that socialсоциален scientistsучени have learnedнаучен about humanчовек errorsгрешки.
82
195000
3000
като гледах как социалните учени са изучавали човешките грешки.
03:33
And what we see is that people tendсклонен to keep makingприготвяне errorsгрешки
83
198000
3000
И това, което виждаме е, че хората имат тенденция да правят грешки
03:36
exactlyточно the sameедин и същ way, over and over again.
84
201000
3000
точно по същият начин, отново и отново.
03:39
It feelsчувства like we mightбиха могли, може almostпочти just be builtпостроен
85
204000
2000
Изглежда, че ние сякаш сме създадени
03:41
to make errorsгрешки in certainопределен waysначини.
86
206000
2000
да правим грешки по определен начин.
03:43
This is a possibilityвъзможност that I worryтревожа a little bitмалко more about,
87
208000
3000
Това е възможност, за която се притеснявам малко повече,
03:46
because, if it's us that's messedПратеник up,
88
211000
2000
защото ако сме ние, които сме сбъркани,
03:48
it's not actuallyвсъщност clearясно how we go about dealingотношение with it.
89
213000
2000
не е никак ясно как ще се справим с това.
03:50
We mightбиха могли, може just have to acceptприемам the factфакт that we're errorгрешка proneсклонен
90
215000
3000
Можем просто да приемем факта, че сме склонни към грешки
03:53
and try to designдизайн things around it.
91
218000
2000
и да опитаме да проектираме неща около това
03:55
So this is the questionвъпрос my studentsстуденти and I wanted to get at.
92
220000
3000
Така че, това е въпросът, който моите студенти и аз искахме да разгледаме.
03:58
How can we tell the differenceразлика betweenмежду possibilityвъзможност one and possibilityвъзможност two?
93
223000
3000
Как можем да открием разликата между едната и другата възможност?
04:01
What we need is a populationнаселение
94
226000
2000
Това, което ни трябва е популация,
04:03
that's basicallyв основата си smartумен, can make lots of decisionsрешения,
95
228000
2000
която е всъщност умна, може да взема много решения,
04:05
but doesn't have accessдостъп to any of the systemsсистеми we have,
96
230000
2000
но няма достъп до никоя от системите, които имаме,
04:07
any of the things that mightбиха могли, може messбъркотия us up --
97
232000
2000
никое от нещата, които могат да се объркат --
04:09
no humanчовек technologyтехнология, humanчовек cultureкултура,
98
234000
2000
никоя човешка технология, човешка култура,
04:11
maybe even not humanчовек languageезик.
99
236000
2000
може би дори човешки език.
04:13
And so this is why we turnedоказа to these guys here.
100
238000
2000
Ето защо се обърнахме към тези същества тук.
04:15
These are one of the guys I work with. This is a brownкафяв capuchinкапуцин monkeyмаймуна.
101
240000
3000
Тези са едни от съществата с които работя. Това е кафява маймуна капуцин.
04:18
These guys are NewНов WorldСветът primatesпримати,
102
243000
2000
Тези същества са примати от Новия Свят,
04:20
whichкойто meansсредства they brokeсчупи off from the humanчовек branchклон
103
245000
2000
което значи, че са се отделили от човешкото разклонение
04:22
about 35 millionмилион yearsгодини agoпреди.
104
247000
2000
преди около 35 милиона години.
04:24
This meansсредства that your great, great, great great, great, great --
105
249000
2000
Това означава, че вашата пра-пра-пра-пра-пра-пра --
04:26
with about fiveпет millionмилион "greatsвеликите" in there --
106
251000
2000
с около пет милиона "пра" там --
04:28
grandmotherбаба was probablyвероятно the sameедин и същ great, great, great, great
107
253000
2000
прабаба е вероятно същата пра-пра-пра-пра
04:30
grandmotherбаба with fiveпет millionмилион "greatsвеликите" in there
108
255000
2000
прабаба с пет милиона "пра" там
04:32
as HollyХоли up here.
109
257000
2000
като Холи тук.
04:34
You know, so you can take comfortкомфорт in the factфакт that this guy up here is a really really distantдалечен,
110
259000
3000
Така че можете да е успокоите с факта, че това същество тук е наистина, наистина далечен,
04:37
but albeitмакар и evolutionaryеволюционен, relativeотносителен.
111
262000
2000
но въпреки това еволюционен, роднина.
04:39
The good newsНовини about HollyХоли thoughвъпреки че is that
112
264000
2000
Добрата новина за Холи е, че
04:41
she doesn't actuallyвсъщност have the sameедин и същ kindsвидове of technologiesтехнологии we do.
113
266000
3000
тя няма достъп до същите технологии като нас.
04:44
You know, she's a smartумен, very cutразрез creatureсъздание, a primateпримат as well,
114
269000
3000
Знаете, тя е умна, много мило същество, примат също,
04:47
but she lacksлипсва all the stuffматерия we think mightбиха могли, може be messingкаша us up.
115
272000
2000
но й липсва всичко, което мислим, че може би ни обърква.
04:49
So she's the perfectсъвършен testтест caseслучай.
116
274000
2000
Така че тя е отличният случай за тест.
04:51
What if we put HollyХоли into the sameедин и същ contextконтекст as humansхората?
117
276000
3000
Какво ще стане ако сложим Холи в същият контекст като хората?
04:54
Does she make the sameедин и същ mistakesгрешки as us?
118
279000
2000
Дали ще прави същите грешки като нас?
04:56
Does she not learnуча from them? And so on.
119
281000
2000
Дали ще учи от тях? И така нататък.
04:58
And so this is the kindмил of thing we decidedреши to do.
120
283000
2000
И така това е нещото, което решихме да направим.
05:00
My studentsстуденти and I got very excitedвъзбуден about this a fewмалцина yearsгодини agoпреди.
121
285000
2000
Моите студенти и аз се развълнувахме за това преди няколко години.
05:02
We said, all right, let's, you know, throwхвърлям so problemsпроблеми at HollyХоли,
122
287000
2000
Казахме си: добре, нека да позатрудним Холи,
05:04
see if she messesбъркотии these things up.
123
289000
2000
да видим как тя ще обърка нещата.
05:06
First problemпроблем is just, well, where should we startначало?
124
291000
3000
Първият проблем е: откъде да започнем?
05:09
Because, you know, it's great for us, but badлошо for humansхората.
125
294000
2000
Защото, знаете, страхотно е за нас, но лошо за хората.
05:11
We make a lot of mistakesгрешки in a lot of differentразличен contextsконтексти.
126
296000
2000
Правим много грешки в много различни контексти.
05:13
You know, where are we actuallyвсъщност going to startначало with this?
127
298000
2000
Откъде да се захванем с това?
05:15
And because we startedзапочна this work around the time of the financialфинансов collapseколапс,
128
300000
3000
И защото започнахме тази работа около времето на финансовия колапс,
05:18
around the time when foreclosuresвъзбрани were hittingудря the newsНовини,
129
303000
2000
около времето, когато пресрочени ипотеки се появяваха в новините,
05:20
we said, hhmmччмм, maybe we should
130
305000
2000
казахме си: хм, може би трябва
05:22
actuallyвсъщност startначало in the financialфинансов domainдомейн.
131
307000
2000
наистина да започнем от финансовата сфера.
05:24
Maybe we should look at monkey'sна маймуна economicикономически decisionsрешения
132
309000
3000
Може би трябва да погледнем икономическите решения на маймуните
05:27
and try to see if they do the sameедин и същ kindsвидове of dumbтъп things that we do.
133
312000
3000
и да опитаме да видим дали те правят същите глупави неща, които правим и ние.
05:30
Of courseкурс, that's when we hitудар a sortвид secondвтори problemпроблем --
134
315000
2000
Разбира се, тогава се сблъскахме с втори проблем --
05:32
a little bitмалко more methodologicalметодологически --
135
317000
2000
малко по-методологичен --
05:34
whichкойто is that, maybe you guys don't know,
136
319000
2000
който е, че може би вие, хора, не знаете,
05:36
but monkeysмаймуни don't actuallyвсъщност use moneyпари. I know, you haven'tима не metсрещнах them.
137
321000
3000
но маймуните всъщност не използват пари. Зная, не сте ги срещали.
05:39
But this is why, you know, they're not in the queueопашка behindзад you
138
324000
2000
Но ето защо те не са на опашката зад вас
05:41
at the groceryхранителни стоки storeмагазин or the ATMATM -- you know, they don't do this stuffматерия.
139
326000
3000
в магазина за плодове и зеленчуци или пред банкомата -- те не правят това.
05:44
So now we facedизправени, you know, a little bitмалко of a problemпроблем here.
140
329000
3000
Ето, че се сблъскахме с малък проблем.
05:47
How are we actuallyвсъщност going to askпитам monkeysмаймуни about moneyпари
141
332000
2000
Как всъщност ще питаме маймуните за пари,
05:49
if they don't actuallyвсъщност use it?
142
334000
2000
ако те всъщност не ги ползват?
05:51
So we said, well, maybe we should just, actuallyвсъщност just suckсмуча it up
143
336000
2000
Казахме си: може би трябва просто да ги подмамим
05:53
and teachпреподавам monkeysмаймуни how to use moneyпари.
144
338000
2000
и да научим маймуните как да ползват пари.
05:55
So that's just what we did.
145
340000
2000
Така че точно това направихме.
05:57
What you're looking at over here is actuallyвсъщност the first unitмерна единица that I know of
146
342000
3000
Това което виждате тук е всъщност първото нещо, което знам за
06:00
of non-humanнечовешки currencyвалута.
147
345000
2000
не-човешка валута.
06:02
We weren'tне са били very creativeтворчески at the time we startedзапочна these studiesпроучвания,
148
347000
2000
Не бяхме много креативни по времето, когато стартирахме тези изследвания,
06:04
so we just calledНаречен it a tokenмаркер.
149
349000
2000
така че го нарекохме просто жетон.
06:06
But this is the unitмерна единица of currencyвалута that we'veние имаме taughtпреподава our monkeysмаймуни at YaleЙейл
150
351000
3000
Но това е валута, която представихме на нашите маймуни в Йейл
06:09
to actuallyвсъщност use with humansхората,
151
354000
2000
да я използват с хората,
06:11
to actuallyвсъщност buyКупувам differentразличен piecesпарчета of foodхрана.
152
356000
3000
да си купуват различни парчета храна.
06:14
It doesn't look like much -- in factфакт, it isn't like much.
153
359000
2000
Не изглежда като много пари -- всъщност, никак не са много.
06:16
Like mostнай-много of our moneyпари, it's just a pieceпарче of metalметал.
154
361000
2000
Като повечето нашите пари, е просто парче метал.
06:18
As those of you who'veкоито са takenвзета currenciesвалути home from your tripпътуване know,
155
363000
3000
Тези от вас, които са взимали валути у дома от вашето пътешествие знаят,
06:21
onceведнъж you get home, it's actuallyвсъщност prettyкрасива uselessбезполезен.
156
366000
2000
веднъж като се приберете у дома, всъщност са доста безполезни.
06:23
It was uselessбезполезен to the monkeysмаймуни at first
157
368000
2000
Беше безполезно първоначално и за маймуните
06:25
before they realizedосъзнах what they could do with it.
158
370000
2000
преди да осъзнаят какво могат да правят с това.
06:27
When we first gaveдадох it to them in theirтехен enclosuresкутии,
159
372000
2000
Когато за пръв път им го дадохме,
06:29
they actuallyвсъщност kindмил of pickedизбран them up, lookedпогледнах at them.
160
374000
2000
те ги събраха, погледнаха ги.
06:31
They were these kindмил of weirdстранен things.
161
376000
2000
Те бяха едни странни неща.
06:33
But very quicklyбързо, the monkeysмаймуни realizedосъзнах
162
378000
2000
Но много бързо маймуните осъзнаха,
06:35
that they could actuallyвсъщност handръка these tokensсимволите over
163
380000
2000
че могат да дават тази жетони на
06:37
to differentразличен humansхората in the labлаборатория for some foodхрана.
164
382000
3000
различни хора в лабораторията за храна.
06:40
And so you see one of our monkeysмаймуни, MaydayМейдей, up here doing this.
165
385000
2000
И така виждате една от нашите маймуни, Мейдей, да прави това.
06:42
This is A and B are kindмил of the pointsточки where she's sortвид of a little bitмалко
166
387000
3000
Това е А и Б са вид точки, където тя е някакси малко
06:45
curiousлюбопитен about these things -- doesn't know.
167
390000
2000
любопитна за тези неща -- не знае.
06:47
There's this waitingочакване handръка from a humanчовек experimenterекспериментатор,
168
392000
2000
Ето тази чакаща ръка от човешки екпериментатор,
06:49
and MaydayМейдей quicklyбързо figuresфигури out, apparentlyочевидно the humanчовек wants this.
169
394000
3000
и Мейдей бързо разбира, очевидно че човека иска това.
06:52
HandsРъце it over, and then getsполучава some foodхрана.
170
397000
2000
Дава го и тогава получава храна.
06:54
It turnsзавои out not just MaydayМейдей, all of our monkeysмаймуни get good
171
399000
2000
Излиза, че не само Мейдей, всички наши маймуни стават добри
06:56
at tradingтъргуване tokensсимволите with humanчовек salesmanпродавач.
172
401000
2000
в търговията с жетони с човека-продавач.
06:58
So here'sето just a quickбърз videoвидео of what this looksвъншност like.
173
403000
2000
Ето бързо видео как изглежда това.
07:00
Here'sТук е MaydayМейдей. She's going to be tradingтъргуване a tokenмаркер for some foodхрана
174
405000
3000
Това е Мейдей. Тя ще изтъргува жетон за храна
07:03
and waitingочакване happilyщастливо and gettingполучаване на her foodхрана.
175
408000
3000
и ще чака щастливо да си получи храната.
07:06
Here'sТук е FelixФеликс, I think. He's our alphaалфа maleмъжки; he's a kindмил of bigголям guy.
176
411000
2000
Това е Феликс, мисля. Той е нашият алфа-мъжкар; голям мъжага.
07:08
But he too waitsчака patientlyтърпеливо, getsполучава his foodхрана and goesотива on.
177
413000
3000
Но той също чака търпеливо, получава храната си и продължава.
07:11
So the monkeysмаймуни get really good at this.
178
416000
2000
Така че маймуните стават наистина добри в това.
07:13
They're surprisinglyучудващо good at this with very little trainingобучение.
179
418000
3000
Те са учудващо добри в това с много малко упражняване.
07:16
We just allowedпозволен them to pickизбирам this up on theirтехен ownсобствен.
180
421000
2000
Ние просто им позволихме да свикнат с това сами.
07:18
The questionвъпрос is: is this anything like humanчовек moneyпари?
181
423000
2000
Въпросът е: това прилича ли на човешки пари?
07:20
Is this a marketпазар at all,
182
425000
2000
Това пазар ли е въобще,
07:22
or did we just do a weirdстранен psychologist'sна психолог в trickтрик
183
427000
2000
или ние просто направихме странен психологичен трик
07:24
by gettingполучаване на monkeysмаймуни to do something,
184
429000
2000
като накарахме маймуните да направят нещо,
07:26
looking smartумен, but not really beingсъщество smartумен.
185
431000
2000
изглеждайки умни, без наистина да са умни.
07:28
And so we said, well, what would the monkeysмаймуни spontaneouslyспонтанно do
186
433000
3000
Казахме си: какво ще направят спонтанно маймуните
07:31
if this was really theirтехен currencyвалута, if they were really usingизползвайки it like moneyпари?
187
436000
3000
ако това беше наистина тяхна валута, ако те наистина я използваха като пари?
07:34
Well, you mightбиха могли, може actuallyвсъщност imagineПредставете си them
188
439000
2000
Е, можете всъщност да си ги представите
07:36
to do all the kindsвидове of smartумен things
189
441000
2000
да правят много умни неща,
07:38
that humansхората do when they startначало exchangingобмен на moneyпари with eachвсеки other.
190
443000
3000
които хората правят, когато започнат да разменят пари един с друг.
07:41
You mightбиха могли, може have them startначало payingизплащане attentionвнимание to priceцена,
191
446000
3000
Можете да ги накарате да започнат да обръщат внимание на цената,
07:44
payingизплащане attentionвнимание to how much they buyКупувам --
192
449000
2000
да обръщат внимание колко купуват --
07:46
sortвид of keepingсъхраняемост trackпът of theirтехен monkeyмаймуна tokenмаркер, as it were.
193
451000
3000
един вид следене на техния маймунски жетон.
07:49
Do the monkeysмаймуни do anything like this?
194
454000
2000
Маймуните правят ли нещо такова?
07:51
And so our monkeyмаймуна marketplaceпазар was bornроден.
195
456000
3000
И така нашият маймунски пазар беше роден.
07:54
The way this worksвърши работа is that
196
459000
2000
Начина, по който работи е, че
07:56
our monkeysмаймуни normallyнормално liveживея in a kindмил of bigголям zooЗоологическа градина socialсоциален enclosureограждане.
197
461000
3000
нашите маймуни обикновено живеят в голяма зоологическа градина.
07:59
When they get a hankeringкопнеж for some treatsтретира,
198
464000
2000
Когато получат сигнал за някакви заплахи,
08:01
we actuallyвсъщност allowedпозволен them a way out
199
466000
2000
ние им позволихме да се оттеглят
08:03
into a little smallerпо-малък enclosureограждане where they could enterвъведете the marketпазар.
200
468000
2000
към по-малко пространство, където можеха да се включат в пазара.
08:05
UponПри enteringвъвеждане the marketпазар --
201
470000
2000
При влизането на пазара --
08:07
it was actuallyвсъщност a much more funшега marketпазар for the monkeysмаймуни than mostнай-много humanчовек marketsпазари
202
472000
2000
беше всъщност много по-весел пазар за маймуните отколкото пазарите на хората
08:09
because, as the monkeysмаймуни enteredвписано the doorврата of the marketпазар,
203
474000
3000
защото, когато маймуните минаваха през вратата на пазара,
08:12
a humanчовек would give them a bigголям walletпортфейл fullпълен of tokensсимволите
204
477000
2000
човек им даваше голям портфейл пълен с жетони,
08:14
so they could actuallyвсъщност tradeтърговия the tokensсимволите
205
479000
2000
така че те можеха да търгуват с жетоните
08:16
with one of these two guys here --
206
481000
2000
с един от тези двамата тук --
08:18
two differentразличен possibleвъзможен humanчовек salesmenтърговци
207
483000
2000
двама различни възможни продавача-човека
08:20
that they could actuallyвсъщност buyКупувам stuffматерия from.
208
485000
2000
от които можеха реално да си купят неща.
08:22
The salesmenтърговци were studentsстуденти from my labлаборатория.
209
487000
2000
Продавачите бяха студенти от моята лаборатория.
08:24
They dressedоблечен differentlyразлично; they were differentразличен people.
210
489000
2000
Те бяха облечени различно; те бяха различни хора.
08:26
And over time, they did basicallyв основата си the sameедин и същ thing
211
491000
3000
И с времето, те правеха основно едно и също нещо,
08:29
so the monkeysмаймуни could learnуча, you know,
212
494000
2000
така че маймуните да можеха да учат,
08:31
who soldпродаден what at what priceцена -- you know, who was reliableнадежден, who wasn'tне е, and so on.
213
496000
3000
кой какво продава и на каква цена -- кой беше сигурен, кой не беше и т.н.
08:34
And you can see that eachвсеки of the experimentersекспериментатори
214
499000
2000
И можете да видите, че всеки от експериментаторите
08:36
is actuallyвсъщност holdingдържеше up a little, yellowжълт foodхрана dishчиния.
215
501000
3000
всъщност държи малка, жълта чиния с грозде,
08:39
and that's what the monkeyмаймуна can for a singleединичен tokenмаркер.
216
504000
2000
и това е, което маймуната може да купи за един жетон.
08:41
So everything costsразходи one tokenмаркер,
217
506000
2000
Всичко струва един жетон,
08:43
but as you can see, sometimesпонякога tokensсимволите buyКупувам more than othersдруги,
218
508000
2000
но както можете да видите, понякога жетоните купуват повече,
08:45
sometimesпонякога more grapesгрозде than othersдруги.
219
510000
2000
понякога повече грозде от други.
08:47
So I'll showшоу you a quickбърз videoвидео of what this marketplaceпазар actuallyвсъщност looksвъншност like.
220
512000
3000
Така,че ще ви покажа кратко видео как изглежда този пазар.
08:50
Here'sТук е a monkey-eye-viewмаймуна-поглед. MonkeysМаймуни are shorterпо-къс, so it's a little shortнисък.
221
515000
3000
Ето изглед от позицията на маймуна. Маймуните са по-ниски, така че е малко ниско.
08:53
But here'sето HoneyМед.
222
518000
2000
Ето я Хъни.
08:55
She's waitingочакване for the marketпазар to openотворен a little impatientlyнетърпеливо.
223
520000
2000
Тя чака пазара да отвори малко нетърпеливо.
08:57
All of a suddenвнезапен the marketпазар opensотваря. Here'sТук е her choiceизбор: one grapesгрозде or two grapesгрозде.
224
522000
3000
Изведнъж пазара отваря. Ето нейният избор: едно зърно грозде или две.
09:00
You can see HoneyМед, very good marketпазар economistикономист,
225
525000
2000
Можете да видите Хъни, много добър пазарен икономист,
09:02
goesотива with the guy who givesдава more.
226
527000
3000
избира човека, който дава повече.
09:05
She could teachпреподавам our financialфинансов advisersсъветници a fewмалцина things or two.
227
530000
2000
Тя можеше та учи нашите финансови съветници едно или две неща.
09:07
So not just HoneyМед,
228
532000
2000
И не само Хъни.
09:09
mostнай-много of the monkeysмаймуни wentотидох with guys who had more.
229
534000
3000
повечето от маймуните избраха човека, който имаше повече.
09:12
MostНай-много of the monkeysмаймуни wentотидох with guys who had better foodхрана.
230
537000
2000
Повечето от маймуните избраха човека, който имаше по-добра храна.
09:14
When we introducedвъведено salesтърговски, we saw the monkeysмаймуни paidплатен attentionвнимание to that.
231
539000
3000
Когато представихме продажбитете, видяхме маймуните да обръщат внимание на това.
09:17
They really caredинтересуваше about theirтехен monkeyмаймуна tokenмаркер dollarдолар.
232
542000
3000
Те наистина се интересуваха за техния маймунски жетонов долар.
09:20
The more surprisingизненадващ thing was that when we collaboratedсътрудничил with economistsикономисти
233
545000
3000
По-изненадащото нещо беше, че когато работихме заедно с икономисти
09:23
to actuallyвсъщност look at the monkeys'маймуните dataданни usingизползвайки economicикономически toolsинструменти,
234
548000
3000
да разгледаме данните на маймуните, използвайки икономически инструменти,
09:26
they basicallyв основата си matchedсъвпадащи, not just qualitativelyкачествено,
235
551000
3000
те основно съвпадаха, не само качествено,
09:29
but quantitativelyколичествено with what we saw
236
554000
2000
но количествено с това, което сме виждали
09:31
humansхората doing in a realреален marketпазар.
237
556000
2000
да правят хората на истинския пазар.
09:33
So much so that, if you saw the monkeys'маймуните numbersчисленост,
238
558000
2000
Ако видите данните на маймуните,
09:35
you couldn'tне можех tell whetherдали they cameдойде from a monkeyмаймуна or a humanчовек in the sameедин и същ marketпазар.
239
560000
3000
не бихте могли да кажете дали са дошли от хора или от маймуни на същия пазар.
09:38
And what we'dние искаме really thought we'dние искаме doneСвършен
240
563000
2000
И това, което наистина мислехме, че бяхме направили
09:40
is like we'dние искаме actuallyвсъщност introducedвъведено something
241
565000
2000
е, че действително бяхме представили нещо,
09:42
that, at leastнай-малко for the monkeysмаймуни and us,
242
567000
2000
което, най-малкото за маймуните и нас,
09:44
worksвърши работа like a realреален financialфинансов currencyвалута.
243
569000
2000
работи като истинска финансова валута.
09:46
QuestionВъпрос is: do the monkeysмаймуни startначало messingкаша up in the sameедин и същ waysначини we do?
244
571000
3000
Въпросът е: маймуните започват ли да объркват като нас?
09:49
Well, we alreadyвече saw anecdotallyAnecdotally a coupleдвойка of signsзнаци that they mightбиха могли, може.
245
574000
3000
Е, вече видяхме анекдотично два знака, че те могат.
09:52
One thing we never saw in the monkeyмаймуна marketplaceпазар
246
577000
2000
Едно нещо, което никога не видяхме на маймунския пазар
09:54
was any evidenceдоказателства of savingспестяване --
247
579000
2000
беше някакво доказателство за спестяване --
09:56
you know, just like our ownсобствен speciesвид.
248
581000
2000
знаете, точно като нашият вид.
09:58
The monkeysмаймуни enteredвписано the marketпазар, spentпрекарах theirтехен entireцял budgetбюджет
249
583000
2000
Маймуните влизаха на пазара, изхарчваха целия си бюджет
10:00
and then wentотидох back to everyoneвсеки elseоще.
250
585000
2000
и тогава се връщаха при другите.
10:02
The other thing we alsoсъщо spontaneouslyспонтанно saw,
251
587000
2000
Другото нещо, което също спонтанно видяхме,
10:04
embarrassinglyсмутено enoughдостатъчно,
252
589000
2000
доста притеснително,
10:06
is spontaneousспонтанен evidenceдоказателства of larcenyкражба.
253
591000
2000
е спонтанно доказателство за кражба.
10:08
The monkeysмаймуни would rip-offграбеж the tokensсимволите at everyвсеки availableна разположение opportunityвъзможност --
254
593000
3000
Маймуните крадяха жетоните при всяка възможност --
10:11
from eachвсеки other, oftenчесто from us --
255
596000
2000
една от друга, често от нас --
10:13
you know, things we didn't necessarilyнепременно think we were introducingвъвеждане,
256
598000
2000
знаете, неща които не мислехме, че сме представили,
10:15
but things we spontaneouslyспонтанно saw.
257
600000
2000
но неща, които спонтанно видяхме.
10:17
So we said, this looksвъншност badлошо.
258
602000
2000
Казахме си: това изглежда лошо.
10:19
Can we actuallyвсъщност see if the monkeysмаймуни
259
604000
2000
Можем ли всъщност да видим дали маймуните
10:21
are doing exactlyточно the sameедин и същ dumbтъп things as humansхората do?
260
606000
3000
правят точно същите глупави неща като хората?
10:24
One possibilityвъзможност is just kindмил of let
261
609000
2000
Една възможност е просто да оставим
10:26
the monkeyмаймуна financialфинансов systemсистема playиграя out,
262
611000
2000
маймунската финансова система да си продължи,
10:28
you know, see if they startначало callingповикване us for bailoutsспасителните in a fewмалцина yearsгодини.
263
613000
2000
за да видим дали ще ни се обадят да ги спасим след няколко години.
10:30
We were a little impatientнетърпеливи so we wanted
264
615000
2000
Ние бяхме малко нетърпеливи, така че искахме
10:32
to sortвид of speedскорост things up a bitмалко.
265
617000
2000
един вид да ускорим малко нещата.
10:34
So we said, let's actuallyвсъщност give the monkeysмаймуни
266
619000
2000
Казахме си: нека реално да дадем на маймуните
10:36
the sameедин и същ kindsвидове of problemsпроблеми
267
621000
2000
същите проблеми, при които
10:38
that humansхората tendсклонен to get wrongпогрешно
268
623000
2000
хората грешат обикновено
10:40
in certainопределен kindsвидове of economicикономически challengesпредизвикателства,
269
625000
2000
в определени икономически предизвикателства
10:42
or certainопределен kindsвидове of economicикономически experimentsексперименти.
270
627000
2000
или определени икономически експерименти.
10:44
And so, sinceот the bestнай-доброто way to see how people go wrongпогрешно
271
629000
3000
И така, тъй като най-добрият начин да видим как хората грешат
10:47
is to actuallyвсъщност do it yourselfсебе си,
272
632000
2000
е да го направим самите ние.
10:49
I'm going to give you guys a quickбърз experimentексперимент
273
634000
2000
Ще ви дам, хора, един бърз експеримент
10:51
to sortвид of watch your ownсобствен financialфинансов intuitionsинтуиции in actionдействие.
274
636000
2000
един вид да видите вашата собствена финансова интуиция в действие.
10:53
So imagineПредставете си that right now
275
638000
2000
Представете си, че точно сега
10:55
I handedръка eachвсеки and everyвсеки one of you
276
640000
2000
ви дам на всеки от вас
10:57
a thousandхиляда U.S. dollarsдолара -- so 10 crispсвеж hundredсто dollarдолар billsбанкноти.
277
642000
3000
хиляда американски долара -- 10 стотачки.
11:00
Take these, put it in your walletпортфейл
278
645000
2000
Вземете ги, сложете ги в порфейла си
11:02
and spendхарча a secondвтори thinkingмислене about what you're going to do with it.
279
647000
2000
и отделете секунда да помислите за това какво ще направите с тях.
11:04
Because it's yoursтвой now; you can buyКупувам whateverкакто и да е you want.
280
649000
2000
Защото са ваши сега -- можете да си купите каквото си искате.
11:06
DonateДари it, take it, and so on.
281
651000
2000
Да ги дарите, да ги вземете, и т.н.
11:08
SoundsЗвуци great, but you get one more choiceизбор to earnСпечелете a little bitмалко more moneyпари.
282
653000
3000
Звучи прекрасно, но получавате още един шанс да спечелите малко повече пари.
11:11
And here'sето your choiceизбор: you can eitherедин be riskyрискован,
283
656000
3000
И ето вашия избор: можете да рискувате,
11:14
in whichкойто caseслучай I'm going to flipфлип one of these monkeyмаймуна tokensсимволите.
284
659000
2000
в който случай ще обърна един от тези маймунски жетони.
11:16
If it comesидва up headsглави, you're going to get a thousandхиляда dollarsдолара more.
285
661000
2000
ако се падне ези, ще вземете още хиляда долара.
11:18
If it comesидва up tailsтура, you get nothing.
286
663000
2000
ак осе падне тура, взимате нищо.
11:20
So it's a chanceшанс to get more, but it's prettyкрасива riskyрискован.
287
665000
3000
Така че е късмет да спечелите повече, но е доста рисковано.
11:23
Your other optionопция is a bitмалко safeсейф. Your just going to get some moneyпари for sure.
288
668000
3000
Другият ви избор е по-сигурен. Вие ще спечелите пари със сигурност.
11:26
I'm just going to give you 500 bucksдолара.
289
671000
2000
Просто ще ви дам $500.
11:28
You can stickпръчка it in your walletпортфейл and use it immediatelyведнага.
290
673000
3000
Можете да ги приберете в портфейла си и да ги ползвате незабавно.
11:31
So see what your intuitionинтуиция is here.
291
676000
2000
Вижте каква е вашата интуиция тук.
11:33
MostНай-много people actuallyвсъщност go with the play-it-safeигра-ИТ-безопасно optionопция.
292
678000
3000
Повечето хора всъщност избират сигурната опция.
11:36
MostНай-много people say, why should I be riskyрискован when I can get 1,500 dollarsдолара for sure?
293
681000
3000
Повечето хора казват: защо да рискувам, като мога да взема със сигурност $1500?
11:39
This seemsИзглежда like a good betзалагане. I'm going to go with that.
294
684000
2000
Това изглежда добър залог. Ще избера него.
11:41
You mightбиха могли, може say, ehнали, that's not really irrationalирационален.
295
686000
2000
Можете да кажете: е, това не е ирационално.
11:43
People are a little risk-averse-чувствителни към риска. So what?
296
688000
2000
Хората са малко предразположени към риск. И какво?
11:45
Well, the "so what?" comesидва when startначало thinkingмислене
297
690000
2000
Е, "и какво"? идва, когато започне мисленето
11:47
about the sameедин и същ problemпроблем
298
692000
2000
за същият проблем,
11:49
setкомплект up just a little bitмалко differentlyразлично.
299
694000
2000
погледнат малко по-различно.
11:51
So now imagineПредставете си that I give eachвсеки and everyвсеки one of you
300
696000
2000
И така, сега си представете, че давам на всеки от вас
11:53
2,000 dollarsдолара -- 20 crispсвеж hundredсто dollarдолар billsбанкноти.
301
698000
3000
$2000 -- 20 стотачки.
11:56
Now you can buyКупувам doubleдвойно to stuffматерия you were going to get before.
302
701000
2000
Сега можете да купите двойно повече неща от преди.
11:58
Think about how you'dти можеш feel stickingприлепяне it in your walletпортфейл.
303
703000
2000
Помислете как бихте си ги сложили в портфейла.
12:00
And now imagineПредставете си that I have you make anotherоще choiceизбор
304
705000
2000
И сега предствате си, че имате друг избор
12:02
But this time, it's a little bitмалко worseпо-лошо.
305
707000
2000
Но този път е малко по- лош.
12:04
Now, you're going to be decidingвземане на решение how you're going to loseгубя moneyпари,
306
709000
3000
Сега вие ще решите как ще изгубите пари,
12:07
but you're going to get the sameедин и същ choiceизбор.
307
712000
2000
но ще получите същият избор.
12:09
You can eitherедин take a riskyрискован lossзагуба --
308
714000
2000
Можете или да вземете рискована загуба --
12:11
so I'll flipфлип a coinмонета. If it comesидва up headsглави, you're going to actuallyвсъщност loseгубя a lot.
309
716000
3000
така че ще теглим жребий. Ако се падне ези, ще загубите много.
12:14
If it comesидва up tailsтура, you loseгубя nothing, you're fine, get to keep the wholeцяло thing --
310
719000
3000
ако се падне тура, не губите нищо, добре сте, запазвате всичко --
12:17
or you could playиграя it safeсейф, whichкойто meansсредства you have to reachдостигнат back into your walletпортфейл
311
722000
3000
или можете да играете на сигурно, което означава, че трябва да бръкнете обратно в портфейла си
12:20
and give me fiveпет of those $100 billsбанкноти, for certainопределен.
312
725000
3000
и да ми дадете пет от тези банкноти по $100, със сигурност.
12:23
And I'm seeingвиждане a lot of furrowedсбръчкани browsвежди out there.
313
728000
3000
Виждам много намръщени вежди там.
12:26
So maybe you're havingкато the sameедин и същ intuitionsинтуиции
314
731000
2000
Така че може би имате същата интуиция
12:28
as the subjectsучебни предмети that were actuallyвсъщност testedизпитан in this,
315
733000
2000
като субектите, които бяха тествани в това,
12:30
whichкойто is when presentedпредставено with these optionsнастроики,
316
735000
2000
които, когато им са представени тези опции,
12:32
people don't chooseизбирам to playиграя it safeсейф.
317
737000
2000
хората не избират да играят на сигурно.
12:34
They actuallyвсъщност tendсклонен to go a little riskyрискован.
318
739000
2000
Те всъщност рискуват малко.
12:36
The reasonпричина this is irrationalирационален is that we'veние имаме givenдаден people in bothи двете situationsситуации
319
741000
3000
Това е ирационално, защото ние сме дали на хората и в двете ситуации
12:39
the sameедин и същ choiceизбор.
320
744000
2000
същият избор.
12:41
It's a 50/50 shotизстрел of a thousandхиляда or 2,000,
321
746000
3000
Това е 50 на 50 избор на хиляда или 2000,
12:44
or just 1,500 dollarsдолара with certaintyсигурност.
322
749000
2000
или просто $1500 със сигурност.
12:46
But people'sнародната intuitionsинтуиции about how much riskриск to take
323
751000
3000
Но интуицията на хората за това колко риск да поемат,
12:49
variesварира dependingв зависимост on where they startedзапочна with.
324
754000
2000
варира зависейки от къде са започнали.
12:51
So what's going on?
325
756000
2000
Така че какво става?
12:53
Well, it turnsзавои out that this seemsИзглежда to be the resultрезултат
326
758000
2000
Излиза, че това изглежда да е резултата
12:55
of at leastнай-малко two biasesпристрастия that we have at the psychologicalпсихологичен levelниво.
327
760000
3000
за най-малко два предрасъдъка, които имаме на психологическо ниво.
12:58
One is that we have a really hardтвърд time thinkingмислене in absoluteабсолютен termsусловия.
328
763000
3000
Единият е, че наистина срещаме трудност да мислим в абсолютен смисъл.
13:01
You really have to do work to figureфигура out,
329
766000
2000
Вие наистина трябва да поработите за да разберете,
13:03
well, one option'sна опцията a thousandхиляда, 2,000;
330
768000
2000
че, единият избор е хиляда, 2000;
13:05
one is 1,500.
331
770000
2000
а другият е 1500.
13:07
InsteadВместо това, we find it very easyлесно to think in very relativeотносителен termsусловия
332
772000
3000
Вместо това, много лесно мислим в относителни термини
13:10
as optionsнастроики changeпромяна from one time to anotherоще.
333
775000
3000
когато изборите се променят от един към друг.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessпо-малко."
334
778000
3000
Мислим за нещата като: "О, Ще взема повече," или "О, ще взема по-малко."
13:16
This is all well and good, exceptс изключение that
335
781000
2000
Това всичко е добре, с изключение че
13:18
changesпромени in differentразличен directionsинструкции
336
783000
2000
промените в различни посоки
13:20
actuallyвсъщност effectефект whetherдали or not we think
337
785000
2000
имат ефект върху това дали възприемаме
13:22
optionsнастроики are good or not.
338
787000
2000
възможностите за добри или лоши.
13:24
And this leadsпроводници to the secondвтори biasотклонение,
339
789000
2000
И това ни води до вторият предрасъдък,
13:26
whichкойто economistsикономисти have calledНаречен lossзагуба aversionотвращение.
340
791000
2000
който икономистите са нарекли нежелание за загуба.
13:28
The ideaидея is that we really hateмразя it when things go into the redчервен.
341
793000
3000
Идеята е, че ние наистина мразим да губим.
13:31
We really hateмразя it when we have to loseгубя out on some moneyпари.
342
796000
2000
Ние наистина мразим, когато трябва да загубим пари.
13:33
And this meansсредства that sometimesпонякога we'llдобре actuallyвсъщност
343
798000
2000
И това означава, че понякога ние ще
13:35
switchключ our preferencesпредпочитания to avoidда се избегне this.
344
800000
2000
променим нашите предпочитания, за да избегнем това.
13:37
What you saw in that last scenarioсценарий is that
345
802000
2000
Това, което видяхте в този последен сценарий е, че
13:39
subjectsучебни предмети get riskyрискован
346
804000
2000
субектите поемат рискове,
13:41
because they want the smallмалък shotизстрел that there won'tняма да be any lossзагуба.
347
806000
3000
защото те искат малкият избор, с който няма да има загуба.
13:44
That meansсредства when we're in a riskриск mindsetначин на мислене --
348
809000
2000
Това означава, когато сме склонни да мислим рисково --
13:46
excuseизвинение me, when we're in a lossзагуба mindsetначин на мислене,
349
811000
2000
извинете ме, когато сме склонни да мислим за загуби,
13:48
we actuallyвсъщност becomeда стане more riskyрискован,
350
813000
2000
всъщност ставаме по-рисковани в действията си,
13:50
whichкойто can actuallyвсъщност be really worryingтревожна.
351
815000
2000
което може да бъде наистина тревожно.
13:52
These kindsвидове of things playиграя out in lots of badлошо waysначини in humansхората.
352
817000
3000
Тези неща се проявяват в много случаи при хората.
13:55
They're why stockналичност investorsинвеститори holdдържа ontoвърху losingзагуба stocksзапаси longerповече време --
353
820000
3000
Те са причината инвеститорите да се въздържат от губене на акции по-дълго --
13:58
because they're evaluatingОценка на them in relativeотносителен termsусловия.
354
823000
2000
защото те ги преценяват относително.
14:00
They're why people in the housingжилище marketпазар refusedотказва to sellпродажба theirтехен houseкъща --
355
825000
2000
Ето защо хората на пазара на къщи отказват да продадат къщата си --
14:02
because they don't want to sellпродажба at a lossзагуба.
356
827000
2000
защото те не искат да продават на загуба.
14:04
The questionвъпрос we were interestedзаинтересован in
357
829000
2000
Въпросът, който ни интересуваше,
14:06
is whetherдали the monkeysмаймуни showшоу the sameедин и същ biasesпристрастия.
358
831000
2000
е дали маймуните показват същият предрасъдък.
14:08
If we setкомплект up those sameедин и същ scenariosсценарии in our little monkeyмаймуна marketпазар,
359
833000
3000
Ако приложим същите сценарии в нашият малък маймунски пазар,
14:11
would they do the sameедин и същ thing as people?
360
836000
2000
те биха ли направили същото като хора?
14:13
And so this is what we did, we gaveдадох the monkeysмаймуни choicesизбор
361
838000
2000
И така, ето какво направихме: дадохме на маймуните избори
14:15
betweenмежду guys who were safeсейф -- they did the sameедин и същ thing everyвсеки time --
362
840000
3000
между хора, които бяха сигурни -- те правеха същото нещо всеки път --
14:18
or guys who were riskyрискован --
363
843000
2000
или хора, които действаха рисковано --
14:20
they did things differentlyразлично halfнаполовина the time.
364
845000
2000
те правеха различни неща половината пъти.
14:22
And then we gaveдадох them optionsнастроики that were bonusesбонуси --
365
847000
2000
И тогава им дадохме избори, които бяха бонуси --
14:24
like you guys did in the first scenarioсценарий --
366
849000
2000
както вие хора направихте в първият сценарий --
14:26
so they actuallyвсъщност have a chanceшанс more,
367
851000
2000
така че те имаха шанс повече,
14:28
or piecesпарчета where they were experiencingпреживява lossesзагуби --
368
853000
3000
или парчета, където те преживяваха загуби --
14:31
they actuallyвсъщност thought they were going to get more than they really got.
369
856000
2000
те всъщност мислеха, че ще получат повече отколкото получиха.
14:33
And so this is what this looksвъншност like.
370
858000
2000
Ето как изглежда това.
14:35
We introducedвъведено the monkeysмаймуни to two newнов monkeyмаймуна salesmenтърговци.
371
860000
2000
Представихме маймуните на двама нови продавача.
14:37
The guy on the left and right bothи двете startначало with one pieceпарче of grapeгрозде,
372
862000
2000
Този вляво и вдясно започнаха с едно зърно грозде,
14:39
so it looksвъншност prettyкрасива good.
373
864000
2000
така че изглежда доста добре.
14:41
But they're going to give the monkeysмаймуни bonusesбонуси.
374
866000
2000
Но те ще дадат на маймуните бонуси.
14:43
The guy on the left is a safeсейф bonusбонус.
375
868000
2000
Този в ляво е сигурен бонус.
14:45
All the time, he addsдобавя one, to give the monkeysмаймуни two.
376
870000
3000
През цялото време той добавя едно, за да даде на маймуните две.
14:48
The guy on the right is actuallyвсъщност a riskyрискован bonusбонус.
377
873000
2000
Този в дясно е всъщност рисков бонус.
14:50
SometimesПонякога the monkeysмаймуни get no bonusбонус -- so this is a bonusбонус of zeroнула.
378
875000
3000
Понякога маймуните не получават бонус -- така че това е нулев бонус.
14:53
SometimesПонякога the monkeysмаймуни get two extraекстра.
379
878000
3000
Понякога маймуните получават две зърна екстра.
14:56
For a bigголям bonusбонус, now they get threeтри.
380
881000
2000
За голям бонус, сега получават три.
14:58
But this is the sameедин и същ choiceизбор you guys just facedизправени.
381
883000
2000
Но това е същият избор, с който се сблъскахте и вие.
15:00
Do the monkeysмаймуни actuallyвсъщност want to playиграя it safeсейф
382
885000
3000
Маймуните всъщност искат ли да постъпят сигурно
15:03
and then go with the guy who'sкой е going to do the sameедин и същ thing on everyвсеки trialпробен период,
383
888000
2000
и тогава да отидат с този, който ще направи същото нещо всеки път,
15:05
or do they want to be riskyрискован
384
890000
2000
или искат да рискуват
15:07
and try to get a riskyрискован, but bigголям, bonusбонус,
385
892000
2000
и да опитат да вземат рискован, но голям бонус,
15:09
but riskриск the possibilityвъзможност of gettingполучаване на no bonusбонус.
386
894000
2000
но да рискуват възможността да не вземат никакъв бонус?
15:11
People here playedизигран it safeсейф.
387
896000
2000
Хората тук играха на сигурно.
15:13
TurnsСе превръща out, the monkeysмаймуни playиграя it safeсейф too.
388
898000
2000
Излиза, че маймуните също избират сигурността.
15:15
QualitativelyКачествено and quantitativelyколичествено,
389
900000
2000
Качаствено и количествено,
15:17
they chooseизбирам exactlyточно the sameедин и същ way as people,
390
902000
2000
те избират точно същото като хората,
15:19
when testedизпитан in the sameедин и същ thing.
391
904000
2000
когато са тествани за същото.
15:21
You mightбиха могли, може say, well, maybe the monkeysмаймуни just don't like riskриск.
392
906000
2000
Можете да кажете, че маймуните просто не обичат риска.
15:23
Maybe we should see how they do with lossesзагуби.
393
908000
2000
Може би трябва да видим как реагират на загуби.
15:25
And so we ranзавтече a secondвтори versionверсия of this.
394
910000
2000
И така изпълнихме втора версия на това.
15:27
Now, the monkeysмаймуни meetСреща two guys
395
912000
2000
Сега маймуните се срещат с двама
15:29
who aren'tне са givingдавайки them bonusesбонуси;
396
914000
2000
които не им дават бонуси;
15:31
they're actuallyвсъщност givingдавайки them lessпо-малко than they expectочаквам.
397
916000
2000
те всъщност им дават по-малко, отколкото очакват.
15:33
So they look like they're startingстартиране out with a bigголям amountколичество.
398
918000
2000
Изглеждат сякаш започват с голяма сума.
15:35
These are threeтри grapesгрозде; the monkey'sна маймуна really psychedpsyched for this.
399
920000
2000
Тези са три зърна грозде; маймуните наистина усетиха това.
15:37
But now they learnуча these guys are going to give them lessпо-малко than they expectочаквам.
400
922000
3000
Но сега те научават, че тези хора ще им дадат по-малко отколкото очакват.
15:40
They guy on the left is a safeсейф lossзагуба.
401
925000
2000
Този вляво е сигурна загуба.
15:42
EveryВсеки singleединичен time, he's going to take one of these away
402
927000
3000
Всеки път, той ще вземе едно зърно от тях
15:45
and give the monkeysмаймуни just two.
403
930000
2000
и ще даде на маймуните само две.
15:47
the guy on the right is the riskyрискован lossзагуба.
404
932000
2000
Този вдясно е рискована загуба.
15:49
SometimesПонякога he givesдава no lossзагуба, so the monkeysмаймуни are really psychedpsyched,
405
934000
3000
Понякога той не дава загуба, така че маймуните усещат,
15:52
but sometimesпонякога he actuallyвсъщност givesдава a bigголям lossзагуба,
406
937000
2000
но понякога дава голяма загуба,
15:54
takingприемате away two to give the monkeysмаймуни only one.
407
939000
2000
отнемайки две, за да даде на маймуните само едно.
15:56
And so what do the monkeysмаймуни do?
408
941000
2000
И така, какво правят маймуните?
15:58
Again, sameедин и същ choiceизбор; they can playиграя it safeсейф
409
943000
2000
Отново, същият избор; могат да изберат сигурното
16:00
for always gettingполучаване на two grapesгрозде everyвсеки singleединичен time,
410
945000
3000
и винаги да получават две зърна всеки път,
16:03
or they can take a riskyрискован betзалагане and chooseизбирам betweenмежду one and threeтри.
411
948000
3000
или могат да вземат рискован залог и да изберат между едно и три.
16:06
The remarkableзабележителен thing to us is that, when you give monkeysмаймуни this choiceизбор,
412
951000
3000
Забележителното нещо за нас е, че когато дадеш на маймуните този избор,
16:09
they do the sameедин и същ irrationalирационален thing that people do.
413
954000
2000
те правят същото нелогично нещо, което правят и хората.
16:11
They actuallyвсъщност becomeда стане more riskyрискован
414
956000
2000
Те стават по-склонни към риск
16:13
dependingв зависимост on how the experimentersекспериментатори startedзапочна.
415
958000
3000
зависейки от това как са започнали експериментите.
16:16
This is crazyлуд because it suggestsподсказва that the monkeysмаймуни too
416
961000
2000
Това е лудост, защото предполага, че маймуните също
16:18
are evaluatingОценка на things in relativeотносителен termsусловия
417
963000
2000
оценяват нещата относително
16:20
and actuallyвсъщност treatingлечение lossesзагуби differentlyразлично than they treatлечение gainsдоходи.
418
965000
3000
и третират загубите различно от придобивките.
16:23
So what does all of this mean?
419
968000
2000
И така, какво означава всичко това?
16:25
Well, what we'veние имаме shownпосочен is that, first of all,
420
970000
2000
Ами, това което показахме е, че първо,
16:27
we can actuallyвсъщност give the monkeysмаймуни a financialфинансов currencyвалута,
421
972000
2000
можем на практика да дадем на маймуните финансова валута,
16:29
and they do very similarподобен things with it.
422
974000
2000
и те правят много подобни неща с нея.
16:31
They do some of the smartумен things we do,
423
976000
2000
Те правят някои от умните неща, които правим и ние,
16:33
some of the kindмил of not so niceприятен things we do,
424
978000
2000
някои от не толкова приятните неща, които правим ние,
16:35
like stealкражба it and so on.
425
980000
2000
като краденето и т.н.
16:37
But they alsoсъщо do some of the irrationalирационален things we do.
426
982000
2000
Но те също правят някои от нелогичните неща, които правим и ние.
16:39
They systematicallyсистематично get things wrongпогрешно
427
984000
2000
Те систематично грешат нещата
16:41
and in the sameедин и същ waysначини that we do.
428
986000
2000
и то по същия начин като нас.
16:43
This is the first take-homeотнеме дома messageсъобщение of the Talk,
429
988000
2000
Това е първият извод от лекцията,
16:45
whichкойто is that if you saw the beginningначало of this and you thought,
430
990000
2000
че ако сте видели началото на това и сте мислели,
16:47
oh, I'm totallyнапълно going to go home and hireнаем a capuchinкапуцин monkeyмаймуна financialфинансов adviserСъветник.
431
992000
2000
о, аз определено отивам у дома и наемам маймуна капуцин за финансов съветник.
16:49
They're way cuterсладко than the one at ... you know --
432
994000
2000
Те са далеч по-сладки от тези в... знаете --
16:51
Don't do that; they're probablyвероятно going to be just as dumbтъп
433
996000
2000
Не правете това, те вероятно ще са толкова глупави,
16:53
as the humanчовек one you alreadyвече have.
434
998000
3000
колкото и човека, който вече имате.
16:56
So, you know, a little badлошо -- Sorry, sorry, sorry.
435
1001000
2000
Това е малко лошо -- Съжалявам, съжалявам, съжалявам.
16:58
A little badлошо for monkeyмаймуна investorsинвеститори.
436
1003000
2000
Малко лошо за инвеститорите-маймуни.
17:00
But of courseкурс, you know, the reasonпричина you're laughingсмее се is badлошо for humansхората too.
437
1005000
3000
Но разбира се, знаете, причината за това, че се смеете е лошо за хората също.
17:03
Because we'veние имаме answeredотговори the questionвъпрос we startedзапочна out with.
438
1008000
3000
Защото сме отговорили на въпроса с който започнахме.
17:06
We wanted to know where these kindsвидове of errorsгрешки cameдойде from.
439
1011000
2000
Искахме да знаем откъде идват тези грешки.
17:08
And we startedзапочна with the hopeнадявам се that maybe we can
440
1013000
2000
И започнахме с надеждата, че може би можем
17:10
sortвид of tweakощипвам our financialфинансов institutionsинституции,
441
1015000
2000
някак да подобрим нашите финансови институции,
17:12
tweakощипвам our technologiesтехнологии to make ourselvesсебе си better.
442
1017000
3000
да подобрим нашите технологии, да направим себе си по-добри.
17:15
But what we'veние имаме learnуча is that these biasesпристрастия mightбиха могли, може be a deeperпо дълбоко partчаст of us than that.
443
1020000
3000
Но това, което научихме е, че тези предразсъдъци може да са по-дълбока част от нас.
17:18
In factфакт, they mightбиха могли, може be dueв следствие to the very natureприрода
444
1023000
2000
Всъщност, те може да са присъщи точно на природата
17:20
of our evolutionaryеволюционен historyистория.
445
1025000
2000
на нашата еволюционна история.
17:22
You know, maybe it's not just humansхората
446
1027000
2000
Знаете, може би не са само хората
17:24
at the right sideстрана of this chainверига that's dunceyглупост.
447
1029000
2000
в дясната страна на тази верига, които са глупаци.
17:26
Maybe it's sortвид of dunceyглупост all the way back.
448
1031000
2000
Може би е вид глупост по целия път назад.
17:28
And this, if we believe the capuchinкапуцин monkeyмаймуна resultsрезултати,
449
1033000
3000
И това, ако вярваме на резултатите от маймуната-капуцин,
17:31
meansсредства that these dunceyглупост strategiesстратегии
450
1036000
2000
означава, че тези глупави стратегии
17:33
mightбиха могли, може be 35 millionмилион yearsгодини oldстар.
451
1038000
2000
може да са стари 35 милиона години.
17:35
That's a long time for a strategyстратегия
452
1040000
2000
Това е дълго време за стратегия.
17:37
to potentiallyпотенциално get changedпроменен around -- really, really oldстар.
453
1042000
3000
потенциално да бъде заменена -- наистина, наистина стара.
17:40
What do we know about other oldстар strategiesстратегии like this?
454
1045000
2000
Какво знаем за други стари стратегии като тази?
17:42
Well, one thing we know is that they tendсклонен to be really hardтвърд to overcomeпреодолеят.
455
1047000
3000
Едно нещо което знаем е, че те са наистина трудни за преодоляване.
17:45
You know, think of our evolutionaryеволюционен predilectionсклонност
456
1050000
2000
Помислете за нашето еволюционно предразположение
17:47
for eatingхраня се sweetсладка things, fattyмастни things like cheesecakeчийзкейк.
457
1052000
3000
да ядем сладки неща, неща от които напълняваме, като чийзкейка.
17:50
You can't just shutзатворен that off.
458
1055000
2000
Не можете просто да го изключите.
17:52
You can't just look at the dessertдесерт cartколичка as say, "No, no, no. That looksвъншност disgustingотвратителен to me."
459
1057000
3000
Не можете просто да погледнете количката с десерти и да кажете, " Не, не, не. Това е отвратително за мен."
17:55
We're just builtпостроен differentlyразлично.
460
1060000
2000
Ние просто сме направени различно.
17:57
We're going to perceiveвъзприемат it as a good thing to go after.
461
1062000
2000
Ние ще го възприемаме като нещо добро за нас.
17:59
My guessпредполагам is that the sameедин и същ thing is going to be trueвярно
462
1064000
2000
Моето предположение е, че същото нещо ще е вярно
18:01
when humansхората are perceivingвъзприемане на
463
1066000
2000
когато хората възприемат
18:03
differentразличен financialфинансов decisionsрешения.
464
1068000
2000
различни финансови решения.
18:05
When you're watchingгледане your stocksзапаси plummetотвеса into the redчервен,
465
1070000
2000
Когато гледате вашите акции да губят стойност,
18:07
when you're watchingгледане your houseкъща priceцена go down,
466
1072000
2000
когато гледате цената на къщата ви да спада,
18:09
you're not going to be ableспособен to see that
467
1074000
2000
няма да можете да видите това
18:11
in anything but oldстар evolutionaryеволюционен termsусловия.
468
1076000
2000
в нищо друго освен в стар еволюционен смисъл.
18:13
This meansсредства that the biasesпристрастия
469
1078000
2000
Това означава, че предразсъдъците,
18:15
that leadводя investorsинвеститори to do badlyзле,
470
1080000
2000
които доведоха инвеститорите да направят лошо,
18:17
that leadводя to the foreclosureвъзбрана crisisкриза
471
1082000
2000
което доведе до кризата с пресрочените ипотеки
18:19
are going to be really hardтвърд to overcomeпреодолеят.
472
1084000
2000
ще бъдат наистина трудни за преодоляване.
18:21
So that's the badлошо newsНовини. The questionвъпрос is: is there any good newsНовини?
473
1086000
2000
Това е лошата новина. Въпросът е: има ли някаква добра новина?
18:23
I'm supposedпредполагаем to be up here tellingказвам you the good newsНовини.
474
1088000
2000
Предполага се, че съм тук за да ви кажа добрата новина.
18:25
Well, the good newsНовини, I think,
475
1090000
2000
Е, добрата новина, мисля,
18:27
is what I startedзапочна with at the beginningначало of the Talk,
476
1092000
2000
е това, с което започнах в началото на лекцията,
18:29
whichкойто is that humansхората are not only smartумен;
477
1094000
2000
което е, че хората са не само умни;
18:31
we're really inspirationallyвдъхновяващо smartумен
478
1096000
2000
ние сме наистина вдъхновяващо умни
18:33
to the restПочивка of the animalsживотни in the biologicalбиологичен kingdomцарство.
479
1098000
3000
сравнени с останалите животни в биологическото царство.
18:36
We're so good at overcomingпреодоляване на our biologicalбиологичен limitationsограничения --
480
1101000
3000
Ние сме толкова добри в преодоляването на нашите биологически ограничения --
18:39
you know, I flewотлетя over here in an airplaneсамолет.
481
1104000
2000
знаете, прелетях тук със самолет.
18:41
I didn't have to try to flapклапа my wingsкрила.
482
1106000
2000
Не трябваше да опитам да махам с криле.
18:43
I'm wearingносенето contactконтакт lensesлещи now so that I can see all of you.
483
1108000
3000
Нося контактни лещи, за да мога да ви видя всички.
18:46
I don't have to relyразчитам on my ownсобствен near-sightednessкъсогледство.
484
1111000
3000
Не трябва да разчитам на моето късогледство.
18:49
We actuallyвсъщност have all of these casesслучаи
485
1114000
2000
Ние всъщност имаме всички тези случаи
18:51
where we overcomeпреодолеят our biologicalбиологичен limitationsограничения
486
1116000
3000
в които преодоляваме нашите биологически ограничения
18:54
throughпрез technologyтехнология and other meansсредства, seeminglyпривидно prettyкрасива easilyлесно.
487
1119000
3000
чрез технологиите и други начини, изглеждайки доста лесно.
18:57
But we have to recognizeпризнавам that we have those limitationsограничения.
488
1122000
3000
Но трябва да признаем, че имаме тези ограничения.
19:00
And here'sето the rubRUB.
489
1125000
2000
И ето изненадата.
19:02
It was CamusКамю who onceведнъж said that, "Man is the only speciesвид
490
1127000
2000
Камю, веднъж каза, че "Човекът е единственият вид,
19:04
who refusesотказва to be what he really is."
491
1129000
3000
който отказва да бъде това, което наистина е."
19:07
But the ironyирония is that
492
1132000
2000
Но иронията е, че това
19:09
it mightбиха могли, може only be in recognizingпризнаването our limitationsограничения
493
1134000
2000
може да стане само като признаем своите ограничения.
19:11
that we can really actuallyвсъщност overcomeпреодолеят them.
494
1136000
2000
Тогава можем наистина да ги предолеем.
19:13
The hopeнадявам се is that you all will think about your limitationsограничения,
495
1138000
3000
Надеждата е, че всички ще си помислите за вашите ограничения,
19:16
not necessarilyнепременно as unovercomableunovercomable,
496
1141000
3000
не непременно като непреодолими,
19:19
but to recognizeпризнавам them, acceptприемам them
497
1144000
2000
но да ги признаем, да ги приемем
19:21
and then use the worldсвят of designдизайн to actuallyвсъщност figureфигура them out.
498
1146000
3000
и тогава да използваме света на дизайна, за да ги разберем.
19:24
That mightбиха могли, може be the only way that we will really be ableспособен
499
1149000
3000
Това може да е единствения начин, по който ще можем
19:27
to achieveпостигане our ownсобствен humanчовек potentialпотенциал
500
1152000
2000
да постигнем нашият собствен човешки потенциал
19:29
and really be the nobleблагородник speciesвид we hopeнадявам се to all be.
501
1154000
3000
и наистина да бъдем благородният вид, който се надяваме да бъдем.,
19:32
Thank you.
502
1157000
2000
Благодря ви.
19:34
(ApplauseАплодисменти)
503
1159000
5000
(Аплодисменти)
Translated by Stoyan Georgiev
Reviewed by Mike Ramm

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com