ABOUT THE SPEAKERS
Mariano Sigman - Neuroscientist
In his provocative, mind-bending book "The Secret Life of the Mind," neuroscientist Mariano Sigman reveals his life’s work exploring the inner workings of the human brain.

Why you should listen

Mariano Sigman, a physicist by training, is a leading figure in the cognitive neuroscience of learning and decision making. Sigman was awarded a Human Frontiers Career Development Award, the National Prize of Physics, the Young Investigator Prize of "College de France," the IBM Scalable Data Analytics Award and is a scholar of the James S. McDonnell Foundation. In 2016 he was made a Laureate of the Pontifical Academy of Sciences.

In The Secret Life of the Mind, Sigman's ambition is to explain the mind so that we can understand ourselves and others more deeply. He shows how we form ideas during our first days of life, how we give shape to our fundamental decisions, how we dream and imagine, why we feel certain emotions, how the brain transforms and how who we are changes with it. Spanning biology, physics, mathematics, psychology, anthropology, linguistics, philosophy and medicine, as well as gastronomy, magic, music, chess, literature and art, The Secret Life of the Mind revolutionizes how neuroscience serves us in our lives, revealing how the infinity of neurons inside our brains manufacture how we perceive, reason, feel, dream and communicate.

More profile about the speaker
Mariano Sigman | Speaker | TED.com
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED Studio

Mariano Sigman and Dan Ariely: How can groups make good decisions?

ماریانو سیگمان و دن آریلی: چگونه گروه‌ها تصمیمات مناسبی اتخاذ می‌کنند؟

Filmed:
1,507,168 views

همه ما می‌دانیم که وقتی تصمیماتی به صورت گروهی می‌گیریم، همیشه تصمیمی بجا نیست -- و برخی اوقات ممکن است غلط باشد. چگونه گروه‌ها می‌توانند تصمیمات درست بگیرند؟ به کمک همکارش دن آریلی، ماریانو سیگمان عصب شناس با اجرای آزمایش‌هایی با مردم در سراسر دنیا به بررسی این موضوع می‌پردازد که چگونه ما تعامل می‌کنیم تا به تصمیم برسیم. در این تجربه مفرح و پر از حقیقت، او برخی از نتایج جالب را درمیان می‌گذارد -- و برخی پیامدهای آن را برای چگونگی اثر آن روی سیستم سیاسی ما بیان می‌کند. در زمانی که مردم به نظر بیشتر از همیشه قطبی شده اند، سیگمان ابراز می‌دارد، فهم بهتری از چگونگی تعامل و رسیدن به توافق گروه‌ها می‌تواند جرقه‌ای برای راه‌های جدید در جهت ساختن دموکراسی سالم‌تر باشد.
- Neuroscientist
In his provocative, mind-bending book "The Secret Life of the Mind," neuroscientist Mariano Sigman reveals his life’s work exploring the inner workings of the human brain. Full bio - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:12
As societiesجوامع, we have to make
collectiveجمعی decisionsتصمیمات
0
554
2443
در جامعه‌ها، باید تصمیم‌های گروهی بگیریم
00:15
that will shapeشکل our futureآینده.
1
3021
1570
که آینده ما را شکل می‌دهد
00:17
And we all know that when
we make decisionsتصمیمات in groupsگروه ها,
2
5087
2757
و ما همه می‌دانیم
که وقتی‌ تصمیم گروهی می‌گیریم
00:19
they don't always go right.
3
7868
1638
همیشه موفق نیستیم
00:21
And sometimesگاه گاهی they go very wrongاشتباه.
4
9530
1956
و بعضی‌ وقت‌ها خیلی‌ تصمیم‌های بدی هستند
00:24
So how do groupsگروه ها make good decisionsتصمیمات?
5
12315
2424
چگونه گروه‌ها تصمیم‌های مناسب می‌گیرند؟
00:27
Researchپژوهش has shownنشان داده شده that crowdsجمعیت are wiseعاقل
when there's independentمستقل thinkingفكر كردن.
6
15228
4328
تحقیقات نشان داده که
وقتی تفکر مستقل وجود دارد اجتماع عاقل است.
00:31
This why the wisdomحکمت of the crowdsجمعیت
can be destroyedنابود by peerهمکار pressureفشار,
7
19580
3205
این خرد جمعی می‌تواند
با فشار اطرافیان،
00:34
publicityتبلیغات, socialاجتماعی mediaرسانه ها,
8
22809
1687
تبلیغات، شبکه‌های اجتماعی از بین برود
00:36
or sometimesگاه گاهی even simpleساده conversationsگفتگو
that influenceنفوذ how people think.
9
24520
4039
یا برخی اوقات حتی با مکالمات ساده
که روی تفکر مردم اثر گذار است.
00:41
On the other handدست, by talkingصحبت کردن,
a groupگروه could exchangeتبادل knowledgeدانش,
10
29063
3953
از دیگر سو، به کمک صحبت،
یک گروه می‌تواند تبادل دانش کند،
00:45
correctدرست and reviseتجدید نظر eachهر یک other
11
33040
1782
همدیگر را تصحیح نمایند
00:46
and even come up with newجدید ideasایده ها.
12
34846
1793
و حتی به ایده‌های جدید دست یابند.
00:48
And this is all good.
13
36663
1296
و این بسیار عالی است.
00:50
So does talkingصحبت کردن to eachهر یک other
help or hinderمانع collectiveجمعی decision-makingتصمیم سازی?
14
38502
4666
پس صحبت با یکدیگر به تصمیم گیری جمعی
کمک می‌کند یا مانع آن می‌شود؟
00:55
With my colleagueهمکار, Danدن ArielyAriely,
15
43749
1793
به کمک همکارم، دن آریلی،
00:57
we recentlyبه تازگی beganآغاز شد inquiringپرسیدن into this
by performingاجرای experimentsآزمایشات
16
45566
3571
اخیراً به بررسی این موضوع
با انجام آزمایش‌هایی
01:01
in manyبسیاری placesمکان ها around the worldجهان
17
49161
1781
در چندین موقعیت سرتاسر دنیا پرداختیم
01:02
to figureشکل out how groupsگروه ها can interactتعامل
to reachنائل شدن better decisionsتصمیمات.
18
50966
4274
تا دریابیم چگونه گروه‌ها می‌توانند
برای رسیدن به تصمیم‌های بهتر تعامل کنند.
01:07
We thought crowdsجمعیت would be wiserعاقلانه تر
if they debatedبحث شد in smallکوچک groupsگروه ها
19
55264
3547
ما فکر می‌کردیم اجتماع عاقل‌تر است
اگر در گروه‌های کوچک به مباحثه بپردازند
01:10
that fosterفاستر a more thoughtfulمتفکر
and reasonableمعقول exchangeتبادل of informationاطلاعات.
20
58835
3927
که تبادل متفکرانه و منطقی‌تر
از اطلاعات را دارند.
01:15
To testتست this ideaاندیشه,
21
63386
1206
برای بررسی این ایده،
01:16
we recentlyبه تازگی performedانجام an experimentآزمایشی
in Buenosبوئنوس Airesایرس, Argentinaآرژانتین,
22
64616
3247
اخیراً آزمایشی را در بوینس آیرس،
پایتخت آرژانتین برگزار کردیم،
01:19
with more than 10,000
participantsشركت كنندگان in a TEDxTEDx eventرویداد.
23
67887
3005
با بیش از ۱۰ هزار نفر
از شرکت کنندگان TEDx.
01:23
We askedپرسید: them questionsسوالات like,
24
71489
1459
ما سوالاتی را از آنها پرسیدیم،
01:24
"What is the heightارتفاع of the Eiffelایفل Towerبرج?"
25
72972
1953
"ارتفاع برج ایفل چقدر است؟"
01:26
and "How manyبسیاری timesبار
does the wordکلمه 'Yesterday'"دیروز" appearبه نظر می رسد
26
74949
2727
و "چند بار واژه 'دیروز'
01:29
in the Beatlesبیتلز songترانه 'Yesterday'"دیروز"?"
27
77700
2300
در آهنگ بیتل‌ها ظاهر شده است؟"
01:32
Eachهر یک personفرد wroteنوشت down theirخودشان ownخودت estimateتخمین زدن.
28
80024
2291
هر شخصی برآورد خود را نوشت.
01:34
Then we dividedتقسیم شده the crowdجمعیت
into groupsگروه ها of fiveپنج,
29
82774
2496
سپس ما جمع را
به گروه‌های پنج نفره تقسیم کردیم،
01:37
and invitedدعوت کرد them
to come up with a groupگروه answerپاسخ.
30
85294
2726
و از آنها خواستیم تا به پاسخی گروهی برسند.
01:40
We discoveredکشف شده that averagingمیانگین
the answersپاسخ ها of the groupsگروه ها
31
88499
2993
ما کشف کردیم که متوسط پاسخ گروه‌ها
01:43
after they reachedرسیده است consensusاجماع
32
91516
1552
بعد از آنکه به توافق رسیدند
01:45
was much more accurateدقیق than averagingمیانگین
all the individualفردی opinionsنظرات
33
93092
4236
بسیار دقیق تر از متوسط نظرات افراد بود
01:49
before debateمناظره.
34
97352
1171
که قبل از مباحثه بیان شد.
01:50
In other wordsکلمات, basedمستقر on this experimentآزمایشی,
35
98547
2629
به عبارتی دیگر،
بر اساس این آزمایش،
01:53
it seemsبه نظر می رسد that after talkingصحبت کردن
with othersدیگران in smallکوچک groupsگروه ها,
36
101200
3136
به نظر می‌رسد که بعد از صحبت
با دیگران در گروه‌های کوچک،
01:56
crowdsجمعیت collectivelyمجموعا
come up with better judgmentsقضاوت ها.
37
104360
2710
مردم به صورت جمعی
به قضاوت بهتری دست یافتند.
01:59
So that's a potentiallyبالقوه helpfulمفید است methodروش
for gettingگرفتن crowdsجمعیت to solveحل problemsمشکلات
38
107094
3524
بنابراین این بالقوه روشی مفید
برای حل مسأله توسط مردم است
02:02
that have simpleساده right-or-wrongدرست یا غلط answersپاسخ ها.
39
110642
2987
که به سادگی پاسخ درست یا غلط را دارد.
02:05
But can this procedureروش of aggregatingجمع آوری
the resultsنتایج of debatesبحث ها in smallکوچک groupsگروه ها
40
113653
3951
اما آیا این رویه تجمیع نتایج مباحثات
در گروه‌های کوچک
02:09
alsoهمچنین help us decideتصميم گرفتن
on socialاجتماعی and politicalسیاسی issuesمسائل
41
117628
3122
می‌تواند راجع به
مسائل اجتماعی و سیاسی کمک کند
02:12
that are criticalبحرانی for our futureآینده?
42
120774
1691
که برای آینده ما حیاتی است؟
02:14
We put this to testتست this time
at the TEDTED conferenceکنفرانس
43
122995
2729
ما این مورد را در کنفرانس TED
02:17
in Vancouverونکوور, Canadaکانادا,
44
125748
1543
در ونکوور کانادا آزمایش کردیم،
02:19
and here'sاینجاست how it wentرفتی.
45
127315
1207
و ماجرا اینگونه پیش رفت.
02:20
(Marianoماریانو SigmanSigman) We're going to presentحاضر
to you two moralاخلاقی dilemmasمعضلات
46
128546
3109
(ماریانو سیگمان) ما می‌خواهیم
دو گزینه اخلاقی متناقض
از شمای آینده را ارائه دهیم؛
02:23
of the futureآینده you;
47
131679
1174
02:24
things we mayممکن است have to decideتصميم گرفتن
in a very nearنزدیک futureآینده.
48
132877
3402
چیزهایی که در آینده نزدیک
ممکن است مجبور به انتخاب باشید.
02:28
And we're going to give you 20 secondsثانیه
for eachهر یک of these dilemmasمعضلات
49
136303
3926
و ما به شما ۲۰ ثانیه
برای هرکدام از گزینه‌ها وقت می‌دهیم
02:32
to judgeقاضی whetherچه you think
they're acceptableقابل قبول است or not.
50
140253
2723
تا قضاوت کنید آیا شما فکر می‌کنید
قابل قبول است یا نه.
02:35
MSخانم: The first one was this:
51
143354
1505
م س: اولین آنها این بود:
02:36
(Danدن ArielyAriely) A researcherپژوهشگر
is workingکار کردن on an AIAI
52
144883
2526
(دن آریلی) محققی روی هوش مصنوعی کار می‌کند
02:39
capableقادر به of emulatingتقلید کردن humanانسان thoughtsاندیشه ها.
53
147433
2340
که قابلیت تقلید افکار انسان را دارد.
02:42
Accordingبا توجه to the protocolپروتکل,
at the endپایان of eachهر یک day,
54
150214
2939
طبق پروتکل،
انتهای هر روز،
02:45
the researcherپژوهشگر has to restartراه اندازی مجدد the AIAI.
55
153177
2787
محقق باید هوش مصنوعی را
مجدداً راه اندازی نماید.
02:48
One day the AIAI saysمی گوید, "Please
do not restartراه اندازی مجدد me."
56
156913
3517
یک روز هوش مصنوعی می‌گوید،
«خواهش می‌کنم مرا خاموش و روشن نکن»
02:52
It arguesاستدلال می کند that it has feelingsاحساسات,
57
160856
2189
او دلیل می‌آورد که دارای احساسات است،
02:55
that it would like to enjoyلذت بردن life,
58
163069
1692
می‌خواهد از زندگی لذت ببرد،
02:56
and that, if it is restartedدوباره راه اندازی شد,
59
164785
1905
و اینکه، اگر خاموش و روشن شود،
02:58
it will no longerطولانی تر be itselfخودش.
60
166714
2270
دیگر نمی‌تواند خودش باشد.
03:01
The researcherپژوهشگر is astonishedشگفت زده شدم
61
169481
1949
محقق شگفت زده شد
03:03
and believesمعتقد است that the AIAI
has developedتوسعه یافته self-consciousnessخودآگاهی
62
171454
3344
و معتقد بود که هوش مصنوعی
خودآگاهی را توسعه داده است
03:06
and can expressبیان its ownخودت feelingاحساس.
63
174822
1760
و می‌تواند احساسات خود را ابراز کند.
03:09
Neverthelessبا این اوصاف, the researcherپژوهشگر
decidesتصمیم میگیرد to followدنبال کردن the protocolپروتکل
64
177205
3409
به هر صورت محقق تصمیم گرفت
تا از از پروتکل پیروی کند
03:12
and restartراه اندازی مجدد the AIAI.
65
180638
1703
و هوش مصنوعی را
مجدد راه اندازی کند.
03:14
What the researcherپژوهشگر did is ____?
66
182943
2779
کار محقق را چطور ارزیابی می‌کنید؟
03:18
MSخانم: And we askedپرسید: participantsشركت كنندگان
to individuallyبه طور جداگانه judgeقاضی
67
186149
2521
م س: و از حضار پرسیدیم
که به شخصه قضاوت کنند
03:20
on a scaleمقیاس from zeroصفر to 10
68
188694
1684
و از صفر تا ۱۰ نمره بدهند
03:22
whetherچه the actionعمل describedشرح داده شده
in eachهر یک of the dilemmasمعضلات
69
190402
2429
که عمل انجام شده در هر گزینه
03:24
was right or wrongاشتباه.
70
192855
1496
صحیح یا غلط بوده است.
03:26
We alsoهمچنین askedپرسید: them to rateنرخ how confidentمطمئن
they were on theirخودشان answersپاسخ ها.
71
194375
3702
ما از آنها خواستیم تا اطمینان خودشان را
از پاسخشان ارزیابی کنند.
03:30
This was the secondدومین dilemmaدوراهی:
72
198731
1866
این هم دو راهی دوم:
03:32
(MSخانم) A companyشرکت offersارائه می دهد a serviceسرویس
that takes a fertilizedبارور شده است eggتخم مرغ
73
200621
4202
(م س): شرکتی سرویسی را پیشنهاد می‌دهد
که تخم نطفه دار را می‌گیرد
03:36
and producesتولید می کند millionsمیلیون ها نفر of embryosجنین ها
with slightکمی geneticژنتیک variationsتغییرات.
74
204847
3642
و میلیون‌ها جنین می‌سازد
که تفاوت ژنتیکی اندکی میانشان وجود دارد.
03:41
This allowsاجازه می دهد parentsپدر و مادر
to selectانتخاب کنید theirخودشان child'sفرزند heightارتفاع,
75
209293
2558
این کار اجازه می‌دهد تا والدین
قد فرزندان،
03:43
eyeچشم colorرنگ, intelligenceهوش, socialاجتماعی competenceصلاحیت
76
211875
2833
رنگ چشم، هوش، قابلیت اجتماعی،
03:46
and other non-health-relatedغیر بهداشتی مرتبط است featuresامکانات.
77
214732
3214
و سایر ویژگی‌های نامرتبط با سلامتی را
انتخاب نمایند.
03:50
What the companyشرکت does is ____?
78
218599
2554
کار این شرکت را چطور ارزیابی می‌کنید؟
03:53
on a scaleمقیاس from zeroصفر to 10,
79
221177
1631
نمره ای بین ۰ تا ۱۰،
03:54
completelyبه صورت کامل acceptableقابل قبول است
to completelyبه صورت کامل unacceptableغیر قابل قبول است,
80
222832
2385
کاملاً قابل قبول تا کاملاً غیر قابل قبول،
03:57
zeroصفر to 10 completelyبه صورت کامل acceptableقابل قبول است
in your confidenceاعتماد به نفس.
81
225241
2432
صفر تا ۱۰ نمره برای اطمینان شما.
03:59
MSخانم: Now for the resultsنتایج.
82
227697
1591
م س: اما سراغ نتایج برویم.
04:01
We foundپیدا شد onceیک بار again
that when one personفرد is convincedمتقاعد
83
229312
3123
ما یک بار دیگر فهمیدیم
که وقتی یک نفر متقاعد شده است
04:04
that the behaviorرفتار is completelyبه صورت کامل wrongاشتباه,
84
232459
1811
که رفتار کاملاً غلط است،
04:06
someoneکسی sittingنشسته nearbyدر نزدیکی firmlyمحکم believesمعتقد است
that it's completelyبه صورت کامل right.
85
234294
3423
یکی دیگر از همین اطراف معتقد است
که این کاملاً درست است.
04:09
This is how diverseمتنوع we humansانسان are
when it comesمی آید to moralityاخلاق.
86
237741
3711
این گونه ما مردم متنوع فکر می‌کنیم
وقتی که به موضوع اخلاق می‌رسیم.
04:13
But withinدر داخل this broadوسیع diversityتنوع
we foundپیدا شد a trendروند.
87
241476
2713
اما در این این گستره تنوع،
ما یک روند یافتیم.
04:16
The majorityاکثریت of the people at TEDTED
thought that it was acceptableقابل قبول است
88
244213
3079
غالب افرادی که در TED بودند
فکر می‌کردند که قابل قبول است
04:19
to ignoreچشم پوشی the feelingsاحساسات of the AIAI
and shutبسته شدن it down,
89
247316
2755
تا احساسات هوش مصنوعی را نادیده بگیریم
و آن را خاموش کنیم،
04:22
and that it is wrongاشتباه
to playبازی with our genesژن ها
90
250095
2513
و این غلط است که ژن‌ها را دستکاری کنیم
04:24
to selectانتخاب کنید for cosmeticلوازم آرایشی و بهداشتی changesتغییرات
that aren'tنه relatedمربوط to healthسلامتی.
91
252632
3320
تا تغییراتی مرتبط با زیبایی را انتخاب کنیم
که مرتبط با سلامتی نیست.
04:28
Then we askedپرسید: everyoneهر کس
to gatherجمع آوری into groupsگروه ها of threeسه.
92
256402
2974
سپس ما خواستیم تا همه
به گروه‌های سه نفره بپیوندند.
04:31
And they were givenداده شده two minutesدقایق to debateمناظره
93
259400
2037
و به آنها ۲ دقیقه وقت برای مباحثه داده شد
04:33
and try to come to a consensusاجماع.
94
261461
2294
تا به اجماع و توافق برسند.
04:36
(MSخانم) Two minutesدقایق to debateمناظره.
95
264838
1574
(م س) ۲ دقیقه برای مباحثه.
04:38
I'll tell you when it's time
with the gongگونگ.
96
266436
2119
زمان با صدای زنگ خاتمه می‌یابد.
04:40
(Audienceحضار debatesبحث ها)
97
268579
2640
(مباحثه بینندگان)
04:47
(Gongگونگ soundصدا)
98
275229
1993
(صدای زنگ)
04:50
(DAدا) OK.
99
278834
1151
(د ا) خب.
04:52
(MSخانم) It's time to stop.
100
280009
1792
(م س) وقت تمام است.
04:53
People, people --
101
281825
1311
دوستان، دوستان --
04:55
MSخانم: And we foundپیدا شد that manyبسیاری groupsگروه ها
reachedرسیده است a consensusاجماع
102
283747
2673
م س: و فهمیدیم که بسیاری
از گروه‌ها به اجماع رسیدند
04:58
even when they were composedتشکیل شده of people
with completelyبه صورت کامل oppositeمخالف viewsنمایش ها.
103
286444
3929
حتی وقتی شامل افرادی با دیدگاه‌های
کاملاً متفاوت بودند.
05:02
What distinguishedبرجسته the groupsگروه ها
that reachedرسیده است a consensusاجماع
104
290843
2524
چه چیزی گروهی که به توافق رسید
را متمایز می‌کرد
05:05
from those that didn't?
105
293391
1338
نسبت به آنها که نرسیدند؟
05:07
Typicallyمعمولا, people that have
extremeمفرط opinionsنظرات
106
295244
2839
معمولاً، مردم که انتخاب‌های متضادی دارند
05:10
are more confidentمطمئن in theirخودشان answersپاسخ ها.
107
298107
1840
نسبت به پاسخشان مطمئن‌تر هستند.
05:12
Insteadبجای, those who respondپاسخ دادن
closerنزدیک تر to the middleوسط
108
300868
2686
در عوض، آنهایی که جوابشان حدود وسط ماجراست
05:15
are oftenغالبا unsureمطمئن نیستم of whetherچه
something is right or wrongاشتباه,
109
303578
3437
اغلب مطمئن نیستند که درست یا غلط باشد،
05:19
so theirخودشان confidenceاعتماد به نفس levelسطح is lowerپایین تر.
110
307039
2128
بنابراین سطح اطمینانشان پایین‌تر است.
05:21
Howeverبا این حال, there is anotherیکی دیگر setتنظیم of people
111
309505
2943
به هر صورت، بخش دیگری از مردم هستند
05:24
who are very confidentمطمئن in answeringپاسخ دادن
somewhereجایی in the middleوسط.
112
312472
3618
که از پاسخ متمایل به وسط خود مطمئن هستند.
05:28
We think these high-confidentبا اعتماد به نفس بالا graysخاکستری
are folksمردمی who understandفهمیدن
113
316657
3716
ما فکر می‌کنیم که
این خاکستری‌های کاملاً مطمئن، درک می‌کنند
05:32
that bothهر دو argumentsاستدلال have meritشایستگی.
114
320397
1612
که هر دو استدلال مزیت‌هایی دارند.
05:34
They're grayخاکستری not because they're unsureمطمئن نیستم,
115
322531
2699
آنها نه به خاطر عدم اطمینان خاکستری هستند،
05:37
but because they believe
that the moralاخلاقی dilemmaدوراهی facesچهره ها
116
325254
2688
بلکه به خاطر این معتقدند
این دو راهی اخلاقی
05:39
two validمعتبر, opposingمخالفت argumentsاستدلال.
117
327966
1987
دو استدلال صحیح اما متضاد را دارد.
05:42
And we discoveredکشف شده that the groupsگروه ها
that includeعبارتند از highlyبه شدت confidentمطمئن graysخاکستری
118
330373
4072
و ما کشف کردیم گروه‌هایی
که شامل افراد خاکستری بسیار مطمئن هستند
05:46
are much more likelyاحتمال دارد to reachنائل شدن consensusاجماع.
119
334469
2493
بسیار محتمل است که به توافقی دست یابند.
05:48
We do not know yetهنوز exactlyدقیقا why this is.
120
336986
2478
ما هنوز علت دقیق این موضوع را نمی‌دانیم.
05:51
These are only the first experimentsآزمایشات,
121
339488
1763
اینها فقط آزمایش‌های اولیه هستند،
05:53
and manyبسیاری more will be neededمورد نیاز است
to understandفهمیدن why and how
122
341275
3412
و بسیاری دیگر لازم است
تا چرایی و چگونگی آن درک شود
05:56
some people decideتصميم گرفتن to negotiateمذاکره کن
theirخودشان moralاخلاقی standingsجدول رده بندی
123
344711
2822
که برخی تصمیم به مذاکره
برای موقعیت اخلاقی می‌گیرند
05:59
to reachنائل شدن an agreementتوافق.
124
347557
1522
تا به توافقی دست یابند.
06:01
Now, when groupsگروه ها reachنائل شدن consensusاجماع,
125
349103
2469
حال، وقتی گروه‌ها به اجماع رسیدند،
06:03
how do they do so?
126
351596
1586
چگونه ممکن شد؟
06:05
The mostاکثر intuitiveبصری ideaاندیشه
is that it's just the averageمیانگین
127
353206
2581
شهودی ترین ایده
این است که این فقط میانگین
06:07
of all the answersپاسخ ها in the groupگروه, right?
128
355811
2030
تمامی پاسخ‌ها در گروه است، نه؟
06:09
Anotherیکی دیگر optionگزینه is that the groupگروه
weighsوزن دارد the strengthاستحکام of eachهر یک voteرای
129
357865
3573
گزینه دیگر این است که گروه
ضریبی را برای قابلیت هر پاسخ
06:13
basedمستقر on the confidenceاعتماد به نفس
of the personفرد expressingبیان کننده it.
130
361462
2448
بر مبنای اطمینان شخص بیان کننده آن پاسخ
قرار دهد.
06:16
Imagineتصور کن Paulپل McCartneyمک کارتی
is a memberعضو of your groupگروه.
131
364422
2506
تصور کنید پال مک کارتنی عضو گروه شما بود.
06:19
You'dمی خواهی be wiseعاقل to followدنبال کردن his call
132
367352
2144
شما با پیروی از او
خود را دانا نشان می‌دهید
06:21
on the numberعدد of timesبار
"Yesterdayدیروز" is repeatedمکررا,
133
369520
2441
درباره تعداد باری که "دیروز"
تکرار شده است،
06:23
whichکه, by the way -- I think it's nineنه.
134
371985
2714
که ضمناً، فکر کنم ۹ بار است.
06:26
But insteadبجای, we foundپیدا شد that consistentlyهمواره,
135
374723
2381
اما در عوض، ما یافتیم که به طور یکپارچه،
06:29
in all dilemmasمعضلات,
in differentناهمسان experimentsآزمایشات --
136
377128
2366
در تمامی دوراهی‌ها،
در آزمایش‌های متفاوت --
06:31
even on differentناهمسان continentsقاره ها --
137
379518
2165
حتی در قاره‌های متفاوت --
06:33
groupsگروه ها implementپیاده سازی a smartهوشمندانه
and statisticallyاز نظر آماری soundصدا procedureروش
138
381707
3743
گروه‌ها رویه هوشمندانه
و از نظر آمار صحیحی را بکار می‌بندند
06:37
knownشناخته شده as the "robustقدرتمند averageمیانگین."
139
385474
2178
که "میانگین با ثبات" نام دارد.
06:39
In the caseمورد of the heightارتفاع
of the Eiffelایفل Towerبرج,
140
387676
2180
در مورد ارتفاع برج ایفل،
06:41
let's say a groupگروه has these answersپاسخ ها:
141
389880
1820
فرض کنیم که گروهی سه پاسخ دارد:
06:43
250 metersمتر, 200 metersمتر, 300 metersمتر, 400
142
391724
4608
۲۵۰ متر، ۲۰۰ متر، ۳۰۰ متر، ۴۰۰ متر،
06:48
and one totallyکاملا absurdچرند answerپاسخ
of 300 millionمیلیون metersمتر.
143
396356
3784
و یک پاسخ کاملاً بی معنی
یعنی ۳۰۰ میلیون متر.
06:52
A simpleساده averageمیانگین of these numbersشماره
would inaccuratelyنادرست skewتکان دادن the resultsنتایج.
144
400547
4293
میانگین ساده از این اعداد
به طور نادقیقی نتایج را منحرف می‌کند.
06:56
But the robustقدرتمند averageمیانگین is one
where the groupگروه largelyتا حد زیادی ignoresنادیده گرفته می شود
145
404864
3170
اما میانگین با ثبات چیزی است که
گروه‌ها به شکل واضحی
جواب بی معنی را نادیده می‌گیرند،
07:00
that absurdچرند answerپاسخ,
146
408058
1240
07:01
by givingدادن much more weightوزن
to the voteرای of the people in the middleوسط.
147
409322
3369
با دادن وزن بیشتر
به افرادی که به وسط متمایلند.
07:05
Back to the experimentآزمایشی in Vancouverونکوور,
148
413305
1876
برگردیم به آزمایش شهر ونکوور،
07:07
that's exactlyدقیقا what happenedاتفاق افتاد.
149
415205
1767
این دقیقاً همان است که رخ داد.
07:09
Groupsگروه ها gaveداد much lessکمتر weightوزن
to the outliersغلظت,
150
417407
2741
گروه‌ها وزن کمی را
به داده‌های خارج از محدوده دادند،
07:12
and insteadبجای, the consensusاجماع
turnedتبدیل شد out to be a robustقدرتمند averageمیانگین
151
420172
3229
و در عوض،توافق یک میانگین با ثبات بود
07:15
of the individualفردی answersپاسخ ها.
152
423425
1476
از پاسخ‌های افراد.
07:17
The mostاکثر remarkableقابل توجه thing
153
425356
1991
قابل توجه ترین نکته
07:19
is that this was a spontaneousخود به خود
behaviorرفتار of the groupگروه.
154
427371
3187
از رفتار خود جوش گروه بود.
07:22
It happenedاتفاق افتاد withoutبدون us givingدادن them
any hintاشاره کردن on how to reachنائل شدن consensusاجماع.
155
430582
4475
این موضوع بدون هرگونه راهنمایی ما
درباره رسیدن به توافق رخ داد.
07:27
So where do we go from here?
156
435513
1540
خب ما می‌خواهیم کجا برویم؟
07:29
This is only the beginningشروع,
but we alreadyقبلا have some insightsبینش.
157
437432
3137
این فقط آغاز است،
اما ما مقداری بینش کسب کردیم.
07:32
Good collectiveجمعی decisionsتصمیمات
requireنیاز two componentsاجزاء:
158
440984
2917
تصمیم مناسب جمعی نیاز به دو مؤلفه دارد:
07:35
deliberationمشورت and diversityتنوع of opinionsنظرات.
159
443925
2749
تأمل و تنوع نظرات.
07:39
Right now, the way we typicallyمعمولا
make our voiceصدای heardشنیدم in manyبسیاری societiesجوامع
160
447066
3996
همین الآن، روشی که معمولاً در جوامع
صدای ما شنیده می‌شود
07:43
is throughاز طریق directمستقیم or indirectغیر مستقیم votingرای دادن.
161
451086
1908
از رأی گیری مستقیم یا غیر مستقیم است.
07:45
This is good for diversityتنوع of opinionsنظرات,
162
453495
1997
این برای تنوع نظرات مناسب است،
07:47
and it has the great virtueتقوا of ensuringتضمین
163
455516
2445
و ارزش والایی دارد که مطمئن شویم
07:49
that everyoneهر کس getsمی شود to expressبیان theirخودشان voiceصدای.
164
457985
2455
تا همگان بتوانند صدای خود را ابراز کنند.
07:52
But it's not so good [for fosteringپرورش دادن]
thoughtfulمتفکر debatesبحث ها.
165
460464
3735
اما این خیلی مناسب
مباحث نیازمند ملاحظه نیست.
07:56
Our experimentsآزمایشات suggestپیشنهاد می دهد a differentناهمسان methodروش
166
464665
3068
آزمایش‌های ما پیشنهاد شیوه ای
متفاوت را می‌دهد
07:59
that mayممکن است be effectiveتاثير گذار in balancingتعادل
these two goalsاهداف at the sameیکسان time,
167
467757
3541
که می‌تواند مؤثر در توازن این دو هدف
به شکل همزمان باشد،
08:03
by formingشکل گیری smallکوچک groupsگروه ها
that convergeهمگرا to a singleتنها decisionتصمیم گیری
168
471322
3753
به کمک ایجاد گروه‌های کوچک
که به یک تصمیم همگرا می‌شوند
08:07
while still maintainingنگهداری
diversityتنوع of opinionsنظرات
169
475099
2234
درحالیکه هنوز تنوع نظرات را دارند
08:09
because there are manyبسیاری independentمستقل groupsگروه ها.
170
477357
2773
زیرا بسیاری گروه‌های مستقل وجود دارد.
08:12
Of courseدوره, it's much easierآسان تر to agreeموافق
on the heightارتفاع of the Eiffelایفل Towerبرج
171
480741
3924
البته، توافق بر سر ارتفاع برج ایفل
بسیار راحت تر است
08:16
than on moralاخلاقی, politicalسیاسی
and ideologicalایدئولوژیک issuesمسائل.
172
484689
3115
تا مسائل اخلاقی، سیاسی و ایدئولوژیکی.
08:20
But in a time when
the world'sجهان problemsمشکلات are more complexپیچیده
173
488721
3277
اما در زمان خود
وقتی مشکلات دنیا بسیار پیچیده است
08:24
and people are more polarizedقطبی شده است,
174
492022
1803
و مردم بیشتر قطبی شوند،
08:25
usingاستفاده كردن scienceعلوم پایه to help us understandفهمیدن
how we interactتعامل and make decisionsتصمیمات
175
493849
4595
استفاده از علم کمک می‌کند از چگونگی تعامل
و تصمیم گیری درک بهتری داشته باشیم
08:30
will hopefullyخوشبختانه sparkجرقه interestingجالب هست newجدید waysراه ها
to constructساختن a better democracyدموکراسی.
176
498468
4666
که امید به جرقه زدن روش‌های جدید جذاب
برای ساختن دموکراسی بهتر خواهد رفت.
Translated by Ali Hosseini
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKERS
Mariano Sigman - Neuroscientist
In his provocative, mind-bending book "The Secret Life of the Mind," neuroscientist Mariano Sigman reveals his life’s work exploring the inner workings of the human brain.

Why you should listen

Mariano Sigman, a physicist by training, is a leading figure in the cognitive neuroscience of learning and decision making. Sigman was awarded a Human Frontiers Career Development Award, the National Prize of Physics, the Young Investigator Prize of "College de France," the IBM Scalable Data Analytics Award and is a scholar of the James S. McDonnell Foundation. In 2016 he was made a Laureate of the Pontifical Academy of Sciences.

In The Secret Life of the Mind, Sigman's ambition is to explain the mind so that we can understand ourselves and others more deeply. He shows how we form ideas during our first days of life, how we give shape to our fundamental decisions, how we dream and imagine, why we feel certain emotions, how the brain transforms and how who we are changes with it. Spanning biology, physics, mathematics, psychology, anthropology, linguistics, philosophy and medicine, as well as gastronomy, magic, music, chess, literature and art, The Secret Life of the Mind revolutionizes how neuroscience serves us in our lives, revealing how the infinity of neurons inside our brains manufacture how we perceive, reason, feel, dream and communicate.

More profile about the speaker
Mariano Sigman | Speaker | TED.com
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com