ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

ดามอน โฮโรวิทซ์ ประกาศเรียก "ระบบปฏิบัติการณ์ทางศีลธรรม"

Filmed:
795,617 views

ที่งานประชุม เท๊ด เอ็กส์ ซิลาคอนวาเลย์. ดามอน โฮโรวิทช์ ได้บรรยายถึงพลังอำนาจมหาศาลของเทคโนโลยีได้มอบให้กับเรา : เพื่อที่จะเรียนรู้มากขึ้น --โดยเฉพาะเรียนรู้กันและกัน -- มากกว่าแต่เก่าก่อน. ดามอน โฮโรวิทซ์ ได้นำผู้ฟังเข้าสู่การอภิปรายทางปรัชญา เชื้อเชิญให้พวกเราให้ความสนใจกันใหม่กับปรัชญาพื้นฐาน - หลักการทางจริยศาสตร์ - ที่อยู่เบื้องหลังการเบ่งบานของโลกของเราซึ่งถูกสร้างใหม่โดยสิ่งประดิษฐ์ มันอยู่ที่ไหนกันนะระบบปฏิบัติการณ์ทางศีลธรรมที่จะทำให้เราเข้าใจถึงมัน
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Powerอำนาจ.
0
0
2000
พลัง
00:17
That is the wordคำ that comesมา to mindใจ.
1
2000
2000
คำนี้เข้ามาในความคิดผม
00:19
We're the newใหม่ technologistsเทคโนโลยี.
2
4000
2000
พวกเราเป็นนักเทคโนโลยียุคใหม่
00:21
We have a lot of dataข้อมูล, so we have a lot of powerอำนาจ.
3
6000
3000
พวกเรา มีข้อมูลมากมาย ดังนั้น พวกเรามีจึงมีพลังอำนาจสูง
00:24
How much powerอำนาจ do we have?
4
9000
2000
เรามีพลังอำนาจมากแค่ไหนกัน?
00:26
Sceneฉาก from a movieหนัง: "Apocalypseคัมภีร์ของศาสนาคริสต์ Now" -- great movieหนัง.
5
11000
3000
ฉากนึงจากภาพยนต์เรื่อง "กองทัพอำมหิต" -- เรื่องนี้ดีนะครับ
00:29
We'veเราได้ got to get our heroพระเอก, Captainกัปตัน Willardวิลลาร์ด, to the mouthปาก of the NungNung Riverแม่น้ำ
6
14000
3000
ในฉากนี้ พระเอกของเรา กัปตัน วิลยาร์ต จะต้องไปให้ถึงปากแม่น้ำนุง
00:32
so he can go pursueไล่ตาม Colonelพันเอก Kurtzเคิร์ตซ์.
7
17000
2000
เพื่อตามล่า ผู้พัน เคอร์ซ
00:34
The way we're going to do this is flyบิน him in and dropหล่น him off.
8
19000
2000
และวิธีเดินทางก็คือ บินไปแล้วหย่อนเขาลง
00:36
So the sceneฉาก:
9
21000
2000
ในฉากนั้น :
00:38
the skyท้องฟ้า is filledเต็มไปด้วย with this fleetกองทัพเรือ of helicoptersเฮลิคอปเตอร์ carryingการปฏิบัติ him in.
10
23000
3000
ท้องฟ้าก็เต็มไปด้วยฝูงบินเฮลิคอปเตอร์นำเขาเข้าไป
00:41
And there's this loudดัง, thrillingน่าตื่นเต้น musicเพลง in the backgroundพื้นหลัง,
11
26000
2000
และขณะนั้น ก็มีเสียงดนตรี เสียงดัง และ ตื่นเต้น บรรเลงเป็นประกอบ
00:43
this wildป่า musicเพลง.
12
28000
2000
ให้อารมณ์ดุดัน
00:45
Dumดำ daดา taขอบคุณ daดา dumดำ
13
30000
2000
♫ ปัม ปั่ม ปัม ปั๊ม ปาม ♫
00:47
Dumดำ daดา taขอบคุณ daดา dumดำ
14
32000
2000
♫ปัม ปั่ม ปัม ป้าม ป่าม♫
00:49
Daดา taขอบคุณ daดา daดา
15
34000
3000
♫ปัม ปั่ม ปาม ป้าม♫
00:52
That's a lot of powerอำนาจ.
16
37000
2000
ทรงพลังมาก
00:54
That's the kindชนิด of powerอำนาจ I feel in this roomห้อง.
17
39000
2000
นั่นเป็นรูปแบบพลังที่ผมรู้สึกได้ภายในห้องนี้
00:56
That's the kindชนิด of powerอำนาจ we have
18
41000
2000
เป็นรูปแบบพลังที่เรามี
00:58
because of all of the dataข้อมูล that we have.
19
43000
2000
เพราะว่าข้อมูลทั้งหมดที่เรามี
01:00
Let's take an exampleตัวอย่าง.
20
45000
2000
ลองมาดูตัวอย่าง
01:02
What can we do
21
47000
2000
เราทำอะไรได้บ้าง
01:04
with just one person'sบุคคล dataข้อมูล?
22
49000
3000
ถ้ามีข้อมูลจากคนๆนึง?
01:07
What can we do
23
52000
2000
เราทำอะไรได้บ้าง
01:09
with that guy'sคนที่แต่งตัวประหลาด dataข้อมูล?
24
54000
2000
กับข้อมูลของคนๆนั้น?
01:11
I can look at your financialการเงิน recordsบันทึก.
25
56000
2000
ผมดูข้อมูลทางการเงินคุณได้
01:13
I can tell if you payจ่ายเงิน your billsธนบัตร on time.
26
58000
2000
บอกได้ว่าคุณจ่ายเงินตรงเวลาไหม
01:15
I know if you're good to give a loanเงินกู้ to.
27
60000
2000
รู้ว่าควรให้คุณกู้เงินหรือเปล่า
01:17
I can look at your medicalทางการแพทย์ recordsบันทึก; I can see if your pumpปั๊ม is still pumpingสูบน้ำ --
28
62000
3000
ผมสามารถดูประวัติทางการแพทย์ของคุณ ดูว่าปั๊มยังทำงานดีอยู่หรือเปล่า
01:20
see if you're good to offerเสนอ insuranceประกันภัย to.
29
65000
3000
จะได้รู้ว่าควรออกประกันสุขภาพให้คุณไหม
01:23
I can look at your clickingคลิกที่ patternsรูปแบบ.
30
68000
2000
ผมสามารถดูว่าคุณมักคลิ๊กดูอะไร
01:25
When you come to my websiteเว็บไซต์, I actuallyแท้จริง know what you're going to do alreadyแล้ว
31
70000
3000
เมื่อคุณเข้ามาที่เว็บไซต์ผม จริงๆผมก็รู้แล้วว่าคุณกำลังจะทำอะไร
01:28
because I've seenเห็น you visitเยือน millionsล้าน of websitesเว็บไซต์ before.
32
73000
2000
เพราะผมเห็นว่า คุณไปดูเว็บอะไรมาก่อนเป็นล้านๆเว็บ
01:30
And I'm sorry to tell you,
33
75000
2000
และขอโทษด้วยที่ต้องบอกคุณว่า
01:32
you're like a pokerโป๊กเกอร์ playerผู้เล่น, you have a tell.
34
77000
2000
คุณก็เหมือนคนเล่นโป๊กเกอร์ คุณล่วงรู้ก่อนได้
01:34
I can tell with dataข้อมูล analysisการวิเคราะห์ what you're going to do
35
79000
2000
ผมบอกได้จากการวิเคราะห์ข้อมูล ว่าคุณกำลังจะทำอะไร
01:36
before you even do it.
36
81000
2000
ก่อนที่คุณจะทำเสียอีก
01:38
I know what you like. I know who you are,
37
83000
3000
ผมรู้ว่าคุณชอบอะไร รู้ว่าคุณเป็นใคร
01:41
and that's even before I look at your mailอีเมล
38
86000
2000
ก่อนจะเห็นจดหมาย หรือโทรศัพท์ ของคุณ
01:43
or your phoneโทรศัพท์.
39
88000
2000
ด้วยซ้ำไป
01:45
Those are the kindsชนิด of things we can do
40
90000
2000
นั่นเป็นสิ่งที่เราสามารถทำได้
01:47
with the dataข้อมูล that we have.
41
92000
3000
ด้วยข้อมูลที่เรามี
01:50
But I'm not actuallyแท้จริง here to talk about what we can do.
42
95000
3000
แต่ผมไม่ได้มาที่นี่ เพื่อจะบอกว่า เราทำอะไรได้
01:56
I'm here to talk about what we should do.
43
101000
3000
ผมมาที่นี่เพื่อจะพูดเกี่ยวกับสิ่งที่เราควรทำ
02:00
What's the right thing to do?
44
105000
3000
อะไรเป็นการกระทำที่ถูกต้อง?
02:04
Now I see some puzzledงงงวย looksรูปลักษณ์
45
109000
2000
ตอนนี้ผมเห็นหลายคนส่งสายตาสงสัย
02:06
like, "Why are you askingถาม us what's the right thing to do?
46
111000
3000
แบบว่า "มาถามเราทำไมเนี่ย ว่าการกระทำอะไรเป็นสิ่งที่ถูกต้อง
02:09
We're just buildingอาคาร this stuffสิ่ง. Somebodyบางคน elseอื่น is usingการใช้ it."
47
114000
3000
เราก็แค่สร้างสิ่งนี้ขึ้นมา คนอื่นต่างหากที่ใช้มัน"
02:12
Fairธรรม enoughพอ.
48
117000
3000
ก็จริงอยู่ครับ
02:15
But it bringsนำ me back.
49
120000
2000
แต่มันทำให้ผม
02:17
I think about Worldโลก Warสงคราม IIครั้งที่สอง --
50
122000
2000
กลับมานึกถึงสงครามโลกครั้งที่ 2
02:19
some of our great technologistsเทคโนโลยี then,
51
124000
2000
ผู้สร้างนวัตกรรมผู้ยิ่งใหญ่บางท่าน
02:21
some of our great physicistsฟิสิกส์,
52
126000
2000
นักฟิสิกส์ผู้ยิ่งใหญ่บางท่าน
02:23
studyingการศึกษา nuclearนิวเคลียร์ fissionการแยก and fusionการผสม --
53
128000
2000
ศึกษานิวเคลียร์ฟิชชั่นและฟิวส์ชั่น
02:25
just nuclearนิวเคลียร์ stuffสิ่ง.
54
130000
2000
ก็แค่เรื่องเกี่ยวกับนิวเคลียร์
02:27
We gatherรวบรวม togetherด้วยกัน these physicistsฟิสิกส์ in Losลอส Alamosอาลามอส
55
132000
3000
เรานำนักฟิสิกส์เหล่านี้มารวมตัวกันที่ ลอส อลามอส
02:30
to see what they'llพวกเขาจะ buildสร้าง.
56
135000
3000
ดูว่าพวกเขาจะสร้างอะไรออกมา
02:33
We want the people buildingอาคาร the technologyเทคโนโลยี
57
138000
3000
เราต้องการเห็นคนสร้างสรรค์นวัตกรรม
02:36
thinkingคิด about what we should be doing with the technologyเทคโนโลยี.
58
141000
3000
เราคิดถึงว่า เราเป็นอย่างไร เมื่อมีนวัตกรรมเหล่านี้
02:41
So what should we be doing with that guy'sคนที่แต่งตัวประหลาด dataข้อมูล?
59
146000
3000
แล้ว เราควรทำอย่างไรกับข้อมูลของคนพวกนี้หล่ะ
02:44
Should we be collectingการจัดเก็บภาษี it, gatheringการชุมนุม it,
60
149000
3000
เราควรเก็บ และทำการรวบรวมมันไหม
02:47
so we can make his onlineออนไลน์ experienceประสบการณ์ better?
61
152000
2000
เพื่อที่เราจะได้ทำให้ประสบการณ์ท่องโลกไซเบอร์ดีขึ้น
02:49
So we can make moneyเงิน?
62
154000
2000
เพื่อที่เราจะได้ทำเงินหรือเปล่า?
02:51
So we can protectป้องกัน ourselvesตัวเรา
63
156000
2000
เพื่อที่เราจะได้ป้องกันพวกเราเอง
02:53
if he was up to no good?
64
158000
2000
ถ้าคนๆนี้กำลังจะก่อเหตุร้าย
02:55
Or should we respectเคารพ his privacyความเป็นส่วนตัว,
65
160000
3000
หรือ เราควรให้ความเคารพกับสิทธิส่วนตัวเขา
02:58
protectป้องกัน his dignityเกียรติ and leaveออกจาก him aloneคนเดียว?
66
163000
3000
ปกป้องเกียรติของเขา แล้วอย่างไปยุ่งกับเขา?
03:02
Whichที่ one is it?
67
167000
3000
อย่างไหนดีหล่ะ?
03:05
How should we figureรูป it out?
68
170000
2000
แล้วเราจะรู้ได้อย่างไร?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
ผมรู้: ข้อมูลจากมหาชน ครับมาสำรวจกัน
03:11
So to get people warmedอบอุ่น up,
70
176000
3000
เพื่อเป็นการอุ่นเครื่อง
03:14
let's startเริ่มต้น with an easyง่าย questionคำถาม --
71
179000
2000
เรามาเริ่มกันที่คำถามง่ายๆ
03:16
something I'm sure everybodyทุกคน here has an opinionความคิดเห็น about:
72
181000
3000
อะไรที่ผมมั่นใจว่าทุกคนที่นี่จะต้องมีความเห็นหล่ะ :
03:19
iPhoneiPhone versusกับ AndroidAndroid.
73
184000
2000
ไอโฟน ปะทะ แอนดรอยด์
03:21
Let's do a showแสดง of handsมือ -- iPhoneiPhone.
74
186000
3000
ไหนยกมือครับ -- ไอโฟน
03:24
Uh huh.
75
189000
2000
อ่าฮ่า
03:26
AndroidAndroid.
76
191000
3000
แอนดรอยด์
03:29
You'dคุณต้องการ think with a bunchพวง of smartฉลาด people
77
194000
2000
คุณคิดใช่ไหม คนฉลาดพวกนี้
03:31
we wouldn'tจะไม่ be suchอย่างเช่น suckersหน่อ just for the prettyน่ารัก phonesโทรศัพท์.
78
196000
2000
เราไม่น่าเป็นพวกไม่ได้เรื่องเพียงแค่มีมือถือสวยๆใช้หรอกเนอะ
03:33
(Laughterเสียงหัวเราะ)
79
198000
2000
(เสียงหัวเราะ)
03:35
Nextต่อไป questionคำถาม,
80
200000
2000
คำถามถัดไป
03:37
a little bitบิต harderยาก.
81
202000
2000
ยากขึ้นอีกนิด
03:39
Should we be collectingการจัดเก็บภาษี all of that guy'sคนที่แต่งตัวประหลาด dataข้อมูล
82
204000
2000
เราควรเก็บข้อมูลของชายคนนั้น
03:41
to make his experiencesประสบการณ์ better
83
206000
2000
เพื่อทำให้เขาได้รับประสบการณ์ที่ดีขึ้น
03:43
and to protectป้องกัน ourselvesตัวเรา in caseกรณี he's up to no good?
84
208000
3000
และเพื่อปกป้องพวกเรา ในกรณีที่คนๆนี้กำลังคิดแผนร้าย?
03:46
Or should we leaveออกจาก him aloneคนเดียว?
85
211000
2000
หรือว่า เราไม่ควรไปจุ้นจ้านกับเขา?
03:48
Collectเก็บ his dataข้อมูล.
86
213000
3000
เก็บข้อมูลของเขาไป
03:53
Leaveออกจาก him aloneคนเดียว.
87
218000
3000
อย่าไปยุ่งกะเขา
03:56
You're safeปลอดภัย. It's fine.
88
221000
2000
คุณปลอดภัยครับ ดีครับ
03:58
(Laughterเสียงหัวเราะ)
89
223000
2000
(เสียงหัวเราะ)
04:00
Okay, last questionคำถาม --
90
225000
2000
โอเค คำถามสุดท้าย
04:02
harderยาก questionคำถาม --
91
227000
2000
ยากขึ้นไปอีก
04:04
when tryingพยายาม to evaluateประเมินผล
92
229000
3000
เมื่อทำการประเมินผล
04:07
what we should do in this caseกรณี,
93
232000
3000
ในกรณีนี้เราควรทำอย่างไร
04:10
should we use a Kantianคานต์ deontologicalDeontological moralคุณธรรม frameworkกรอบ,
94
235000
4000
เราควรใช้ กรอบความคิด หลักศีลธรรม หน้าที่นิยมที่ตายตัว แบบ คานท์
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
หรือว่า เราควรใช้ แนวผลลัพธ์นิยม แบบ มิลล์?
04:19
Kantคานท์.
96
244000
3000
(อิมมานูเอล) คานท์
04:22
Millโรงสี.
97
247000
3000
(จอห์น สจ๊วต) มิลล์
04:25
Not as manyจำนวนมาก votesคะแนนโหวต.
98
250000
2000
คนโหวตไม่เยอะแฮะ
04:27
(Laughterเสียงหัวเราะ)
99
252000
3000
(เสียงหัวเราะ)
04:30
Yeah, that's a terrifyingน่าสะพรึงกลัว resultผล.
100
255000
3000
อืม ผลลัพธ์น่าสะพรึงกลัวครับ
04:34
Terrifyingน่าสะพรึงกลัว, because we have strongerแข็งแกร่ง opinionsความคิดเห็น
101
259000
4000
มันน่ากลัว เพราะว่าเรามีแนวคิดที่ชัดเจน
04:38
about our hand-heldมือถือ devicesอุปกรณ์
102
263000
2000
ที่มีต่อเครื่องมือเครื่องใช้
04:40
than about the moralคุณธรรม frameworkกรอบ
103
265000
2000
มากกว่าที่มีต่อ กรอบความคิดทางจริยธรรม
04:42
we should use to guideแนะนำ our decisionsการตัดสินใจ.
104
267000
2000
ที่เราควรใช้มันเป็นแนวทางการตัดสินใจ
04:44
How do we know what to do with all the powerอำนาจ we have
105
269000
3000
เราจะรู้ได้อย่างไร ว่าเราต้องทำอย่างไรกับอำนาจที่เรามี
04:47
if we don't have a moralคุณธรรม frameworkกรอบ?
106
272000
3000
ถ้าเราไม่มี กรอบความคิดทางจริยธรรม
04:50
We know more about mobileโทรศัพท์มือถือ operatingการดำเนินงาน systemsระบบ,
107
275000
3000
เรารู้มากขึ้นเกี่ยวกับระบบปฏิบัติการของโทรศัพท์มือถือ
04:53
but what we really need is a moralคุณธรรม operatingการดำเนินงาน systemระบบ.
108
278000
3000
แต่ที่เราต้องการจริงๆคือ ระบบปฏิบัติการทางจริยธรรม
04:58
What's a moralคุณธรรม operatingการดำเนินงาน systemระบบ?
109
283000
2000
แล้ว ระบบปฏิบัติการทางจริยธรรม มันคืออะไรกัน?
05:00
We all know right and wrongไม่ถูกต้อง, right?
110
285000
2000
พวกเรารู้ว่าอะไร ถูก และ ผิด ใช่ไหมครับ ?
05:02
You feel good when you do something right,
111
287000
2000
คุณรู้สึกดี เมื่อเราทำสิ่งที่ถูก
05:04
you feel badไม่ดี when you do something wrongไม่ถูกต้อง.
112
289000
2000
คุณรู้สึกแย่ เมื่อทำอะไรที่มันผิด
05:06
Our parentsพ่อแม่ teachสอน us that: praiseสรรเสริญ with the good, scoldดุ with the badไม่ดี.
113
291000
3000
พ่อแม่เราสอนว่า จงสรรเสริญการกระทำดี ตำหนิการกระทำชั่ว
05:09
But how do we figureรูป out what's right and wrongไม่ถูกต้อง?
114
294000
3000
แต่ เรารู้ได้อย่างไร ว่าอะไรผิด และ ถูก?
05:12
And from day to day, we have the techniquesเทคนิค that we use.
115
297000
3000
และทุกวันนี้ เรามีเทคนิคต่างๆที่เราใช้
05:15
Maybe we just followปฏิบัติตาม our gutไส้ใน.
116
300000
3000
บางทีเราเชื่อกึ๋นเรา
05:18
Maybe we take a voteโหวต -- we crowdsourcecrowdsource.
117
303000
3000
บางทีเราใช้วิธีโหวต -- เราทำประชานิยม
05:21
Or maybe we puntเรือท้องแบน --
118
306000
2000
หรือบางที เราก็เสี่ยงเอา
05:23
askถาม the legalถูกกฎหมาย departmentแผนก, see what they say.
119
308000
3000
ลองถามแผนกกฎหมาย ดูซิว่าพวกเขาจะว่าอย่างไร
05:26
In other wordsคำ, it's kindชนิด of randomสุ่ม,
120
311000
2000
หรือพูดอีกอย่างคือ มันก็เหมือนจะสุ่มๆ
05:28
kindชนิด of adการโฆษณา hocเฉพาะกิจ,
121
313000
2000
ทำแบบเฉพาะกิจ
05:30
how we figureรูป out what we should do.
122
315000
3000
เราจะรู้ได้อย่างไร ว่าเราควรทำอย่างไร
05:33
And maybe, if we want to be on surerมั่นใจ footingที่เกาะ,
123
318000
3000
และบางที ถ้าเราต้องการหลักยืนที่มันคงกว่านี้
05:36
what we really want is a moralคุณธรรม frameworkกรอบ that will help guideแนะนำ us there,
124
321000
3000
สิ่งที่เราต้องการจริงๆก็คือ กรอบความคิดทางจริยธรรมที่จะช่วยแนะแนวเรา
05:39
that will tell us what kindsชนิด of things are right and wrongไม่ถูกต้อง in the first placeสถานที่,
125
324000
3000
ซึ่งมันจะบอกเราแต่แรกว่า สิ่งแบบไหนที่ถูก และผิด
05:42
and how would we know in a givenรับ situationสถานการณ์ what to do.
126
327000
4000
แล้ว รู้ว่าในสถานการณ์ที่ถูกมอบหมายให้นั้น เราต้องทำอย่างไร
05:46
So let's get a moralคุณธรรม frameworkกรอบ.
127
331000
2000
ฉะนั้น เรามาสร้างกรอบจริยธรรมกันเถอะ
05:48
We're numbersหมายเลข people, livingการดำรงชีวิต by numbersหมายเลข.
128
333000
3000
พวกเราเป็นมนุษย์ตัวเลข อยู่กันด้วยตัวเลข
05:51
How can we use numbersหมายเลข
129
336000
2000
เราจะสามารถใช้ตัวเลขได้อย่างไร
05:53
as the basisรากฐาน for a moralคุณธรรม frameworkกรอบ?
130
338000
3000
เพื่อเป็นรากฐานสำหรับกรอบจริยธรรม?
05:56
I know a guy who did exactlyอย่างแน่นอน that.
131
341000
3000
ผมรู้จักคนที่ทำแบบนั้นเป๊ะๆ
05:59
A brilliantสุกใส guy --
132
344000
3000
เป็นคนที่ยอดเยี่ยม
06:02
he's been deadตาย 2,500 yearsปี.
133
347000
3000
เขาเพิ่งเสียชีวิตไป 2,500 ปีเอง
06:05
Platoเพลโต, that's right.
134
350000
2000
พลาโต้ ใช่แล้ว
06:07
Rememberจำ him -- oldเก่า philosopherนักปรัชญา?
135
352000
2000
จำเขาได้ไหมครับ? นักปรัชญาแก่ๆท่านนี้
06:09
You were sleepingนอนหลับ duringในระหว่าง that classชั้น.
136
354000
3000
คุณคงหลับปุ๋ยในชั่วโมงเรียนนั้น
06:12
And Platoเพลโต, he had a lot of the sameเหมือนกัน concernsความกังวล that we did.
137
357000
2000
และพลาโต้ เขาก็ตระหนักถึงอะไรหลายๆอย่างเหมือนกันเรา
06:14
He was worriedกลุ้มใจ about right and wrongไม่ถูกต้อง.
138
359000
2000
เขาเป็นห่วงเรื่องสิ่งที่ถูก และ ผิด
06:16
He wanted to know what is just.
139
361000
2000
เขาต้องการรู้ว่ามันคืออะไรแน่
06:18
But he was worriedกลุ้มใจ that all we seemดูเหมือน to be doing
140
363000
2000
แต่เขาเป็นห่วงว่า ที่พวกเราทุกคนทำๆกันอยู่
06:20
is tradingการค้าขาย opinionsความคิดเห็น about this.
141
365000
2000
ก็เป็นแค่การแลกเปลี่ยนความคิดกันไปมา
06:22
He saysกล่าวว่า something'sบางอย่าง just. She saysกล่าวว่า something elseอื่น is just.
142
367000
3000
เขาบอกว่าอันนี้ถูก หล่อนบอกว่าอีกอย่างนึงถูก
06:25
It's kindชนิด of convincingน่าเชื่อ when he talksการเจรจา and when she talksการเจรจา too.
143
370000
2000
มันฟังดูน่าเชื่อถือเมื่อเขาพูด และเมื่อหล่อนพูด ก็ด้วยเหมือนกัน
06:27
I'm just going back and forthออกมา; I'm not gettingได้รับ anywhereทุกแห่ง.
144
372000
2000
ผมแค่เดินหน้าแล้วก็ถอยกลับมา ผมไม่ได้ไปไหนเลย
06:29
I don't want opinionsความคิดเห็น; I want knowledgeความรู้.
145
374000
3000
ผมไม่ต้องการความเห็นครับ ผมต้องการความรู้
06:32
I want to know the truthความจริง about justiceความยุติธรรม --
146
377000
3000
ต้องการรู้ความจริงเกี่ยวกับความเป็นธรรม
06:35
like we have truthsความจริง in mathคณิตศาสตร์.
147
380000
3000
เหมือนกับที่เรารู้ความจริงทางคณิตศาสตร์
06:38
In mathคณิตศาสตร์, we know the objectiveวัตถุประสงค์ factsข้อเท็จจริง.
148
383000
3000
ในวิชาคณิตศาสตร์ เรารู้ในเชิงวัตถุวิสัย
06:41
Take a numberจำนวน, any numberจำนวน -- two.
149
386000
2000
เลือกมาสักค่าหนึ่ง เลขอะไรก็ได้ สอง ละกัน
06:43
Favoriteที่ชื่นชอบ numberจำนวน. I love that numberจำนวน.
150
388000
2000
เลขโปรดผมเลย ผมชอบเลขนี้
06:45
There are truthsความจริง about two.
151
390000
2000
มันมีความจริงเกี่ยวกับค่าที่เท่ากับสองครับ
06:47
If you've got two of something,
152
392000
2000
ถ้าคุณมีอะไรสองอย่าง
06:49
you addเพิ่ม two more, you get fourสี่.
153
394000
2000
เพิ่มมันเข้าไปอีกสอง คุณจะได้สี่
06:51
That's trueจริง no matterเรื่อง what thing you're talkingการพูด about.
154
396000
2000
มันเป็นจริงเสมอ ไม่ว่าสิ่งที่คุณพูดถึงคืออะไร
06:53
It's an objectiveวัตถุประสงค์ truthความจริง about the formฟอร์ม of two,
155
398000
2000
มันเป็นความจริงเชิงวัตถุวิสัยของเลขสอง
06:55
the abstractนามธรรม formฟอร์ม.
156
400000
2000
ในทางทฤษฎี (ที่มองไม่เห็น)
06:57
When you have two of anything -- two eyesตา, two earsหู, two nosesจมูก,
157
402000
2000
เมื่อคุณมีของสองสิ่ง -- สองตา สองหู สองจมูก
06:59
just two protrusionsที่ยื่นออกมา --
158
404000
2000
อะไรสักอย่างสองหน่วย --
07:01
those all partakeเข้าร่วม of the formฟอร์ม of two.
159
406000
3000
ทั้งหมดนั่นเป็นส่วนที่เข้าร่วมเป็นคุณสมบัติของ สอง
07:04
They all participateมีส่วนร่วม in the truthsความจริง that two has.
160
409000
4000
มันทั้งหมด เข้าร่วมเป็นส่วนของความจริงที่สองเป็น
07:08
They all have two-nessสอง-Ness in them.
161
413000
2000
ความเป็น สอง อยู่ในพวกมันทั้งหมด
07:10
And thereforeดังนั้น, it's not a matterเรื่อง of opinionความคิดเห็น.
162
415000
3000
ดังนั้น มันไม่ใช่เรื่องของความเห็น
07:13
What if, Platoเพลโต thought,
163
418000
2000
พลาโต้คิด ถ้าหากว่า
07:15
ethicsจริยธรรม was like mathคณิตศาสตร์?
164
420000
2000
จริยศาสตร์เป็นเหมือนคณิตศาสตร์หล่ะ
07:17
What if there were a pureบริสุทธิ์ formฟอร์ม of justiceความยุติธรรม?
165
422000
3000
ถ้ามันมีรูปแบบความเป็นธรรมที่บริสุทธิ์
07:20
What if there are truthsความจริง about justiceความยุติธรรม,
166
425000
2000
ถ้ามันมีความจริงเกี่ยวกับความเป็นธรรม
07:22
and you could just look around in this worldโลก
167
427000
2000
และคุณก็แค่มองไปรอบๆ ในโลกนี้
07:24
and see whichที่ things participatedเข้าร่วม,
168
429000
2000
ดูซิ ว่าสิ่งไหนที่เข้าร่วมด้วย
07:26
partookไหลมา of that formฟอร์ม of justiceความยุติธรรม?
169
431000
3000
เป็นส่วนร่วมของความเป็นธรรม
07:29
Then you would know what was really just and what wasn'tก็ไม่ได้.
170
434000
3000
แล้วคุณก็จะทราบว่า อะไรที่เป็นสิ่งที่ใช่ และอะไรที่ไม่ใช่
07:32
It wouldn'tจะไม่ be a matterเรื่อง
171
437000
2000
มันจะไม่ได้เป็นเพียงแค่
07:34
of just opinionความคิดเห็น or just appearancesปรากฏ.
172
439000
3000
ความเห็น หรือ แค่รูปลักษณ์ที่ปรากฎ
07:37
That's a stunningที่สวยงาม visionวิสัยทัศน์.
173
442000
2000
นั่นช่างเป็นความเห็นที่น่าทึ่ง
07:39
I mean, think about that. How grandยิ่งใหญ่. How ambitiousทะเยอทะยาน.
174
444000
3000
ผมหมายถึง ลองคิดดูสิ มันช่างยิ่งใหญ่ ช่างทะเยอทะยาน
07:42
That's as ambitiousทะเยอทะยาน as we are.
175
447000
2000
แสนจะทะเยอทะยาน ไม่ต่างจากพวกเรา
07:44
He wants to solveแก้ ethicsจริยธรรม.
176
449000
2000
เขาต้องการที่จะไขปัญหาทางจริยศาสตร์
07:46
He wants objectiveวัตถุประสงค์ truthsความจริง.
177
451000
2000
เขาต้องการ ความจริงเชิงวัตถุวิสัย
07:48
If you think that way,
178
453000
3000
ถ้าคุณคิดในแนวนั้น
07:51
you have a PlatonistPlatonist moralคุณธรรม frameworkกรอบ.
179
456000
3000
คุณมีกรอบความคิดทางศีลธรรมแบบพลาโต้
07:54
If you don't think that way,
180
459000
2000
ถ้าคุณไม่ได้คิดแบบนั้น
07:56
well, you have a lot of companyบริษัท in the historyประวัติศาสตร์ of Westernตะวันตก philosophyปรัชญา,
181
461000
2000
เอาหล่ะ คุณก็มีพรรคพวกมากมายเลยในประวัติศาสตร์ปรัชญาตะวันตก
07:58
because the tidyเรียบร้อย ideaความคิด, you know, people criticizedวิพากษ์วิจารณ์ it.
182
463000
3000
เพราะว่าความคิดที่เป็นระเบียบแบบแผน -- คุณก็รู้ คนมันจะวิจารณ์มัน
08:01
Aristotleอริสโตเติล, in particularโดยเฉพาะ, he was not amusedขบขัน.
183
466000
3000
โดยเฉพาะ อริสโตเติล เขาไม่ขำด้วยครับ
08:04
He thought it was impracticalทำไม่ได้.
184
469000
3000
เขาคิดว่า มันเป็นไปไม่ได้ในทางปฏิบัติ
08:07
Aristotleอริสโตเติล said, "We should seekแสวงหา only so much precisionความแม่นยำ in eachแต่ละ subjectเรื่อง
185
472000
4000
อริสโตเติลกล่าวว่า "เราควรค้นหาความแม่นตรงในแต่ละวิชา
08:11
as that subjectเรื่อง allowsช่วยให้."
186
476000
2000
ตราบแต่ที่วิชานั้นจะเอื้ออำนวย"
08:13
Aristotleอริสโตเติล thought ethicsจริยธรรม wasn'tก็ไม่ได้ a lot like mathคณิตศาสตร์.
187
478000
3000
อริสโตเติลคิดว่า จริยศาสตร์ ไม่ได้เหมือนคณิตศาสตร์มากนัก
08:16
He thought ethicsจริยธรรม was a matterเรื่อง of makingการทำ decisionsการตัดสินใจ in the here-and-nowที่นี่และตอนนี้
188
481000
3000
เขาคิดว่า จริยศาสตร์ เป็นเรื่องของการตัดสินใจ ในสถาณการณ์ต่างๆ
08:19
usingการใช้ our bestดีที่สุด judgmentการตัดสิน
189
484000
2000
โดยใช้การวินิจฉัยที่ดีที่สุดของเรา
08:21
to find the right pathเส้นทาง.
190
486000
2000
เพื่อที่จะหาหนทางที่ถูกต้อง
08:23
If you think that, Plato'sเพลโต not your guy.
191
488000
2000
ถ้าคุณคิดว่า อืม ไม่ปลื้มพลาโต้แฮะ
08:25
But don't give up.
192
490000
2000
อย่าเพิ่งถอดใจครับ
08:27
Maybe there's anotherอื่น way
193
492000
2000
บางที เรายังมีอีกหนทาง
08:29
that we can use numbersหมายเลข as the basisรากฐาน of our moralคุณธรรม frameworkกรอบ.
194
494000
3000
ที่เราจะใช้ตัวเลขเป็นรากฐานของกรอบความคิดทางศีลธรรมของเรา
08:33
How about this:
195
498000
2000
เอาอย่างนี้ไหมครับ
08:35
What if in any situationสถานการณ์ you could just calculateคำนวณ,
196
500000
3000
ถ้าหากว่าในสถานการณ์ได้ๆ คุณสามารถแค่ทำการคำนวณ
08:38
look at the choicesตัวเลือก,
197
503000
2000
ดูตัวเลือก
08:40
measureวัด out whichที่ one'sหนึ่งคือ better and know what to do?
198
505000
3000
ทำการวัดค่าว่าอันไหนดีที่สุด แล้วรู้ว่าต้องทำอย่างไร?
08:43
That soundเสียง familiarคุ้นเคย?
199
508000
2000
คุ้นๆไหมครับ?
08:45
That's a utilitarianถือประโยชน์เป็นสำคัญ moralคุณธรรม frameworkกรอบ.
200
510000
3000
นั่นคือกรอบความคิดทางศีลธรรมแบบประโยชน์นิยม (อรรถประโยชน์นิยม)
08:48
Johnจอห์น Stuartจวร์ต Millโรงสี was a great advocateสนับสนุน of this --
201
513000
2000
จอห์น สจ๊วต มิลล์ เป็นนักสนับสนุนตัวยง สำหรับทฤษฎีนี้ --
08:50
niceดี guy besidesนอกเหนือจาก --
202
515000
2000
เป็นคนน่ารักนะครับ จะว่าไป --
08:52
and only been deadตาย 200 yearsปี.
203
517000
2000
แล้วก็ เพิ่งตายไป 200 ปีเอง
08:54
So basisรากฐาน of utilitarianismประโยชน์นิยม --
204
519000
2000
พื้นฐานแนวคิดแบบอรรถประโยชน์นิยม --
08:56
I'm sure you're familiarคุ้นเคย at leastน้อยที่สุด.
205
521000
2000
อย่างน้อยผมมั่นใจว่าคุณคงคุ้นเคย
08:58
The threeสาม people who votedได้รับการโหวต for Millโรงสี before are familiarคุ้นเคย with this.
206
523000
2000
สามท่านที่โหวตให้ แนวคิดของ มิลล์ ก่อนหน้านี้ คงคุ้นเคยกับมันนะครับ
09:00
But here'sนี่คือ the way it worksโรงงาน.
207
525000
2000
แต่ มันเป็นแบบนี้ครับ
09:02
What if moralsธรรมะ, what if what makesยี่ห้อ something moralคุณธรรม
208
527000
3000
จะเป็นอย่างไรถ้าหากว่า ศีลธรรม หรืออะไรสักอย่างที่ทำสักสิ่งคือศีลธรรม
09:05
is just a matterเรื่อง of if it maximizesเพิ่ม pleasureความสุข
209
530000
2000
เป็นเพียงแค่ เรื่องที่ว่า มันให้ความพอใจสูงสุด
09:07
and minimizesลดขนาด painความเจ็บปวด?
210
532000
2000
และ ให้ความเจ็บปวดน้อยที่สุด?
09:09
It does something intrinsicแท้จริง to the actการกระทำ.
211
534000
3000
มันส่งผลถึงแก่นแท้ถึงการกระทำ
09:12
It's not like its relationความสัมพันธ์ to some abstractนามธรรม formฟอร์ม.
212
537000
2000
มันไม่เหมือนกับความสัมพันธ์ของมันกับรูปแบบทางทฤษฎี
09:14
It's just a matterเรื่อง of the consequencesผลที่ตามมา.
213
539000
2000
มันเป็นแค่เรื่องของผลลัพธ์
09:16
You just look at the consequencesผลที่ตามมา
214
541000
2000
คุณเพียงแค่ดูที่ผลลัพธ์
09:18
and see if, overallทั้งหมด, it's for the good or for the worseแย่ลง.
215
543000
2000
แล้วพิจารณาว่า โดยรวมแล้ว มันดี หรือว่า มันแย่กว่า
09:20
That would be simpleง่าย. Then we know what to do.
216
545000
2000
นั่นมันก็น่าจะง่ายดี ง่ายกว่าที่เราต้องรู้ว่าต้องทำอะไร
09:22
Let's take an exampleตัวอย่าง.
217
547000
2000
ลองมาดูตัวอย่างกันครับ
09:24
Supposeสมมติ I go up
218
549000
2000
สมมติว่า ผมเดินเข้ามา
09:26
and I say, "I'm going to take your phoneโทรศัพท์."
219
551000
2000
แล้วบอกว่า "ผมจะเอาโทรศัพท์คุณไปหล่ะนะ"
09:28
Not just because it rangรัง earlierก่อน,
220
553000
2000
ไม่ใช่เพราะว่าตะกี้มันดังหรอกนะครับ
09:30
but I'm going to take it because I madeทำ a little calculationการคำนวณ.
221
555000
3000
แต่เพราะว่าผมกำลังจะเอามันไป เพื่อจะเอาไปใช้ทำการคำนวณนิดหน่อย
09:33
I thought, that guy looksรูปลักษณ์ suspiciousพิรุธ.
222
558000
3000
ผมคิดว่า คุณคนนั้นดูกังขาน่าสงสัย
09:36
And what if he's been sendingการส่ง little messagesข้อความ to Binถัง Laden'sลาเดน hideoutสถานที่หลบภัย --
223
561000
3000
และ ถ้าเคยใช้โทรศัพท์ส่งข้อความไปยังที่ซ่อนตัวของ บิน ลาเดน หล่ะ
09:39
or whoeverใครก็ตาม tookเอา over after Binถัง Ladenที่รับภาระ --
224
564000
2000
หรือส่งหาใครก็ตามที่ดูแล บิน ลาเดน อยู่
09:41
and he's actuallyแท้จริง like a terroristผู้ก่อการร้าย, a sleeperไม้หมอนรถไฟ cellเซลล์.
225
566000
3000
แล้ว จริงๆแล้วเขาเป็นเหมือนพวกผู้ก่อการร้าย ร่วมขบวนการกันเลย
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
ผมกำลังจะสืบดู และเมื่อผมทราบแล้ว
09:47
I'm going to preventป้องกัน a hugeใหญ่ amountจำนวน of damageความเสียหาย that he could causeสาเหตุ.
227
572000
3000
ผมจะป้องกันความเสียหายอันยิ่งใหญ่ที่เขาจะก่อ
09:50
That has a very highสูง utilityประโยชน์ to preventป้องกัน that damageความเสียหาย.
228
575000
3000
นั่นก็จะเป็นประโยชน์อย่างมากมายที่จะป้องกันการเกิดความเสียหาย
09:53
And comparedเมื่อเทียบกับ to the little painความเจ็บปวด that it's going to causeสาเหตุ --
229
578000
2000
และเมื่อเปรียบเทียบกับความเจ็บปวดเพียงเล็กน้อยที่จะเกิดขึ้น --
09:55
because it's going to be embarrassingน่าอาย when I'm looking on his phoneโทรศัพท์
230
580000
2000
เพราะว่า มันคงจะน่าอับอายเหมือนกัน ที่ผมจะไปดูโทรศัพท์ของเขา
09:57
and seeingเห็น that he has a FarmvilleFarmville problemปัญหา and that wholeทั้งหมด bitบิต --
231
582000
3000
และเห็นว่าเขามีปัญหาอยู่ในเกมส์ฟาร์มวิลล์ อะไรก็แนวนั้น--
10:00
that's overwhelmedจม
232
585000
3000
แต่มันแพ้คว่ำเลยครับ
10:03
by the valueความคุ้มค่า of looking at the phoneโทรศัพท์.
233
588000
2000
ถ้าเราเปรีบเทียบกับสิ่งที่เราจะได้ จากการดูโทรศัพท์เขา
10:05
If you feel that way,
234
590000
2000
ถ้าคุณรู้สึกเช่นนี้
10:07
that's a utilitarianถือประโยชน์เป็นสำคัญ choiceทางเลือก.
235
592000
3000
นี่คือทางเลือกแบบ อรรถประโยชน์นิยม
10:10
But maybe you don't feel that way eitherทั้ง.
236
595000
3000
แต่ บางทีคุณก็ไม่ได้คิดแบบนี้อีกเช่นกัน
10:13
Maybe you think, it's his phoneโทรศัพท์.
237
598000
2000
บางที คุณคิดว่า นี่มันโทรศัพท์เขา
10:15
It's wrongไม่ถูกต้อง to take his phoneโทรศัพท์
238
600000
2000
มันผิด ที่จะไปเอาของเขามา
10:17
because he's a personคน
239
602000
2000
เขาเป็นคนเหมือนกันนะ
10:19
and he has rightsสิทธิมนุษยชน and he has dignityเกียรติ,
240
604000
2000
และเขาก็มีสิทธิ เขามีศักดิ์ศรี
10:21
and we can't just interfereยุ่ง with that.
241
606000
2000
และไม่ใช่ว่าเราอยู่ๆเราจะไปแทรกแซงอย่างนั้นได้
10:23
He has autonomyเอกราช.
242
608000
2000
เขามีอัตตานัติ (ความเป็นอิสระในการปกครองตนเอง)
10:25
It doesn't matterเรื่อง what the calculationsการคำนวณ are.
243
610000
2000
มันไม่สำคัญว่าการคำนวณพวกนั้นคืออะไร
10:27
There are things that are intrinsicallyภายใน wrongไม่ถูกต้อง --
244
612000
3000
มันมีสิ่งที่โดยเนื้อแท้แล้ว มันผิด --
10:30
like lyingโกหก is wrongไม่ถูกต้อง,
245
615000
2000
เหมือนกับ การโกหก เป็นสิ่งที่ผิด
10:32
like torturingทรมาน innocentผู้บริสุทธิ์ childrenเด็ก ๆ is wrongไม่ถูกต้อง.
246
617000
3000
เหมือนกับการ ทรมานเด็กๆที่ไร้เดียงสา เป็นสิ่งที่ผิด
10:35
Kantคานท์ was very good on this pointจุด,
247
620000
3000
คาร์ท เป็นคนที่เก่งมากในเรื่องนี้
10:38
and he said it a little better than I'll say it.
248
623000
2000
และเขากล่าวไว้ได้ดีกว่าที่ผมจะพูดนิดหน่อย
10:40
He said we should use our reasonเหตุผล
249
625000
2000
เขากล่าวไว้ว่า เราควรใช้เหตุผลของเรา
10:42
to figureรูป out the rulesกฎระเบียบ by whichที่ we should guideแนะนำ our conductความประพฤติ,
250
627000
3000
เพื่อที่จะคิดกฎระเบียบที่เราสมควรจะใช้ชี้นำพฤติกรรมของเรา
10:45
and then it is our dutyหน้าที่ to followปฏิบัติตาม those rulesกฎระเบียบ.
251
630000
3000
และแล้วมันก็เป็นหน้าที่ของเราที่จะทำตามกฎเหล่านั้น
10:48
It's not a matterเรื่อง of calculationการคำนวณ.
252
633000
3000
มันไม่ใช่เรื่องของการคำนวณ
10:51
So let's stop.
253
636000
2000
เอาหล่ะ หยุดกันก่อน
10:53
We're right in the thickหนา of it, this philosophicalปรัชญา thicketไม้พุ่ม.
254
638000
3000
เราอยู่่ท่ามกลางจุดที่ไม่ชัดเจน เป็นความไม่ชัดเจนทางปรัชญา
10:56
And this goesไป on for thousandsพัน of yearsปี,
255
641000
3000
และมันเป็นมาเช่นนี้นานนับพันๆปีแล้ว
10:59
because these are hardยาก questionsคำถาม,
256
644000
2000
ก็เพราะว่ามันเป็นคำถามที่ยาก
11:01
and I've only got 15 minutesนาที.
257
646000
2000
และผมก็มีเวลาแค่15นาที
11:03
So let's cutตัด to the chaseการไล่ล่า.
258
648000
2000
ฉะนั้นผมผ่าประเด็นเลยก็แล้วกัน
11:05
How should we be makingการทำ our decisionsการตัดสินใจ?
259
650000
4000
เราควรทำตัวอย่างไรในการตัดสินใจ?
11:09
Is it Platoเพลโต, is it Aristotleอริสโตเติล, is it Kantคานท์, is it Millโรงสี?
260
654000
3000
แบบพลาโต้ อริสโตเติล แบบคาร์ท หรือว่า มิลล์?
11:12
What should we be doing? What's the answerตอบ?
261
657000
2000
เราควรจะประพฤติอย่างไร อะไรคือคำตอบ?
11:14
What's the formulaสูตร that we can use in any situationสถานการณ์
262
659000
3000
สูตรอะไรกันที่เราจะมาสามารถใช้ได้ไม่ว่าในสถาณการณ์ใด
11:17
to determineกำหนด what we should do,
263
662000
2000
เพื่อที่จะตัดสินใจว่าเราควรทำเช่นไร
11:19
whetherว่า we should use that guy'sคนที่แต่งตัวประหลาด dataข้อมูล or not?
264
664000
2000
ว่าเราควรใช้ข้อมูลของคนๆนี้หรือไม่?
11:21
What's the formulaสูตร?
265
666000
3000
สูตรนั้นคืออะไร?
11:25
There's not a formulaสูตร.
266
670000
2000
มันไม่มีสูตรหรอกครับ
11:29
There's not a simpleง่าย answerตอบ.
267
674000
2000
มันไม่มีคำตอบที่เรียบง่าย
11:31
Ethicsจริยธรรม is hardยาก.
268
676000
3000
จริยศาสตร์เป็นเรื่องที่ยาก
11:34
Ethicsจริยธรรม requiresต้องมี thinkingคิด.
269
679000
3000
จริยศาสตร์ต้องการความคิด
11:38
And that's uncomfortableอึดอัด.
270
683000
2000
แล้วนั่นมันก็น่าลำบากใจ
11:40
I know; I spentการใช้จ่าย a lot of my careerอาชีพ
271
685000
2000
ผมทราบครับ ผมใช้เวลาส่วนมากในการทำงาน
11:42
in artificialเทียม intelligenceสติปัญญา,
272
687000
2000
ไปกับ จักรกลอัฉริยะ
11:44
tryingพยายาม to buildสร้าง machinesเครื่อง that could do some of this thinkingคิด for us,
273
689000
3000
พยายามที่จะสร้างเครื่องยนต์ที่มีความสามารถบางส่วนเหมือนกับการคิดของเรา
11:47
that could give us answersคำตอบ.
274
692000
2000
นั่นมันอาจให้คำตอบเราได้
11:49
But they can't.
275
694000
2000
แต่มันทำไม่ได้ครับ
11:51
You can't just take humanเป็นมนุษย์ thinkingคิด
276
696000
2000
คุณไม่สามารถแค่เอาความคิดจากมนุษย์
11:53
and put it into a machineเครื่อง.
277
698000
2000
ไปใส่ให้กับเครื่องยนต์
11:55
We're the onesคน who have to do it.
278
700000
3000
พวกเราเป็นคนที่ต้องทำมัน
11:58
Happilyเป็นสุข, we're not machinesเครื่อง, and we can do it.
279
703000
3000
ช่างน่ายินดี พวกเราไม่ใช่เครื่องจักร และพวกเราทำเช่นนั้นได้
12:01
Not only can we think,
280
706000
2000
ไม่ใช่เพียงแต่ว่าเราสามารถที่จะคิดได้
12:03
we mustต้อง.
281
708000
2000
แต่เราต้องคิด
12:05
Hannahฮันนาห์ ArendtArendt said,
282
710000
2000
ฮันนาห์ อเรนตท์ กล่าวว่า
12:07
"The sadเสียใจ truthความจริง
283
712000
2000
"เป็นเรื่องจริงที่น่าเศร้าว่า
12:09
is that mostมากที่สุด evilชั่วร้าย doneเสร็จแล้ว in this worldโลก
284
714000
2000
การกระทำอันชั่วร้ายส่วนใหญ่ในโลกของเรา
12:11
is not doneเสร็จแล้ว by people
285
716000
2000
ไม่ได้เกิดจากมนุษย์
12:13
who chooseเลือก to be evilชั่วร้าย.
286
718000
2000
ผู้ที่เลือกที่จะเป็นคนพาล
12:15
It arisesเกิดขึ้น from not thinkingคิด."
287
720000
3000
แต่มันเกิดขึ้นมาจากการไม่ได้คิด"
12:18
That's what she calledเรียกว่า the "banalityความดาษดื่น of evilชั่วร้าย."
288
723000
4000
นั่นเป็นสิ่งที่เธอเรียกว่า "ความไม่สร้างสรรค์ของสิ่งชั่วร้าย"
12:22
And the responseคำตอบ to that
289
727000
2000
และการโต้ตอบต่อสิ่งนั้น
12:24
is that we demandความต้องการ the exerciseการออกกำลังกาย of thinkingคิด
290
729000
2000
คือพวกเราต้องการแบบฝึกหัดสำหรับการคิด
12:26
from everyทุกๆ saneมีสติ personคน.
291
731000
3000
จากทุกคนที่มีสติ
12:29
So let's do that. Let's think.
292
734000
2000
เอาหล่ะลองทำดูครับ ลองคิด
12:31
In factความจริง, let's startเริ่มต้น right now.
293
736000
3000
ที่จริงแล้ว ลองทำดูตอนนี้เลยดีกว่า
12:34
Everyทุกๆ personคน in this roomห้อง do this:
294
739000
3000
ทุกคนในห้องนี้ ทำอย่างนี้ครับ
12:37
think of the last time you had a decisionการตัดสิน to make
295
742000
3000
คิดถึงครั้งสุดท้ายที่คุณต้องตัดสินใจ
12:40
where you were worriedกลุ้มใจ to do the right thing,
296
745000
2000
ซึ่งคุณนั้นเป็นกังวลว่ามันจะเป็นสิ่งที่ถูกต้องไหม
12:42
where you wonderedสงสัย, "What should I be doing?"
297
747000
2000
ซึ่งคุณสงสัยว่า "แล้วอย่างนั้นฉันไปทำอะไรหล่ะเนี่ย?"
12:44
Bringนำมาซึ่ง that to mindใจ,
298
749000
2000
ดึงความจำนั้นออกมาครับ
12:46
and now reflectสะท้อน on that
299
751000
2000
แล้วทีนี้ ไตร่ตรองดู
12:48
and say, "How did I come up that decisionการตัดสิน?
300
753000
3000
แล้วบอกว่า "การตัดสินใจนั้นเราได้มาอย่างไร"
12:51
What did I do? Did I followปฏิบัติตาม my gutไส้ใน?
301
756000
3000
แล้วฉันทำอะไร ฉันทำตามกี๋นหรือเปล่านะ
12:54
Did I have somebodyบางคน voteโหวต on it? Or did I puntเรือท้องแบน to legalถูกกฎหมาย?"
302
759000
2000
ฉันให้คนช่วยออกความเห็น หรือว่า วิ่งรี่ไปพึ่งกฎหมาย
12:56
Or now we have a fewน้อย more choicesตัวเลือก.
303
761000
3000
หรือว่า ตอนนี้ เรามีตัวเลือกมากขึ้นอีกหน่อย
12:59
"Did I evaluateประเมินผล what would be the highestสูงสุด pleasureความสุข
304
764000
2000
"ฉันประเมินหรือเปล่า ว่าอะไรจะให้ผลที่น่าพึงพอใจที่สุด
13:01
like Millโรงสี would?
305
766000
2000
เหมือนกับที่มิลล์จะทำ?
13:03
Or like Kantคานท์, did I use reasonเหตุผล to figureรูป out what was intrinsicallyภายใน right?"
306
768000
3000
หรือว่า แบบคาร์ท ฉันใช้เหตุผลในเพื่อให้ได้มาซึ่งแก่นของความถูกต้องหรือเปล่า"
13:06
Think about it. Really bringนำมาซึ่ง it to mindใจ. This is importantสำคัญ.
307
771000
3000
ลองคิดดูครับ เอาจริงๆนะครับ ดึงความคิดออกมา มันสำคัญครับ
13:09
It is so importantสำคัญ
308
774000
2000
มันสำคัญมากๆ
13:11
we are going to spendใช้จ่าย 30 secondsวินาที of valuableมีคุณค่า TEDTalkTEDTalk time
309
776000
2000
เรากำลังจะใช้เวลา 30 วินาทีอันมีค่ายิ่งสำหรับการบรรยาย ณ TED
13:13
doing nothing but thinkingคิด about this.
310
778000
2000
ไม่ทำอะไรอื่น นอกจากคิดพิจารณาเกี่ยวกับสิ่งนี้
13:15
Are you readyพร้อมแล้ว? Go.
311
780000
2000
พร้อมหรือยังครับ เริ่ม
13:33
Stop. Good work.
312
798000
3000
หยุด เยี่ยมครับ
13:36
What you just did,
313
801000
2000
สิ่งที่คุณได้คิด
13:38
that's the first stepขั้นตอน towardsไปทาง takingการ responsibilityความรับผิดชอบ
314
803000
2000
นั่นเป็นก้าวแรกไปสู่การมีหน้าที่รับผิดชอบ
13:40
for what we should do with all of our powerอำนาจ.
315
805000
3000
ต่อสิ่งที่เราควรทำ ด้วยอำนาจทั้งหมดของเรา
13:45
Now the nextต่อไป stepขั้นตอน -- try this.
316
810000
3000
ทีนี้ ขั้นต่อไป -- ลองนี่ดู
13:49
Go find a friendเพื่อน and explainอธิบาย to them
317
814000
2000
ไปหาเพื่อน และอธิบายให้พวกเขาฟัง
13:51
how you madeทำ that decisionการตัดสิน.
318
816000
2000
ว่าคุณทำการตัดสินใจอย่างไร
13:53
Not right now. Wait tillจนถึง I finishเสร็จสิ้น talkingการพูด.
319
818000
2000
ไม่ใช่ตอนนี้ครับ รอผมบรรยายจบก่อน
13:55
Do it over lunchอาหารกลางวัน.
320
820000
2000
ทำดูตอนพักเที่ยงก็ได้ครับ
13:57
And don't just find anotherอื่น technologistผู้ชำนาญวิชาเทคโนโลยี friendเพื่อน;
321
822000
3000
และอย่าไปหาแค่เพื่อนชาวเทคโนโลยีนะครับ
14:00
find somebodyบางคน differentต่าง than you.
322
825000
2000
หาใครสักคนที่แตกต่างจากคุณ
14:02
Find an artistศิลปิน or a writerนักเขียน --
323
827000
2000
หาศิลปิน หรือนักเขียน
14:04
or, heavenสวรรค์ forbidห้าม, find a philosopherนักปรัชญา and talk to them.
324
829000
3000
หรือ หากสวรรค์ไม่เป็นใจ ลองคุยกับนักปรัชญาดูครับ
14:07
In factความจริง, find somebodyบางคน from the humanitiesมนุษยศาสตร์.
325
832000
2000
ความจริงแล้ว หาใครสักคนที่มาจากด้านมนุษย์ศาสตร์
14:09
Why? Because they think about problemsปัญหาที่เกิดขึ้น
326
834000
2000
ทำไมหรอครับ เพราะว่าคนพวกนี้คิดเกี่ยวกับปัญหา
14:11
differentlyต่างกัน than we do as technologistsเทคโนโลยี.
327
836000
2000
แตกต่างจากพวกเราชาวเทคโนโลยี
14:13
Just a fewน้อย daysวัน agoมาแล้ว, right acrossข้าม the streetถนน from here,
328
838000
3000
เมื่อไม่กี่วันก่อน อีกฝั่งหนึ่งของถนนจากตรงนี้
14:16
there was hundredsหลายร้อย of people gatheredรวมตัวกัน togetherด้วยกัน.
329
841000
2000
มีผู้คนเป็นร้อยๆมาชุมนุมรวมกัน
14:18
It was technologistsเทคโนโลยี and humanistsมานุษยวิทยา
330
843000
2000
มีทั้งนักเทคโนโลยีและนักมนุษย์ศาสตร์
14:20
at that bigใหญ่ BiblioTechBiblioTech Conferenceการประชุม.
331
845000
2000
ที่งานประชุมวิชาการ บิบิโล เทค
14:22
And they gatheredรวมตัวกัน togetherด้วยกัน
332
847000
2000
และพวกเขามารวมตัวกัน
14:24
because the technologistsเทคโนโลยี wanted to learnเรียน
333
849000
2000
เพราะว่า ชาวเทคโนโลยีต้องการที่จะเรียนรู้
14:26
what it would be like to think from a humanitiesมนุษยศาสตร์ perspectiveมุมมอง.
334
851000
3000
ว่ามันจะเป็นอย่างไรที่จะคิดด้วยทัศนคติแบบชาวมนุษย์ศาสตร์
14:29
You have someoneบางคน from GoogleGoogle
335
854000
2000
เรามีคนๆหนึ่งมาจาก กูเกิล
14:31
talkingการพูด to someoneบางคน who does comparativeเปรียบเทียบ literatureวรรณกรรม.
336
856000
2000
พูดคุยกับคนๆหนึ่งที่ทำงานด้านวรรณกรรมเปรียบเทียบ
14:33
You're thinkingคิด about the relevanceความสัมพันธ์กัน of 17thTH centuryศตวรรษ Frenchฝรั่งเศส theaterโรงละคร --
337
858000
3000
คุณกำลังคิดเกี่ยวกับความสัมพันธ์รของโรงละครฝรั่งเศสยุคศตวรรษที่17
14:36
how does that bearหมี uponเมื่อ ventureเสี่ยง capitalเมืองหลวง?
338
861000
2000
ว่ามันยืนหยัดอยู่ท่ามกลางเมืองหลวงอันตรายนี่ได้อย่างไร?
14:38
Well that's interestingน่าสนใจ. That's a differentต่าง way of thinkingคิด.
339
863000
3000
อืม นั่นก็น่าสนใจครับ เป็นแนวทางความคิดที่แตกต่าง
14:41
And when you think in that way,
340
866000
2000
และเมื่อคุณคิดในแนวทางนั้น
14:43
you becomeกลายเป็น more sensitiveรู้สึกไว to the humanเป็นมนุษย์ considerationsการพิจารณา,
341
868000
3000
ก็จะกลายเป็นว่าคุณมีความละเอียดอ่อนต่อเข้าอกเข้าใจเพื่อนมนุษย์
14:46
whichที่ are crucialสำคัญมาก to makingการทำ ethicalตามหลักจริยธรรม decisionsการตัดสินใจ.
342
871000
3000
ซึ่งมันเป็นสิ่งสำคัญมากต่อการตัดสินใจทางจริยธรรม
14:49
So imagineจินตนาการ that right now
343
874000
2000
ฉะนั้น ตอนนี้ จินตนาการ สิครับ
14:51
you wentไป and you foundพบ your musicianนักดนตรี friendเพื่อน.
344
876000
2000
คุณออกไปและพบเพื่อนนักดนตรีของคุณ
14:53
And you're tellingบอก him what we're talkingการพูด about,
345
878000
3000
คุณบอกเล่าให้เขาฟังเกี่ยวกับสิ่งที่เราพูดคุยกัน
14:56
about our wholeทั้งหมด dataข้อมูล revolutionการปฏิวัติ and all this --
346
881000
2000
เกี่ยวกับเรื่อง การปฏิวัติข้อมูลทั้งหมด และทั้งหมดนี้
14:58
maybe even humครวญเพลง a fewน้อย barsราว of our themeกระทู้ musicเพลง.
347
883000
2000
บางที คุณอาจฮัมเพลงเอกของเราสักท่อนสองท่อน
15:00
Dumดำ taขอบคุณ daดา daดา dumดำ dumดำ taขอบคุณ daดา daดา dumดำ
348
885000
3000
♫ปัม ป่าม ปัม ปัม ป้าม ปัม ป่าม ปัม ปัม ป้าม♫
15:03
Well, your musicianนักดนตรี friendเพื่อน will stop you and say,
349
888000
2000
อ้า เพื่อนนักดนตรีก็จะหยุดคุณแล้วบอกว่า
15:05
"You know, the themeกระทู้ musicเพลง
350
890000
2000
"เธอรู้ไหม เพลงเอก
15:07
for your dataข้อมูล revolutionการปฏิวัติ,
351
892000
2000
ของการปฏิวัติข้องมูลของเธอหน่ะ
15:09
that's an operaอุปรากร, that's Wagnerแว็กเนอร์.
352
894000
2000
มันเป็นอุปรากร นั่นมัน(แต่งโดย)วาร์กเนอร์ หนิ
15:11
It's basedซึ่งเป็นรากฐาน on Norseภาษานอซ legendตำนาน.
353
896000
2000
มันมีเค้าโครงเรื่องจากตำนานยุโรปเหนือ (นอร์ส)
15:13
It's Godsเทพ and mythicalที่เป็นตำนาน creaturesสิ่งมีชีวิต
354
898000
2000
มันเกี่ยวกับเทพเจ้าและสรรพสัตว์ในตำนาน
15:15
fightingศึก over magicalขลัง jewelryเครื่องเพชรพลอย."
355
900000
3000
ต่อสู้แย่งชิงอัญมณีวิเศษ"
15:19
That's interestingน่าสนใจ.
356
904000
3000
อืม น่าสนใจนะครับ
15:22
Now it's alsoด้วย a beautifulสวย operaอุปรากร,
357
907000
3000
แล้วทีนี้ อุปรากรอันงดงามนี่ก็ด้วย
15:25
and we're movedย้าย by that operaอุปรากร.
358
910000
3000
พวกเราได้รับการดลใจจากอุปรากร
15:28
We're movedย้าย because it's about the battleการต่อสู้
359
913000
2000
พวกเรามีความรู้สึกร่วม เพราะว่ามันเกี่ยวกับการรบ
15:30
betweenระหว่าง good and evilชั่วร้าย,
360
915000
2000
ระหว่างธรรมะและอธรรม
15:32
about right and wrongไม่ถูกต้อง.
361
917000
2000
เกี่ยวกับสิ่งที่ถูก และ ผิด
15:34
And we careการดูแล about right and wrongไม่ถูกต้อง.
362
919000
2000
และเรา ก็ใส่ใจในสิ่งที่ถูกและผิด
15:36
We careการดูแล what happensที่เกิดขึ้น in that operaอุปรากร.
363
921000
3000
เรา สนใจสิ่งที่เกิดขึ้นในอุปรากร
15:39
We careการดูแล what happensที่เกิดขึ้น in "Apocalypseคัมภีร์ของศาสนาคริสต์ Now."
364
924000
3000
เรา สนใจสิ่งที่เกิดขึ้นในหนังเรื่อง "กองทัพอำมหิต"
15:42
And we certainlyอย่างแน่นอน careการดูแล
365
927000
2000
และ แน่นอนว่า เราสนใจ
15:44
what happensที่เกิดขึ้น with our technologiesเทคโนโลยี.
366
929000
2000
สิ่งที่เกิดขึ้นกับนวัตกรรมของเรา
15:46
We have so much powerอำนาจ todayในวันนี้,
367
931000
2000
ทุกวันนี้เรามีอำนาจมากมายเหลือเกิน
15:48
it is up to us to figureรูป out what to do,
368
933000
3000
มันขึ้นอยู่กับเราที่จะตระหนักว่าต้องทำอย่างไร
15:51
and that's the good newsข่าว.
369
936000
2000
และนั่นก็เป็นข่าวดีครับ
15:53
We're the onesคน writingการเขียน this operaอุปรากร.
370
938000
3000
เราเป็นผู้ซึ่งเขียนบทอุปรากรนี้
15:56
This is our movieหนัง.
371
941000
2000
นี่คือภาพยนต์ของเรา
15:58
We figureรูป out what will happenเกิดขึ้น with this technologyเทคโนโลยี.
372
943000
3000
เราตระหนักว่า อะไรจะเกิดขึ้นกับนวัตกรรมเหล่านี้
16:01
We determineกำหนด how this will all endปลาย.
373
946000
3000
เรามีเป้าหมายแน่วแน่ ว่าทั้งหมดนี้ จะลงเอยเช่นไร
16:04
Thank you.
374
949000
2000
ขอบคุณมากครับ
16:06
(Applauseการปรบมือ)
375
951000
5000
(เสียงปรบมือ)

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com