ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

แซม แฮร์ริส (Sam Harris): เราจะสามารถสร้างปัญญาประดิษฐ์โดยไม่สูญเสียการควบคุมมันได้หรือไม่

Filmed:
5,024,015 views

คุณกลัวปัญญาประดิษฐ์ (AI) เจ้าปัญญาหรือไม่ครับ คุณควรจะกลัวนะ แซม แฮร์ริส นักปรัชญาและประสาทวิทยาศาสตร์ กล่าว -- แล้วก็ไม่ใช่แค่กลัวในเชิงทฤษฎีหรอกนะ แฮริสกล่าวว่า พวกเรากำลังจะสร้างจักรกลยอดมนุษย์ขึ้นมา แต่เรายังทำไม่สำเร็จในเรื่องการปลุกปลํ้าเพื่อเอาชนะปัญหาที่เกี่ยวกับการสร้างบางสิ่งบางอย่าง ที่อาจปฏิบัติต่อเราอย่างที่เราปฏิบัติกับพวกมด
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureความล้มเหลว of intuitionปรีชา
0
1000
2216
ผมจะพูดถึงความล้มเหลว
ของการหยั่งรู้โดยสัญชาตญาณ
00:15
that manyจำนวนมาก of us sufferประสบ from.
1
3240
1600
ซึ่งพวกเราหลายคนประสบอยู่
00:17
It's really a failureความล้มเหลว
to detectตรวจจับ a certainบาง kindชนิด of dangerอันตราย.
2
5480
3040
แท้จริงแล้ว มันเป็นความล้มเหลว
ของการสัมผัสได้ถึงอันตรายบางอย่าง
00:21
I'm going to describeอธิบาย a scenarioสถานการณ์
3
9360
1736
ผมกำลังจะอธิบายสถานการณ์หนึ่ง
00:23
that I think is bothทั้งสอง terrifyingน่าสะพรึงกลัว
4
11120
3256
ที่ผมคิดว่ามันทั้งน่าสะพรึงกลัว
00:26
and likelyน่าจะ to occurเกิดขึ้น,
5
14400
1760
และก็น่าจะเกิดขึ้นได้
00:28
and that's not a good combinationการรวมกัน,
6
16840
1656
และนั่นไม่ใช่ส่วนผสมที่ดีเลย
00:30
as it turnsผลัดกัน out.
7
18520
1536
ดังที่ปรากฎออกมา
00:32
And yetยัง ratherค่อนข้าง than be scaredกลัว,
mostมากที่สุด of you will feel
8
20080
2456
แต่แทนที่จะกลัว
ท่านทั้งหลายส่วนใหญ่จะรู้สึกว่า
00:34
that what I'm talkingการพูด about
is kindชนิด of coolเย็น.
9
22560
2080
สิ่งที่ผมกำลังจะพูดถึงนั้น
เป็นอะไรที่ดูเจ๋ง
00:37
I'm going to describeอธิบาย
how the gainsกำไร we make
10
25200
2976
ผมกำลังจะอธิบายให้ฟังว่า
ผลประโยชน์ที่เราได้รับ
00:40
in artificialเทียม intelligenceสติปัญญา
11
28200
1776
จากปัญญาประดิษฐ์
00:42
could ultimatelyในที่สุด destroyทำลาย us.
12
30000
1776
ในที่สุดแล้วอาจทำลายเราได้อย่างไร
00:43
And in factความจริง, I think it's very difficultยาก
to see how they won'tเคยชิน destroyทำลาย us
13
31800
3456
และที่จริง ผมว่ามันยากมาก
ที่จะเข้าใจว่าพวกมันจะไม่ทำลายเรา
หรือไม่ดลใจให้เรา
ทำลายตัวเองได้อย่างไร
00:47
or inspireบันดาลใจ us to destroyทำลาย ourselvesตัวเรา.
14
35280
1680
00:49
And yetยัง if you're anything like me,
15
37400
1856
ถ้าหากว่าคุณเป็นอย่างผม
00:51
you'llคุณจะ find that it's funสนุก
to think about these things.
16
39280
2656
คุณจะพบว่ามันสนุกดี
ที่จะคิดถึงเรื่องเหล่านี้
00:53
And that responseคำตอบ is partส่วนหนึ่ง of the problemปัญหา.
17
41960
3376
และการตอบสนองนั้น
ก็เป็นส่วนหนึ่งของปัญหา
00:57
OK? That responseคำตอบ should worryกังวล you.
18
45360
1720
ใช่ไหมครับ การตอบรับนั้น
น่าจะทำให้คุณกังวลใจ
00:59
And if I were to convinceโน้มน้าวใจ you in this talk
19
47920
2656
ถ้าในการบรรยายนี้
ผมต้องการโน้มน้าวคุณให้เชื่อว่า
01:02
that we were likelyน่าจะ
to sufferประสบ a globalทั่วโลก famineความอดอยาก,
20
50600
3416
เราน่าจะต้องประสบกับความทุกข์ยาก
จากความอดอยากไปทั่วโลก
01:06
eitherทั้ง because of climateภูมิอากาศ changeเปลี่ยนแปลง
or some other catastropheภัยพิบัติ,
21
54040
3056
ไม่ว่าจะเป็นเพราะการเปลี่ยนแปลง
สภาวะอากาศ หรือหายนะอย่างอื่น
01:09
and that your grandchildrenลูกหลาน,
or theirของพวกเขา grandchildrenลูกหลาน,
22
57120
3416
และลูกหลานของพวกคุณ
หรือของลูกหลานของพวกเขา
01:12
are very likelyน่าจะ to liveมีชีวิต like this,
23
60560
1800
อาจจะต้องมีความเป็นอยู่แบบนี้
01:15
you wouldn'tจะไม่ think,
24
63200
1200
คุณคงจะไม่คิดหรอกว่า
01:17
"Interestingน่าสนใจ.
25
65440
1336
"น่าสนใจนะ
01:18
I like this TEDTED Talk."
26
66800
1200
ฉันชอบ TED Talk เรื่องนี้"
01:21
Famineความอดอยาก isn't funสนุก.
27
69200
1520
ความอดอยากนั้นไม่น่าสนุก
01:23
Deathความตาย by scienceวิทยาศาสตร์ fictionเรื่องอ่านเล่น,
on the other handมือ, is funสนุก,
28
71800
3376
ในขณะที่ ความตาย
ในนวนิยายวิทยาศาสตร์เป็นเรื่องสนุก
01:27
and one of the things that worriesกังวล me mostมากที่สุด
about the developmentพัฒนาการ of AIAI at this pointจุด
29
75200
3976
สิ่งหนึ่งที่ทำให้ผมกังวลที่สุดเกี่ยวกับ
การพัฒนาปัญญาประดิษฐ์ขึ้นมา ณ ตอนนี้
ก็คือ ดูเหมือนว่าเราไม่สามารถสร้าง
การตอบสนองทางอารมณ์ที่เหมาะสม
01:31
is that we seemดูเหมือน unableไม่สามารถ to marshalจอมพล
an appropriateเหมาะสม emotionalอารมณ์ responseคำตอบ
30
79200
4096
01:35
to the dangersอันตราย that lieโกหก aheadล่วงหน้า.
31
83320
1816
ต่ออันตรายที่อยู่เบื้องหน้าได้
01:37
I am unableไม่สามารถ to marshalจอมพล this responseคำตอบ,
and I'm givingให้ this talk.
32
85160
3200
ผมเองก็ไม่สามารถที่จะปลุกการตอบสนองนี้ได้
ผมจึงต้องมาพูดเรื่องนี้
01:42
It's as thoughแม้ we standยืน before two doorsประตู.
33
90120
2696
มันเหมือนกับว่า
เรายืนอยู่ข้างหน้าประตูสองบาน
01:44
Behindหลัง doorประตู numberจำนวน one,
34
92840
1256
ด้านหลังประตูหมายเลขหนึ่ง
01:46
we stop makingการทำ progressความคืบหน้า
in buildingอาคาร intelligentฉลาด machinesเครื่อง.
35
94120
3296
เราหยุดที่จะก้าวหน้าต่อไป
ในการสร้างจักรกลที่ชาญฉลาด
01:49
Our computerคอมพิวเตอร์ hardwareฮาร์ดแวร์ and softwareซอฟต์แวร์
just stopsหยุด gettingได้รับ better for some reasonเหตุผล.
36
97440
4016
คอมพิวเตอร์ฮาร์ดแวร์และซอฟแวร์
ต่างหยุดพัฒนา ด้วยเหตุผลบางอย่าง
01:53
Now take a momentขณะ
to considerพิจารณา why this mightอาจ happenเกิดขึ้น.
37
101480
3000
ลองใช้เวลาสักครู่เพื่อพิจารณานะครับ
ว่าทำไมเรื่องแบบนี้อาจจะเกิดขึ้นได้
ผมหมายความว่า ด้วยคุณค่าของ
ความฉลาดและความเป็นอัตโนมัตินั้น
01:57
I mean, givenรับ how valuableมีคุณค่า
intelligenceสติปัญญา and automationระบบอัตโนมัติ are,
38
105080
3656
02:00
we will continueต่อ to improveปรับปรุง our technologyเทคโนโลยี
if we are at all ableสามารถ to.
39
108760
3520
เราจะยังคงพัฒนาเทคโนโลยีของเราต่อไป
หากเรายังสามารถทำได้
02:05
What could stop us from doing this?
40
113200
1667
อะไรล่ะจะหยุดเราไม่ไห้ทำสิ่งนี้
02:07
A full-scaleเต็มที่ nuclearนิวเคลียร์ warสงคราม?
41
115800
1800
สงครามนิวเคลียร์เต็มรูปแบบหรือ
02:11
A globalทั่วโลก pandemicการระบาดกระจายทั่ว?
42
119000
1560
โรคที่ระบาดไปทั่วโลกหรือ
02:14
An asteroidดาวเคราะห์ impactส่งผลกระทบ?
43
122320
1320
ดาวเคราะห์น้อยมาชนโลกหรือ
02:17
Justinจัสติน BieberBieber becomingการกลาย
presidentประธาน of the Unitedปึกแผ่น Statesสหรัฐอเมริกา?
44
125640
2576
จัสติน บีเบอร์
มาเป็นประธานาธิบดีของสหรัฐหรือ
02:20
(Laughterเสียงหัวเราะ)
45
128240
2280
(เสียงหัวเราะ)
02:24
The pointจุด is, something would have to
destroyทำลาย civilizationอารยธรรม as we know it.
46
132760
3920
ประเด็นก็คือ บางสิ่งบางอย่างจะต้อง
มาทำลายอารยธรรมที่เรารู้จัก
02:29
You have to imagineจินตนาการ
how badไม่ดี it would have to be
47
137360
4296
คุณจะต้องจินตนาการเองว่า
มันจะแย่ขนาดไหน
02:33
to preventป้องกัน us from makingการทำ
improvementsการปรับปรุง in our technologyเทคโนโลยี
48
141680
3336
ที่จะมากีดกันเราจากการ
ปรับปรุงเทคโนโลยีของเราให้ดีขึ้น
02:37
permanentlyอย่างถาวร,
49
145040
1216
อย่างถาวร
02:38
generationรุ่น after generationรุ่น.
50
146280
2016
ที่เกิดขึ้นยุคแล้วยุคเล่า
02:40
Almostเกือบจะ by definitionคำนิยาม,
this is the worstแย่ที่สุด thing
51
148320
2136
เกือบจะเรียกได้ว่า
นี่คือสิ่งเลวร้ายที่สุด
02:42
that's ever happenedที่เกิดขึ้น in humanเป็นมนุษย์ historyประวัติศาสตร์.
52
150480
2016
ที่ได้เคยเกิดขึ้น
ในประวัติศาสตร์มนุษยชาติ
02:44
So the only alternativeทางเลือก,
53
152520
1296
ฉะนั้นตัวเลือกเดียวที่เหลือ
02:45
and this is what liesโกหก
behindหลัง doorประตู numberจำนวน two,
54
153840
2336
และนั่นคือสิ่งที่อยู่ด้านหลัง
ประตูหมายเลขสอง
02:48
is that we continueต่อ
to improveปรับปรุง our intelligentฉลาด machinesเครื่อง
55
156200
3136
ก็คือ เรายังคงปรับปรุงจักรกลที่ฉลาด
ของเรานี้ให้ดีขึ้นต่อไป
02:51
yearปี after yearปี after yearปี.
56
159360
1600
ปีแล้วปีเล่า
02:53
At a certainบาง pointจุด, we will buildสร้าง
machinesเครื่อง that are smarterอย่างชาญฉลาด than we are,
57
161720
3640
จนเมื่อถึงจุดหนึ่ง
เราก็จะสร้างจักรกลที่ฉลาดกว่าเรา
02:58
and onceครั้งหนึ่ง we have machinesเครื่อง
that are smarterอย่างชาญฉลาด than we are,
58
166080
2616
และเมื่อเรามีจักรกล
ที่ฉลาดกว่าเราแล้ว
มันก็จะเริ่มต้นปรับปรุงตัวมันเองให้ดีขึ้น
03:00
they will beginเริ่ม to improveปรับปรุง themselvesตัวเอง.
59
168720
1976
แล้วเราก็จะเสี่ยงกับ
สิ่งที่นักคณิตศาสตร์ ไอเจ กูด เรียกว่า
03:02
And then we riskอันตราย what
the mathematicianนักคณิตศาสตร์ IJIJ Good calledเรียกว่า
60
170720
2736
03:05
an "intelligenceสติปัญญา explosionการระเบิด,"
61
173480
1776
"การระเบิดของความชาญฉลาด"
03:07
that the processกระบวนการ could get away from us.
62
175280
2000
กระบวนการที่ซึ่งมนุษย์
ไม่สามารถควบคุมมันได้
เรื่องนี้มักจะถูกทำเป็นการ์ตูนล้อเลียน
อย่างที่แสดงให้ดูตรงนี้
03:10
Now, this is oftenบ่อยครั้ง caricaturedวาดภาพล้อ,
as I have here,
63
178120
2816
03:12
as a fearกลัว that armiesกองทัพ of maliciousร้าย robotsหุ่นยนต์
64
180960
3216
เป็นความกลัวที่ทหารหุ่นยนต์ที่มุ่งร้าย
03:16
will attackโจมตี us.
65
184200
1256
จะเข้ามาโจมตีทำร้ายเรา
03:17
But that isn't the mostมากที่สุด likelyน่าจะ scenarioสถานการณ์.
66
185480
2696
แต่นั่นไม่ใช่สถานการณ์
ที่น่าจะเป็นไปได้มากที่สุด
03:20
It's not that our machinesเครื่อง
will becomeกลายเป็น spontaneouslyเป็นธรรมชาติ malevolentซึ่งคิดร้าย.
67
188200
4856
ไม่ใช่ว่าจักรกลของเรา
จะกลายเป็นภัยอันตรายขึ้นมาเอง
03:25
The concernกังวล is really
that we will buildสร้าง machinesเครื่อง
68
193080
2616
ความกังวลจริง ๆ ก็คือ
เราจะสร้างจักรกล
03:27
that are so much
more competentมีอำนาจ than we are
69
195720
2056
ที่มีความสามารถที่สูงกว่าเรามาก ๆ
03:29
that the slightestน้อยที่สุด divergenceการแตกต่าง
betweenระหว่าง theirของพวกเขา goalsเป้าหมาย and our ownด้วยตัวเอง
70
197800
3776
ที่ความแตกต่างเพียงเล็กน้อยระหว่าง
เป้าหมายของมันกับของเราเอง
03:33
could destroyทำลาย us.
71
201600
1200
ก็อาจจะทำลายเราได้
03:35
Just think about how we relateสัมพันธ์ to antsมด.
72
203960
2080
ลองแค่คิดดูว่า
เรามีสัมพันธ์กับมดอย่างไร
03:38
We don't hateเกลียด them.
73
206600
1656
เราไม่ได้เกลียดพวกมัน
03:40
We don't go out of our way to harmอันตราย them.
74
208280
2056
เราไม่ได้ยอมลำบาก
ใช้ความพยายามไปทำร้ายมัน
03:42
In factความจริง, sometimesบางครั้ง
we take painsความอุตสาหะ not to harmอันตราย them.
75
210360
2376
อันที่จริง บางครั้งเราต้องอดกลั้น
ที่จะไม่ทำร้ายมัน
03:44
We stepขั้นตอน over them on the sidewalkทางเท้า.
76
212760
2016
เราก้าวข้ามพวกมันไปบนทางเดิน
03:46
But wheneverเมื่อไรก็ตาม theirของพวกเขา presenceการมี
77
214800
2136
แต่เมื่อใดก็ตามที่การปรากฏอยู่ของมัน
03:48
seriouslyอย่างจริงจัง conflictsความขัดแย้ง with one of our goalsเป้าหมาย,
78
216960
2496
ขัดแย้งอย่างรุนแรง
กับเป้าหมายอย่างหนึ่งของเรา
03:51
let's say when constructingก่อสร้าง
a buildingอาคาร like this one,
79
219480
2477
ยกตัวอย่าง เมื่อก่อสร้างอาคาร
เช่น อาคารนี้
03:53
we annihilateทำลาย them withoutไม่มี a qualmความไม่สบายใจ.
80
221981
1960
เราทำลายล้างพวกมันได้อย่างสบายใจ
03:56
The concernกังวล is that we will
one day buildสร้าง machinesเครื่อง
81
224480
2936
ความวิตกกังวลก็คือสักวันหนึ่ง
เราจะสร้างจักรกล
03:59
that, whetherว่า they're consciousมีสติอยู่ or not,
82
227440
2736
ที่ไม่ว่าพวกมันจะมีความคิด
อย่างมีสติหรือไม่ก็ตาม
04:02
could treatรักษา us with similarคล้ายคลึงกัน disregardไม่สนใจ.
83
230200
2000
จะทำกับเราได้อย่างเฉยเมย
ในแบบเดียวกัน
04:05
Now, I suspectสงสัย this seemsดูเหมือนว่า
far-fetchedลึกซึ้ง to manyจำนวนมาก of you.
84
233760
2760
ครับ ผมเข้าใจว่า สิ่งนี้ดูจะไกลจากความจริง
สำหรับหลาย ๆ ท่าน
04:09
I betเดิมพัน there are those of you who doubtสงสัย
that superintelligentsuperintelligent AIAI is possibleเป็นไปได้,
85
237360
6336
ผมมั่นใจว่ายังมีคนไม่เชื่อว่า
ปัญญาประดิษฐ์ยอดอัจฉริยะจะเกิดขึ้นได้จริง
หรือไม่เชื่อว่ามันหลีกเลี่ยงไม่ได้
04:15
much lessน้อยกว่า inevitableแน่นอน.
86
243720
1656
04:17
But then you mustต้อง find something wrongไม่ถูกต้อง
with one of the followingดังต่อไปนี้ assumptionsสมมติฐาน.
87
245400
3620
แต่คุณจะพบว่ามีบางอย่างที่ไม่ถูกต้อง
ในสมมติฐานเบื้องต้นต่อไปนี้
04:21
And there are only threeสาม of them.
88
249044
1572
ซึ่งก็มีเพียงสามอย่างเท่านั้น
04:23
Intelligenceสติปัญญา is a matterเรื่อง of informationข้อมูล
processingการประมวลผล in physicalกายภาพ systemsระบบ.
89
251800
4719
หนึ่งคือ ความฉลาดเป็นเรื่องของการ
ประมวลข้อมูลในระบบทางกายภาพ
แต่จริง ๆ แล้ว ข้อนี้มัน
มากกว่าสมมติฐานเบื้องต้นสักหน่อย
04:29
Actuallyแท้จริง, this is a little bitบิต more
than an assumptionการสันนิษฐาน.
90
257320
2615
เราใส่ความฉลาดในขอบเขตแคบ ๆ
ไว้ในจักรกลของเราเรียบร้อยแล้ว
04:31
We have alreadyแล้ว builtสร้างขึ้น
narrowแคบ intelligenceสติปัญญา into our machinesเครื่อง,
91
259959
3457
04:35
and manyจำนวนมาก of these machinesเครื่อง performปฏิบัติการ
92
263440
2016
และจักรกลมากมายเหล่านี้ก็ทำงาน
04:37
at a levelชั้น of superhumanเหนือมนุษย์
intelligenceสติปัญญา alreadyแล้ว.
93
265480
2640
ด้วยความฉลาดระดับเหนือมนุษย์อยู่แล้ว
04:40
And we know that mereเท่านั้น matterเรื่อง
94
268840
2576
และเราก็รู้ว่า แค่มีความฉลาดระดับนั้น
04:43
can give riseลุกขึ้น to what is calledเรียกว่า
"generalทั่วไป intelligenceสติปัญญา,"
95
271440
2616
ก็ทำให้เกิดสิ่งที่เรียกว่า
"ความฉลาดทั่วไป"
04:46
an abilityความสามารถ to think flexiblyมีความยืดหยุ่น
acrossข้าม multipleหลายอย่าง domainsโดเมน,
96
274080
3656
ซึ่งเป็นความสามารถที่จะคิด
ได้อย่างยืดหยุ่นในหลาย ๆ ด้าน
04:49
because our brainsสมอง have managedการบริหารจัดการ it. Right?
97
277760
3136
ก็เพราะว่าสมองของเรานั้น
ก็สามารถทำได้ ใช่ไหมล่ะครับ
04:52
I mean, there's just atomsอะตอม in here,
98
280920
3936
ผมหมายความว่า
มันก็แค่อะตอมในนี้
04:56
and as long as we continueต่อ
to buildสร้าง systemsระบบ of atomsอะตอม
99
284880
4496
และตราบใดที่เรายังคงสร้าง
ระบบของอะตอม
05:01
that displayแสดง more and more
intelligentฉลาด behaviorพฤติกรรม,
100
289400
2696
ที่แสดงพฤติกรรมชาญฉลาด
มากขึ้นและมากขึ้น
05:04
we will eventuallyในที่สุด,
unlessเว้นแต่ we are interruptedขัดจังหวะ,
101
292120
2536
ในที่สุดถ้าเราไม่ถูกขัดขวาง
05:06
we will eventuallyในที่สุด
buildสร้าง generalทั่วไป intelligenceสติปัญญา
102
294680
3376
เราก็จะสร้างความฉลาดทั่วไป
05:10
into our machinesเครื่อง.
103
298080
1296
เอาไว้ในจักรกลของเรา
05:11
It's crucialสำคัญมาก to realizeตระหนักถึง
that the rateอัตรา of progressความคืบหน้า doesn't matterเรื่อง,
104
299400
3656
มันจำเป็นมากที่ต้องตระหนักว่า
อัตราความก้าวหน้านั้นไม่สำคัญ
05:15
because any progressความคืบหน้า
is enoughพอ to get us into the endปลาย zoneโซน.
105
303080
3176
เพราะความก้าวหน้าใด ๆ ก็ตาม
ก็เพียงพอที่จะพาเราเข้าสู่ช่วงสุดท้าย
05:18
We don't need Moore'sมัวร์ lawกฎหมาย to continueต่อ.
We don't need exponentialที่ชี้แจง progressความคืบหน้า.
106
306280
3776
ไม่จำเป็นต้องดำเนินไปตามกฎของมอร์
ไม่จำเป็นต้องก้าวหน้าไปแบบยกกำลัง
05:22
We just need to keep going.
107
310080
1600
เราแค่ต้องก้าวหน้าต่อไปเรื่อย ๆ
เท่านั้นเอง
05:25
The secondที่สอง assumptionการสันนิษฐาน
is that we will keep going.
108
313480
2920
สมมติฐานเบื้องต้นข้อที่สอง
คือเราจะก้าวหน้าต่อไปเรื่อย ๆ
05:29
We will continueต่อ to improveปรับปรุง
our intelligentฉลาด machinesเครื่อง.
109
317000
2760
เราจะยังคงปรับปรุงจักรกล
ที่ชาญฉลาดของเราต่อไป
05:33
And givenรับ the valueความคุ้มค่า of intelligenceสติปัญญา --
110
321000
4376
และด้วยคุณค่าของความฉลาด --
05:37
I mean, intelligenceสติปัญญา is eitherทั้ง
the sourceแหล่ง of everything we valueความคุ้มค่า
111
325400
3536
ผมหมายถึงว่า ไม่ว่าความฉลาด
จะเป็นทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
หรือเราต้องใช้มันเพื่อปกป้อง
ทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
05:40
or we need it to safeguardป้องกัน
everything we valueความคุ้มค่า.
112
328960
2776
05:43
It is our mostมากที่สุด valuableมีคุณค่า resourceทรัพยากร.
113
331760
2256
มันก็เป็นสิ่งที่มีคุณค่าที่สุดของเรา
05:46
So we want to do this.
114
334040
1536
ฉะนั้น เราจึงต้องการทำสิ่งนี้
05:47
We have problemsปัญหาที่เกิดขึ้น
that we desperatelyหมดท่า need to solveแก้.
115
335600
3336
เรามีปัญหา
ที่เราจำเป็นต้องแก้ไขอย่างเร่งด่วน
05:50
We want to cureรักษา diseasesโรค
like Alzheimer'sอัลไซเม and cancerโรคมะเร็ง.
116
338960
3200
เราต้องการรักษาโรค
อย่างเช่น อัลไซเมอร์และมะเร็ง
05:54
We want to understandเข้าใจ economicด้านเศรษฐกิจ systemsระบบ.
We want to improveปรับปรุง our climateภูมิอากาศ scienceวิทยาศาสตร์.
117
342960
3936
เราต้องการเข้าใจระบบเศรษฐกิจ
เราต้องการปรับปรุงศาสตร์ภูมิอากาศวิทยา
05:58
So we will do this, if we can.
118
346920
2256
เราจึงต้องทำสิ่งนี้
หากเราสามารถทำได้
06:01
The trainรถไฟ is alreadyแล้ว out of the stationสถานี,
and there's no brakeเบรค to pullดึง.
119
349200
3286
รถไฟได้ออกจากสถานีไปแล้ว
และไม่มีเบรคที่จะดึงมันไว้ได้
06:05
Finallyในที่สุด, we don't standยืน
on a peakจุดสูงสุด of intelligenceสติปัญญา,
120
353880
5456
ข้อสุดท้าย เราไม่ได้ยืนอยู่
บนจุดสูงสุดของความฉลาด
06:11
or anywhereทุกแห่ง nearใกล้ it, likelyน่าจะ.
121
359360
1800
ไม่แม้แต่จะใกล้เคียง
นี่เป็นความเข้าใจที่สำคัญยิ่ง
06:13
And this really is the crucialสำคัญมาก insightข้อมูลเชิงลึก.
122
361640
1896
นี่แหละที่ทำให้สถานการณ์ของเรา
ล่อแหลมต่ออันตรายยิ่ง
06:15
This is what makesยี่ห้อ
our situationสถานการณ์ so precariousล่อแหลม,
123
363560
2416
06:18
and this is what makesยี่ห้อ our intuitionsสัญชาติญาณ
about riskอันตราย so unreliableไม่น่าเชื่อถือ.
124
366000
4040
และนี่แหละที่ทำให้สัญชาตญาณของเรา
ที่มีต่อความเสี่ยงนั้นเชื่อถือไม่ได้
06:23
Now, just considerพิจารณา the smartestที่ฉลาดที่สุด personคน
who has ever livedอาศัยอยู่.
125
371120
2720
ครับ แค่ลองพิจารณา
ถึงคนฉลาดที่สุดที่เคยมีชีวิตอยู่
06:26
On almostเกือบจะ everyone'sทุกคน shortlistประจวบคีรีขันธ์ here
is Johnจอห์น vonฟอน Neumannนอยมันน์.
126
374640
3416
สำหรับทุกคนแล้ว หนึ่งในรายชื่อนั้น
ก็คืออ จอห์น วอน นอยแมน
06:30
I mean, the impressionความประทับใจ that vonฟอน Neumannนอยมันน์
madeทำ on the people around him,
127
378080
3336
ผมหมายถึง ความประทับใจของผู้คน
ที่มีต่อ วอน นอยแมน
06:33
and this includedที่รวมอยู่ the greatestใหญ่ที่สุด
mathematiciansนักคณิตศาสตร์ and physicistsฟิสิกส์ of his time,
128
381440
4056
และนั่นก็รวมถึงนักคณิตศาสตร์
และนักฟิสิกส์ที่ยิ่งใหญ่ในยุคนั้น
06:37
is fairlyอย่างเป็นธรรม well-documentedดีเอกสาร.
129
385520
1936
ได้ถูกบันทีกไว้เป็นอย่างดี
06:39
If only halfครึ่ง the storiesเรื่องราว
about him are halfครึ่ง trueจริง,
130
387480
3776
ถ้าเรื่องราวของเขาสักครึ่งหนึ่งนั้น
จะมีมูลความจริงอยู่ถึงสักครึ่ง
06:43
there's no questionคำถาม
131
391280
1216
ก็ไม่ต้องกังขาเลยว่า
06:44
he's one of the smartestที่ฉลาดที่สุด people
who has ever livedอาศัยอยู่.
132
392520
2456
เขาเป็นคนฉลาดที่สุดในโลกคนหนึ่ง
06:47
So considerพิจารณา the spectrumคลื่นความถี่ of intelligenceสติปัญญา.
133
395000
2520
เมื่อพิจารณาระดับช่วงของความฉลาด
06:50
Here we have Johnจอห์น vonฟอน Neumannนอยมันน์.
134
398320
1429
ตรงนี้เรามี จอห์น วอน นอยแมน
06:53
And then we have you and me.
135
401560
1334
แล้วเราก็มี คุณและผม
06:56
And then we have a chickenไก่.
136
404120
1296
แล้วต่อมาก็มีไก่
06:57
(Laughterเสียงหัวเราะ)
137
405440
1936
(เสียงหัวเราะ)
06:59
Sorry, a chickenไก่.
138
407400
1216
ขอโทษครับ ไก่
07:00
(Laughterเสียงหัวเราะ)
139
408640
1256
(เสียงหัวเราะ)
07:01
There's no reasonเหตุผล for me to make this talk
more depressingซึ่งทำให้ตกต่ำ than it needsจำเป็น to be.
140
409920
3736
ไม่มีเหตุผลอะไร ที่ผมจะทำให้
การบรรยายนี้หดหู่ใจมากเกินจำเป็น
07:05
(Laughterเสียงหัวเราะ)
141
413680
1600
(เสียงหัวเราะ)
07:08
It seemsดูเหมือนว่า overwhelminglyนำโด่ง likelyน่าจะ, howeverอย่างไรก็ตาม,
that the spectrumคลื่นความถี่ of intelligenceสติปัญญา
142
416339
3477
อย่างไรก็ตาม ดูจะเป็นไปได้มาก
ที่ระดับช่วงของความฉลาดนั้น
07:11
extendsขยาย much furtherต่อไป
than we currentlyปัจจุบัน conceiveตั้งครรภ์,
143
419840
3120
ขยายออกไปได้ไกล
มากกว่าที่เราตระหนักในปัจจุบัน
07:15
and if we buildสร้าง machinesเครื่อง
that are more intelligentฉลาด than we are,
144
423880
3216
และถ้าเราสร้างจักรกลที่ฉลาดกว่าเรา
07:19
they will very likelyน่าจะ
exploreสำรวจ this spectrumคลื่นความถี่
145
427120
2296
พวกมันก็น่าจะสำรวจตรวจค้น
ความชาญฉลาดเหล่านี้
07:21
in waysวิธี that we can't imagineจินตนาการ,
146
429440
1856
ในแบบที่เราคิดไม่ถึง
07:23
and exceedเกินกว่า us in waysวิธี
that we can't imagineจินตนาการ.
147
431320
2520
และเหนือกว่าเราในแบบที่เราคิดไม่ถึง
07:27
And it's importantสำคัญ to recognizeรับรู้ that
this is trueจริง by virtueคุณธรรม of speedความเร็ว aloneคนเดียว.
148
435000
4336
มันจำเป็นที่เราต้องยอมรับว่า
สิ่งนี้เป็นจริงไปแล้ว ในเรื่องความเร็ว
07:31
Right? So imagineจินตนาการ if we just builtสร้างขึ้น
a superintelligentsuperintelligent AIAI
149
439360
5056
ใช่ไหมครับ ลองคิดดูว่า ถ้าเราแค่สร้าง
ปัญญาประดิษฐ์อัจฉริยะขึ้นมาสักเครื่อง
07:36
that was no smarterอย่างชาญฉลาด
than your averageเฉลี่ย teamทีม of researchersนักวิจัย
150
444440
3456
ที่ไม่ได้ฉลาดกว่ากลุ่มนักวิจัยทั่ว ๆ ไป
07:39
at StanfordStanford or MITเอ็มไอที.
151
447920
2296
ที่แสตนฟอร์ดหรือเอ็มไอที
07:42
Well, electronicอิเล็กทรอนิกส์ circuitsวงจร
functionฟังก์ชัน about a millionล้าน timesครั้ง fasterได้เร็วขึ้น
152
450240
2976
วงจรไฟฟ้านั้นทำงานได้เร็วกว่าวงจรชีวเคมี
07:45
than biochemicalเกี่ยวกับชีวเคมี onesคน,
153
453240
1256
ประมาณหนึ่งล้านเท่า
07:46
so this machineเครื่อง should think
about a millionล้าน timesครั้ง fasterได้เร็วขึ้น
154
454520
3136
ดังนั้น จักรกลนี้ควรจะคิดได้เร็วกว่า
ปัญญาของมนุษย์ผู้สร้างมันขึ้นมา
07:49
than the mindsจิตใจ that builtสร้างขึ้น it.
155
457680
1816
ประมาณหนึ่งล้านเท่า
07:51
So you setชุด it runningวิ่ง for a weekสัปดาห์,
156
459520
1656
เมื่อคุณเดินเครื่องนานหนึ่งสัปดาห์
07:53
and it will performปฏิบัติการ 20,000 yearsปี
of human-levelมนุษย์ระดับ intellectualทางปัญญา work,
157
461200
4560
มันจะทำงานได้เท่ากับการทำงานโดยใช้
สติปัญญาในระดับของมนุษย์นาน 20,000 ปี
07:58
weekสัปดาห์ after weekสัปดาห์ after weekสัปดาห์.
158
466400
1960
นานสัปดาห์แล้วสัปดาห์เล่า
08:01
How could we even understandเข้าใจ,
much lessน้อยกว่า constrainจำกัด,
159
469640
3096
เราจะไปเข้าใจ หรือแม้แต่จำกัดขอบเขต
ของปัญญาประดิษฐ์
08:04
a mindใจ makingการทำ this sortประเภท of progressความคืบหน้า?
160
472760
2280
ที่สร้างความก้าวหน้าแบบนี้ได้อย่างไร
08:08
The other thing that's worryingน่าหนักใจ, franklyตรงไปตรงมา,
161
476840
2136
อีกเรื่องหนึ่งที่น่าวิตกกังวล
08:11
is that, imagineจินตนาการ the bestดีที่สุด caseกรณี scenarioสถานการณ์.
162
479000
4976
คือ ลองจินตนาการถึงสถานการณ์ที่ดีที่สุด
08:16
So imagineจินตนาการ we hitตี uponเมื่อ a designออกแบบ
of superintelligentsuperintelligent AIAI
163
484000
4176
จินตนาการว่า เราค้นพบการออกแบบ
ปัญญาประดิษฐ์อันชาญฉลาด
ที่ไม่มีปัญหาเรื่องความปลอดภัย
08:20
that has no safetyความปลอดภัย concernsความกังวล.
164
488200
1376
08:21
We have the perfectสมบูรณ์ designออกแบบ
the first time around.
165
489600
3256
เรามีแบบที่สมบูรณ์เป็นครั้งแรก
08:24
It's as thoughแม้ we'veเราได้ been handedมือ an oracleคำพยากรณ์
166
492880
2216
ราวกับว่าเราได้รับคำพยากรณ์
08:27
that behavesพฤติกรรม exactlyอย่างแน่นอน as intendedตั้งใจว่า.
167
495120
2016
ที่เป็นไปดังใจคิดเป๊ะ
08:29
Well, this machineเครื่อง would be
the perfectสมบูรณ์ labor-savingทุ่นแรงงาน deviceเครื่อง.
168
497160
3720
ครับ จักรกลนี้ก็น่าจะเป็นเครื่องมือ
ที่ประหยัดแรงงานได้อย่างสมบูรณ์แบบ
08:33
It can designออกแบบ the machineเครื่อง
that can buildสร้าง the machineเครื่อง
169
501680
2429
มันสามารถออกแบบจักรกล
ที่สามารถสร้างจักรกล
08:36
that can do any physicalกายภาพ work,
170
504133
1763
ซึ่งสามารถทำงานเชิงกายภาพอะไรก็ได้
08:37
poweredขับเคลื่อน by sunlightแสงแดด,
171
505920
1456
ใช้พลังจากแสงอาทิตย์
08:39
more or lessน้อยกว่า for the costราคา
of rawดิบ materialsวัสดุ.
172
507400
2696
โดยมีต้นทุนแค่ค่าวัตถุดิบ
08:42
So we're talkingการพูด about
the endปลาย of humanเป็นมนุษย์ drudgeryงานน่าเบื่อหน่าย.
173
510120
3256
ดังนั้น เรากำลังพูดกันถึงการสิ้นสุด
ของงานหนักที่น่าเบื่อของมนุษย์
08:45
We're alsoด้วย talkingการพูด about the endปลาย
of mostมากที่สุด intellectualทางปัญญา work.
174
513400
2800
เรากำลังพูดถึงการจบสิ้นของงาน
ที่ใช้สติปัญญามากที่สุดด้วยเช่นกัน
08:49
So what would apesลิง like ourselvesตัวเรา
do in this circumstanceกรณี?
175
517200
3056
แล้วลิงจ๋ออย่างพวกเรานั้น
จะทำอย่างไรในสถานการณ์แบบนี้
08:52
Well, we'dพุธ be freeฟรี to playเล่น Frisbeeจานร่อน
and give eachแต่ละ other massagesบริการนวด.
176
520280
4080
ครับ เราก็ว่างที่จะไปเล่นจานร่อน
แล้วก็ทำการนวดเฟ้นให้กันและกัน
08:57
Addเพิ่ม some LSDLSD and some
questionableน่าสงสัย wardrobeตู้เสื้อผ้า choicesตัวเลือก,
177
525840
2856
เพิ่มการเสพสารแอลเอสดี
และเสื้อผ้าที่ดูไม่ออกว่าเป็นแนวไหน
09:00
and the wholeทั้งหมด worldโลก
could be like Burningการเผาไหม้ Man.
178
528720
2176
และโลกทั้งใบก็คงกลายเป็น
งานเทศกาล Burning Man
09:02
(Laughterเสียงหัวเราะ)
179
530920
1640
(เสียงหัวเราะ)
09:06
Now, that mightอาจ soundเสียง prettyน่ารัก good,
180
534320
2000
ครับ นั่นอาจจะฟังดูค่อนข้างจะดี
09:09
but askถาม yourselfด้วยตัวคุณเอง what would happenเกิดขึ้น
181
537280
2376
แต่ลองถามตัวเองดูว่าจะเกิดอะไรขึ้น
09:11
underภายใต้ our currentปัจจุบัน economicด้านเศรษฐกิจ
and politicalในทางการเมือง orderใบสั่ง?
182
539680
2736
ภายใต้ระเบียบการเมืองและเศรษฐกิจ
ในปัจจุบันของเรานี้
09:14
It seemsดูเหมือนว่า likelyน่าจะ that we would witnessพยาน
183
542440
2416
ดูเหมือนว่าเราน่าจะได้เห็น
09:16
a levelชั้น of wealthความมั่งคั่ง inequalityความไม่เสมอภาค
and unemploymentการว่างงาน
184
544880
4136
ความไม่เท่าเทียมของความมั่งคั่ง
และอัตราการว่างงานที่สูง
อย่างที่เราไม่เคยได้เห็นมาก่อน
09:21
that we have never seenเห็น before.
185
549040
1496
09:22
Absentขาด a willingnessความเต็มใจ
to immediatelyทันที put this newใหม่ wealthความมั่งคั่ง
186
550560
2616
การขาดความเต็มใจ
ที่จะรีบนำความมั่งคั่งที่เกิดขึ้นใหม่นี้
09:25
to the serviceบริการ of all humanityมนุษยชาติ,
187
553200
1480
มารับใช้มนุษยชาติทั้งมวลในทันที
09:27
a fewน้อย trillionairestrillionaires could graceความสง่างาม
the coversปก of our businessธุรกิจ magazinesนิตยสาร
188
555640
3616
ทำให้เศรษฐีระดับพันล้านบางราย
อาจเฉิดฉายบนปกนิตยสารธุรกิจ
09:31
while the restส่วนที่เหลือ of the worldโลก
would be freeฟรี to starveอดมื้อกินมื้อ.
189
559280
2440
ในขณะที่ส่วนอื่น ๆ ของโลก
กำลังอดอยากปากแห้งกัน
09:34
And what would the Russiansรัสเซีย
or the Chineseชาวจีน do
190
562320
2296
แล้วคนรัสเซียหรือคนจีนจะทำอย่างไร
09:36
if they heardได้ยิน that some companyบริษัท
in Siliconซิลิคอน Valleyหุบเขา
191
564640
2616
หากพวกเขารู้ว่าบางบริษัทในซิลิคอนแวลลีย์
09:39
was about to deployปรับใช้ a superintelligentsuperintelligent AIAI?
192
567280
2736
กำลังจะนำปัญญาประดิษฐ์ที่ชาญฉลาดมาใช้
09:42
This machineเครื่อง would be capableสามารถ
of wagingขับเคี่ยว warสงคราม,
193
570040
2856
จักรกลที่ว่านี้อาจสามารถนำไปใช้
ในการศึกสงครามได้
09:44
whetherว่า terrestrialบนพื้นดิน or cyberในโลกไซเบอร์,
194
572920
2216
ไม่ว่าจะเป็นทางภาคพื้นโลก
หรือทางอินเทอร์เน็ต
09:47
with unprecedentedเป็นประวัติการณ์ powerอำนาจ.
195
575160
1680
ด้วยพละกำลังที่ไม่อาจประเมินได้
09:50
This is a winner-take-allชนะจะใช้เวลาทั้งหมด scenarioสถานการณ์.
196
578120
1856
นี่คือสถานการณ์แบบผู้ชนะได้ทุกอย่าง
09:52
To be sixหก monthsเดือน aheadล่วงหน้า
of the competitionการแข่งขัน here
197
580000
3136
เพื่อที่จะนำหน้าไปหกเดือน
ในการแข่งขันนี้
09:55
is to be 500,000 yearsปี aheadล่วงหน้า,
198
583160
2776
คือการที่เราต้องนำหน้าอยู่ 500,000 ปี
09:57
at a minimumขั้นต่ำ.
199
585960
1496
เป็นอย่างน้อย
09:59
So it seemsดูเหมือนว่า that even mereเท่านั้น rumorsข่าวเล่าลือ
of this kindชนิด of breakthroughความก้าวหน้า
200
587480
4736
ฉะนั้น จึงเหมือนกับว่า แม้เพียงข่าวลือ
ในเรื่องการค้นพบที่ยิ่งใหญ่แบบนี้
10:04
could causeสาเหตุ our speciesสายพันธุ์ to go berserkบ้าดีเดือด.
201
592240
2376
ก็อาจเป็นเหตุให้ชาติพันธุ์ของเรา
บ้าระห่ำกันขึ้นมาได้
10:06
Now, one of the mostมากที่สุด frighteningน่ากลัว things,
202
594640
2896
ครับ สิ่งหนึ่งที่น่าหวาดกลัวที่สุด
10:09
in my viewดู, at this momentขณะ,
203
597560
2776
ในความเห็นของผม ในขณะนี้
10:12
are the kindsชนิด of things
that AIAI researchersนักวิจัย say
204
600360
4296
คือ สิ่งที่พวกนักวิจัยปัญญาประดิษฐ์พูดกัน
10:16
when they want to be reassuringซึ่งทำให้อุ่นใจ.
205
604680
1560
เมื่อพวกเขาต้องการจะปลอบใจเรา
10:19
And the mostมากที่สุด commonร่วมกัน reasonเหตุผล
we're told not to worryกังวล is time.
206
607000
3456
และเหตุผลที่ธรรมดาที่สุดที่เขาบอกพวกเรา
ให้ไม่ต้องกังวลก็คือเรื่องเวลา
10:22
This is all a long way off,
don't you know.
207
610480
2056
เรื่องนี้มันอีกนานนัก ไม่รู้หรอกหรือ
10:24
This is probablyอาจ 50 or 100 yearsปี away.
208
612560
2440
มันน่าจะเป็นอีก 50 หรือ 100 ปี ข้างหน้า
10:27
One researcherนักวิจัย has said,
209
615720
1256
นักวิจัยคนหนึ่งเคยพูดว่า
10:29
"Worryingน่าหนักใจ about AIAI safetyความปลอดภัย
210
617000
1576
"กังวลเรื่องความปลอดภัยของปัญญาประดิษฐ์
10:30
is like worryingน่าหนักใจ
about overpopulationล้น on Marsดาวอังคาร."
211
618600
2280
ก็จะเหมือนกับกังวล
เรื่องประชากรจะล้นดาวอังคาร"
นี่เป็นเรื่องราวในรูปแบบของซิลิคอนแวลลีย์
10:34
This is the Siliconซิลิคอน Valleyหุบเขา versionรุ่น
212
622116
1620
10:35
of "don't worryกังวล your
prettyน่ารัก little headหัว about it."
213
623760
2376
ในการบอกว่า "ไม่ต้องเอาสมองน้อยๆ
มากังวลเรื่องนี้หรอก"
10:38
(Laughterเสียงหัวเราะ)
214
626160
1336
(เสียงหัวเราะ)
10:39
No one seemsดูเหมือนว่า to noticeแจ้งให้ทราบ
215
627520
1896
ดูเหมือนจะไม่มีใครสังเกตเห็นว่า
10:41
that referencingอ้างอิง the time horizonขอบฟ้า
216
629440
2616
การอ้างถึงขอบเขตของเวลา
10:44
is a totalทั้งหมด nonไม่ใช่ sequitursequitur.
217
632080
2576
เป็นคำพูดที่ไม่มีเหตุผลอย่างสิ้นเชิง
10:46
If intelligenceสติปัญญา is just a matterเรื่อง
of informationข้อมูล processingการประมวลผล,
218
634680
3256
ถ้าหากว่าความชาญฉลาดเป็นเพียง
เรื่องของการประมวลผลข้อมูล
10:49
and we continueต่อ to improveปรับปรุง our machinesเครื่อง,
219
637960
2656
และเรายังคงปรับปรุงจักรกลของเรา
ให้ดียิ่งขึ้นต่อไป
10:52
we will produceก่อ
some formฟอร์ม of superintelligencesuperintelligence.
220
640640
2880
เราก็จะผลิตอะไรบางอย่างในรูปแบบ
สุดยอดความชาญฉลาดออกมา
10:56
And we have no ideaความคิด
how long it will take us
221
644320
3656
และเราก็ไม่รู้เลยว่า
เราจะใช้เวลานานแค่ไหน
11:00
to createสร้าง the conditionsเงื่อนไข
to do that safelyอย่างปลอดภัย.
222
648000
2400
เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
ได้อย่างปลอดภัย
11:04
Let me say that again.
223
652200
1296
ขอผมยํ้าอีกครั้ง
11:05
We have no ideaความคิด how long it will take us
224
653520
3816
เราไม่รู้เลยว่าเราจะใช้เวลานานแค่ไหน
11:09
to createสร้าง the conditionsเงื่อนไข
to do that safelyอย่างปลอดภัย.
225
657360
2240
เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
ได้อย่างปลอดภัย
11:12
And if you haven'tยังไม่ได้ noticedสังเกตเห็น,
50 yearsปี is not what it used to be.
226
660920
3456
และถ้าคุณยังไม่ทันสังเกตอีกล่ะก็
50 ปีนั้นไม่เป็นอย่างที่มันเคยเป็น
11:16
This is 50 yearsปี in monthsเดือน.
227
664400
2456
นี่คือ 50 ปีในอีกไม่กี่เดือน
11:18
This is how long we'veเราได้ had the iPhoneiPhone.
228
666880
1840
เรามีไอโฟนมานานเท่านี้
11:21
This is how long "The Simpsonsซิมป์สัน"
has been on televisionโทรทัศน์.
229
669440
2600
"เดอะ ซิมพ์สันส์" ออกอากาศทางทีวี
มานานแค่นี้
11:24
Fiftyห้าสิบ yearsปี is not that much time
230
672680
2376
ห้าสิบปีไม่ใช่เวลาที่นานมาก
11:27
to meetพบกัน one of the greatestใหญ่ที่สุด challengesความท้าทาย
our speciesสายพันธุ์ will ever faceใบหน้า.
231
675080
3160
ที่จะพบกับสิ่งท้าทายที่ยิ่งใหญ่ที่สุด
ที่ชาติพันธ์ุของเราจะเผชิญ
11:31
Onceครั้งหนึ่ง again, we seemดูเหมือน to be failingความล้มเหลว
to have an appropriateเหมาะสม emotionalอารมณ์ responseคำตอบ
232
679640
4016
ยํ้าอีกครั้งนะครับ ดูเหมือนเรากำลังล้มเหลว
ที่จะมีการตอบสนองทางอารมณ์ที่เหมาะสม
ต่อสิ่งที่เราเชื่อได้ด้วยเหตุผล
ในทุก ๆ ด้าน ว่ามันกำลังมาถึง
11:35
to what we have everyทุกๆ reasonเหตุผล
to believe is comingมา.
233
683680
2696
11:38
The computerคอมพิวเตอร์ scientistนักวิทยาศาสตร์ Stuartจวร์ต Russellรัสเซล
has a niceดี analogyการเปรียบเทียบ here.
234
686400
3976
นักวิทยาศาสตร์คอมพิวเตอร์ สจวร์ต รัสเซลล์
เปรียบเทียบไว้เป็นอย่างดีในเรื่องนี้
11:42
He said, imagineจินตนาการ that we receivedที่ได้รับ
a messageข่าวสาร from an alienมนุษย์ต่างดาว civilizationอารยธรรม,
235
690400
4896
เขาพูดว่า ลองจินตนาการดูว่า
เราได้รับข้อความจากอารยธรรมต่างดาว
11:47
whichที่ readอ่าน:
236
695320
1696
ความว่า
11:49
"People of Earthโลก,
237
697040
1536
"มนุษย์โลก
11:50
we will arriveมาถึง on your planetดาวเคราะห์ in 50 yearsปี.
238
698600
2360
เราจะไปถึงดาวเคราะห์ของท่านในอีก 50 ปี
11:53
Get readyพร้อมแล้ว."
239
701800
1576
เตรียมตัวให้พร้อมนะ"
11:55
And now we're just countingการนับ down
the monthsเดือน untilจนกระทั่ง the mothershipแม่ landsดินแดน?
240
703400
4256
แล้วตอนนี้เราจะแค่นับเดือนถอยหลัง
จนยานแม่มาลงจอดบนพื้นโลกอย่างนั้นหรือ
11:59
We would feel a little
more urgencyการเร่งรีบ than we do.
241
707680
3000
เราน่าจะรู้สึกต้องรีบเร่งขึ้น
กว่าที่เราเป็นอยู่บ้าง
12:04
Anotherอื่น reasonเหตุผล we're told not to worryกังวล
242
712680
1856
อีกเหตุผลหนึ่ง ที่เขาบอกเราไม่ให้กังวล
12:06
is that these machinesเครื่อง
can't help but shareหุ้น our valuesค่า
243
714560
3016
คือจักรกลพวกนี้
ยังไงก็จะมีค่านิยมเหมือนกับเรา
12:09
because they will be literallyอย่างแท้จริง
extensionsส่วนขยาย of ourselvesตัวเรา.
244
717600
2616
เพราะแท้จริงแล้วมันจะเป็น
ส่วนต่อขยายออกไปของตัวเราเอง
12:12
They'llพวกเขาจะ be graftedทาบ ontoไปยัง our brainsสมอง,
245
720240
1816
พวกมันจะถูกเชื่อมต่อกับสมองของเรา
12:14
and we'llดี essentiallyเป็นหลัก
becomeกลายเป็น theirของพวกเขา limbiclimbic systemsระบบ.
246
722080
2360
หรือที่จริงคือ เรากลายเป็นสมองระบบลิมบิก
(ทำหน้าที่รับรู้อารมณ์) ของพวกมัน
12:17
Now take a momentขณะ to considerพิจารณา
247
725120
1416
ครับ มาพิจารณาสักครู่
12:18
that the safestปลอดภัยที่สุด
and only prudentรอบคอบ pathเส้นทาง forwardข้างหน้า,
248
726560
3176
ว่าวิถีทางเดียวที่ปลอดภัยและรอบคอบ
ที่จะใช้ต่อไปข้างหน้า
12:21
recommendedแนะนำ,
249
729760
1336
ที่ได้รับการเสนอแนะมานั้น
12:23
is to implantสอดใส่ this technologyเทคโนโลยี
directlyโดยตรง into our brainsสมอง.
250
731120
2800
คือการปลูกถ่ายเทคโนโลยีนี้
เข้าสู่สมองของเราโดยตรง
12:26
Now, this mayอาจ in factความจริง be the safestปลอดภัยที่สุด
and only prudentรอบคอบ pathเส้นทาง forwardข้างหน้า,
251
734600
3376
ครับ จริง ๆ แล้วนี่อาจเป็นวิถีทางเดียว
ที่ปลอดภัยและรอบคอบที่จะใช้ต่อไป
12:30
but usuallyมักจะ one'sหนึ่งคือ safetyความปลอดภัย concernsความกังวล
about a technologyเทคโนโลยี
252
738000
3056
แต่โดยปกติ ความกังวลเรื่อง
ความปลอดภัยของเทคโนโลยี
12:33
have to be prettyน่ารัก much workedทำงาน out
before you stickติด it insideภายใน your headหัว.
253
741080
3656
จะต้องได้รับการคลี่คลายให้ได้ไม่มากก็น้อย
ก่อนที่จะเอามันไปติดเข้าไปในหัวของเรา
12:36
(Laughterเสียงหัวเราะ)
254
744760
2016
(เสียงหัวเราะ)
12:38
The deeperลึก problemปัญหา is that
buildingอาคาร superintelligentsuperintelligent AIAI on its ownด้วยตัวเอง
255
746800
5336
ปัญหาที่ลึกลํ้ากว่าก็คือการสร้าง
ปัญญาประดิษฐ์อัจฉริยะขึ้นมา โดยตัวมันเอง
12:44
seemsดูเหมือนว่า likelyน่าจะ to be easierง่ายดาย
256
752160
1736
ดูน่าจะง่ายกว่า
12:45
than buildingอาคาร superintelligentsuperintelligent AIAI
257
753920
1856
การสร้างปัญญาประดิษฐ์อัจฉริยะ
12:47
and havingมี the completedเสร็จ neuroscienceประสาท
258
755800
1776
โดยมีประสาทวิทยาศาสตร์ที่สมบูรณ์แบบ
12:49
that allowsช่วยให้ us to seamlesslyได้อย่างลงตัว
integrateรวบรวม our mindsจิตใจ with it.
259
757600
2680
ที่ทำให้เราหลอมรวมปัญญาความคิดของเรา
เข้ากับมันได้อย่างแนบเนียน
12:52
And givenรับ that the companiesบริษัท
and governmentsรัฐบาล doing this work
260
760800
3176
และถ้าคิดถึงว่า บริษัทและรัฐบาลทั้งหลาย
ที่กำลังทำงานนี้อยู่
12:56
are likelyน่าจะ to perceiveเข้าใจ themselvesตัวเอง
as beingกำลัง in a raceแข่ง againstต่อต้าน all othersคนอื่น ๆ,
261
764000
3656
น่าจะรู้ดีว่าพวกเขานั้นกำลังแข่งขันกันอยู่
12:59
givenรับ that to winชนะ this raceแข่ง
is to winชนะ the worldโลก,
262
767680
3256
เพราะว่าการเอาชนะการแข่งขันนี้ได้
คือการที่จะได้ครองโลก
13:02
providedให้ you don't destroyทำลาย it
in the nextต่อไป momentขณะ,
263
770960
2456
ถ้าคุณไม่ทำลายมันในวินาทีต่อมาไปซะก่อน
13:05
then it seemsดูเหมือนว่า likelyน่าจะ
that whateverอะไรก็ตาม is easierง่ายดาย to do
264
773440
2616
มันก็ดูน่าจะเป็นไปได้ว่า
อะไรก็ตามที่ทำได้ง่ายกว่า
13:08
will get doneเสร็จแล้ว first.
265
776080
1200
ก็จะถูกทำเป็นอันดับแรก
13:10
Now, unfortunatelyน่าเสียดาย,
I don't have a solutionวิธีการแก้ to this problemปัญหา,
266
778560
2856
ครับ โชคไม่ดี ผมไม่มีวิธีแก้ปัญหานี้
13:13
apartต่างหาก from recommendingแนะนำ
that more of us think about it.
267
781440
2616
นอกเหนือจากการแนะนำ
ให้พวกเรานี้คิดถึงมันมากขึ้นกว่านี้
ผมว่าเราต้องการอะไร
คล้ายๆ โครงการแมนฮัตตัน
13:16
I think we need something
like a Manhattanแมนฮัตตัน Projectโครงการ
268
784080
2376
13:18
on the topicหัวข้อเรื่อง of artificialเทียม intelligenceสติปัญญา.
269
786480
2016
ในหัวเรื่องปัญญาประดิษฐ์นี้
ไม่ใช่เพื่อจะสร้างมัน เพราะผมว่า
มันต้องเกิดแน่ เลี่ยงไม่ได้อยู่แล้ว
13:20
Not to buildสร้าง it, because I think
we'llดี inevitablyย่อม do that,
270
788520
2736
13:23
but to understandเข้าใจ
how to avoidหลีกเลี่ยง an armsอาวุธ raceแข่ง
271
791280
3336
แต่เพื่อให้เข้าใจถึงวิธีที่จะหลีกเลี่ยง
การแข่งขันกันสะสมอาวุธ
13:26
and to buildสร้าง it in a way
that is alignedแนวราบ with our interestsความสนใจ.
272
794640
3496
และสร้างมันขึ้นมา ในแบบที่
สอดคล้องกับผลประโยชน์ของเรา
13:30
When you're talkingการพูด
about superintelligentsuperintelligent AIAI
273
798160
2136
เมื่อเราพูดกันถึงปัญญาประดิษฐ์อัจฉริยะ
13:32
that can make changesการเปลี่ยนแปลง to itselfตัวเอง,
274
800320
2256
ที่สามารถเปลี่ยนแปลงตัวมันได้เอง
13:34
it seemsดูเหมือนว่า that we only have one chanceโอกาส
to get the initialแรกเริ่ม conditionsเงื่อนไข right,
275
802600
4616
ก็ดูเหมือนว่า เรามีเพียงโอกาสเดียว
ที่จะทำให้สภาพการณ์เริ่มแรกนั้นถูกต้อง
13:39
and even then we will need to absorbซึมซับ
276
807240
2056
และถึงกระนั้น เราก็จำเป็นจะต้องซึมซับ
13:41
the economicด้านเศรษฐกิจ and politicalในทางการเมือง
consequencesผลที่ตามมา of gettingได้รับ them right.
277
809320
3040
ผลสืบเนื่องทางการเมืองและเศรษฐกิจ
ของการที่ต้องทำให้มันถูกต้อง
13:45
But the momentขณะ we admitยอมรับ
278
813760
2056
แต่ ณ วินาทีที่เรายอมรับ
13:47
that informationข้อมูล processingการประมวลผล
is the sourceแหล่ง of intelligenceสติปัญญา,
279
815840
4000
ว่าการประมวลข้อมูล
เป็นแหล่งที่มาของความชาญฉลาด
13:52
that some appropriateเหมาะสม computationalการคำนวณ systemระบบ
is what the basisรากฐาน of intelligenceสติปัญญา is,
280
820720
4800
ว่าระบบคอมพิวเตอร์ที่เหมาะสมบางอย่างนั้น
คือสิ่งที่เป็นพื้นฐานของความชาญฉลาด
13:58
and we admitยอมรับ that we will improveปรับปรุง
these systemsระบบ continuouslyอย่างต่อเนื่อง,
281
826360
3760
และเราก็ยอมรับว่า เราจะปรับปรุง
ระบบเหล่านี้อย่างต่อเนื่อง
14:03
and we admitยอมรับ that the horizonขอบฟ้า
of cognitionความรู้ความเข้าใจ very likelyน่าจะ farห่างไกล exceedsเกินกว่า
282
831280
4456
และเรายอมรับว่า มันเป็นไปได้มากว่า
ขอบเขตของปัญญารู้คิดจะไกลเกินกว่า
14:07
what we currentlyปัจจุบัน know,
283
835760
1200
สิ่งที่เรารู้ในปัจจุบัน
14:10
then we have to admitยอมรับ
284
838120
1216
แล้วเราก็ต้องยอมรับ
14:11
that we are in the processกระบวนการ
of buildingอาคาร some sortประเภท of god.
285
839360
2640
ว่าเราอยู่ในกระบวนการ
ของการสร้างเทพเจ้าบางอย่างขึ้นมา
14:15
Now would be a good time
286
843400
1576
ขณะนี้ จึงน่าจะเป็นช่วงเวลาที่ดี
14:17
to make sure it's a god we can liveมีชีวิต with.
287
845000
1953
ที่เราจะทำให้แน่ใจว่าเทพเจ้าองค์นั้น
จะเป็นเทพที่อยู่ร่วมกับเราได้
14:20
Thank you very much.
288
848120
1536
ขอบคุณมากครับ
14:21
(Applauseการปรบมือ)
289
849680
5093
(เสียงปรบมือ)

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com