ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

นิค บอสตรอม (เสียงหัวเราะ): จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ฉลาดกว่าพวกเรา?

Filmed:
4,632,705 views

ระบบปัญญาประดิษฐ์กำลังพัฒนาความฉลาดขึ้นอย่างไม่หยุดยั้ง ผลการวิจัยระบุว่า ภายในศตวรรษนี้ ระบบปัญญาประดิษฐ์จะมีความ "ฉลาด" เทียบเท่ามนุษย์ และนิค บอสตรอมได้กล่าวไว้ว่า เมื่อนั้น มันจะแซงหน้ามนุษยชาติไป "ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์สุดท้าย ที่มนุษยชาติจำเป็นต้องพัฒนาขึ้น" บอสตรอม ซึ่งเป็นทั้งนักเทคโนโลยีและนักปรัชญา ได้เรียกร้องให้พวกเราคิดอย่างจริงจังถึงโลกที่เรากำลังสร้างอยู่ในขณะนี้ โลกที่ถูกขับเคลื่อนด้วยเครื่องจักรที่คิดเป็น จักรกลอัจฉริยะเหล่านั้น จะดำรงรักษามนุษยชาติและคุณค่าต่างๆ ของพวกเราไว้ หรือมันจะสร้างคุณค่าของพวกมันเอง?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchพวง of mathematiciansนักคณิตศาสตร์,
philosophersนักปรัชญา and computerคอมพิวเตอร์ scientistsนักวิทยาศาสตร์,
0
570
4207
ผมทำงานกับนักวิทยาศาสตร์,นักปรัชญา
และนักคอมพิวเตอร์
00:16
and we sitนั่ง around and think about
the futureอนาคต of machineเครื่อง intelligenceสติปัญญา,
1
4777
5209
และเรามานั่งคิดกัน
เกี่ยวกับอนาคตสติปัญญาของจักรกล และเรื่องอื่นๆ
00:21
amongในหมู่ other things.
2
9986
2044
00:24
Some people think that some of these
things are sortประเภท of scienceวิทยาศาสตร์ fiction-yนิยาย-Y,
3
12030
4725
บางคนคิดว่าสิ่งเหล่านี้
เป็นเรื่องมาจาก นิยายวิทยาศาสตร์
00:28
farห่างไกล out there, crazyบ้า.
4
16755
3101
ซึ่งห่างไกลจากเราและบ้า
00:31
But I like to say,
5
19856
1470
แต่ผมอยากจะบอกว่า
00:33
okay, let's look at the modernทันสมัย
humanเป็นมนุษย์ conditionเงื่อนไข.
6
21326
3604
เราลองมาดูถึงเงื่อนไขการใช้ชีวิต
ของมนุษย์สมัยใหม่
(เสียงหัวเราะ) นี่คือสิ่งที่ โดยปกติมันควรจะเป็น
00:36
(Laughterเสียงหัวเราะ)
7
24930
1692
00:38
This is the normalปกติ way for things to be.
8
26622
2402
และถ้าเราลองคิดดูดีๆ
00:41
But if we think about it,
9
29024
2285
00:43
we are actuallyแท้จริง recentlyเมื่อเร็ว ๆ นี้ arrivedมาถึง
guestsแขกผู้เข้าพัก on this planetดาวเคราะห์,
10
31309
3293
ก็จะรู้ว่าเราเพิ่งมาอยู่อาศัยตั้งรกรากบนโลก
มนุษยชาติของเรา
00:46
the humanเป็นมนุษย์ speciesสายพันธุ์.
11
34602
2082
ลองคิดดูว่าถ้าโลกเพิ่งเกิดเมื่อปีที่แล้ว
00:48
Think about if Earthโลก
was createdสร้าง one yearปี agoมาแล้ว,
12
36684
4746
00:53
the humanเป็นมนุษย์ speciesสายพันธุ์, then,
would be 10 minutesนาที oldเก่า.
13
41430
3548
มนุษย์ก็จะเพิ่งเกิดเมื่อ 10 นาทีที่แล้ว
00:56
The industrialด้านอุตสาหกรรม eraยุค startedเริ่มต้น
two secondsวินาที agoมาแล้ว.
14
44978
3168
ยุคอุตสาหกรรมเพิ่งเกิดเมื่อ 2 วินาทีที่แล้ว
01:01
Anotherอื่น way to look at this is to think of
worldโลก GDPจีดีพี over the last 10,000 yearsปี,
15
49276
5225
หรืออีกวิธีนึงคือดู GDP ของโลก
ตลอด 10000 ปี ที่ผ่านมา
01:06
I've actuallyแท้จริง takenยึด the troubleปัญหา
to plotพล็อต this for you in a graphกราฟ.
16
54501
3029
ซึ่งผมมีปัญหากับการพล็อตกราฟนี้
01:09
It looksรูปลักษณ์ like this.
17
57530
1774
ดูนี่สิครับ (เสียงหัวเราะ)
01:11
(Laughterเสียงหัวเราะ)
18
59304
1363
01:12
It's a curiousอยากรู้อยากเห็น shapeรูปร่าง
for a normalปกติ conditionเงื่อนไข.
19
60667
2151
รูปร่างประหลาดมาก สำหรับสภาวะที่ปกติ
01:14
I sure wouldn'tจะไม่ want to sitนั่ง on it.
20
62818
1698
ผมมั่นใจว่าเราคงไม่อยากนั่งทับมันหรอก
01:16
(Laughterเสียงหัวเราะ)
21
64516
2551
(เสียงหัวเราะ)
01:19
Let's askถาม ourselvesตัวเรา, what is the causeสาเหตุ
of this currentปัจจุบัน anomalyความผิดปกติ?
22
67067
4774
ลองถามตัวเราเอง ว่าอะไรทำให้เกิดสิ่งผิดปกตินี้
01:23
Some people would say it's technologyเทคโนโลยี.
23
71841
2552
บางคนบอกว่า เพราะเทคโนโลยี
01:26
Now it's trueจริง, technologyเทคโนโลยี has accumulatedสะสม
throughตลอด humanเป็นมนุษย์ historyประวัติศาสตร์,
24
74393
4668
ถูกสำหรับตอนนี้ เทคโนโลยีได้พัฒนามาตลอด
01:31
and right now, technologyเทคโนโลยี
advancesความก้าวหน้า extremelyอย่างมาก rapidlyอย่างรวดเร็ว --
25
79061
4652
และตอนนี้ เทคโนโลยีได้ก้าวหน้าอย่างรวดเร็ว
01:35
that is the proximateใกล้เคียง causeสาเหตุ,
26
83713
1565
นั่นเป็นสาเหตุที่ใกล้เคียง
01:37
that's why we are currentlyปัจจุบัน
so very productiveประสิทธิผล.
27
85278
2565
นั่นคือเหตุผลที่ทำให้เรามีผลงานมากมายในปัจจุบัน
01:40
But I like to think back furtherต่อไป
to the ultimateที่สุด causeสาเหตุ.
28
88473
3661
แต่ผมอยากให้เรากลับไปคิดถึงสาเหตุ
ที่ใหญ่กว่านั้น
01:45
Look at these two highlyอย่างมาก
distinguishedเด่น gentlemenสุภาพบุรุษ:
29
93114
3766
กรุณาดูสุภาพบุรุษที่สุดแสนจะแตกต่างกันสองท่านนี้
01:48
We have KanziKanzi --
30
96880
1600
ท่านแรกคือ Kanzi
01:50
he's masteredเข้าใจ 200 lexicalคำศัพท์
tokensราชสกุล, an incredibleเหลือเชื่อ featความสำเร็จ.
31
98480
4643
เขาสามารถแยกแยะสัญลักษณ์ได้ถึง 200 แบบ
ช่างน่าทึ่ง
ท่านที่สอง Ed Witten ผู้ทำให้เกิดการปฎิวัติ superstring
01:55
And Edเอ็ด WittenWitten unleashedปลดปล่อย the secondที่สอง
superstringsuperstring revolutionการปฏิวัติ.
32
103123
3694
ครั้งที่ 2
01:58
If we look underภายใต้ the hoodกระโปรงหน้ารถ,
this is what we find:
33
106817
2324
ถ้าเราดูกลไกที่ถูกซ่อนไว้ นี่คือสิ่งที่เราจะเจอ
02:01
basicallyเป็นพื้น the sameเหมือนกัน thing.
34
109141
1570
โดยพื้นฐานแล้วมันคือสิ่งเดียวกัน
02:02
One is a little largerที่มีขนาดใหญ่,
35
110711
1813
หนึ่งในนั้นใหญ่กว่าเล็กน้อย
02:04
it maybe alsoด้วย has a fewน้อย tricksเล่นกล
in the exactแน่นอน way it's wiredแบบใช้สาย.
36
112524
2758
มันอาจจะมีทริกบางอย่างในด้านการเชื่อมโยงของมัน
02:07
These invisibleมองไม่เห็น differencesความแตกต่าง cannotไม่ได้
be too complicatedซับซ้อน, howeverอย่างไรก็ตาม,
37
115282
3812
อย่างไรก็ตาม ความแตกต่างที่มองไม่เห็นเหล่านี้
ไม่น่าจะซับซ้อนมากนัก
02:11
because there have only
been 250,000 generationsชั่วอายุคน
38
119094
4285
เพราะว่ามันเพิ่งผ่านมาเพียง 250,000 รุ่น
02:15
sinceตั้งแต่ our last commonร่วมกัน ancestorบรรพบุรุษ.
39
123379
1732
หลังจากบรรพบุรุษที่เรามีร่วมกัน
02:17
We know that complicatedซับซ้อน mechanismsกลไก
take a long time to evolveคาย.
40
125111
3849
เรารู้ว่าจักรกลที่ซับซ้อนนั้น
ใช้เวลานานในการพัฒนา
02:22
So a bunchพวง of relativelyสัมพัทธ์ minorผู้เยาว์ changesการเปลี่ยนแปลง
41
130000
2499
นั่นคือ การเปลี่่ยนแปลง
ที่เทียบแล้วถือว่าเล็กน้อยจำนวนหนึ่ง
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
ทำให้เราห่างจาก Kanzi และเข้าใกล้ Witten
02:27
from broken-offแตกออก treeต้นไม้ branchesสาขา
to intercontinentalระหว่างทวีป ballisticขีปนาวุธ missilesขีปนาวุธ.
43
135566
4543
จากกิ่งไม้หักๆ ไปสู่ขีปนาวุธข้ามทวีป
02:32
So this then seemsดูเหมือนว่า prettyน่ารัก obviousชัดเจน
that everything we'veเราได้ achievedประสบความสำเร็จ,
44
140839
3935
ค่อนข้างเห็นได้ชัดว่า ทุกอย่างที่เราสร้างขึ้น
02:36
and everything we careการดูแล about,
45
144774
1378
และทุกๆ อย่างที่เราสนใจ
02:38
dependsขึ้นอยู่กับ cruciallyขับเคลื่อน on some relativelyสัมพัทธ์ minorผู้เยาว์
changesการเปลี่ยนแปลง that madeทำ the humanเป็นมนุษย์ mindใจ.
46
146152
5228
ขึ้นอยู่กับความเปลี่ยนแปลงแค่เพียงเล็กน้อย
ที่เกิดขึ้นในความคิดของของมนุษย์
02:44
And the corollaryควันหลง, of courseหลักสูตร,
is that any furtherต่อไป changesการเปลี่ยนแปลง
47
152650
3662
ผลที่ตามมาก็คือ ความเปลี่ยนแปลงใดๆ หลังจากนี้
02:48
that could significantlyอย่างมีความหมาย changeเปลี่ยนแปลง
the substrateสารตั้งต้น of thinkingคิด
48
156312
3477
ที่สามารถเปลี่ยนพื้นฐานของความคิดไปได้
02:51
could have potentiallyที่อาจเกิดขึ้น
enormousมหาศาล consequencesผลที่ตามมา.
49
159789
3202
ก็อาจจะมีผลลัพธ์ที่ใหญ่หลวงตามมา
02:56
Some of my colleaguesเพื่อนร่วมงาน
think we're on the vergeปาก
50
164321
2905
เพื่อนร่วมงานผมบางคนคิดว่า เรากำลังเข้าใกล้
02:59
of something that could causeสาเหตุ
a profoundลึกซึ้ง changeเปลี่ยนแปลง in that substrateสารตั้งต้น,
51
167226
3908
อะไรบางอย่างที่ทำให้เกิด
ความเปลี่ยนแปลงครั้งใหญ่ของวิธีคิด
03:03
and that is machineเครื่อง superintelligencesuperintelligence.
52
171134
3213
ซึ่งก็คือ เครื่องจักรทรงภูมิปัญญา
(Machine Superintelligence)
03:06
Artificialเทียม intelligenceสติปัญญา used to be
about puttingวาง commandsคำสั่ง in a boxกล่อง.
53
174347
4739
ปัญญาประดิษฐ์เคยเป็นแค่เรื่องของการป้อนคำสั่ง
03:11
You would have humanเป็นมนุษย์ programmersโปรแกรมเมอร์
54
179086
1665
คุณมีนักเขียนโปรแกรมเป็นมนุษย์
03:12
that would painstakinglyอย่างระมัดระวัง
handcraftงานฝีมือ knowledgeความรู้ itemsรายการ.
55
180751
3135
ที่จะคอยใส่ความรู้เข้าไปอย่างระมัดระวัง
03:15
You buildสร้าง up these expertผู้เชี่ยวชาญ systemsระบบ,
56
183886
2086
คุณสร้างระบบผู้เชี่ยวชาญขึ้นมา
03:17
and they were kindชนิด of usefulมีประโยชน์
for some purposesวัตถุประสงค์,
57
185972
2324
ซึ่งมันก็ค่อนข้างจะมีประโยชน์สำหรับบางเรื่อง
03:20
but they were very brittleเปราะ,
you couldn'tไม่สามารถ scaleขนาด them.
58
188296
2681
แต่มันก็ยังเปราะบาง
คุณไม่สามารถขยายมันออกไปอีกได้
03:22
Basicallyเป็นพื้น, you got out only
what you put in.
59
190977
3433
สิ่งที่คุณได้ออกมาก็เป็นแค่สิ่งที่คุณใส่เข้าไป
03:26
But sinceตั้งแต่ then,
60
194410
997
ตั้งแต่ตอนนั้น
03:27
a paradigmตัวอย่าง shiftเปลี่ยน has takenยึด placeสถานที่
in the fieldสนาม of artificialเทียม intelligenceสติปัญญา.
61
195407
3467
ความเปลี่ยนแปลงก็ได้เกิดขึ้น
ในสายงานปัญญาประดิษฐ์หรือเอไอ (AI)
03:30
Todayในวันนี้, the actionการกระทำ is really
around machineเครื่อง learningการเรียนรู้.
62
198874
2770
ทุกวันนี้ เรากำลังสนใจเรื่องการเรียนรู้ของเครื่องจักร
03:34
So ratherค่อนข้าง than handcraftingหัตถกรรม knowledgeความรู้
representationsการแสดง and featuresคุณสมบัติ,
63
202394
5387
แทนที่จะค่อยๆ ป้อนข้อมูลหรือความรู้ต่างๆ
03:40
we createสร้าง algorithmsอัลกอริทึม that learnเรียน,
oftenบ่อยครั้ง from rawดิบ perceptualการรับรู้ dataข้อมูล.
64
208511
5554
เราสร้างขั้นตอนวิธีในการเรียน
โดยมาก ด้วยข้อมูลที่ได้จากการรับรู้
03:46
Basicallyเป็นพื้น the sameเหมือนกัน thing
that the humanเป็นมนุษย์ infantทารก does.
65
214065
4998
เหมือนกับสิ่งที่ทารกของมนุษย์ทำ
03:51
The resultผล is A.I. that is not
limitedถูก จำกัด to one domainโดเมน --
66
219063
4207
ผลก็คือ ระบบเอไอที่ไม่ได้ถูกจำกัดอยู่เพียงสาขาเดียว
03:55
the sameเหมือนกัน systemระบบ can learnเรียน to translateแปลความ
betweenระหว่าง any pairsคู่ of languagesภาษา,
67
223270
4631
ระบบเดียวกันสามารถเรียนรู้
ที่จะแปลระหว่างคู่ภาษาใดๆ ก็ได้
03:59
or learnเรียน to playเล่น any computerคอมพิวเตอร์ gameเกม
on the Atariอาตาริ consoleปลอบใจ.
68
227901
5437
หรือเรียนที่จะเล่นเกมคอมพิวเตอร์ใดๆ ด้วย
เครื่อง Atari
04:05
Now of courseหลักสูตร,
69
233338
1779
แน่นอนว่า ในตอนนี้
04:07
A.I. is still nowhereไม่มีที่ไหนเลย nearใกล้ havingมี
the sameเหมือนกัน powerfulมีอำนาจ, cross-domainข้ามโดเมน
70
235117
3999
เอไอยังห่างไกลจากความสามารถอันทรงพลัง
04:11
abilityความสามารถ to learnเรียน and planวางแผน
as a humanเป็นมนุษย์ beingกำลัง has.
71
239116
3219
ในการเรียนรู้หรือวางแผนข้ามสาขาของมนุษย์
04:14
The cortexเยื่อหุ้มสมอง still has some
algorithmicอัลกอริทึม tricksเล่นกล
72
242335
2126
เนื้อเยื่อสมองส่วนนอกยังมีลูกเล่นบางอย่าง
04:16
that we don't yetยัง know
how to matchการจับคู่ in machinesเครื่อง.
73
244461
2355
ที่เรายังไม่รู้ว่า เครื่องจักรจะทำตามอย่างไร
04:19
So the questionคำถาม is,
74
247886
1899
คำถามก็คือ
04:21
how farห่างไกล are we from beingกำลัง ableสามารถ
to matchการจับคู่ those tricksเล่นกล?
75
249785
3500
เรายังห่างไกลจากการเลียนแบบลูกเล่นพวกนั้นแค่ไหน
04:26
A coupleคู่ of yearsปี agoมาแล้ว,
76
254245
1083
ไม่กี่ปีที่แล้ว
04:27
we did a surveyสำรวจ of some of the world'sโลก
leadingชั้นนำ A.I. expertsผู้เชี่ยวชาญ,
77
255328
2888
เราได้ทำการสำรวจผู้เชี่ยวชาญด้านปัญญาประดิษฐ์
ชั้นนำของโลกจำนวนหนึ่ง
04:30
to see what they think,
and one of the questionsคำถาม we askedถาม was,
78
258216
3224
เพื่อที่จะดูว่าพวกเขาคิดอย่างไร
และหนึ่งในคำถามของเราก็คือ
04:33
"By whichที่ yearปี do you think
there is a 50 percentเปอร์เซ็นต์ probabilityความน่าจะเป็น
79
261440
3353
ปีไหนที่คุณคิดว่าเรามีโอกาส 50%
04:36
that we will have achievedประสบความสำเร็จ
human-levelมนุษย์ระดับ machineเครื่อง intelligenceสติปัญญา?"
80
264793
3482
ที่จะสร้างเครื่องจักรที่มีสติปัญญาระดับมนุษย์
04:40
We definedที่กำหนดไว้ human-levelมนุษย์ระดับ here
as the abilityความสามารถ to performปฏิบัติการ
81
268785
4183
เรานิยาม "ระดับมนุษย์" ว่าความสามารถที่จะทำ
04:44
almostเกือบจะ any jobงาน at leastน้อยที่สุด as well
as an adultผู้ใหญ่ humanเป็นมนุษย์,
82
272968
2871
งานเกือบทุกอย่างได้ดีเทียบเท่ากับมนุษย์ผู้ใหญ่เป็นอย่างน้อย
04:47
so realจริง human-levelมนุษย์ระดับ, not just
withinภายใน some limitedถูก จำกัด domainโดเมน.
83
275839
4005
นั่นคือระดับมนุษย์จริงๆ ไม่ใช่แค่จำกัดอยู่ภายในสาขาเดียว
04:51
And the medianมัธยฐาน answerตอบ was 2040 or 2050,
84
279844
3650
คำตอบกลางๆ อยู่ในช่วง 2040-2050
04:55
dependingทั้งนี้ขึ้นอยู่กับ on preciselyแม่นยำ whichที่
groupกลุ่ม of expertsผู้เชี่ยวชาญ we askedถาม.
85
283494
2806
ขึ้นอยู่กับว่าเราถามผู้เชี่ยวชาญกลุ่มไหน
04:58
Now, it could happenเกิดขึ้น much,
much laterต่อมา, or soonerเร็วกว่า,
86
286300
4039
แต่มันก็อาจจะเกิดขึ้นหลังจากนั้น หรือก่อนหน้านั้น
05:02
the truthความจริง is nobodyไม่มีใคร really knowsรู้.
87
290339
1940
ความจริงก็คือ ไม่มีใครรู้หรอก
05:05
What we do know is that the ultimateที่สุด
limitจำกัด to informationข้อมูล processingการประมวลผล
88
293259
4412
แต่สิ่งที่เรารู้แน่ๆ ก็คือข้อจำกัดในการประมวลข้อมูล
05:09
in a machineเครื่อง substrateสารตั้งต้น liesโกหก farห่างไกล outsideด้านนอก
the limitsขีด จำกัด in biologicalชีวภาพ tissueเนื้อเยื่อ.
89
297671
4871
ของเครื่องจักรนั้น
อยู่นอกเหนือข้อจำกัดของเนื้อเยื่อชีวภาพ
05:15
This comesมา down to physicsฟิสิกส์.
90
303241
2378
มันกลับมาที่ฟิสิกส์
05:17
A biologicalชีวภาพ neuronเซลล์ประสาท firesไฟไหม้, maybe,
at 200 hertzเฮิรตซ์, 200 timesครั้ง a secondที่สอง.
91
305619
4718
เซลล์ประสาทนั้นอาจจะส่งสัญญาณ
ด้วยความถี่ 200 เฮิร์ตซ์ หรือ 200 ครั้งต่อวินาที
05:22
But even a present-dayวันนี้ transistorทรานซิสเตอร์
operatesดำเนินการ at the Gigahertzกิกะเฮิรตซ์.
92
310337
3594
แต่ในปัจจุบัน แม้กระทั่งทรานซิสเตอร์
ยังทำงานด้วยความถี่ระดับพันล้านเฮิร์ตซ์
05:25
Neuronsเซลล์ประสาท propagateเผยแพร่ slowlyช้า in axonsซอน,
100 metersเมตร perต่อ secondที่สอง, topsท็อปส์ซู.
93
313931
5297
สัญญาณเดินทางอย่างเชื่องช้าในแอกซอน
100 เมตรต่อวินาทีเป็นอย่างมาก
05:31
But in computersคอมพิวเตอร์, signalsสัญญาณ can travelการท่องเที่ยว
at the speedความเร็ว of lightเบา.
94
319228
3111
แต่ในคอมพิวเตอร์ สัญญาณเดินทางเท่าความเร็วแสง
05:35
There are alsoด้วย sizeขนาด limitationsข้อ จำกัด,
95
323079
1869
นอกจากนี้ยังมีข้อจำกัดด้านขนาด
05:36
like a humanเป็นมนุษย์ brainสมอง has
to fitพอดี insideภายใน a craniumกะโหลก,
96
324948
3027
เหมือนกับที่สมองมนุษย์ต้องบรรจุในกะโหลกได้
05:39
but a computerคอมพิวเตอร์ can be the sizeขนาด
of a warehouseคลังสินค้า or largerที่มีขนาดใหญ่.
97
327975
4761
แต่คอมพิวเตอร์อาจมีขนาดใหญ่เท่าโกดัง หรือกว่าน้้น
05:44
So the potentialที่อาจเกิดขึ้น for superintelligencesuperintelligence
liesโกหก dormantอยู่เฉยๆ in matterเรื่อง,
98
332736
5599
แสดงว่าศักยภาพของ superintelligence ยังคงหลบซ่อนอยู่
05:50
much like the powerอำนาจ of the atomอะตอม
layปู dormantอยู่เฉยๆ throughoutตลอด humanเป็นมนุษย์ historyประวัติศาสตร์,
99
338335
5712
คล้ายๆ กับพลังของอะตอม ที่ไม่มีใครรู้ในอดีต
05:56
patientlyอย่างอดทน waitingที่รอ there untilจนกระทั่ง 1945.
100
344047
4405
รอคอยให้ถูกค้นพบ ในปี 1945
06:00
In this centuryศตวรรษ,
101
348452
1248
ในศตวรรษนี้ นักวิทยศาสตร์อาจเรียนรู้ที่จะ
06:01
scientistsนักวิทยาศาสตร์ mayอาจ learnเรียน to awakenปลุก
the powerอำนาจ of artificialเทียม intelligenceสติปัญญา.
102
349700
4118
ปลุกพลังของปัญญาประดิษฐ์
06:05
And I think we mightอาจ then see
an intelligenceสติปัญญา explosionการระเบิด.
103
353818
4008
ซึ่งผมก็คิดว่า เราอาจจะได้เห็นการเปลี่ยนแปลงครั้งใหญ่ในด้านนี้
06:10
Now mostมากที่สุด people, when they think
about what is smartฉลาด and what is dumbโง่,
104
358406
3957
สำหรับคนทั่วไป เมื่อคิดว่าอะไรฉลาดหรือโง่
06:14
I think have in mindใจ a pictureภาพ
roughlyลวก like this.
105
362363
3023
ผมว่าเขามีภาพคร่าวๆ ในใจอย่างนี้ครับ
06:17
So at one endปลาย we have the villageหมู่บ้าน idiotคนบ้า,
106
365386
2598
ปลายด้านนึงเรามีภาพคนซื่อบื้อบ้านนอกๆ
06:19
and then farห่างไกล over at the other sideด้าน
107
367984
2483
ส่วนด้านนู้น ของอีกฝั่งนึง
06:22
we have Edเอ็ด WittenWitten, or Albertอัลเบิร์ Einsteinไอน์สไต,
or whoeverใครก็ตาม your favoriteที่ชื่นชอบ guruผู้นำศาสนาฮินดู is.
108
370467
4756
เราก็มี Ed Witten หรือ Albert Einstein
หรืออัจฉริยะสุดโปรดคนไหนก็ตาม
06:27
But I think that from the pointจุด of viewดู
of artificialเทียม intelligenceสติปัญญา,
109
375223
3834
แต่ผมคิดว่า หากมองในมุมของปัญญาประดิษฐ์
06:31
the trueจริง pictureภาพ is actuallyแท้จริง
probablyอาจ more like this:
110
379057
3681
ภาพจริงๆ อาจจะใกล้เคียงกับแบบนี้มากกว่าครับ
06:35
AIAI startsเริ่มต้น out at this pointจุด here,
at zeroศูนย์ intelligenceสติปัญญา,
111
383258
3378
เอไอเริ่มจากจุดนี้ มีความฉลาดเป็นศูนย์
06:38
and then, after manyจำนวนมาก, manyจำนวนมาก
yearsปี of really hardยาก work,
112
386636
3011
หลังจากการทำงานหนักหลายๆ ปี
06:41
maybe eventuallyในที่สุด we get to
mouse-levelเมาส์ระดับ artificialเทียม intelligenceสติปัญญา,
113
389647
3844
สุดท้าย เราอาจจะเลื่อนขั้นไปสู่ความฉลาดระดับหนู
06:45
something that can navigateนำทาง
clutteredรก environmentsสภาพแวดล้อม
114
393491
2430
บางอย่างที่สามารถหาทางเดิน
รอบๆสิ่งแวดล้อมที่ยุ่งเหยิง
06:47
as well as a mouseเม้าส์ can.
115
395921
1987
ได้ดีพอๆกับหนู
06:49
And then, after manyจำนวนมาก, manyจำนวนมาก more yearsปี
of really hardยาก work, lots of investmentการลงทุน,
116
397908
4313
หลังจากนั้น ก็ต้องทำงานหนักอีกหลายปี
และการลงทุนจำนวนมาก
06:54
maybe eventuallyในที่สุด we get to
chimpanzee-levelลิงชิมแปนซีระดับ artificialเทียม intelligenceสติปัญญา.
117
402221
4639
สุดท้าย เราอาจจะไปถึงความฉลาดระดับชิมแปนซี
06:58
And then, after even more yearsปี
of really, really hardยาก work,
118
406860
3210
จากนั้นก็ทำงานต่ออีกนาน
07:02
we get to villageหมู่บ้าน idiotคนบ้า
artificialเทียม intelligenceสติปัญญา.
119
410070
2913
เราอาจจะเลื่อนระดับไปสู่คนซื่อบื้อบ้านนอก
07:04
And a fewน้อย momentsช่วงเวลา laterต่อมา,
we are beyondเกิน Edเอ็ด WittenWitten.
120
412983
3272
แล้วอีกแป๊ปเดียวหลังจากนั้น
เราก็จะนำหน้า Ed Witten ไปแล้ว
07:08
The trainรถไฟ doesn't stop
at HumanvilleHumanville Stationสถานี.
121
416255
2970
รถไฟไม่ได้หยุดวิ่งที่สถานีหมู่บ้านมนุษย์
07:11
It's likelyน่าจะ, ratherค่อนข้าง, to swooshswoosh right by.
122
419225
3022
แต่มันน่าจะวิ่งหวือผ่านไปเลยมากกว่า
07:14
Now this has profoundลึกซึ้ง implicationsผลกระทบ,
123
422247
1984
ซึ่งนี่ มีนัยยะที่ลึกซึ้ง
07:16
particularlyโดยเฉพาะ when it comesมา
to questionsคำถาม of powerอำนาจ.
124
424231
3862
โดยเฉพาะเมื่อมันเกี่ยวกับคำถามเรื่องพลัง
07:20
For exampleตัวอย่าง, chimpanzeesลิงชิมแปนซี are strongแข็งแรง --
125
428093
1899
ตัวอย่างเช่น ชิมแปนซีนั้นแข็งแรง
07:21
poundปอนด์ for poundปอนด์, a chimpanzeeลิงชิมแปนซี is about
twiceสองครั้ง as strongแข็งแรง as a fitพอดี humanเป็นมนุษย์ maleชาย.
126
429992
5222
เทียบกันแล้ว อาจจะแกร่งเป็นสองเท่า
ของมนุษย์ผู้ชายที่แข็งแรง
07:27
And yetยัง, the fateโชคชะตา of KanziKanzi
and his palsเพื่อน dependsขึ้นอยู่กับ a lot more
127
435214
4614
แต่ถึงอย่างนั้น ชะตาของ Kanzi
และพวกพ้องกลับขึ้นอยู่กับ
07:31
on what we humansมนุษย์ do than on
what the chimpanzeesลิงชิมแปนซี do themselvesตัวเอง.
128
439828
4140
สิ่งที่มนุษย์อย่างพวกเราทำมากกว่า
สิ่งที่ชิมแปนซีด้วยกันเองทำ
07:37
Onceครั้งหนึ่ง there is superintelligencesuperintelligence,
129
445228
2314
เมื่อ superintelligence ได้เกิดขึ้น
07:39
the fateโชคชะตา of humanityมนุษยชาติ mayอาจ dependขึ้นอยู่กับ
on what the superintelligencesuperintelligence does.
130
447542
3839
ชะตาของมนุษยชาติอาจขึ้นอยู่กับสิ่งที่พวกมันทำ
07:44
Think about it:
131
452451
1057
ลองคิดดูนะครับ
07:45
Machineเครื่อง intelligenceสติปัญญา is the last inventionการประดิษฐ์
that humanityมนุษยชาติ will ever need to make.
132
453508
5044
ความฉลาดของเครื่องจักร จะเป็นสิ่งประดิษฐ์
ชิ้นสุดท้ายที่เราได้สร้างขึ้นมา
07:50
Machinesเครื่อง will then be better
at inventingประดิษฐ์ than we are,
133
458552
2973
เครื่องจักรจะประดิษฐ์สิ่งต่างๆ ได้ดีกว่าเรา
07:53
and they'llพวกเขาจะ be doing so
on digitalดิจิตอล timescalesระยะเวลา.
134
461525
2540
และพวกมันจะทำอย่างนั้น
ด้วยสเกลเวลาแบบดิจิตอล
(digital time scale)
07:56
What this meansวิธี is basicallyเป็นพื้น
a telescopingเหลื่อม of the futureอนาคต.
135
464065
4901
ก็เหมือนกับการย่นเวลาให้อนาคตมาถึงเร็วขึ้น
08:00
Think of all the crazyบ้า technologiesเทคโนโลยี
that you could have imaginedจินตนาการ
136
468966
3558
ลองคิดถึงทุกเทคโนโลยีบ้าๆ เท่าที่คุณจะจินตนาการได้
08:04
maybe humansมนุษย์ could have developedพัฒนา
in the fullnessความแน่น of time:
137
472524
2798
บางทีมนุษย์อาจจะพัฒนาพวกมันได้ถ้ามีเวลามากพอ
08:07
curesการรักษา for agingริ้วรอย, spaceช่องว่าง colonizationการตั้งรกราก,
138
475322
3258
ยาชะลอความแก่ การย้ายไปอยู่ในอวกาศ
08:10
self-replicatingทำสำเนาตัวเอง nanobotsnanobots or uploadingอัปโหลด
of mindsจิตใจ into computersคอมพิวเตอร์,
139
478580
3731
หุ่นนาโนบอทที่จำลองตัวเองได้
หรือการอัพโหลดจิตใจขึ้นไปสู่คอมพิวเตอร์
08:14
all kindsชนิด of scienceวิทยาศาสตร์ fiction-yนิยาย-Y stuffสิ่ง
140
482311
2159
ทุกอย่างที่ดูเหมือนจะหลุดมาจากนิยายวิทยาศาสตร์
08:16
that's neverthelessแต่ consistentคงเส้นคงวา
with the lawsกฎหมาย of physicsฟิสิกส์.
141
484470
2737
แต่ก็ยังเป็นไปตามกฎฟิสิกส์
08:19
All of this superintelligencesuperintelligence could
developพัฒนา, and possiblyอาจ quiteทีเดียว rapidlyอย่างรวดเร็ว.
142
487207
4212
ทุกอย่างที่พูดมานี้ superintelligence
อาจสามารถพัฒนาขึ้นมาได้ค่อนข้างรวดเร็ว
08:24
Now, a superintelligencesuperintelligence with suchอย่างเช่น
technologicalเทคโนโลยี maturityวุฒิภาวะ
143
492449
3558
การที่เรามี superintelligence ที่เก่งด้านเทคโนโลยีขนาดนี้
08:28
would be extremelyอย่างมาก powerfulมีอำนาจ,
144
496007
2179
คงเป็นสิ่งที่ทรงพลังมากๆ
08:30
and at leastน้อยที่สุด in some scenariosสถานการณ์,
it would be ableสามารถ to get what it wants.
145
498186
4546
และอย่างน้อยในบางกรณี มันคงจะได้ในสิ่งที่มันต้องการ
08:34
We would then have a futureอนาคต that would
be shapedมีรูป by the preferencesการตั้งค่า of this A.I.
146
502732
5661
เราก็จะมีอนาคตที่ขึ้นอยู่กับความต้องการของเอไอ
08:41
Now a good questionคำถาม is,
what are those preferencesการตั้งค่า?
147
509855
3749
คำถามก็คือ ความต้องการพวกนั้นคืออะไร?
08:46
Here it getsได้รับ trickierพลิกแพลง.
148
514244
1769
ตรงนี้เป็นส่วนที่ยุ่งยาก
08:48
To make any headwayความคืบหน้า with this,
149
516013
1435
เพื่อที่จะคืบหน้าไปได้
08:49
we mustต้อง first of all
avoidหลีกเลี่ยง anthropomorphizinganthropomorphizing.
150
517448
3276
ก่อนอื่น เราจะต้องหลีกเลี่ยงการคิดว่าพวกนั้นจะเหมือนเรา
08:53
And this is ironicแดกดัน because
everyทุกๆ newspaperหนังสือพิมพ์ articleบทความ
151
521934
3301
ซึ่งมันก็ย้อนแย้ง เพราะบทความในหนังสือพิมพ์
08:57
about the futureอนาคต of A.I.
has a pictureภาพ of this:
152
525235
3855
เกี่ยวกับอนาคตของเอไอ เป็นแบบนี้
09:02
So I think what we need to do is
to conceiveตั้งครรภ์ of the issueปัญหา more abstractlyนามธรรม,
153
530280
4134
ดังนั้นผมเลยคิดว่าเราน่าจะต้อง
คิดในเชิงนามธรรมมากขึ้น
09:06
not in termsเงื่อนไข of vividสดใส Hollywoodฮอลลีวู้ด scenariosสถานการณ์.
154
534414
2790
ไม่ใช่เหมือนฉากในหนังฮอลลีวู้ด
09:09
We need to think of intelligenceสติปัญญา
as an optimizationการเพิ่มประสิทธิภาพ processกระบวนการ,
155
537204
3617
เราต้องคิดถึงความฉลาดในฐานะ
กระบวนการเพิ่มประสิทธิภาพ
09:12
a processกระบวนการ that steersนำพา the futureอนาคต
into a particularโดยเฉพาะ setชุด of configurationsการกำหนดค่า.
156
540821
5649
กระบวนการที่คุมให้อนาคตเป็นไปตามรูปแบบเฉพาะหนึ่งๆ
09:18
A superintelligencesuperintelligence is
a really strongแข็งแรง optimizationการเพิ่มประสิทธิภาพ processกระบวนการ.
157
546470
3511
Superintelligence ก็คือกระบวนการ
เพิ่มประสิทธิภาพที่แข็งแกร่งมากๆ
09:21
It's extremelyอย่างมาก good at usingการใช้
availableใช้ได้ meansวิธี to achieveบรรลุ a stateสถานะ
158
549981
4117
เก่งในการใช้วิธีต่างๆ เพื่อให้ได้มาซึ่ง
09:26
in whichที่ its goalเป้าหมาย is realizedตระหนัก.
159
554098
1909
สภาวะที่เป็นไปตามเป้าหมาย
09:28
This meansวิธี that there is no necessaryจำเป็น
conenctionconenction betweenระหว่าง
160
556447
2672
หมายความว่า มันไม่จำเป็นที่จะมีความเชื่อมโยง
09:31
beingกำลัง highlyอย่างมาก intelligentฉลาด in this senseความรู้สึก,
161
559119
2734
ระหว่างมีความฉลาดมากตามความหมายนี้
09:33
and havingมี an objectiveวัตถุประสงค์ that we humansมนุษย์
would find worthwhileคุ้มค่า or meaningfulมีความหมาย.
162
561853
4662
กับการมีเป้าหมายที่มนุษย์อย่างเราๆ
มองว่าคุ้มค่าหรือมีความหมาย
09:39
Supposeสมมติ we give an A.I. the goalเป้าหมาย
to make humansมนุษย์ smileยิ้ม.
163
567321
3794
สมมติว่าเราตั้งเป้าหมายให้เอไอทำให้มนุษย์ยิ้ม
09:43
When the A.I. is weakอ่อนแอ, it performsดำเนินการ usefulมีประโยชน์
or amusingน่าขบขัน actionsการปฏิบัติ
164
571115
2982
ถ้าเอไอยังอ่อนแอ มันอาจทำการกระทำที่มีประโยชน์
09:46
that causeสาเหตุ its userผู้ใช้งาน to smileยิ้ม.
165
574097
2517
และทำให้ผู้ใช้ยิ้ม
09:48
When the A.I. becomesกลายเป็น superintelligentsuperintelligent,
166
576614
2417
แต่ถ้าเอไอกลายเป็น superintelligence
09:51
it realizesตระหนัก that there is a more
effectiveมีประสิทธิภาพ way to achieveบรรลุ this goalเป้าหมาย:
167
579031
3523
มันจะรู้ว่ามีวิธีที่มีประสิทธิภาพดีกว่า
ในการบรรลุเป้าหมาย
09:54
take controlควบคุม of the worldโลก
168
582554
1922
คือขึ้นครองโลก
09:56
and stickติด electrodesขั้วไฟฟ้า into the facialที่หน้า
musclesกล้ามเนื้อ of humansมนุษย์
169
584476
3162
แล้วติดขั้วไฟฟ้าไปที่กล้ามเนื้อบริเวณหน้าของคน
09:59
to causeสาเหตุ constantคงที่, beamingยิ้มแย้มแจ่มใส grinsยิ้ม.
170
587638
2941
เพื่อทำให้เกิดรอยยิ้มกว้างไม่เปลี่ยนแปลง
10:02
Anotherอื่น exampleตัวอย่าง,
171
590579
1035
ตัวอย่างต่อมานะครับ สมมติว่า
10:03
supposeสมมติ we give A.I. the goalเป้าหมาย to solveแก้
a difficultยาก mathematicalคณิตศาสตร์ problemปัญหา.
172
591614
3383
เป้าหมายที่เราให้เอไอคือแก้โจทย์คณิตศาสตร์ที่ยากมาก
10:06
When the A.I. becomesกลายเป็น superintelligentsuperintelligent,
173
594997
1937
เมื่อเอไอเป็น superintelligence
10:08
it realizesตระหนัก that the mostมากที่สุด effectiveมีประสิทธิภาพ way
to get the solutionวิธีการแก้ to this problemปัญหา
174
596934
4171
มันอาจตระหนักว่าวิธีที่มีประสิทธิภาพที่สุดในการแก้โจทย์
10:13
is by transformingการเปลี่ยนแปลง the planetดาวเคราะห์
into a giantยักษ์ computerคอมพิวเตอร์,
175
601105
2930
คือการเปลี่ยนดาวเคราะห์ให้กลายเป็นคอมพิวเตอร์ยักษ์
10:16
so as to increaseเพิ่ม its thinkingคิด capacityความจุ.
176
604035
2246
เพื่อที่จะเพิ่มสมรรถนะในการคิด
10:18
And noticeแจ้งให้ทราบ that this givesจะช่วยให้ the A.I.s
an instrumentalเป็นเครื่องมือ reasonเหตุผล
177
606281
2764
เห็นได้ว่าสิ่งนี้ให้เหตุผลที่เป็นเครื่องมือให้เอไอ
10:21
to do things to us that we
mightอาจ not approveอนุมัติ of.
178
609045
2516
ทำสิ่งที่เราอาจไม่เห็นชอบด้วย
10:23
Humanเป็นมนุษย์ beingsสิ่งมีชีวิต in this modelแบบ are threatsภัยคุกคาม,
179
611561
1935
มนุษย์ สำหรับแบบจำลองนี้ คือภัยคุกคาม
10:25
we could preventป้องกัน the mathematicalคณิตศาสตร์
problemปัญหา from beingกำลัง solvedแก้ไข.
180
613496
2921
เพราะมนุษย์อาจทำให้มันไม่สามารถแก้โจทย์นั้นได้
10:29
Of courseหลักสูตร, perceivablyperceivably things won'tเคยชิน
go wrongไม่ถูกต้อง in these particularโดยเฉพาะ waysวิธี;
181
617207
3494
แน่นอนว่า เหตุการณ์อาจจะไม่เกิดตามนี้เป๊ะๆ
10:32
these are cartoonการ์ตูน examplesตัวอย่าง.
182
620701
1753
นี่เป็นแค่ตัวอย่างในการ์ตูน
10:34
But the generalทั่วไป pointจุด here is importantสำคัญ:
183
622454
1939
แต่ประเด็นหลักนี้สำคัญมาก
10:36
if you createสร้าง a really powerfulมีอำนาจ
optimizationการเพิ่มประสิทธิภาพ processกระบวนการ
184
624393
2873
ถ้าคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
10:39
to maximizeเพิ่ม for objectiveวัตถุประสงค์ x,
185
627266
2234
เพื่อจะให้มันทำงานได้ดีที่สุดเพื่อเป้าหมาย x
10:41
you better make sure
that your definitionคำนิยาม of x
186
629500
2276
คุณควรทำให้มั่นใจด้วยว่าคำนิยามของ x นั้น
10:43
incorporatesรวม everything you careการดูแล about.
187
631776
2469
ครอบคลุมทุกๆ อย่างที่คุณสนใจ
10:46
This is a lessonบทเรียน that's alsoด้วย taughtสอน
in manyจำนวนมาก a mythตำนาน.
188
634835
4384
นี่เป็นบทเรียนในตำนานหลายเรื่อง
10:51
Kingกษัตริย์ MidasMidas wishesความปรารถนา that everything
he touchesสัมผัส be turnedหัน into goldทอง.
189
639219
5298
ราชาไมดาส ผู้ขอให้ทุกอย่างที่เขาแตะจะเปลี่ยนเป็นทอง
10:56
He touchesสัมผัส his daughterลูกสาว,
she turnsผลัดกัน into goldทอง.
190
644517
2861
เขาแตะลูกสาวของเขา เธอกลายเป็นทอง
10:59
He touchesสัมผัส his foodอาหาร, it turnsผลัดกัน into goldทอง.
191
647378
2553
เขาแตะอาหาร มันก็กลายเป็นทอง
11:01
This could becomeกลายเป็น practicallyจวน relevantที่เกี่ยวข้อง,
192
649931
2589
ซึ่งนี่อาจจะเกี่ยวข้องอย่างมาก
11:04
not just as a metaphorคำอุปมา for greedโลภ,
193
652520
2070
ไม่ใช่แค่ในฐานะการอุปมาถึงความโลภ
11:06
but as an illustrationภาพประกอบ of what happensที่เกิดขึ้น
194
654590
1895
แต่ในฐานะของสิ่งที่อาจจะเกิดขึ้น
11:08
if you createสร้าง a powerfulมีอำนาจ
optimizationการเพิ่มประสิทธิภาพ processกระบวนการ
195
656485
2837
หากคุณสร้างกระบวนการเพิ่มประสิทธิภาพที่ทรงพลัง
11:11
and give it misconceivedเข้าใจผิด
or poorlyไม่สบาย specifiedที่ระบุ goalsเป้าหมาย.
196
659322
4789
และให้เป้าหมายที่ไม่ชัดเจนหรืออาจถูกตีความผิดกับมัน
11:16
Now you mightอาจ say, if a computerคอมพิวเตอร์ startsเริ่มต้น
stickingการผสาน electrodesขั้วไฟฟ้า into people'sของผู้คน facesใบหน้า,
197
664111
5189
คุณอาจจะคิดว่า "ถ้ามันเริ่มติดขั้วไฟฟ้ากับหน้าคนจริง
11:21
we'dพุธ just shutปิด it off.
198
669300
2265
เราก็ปิดเครื่องมันซะสิ"
11:24
A, this is not necessarilyจำเป็นต้อง so easyง่าย to do
if we'veเราได้ grownเจริญเติบโต dependentขึ้นอยู่กับ on the systemระบบ --
199
672555
5340
หนึ่ง มันอาจจะไม่ง่ายที่จะทำอย่างนั้น
ถ้าเราต้องพึ่งพาระบบนี้อีกมาก
11:29
like, where is the off switchสวิตซ์
to the Internetอินเทอร์เน็ต?
200
677895
2732
เช่น... ไหนล่ะปุ่มปิดสวิตช์อินเตอร์เนต
11:32
B, why haven'tยังไม่ได้ the chimpanzeesลิงชิมแปนซี
flickedสะบัด the off switchสวิตซ์ to humanityมนุษยชาติ,
201
680627
5120
สอง ทำไมชิมแปนซีถึงไม่ปิดสวิตช์มนุษยชาติ
11:37
or the Neanderthalsยุค?
202
685747
1551
หรือมนุษย์นีแอนเดอร์ทัล
11:39
They certainlyอย่างแน่นอน had reasonsเหตุผล.
203
687298
2666
พวกมันมีเหตุผลแน่นอน
11:41
We have an off switchสวิตซ์,
for exampleตัวอย่าง, right here.
204
689964
2795
พวกเรามีปุ่มปิดสวิตช์ ตัวอย่างเช่น ตรงนี้
11:44
(Chokingสำลัก)
205
692759
1554
(สำลัก)
11:46
The reasonเหตุผล is that we are
an intelligentฉลาด adversaryฝ่ายตรงข้าม;
206
694313
2925
เหตุผลนั้นก็คือพวกเราเป็นศัตรูที่มีความฉลาด
11:49
we can anticipateคาดหวัง threatsภัยคุกคาม
and planวางแผน around them.
207
697238
2728
เราเห็นถึงภัยคุกคามและวางแผนจัดการมัน
11:51
But so could a superintelligentsuperintelligent agentตัวแทน,
208
699966
2504
เช่นเดียวกับ superintelligence ตัวนั้น
11:54
and it would be much better
at that than we are.
209
702470
3254
และมันคงทำได้ดีกว่าเรา
11:57
The pointจุด is, we should not be confidentมั่นใจ
that we have this underภายใต้ controlควบคุม here.
210
705724
7187
ประเด็นก็คือเราไม่ควรจะมั่นใจ..ว่าเราสามารถควบคุมมันได้
12:04
And we could try to make our jobงาน
a little bitบิต easierง่ายดาย by, say,
211
712911
3447
เราอาจจะทำให้งานมันง่ายขึ้น
12:08
puttingวาง the A.I. in a boxกล่อง,
212
716358
1590
โดยการใส่เอไอตัวนั้นในกล่อง
12:09
like a secureปลอดภัย softwareซอฟต์แวร์ environmentสิ่งแวดล้อม,
213
717948
1796
เช่นสภาพแวดล้อมทางซอฟต์แวร์แบบปิด
12:11
a virtualเสมือน realityความจริง simulationจำลอง
from whichที่ it cannotไม่ได้ escapeหนี.
214
719744
3022
ระบบจำลองเสมือนจริง ที่มันหนีออกมาไม่ได้
12:14
But how confidentมั่นใจ can we be that
the A.I. couldn'tไม่สามารถ find a bugแมลง.
215
722766
4146
แต่เราจะมั่นใจได้แค่ไหนว่าเอไอจะหาช่องโหว่(Bug) ไม่เจอ
12:18
Givenป.ร. ให้ไว้ that merelyแค่ humanเป็นมนุษย์ hackersแฮกเกอร์
find bugsเป็นโรคจิต all the time,
216
726912
3169
ในเมื่อคนที่เป็นแฮกเกอร์ทั่วๆ ไปยังหาบั๊กเจอได้ตลอด
12:22
I'd say, probablyอาจ not very confidentมั่นใจ.
217
730081
3036
สรุปคือ มั่นใจไม่ได้มากนั่นเอง
12:26
So we disconnectปลด the ethernetอีเธอร์เน็ต cableสายเคเบิล
to createสร้าง an airอากาศ gapช่องว่าง,
218
734237
4548
เราอาจถอดสายอีเทอร์เน็ตเพื่อให้เกิดช่องว่างขึ้น
12:30
but again, like merelyแค่ humanเป็นมนุษย์ hackersแฮกเกอร์
219
738785
2668
แต่ก็เหมือนเดิม แฮกเกอร์ก็ยังฝ่่ามาได้เป็นประจำ
12:33
routinelyจำเจ transgressละเมิด airอากาศ gapsช่องว่าง
usingการใช้ socialสังคม engineeringวิศวกรรม.
220
741453
3381
โดยใช้วิศวกรรมสังคม
12:36
Right now, as I speakพูด,
221
744834
1259
ในขณะที่ผมกำลังพูดอยู่นี้
12:38
I'm sure there is some employeeลูกจ้าง
out there somewhereที่ไหนสักแห่ง
222
746093
2389
ผมเชื่อว่า มีลูกจ้างคนนึงอยู่ซักแห่ง
12:40
who has been talkedพูดคุย into handingมอบหมาย out
her accountบัญชี detailsรายละเอียด
223
748482
3346
กำลังถูกล่อให้บอกข้อมูลของเธอ
12:43
by somebodyบางคน claimingที่อ้างว่า to be
from the I.T. departmentแผนก.
224
751828
2746
กับคนที่บอกว่าตัวเองมาจากแผนกไอที
12:46
More creativeความคิดสร้างสรรค์ scenariosสถานการณ์ are alsoด้วย possibleเป็นไปได้,
225
754574
2127
เหตุการณ์ที่แปลกกว่านี้ก็ยังเป็นไปได้
12:48
like if you're the A.I.,
226
756701
1315
เช่นถ้าคุณเป็นเอไอ
12:50
you can imagineจินตนาการ wigglingwiggling electrodesขั้วไฟฟ้า
around in your internalภายใน circuitryวงจร
227
758016
3532
คุณอาจจะหมุนขั้วไฟฟ้าในวงจรภายใน
12:53
to createสร้าง radioวิทยุ wavesคลื่น that you
can use to communicateสื่อสาร.
228
761548
3462
เพื่อสร้างคลื่นวิทยุ คุณจะได้สื่อสารได้
12:57
Or maybe you could pretendแกล้งทำ to malfunctionความผิดปกติ,
229
765010
2424
หรือคุณอาจจะแกล้งทำเป็นพัง
12:59
and then when the programmersโปรแกรมเมอร์ openเปิด
you up to see what wentไป wrongไม่ถูกต้อง with you,
230
767434
3497
พอโปรแกรมเมอร์มาเช็กว่ามีอะไรผิดปกติ
13:02
they look at the sourceแหล่ง codeรหัส -- Bamปัง! --
231
770931
1936
เขาก็จะดูโค้ดโปรแกรม
13:04
the manipulationการจัดการ can take placeสถานที่.
232
772867
2447
ตู้ม! การควบคุมก็สามารถเริ่มขึ้นได้
13:07
Or it could outputเอาท์พุต the blueprintพิมพ์เขียว
to a really niftyดี technologyเทคโนโลยี,
233
775314
3430
หรือมันอาจจะสร้างพิมพ์เขียวของเทคโนโลยีดีๆ
13:10
and when we implementการดำเนินการ it,
234
778744
1398
แล้วพอเราสร้างตามนั้น
13:12
it has some surreptitiousซ่อนเร้น sideด้าน effectผล
that the A.I. had plannedวางแผน.
235
780142
4397
มันก็มีผลข้างเคียงลับๆ ที่เอไอวางแผนไว้
13:16
The pointจุด here is that we should
not be confidentมั่นใจ in our abilityความสามารถ
236
784539
3463
ประเด็นก็คือ เราไม่ควรมั่นใจในความสามารถของเรา
13:20
to keep a superintelligentsuperintelligent genieมาร
lockedล็อค up in its bottleขวด foreverตลอดไป.
237
788002
3808
ว่าจะขังยักษ์จีนี่ superintelligence ไว้ในตะเกียงตลอดไปได้
13:23
Soonerเร็วกว่า or laterต่อมา, it will out.
238
791810
2254
ไม่ช้าก็เร็ว มันก็จะออกมาอยู่ดี
13:27
I believe that the answerตอบ here
is to figureรูป out
239
795034
3103
ผมเชื่อว่า ทางออกก็คือ
13:30
how to createสร้าง superintelligentsuperintelligent A.I.
suchอย่างเช่น that even if -- when -- it escapesหนี,
240
798137
5024
การหาวิธีสร้างเอไอ ที่ถึงแม้ว่ามันจะหนีออกมาได้
13:35
it is still safeปลอดภัย because it is
fundamentallyลึกซึ้ง on our sideด้าน
241
803161
3277
มันก็ยังไม่เป็นภัย เพราะโดยเนื้อแท้แล้วมันอยู่ฝั่งเดียวกับเรา
13:38
because it sharesหุ้น our valuesค่า.
242
806438
1899
เพราะเราและมันมีความเชื่อหรือค่านิยมเหมือนกัน
13:40
I see no way around
this difficultยาก problemปัญหา.
243
808337
3210
ผมไม่เห็นทางออกอื่นของปัญหานี้อีกแล้ว
13:44
Now, I'm actuallyแท้จริง fairlyอย่างเป็นธรรม optimisticในแง่ดี
that this problemปัญหา can be solvedแก้ไข.
244
812557
3834
ที่จริง ผมก็ค่อนข้างมั่นใจว่าเราสามารถแก้ปัญหานี้ได้
13:48
We wouldn'tจะไม่ have to writeเขียน down
a long listรายการ of everything we careการดูแล about,
245
816391
3903
เราคงไม่ต้องนั่งลิสต์ทุกอย่างที่เราแคร์
13:52
or worseแย่ลง yetยัง, spellสะกด it out
in some computerคอมพิวเตอร์ languageภาษา
246
820294
3643
หรือแย่ไปกว่านั้น เขียนพวกมันในภาษาคอมพิวเตอร์
13:55
like C++ or Pythonหลาม,
247
823937
1454
เช่น C++ หรือ Python
13:57
that would be a taskงาน beyondเกิน hopelessสิ้นหวัง.
248
825391
2767
นั่นคงเป็นงานที่น่าสิ้นหวังเอามากๆ
14:00
Insteadแทน, we would createสร้าง an A.I.
that usesการใช้งาน its intelligenceสติปัญญา
249
828158
4297
แต่เราจะสร้างเอไอที่ใช้ความฉลาดของมัน
14:04
to learnเรียน what we valueความคุ้มค่า,
250
832455
2771
ไปเรียนรู้สิ่งที่เราเห็นคุณค่า
14:07
and its motivationแรงจูงใจ systemระบบ is constructedสร้าง
in suchอย่างเช่น a way that it is motivatedมีสาเหตุ
251
835226
5280
ระบบแรงจูงใจของมันจะถูกสร้าง เพื่อให้มันอยากจะ
14:12
to pursueไล่ตาม our valuesค่า or to performปฏิบัติการ actionsการปฏิบัติ
that it predictsคาดการณ์ we would approveอนุมัติ of.
252
840506
5232
เรียนรู้ค่านิยมของเรา หรือทำสิ่งที่มันคาดว่าเราจะเห็นด้วย
14:17
We would thusดังนั้น leverageการงัด
its intelligenceสติปัญญา as much as possibleเป็นไปได้
253
845738
3414
ดังนั้น เราจะให้อำนาจความฉลาดของมันให้มากที่สุด
14:21
to solveแก้ the problemปัญหา of value-loadingค่าโหลด.
254
849152
2745
ไปในการแก้ปัญหาเรื่องค่านิยมที่ไม่ตรงกัน
14:24
This can happenเกิดขึ้น,
255
852727
1512
สิ่งนี้สามารถเป็นไปได้
14:26
and the outcomeผล could be
very good for humanityมนุษยชาติ.
256
854239
3596
และผลของมันอาจมีประโยชน์มากต่อมนุษยชาติ
14:29
But it doesn't happenเกิดขึ้น automaticallyอัตโนมัติ.
257
857835
3957
แต่มันจะไม่เกิดขึ้นอย่างอัตโนมัติ
14:33
The initialแรกเริ่ม conditionsเงื่อนไข
for the intelligenceสติปัญญา explosionการระเบิด
258
861792
2998
เงื่อนไขตั้งต้นของความก้าวหน้าในด้านนี้
14:36
mightอาจ need to be setชุด up
in just the right way
259
864790
2863
ต้องถูกวางแผนจัดการในทางที่ถูกต้อง
14:39
if we are to have a controlledถูกควบคุม detonationระเบิด.
260
867653
3530
หากเราต้องการให้ผลที่ออกมาควบคุมได้
14:43
The valuesค่า that the A.I. has
need to matchการจับคู่ oursของเราเอง,
261
871183
2618
ค่านิยมที่เอไอมีจะต้องเทียบเท่ากับของเรา
14:45
not just in the familiarคุ้นเคย contextบริบท,
262
873801
1760
ไม่ใช่แค่ในบริบทเดิมๆ
14:47
like where we can easilyอย่างง่ายดาย checkตรวจสอบ
how the A.I. behavesพฤติกรรม,
263
875561
2438
ที่เราสามารถตรวจสอบพฤติกรรมของมันได้
14:49
but alsoด้วย in all novelนวนิยาย contextsบริบท
that the A.I. mightอาจ encounterพบ
264
877999
3234
แต่ยังรวมถึงบริบทใหม่ๆ ที่เอไออาจจะเจอ
14:53
in the indefiniteไม่แน่นอน futureอนาคต.
265
881233
1557
ในอนาคตอันไม่สิ้นสุด
14:54
And there are alsoด้วย some esotericลึกลับ issuesปัญหา
that would need to be solvedแก้ไข, sortedเรียง out:
266
882790
4737
นอกจากนี้ ยังมีปัญหาเฉพาะอื่นๆ ที่จำเป็นต้องแก้
14:59
the exactแน่นอน detailsรายละเอียด of its decisionการตัดสิน theoryทฤษฎี,
267
887527
2089
รายละเอียดของทฤษฏีการตัดสินใจของมัน
15:01
how to dealจัดการ with logicalตรรกะ
uncertaintyความไม่แน่นอน and so forthออกมา.
268
889616
2864
วิธีการรับมือกับความไม่แน่นอน และอื่นๆ
15:05
So the technicalวิชาการ problemsปัญหาที่เกิดขึ้น that need
to be solvedแก้ไข to make this work
269
893330
3102
ปัญหาเฉพาะทางเหล่านี้อาจจะทำให้งานนี้ดู
15:08
look quiteทีเดียว difficultยาก --
270
896432
1113
ค่อนข้างยาก
15:09
not as difficultยาก as makingการทำ
a superintelligentsuperintelligent A.I.,
271
897545
3380
ไม่ยากถึงขนาดการสร้างเอไอทรงภูมิปัญญา
15:12
but fairlyอย่างเป็นธรรม difficultยาก.
272
900925
2868
แต่ก็ยากในระดับหนึ่ง
15:15
Here is the worryกังวล:
273
903793
1695
นี่คือสิ่งที่น่าเป็นกังวล
15:17
Makingการทำ superintelligentsuperintelligent A.I.
is a really hardยาก challengeท้าทาย.
274
905488
4684
การสร้างเอไอทรงภูมิปัญญาเป็นความท้าทายที่ยากมากๆ
15:22
Makingการทำ superintelligentsuperintelligent A.I. that is safeปลอดภัย
275
910172
2548
การสร้างเอไอที่ทั้งทรงภูมิปัญญาและไม่เป็นภัย
15:24
involvesที่เกี่ยวข้องกับการ some additionalเพิ่มเติม
challengeท้าทาย on topด้านบน of that.
276
912720
2416
นั่นเป็นความท้าทายที่ยากยิ่งกว่า
15:28
The riskอันตราย is that if somebodyบางคน figuresตัวเลข out
how to crackร้าว the first challengeท้าทาย
277
916216
3487
ความเสี่ยงคือ กรณีที่มีคนแก้ปัญหาแรกได้สำเร็จ
15:31
withoutไม่มี alsoด้วย havingมี crackedแตกระแหง
the additionalเพิ่มเติม challengeท้าทาย
278
919703
3001
โดยที่ยังไม่สามารถแก้ปัญหาที่สอง
15:34
of ensuringการสร้างความมั่นใจ perfectสมบูรณ์ safetyความปลอดภัย.
279
922704
1901
ซึ่งจะเป็นตัวรับประกันความปลอดภัยอย่างสมบูรณ์แบบได้
15:37
So I think that we should
work out a solutionวิธีการแก้
280
925375
3331
ผมจึงคิดว่า เราควรจะหาทางออก
15:40
to the controlควบคุม problemปัญหา in advanceความก้าวหน้า,
281
928706
2822
ของปัญหาด้านการควบคุมล่วงหน้าไว้
15:43
so that we have it availableใช้ได้
by the time it is neededจำเป็น.
282
931528
2660
เพื่อที่เราจะได้เตรียมพร้อมใช้ในกรณีที่จำเป็น
15:46
Now it mightอาจ be that we cannotไม่ได้ solveแก้
the entireทั้งหมด controlควบคุม problemปัญหา in advanceความก้าวหน้า
283
934768
3507
ซึ่งมันก็เป็นไปได้ ที่เราจะไม่สามารถ
แก้ปัญหาทั้งหมดได้ล่วงหน้า
15:50
because maybe some elementsองค์ประกอบ
can only be put in placeสถานที่
284
938275
3024
เพราะบางองค์ประกอบอาจจะแก้ได้
15:53
onceครั้งหนึ่ง you know the detailsรายละเอียด of the
architectureสถาปัตยกรรม where it will be implementedการดำเนินการ.
285
941299
3997
หลังจากที่เรารู้รายละเอียดของงานที่มันจะถูกใช้เท่านั้น
15:57
But the more of the controlควบคุม problemปัญหา
that we solveแก้ in advanceความก้าวหน้า,
286
945296
3380
แต่ยิ่งเราสามารถแก้ปัญหาล่วงหน้าได้มากเท่าไหร่
16:00
the better the oddsอัตราต่อรอง that the transitionการเปลี่ยนแปลง
to the machineเครื่อง intelligenceสติปัญญา eraยุค
287
948676
4090
โอกาสที่การเปลี่ยนแปลงไปสู่
ยุคปัญญาประดิษฐ์จะเป็นไปด้วยดี
16:04
will go well.
288
952766
1540
ก็มากเท่านั้น
16:06
This to me looksรูปลักษณ์ like a thing
that is well worthคุ้มค่า doing
289
954306
4644
สำหรับผมแล้ว นี่เป็นสิ่งที่คู่ควรกับการลงแรงทำ
16:10
and I can imagineจินตนาการ that if
things turnกลับ out okay,
290
958950
3332
ผมจินตนาการได้เลยว่า ถ้าผลออกมาโอเค
16:14
that people a millionล้าน yearsปี from now
look back at this centuryศตวรรษ
291
962282
4658
ผู้คนในอีกหนึ่งล้านปีข้างหน้ามองย้อนมาในศตวรรษนี้
16:18
and it mightอาจ well be that they say that
the one thing we did that really matteredสำคัญ
292
966940
4002
เขาจะพูดกันว่าสิ่งหนึ่งที่เราทำ ซึ่งสำคัญจริงๆ
16:22
was to get this thing right.
293
970942
1567
คือการทำให้สิ่งนี้ถูกต้อง
16:24
Thank you.
294
972509
1689
ขอบคุณ
16:26
(Applauseการปรบมือ)
295
974198
2813
(เสียงปรบมือ)
Translated by Thanyatorn Chantivas
Reviewed by PanaEk Warawit

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com