ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

แม็กซ์ เท็กมาร์ค (Max Tegmark): เราจะได้รับการส่งเสริม แต่ไม่ถูกข่มอำนาจด้วย AI

Filmed:
1,409,007 views

นักวิจัยปัญญาประดิษฐ์หลายคนคาดว่า AI จะฉลาดเกินกว่ามนุษย์จนกิจกรรมการงานทุกอย่างภายในไม่กี่ทศวรรษนี้ ทำให้เราอาจมีอนาคตที่ถูกจำกัดแค่ด้วยกฎของฟิสิกส์ ไม่ใช่ข้อจำกัดจากปัญญาของเรา นักฟิสิกส์ MIT และนักวิจัยด้าน AI แม็กซ์ เท็กมาร์ค แยกโอกาสและภัยในความเป็นจริงออกจากข่าวลือ โดยอธิบายว่าขั้นตอนที่เราควรดำเนินไปอย่างมั่นคงในวันนี้เพื่อยืนยันว่า AI จะเป็นสิ่งที่ดีที่สุดเท่าที่เคยเกิดขึ้นกับมนุษยชาติ แทนที่จะเป็นสิ่งที่แย่ที่สุด
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionพันล้าน yearsปี
of cosmicเกี่ยวกับจักรวาล historyประวัติศาสตร์,
0
760
4416
หลังจาก 13.8 พันล้านปี
ของประวัติศาสตร์อวกาศ
00:17
our universeจักรวาล has wokenตื่น up
1
5200
2096
จักรวาลของเราก็ตื่นจากหลับ
00:19
and becomeกลายเป็น awareทราบ of itselfตัวเอง.
2
7320
1520
และรับรู้ถึงการคงอยู่ของตนเอง
00:21
From a smallเล็ก blueสีน้ำเงิน planetดาวเคราะห์,
3
9480
1936
จากดาวเคราะห์สีฟ้าเล็ก ๆ
00:23
tinyขนาดเล็ก, consciousมีสติอยู่ partsชิ้นส่วน of our universeจักรวาล
have begunเริ่ม gazingจ้อง out into the cosmosจักรวาล
4
11440
4136
ส่วนน้อยนิดที่มีความนึกคิดนี้
มองออกไปยังอวกาศ
00:27
with telescopesกล้องโทรทรรศน์,
5
15600
1376
ด้วยกล้องโทรทรรศน์
00:29
discoveringการค้นพบ something humblingอ่อนน้อมถ่อมตน.
6
17000
1480
ค้นพบบางสิ่งที่ทำให้เรารู้สึกถ่อมตน
00:31
We'veเราได้ discoveredค้นพบ that our universeจักรวาล
is vastlyอย่างมากมาย granderยิ่งใหญ่
7
19320
2896
เราได้ค้นพบว่าจักรวาลของเรา
00:34
than our ancestorsบรรพบุรุษ imaginedจินตนาการ
8
22240
1336
ใหญ่กว่าที่บรรพบุรุษเราคาดเอาไว้
00:35
and that life seemsดูเหมือนว่า to be an almostเกือบจะ
imperceptiblyimperceptibly smallเล็ก perturbationการก่อกวน
9
23600
4256
และชีวิตก็ดูเหมือนจะมีค่าเพียงน้อยนิด
00:39
on an otherwiseมิฉะนั้น deadตาย universeจักรวาล.
10
27880
1720
เมื่อเทียบกับจักรวาลไร้ชีวิตแสนเวิ้งว้าง
00:42
But we'veเราได้ alsoด้วย discoveredค้นพบ
something inspiringที่เร้าใจ,
11
30320
3016
แต่เรายังได้ค้นพบบางอย่าง
ที่สร้างแรงบันดาลใจ
00:45
whichที่ is that the technologyเทคโนโลยี
we're developingที่กำลังพัฒนา has the potentialที่อาจเกิดขึ้น
12
33360
2976
นั่นก็คือเทคโนโลยีที่เราพัฒนา
00:48
to help life flourishอวด like never before,
13
36360
2856
มีศักยภาพในการช่วยให้ชีวิตเรา
เฟื่องฟูกันในแบบที่ไม่เคยเป็นมาก่อน
00:51
not just for centuriesมานานหลายศตวรรษ
but for billionsพันล้าน of yearsปี,
14
39240
3096
ไม่ใช่แค่ในช่วงหลายศตวรรษ
แต่เป็นเวลาหลายพันล้านปีแล้ว
00:54
and not just on earthโลก but throughoutตลอด
much of this amazingน่าอัศจรรย์ cosmosจักรวาล.
15
42360
4120
และไม่ใช่แค่บนโลก
แต่ทั่วทั้งจักรวาลเลยทีเดียว
00:59
I think of the earliestที่เก่าแก่ที่สุด life as "Life 1.0"
16
47680
3336
ผมคิดว่าปฐมชีวิตเป็น "ชีวิน 1.0"
01:03
because it was really dumbโง่,
17
51040
1376
ที่โง่ ๆ บื้อ ๆ
01:04
like bacteriaแบคทีเรีย, unableไม่สามารถ to learnเรียน
anything duringในระหว่าง its lifetimeตลอดชีวิต.
18
52440
4296
เช่น แบคทีเรีย ที่ทั้งชีวิต
มันไม่สามารถเรียนรู้อะไรได้เลย
01:08
I think of us humansมนุษย์ as "Life 2.0"
because we can learnเรียน,
19
56760
3376
ผมคิดว่ามนุษย์เราเป็น "ชีวิน 2.0"
เพราะว่าเรามีการเรียนรู้
01:12
whichที่ we in nerdyโง่, geekgeek speakพูด,
20
60160
1496
ซึ่งถ้าพูดให้ดูคงแก่เรียนสักหน่อย
01:13
mightอาจ think of as installingการติดตั้ง
newใหม่ softwareซอฟต์แวร์ into our brainsสมอง,
21
61680
3216
ก็คงมองได้ว่ามันเป็นการลงซอร์ฟแวร์ใหม่
เข้าสู่สมองของเรา
01:16
like languagesภาษา and jobงาน skillsทักษะ.
22
64920
2120
เช่น ภาษา หรือทักษะในการประกอบอาชีพ
01:19
"Life 3.0," whichที่ can designออกแบบ not only
its softwareซอฟต์แวร์ but alsoด้วย its hardwareฮาร์ดแวร์
23
67680
4296
"ชีวิน 3.0" ซึ่งสามารถออกแบบได้
ทั้งซอร์ฟแวร์และฮาร์ดแวร์ของมันเอง
01:24
of courseหลักสูตร doesn't existมีอยู่ yetยัง.
24
72000
1656
ยังไม่ปรากฏอยู่จริง
01:25
But perhapsบางที our technologyเทคโนโลยี
has alreadyแล้ว madeทำ us "Life 2.1,"
25
73680
3776
แต่บางที เทคโนโลยีของเรา
อาจทำให้เรากลายเป็น "ชีวิน 2.1" ไปแล้ว
01:29
with our artificialเทียม kneesหัวเข่า,
pacemakersเครื่องกระตุ้นหัวใจ and cochlearประสาทหูเทียม implantsรากฟันเทียม.
26
77480
4336
มันทำให้เรามีเข่าเทียม
เครื่องคุมจังหวะหัวใจ และหูเทียม
01:33
So let's take a closerใกล้ชิด look
at our relationshipความสัมพันธ์ with technologyเทคโนโลยี, OK?
27
81840
3880
ลองมาพิจารณาความสัมพันธ์ระหว่างเรา
กับเทคโลยีดูนะครับ
01:38
As an exampleตัวอย่าง,
28
86800
1216
ยกตัวอย่างเช่น
01:40
the Apolloอพอลโล 11 moonดวงจันทร์ missionหน้าที่
was bothทั้งสอง successfulที่ประสบความสำเร็จ and inspiringที่เร้าใจ,
29
88040
5296
ปฏิบัติการอะพอลโล่ 11
ประสบความสำเร็จและสร้างแรงบันดาลใจ
01:45
showingการแสดง that when we humansมนุษย์
use technologyเทคโนโลยี wiselyชาญฉลาด,
30
93360
3016
มันแสดงให้เราเห็นว่า
มนุษย์ใช้เทคโนโลยีได้อย่างชาญฉลาด
01:48
we can accomplishทำให้สำเร็จ things
that our ancestorsบรรพบุรุษ could only dreamฝัน of.
31
96400
3936
เราสามารถพิชิต
สิ่งที่บรรพบุรุษของเราได้แค่ฝัน
01:52
But there's an even more inspiringที่เร้าใจ journeyการเดินทาง
32
100360
2976
มันยังมีการเดินทางที่น่าทึ่งยิ่งกว่านั้น
01:55
propelledขับเคลื่อน by something
more powerfulมีอำนาจ than rocketจรวด enginesเครื่องมือ,
33
103360
2680
การเดินทางที่ถูกขับเคลื่อน
โดยสิ่งที่ทรงพลังกว่าจรวด
01:59
where the passengersผู้โดยสาร
aren'tไม่ได้ just threeสาม astronautsนักบินอวกาศ
34
107200
2336
การเดินทางที่ผู้โดยสาร
ไม่ได้เป็นแค่นักบินอวกาศสามคน
02:01
but all of humanityมนุษยชาติ.
35
109560
1776
แต่เป็นมวลมนุษยชาติ
02:03
Let's talk about our collectiveโดยรวม
journeyการเดินทาง into the futureอนาคต
36
111360
2936
ลองมาพูดถึงการเดินทางไปสู่อนาคต
02:06
with artificialเทียม intelligenceสติปัญญา.
37
114320
2000
ด้วยปัญญาประดิษฐ์กันนะครับ
02:08
My friendเพื่อน Jaanกรรม Jaan Tallinnทาลลินน์ likesชอบ to pointจุด out
that just as with rocketryวิทยาการที่เกี่ยวกับจรวด,
38
116960
4536
เพื่อนของผม ยาน ทัลลิน มักจะบอกว่า
02:13
it's not enoughพอ to make
our technologyเทคโนโลยี powerfulมีอำนาจ.
39
121520
3160
การทำจรวดเพียงอย่างเดียว
ไม่อาจทำให้เทคโนโลยีของเราทรงพลังได้
02:17
We alsoด้วย have to figureรูป out,
if we're going to be really ambitiousทะเยอทะยาน,
40
125560
3175
ถ้าเราตั้งความหวังที่ทะเยอทะยานเอาไว้
เราต้องค้นหาให้ได้ว่า
02:20
how to steerคัดท้าย it
41
128759
1416
เราจะกำกับทิศทางมันได้อย่างไร
02:22
and where we want to go with it.
42
130199
1681
และเราอยากจะไปที่ไหน
02:24
So let's talk about all threeสาม
for artificialเทียม intelligenceสติปัญญา:
43
132880
2840
ลองพูดถึงสามประเด็นนี้
เกี่ยวกับปัญญาประดิษฐ์กันดู
02:28
the powerอำนาจ, the steeringการขับขี่
and the destinationปลายทาง.
44
136440
3056
อิทธิพล การกำหนดทิศทาง และเป้าหมาย
02:31
Let's startเริ่มต้น with the powerอำนาจ.
45
139520
1286
เรามาเริ่มกันที่อิทธิพลของมันก่อน
02:33
I defineกำหนด intelligenceสติปัญญา very inclusivelyอย่างรวมอยู่ด้วย --
46
141600
3096
ผมจะใช้คำว่าปัญญาในความหมายเชิงกว้าง
02:36
simplyง่ายดาย as our abilityความสามารถ
to accomplishทำให้สำเร็จ complexซับซ้อน goalsเป้าหมาย,
47
144720
4336
เพื่อสื่อถึงความสามารถของเรา
ในการพิชิตเป้าหมายอันซับซ้อน
02:41
because I want to includeประกอบด้วย bothทั้งสอง
biologicalชีวภาพ and artificialเทียม intelligenceสติปัญญา.
48
149080
3816
เพราะว่าผมอยากที่จะพูดให้ครอบคลุม
ทั้งปัญญาในทางชีวภาพและปัญญาประดิษฐ์
02:44
And I want to avoidหลีกเลี่ยง
the sillyโง่ carbon-chauvinismคาร์บอนอุดมการณ์ ideaความคิด
49
152920
4016
ผมอยากที่จะหลีกเลี่ยง
แนวคิดสุดอติที่อวยความมีเนื้อหนังมังสา
02:48
that you can only be smartฉลาด
if you're madeทำ of meatเนื้อ.
50
156960
2360
ว่ามีปัญญาเหนือยิ่งกว่าสิ่งอื่น
02:52
It's really amazingน่าอัศจรรย์ how the powerอำนาจ
of AIAI has grownเจริญเติบโต recentlyเมื่อเร็ว ๆ นี้.
51
160880
4176
การเติบโตของอิทธิพลของ AI
เมื่อไม่นานมานี้ มันน่าทึ่งจริง ๆ ครับ
02:57
Just think about it.
52
165080
1256
ลองคิดดูสิครับว่า
02:58
Not long agoมาแล้ว, robotsหุ่นยนต์ couldn'tไม่สามารถ walkเดิน.
53
166360
3200
ไม่นานมานี้เอง หุ่นยนต์ไม่สามารถพูดได้
03:03
Now, they can do backflipsเนิน.
54
171040
1720
ตอนนี้ มันตีลังกาหลังได้แล้ว
03:06
Not long agoมาแล้ว,
55
174080
1816
ไม่นานมานี้เอง
03:07
we didn't have self-drivingตนเองขับรถ carsรถ.
56
175920
1760
เราไม่มีรถที่ขับเคลื่อนอัตโนมัติ
03:10
Now, we have self-flyingบินด้วยตนเอง rocketsจรวด.
57
178920
2480
ตอนนี้ เรามีจรวดขับเคลื่อนอัตโนมัติ
03:15
Not long agoมาแล้ว,
58
183960
1416
ไม่นานมานี้เอง
03:17
AIAI couldn'tไม่สามารถ do faceใบหน้า recognitionได้รับการยอมรับ.
59
185400
2616
AI ไม่สามารถจดจำใบหน้าได้
03:20
Now, AIAI can generateผลิต fakeเทียม facesใบหน้า
60
188040
2976
ตอนนี้ AI สามารถสร้างหน้าปลอมได้
03:23
and simulateแกล้งทำ your faceใบหน้า
sayingคำพูด stuffสิ่ง that you never said.
61
191040
4160
และสร้างภาพหน้าของคุณ
ที่พูดในสิ่งที่คุณไม่ได้พูด
03:28
Not long agoมาแล้ว,
62
196400
1576
ไม่นานมานี้เอง
03:30
AIAI couldn'tไม่สามารถ beatตี us at the gameเกม of Go.
63
198000
1880
AI ไม่สามารถเอาชนะเราในเกมโกะได้
03:32
Then, GoogleGoogle DeepMind'sของ DeepMind AlphaZeroAlphaZero AIAI
tookเอา 3,000 yearsปี of humanเป็นมนุษย์ Go gamesเกม
64
200400
5096
แล้ว AI อัลฟาซีโร่ ของกูเกิล ดีพมายด์
ก็ดับยุคทองอายุ 3,000 ปี
03:37
and Go wisdomความฉลาด,
65
205520
1256
ของเกมโกะและของมนุษย์ผู้เล่นโกะ
03:38
ignoredละเว้น it all and becameกลายเป็น the world'sโลก bestดีที่สุด
playerผู้เล่น by just playingเล่น againstต่อต้าน itselfตัวเอง.
66
206800
4976
โดยการเอาชนะผู้เล่นที่เก่งกาจที่สุด
โดยการเล่นแข่งกับตัวมันเอง
03:43
And the mostมากที่สุด impressiveประทับใจ featความสำเร็จ here
wasn'tก็ไม่ได้ that it crushedบด humanเป็นมนุษย์ gamersนักเล่นเกม,
67
211800
3696
และความสามารถของมันที่น่าประทับใจที่สุด
ไม่ใช่การที่มันเอาชนะมนุษย์ได้
03:47
but that it crushedบด humanเป็นมนุษย์ AIAI researchersนักวิจัย
68
215520
2576
แต่เป็นการเอาชนะนักวิจัย AI ที่เป็นมนุษย์
03:50
who had spentการใช้จ่าย decadesทศวรรษที่ผ่านมา
handcraftingหัตถกรรม game-playingการเล่นเกม softwareซอฟต์แวร์.
69
218120
3680
ที่ใช้เวลาหลายทศวรรษ
ประดิษฐ์ซอร์ฟแวร์ที่เล่นเกมนี้
03:54
And AlphaZeroAlphaZero crushedบด humanเป็นมนุษย์ AIAI researchersนักวิจัย
not just in Go but even at chessหมากรุก,
70
222200
4656
และอัลฟาซีโร่ก็เอาชนะนักวิจัย AI
ไม่ใช่แค่ในเกมโกะหรือหมากรุก
03:58
whichที่ we have been workingการทำงาน on sinceตั้งแต่ 1950.
71
226880
2480
ซึ่งพวกเราทำการศึกษา
มาตั้งแต่ช่วงยุคปี 1950
04:02
So all this amazingน่าอัศจรรย์ recentเมื่อเร็ว ๆ นี้ progressความคืบหน้า in AIAI
really begsขอร้อง the questionคำถาม:
72
230000
4240
การพัฒนาอันน่าทึ่งเหล่านี้ของ AI
ก่อให้เกิดคำถามคาใจว่า
04:07
How farห่างไกล will it go?
73
235280
1560
มันจะไปได้ไกลแค่ไหน
04:09
I like to think about this questionคำถาม
74
237800
1696
ผมมักพิจารณาคำถามนี้
04:11
in termsเงื่อนไข of this abstractนามธรรม
landscapeภูมิประเทศ of tasksงาน,
75
239520
2976
ในลักษณะของพื้นที่สมมติของการทำงาน
04:14
where the elevationการยกระดับ representsแสดงให้เห็นถึง
how hardยาก it is for AIAI to do eachแต่ละ taskงาน
76
242520
3456
บริเวณที่ยกตัวสูงขึ้นมา
แทนความยากของงานสำหรับ AI
04:18
at humanเป็นมนุษย์ levelชั้น,
77
246000
1216
เมื่อ AI ต้องทำให้ได้ดีเท่ามนุษย์
04:19
and the seaทะเล levelชั้น representsแสดงให้เห็นถึง
what AIAI can do todayในวันนี้.
78
247240
2760
และระดับน้ำทะเลแสดงว่า
ณ ปัจจุบันนี้ AI ทำได้ดีแค่ไหน
04:23
The seaทะเล levelชั้น is risingที่เพิ่มสูงขึ้น
as AIAI improvesช่วยเพิ่ม,
79
251120
2056
ระดับน้ำทะเลจะสูงขึ้นเรื่อย ๆ
เมื่อ AI ได้รับการปรับปรุง
04:25
so there's a kindชนิด of globalทั่วโลก warmingภาวะโลกร้อน
going on here in the taskงาน landscapeภูมิประเทศ.
80
253200
3440
เรากำลังเผชิญกับปัญหาโลกร้อน
ในพื้นที่ของการทำงานสมมตินี้
04:30
And the obviousชัดเจน takeawayTakeaway
is to avoidหลีกเลี่ยง careersการประกอบอาชีพ at the waterfrontริมน้ำ --
81
258040
3335
และประเด็นสำคัญเลยก็คือ
พยายามหลีกเลี่ยงงานที่อยู่ติดริมน้ำ
04:33
(Laughterเสียงหัวเราะ)
82
261399
1257
(เสียงหัวเราะ)
04:34
whichที่ will soonในไม่ช้า be
automatedอัตโนมัติ and disruptedกระจัดกระจาย.
83
262680
2856
ซึ่งไม่นานก็จะถูกเปลี่ยนแปลงแทนที่
ด้วยระบบอัตโนมัติ
04:37
But there's a much
biggerที่ใหญ่กว่า questionคำถาม as well.
84
265560
2976
แต่เราก็มีคำถามที่ใหญ่กว่านั้น
04:40
How highสูง will the waterน้ำ endปลาย up risingที่เพิ่มสูงขึ้น?
85
268560
1810
น้ำทะเลจะขึ้นสูงไปถึงไหน
04:43
Will it eventuallyในที่สุด riseลุกขึ้น
to floodน้ำท่วม everything,
86
271440
3200
มันจะสูงขึ้นไปเรื่อย ๆ
จนท่วมทุกที่เลยหรือเปล่า
04:47
matchingการจับคู่ humanเป็นมนุษย์ intelligenceสติปัญญา at all tasksงาน.
87
275840
2496
ปัญญาประดิษฐ์จะเก่งทัดเทียมมนุษย์
ในทุกเรื่องเลยใช่ไหม
04:50
This is the definitionคำนิยาม
of artificialเทียม generalทั่วไป intelligenceสติปัญญา --
88
278360
3736
นี่คือนิยามของปัญญาประดิษฐ์ทั่วไป
04:54
AGIAGI,
89
282120
1296
หรือ AGI
04:55
whichที่ has been the holyศักดิ์สิทธิ์ grailจอก
of AIAI researchการวิจัย sinceตั้งแต่ its inceptionการเริ่ม.
90
283440
3080
ซึ่งเป็นเหมือนจอกศักดิ์สิทธิ์
สำหรับการวิจัย AI ตั้งแต่อ้อนแต่ออก
04:59
By this definitionคำนิยาม, people who say,
91
287000
1776
โดยนิยามแล้ว คนที่บอกว่า
05:00
"Ahอา, there will always be jobsงาน
that humansมนุษย์ can do better than machinesเครื่อง,"
92
288800
3416
"โอ้ย เดี๋ยวก็มีงาน
ที่คนจะทำได้ดีกว่าจักรกลอยู่ดีแหละ"
05:04
are simplyง่ายดาย sayingคำพูด
that we'llดี never get AGIAGI.
93
292240
2920
ก็คือคนที่บอกว่า เราไม่มีวันได้ AGI
05:07
Sure, we mightอาจ still chooseเลือก
to have some humanเป็นมนุษย์ jobsงาน
94
295680
3576
แน่ล่ะว่า เราอาจจะยังเลือก
ให้มีงานสำหรับมนุษย์
05:11
or to give humansมนุษย์ incomeเงินได้
and purposeวัตถุประสงค์ with our jobsงาน,
95
299280
3096
หรือให้เงินเดือนกับคน
และให้คุณค่ากับงานของเรา
05:14
but AGIAGI will in any caseกรณี
transformแปลง life as we know it
96
302400
3736
แต่ไม่ว่าจะอย่างไร AGI
ก็จะเปลี่ยนชีวิตที่เราเคยรู้จัก
05:18
with humansมนุษย์ no longerอีกต่อไป beingกำลัง
the mostมากที่สุด intelligentฉลาด.
97
306160
2736
มนุษย์จะไม่ใช่สิ่งที่มีปัญญามากที่สุดอีกต่อไป
05:20
Now, if the waterน้ำ levelชั้น does reachมาถึง AGIAGI,
98
308920
3696
ทีนี้ ถ้าระดับน้ำไปไม่ถึง AGI แล้ว
05:24
then furtherต่อไป AIAI progressความคืบหน้า will be drivenขับเคลื่อน
mainlyส่วนใหญ่ not by humansมนุษย์ but by AIAI,
99
312640
5296
การพัฒนา AI ต่อไปจะไม่ได้ถูกขับเคลื่อน
โดยมนุษย์เป็นหลัก แต่จะเป็น AI
05:29
whichที่ meansวิธี that there's a possibilityความเป็นไปได้
100
317960
1856
ซึ่งนั่นหมายความว่า
05:31
that furtherต่อไป AIAI progressความคืบหน้า
could be way fasterได้เร็วขึ้น
101
319840
2336
มันเป็นไปได้ที่การพัฒนา AI ต่อไป
อาจรวดเร็วกว่า
05:34
than the typicalตามแบบฉบับ humanเป็นมนุษย์ researchการวิจัย
and developmentพัฒนาการ timescaleระยะเวลา of yearsปี,
102
322200
3376
งานวิจัยโดยมนุษย์
และระยะเวลาการพัฒนาในหน่วยปี
05:37
raisingการยก the controversialที่เถียงกัน possibilityความเป็นไปได้
of an intelligenceสติปัญญา explosionการระเบิด
103
325600
4016
ซึ่งอาจเป็นไปได้ว่า
จะเกิดการปะทุของปัญญา
05:41
where recursivelyซ้ำ self-improvingตนเองการปรับปรุง AIAI
104
329640
2296
เมื่อ AI ที่พัฒนาตัวเองแบบซ้ำ ๆ
05:43
rapidlyอย่างรวดเร็ว leavesใบไม้ humanเป็นมนุษย์
intelligenceสติปัญญา farห่างไกล behindหลัง,
105
331960
3416
จะมีปัญญาเฉลียวฉลาด
ชนิดทิ้งมนุษย์อย่างไม่เห็นฝุ่น
05:47
creatingการสร้าง what's knownที่รู้จักกัน
as superintelligencesuperintelligence.
106
335400
2440
และสร้างสิ่งที่เรารู้จักกันว่า
ปัญญาประดิษฐ์ขั้นสูงสุด
05:51
AlrightAlright, realityความจริง checkตรวจสอบ:
107
339800
2280
เอาล่ะ กลับมาสู่โลกแห่งความจริงก่อน
05:55
Are we going to get AGIAGI any time soonในไม่ช้า?
108
343120
2440
เราจะมี AGI เร็ว ๆ นี้ไหม
05:58
Some famousมีชื่อเสียง AIAI researchersนักวิจัย,
like RodneyRodney Brooksบรูคส์,
109
346360
2696
นักวิจัย AI ผู้โด่งดังบางท่าน
เช่น ร็อดนีย์ บรูคส์
06:01
think it won'tเคยชิน happenเกิดขึ้น
for hundredsหลายร้อย of yearsปี.
110
349080
2496
คิดว่ามันจะไม่เกิดขึ้น
ในอีกหลายร้อยปีนี้
06:03
But othersคนอื่น ๆ, like GoogleGoogle DeepMindDeepMind
founderผู้สร้าง DemisDemis HassabisHassabis,
111
351600
3896
แต่คนอื่น ๆ เช่น ดีมิส ฮัซซาบิส
ผู้ก่อตั้ง กูเกิล ดีพมายด์
06:07
are more optimisticในแง่ดี
112
355520
1256
มองโลกในแง่ดีกว่ามาก
06:08
and are workingการทำงาน to try to make
it happenเกิดขึ้น much soonerเร็วกว่า.
113
356800
2576
และพยายามที่จะทำให้มันเกิดขึ้นเร็วขึ้น
06:11
And recentเมื่อเร็ว ๆ นี้ surveysการสำรวจ have shownแสดงให้เห็นว่า
that mostมากที่สุด AIAI researchersนักวิจัย
114
359400
3296
และการสำรวจเมื่อไม่นานมานี้
แสดงว่า นักวิจัย AI ส่วนใหญ่
06:14
actuallyแท้จริง shareหุ้น Demis'sของ Demis optimismแง่ดี,
115
362720
2856
มีแนวคิดไปในทางเดียวกับ ดีมิส
06:17
expectingคาดหวังว่า that we will
get AGIAGI withinภายใน decadesทศวรรษที่ผ่านมา,
116
365600
3080
พวกเขาหวังว่าเราจะมี AGI
กันภายในไม่กี่ทศวรรษนี้
06:21
so withinภายใน the lifetimeตลอดชีวิต of manyจำนวนมาก of us,
117
369640
2256
ในช่วงชีวิตของเราหลาย ๆ คน
06:23
whichที่ begsขอร้อง the questionคำถาม -- and then what?
118
371920
1960
ซึ่งมันทำให้เกิดปัญหาคาใจที่ว่า
แล้วจากนั้นล่ะ
06:27
What do we want the roleบทบาท of humansมนุษย์ to be
119
375040
2216
เราอยากจะให้มนุษย์มีบทบาทอย่างไร
06:29
if machinesเครื่อง can do everything better
and cheaperราคาถูกกว่า than us?
120
377280
2680
ถ้าจักรกลสามารถทำทุกอย่าง
ได้ดีกว่าและถูกกว่าเรา
06:35
The way I see it, we faceใบหน้า a choiceทางเลือก.
121
383000
2000
ผมมองว่าเรากำลังเผชิญกับตัวเลือก
06:38
One optionตัวเลือก is to be complacentอิ่มเอมใจ.
122
386000
1576
ตัวเลือกหนึ่งก็คือ เราควรจะยินดี
06:39
We can say, "Oh, let's just buildสร้าง machinesเครื่อง
that can do everything we can do
123
387600
3776
เราจะพูดได้ว่า "ก็สร้างจักรกล
ที่ทำทุกอย่างที่เราทำได้สิ
06:43
and not worryกังวล about the consequencesผลที่ตามมา.
124
391400
1816
และไม่ต้องไปกังวลถึงผลที่ตามมาหรอก
06:45
Come on, if we buildสร้าง technologyเทคโนโลยี
that makesยี่ห้อ all humansมนุษย์ obsoleteล้าสมัย,
125
393240
3256
ไม่เอาหน่า ถ้าเราสร้างเทคโนโลยี
ที่ทำให้มนุษย์ตกยุคไปเลยเนี่ย
06:48
what could possiblyอาจ go wrongไม่ถูกต้อง?"
126
396520
2096
มันจะแย่แค่ไหนกันเชียว"
06:50
(Laughterเสียงหัวเราะ)
127
398640
1656
(เสียงหัวเราะ)
06:52
But I think that would be
embarrassinglyเปิ่น lameกะพร่องกะแพร่ง.
128
400320
2760
ผมคิดว่ามันฟังดูง่อยเปลี้ยเสียแขนทีเดียว
06:56
I think we should be more ambitiousทะเยอทะยาน --
in the spiritวิญญาณ of TEDTED.
129
404080
3496
เราควรที่จะมีความทะเยอทะยานกันกว่านี้
ด้วยความมุ่งมั่นแบบ TED
06:59
Let's envisionวาดภาพ a trulyอย่างแท้จริง inspiringที่เร้าใจ
high-techเทคโนโลยีขั้นสูง futureอนาคต
130
407600
3496
เรามาลองมองอนาคตล้ำสมัย
ที่ให้แรงบันดาลใจกันดีกว่า
07:03
and try to steerคัดท้าย towardsไปทาง it.
131
411120
1400
แล้วลองพามันไปให้ถึงเป้าหมายนั้น
07:05
This bringsนำ us to the secondที่สอง partส่วนหนึ่ง
of our rocketจรวด metaphorคำอุปมา: the steeringการขับขี่.
132
413720
3536
ซึ่งมันก็นำเราไปสู่ส่วนที่สอง
ของการเปรียบเปรยกับจรวด
07:09
We're makingการทำ AIAI more powerfulมีอำนาจ,
133
417280
1896
เรากำลังทำให้ AI มีอิทธิพลมากขึ้น
07:11
but how can we steerคัดท้าย towardsไปทาง a futureอนาคต
134
419200
3816
แต่เราจะควบคุมทิศทาง
ไปสู่อนาคตได้อย่างไร
07:15
where AIAI helpsจะช่วยให้ humanityมนุษยชาติ flourishอวด
ratherค่อนข้าง than flounderดิ้นรน?
135
423040
3080
โดยที่ AI จะช่วยให้มนุษยชาติเบ่งบาน
แต่ไม่เบียดเบียนพวกเรา
07:18
To help with this,
136
426760
1256
เพื่อสนับสนุนแนวคิดนี้
07:20
I cofoundedcofounded the Futureอนาคต of Life Instituteสถาบัน.
137
428040
1976
ผมร่วมก่อตั้งสถาบันฟิวเจอร์ออฟไลฟ์
07:22
It's a smallเล็ก nonprofitไม่แสวงหาผลกำไร promotingการส่งเสริม
beneficialเป็นประโยชน์ technologyเทคโนโลยี use,
138
430040
2776
องค์กรไม่แสวงหาผลกำไรเล็ก ๆ
ที่ส่งเสริมการใช้เทคโนโลยีอย่างมีคุณค่า
07:24
and our goalเป้าหมาย is simplyง่ายดาย
for the futureอนาคต of life to existมีอยู่
139
432840
2736
และเป้าหมายของเราก็คือ
เพื่อให้ชีวิตในอนาคตยังคงอยู่
07:27
and to be as inspiringที่เร้าใจ as possibleเป็นไปได้.
140
435600
2056
และได้รับแรงบันดาลใจ
มากที่สุดเท่าที่จะเป็นไปได้
07:29
You know, I love technologyเทคโนโลยี.
141
437680
3176
ผมรักเทคโนโลยีนะครับ
07:32
Technologyเทคโนโลยี is why todayในวันนี้
is better than the Stoneหิน Ageอายุ.
142
440880
2920
เทคโนโลยีทำให้ทุกวันนี้ดีกว่าในยุคหิน
07:36
And I'm optimisticในแง่ดี that we can createสร้าง
a really inspiringที่เร้าใจ high-techเทคโนโลยีขั้นสูง futureอนาคต ...
143
444600
4080
และผมก็เชื่อว่า เราสามารถที่จะสร้าง
อนาคตที่ทันสมัยและเปี่ยมแรงบันดาลใจได้
07:41
if -- and this is a bigใหญ่ if --
144
449680
1456
ถ้าหากว่า
07:43
if we winชนะ the wisdomความฉลาด raceแข่ง --
145
451160
2456
เราชนะการแข่งขันทางแนวคิด
07:45
the raceแข่ง betweenระหว่าง the growingการเจริญเติบโต
powerอำนาจ of our technologyเทคโนโลยี
146
453640
2856
ระหว่างอิทธิพลที่กำลังแผ่ขยาย
ของเทคโนโลยี
07:48
and the growingการเจริญเติบโต wisdomความฉลาด
with whichที่ we manageจัดการ it.
147
456520
2200
กับแนวคิดที่เราใช้ควบคุมมัน
ที่กำลังแผ่ขยายเช่นกัน
07:51
But this is going to requireจำเป็นต้อง
a changeเปลี่ยนแปลง of strategyกลยุทธ์
148
459240
2296
แต่สิ่งนี้ต้องการการปรับเปลี่ยนแผนการ
07:53
because our oldเก่า strategyกลยุทธ์
has been learningการเรียนรู้ from mistakesข้อผิดพลาด.
149
461560
3040
เพราะว่าแผนการเก่าของเรา
คือการเรียนรู้จากข้อผิดพลาด
07:57
We inventedคิดค้น fireไฟ,
150
465280
1536
เราประดิษฐ์ไฟ
07:58
screwedเมา up a bunchพวง of timesครั้ง --
151
466840
1536
ทำผิดพลาดนับครั้งไม่ถ้วน
08:00
inventedคิดค้น the fireไฟ extinguisherดับเพลิง.
152
468400
1816
แล้วเราก็ประดิษฐ์อุปกรณ์ดับเพลิงขึ้นมา
08:02
(Laughterเสียงหัวเราะ)
153
470240
1336
(เสียงหัวเราะ)
08:03
We inventedคิดค้น the carรถ,
screwedเมา up a bunchพวง of timesครั้ง --
154
471600
2416
เราประดิษฐ์รถยนต์
ทำผิดพลาดหลายครั้งหลายหน
08:06
inventedคิดค้น the trafficการจราจร lightเบา,
the seatที่นั่ง beltเข็มขัด and the airbagถุงลมนิรภัย,
155
474040
2667
แล้วเราก็ประดิษฐ์ไฟจราจร
เข็มขัดนิรภัย และถุงลมนิรภัยขึ้นมา
08:08
but with more powerfulมีอำนาจ technologyเทคโนโลยี
like nuclearนิวเคลียร์ weaponsอาวุธ and AGIAGI,
156
476731
3845
แต่ด้วยเทคโนโลยีที่ทรงพลังกว่านั้น
อย่างเช่นอาวุธนิวเคลียร์ และ AGI
08:12
learningการเรียนรู้ from mistakesข้อผิดพลาด
is a lousyมีหมัด strategyกลยุทธ์,
157
480600
3376
การเรียนรู้จากข้อผิดพลาด
เป็นแผนการไม่เข้าท่าเลย
08:16
don't you think?
158
484000
1216
ว่าไหมครับ
08:17
(Laughterเสียงหัวเราะ)
159
485240
1016
(เสียงหัวเราะ)
08:18
It's much better to be proactiveเชิงรุก
ratherค่อนข้าง than reactiveปฏิกิริยา;
160
486280
2576
การป้องกันดีกว่าการแก้ไขมาก
08:20
planวางแผน aheadล่วงหน้า and get things
right the first time
161
488880
2296
วางแผนล่วงหน้า
และทำให้มันเหมาะสมตั้งแต่แรก
08:23
because that mightอาจ be
the only time we'llดี get.
162
491200
2496
เพราะว่าเราอาจมีโอกาสเพียงแค่ครั้งเดียว
08:25
But it is funnyตลก because
sometimesบางครั้ง people tell me,
163
493720
2336
ตลกดีครับ ที่บางทีคนก็บอกผมว่า
08:28
"Maxแม็กซ์, shhhShhh, don't talk like that.
164
496080
2736
"เฮ้ย แม็กซ์ อย่าไปพูดแบบนั้นสิ
08:30
That's Ludditeฝังหัว scaremongeringscaremongering."
165
498840
1720
จะพูดปลุกระดมให้คนแตกตื่นทำไม"
08:34
But it's not scaremongeringscaremongering.
166
502040
1536
แต่มันไม่ใช่แบบนั้นเลย
08:35
It's what we at MITเอ็มไอที
call safetyความปลอดภัย engineeringวิศวกรรม.
167
503600
2880
พวกเราที่ MIT
เรียกว่า วิศวกรรมความปลอดภัย
08:39
Think about it:
168
507200
1216
ลองคิดดูนะครับว่า
08:40
before NASAนาซา launchedเปิดตัว
the Apolloอพอลโล 11 missionหน้าที่,
169
508440
2216
ก่อนที่นาซ่าจะเปิดตัว
ปฏิบัติการณ์อะพอลโล่ 11
08:42
they systematicallyอย่างเป็นระบบ thought throughตลอด
everything that could go wrongไม่ถูกต้อง
170
510680
3136
พวกเขารวบรวมความคิดอย่างเป็นระบบ
เกี่ยวกับเรื่องร้ายทุกอย่างที่อาจเกิดขึ้น
08:45
when you put people
on topด้านบน of explosiveระเบิด fuelเชื้อเพลิง tanksรถถัง
171
513840
2376
เมื่อคุณเอาคนขึ้นไปนั่ง
อยู่บนถังเชื้อเพลิงระเบิดได้
08:48
and launchเปิด them somewhereที่ไหนสักแห่ง
where no one could help them.
172
516240
2616
ยิงพวกเขาขึ้นไปยังที่ที่ไม่มีใครช่วยได้
08:50
And there was a lot that could go wrongไม่ถูกต้อง.
173
518880
1936
และอาจมีเรื่องผิดพลาดเกิดขึ้นได้มากมาย
08:52
Was that scaremongeringscaremongering?
174
520840
1480
นั่นเป็นการสร้างความแตกตื่นหรือ
08:55
No.
175
523159
1217
ไม่เลย
08:56
That's was preciselyแม่นยำ
the safetyความปลอดภัย engineeringวิศวกรรม
176
524400
2016
นั่นแหละ คือวิศวกรรมความปลอดภัย
08:58
that ensuredมั่นใจ the successความสำเร็จ of the missionหน้าที่,
177
526440
1936
ที่จะทำให้เรามั่นใจได้ว่า
ปฏิบัติการจะประสบความสำเร็จ
09:00
and that is preciselyแม่นยำ the strategyกลยุทธ์
I think we should take with AGIAGI.
178
528400
4176
และนี่แหละคือแนวทาง
ที่ผมคิดว่าเราควรที่จะใช้กับ AGI
09:04
Think throughตลอด what can go wrongไม่ถูกต้อง
to make sure it goesไป right.
179
532600
4056
ลองคิดดูว่าอะไรที่จะผิดพลาดได้บ้าง
เพื่อที่จะยื่นยันว่าเรามาถูกทางแล้ว
09:08
So in this spiritวิญญาณ,
we'veเราได้ organizedจัด conferencesการประชุม,
180
536680
2536
ด้วยความมุ่งมั่นดังกล่าว
เราจัดให้มีการสัมมนา
09:11
bringingการนำ togetherด้วยกัน leadingชั้นนำ
AIAI researchersนักวิจัย and other thinkersนักคิด
181
539240
2816
นำผู้นำด้านการวิจัย AI
และผู้นำทางความคิดต่าง ๆ มาพบกัน
09:14
to discussสนทนา how to growเจริญ this wisdomความฉลาด
we need to keep AIAI beneficialเป็นประโยชน์.
182
542080
3736
เพื่ออภิปรายว่าเราจะทำให้แนวคิดที่เรา
ต้องการนี้เป็นประโยชน์ต่อ AI ได้อย่างไร
09:17
Our last conferenceการประชุม
was in AsilomarAsilomar, Californiaแคลิฟอร์เนีย last yearปี
183
545840
3296
ปีที่แล้ว สัมมนาครั้งก่อนของเรา
จัดที่อะซิโลมาร์ แคลิฟอร์เนีย
09:21
and producedผลิต this listรายการ of 23 principlesหลักการ
184
549160
3056
และเราได้ตั้งหลักการ 23 ข้อ
09:24
whichที่ have sinceตั้งแต่ been signedลงนาม
by over 1,000 AIAI researchersนักวิจัย
185
552240
2896
ซึ่งได้รับการลงนามโดยนักวิจัย AI
และผู้นำทางอุตสาหกรรม
09:27
and keyสำคัญ industryอุตสาหกรรม leadersผู้นำ,
186
555160
1296
กว่า 1,000 คน
09:28
and I want to tell you
about threeสาม of these principlesหลักการ.
187
556480
3176
และผมอยากจะเล่า
หลักการสามข้อจากรายการดังกล่าว
09:31
One is that we should avoidหลีกเลี่ยง an armsอาวุธ raceแข่ง
and lethalร้ายแรง autonomousอิสระ weaponsอาวุธ.
188
559680
4960
หลักการแรกคือเราควรที่จะหยุดแข่งขั้นกัน
เรื่องอาวุธยุทธภัณฑ์อันตราย
09:37
The ideaความคิด here is that any scienceวิทยาศาสตร์
can be used for newใหม่ waysวิธี of helpingการช่วยเหลือ people
189
565480
3616
ประเด็นก็คือ วิทยาศาสตร์ไม่ว่าสาขาใด ๆ
สามารถถูกใช้เพื่อช่วยเหลือคนได้
09:41
or newใหม่ waysวิธี of harmingการทำให้เสียหาย people.
190
569120
1536
และทำร้ายคนได้
09:42
For exampleตัวอย่าง, biologyชีววิทยา and chemistryเคมี
are much more likelyน่าจะ to be used
191
570680
3936
ยกตัวอย่างเช่น ชีววิทยาและเคมี
มักจะถูกใช้
09:46
for newใหม่ medicinesยารักษาโรค or newใหม่ curesการรักษา
than for newใหม่ waysวิธี of killingที่ฆ่า people,
192
574640
4856
เพื่อผลิตยาใหม่และเพื่อการรักษาแบบใหม่
มากกว่าที่จะใช้ฆ่าคน
09:51
because biologistsนักชีววิทยา
and chemistsนักเคมี pushedผลักดัน hardยาก --
193
579520
2176
เพราะว่านักชีววิทยา
และนักเคมีพยายามอย่างมาก
09:53
and successfullyประสบความสำเร็จ --
194
581720
1256
และสำเร็จเสียด้วย
09:55
for bansเรย์แบน on biologicalชีวภาพ
and chemicalสารเคมี weaponsอาวุธ.
195
583000
2176
ในการคว่ำบาตรอาวุธชีวภาพและเคมี
09:57
And in the sameเหมือนกัน spiritวิญญาณ,
196
585200
1256
และด้วยความมุมานะนี้
09:58
mostมากที่สุด AIAI researchersนักวิจัย want to stigmatizeตีตรา
and banห้าม lethalร้ายแรง autonomousอิสระ weaponsอาวุธ.
197
586480
4440
นักวิจัย AI ส่วนใหญ่อยากที่จะ
ประณามและคว่ำบาตรอาวุธอัตโนมัติ
10:03
Anotherอื่น AsilomarAsilomar AIAI principleหลัก
198
591600
1816
หลักการ AI อะซิโลมาร์ อีกอย่างก็คือ
10:05
is that we should mitigateบรรเทา
AI-fueledAI เป็นเชื้อเพลิง incomeเงินได้ inequalityความไม่เสมอภาค.
199
593440
3696
เราควรที่จะทำให้ลดความเหลื่อมล้ำ
ของรายได้ที่ได้จาก AI
10:09
I think that if we can growเจริญ
the economicด้านเศรษฐกิจ pieพาย dramaticallyเป็นคุ้งเป็นแคว with AIAI
200
597160
4456
ผมคิดว่า ถ้าเราสามารถสร้าง
แผนผังทางเศรษฐศาสตร์ด้วย AI
10:13
and we still can't figureรูป out
how to divideการแบ่ง this pieพาย
201
601640
2456
แต่ยังไม่รู้ว่าจะจัดสรรได้อย่างไร
10:16
so that everyoneทุกคน is better off,
202
604120
1576
ให้ทุกคนอยู่ดีกินดีกว่าเดิม
10:17
then shameความอัปยศ on us.
203
605720
1256
มันก็คงขายหน้าพิลึก
10:19
(Applauseการปรบมือ)
204
607000
4096
(เสียงปรบมือ)
10:23
AlrightAlright, now raiseยก your handมือ
if your computerคอมพิวเตอร์ has ever crashedชน.
205
611120
3600
เอาล่ะครับ ไหนลองยกมือขึ้นหน่อย
ถ้าคอมพิวเตอร์ของคุณไม่เคยค้างเลย
10:27
(Laughterเสียงหัวเราะ)
206
615480
1256
(เสียงหัวเราะ)
10:28
Wowว้าว, that's a lot of handsมือ.
207
616760
1656
โห คนยกมือเยอะเลย
10:30
Well, then you'llคุณจะ appreciateซาบซึ้ง
this principleหลัก
208
618440
2176
คุณคงชอบหลักการนี้
10:32
that we should investลงทุน much more
in AIAI safetyความปลอดภัย researchการวิจัย,
209
620640
3136
ที่ว่าเราควรลงทุน
กับการวิจัยความปลอดภัย AI มากกว่านี้
10:35
because as we put AIAI in chargeค่าธรรมเนียม
of even more decisionsการตัดสินใจ and infrastructureโครงสร้างพื้นฐาน,
210
623800
3656
เพราะเมื่อเราให้ AI ทำหน้าที่ที่เกี่ยวกับ
การตัดสินใจและโครงสร้างพื้นฐานมากขึ้น
10:39
we need to figureรูป out how to transformแปลง
today'sของวันนี้ buggyรถม้าชนิดเล็ก and hackablehackable computersคอมพิวเตอร์
211
627480
3616
เราต้องรู้ให้ได้ว่าจะเปลี่ยนคอมพิวเตอร์
ที่มีทั้งปัญหาและถูกลักข้อมูลได้
10:43
into robustแข็งแรง AIAI systemsระบบ
that we can really trustวางใจ,
212
631120
2416
ไปเป็นระบบ AI ที่สมบูรณ์
ที่เราจะไว้ใจได้จริง ๆ ได้อย่างไร
10:45
because otherwiseมิฉะนั้น,
213
633560
1216
มิฉะนั้น
10:46
all this awesomeน่ากลัว newใหม่ technologyเทคโนโลยี
can malfunctionความผิดปกติ and harmอันตราย us,
214
634800
2816
เทคโนโลยีใหม่สุดเจ๋งนี้
อาจทำงานผิดพลาดและทำร้ายเรา
10:49
or get hackedแฮ็ก and be turnedหัน againstต่อต้าน us.
215
637640
1976
หรือถูกลักข้อมูลและนำมันมาทำร้ายเราได้
10:51
And this AIAI safetyความปลอดภัย work
has to includeประกอบด้วย work on AIAI valueความคุ้มค่า alignmentการวางแนว,
216
639640
5696
และงานด้านความปลอดภัย AI นี้
จะต้องรวมถึงงานที่เกี่ยวกับวางคุณค่าให้ AI
10:57
because the realจริง threatการคุกคาม
from AGIAGI isn't maliceการปองร้าย,
217
645360
2816
เพราะอันที่จริงภัยจาก AGI
ไม่ใช่การมุ่งร้ายอย่างจงใจ
11:00
like in sillyโง่ Hollywoodฮอลลีวู้ด moviesภาพยนตร์,
218
648200
1656
อย่างหนังไร้สาระในฮอลลีวูด
11:01
but competenceความสามารถ --
219
649880
1736
แต่คือความเป็นไปได้
11:03
AGIAGI accomplishingประสบความสำเร็จ goalsเป้าหมาย
that just aren'tไม่ได้ alignedแนวราบ with oursของเราเอง.
220
651640
3416
ที่ AGI จะบรรลุเป้าหมาย
ที่ไม่ได้อยู่ในแนวทางเดียวกับเรา
11:07
For exampleตัวอย่าง, when we humansมนุษย์ droveฝูง
the Westตะวันตก Africanแอฟริกัน blackสีดำ rhinoแรด extinctสูญพันธุ์,
221
655080
4736
ยกตัวอย่างเช่น เมื่อมนุษย์เรา
ทำให้แรดดำจากแอฟริกาตะวันตกสูญพันธุ์
11:11
we didn't do it because we were a bunchพวง
of evilชั่วร้าย rhinocerosแรด hatersเกลียดชัง, did we?
222
659840
3896
เราไม่ได้จงใจทำอย่างนั้นเพราะว่า
เราเป็นพวกปิศาจเกลียดแรดใช่ไหมครับ
11:15
We did it because
we were smarterอย่างชาญฉลาด than them
223
663760
2056
เราทำเช่นนั้น
เพราะว่าเราฉลาดกว่าพวกมัน
11:17
and our goalsเป้าหมาย weren'tเขาไม่ได้ alignedแนวราบ with theirsของพวกเขา.
224
665840
2576
และเป้าหมายของเรา
ไม่ได้อยู่ในแนวทางเดียวกับพวกมัน
11:20
But AGIAGI is by definitionคำนิยาม smarterอย่างชาญฉลาด than us,
225
668440
2656
แต่โดยนิยามแล้ว AGI ฉลาดกว่าเรา
11:23
so to make sure that we don't put
ourselvesตัวเรา in the positionตำแหน่ง of those rhinosแรด
226
671120
3576
ฉะนั้น เพื่อที่จะให้มั่นใจว่าเรา
จะไม่ตกอยู่ในสถานการณ์เดียวกับแรด
11:26
if we createสร้าง AGIAGI,
227
674720
1976
ถ้าเราสร้าง AGI ขึ้นมา
11:28
we need to figureรูป out how
to make machinesเครื่อง understandเข้าใจ our goalsเป้าหมาย,
228
676720
4176
เราต้องรู้ว่าจะทำให้จักรกล
เข้าใจเป้าหมายเราได้อย่างไร
11:32
adoptนำมาใช้ our goalsเป้าหมาย and retainรักษา our goalsเป้าหมาย.
229
680920
3160
ยอมรับเป้าหมายของเรา
และรักษาเป้าหมายของเราไว้
11:37
And whoseใคร goalsเป้าหมาย should these be, anywayอย่างไรก็ตาม?
230
685320
2856
และเป้าหมายที่ว่านี้คือเป้าหมายของใคร
11:40
Whichที่ goalsเป้าหมาย should they be?
231
688200
1896
เป้าหมายควรจะเป็นอะไร
11:42
This bringsนำ us to the thirdที่สาม partส่วนหนึ่ง
of our rocketจรวด metaphorคำอุปมา: the destinationปลายทาง.
232
690120
3560
ซึ่งมันก็นำเราไปสู่ส่วนที่สาม
ของการเปรียบเปรยกับจรวด เป้าหมาย
11:47
We're makingการทำ AIAI more powerfulมีอำนาจ,
233
695160
1856
เราสร้าง AI ให้มีอิทธิพลมากกว่าเดิม
11:49
tryingพยายาม to figureรูป out how to steerคัดท้าย it,
234
697040
1816
พยายามที่จะหาทางว่า
จะกำหนดทิศทางมันอย่างไร
11:50
but where do we want to go with it?
235
698880
1680
แต่เราอยากไปไหนด้วยกันกับมันล่ะ
11:53
This is the elephantช้าง in the roomห้อง
that almostเกือบจะ nobodyไม่มีใคร talksการเจรจา about --
236
701760
3656
นี่คือช้างในห้อง
ที่แทบจะไม่มีใครพูดถึง
11:57
not even here at TEDTED --
237
705440
1856
แม้แต่ที่ TED
11:59
because we're so fixatedจับจ้อง
on short-termช่วงเวลาสั้น ๆ AIAI challengesความท้าทาย.
238
707320
4080
เพราะว่าเรามัวแต่หลงระเริง
อยู่กับปัญหาในระยะสั้น ๆ เกี่ยวกับ AI
12:04
Look, our speciesสายพันธุ์ is tryingพยายาม to buildสร้าง AGIAGI,
239
712080
4656
ฟังนะครับ พวกเรากำลังพยายามสร้าง AGI
12:08
motivatedมีสาเหตุ by curiosityความอยากรู้ and economicsเศรษฐศาสตร์,
240
716760
3496
โดยได้รับแรงกระตุ้นจากความสงสัยใคร่รู้
และเศรษฐกิจ
12:12
but what sortประเภท of futureอนาคต societyสังคม
are we hopingหวัง for if we succeedประสบความสำเร็จ?
241
720280
3680
แต่สังคมแห่งอนาคตแบบไหนกัน
ที่เราคาดหวังจะเห็นถ้าเราทำสำเร็จ
12:16
We did an opinionความคิดเห็น pollโพลล์ on this recentlyเมื่อเร็ว ๆ นี้,
242
724680
1936
เราทำแบบสอบถามเมื่อไม่นานมานี้
12:18
and I was struckหลง to see
243
726640
1216
และผมก็ตกใจที่ได้เห็นว่า
12:19
that mostมากที่สุด people actuallyแท้จริง
want us to buildสร้าง superintelligencesuperintelligence:
244
727880
2896
คนส่วนใหญ่ต้องการให้เรา
สร้างปัญญาประดิษฐ์ขั้นสูงสุด
12:22
AIAI that's vastlyอย่างมากมาย smarterอย่างชาญฉลาด
than us in all waysวิธี.
245
730800
3160
AI ที่ฉลาดกว่าเรามาก ๆ
ในทุก ๆ เรื่อง
12:27
What there was the greatestใหญ่ที่สุด agreementข้อตกลง on
was that we should be ambitiousทะเยอทะยาน
246
735120
3416
สิ่งที่เราคิดเหมือนกันก็คือ
เราควรที่จะทะเยอทะยานมุ่งมั่น
12:30
and help life spreadกระจาย into the cosmosจักรวาล,
247
738560
2016
และให้เผ่าพันธุ์ต่าง ๆ กระจายสู่อวกาศ
12:32
but there was much lessน้อยกว่า agreementข้อตกลง
about who or what should be in chargeค่าธรรมเนียม.
248
740600
4496
แต่เรามีความคิดไม่ค่อยลงรอยกัน
ว่าใครหรืออะไรที่ควรทำหน้าที่ควบคุม
12:37
And I was actuallyแท้จริง quiteทีเดียว amusedขบขัน
249
745120
1736
ผมขำหน่อย ๆ
12:38
to see that there's some some people
who want it to be just machinesเครื่อง.
250
746880
3456
ที่เห็นว่าบางคน
อยากให้พวกมันเป็นแค่เครื่องจักร
12:42
(Laughterเสียงหัวเราะ)
251
750360
1696
(เสียงหัวเราะ)
12:44
And there was totalทั้งหมด disagreementความไม่เห็นด้วย
about what the roleบทบาท of humansมนุษย์ should be,
252
752080
3856
และเราก็มีความเห็นแตกแยกกัน
ในเรื่องบทบาทของมนุษย์
12:47
even at the mostมากที่สุด basicขั้นพื้นฐาน levelชั้น,
253
755960
1976
แม้แต่ในระดับพื้นฐาน
12:49
so let's take a closerใกล้ชิด look
at possibleเป็นไปได้ futuresฟิวเจอร์ส
254
757960
2816
เอาล่ะครับ ลองมาพิจารณา
อนาคตที่อาจเป็นไปได้
12:52
that we mightอาจ chooseเลือก
to steerคัดท้าย towardไปทาง, alrightไม่เป็นไร?
255
760800
2736
ที่อาจเป็นเป้าหมายที่เรากำลังจะมุ่งไป
12:55
So don't get be wrongไม่ถูกต้อง here.
256
763560
1336
อย่าเพิ่งเข้าใจผิดนะครับ
12:56
I'm not talkingการพูด about spaceช่องว่าง travelการท่องเที่ยว,
257
764920
2056
ผมไม่ได้พูดถึงการเดินทางท่องอวกาศ
12:59
merelyแค่ about humanity'sของมนุษยชาติ
metaphoricalเชิงเปรียบเทียบ journeyการเดินทาง into the futureอนาคต.
258
767000
3200
แต่เป็นการเปรียบเปรยถึง
การเดินทางสู่อนาคตของมนุษยชาติ
13:02
So one optionตัวเลือก that some
of my AIAI colleaguesเพื่อนร่วมงาน like
259
770920
3496
ทางเลือกหนึ่งที่เพื่อน ๆ ชาว AI
ของผมชอบก็คือ
13:06
is to buildสร้าง superintelligencesuperintelligence
and keep it underภายใต้ humanเป็นมนุษย์ controlควบคุม,
260
774440
3616
การสร้างปัญญาประดิษฐ์ขั้นสูงสุด
และให้มันอยู่ใต้การควบคุมของมนุษย์
13:10
like an enslavedแบบกดขี่ god,
261
778080
1736
เหมือนกับพระเจ้าผู้เป็นทาส
13:11
disconnectedตัดการเชื่อมต่อ from the internetอินเทอร์เน็ต
262
779840
1576
ไม่เชื่อมต่อมันกับอินเทอร์เน็ต
13:13
and used to createสร้าง unimaginableเป็นไปไม่ได้
technologyเทคโนโลยี and wealthความมั่งคั่ง
263
781440
3256
และใช้มันเพื่อสร้างเทคโนโลยี
และความมั่งคั่งเหนือจินตนาการ
13:16
for whoeverใครก็ตาม controlsการควบคุม it.
264
784720
1240
เพื่อใครก็ตามที่เป็นผู้ควบคุม
13:18
But Lordเจ้า Actonราชดำเนินใน warnedเตือน us
265
786800
1456
แต่ลอร์ดแอคตันเตือนเราว่า
13:20
that powerอำนาจ corruptscorrupts,
and absoluteแน่นอน powerอำนาจ corruptscorrupts absolutelyอย่างแน่นอน,
266
788280
3616
ความบ้าอำนาจและอำนาจแบบเบ็ดเสร็จ
จะนำไปสู่ความเสื่อมถอย
13:23
so you mightอาจ worryกังวล that maybe
we humansมนุษย์ just aren'tไม่ได้ smartฉลาด enoughพอ,
267
791920
4056
คุณอาจกังวลว่า บางทีมนุษย์อาจไม่ฉลาดพอ
13:28
or wiseฉลาด enoughพอ ratherค่อนข้าง,
268
796000
1536
หรือมีสติปัญญาเพียงพอ
13:29
to handleจัดการ this much powerอำนาจ.
269
797560
1240
ที่จะจัดการควบคุม
อิทธิพลที่มากมายขนาดนี้
13:31
Alsoด้วย, asideกัน from any
moralคุณธรรม qualmsเทอร์ you mightอาจ have
270
799640
2536
นอกจากความหวั่นวิตกทางศีลธรรม
13:34
about enslavingการทำให้เป็นทาส superiorเหนือกว่า mindsจิตใจ,
271
802200
2296
ต่อความคิดของผู้ที่มีอำนาจ
ที่เป็นผู้ควบคุมแล้ว
13:36
you mightอาจ worryกังวล that maybe
the superintelligencesuperintelligence could outsmartชิงไหวชิงพริบ us,
272
804520
3976
คุณอาจกังวลว่าปัญญาประดิษฐ์ขั้นสูงสุด
อาจฉลาดล้ำกว่าเรา
13:40
breakหยุด out and take over.
273
808520
2240
ก่อกบฎ และยึดอำนาจ
13:43
But I alsoด้วย have colleaguesเพื่อนร่วมงาน
who are fine with AIAI takingการ over
274
811560
3416
แต่เพื่อนของผมบางคนก็ไม่รู้สึกวิตกอะไร
ถ้า AI จะเข้ามาครอบครอง
13:47
and even causingการก่อให้เกิด humanเป็นมนุษย์ extinctionการสูญเสีย,
275
815000
2296
หรือแม้กระทั่งทำให้มนุษย์สูญพันธุ์
13:49
as long as we feel the the AIsเอไอเอส
are our worthyคุ้มค่า descendantsลูกหลาน,
276
817320
3576
ตราบใดที่เรารู้สึกว่า AI
เป็นผู้สืบทอดที่คู่ควรแล้ว
13:52
like our childrenเด็ก ๆ.
277
820920
1736
เหมือนกับลูกหลานของเรา
13:54
But how would we know that the AIsเอไอเอส
have adoptedบุญธรรม our bestดีที่สุด valuesค่า
278
822680
5616
แต่เราจะรู้ได้อย่างไรว่า AI
จะได้รับคุณค่าที่ดีที่สุดจากเราไป
14:00
and aren'tไม่ได้ just unconsciousไม่ได้สติ zombiesซอมบี้
trickingหลอกล่อ us into anthropomorphizinganthropomorphizing them?
279
828320
4376
และไม่ได้เป็นแค่ผีดิบไร้สติสำนึก
ที่จะทำให้เราลุ่มหลงไปบูชาพวกมัน
14:04
Alsoด้วย, shouldn'tไม่ควร those people
who don't want humanเป็นมนุษย์ extinctionการสูญเสีย
280
832720
2856
แล้วคนที่ไม่ต้องการให้มนุษย์สูญพันธุ์
14:07
have a say in the matterเรื่อง, too?
281
835600
1440
มีสิทธิเสนออะไรเกี่ยวกับประเด็นนี้บ้างไหม
14:10
Now, if you didn't like eitherทั้ง
of those two high-techเทคโนโลยีขั้นสูง optionsตัวเลือก,
282
838200
3376
ถ้าคุณไม่ชอบแนวคิดล้ำยุคทั้งสองอย่างที่ว่า
14:13
it's importantสำคัญ to rememberจำ
that low-techเทคโนโลยีต่ำ is suicideการฆ่าตัวตาย
283
841600
3176
คุณควรที่จะรู้ไว้ว่าการใช้เทคโนโลยีเก่า ๆ
ก็เป็นการฆ่าตัวตาย
14:16
from a cosmicเกี่ยวกับจักรวาล perspectiveมุมมอง,
284
844800
1256
ในมุมมองเชิงกว้าง
14:18
because if we don't go farห่างไกล
beyondเกิน today'sของวันนี้ technologyเทคโนโลยี,
285
846080
2496
เพราะว่า ถ้าเราไม่พัฒนาให้ไกล
ไปกว่าเทคโนโลยีในปัจจุบัน
14:20
the questionคำถาม isn't whetherว่า humanityมนุษยชาติ
is going to go extinctสูญพันธุ์,
286
848600
2816
คำถามไม่ใช่ว่ามนุษยชาติจะสูญพันธุ์หรือไม่
14:23
merelyแค่ whetherว่า
we're going to get takenยึด out
287
851440
2016
แต่จะกลายเป็นว่าเรากำลังจะถูกกำจัด
14:25
by the nextต่อไป killerนักฆ่า asteroidดาวเคราะห์, supervolcanoสุด
288
853480
2136
โดยดาวตกพิฆาต ภูเขาไฟยักษ์
14:27
or some other problemปัญหา
that better technologyเทคโนโลยี could have solvedแก้ไข.
289
855640
3096
หรือปัญหาอื่น ๆ ที่เทคโนโลยีที่ดีกว่า
จะสามารถจัดการกับมันได้
14:30
So, how about havingมี
our cakeเค้ก and eatingการรับประทานอาหาร it ...
290
858760
3576
แล้ว จะเป็นอย่างไร
ถ้าเรามีเค้กแล้วก็ได้กินมัน
14:34
with AGIAGI that's not enslavedแบบกดขี่
291
862360
1840
ด้วย AGI ที่ไม่ได้ถูกคุมเป็นทาส
14:37
but treatsถือว่า us well because its valuesค่า
are alignedแนวราบ with oursของเราเอง?
292
865120
3176
แต่ปฏิบัติกับเราดี เพราะว่าเป้าหมายของมัน
สอดคล้องกับของเรา
14:40
This is the gistส่วนสำคัญ of what EliezerEliezer YudkowskyYudkowsky
has calledเรียกว่า "friendlyเป็นมิตร AIAI,"
293
868320
4176
นี่คือแก่นสำคัญของ "AI ที่เป็นมิตร"
ตามแนวคิดของ อีลิเซอร์ ยอดคอฟสกี
14:44
and if we can do this,
it could be awesomeน่ากลัว.
294
872520
2680
และถ้าเราสามารถทำได้
มันก็คงจะเจ๋งมาก
14:47
It could not only eliminateกำจัด negativeเชิงลบ
experiencesประสบการณ์ like diseaseโรค, povertyความยากจน,
295
875840
4816
ไม่เพียงแต่มันจะกำจัดเรื่องแย่ ๆ
อย่างเช่น โรคภัย ความอดอยาก
14:52
crimeอาชญากรรม and other sufferingความทุกข์ทรมาน,
296
880680
1456
อาชญากรรม และเรื่องร้ายอื่น ๆ
14:54
but it could alsoด้วย give us
the freedomเสรีภาพ to chooseเลือก
297
882160
2816
แต่ยังจะทำให้เราได้รับอิสระภาพในการเลือก
14:57
from a fantasticน่าอัศจรรย์ newใหม่ diversityความหลากหลาย
of positiveบวก experiencesประสบการณ์ --
298
885000
4056
ประสบการณ์ดี ๆ ใหม่ ๆ ที่น่าทึ่ง
15:01
basicallyเป็นพื้น makingการทำ us
the mastersปริญญาโท of our ownด้วยตัวเอง destinyโชคชะตา.
299
889080
3160
ที่จะทำให้เรา
เป็นนายของชะตากรรมของตัวเอง
15:06
So in summaryสรุป,
300
894280
1376
โดยสรุปแล้ว
15:07
our situationสถานการณ์ with technologyเทคโนโลยี
is complicatedซับซ้อน,
301
895680
3096
สถานการณ์ของเรา
ที่มีต่อเทคโนโลยีนั้นซับซ้อน
15:10
but the bigใหญ่ pictureภาพ is ratherค่อนข้าง simpleง่าย.
302
898800
2416
แต่ภาพรวมนั้นค่อนข้างเรียบง่าย
15:13
Mostมากที่สุด AIAI researchersนักวิจัย
expectคาดหวัง AGIAGI withinภายใน decadesทศวรรษที่ผ่านมา,
303
901240
3456
นักวิจัย AI ส่วนใหญ่
คาดเราจะมีว่า AGI ภายในทศวรรษนี้
15:16
and if we just bumbleบัมเบิล
into this unpreparedไม่ได้เตรียมตัวไว้,
304
904720
3136
และถ้าเราซี้ซั้วไม่ยอมเตรียมตัวกัน
15:19
it will probablyอาจ be
the biggestที่ใหญ่ที่สุด mistakeผิดพลาด in humanเป็นมนุษย์ historyประวัติศาสตร์ --
305
907880
3336
มันอาจเป็นความผิดพลาด
ที่ยิ่งใหญ่ที่สุดในมนุษยชาติ
15:23
let's faceใบหน้า it.
306
911240
1416
เผชิญหน้ากับมันเถอะครับ
15:24
It could enableทำให้สามารถ brutalโหดร้าย,
globalทั่วโลก dictatorshipอำนาจเผด็จการ
307
912680
2576
มันอาจนำมาซึ่งเผด็จการโหดระดับโลก
15:27
with unprecedentedเป็นประวัติการณ์ inequalityความไม่เสมอภาค,
surveillanceการตรวจตรา and sufferingความทุกข์ทรมาน,
308
915280
3536
และความเหลื่อมล้ำ การระแวดระวัง
และความทุกข์เข็ญแบบที่ไม่เคยมีมาก่อน
15:30
and maybe even humanเป็นมนุษย์ extinctionการสูญเสีย.
309
918840
1976
หรือแม้แต่ทำให้เราสูญพันธุ์
15:32
But if we steerคัดท้าย carefullyรอบคอบ,
310
920840
2320
แต่ถ้าเราควบคุมกำกับมันอย่างระมัดระวัง
15:36
we could endปลาย up in a fantasticน่าอัศจรรย์ futureอนาคต
where everybody'sทุกคน better off:
311
924040
3896
เราอาจลงเอยที่อนาคตที่น่าทึ่ง
ที่ที่ทุกคนมีโอกาสที่ดีกว่า
15:39
the poorน่าสงสาร are richerที่ดียิ่งขึ้น, the richรวย are richerที่ดียิ่งขึ้น,
312
927960
2376
ยาจกก็มีเงินมีทอง คนรวยก็มั่งคั่งกว่าเดิม
15:42
everybodyทุกคน is healthyแข็งแรง
and freeฟรี to liveมีชีวิต out theirของพวกเขา dreamsความฝัน.
313
930360
3960
ทุก ๆ คนมีสุขภาพที่ดี
และมีอิสระในการใช้ชีวิตที่วาดฝันไว้
15:47
Now, hangแขวน on.
314
935000
1536
แต่เดี๋ยวก่อน
15:48
Do you folksคน want the futureอนาคต
that's politicallyในทางการเมือง right or left?
315
936560
4576
พวกคุณต้องการอนาคต
ที่เข้ากับการเมืองฝ่ายขวาหรือซ้าย
15:53
Do you want the piousเคร่งศาสนา societyสังคม
with strictเข้มงวด moralคุณธรรม rulesกฎระเบียบ,
316
941160
2856
คุณต้องการสังคมที่เคร่งศาสนา
ที่ให้เข้มงวดกับกฎศีลธรรม
15:56
or do you an hedonisticประสม free-for-allฟรีสำหรับทุก,
317
944040
1816
หรือจะเอาแบบสำราญสบาย ๆ อะไรก็ได้หมด
15:57
more like Burningการเผาไหม้ Man 24/7?
318
945880
2216
แบบงานเบอร์นนิงแมน ตลอดยี่สิบสี่ชั่วโมง
16:00
Do you want beautifulสวย beachesชายหาด,
forestsป่า and lakesชล,
319
948120
2416
คุณอยากได้หาด ป่าเขา ลำธารแสนงาม
16:02
or would you preferชอบ to rearrangeจัดใหม่
some of those atomsอะตอม with the computersคอมพิวเตอร์,
320
950560
3416
หรืออยากที่จะปรับเปลี่ยนบางอะตอม
ด้วยคอมพิวเตอร์
16:06
enablingการเปิดใช้งาน virtualเสมือน experiencesประสบการณ์?
321
954000
1715
เพื่อให้เกิดประสบการณ์แบบเสมือนจริง
16:07
With friendlyเป็นมิตร AIAI, we could simplyง่ายดาย
buildสร้าง all of these societiesสังคม
322
955739
3157
ด้วย AI ที่เป็นมิตร
เราอาจสร้างสังคมเหล่านั้น
16:10
and give people the freedomเสรีภาพ
to chooseเลือก whichที่ one they want to liveมีชีวิต in
323
958920
3216
มอบอิสระภาพให้กับผู้คน
ที่จะเลือกว่าพวกเขาต้องการใช้ชีวิตแบบไหน
16:14
because we would no longerอีกต่อไป
be limitedถูก จำกัด by our intelligenceสติปัญญา,
324
962160
3096
เพราะว่าเราจะไม่ได้ถูกจำกัด
ด้วยความเฉลียวฉลาดอีกต่อไป
16:17
merelyแค่ by the lawsกฎหมาย of physicsฟิสิกส์.
325
965280
1456
แต่ด้วยกฎทางฟิสิกส์
16:18
So the resourcesทรัพยากร and spaceช่องว่าง
for this would be astronomicalเกี่ยวกับดาราศาสตร์ --
326
966760
4616
ฉะนั้น ทรัพยากรและพื้นที่สำหรับสิ่งนี้
ก็น่าจะอยู่ในระดับจักรวาล
16:23
literallyอย่างแท้จริง.
327
971400
1320
อย่างแท้จริง
16:25
So here'sนี่คือ our choiceทางเลือก.
328
973320
1200
ตัวเลือกของเราก็คือ
16:27
We can eitherทั้ง be complacentอิ่มเอมใจ
about our futureอนาคต,
329
975880
2320
เราจะยินดีกับอนาคตของเรา
16:31
takingการ as an articleบทความ of blindตาบอด faithความเชื่อ
330
979440
2656
ยอมรับว่ามันเป็นชะตากรรมที่กำหนดไม่ได้
16:34
that any newใหม่ technologyเทคโนโลยี
is guaranteedรับประกัน to be beneficialเป็นประโยชน์,
331
982120
4016
ในการยืนยันว่าเทคโนโลยีใหม่
จะเป็นประโยชน์
16:38
and just repeatทำซ้ำ that to ourselvesตัวเรา
as a mantraมนต์ over and over and over again
332
986160
4136
แล้วบอกกับตัวเราเองซ้ำ ๆ เหมือนสวด
16:42
as we driftลอยลำ like a rudderlessrudderless shipเรือ
towardsไปทาง our ownด้วยตัวเอง obsolescenceความล้าสมัย.
333
990320
3680
ในขณะที่เราล่องลอยไปราวกับเรือไร้เรดาร์
สู่ความล้าสมัยของตัวเราเอง
16:46
Or we can be ambitiousทะเยอทะยาน --
334
994920
1880
หรือเราจะมุมานะ
16:49
thinkingคิด hardยาก about how
to steerคัดท้าย our technologyเทคโนโลยี
335
997840
2456
คิดให้หนักว่าเราจะควบคุมกำกับ
เทคโนโลยีของเราอย่างไร
16:52
and where we want to go with it
336
1000320
1936
และเราอยากจะไปที่ไหน
16:54
to createสร้าง the ageอายุ of amazementความประหลาดใจ.
337
1002280
1760
เพื่อที่จะสร้างยุคแห่งความน่าทึ่ง
16:57
We're all here to celebrateฉลอง
the ageอายุ of amazementความประหลาดใจ,
338
1005000
2856
พวกเราทุกคนมาที่นี่เพื่อเฉลิมฉลอง
ยุคแห่งความน่าทึ่ง
16:59
and I feel that its essenceแก่นแท้ should lieโกหก
in becomingการกลาย not overpoweredสู้
339
1007880
4440
และรับรู้ว่าแก่นสารของมัน
ไม่ควรที่จะมีอำนาจมากเกินไป
17:05
but empoweredเพิ่มขีดความสามารถ by our technologyเทคโนโลยี.
340
1013240
2616
แต่ถูกส่งเสริมด้วยเทคโนโลยีของเรา
17:07
Thank you.
341
1015880
1376
ขอบคุณครับ
17:09
(Applauseการปรบมือ)
342
1017280
3080
(เสียงปรบมือ)

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com