ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Làm sao để có được sức mạnh mà không bị áp đảo bởi trí tuệ nhân tạo

Filmed:
1,409,007 views

Nhiều nhà nghiên cứu trí tuệ nhân tạo kỳ vọng AI sẽ vượt qua con người trong mọi nhiệm vụ và công việc trong vòng nhiều thập kỷ, cho phép một tương lai nơi chúng ta chỉ bị giới hạn bởi các định luật vật lý, chứ không phải giới hạn của trí thông minh. Nhà nghiên cứu vật lý và AI của MIT - Max Tegmark tách các cơ hội và mối đe dọa thực sự khỏi các giả thuyết, mô tả cụ thể các bước mà chúng ta nên thực hiện ngày hôm nay để đảm bảo rằng cuối cùng, AI là điều tốt nhất -- chứ không phải tồi tệ nhất -- từng xảy đến với nhân loại.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billiontỷ yearsnăm
of cosmicvũ trụ historylịch sử,
0
760
4416
Sau 13.8 tỉ năm lịch sử vũ trụ,
00:17
our universevũ trụ has wokenđánh thức up
1
5200
2096
vũ trụ của chúng ta đã tỉnh dậy,
00:19
and becometrở nên awareý thức of itselfchinh no.
2
7320
1520
và bắt đầu tự nhận thức.
00:21
From a smallnhỏ bé bluemàu xanh da trời planethành tinh,
3
9480
1936
Từ một hành tinh xanh nhỏ bé,
00:23
tinynhỏ bé, consciouscó ý thức partscác bộ phận of our universevũ trụ
have begunbắt đầu gazingnhìn out into the cosmosvũ trụ
4
11440
4136
nơi có nhận thức của thế giới bao la đã
bắt đầu nhìn ra bên ngoài hành tinh của họ
00:27
with telescopeskính thiên văn,
5
15600
1376
bằng kính viễn vọng,
00:29
discoveringkhám phá something humblinghumbling.
6
17000
1480
để khám phá những điều nhỏ bé.
00:31
We'veChúng tôi đã discoveredphát hiện ra that our universevũ trụ
is vastlybao la grandergrander
7
19320
2896
Ta phát hiện ra rằng
vũ trụ này rộng lớn hơn rất nhiều
00:34
than our ancestorstổ tiên imaginedtưởng tượng
8
22240
1336
so với tổ tiên tưởng tượng
00:35
and that life seemsdường như to be an almosthầu hết
imperceptiblyImperceptibly smallnhỏ bé perturbationnhiễu loạn
9
23600
4256
và cuộc sống dường như là một sự xáo trộn
mà chúng ta đều không thể nhận thấy được
00:39
on an otherwisenếu không thì deadđã chết universevũ trụ.
10
27880
1720
trên một hành tinh chết khác.
00:42
But we'vechúng tôi đã alsocũng thế discoveredphát hiện ra
something inspiringcảm hứng,
11
30320
3016
Nhưng ta cũng khám phá ra một điều
vô cùng hấp dẫn,
00:45
which is that the technologyCông nghệ
we're developingphát triển has the potentialtiềm năng
12
33360
2976
đó là nền công nghệ đang được phát triển
mang lại tiềm năng
00:48
to help life flourishhưng thịnh like never before,
13
36360
2856
nâng cao cuộc sống hơn bao giờ hết,
00:51
not just for centuriesthế kỉ
but for billionshàng tỷ of yearsnăm,
14
39240
3096
không chỉ trong một vài thế kỉ
mà trong hàng triệu năm lịch sử,
00:54
and not just on earthtrái đất but throughoutkhắp
much of this amazingkinh ngạc cosmosvũ trụ.
15
42360
4120
không chỉ trên trái đất này
mà còn rộng mở cho cả vũ trụ vĩ đại này.
00:59
I think of the earliestsớm nhất life as "Life 1.0"
16
47680
3336
Tôi nghĩ cuộc sống sơ khai nhất
là "Cuộc sống phiên bản 1.0"
01:03
because it was really dumbngớ ngẩn,
17
51040
1376
bởi vì nó không có trí tuệ,
01:04
like bacteriavi khuẩn, unablekhông thể to learnhọc hỏi
anything duringsuốt trong its lifetimecả đời.
18
52440
4296
như vi khuẩn, không có khả năng tiếp thu
được cái gì trong suốt quãng đời của nó.
01:08
I think of us humanscon người as "Life 2.0"
because we can learnhọc hỏi,
19
56760
3376
Còn loài người là "Cuộc sống bản 2.0"
vì chúng ta có thể học,
01:12
which we in nerdyNerdy, geekgeek speaknói,
20
60160
1496
giao tiếp,
01:13
mightcó thể think of as installingcài đặt
newMới softwarephần mềm into our brainsnão,
21
61680
3216
lại còn nghĩ tới việc
cài một phần mềm vào trong não,
01:16
like languagesngôn ngữ and jobviệc làm skillskỹ năng.
22
64920
2120
để biết thêm ngôn ngữ
hoặc kỹ năng khác.
01:19
"Life 3.0," which can designthiết kế not only
its softwarephần mềm but alsocũng thế its hardwarephần cứng
23
67680
4296
"Cuộc sống bản 3.0", không những thiết kế
được 'phần mềm' mà còn 'phần cứng' của nó
01:24
of coursekhóa học doesn't existhiện hữu yetchưa.
24
72000
1656
chắc chắn là chưa xuất hiện.
01:25
But perhapscó lẽ our technologyCông nghệ
has alreadyđã madethực hiện us "Life 2.1,"
25
73680
3776
Nhưng có lẽ, với nền công nghệ hiện tại,
ta đã nâng cấp lên phiên bản 2.1,
01:29
with our artificialnhân tạo kneesđầu gối,
pacemakersMáy kích thích nhịp and cochlearốc tai implantscấy ghép.
26
77480
4336
đầu gối nhân tạo, máy điều hòa nhịp tim
và cả những con ốc điện tử.
01:33
So let's take a closergần hơn look
at our relationshipmối quan hệ with technologyCông nghệ, OK?
27
81840
3880
Vì vậy, hãy nhìn kỹ hơn sự liên kết
của chúng ta với nền công nghệ,
01:38
As an examplethí dụ,
28
86800
1216
Ví dụ,
01:40
the ApolloApollo 11 moonmặt trăng missionsứ mệnh
was bothcả hai successfulthành công and inspiringcảm hứng,
29
88040
5296
tàu vũ trụ Apollo 11 đã khám phá mặt trăng
rất thành công và truyền cảm hứng,
01:45
showinghiển thị that when we humanscon người
use technologyCông nghệ wiselykhôn ngoan,
30
93360
3016
chứng tỏ rằng khi ta biết cách
sử dụng công nghệ khéo léo,
01:48
we can accomplishhoàn thành things
that our ancestorstổ tiên could only dreammơ tưởng of.
31
96400
3936
chúng ta có thể đạt tới những điều
mà tổ tiên chỉ biết mơ tới.
01:52
But there's an even more inspiringcảm hứng journeyhành trình
32
100360
2976
Nhưng còn một chuyến hành trình vĩ đại hơn
01:55
propelledđẩy by something
more powerfulquyền lực than rockettên lửa enginesđộng cơ,
33
103360
2680
được phóng lên bởi cái gì đó
mạnh hơn cả hệ thống tên lửa,
nơi mà hành khách không chỉ có
duy nhất 3 phi hành gia
01:59
where the passengershành khách
aren'tkhông phải just threesố ba astronautsphi hành gia
34
107200
2336
02:01
but all of humanitynhân loại.
35
109560
1776
mà là cả một nhân loại.
02:03
Let's talk about our collectivetập thể
journeyhành trình into the futureTương lai
36
111360
2936
Hãy nói về chuyến hành trình
của chúng ta trong tương lai
02:06
with artificialnhân tạo intelligenceSự thông minh.
37
114320
2000
với trí tuệ nhân tạo.
02:08
My friendngười bạn JaanJaan TallinnTallinn likesthích to pointđiểm out
that just as with rocketrytên lửa,
38
116960
4536
Bạn của tôi, Jaan Tallinn chỉ ra rằng
nếu chỉ với mỗi nền công nghệ tên lửa,
02:13
it's not enoughđủ to make
our technologyCông nghệ powerfulquyền lực.
39
121520
3160
thì có lẽ khó để biến công nghệ
trở nên mạnh mẽ hơn.
02:17
We alsocũng thế have to figurenhân vật out,
if we're going to be really ambitioustham vọng,
40
125560
3175
Chúng ta cũng sẽ phải tìm ra,
nếu chúng ta thực sự khát vọng,
02:20
how to steerchỉ đạo it
41
128759
1416
cách để điều khiển nó
02:22
and where we want to go with it.
42
130199
1681
và ta muốn đi tới đâu cùng nó.
02:24
So let's talk about all threesố ba
for artificialnhân tạo intelligenceSự thông minh:
43
132880
2840
Hãy nói về 3 điều của trí tuệ nhân tạo:
02:28
the powerquyền lực, the steeringchỉ đạo
and the destinationNơi Đến.
44
136440
3056
sức mạnh, sự chỉ đạo và đích đến.
02:31
Let's startkhởi đầu with the powerquyền lực.
45
139520
1286
Cùng bắt đầu với sức mạnh.
02:33
I defineđịnh nghĩa intelligenceSự thông minh very inclusivelyinclusively --
46
141600
3096
Tôi định nghĩ trí tuệ rất là bao hàm--
02:36
simplyđơn giản as our abilitycó khả năng
to accomplishhoàn thành complexphức tạp goalsnhững mục tiêu,
47
144720
4336
đơn giản như khả năng hoàn thành
các mục tiêu phức tạp của chúng ta,
02:41
because I want to includebao gồm bothcả hai
biologicalsinh học and artificialnhân tạo intelligenceSự thông minh.
48
149080
3816
vì tôi muốn bao gồm
cả trí tuệ sinh học và trí tuệ nhân tạo.
02:44
And I want to avoidtránh
the sillyngớ ngẩn carbon-chauvinismcacbon-chủ nghĩa tài xế ideaý kiến
49
152920
4016
Tôi muốn tránh cái ý tưởng ngớ ngẩn
về sự tôn vinh carbon
02:48
that you can only be smartthông minh
if you're madethực hiện of meatthịt.
50
156960
2360
do đó bạn chỉ có thể thông minh
khi bạn được tạo nên từ thịt.
02:52
It's really amazingkinh ngạc how the powerquyền lực
of AIAI has grownmới lớn recentlygần đây.
51
160880
4176
Thật tuyệt vời khi nói về AI đã phát triển
như thế nào trong thời gian gần đây.
02:57
Just think about it.
52
165080
1256
Cùng suy nghĩ về nó.
02:58
Not long agotrước, robotsrobot couldn'tkhông thể walkđi bộ.
53
166360
3200
Cách đây không lâu,
robots không thể đi được.
03:03
Now, they can do backflipskỳ cục.
54
171040
1720
Còn bây giờ, nó có thể nhào lộn.
03:06
Not long agotrước,
55
174080
1816
Cách đây không lâu,
03:07
we didn't have self-drivingtự lái carsxe hơi.
56
175920
1760
chúng ta chưa hề có xe ô tô tự động.
03:10
Now, we have self-flyingtự bay rocketstên lửa.
57
178920
2480
và bây giờ, ta đã có tên lửa tự động.
03:15
Not long agotrước,
58
183960
1416
Cách đây không lâu,
03:17
AIAI couldn'tkhông thể do faceđối mặt recognitionsự công nhận.
59
185400
2616
AI không thể nhận diện được mặt con người.
03:20
Now, AIAI can generatetạo ra fakegiả mạo faceskhuôn mặt
60
188040
2976
Bây giờ, AI có thể tạo ra khuôn mặt giả
03:23
and simulatemô phỏng your faceđối mặt
sayingnói stuffđồ đạc that you never said.
61
191040
4160
và mô phỏng khuôn mặt của bạn
nói những điều mà bạn chưa bao giờ nói.
03:28
Not long agotrước,
62
196400
1576
Cách đây không lâu,
03:30
AIAI couldn'tkhông thể beattiết tấu us at the gametrò chơi of Go.
63
198000
1880
AI không thể thắng ta trong trò cờ vây.
03:32
Then, GoogleGoogle DeepMind'sCủa DeepMind AlphaZeroKhông có AIAI
tooklấy 3,000 yearsnăm of humanNhân loại Go gamesTrò chơi
64
200400
5096
Và rồi, AI của Google DeepMind's AlphaZero
lấy trọn 3000 năm luyện tập của con người
03:37
and Go wisdomsự khôn ngoan,
65
205520
1256
và cả những chiến thuật,
03:38
ignoredlàm ngơ it all and becameđã trở thành the world'scủa thế giới besttốt
playerngười chơi by just playingđang chơi againstchống lại itselfchinh no.
66
206800
4976
bỏ qua những điều đó, nó trở thành đối thủ
nặng ký nhất kể cả khi chơi với chính nó.
03:43
And the mostphần lớn impressiveấn tượng featfeat here
wasn'tkhông phải là that it crushednghiền humanNhân loại gamersGame thủ,
67
211800
3696
Điều ấn tượng nhất không phải là
nó đã đánh bại người chơi như thế nào,
03:47
but that it crushednghiền humanNhân loại AIAI researchersCác nhà nghiên cứu
68
215520
2576
mà là nó đã hạ gục cả những
người nghiên cứu ra nó
03:50
who had spentđã bỏ ra decadesthập kỷ
handcraftinghandcrafting game-playingtrò chơi-chơi softwarephần mềm.
69
218120
3680
người đã dành hàng chục năm
để tạo ra những phần mềm chơi trò chơi.
Và AlphaZero hạ gục các nhà nghiên cứu
không chỉ mỗi cờ vây mà còn cả cờ vua,
03:54
And AlphaZeroKhông có crushednghiền humanNhân loại AIAI researchersCác nhà nghiên cứu
not just in Go but even at chesscờ vua,
70
222200
4656
03:58
which we have been workingđang làm việc on sincekể từ 1950.
71
226880
2480
bộ môn mà ta đã thành thạo từ năm 1950.
04:02
So all this amazingkinh ngạc recentgần đây progresstiến độ in AIAI
really begscầu xin the questioncâu hỏi:
72
230000
4240
Chính những thành tựu tuyệt vời gần đây
của AI, đã dấy lên một câu hỏi:
04:07
How farxa will it go?
73
235280
1560
Nó sẽ có thể tiến bộ tới đâu?
04:09
I like to think about this questioncâu hỏi
74
237800
1696
Tôi thích nghĩ tới câu hỏi này
04:11
in termsđiều kiện of this abstracttrừu tượng
landscapephong cảnh of tasksnhiệm vụ,
75
239520
2976
bằng các khái niệm trừu tượng
của nhiệm vụ,
04:14
where the elevationđộ cao representsđại diện
how hardcứng it is for AIAI to do eachmỗi taskbài tập
76
242520
3456
nơi mà các cấp bậc thể hiện sự
khó khăn để AI hoàn thành một nhiệm vụ
04:18
at humanNhân loại levelcấp độ,
77
246000
1216
ở cấp độ con người,
04:19
and the seabiển levelcấp độ representsđại diện
what AIAI can do todayhôm nay.
78
247240
2760
và mực nước biển thể hiện những gì
mà AI có thể làm ngày nay.
Mực nước biển tăng lên
chỉ sự cải thiện của AI,
04:23
The seabiển levelcấp độ is risingtăng lên
as AIAI improvescải thiện,
79
251120
2056
04:25
so there's a kindloại of globaltoàn cầu warmingsự nóng lên
going on here in the taskbài tập landscapephong cảnh.
80
253200
3440
vì vậy hiện tượng nóng lên toàn cầu xảy ra
trong cảnh quan nhiệm vụ.
04:30
And the obvioushiển nhiên takeawaytakeaway
is to avoidtránh careersnghề nghiệp at the waterfrontbờ sông --
81
258040
3335
Và điều hiển nhiên là
tránh những công việc tại bờ sông --
04:33
(LaughterTiếng cười)
82
261399
1257
(Cười)
04:34
which will soonSớm be
automatedtự động and disruptedgián đoạn.
83
262680
2856
nơi mà nó sẽ bị phá huỷ sớm.
04:37
But there's a much
biggerlớn hơn questioncâu hỏi as well.
84
265560
2976
Nhưng còn có một câu hỏi lớn hơn thế nữa
04:40
How highcao will the waterNước endkết thúc up risingtăng lên?
85
268560
1810
Mực nước sẽ dâng cao tới đâu?
04:43
Will it eventuallycuối cùng risetăng lên
to flood everything,
86
271440
3200
Liệu nó sẽ nhấn chìm mọi thứ,
04:47
matchingphù hợp với humanNhân loại intelligenceSự thông minh at all tasksnhiệm vụ.
87
275840
2496
đấu trí với con người ở mọi lĩnh vực.
04:50
This is the definitionĐịnh nghĩa
of artificialnhân tạo generalchung intelligenceSự thông minh --
88
278360
3736
Đây là định nghĩa của trí tuệ nhân tạo --
04:54
AGIAgi,
89
282120
1296
AGI,
04:55
which has been the holyThánh grailchén
of AIAI researchnghiên cứu sincekể từ its inceptionkhởi đầu.
90
283440
3080
giao thức mạng thần thánh của AI
từ điểm khởi đầu.
04:59
By this definitionĐịnh nghĩa, people who say,
91
287000
1776
Với định nghĩa này, những người nói
05:00
"AhAh, there will always be jobscông việc
that humanscon người can do better than machinesmáy móc,"
92
288800
3416
"À, chắc chắn sẽ có việc
mà con người làm tốt hơn máy móc",
05:04
are simplyđơn giản sayingnói
that we'lltốt never get AGIAgi.
93
292240
2920
đơn giản nói rằng chúng ta sẽ
không bao giờ có được AGI.
05:07
Sure, we mightcó thể still choosechọn
to have some humanNhân loại jobscông việc
94
295680
3576
Chắc chắn, chúng ta vẫn có thể chọn
những công việc của con người
05:11
or to give humanscon người incomethu nhập
and purposemục đích with our jobscông việc,
95
299280
3096
hoặc là đưa thu nhập và mục tiêu
với công việc của chúng ta,
05:14
but AGIAgi will in any casetrường hợp
transformbiến đổi life as we know it
96
302400
3736
nhưng AGI trong mọi trường hợp
sẽ chuyển đổi cuộc sống như ta đã biết
05:18
with humanscon người no longerlâu hơn beingđang
the mostphần lớn intelligentthông minh.
97
306160
2736
cái lúc mà con người đã không còn
thông minh nhất nữa.
05:20
Now, if the waterNước levelcấp độ does reachchạm tới AGIAgi,
98
308920
3696
Bây giờ, nếu mực nước chạm tới AGI,
05:24
then furtherthêm nữa AIAI progresstiến độ will be drivenlái xe
mainlychủ yếu not by humanscon người but by AIAI,
99
312640
5296
thì sau này, AI sẽ được vận hành
bởi chính nó thay vì con người,
05:29
which meanscó nghĩa that there's a possibilitykhả năng
100
317960
1856
nghĩa là có khả năng rằng
05:31
that furtherthêm nữa AIAI progresstiến độ
could be way fasternhanh hơn
101
319840
2336
các AI trong tương lai
sẽ còn phát triển nhanh hơn
cả những nghiên cứu điển hình
mà loài người đã phát triển bao lâu nay,
05:34
than the typicalđiển hình humanNhân loại researchnghiên cứu
and developmentphát triển timescalethời gian of yearsnăm,
102
322200
3376
05:37
raisingnuôi the controversialgây tranh cãi possibilitykhả năng
of an intelligenceSự thông minh explosionปัก แทน เลือก ปัก
103
325600
4016
dấy lên tranh cãi
về sự bùng nổ của trí thông minh
05:41
where recursivelyđệ quy self-improvingtự cải thiện AIAI
104
329640
2296
nơi mà quá trình tự hoàn thiện của AI
05:43
rapidlynhanh chóng leaves humanNhân loại
intelligenceSự thông minh farxa behindphía sau,
105
331960
3416
đã nhanh chóng bỏ xa
trí thông minh của con người ở phía sau,
05:47
creatingtạo what's knownnổi tiếng
as superintelligencesuperintelligence.
106
335400
2440
được biết đến như siêu thông minh.
05:51
AlrightĐược rồi, realitythực tế checkkiểm tra:
107
339800
2280
Được rồi, cùng kiểm chứng trong thực tế:
05:55
Are we going to get AGIAgi any time soonSớm?
108
343120
2440
Liệu chúng ta sẽ đạt được AGI sớm?
05:58
Some famousnổi danh AIAI researchersCác nhà nghiên cứu,
like RodneyRodney BrooksBrooks,
109
346360
2696
Một số nhà nghiên cứu về AI nổi tiếng,
như Rodney Brooks,
06:01
think it won'tsẽ không happenxảy ra
for hundredshàng trăm of yearsnăm.
110
349080
2496
nghĩ điều đó sẽ không xảy ra
trong hàng trăm năm nữa.
06:03
But othersKhác, like GoogleGoogle DeepMindTrên DeepMind
founderngười sáng lập DemisDemis HassabisKhông có,
111
351600
3896
Thế nhưng, nhà sáng lập
Google DeedMind Demis Hassabis,
06:07
are more optimisticlạc quan
112
355520
1256
lại lạc quan hơn
06:08
and are workingđang làm việc to try to make
it happenxảy ra much soonersớm hơn.
113
356800
2576
và đang làm việc để
rút ngắn khoảng thời gian này.
06:11
And recentgần đây surveyskhảo sát have shownđược hiển thị
that mostphần lớn AIAI researchersCác nhà nghiên cứu
114
359400
3296
Các khảo sát gần đây cho thấy
rằng đa số các nhà nghiên cứu AI
06:14
actuallythực ra sharechia sẻ Demis'sCủa demis optimismlạc quan,
115
362720
2856
thực sự đồng ý
với ý tưởng lạc quan của Demis,
06:17
expectingmong đợi that we will
get AGIAgi withinbên trong decadesthập kỷ,
116
365600
3080
hy vọng rằng chúng ta có thể đạt đến AGI
chỉ trong vòng vài chục năm tới,
06:21
so withinbên trong the lifetimecả đời of manynhiều of us,
117
369640
2256
vì vậy trong cuộc đời của chúng ta,
06:23
which begscầu xin the questioncâu hỏi -- and then what?
118
371920
1960
sẽ hỏi rằng-- sau đó sẽ như thế nào?
06:27
What do we want the rolevai trò of humanscon người to be
119
375040
2216
Ta muốn vai trò của loài người sẽ là gì
06:29
if machinesmáy móc can do everything better
and cheapergiá rẻ hơn than us?
120
377280
2680
nếu máy móc lại có thể làm mọi thứ
tốt và rẻ hơn chúng ta?
Với cách nhìn nhận này,
chúng ta đối mặt với một lựa chọn.
06:35
The way I see it, we faceđối mặt a choicelựa chọn.
121
383000
2000
06:38
One optionTùy chọn is to be complacenttự mãn.
122
386000
1576
Một lựa chọn là tự mãn.
06:39
We can say, "Oh, let's just buildxây dựng machinesmáy móc
that can do everything we can do
123
387600
3776
Ta có thể nói rằng, "Ok, hãy xây những
máy móc có thể làm mọi thứ chúng ta làm
06:43
and not worrylo about the consequenceshậu quả.
124
391400
1816
và không cần lo về hậu quả của nó.
06:45
Come on, if we buildxây dựng technologyCông nghệ
that makeslàm cho all humanscon người obsoletelỗi thời,
125
393240
3256
Nào, nếu ta xây dựng nền công nghệ
khiến loài người trở nên lỗi thời,
06:48
what could possiblycó thể go wrongsai rồi?"
126
396520
2096
thì hình như có điều gì đó hơi sai ở đây?"
06:50
(LaughterTiếng cười)
127
398640
1656
(Cười)
06:52
But I think that would be
embarrassinglyxấu hổ lamequè.
128
400320
2760
Tôi nghĩ điều đó sẽ rất xấu hổ.
06:56
I think we should be more ambitioustham vọng --
in the spirittinh thần of TEDTED.
129
404080
3496
Tôi nghĩ chúng ta nên tham vọng hơn nữa --
theo tinh thần của TED.
06:59
Let's envisionhình dung a trulythực sự inspiringcảm hứng
high-techcông nghệ cao futureTương lai
130
407600
3496
Hãy thử hình dung một cảm hứng thực sự
trong ngành công nghệ cao tương lai
07:03
and try to steerchỉ đạo towardsvề hướng it.
131
411120
1400
và cố gắng định hướng nó.
07:05
This bringsmang lại us to the secondthứ hai partphần
of our rockettên lửa metaphorphép ẩn dụ: the steeringchỉ đạo.
132
413720
3536
Điều này đưa chúng ta tới phép ẩn dụ
về tên lửa thứ hai: sự định hướng.
07:09
We're makingchế tạo AIAI more powerfulquyền lực,
133
417280
1896
Ta làm cho AI
ngày càng hùng mạnh hơn,
07:11
but how can we steerchỉ đạo towardsvề hướng a futureTương lai
134
419200
3816
nhưng làm sao chúng ta có thể định hướng
được tương lai
07:15
where AIAI helpsgiúp humanitynhân loại flourishhưng thịnh
ratherhơn than floundercá bơn?
135
423040
3080
khi mà AI giúp loài người hưng thịnh
thay vì chật vật khổ sở?
Để giải quyết vấn đề này,
07:18
To help with this,
136
426760
1256
tôi đã đồng sáng lập
Viện Cuộc sống Tương lai.
07:20
I cofoundedcofounded the FutureTương lai of Life InstituteHọc viện.
137
428040
1976
Đó là một tổ chức phi lợi nhuận nhỏ
áp dụng công nghệ có ích,
07:22
It's a smallnhỏ bé nonprofitphi lợi nhuận promotingquảng bá
beneficialmang lại lợi ích technologyCông nghệ use,
138
430040
2776
mục tiêu của chúng tôi chỉ đơn giản
là để hiện thực hóa cuộc sống tương lai
07:24
and our goalmục tiêu is simplyđơn giản
for the futureTương lai of life to existhiện hữu
139
432840
2736
07:27
and to be as inspiringcảm hứng as possiblekhả thi.
140
435600
2056
và trở thành nguồn cảm hứng.
07:29
You know, I love technologyCông nghệ.
141
437680
3176
Các bạn biết đấy, tôi yêu thích công nghệ.
07:32
TechnologyCông nghệ is why todayhôm nay
is better than the StoneĐá AgeTuổi.
142
440880
2920
Công nghệ là lý do cuộc sống ngày nay
vượt xa Thời Đồ đá.
07:36
And I'm optimisticlạc quan that we can createtạo nên
a really inspiringcảm hứng high-techcông nghệ cao futureTương lai ...
143
444600
4080
Và tôi lạc quan rằng chúng ta có thể tạo
ra cảm hứng cho công nghệ cao tương lai...
nếu -- và đây là
một cái nếu quan trọng --
07:41
if -- and this is a biglớn if --
144
449680
1456
07:43
if we winthắng lợi the wisdomsự khôn ngoan racecuộc đua --
145
451160
2456
nếu ta chiến thắng
trong cuộc đua về sự hiểu biết --
07:45
the racecuộc đua betweengiữa the growingphát triển
powerquyền lực of our technologyCông nghệ
146
453640
2856
cuộc đua giữa sự phát triển
công nghệ của chúng ta
07:48
and the growingphát triển wisdomsự khôn ngoan
with which we managequản lý it.
147
456520
2200
và sự hiểu biết nằm trong
sự kiểm soát của chúng ta.
07:51
But this is going to requireyêu cầu
a changethay đổi of strategychiến lược
148
459240
2296
Nhưng điều này đòi hỏi sự thay đổi
trong phương pháp
07:53
because our old strategychiến lược
has been learninghọc tập from mistakessai lầm.
149
461560
3040
bởi các phương pháp cũ được học hỏi
từ những sai lầm.
07:57
We inventedphát minh firengọn lửa,
150
465280
1536
Chúng ta đã phát minh ra lửa,
07:58
screwedhơi say up a bunch of timeslần --
151
466840
1536
lửa đã tàn phá nhiều lần --
08:00
inventedphát minh the firengọn lửa extinguisherBình chữa.
152
468400
1816
từ đó phát minh ra bình cứu hỏa.
08:02
(LaughterTiếng cười)
153
470240
1336
(Cười)
Chúng ta đã phát minh ra xe hơi,
gây ra sự tàn phá nhiều lần --
08:03
We inventedphát minh the carxe hơi,
screwedhơi say up a bunch of timeslần --
154
471600
2416
08:06
inventedphát minh the trafficgiao thông lightánh sáng,
the seatghế beltthắt lưng and the airbagtúi khí,
155
474040
2667
từ đó phát minh ra đèn giao thông,
dây an toàn và túi khí
08:08
but with more powerfulquyền lực technologyCông nghệ
like nuclearNguyên tử weaponsvũ khí and AGIAgi,
156
476731
3845
nhưng với công nghệ càng mạnh mẽ hơn
như vũ khí hạt nhân và AGI,
08:12
learninghọc tập from mistakessai lầm
is a lousytồi tệ strategychiến lược,
157
480600
3376
học hỏi từ những sai lầm đó là
một phương pháp tồi,
08:16
don't you think?
158
484000
1216
bạn có nghĩ thế không?
08:17
(LaughterTiếng cười)
159
485240
1016
(Cười)
08:18
It's much better to be proactivechủ động
ratherhơn than reactivephản ứng;
160
486280
2576
Sự chủ động luôn tốt hơn nhiều
so với sự bị động;
08:20
plankế hoạch aheadphía trước and get things
right the first time
161
488880
2296
lên kế hoạch trước và làm đúng
ngay từ đầu
08:23
because that mightcó thể be
the only time we'lltốt get.
162
491200
2496
bởi vì đó có thể là cơ hội
duy nhất chúng ta có.
08:25
But it is funnybuồn cười because
sometimesđôi khi people tell me,
163
493720
2336
Điều đó cũng khá vui vì
đôi khi mọi người bảo tôi rằng,
08:28
"MaxMax, shhhShhh, don't talk like that.
164
496080
2736
"Max, suỵt, đừng nói như vậy.
08:30
That's LudditeLuddite scaremongeringscaremongering."
165
498840
1720
Như kiểu Luddite đang phao tin vậy."
Nhưng đó không phải là tin đồn nhảm nhí.
08:34
But it's not scaremongeringscaremongering.
166
502040
1536
08:35
It's what we at MITMIT
call safetyan toàn engineeringkỹ thuật.
167
503600
2880
Đây là thứ chúng tôi gọi
là an toàn kỹ thuật tại MIT.
08:39
Think about it:
168
507200
1216
Hãy nghĩ về điều này:
08:40
before NASANASA launchedđưa ra
the ApolloApollo 11 missionsứ mệnh,
169
508440
2216
trước khi NASA phóng tàu Apollo 11,
08:42
they systematicallycó hệ thống thought throughxuyên qua
everything that could go wrongsai rồi
170
510680
3136
họ đã suy nghĩ một cách có hệ thống
rằng mọi thứ có thể sai
08:45
when you put people
on tophàng đầu of explosivenổ fuelnhiên liệu tanksxe tăng
171
513840
2376
khi bạn đặt con người trên
thùng chứa nhiên liệu nổ
08:48
and launchphóng them somewheremột vài nơi
where no one could help them.
172
516240
2616
và đưa họ tới đâu đó,
nơi không ai có thể giúp họ.
08:50
And there was a lot that could go wrongsai rồi.
173
518880
1936
Và có hàng tá điều có thể sai lầm.
08:52
Was that scaremongeringscaremongering?
174
520840
1480
Đó có phải là
tin đồn nhảm không?
08:55
No.
175
523159
1217
Không.
08:56
That's was preciselyđúng
the safetyan toàn engineeringkỹ thuật
176
524400
2016
Đó chính xác là kỹ thuật an toàn
08:58
that ensuredđảm bảo the successsự thành công of the missionsứ mệnh,
177
526440
1936
nhằm đảm bảo nhiệm vụ thành công,
09:00
and that is preciselyđúng the strategychiến lược
I think we should take with AGIAgi.
178
528400
4176
và đó chính xác là mục đích
mà tôi nghĩ ta nên sử dụng AGI.
Nghĩ thấu "điều gì có thể sai lệch"
để chắc chắn nó đi đúng hướng.
09:04
Think throughxuyên qua what can go wrongsai rồi
to make sure it goesđi right.
179
532600
4056
09:08
So in this spirittinh thần,
we'vechúng tôi đã organizedtổ chức conferenceshội nghị,
180
536680
2536
Nên với tinh thần này,
chúng tôi tổ chức các hội thảo,
09:11
bringingđưa togethercùng với nhau leadingdẫn đầu
AIAI researchersCác nhà nghiên cứu and other thinkersnhà tư tưởng
181
539240
2816
kết nối các nhà nghiên cứu AI
và học giả hàng đầu
09:14
to discussbàn luận how to growlớn lên this wisdomsự khôn ngoan
we need to keep AIAI beneficialmang lại lợi ích.
182
542080
3736
để thảo luận cách phát triển sự thông minh
này ta cần giữ cho AI có ích.
09:17
Our last conferencehội nghị
was in AsilomarAsilomar, CaliforniaCalifornia last yearnăm
183
545840
3296
Hội thảo gần đây nhất của chúng tôi
ở Asilomar, California năm ngoái
09:21
and producedsản xuất this listdanh sách of 23 principlesnguyên lý
184
549160
3056
đã đưa ra danh sách này
với 23 quy ước
09:24
which have sincekể từ been signedký kết
by over 1,000 AIAI researchersCác nhà nghiên cứu
185
552240
2896
được kí tên bởi
hơn 1000 nhà nghiên cứu AI
và các nhà lãnh đạo
kinh tế chủ chốt,
09:27
and keyChìa khóa industryngành công nghiệp leaderslãnh đạo,
186
555160
1296
09:28
and I want to tell you
about threesố ba of these principlesnguyên lý.
187
556480
3176
Tôi muốn nói với bạn về 3
trong số các nguyên tắc này.
09:31
One is that we should avoidtránh an armscánh tay racecuộc đua
and lethalgây chết người autonomoustự trị weaponsvũ khí.
188
559680
4960
Một là chúng ta nên tránh chạy đua
vũ trang và vũ khí tự hủy diệt.
Ý tưởng là sản phẩm khoa học nào cũng được
sử dụng như cách mới để giúp đỡ con người
09:37
The ideaý kiến here is that any sciencekhoa học
can be used for newMới wayscách of helpinggiúp people
189
565480
3616
09:41
or newMới wayscách of harminglàm hại people.
190
569120
1536
hoặc là làm hại con người.
09:42
For examplethí dụ, biologysinh học and chemistryhóa học
are much more likelycó khả năng to be used
191
570680
3936
Ví dụ, sinh học và hóa học
đang được sử dụng nhiều
09:46
for newMới medicinesthuốc chữa bệnh or newMới cureschữa bệnh
than for newMới wayscách of killinggiết chết people,
192
574640
4856
cho nghiên cứu thuốc mới, cách
chữa bệnh mới hơn là giết người.
09:51
because biologistsnhà sinh vật học
and chemistshóa học của pushedđẩy hardcứng --
193
579520
2176
vì các nhà sinh hóa học
đã làm việc tích cực
09:53
and successfullythành công --
194
581720
1256
và thành công
09:55
for banslệnh cấm on biologicalsinh học
and chemicalhóa chất weaponsvũ khí.
195
583000
2176
khi cấm các loại vũ khí
sinh học và hóa học.
09:57
And in the sametương tự spirittinh thần,
196
585200
1256
Và trên tinh thần này,
09:58
mostphần lớn AIAI researchersCác nhà nghiên cứu want to stigmatizekỳ thị
and banlệnh cấm lethalgây chết người autonomoustự trị weaponsvũ khí.
197
586480
4440
đa số các nhà nghiên cứu AI muốn lên án
và cấm các vũ khí tự hủy diệt.
10:03
AnotherKhác AsilomarAsilomar AIAI principlenguyên tắc
198
591600
1816
Một nguyên tắc khác tại Asilomar AI
10:05
is that we should mitigategiảm thiểu
AI-fueledAI-nhiên liệu incomethu nhập inequalitybất bình đẳng.
199
593440
3696
là chúng ta nên giảm tối thiểu
chi phí nhiên liệu phát sinh cho AI.
10:09
I think that if we can growlớn lên
the economicthuộc kinh tế piechiếc bánh dramaticallyđột ngột with AIAI
200
597160
4456
Tôi nghĩ nếu ta có thể tăng trưởng
chiếc bánh kinh tế mạnh mẽ bằng AI
10:13
and we still can't figurenhân vật out
how to dividechia this piechiếc bánh
201
601640
2456
và ta vẫn không hình dung ra
cách chia cái bánh này
10:16
so that everyonetất cả mọi người is better off,
202
604120
1576
thì mọi người tốt hơn là dừng lại,
10:17
then shamexấu hổ on us.
203
605720
1256
đáng tiếc cho chúng ta.
10:19
(ApplauseVỗ tay)
204
607000
4096
(Vỗ tay)
10:23
AlrightĐược rồi, now raisenâng cao your handtay
if your computermáy vi tính has ever crashedbị rơi.
205
611120
3600
Bây giờ, bạn hãy giơ tay lên
nếu máy tính bạn đã từng bị phá tan tành.
10:27
(LaughterTiếng cười)
206
615480
1256
(Cười)
10:28
WowWow, that's a lot of handstay.
207
616760
1656
Chà, có nhiều cánh tay quá.
10:30
Well, then you'llbạn sẽ appreciateđánh giá
this principlenguyên tắc
208
618440
2176
Và, sau đó, bạn sẽ đánh giá cao
nguyên tắc này
rằng ta nên đầu tư nhiều hơn nữa
vào việc nghiên cứu an toàn AI,
10:32
that we should investđầu tư much more
in AIAI safetyan toàn researchnghiên cứu,
209
620640
3136
10:35
because as we put AIAI in chargesạc điện
of even more decisionsquyết định and infrastructurecơ sở hạ tầng,
210
623800
3656
Vì khi ta giao cho AI phụ trách làm ra
nhiều quyết định và cơ sở hạ tầng hơn,
10:39
we need to figurenhân vật out how to transformbiến đổi
today'sngày nay buggybuggy and hackableHack computersmáy vi tính
211
627480
3616
ta cần phải tìm ra cách chuyển
các máy tính bị lỗi và có khả năng bị hack
10:43
into robustmạnh mẽ AIAI systemshệ thống
that we can really trustLòng tin,
212
631120
2416
thành các hệ thống Robot AI
mà ta có thể thực sự tin tưởng,
10:45
because otherwisenếu không thì,
213
633560
1216
Nếu không thì,
10:46
all this awesometuyệt vời newMới technologyCông nghệ
can malfunctionsự cố and harmlàm hại us,
214
634800
2816
mọi công nghệ mới tuyệt vời có thể
trục trặc và gây hại cho ta,
10:49
or get hackedtấn công and be turnedquay againstchống lại us.
215
637640
1976
hoặc bị hack và
chống lại chúng ta.
10:51
And this AIAI safetyan toàn work
has to includebao gồm work on AIAI valuegiá trị alignmentliên kết,
216
639640
5696
Và việc an toàn hoá AI này
phải bao gồm việc liên kết giá trị AI,
10:57
because the realthực threatmối đe dọa
from AGIAgi isn't malicemalice,
217
645360
2816
vì đe dọa thực sự từ AI
không hề ác ý,
như trong những bộ phim ngớ ngẩn
của Hollywood,
11:00
like in sillyngớ ngẩn HollywoodHollywood moviesphim,
218
648200
1656
11:01
but competencenăng lực --
219
649880
1736
Tuy nhiên, năng lực --
11:03
AGIAgi accomplishinghoàn thành goalsnhững mục tiêu
that just aren'tkhông phải alignedliên kết with ourscủa chúng tôi.
220
651640
3416
Hoàn thành mục tiêu AGI không phải là
con đường thẳng với mục tiêu của chúng ta.
11:07
For examplethí dụ, when we humanscon người drovelái
the WestWest AfricanChâu Phi blackđen rhinotê giác extincttuyệt chủng,
221
655080
4736
Ví dụ, khi con người tới,
tê giác đen Tây Phi bị tuyệt chủng,
11:11
we didn't do it because we were a bunch
of eviltà ác rhinocerostê giác hatershaters, did we?
222
659840
3896
chúng ta không làm điều đó vì không phải
tất cả đều căm thù tê giác, phải không ạ?
11:15
We did it because
we were smarterthông minh hơn than them
223
663760
2056
Chúng ta làm vì chúng ta
thông minh hơn chúng
11:17
and our goalsnhững mục tiêu weren'tkhông phải alignedliên kết with theirshọ.
224
665840
2576
và mục tiêu của chúng ta
không như của chúng.
11:20
But AGIAgi is by definitionĐịnh nghĩa smarterthông minh hơn than us,
225
668440
2656
Song AGI, theo định nghĩa là nó
thông minh hơn chúng ta,
11:23
so to make sure that we don't put
ourselveschúng ta in the positionChức vụ of those rhinostê giác Java
226
671120
3576
nên để đảm bảo chúng ta không đẩy mình vào
vị trí của những con tê giác.
11:26
if we createtạo nên AGIAgi,
227
674720
1976
Nếu ta tạo ra AGI,
11:28
we need to figurenhân vật out how
to make machinesmáy móc understandhiểu không our goalsnhững mục tiêu,
228
676720
4176
ta cần phải biết cách làm cho
máy móc hiểu được mục tiêu của chúng ta,
11:32
adoptthông qua our goalsnhững mục tiêu and retaingiữ lại our goalsnhững mục tiêu.
229
680920
3160
thích nghi và duy trì
mục tiêu của chúng ta.
Và toàn bộ mục tiêu nên như thế này,
bằng mọi giá phải không ạ?
11:37
And whose goalsnhững mục tiêu should these be, anywaydù sao?
230
685320
2856
11:40
Which goalsnhững mục tiêu should they be?
231
688200
1896
Chúng nên có những mục tiêu nào?
11:42
This bringsmang lại us to the thirdthứ ba partphần
of our rockettên lửa metaphorphép ẩn dụ: the destinationNơi Đến.
232
690120
3560
Điều này đưa ta tới phần thứ 3
của phép ẩn ý tên lửa: đích đến.
11:47
We're makingchế tạo AIAI more powerfulquyền lực,
233
695160
1856
Chúng ta đang làm cho AI mạnh mẽ hơn,
11:49
tryingcố gắng to figurenhân vật out how to steerchỉ đạo it,
234
697040
1816
nỗ lực tìm ra cách điều khiển nó,
11:50
but where do we want to go with it?
235
698880
1680
nhưng chúng ta muốn
đi cùng nó tới đâu?
11:53
This is the elephantcon voi in the roomphòng
that almosthầu hết nobodykhông ai talksnói chuyện about --
236
701760
3656
Điều này giống như con voi trong căn phòng
chẳng có người để ý tới nó,
11:57
not even here at TEDTED --
237
705440
1856
thậm chí là ngay đây,
tại TED
11:59
because we're so fixatedcố định
on short-termthời gian ngắn AIAI challengesthách thức.
238
707320
4080
vì chúng ta quá để tâm vào
các thử thách AI ngắn hạn.
12:04
Look, our speciesloài is tryingcố gắng to buildxây dựng AGIAgi,
239
712080
4656
Nhìn xem, loài người đang
nỗ lực xây dựng AGI,
12:08
motivatedđộng cơ by curiositysự tò mò and economicsKinh tế học,
240
716760
3496
bởi sự tò mò và nền kinh tế thúc đẩy.
12:12
but what sortsắp xếp of futureTương lai societyxã hội
are we hopinghi vọng for if we succeedthành công?
241
720280
3680
Nhưng xã hội mà ta mong đợi trong
tương lai sẽ ra sao nếu ta thành công?
Chúng tôi đã làm một cuộc thăm dò
ý kiến về điều này gần đây,
12:16
We did an opinionquan điểm pollthăm dò ý kiến on this recentlygần đây,
242
724680
1936
12:18
and I was strucktấn công to see
243
726640
1216
tôi rất ngạc nhiên khi
12:19
that mostphần lớn people actuallythực ra
want us to buildxây dựng superintelligencesuperintelligence:
244
727880
2896
phần lớn mọi người thực sự muốn
chúng tôi tạo ra siêu AI:
12:22
AIAI that's vastlybao la smarterthông minh hơn
than us in all wayscách.
245
730800
3160
Cực kỳ thông minh hơn
con người về mọi thứ.
12:27
What there was the greatestvĩ đại nhất agreementthỏa thuận on
was that we should be ambitioustham vọng
246
735120
3416
Thỏa thuận lớn nhất đó là
chúng ta nên tham vọng hơn
và giúp cho sự sống rộng mở hơn
trong vũ trụ,
12:30
and help life spreadLan tràn into the cosmosvũ trụ,
247
738560
2016
12:32
but there was much lessít hơn agreementthỏa thuận
about who or what should be in chargesạc điện.
248
740600
4496
nhưng vẫn có sự không nhất quán về việc ai
hoặc cái gì sẽ thực hiện trách nhiệm này.
12:37
And I was actuallythực ra quitekhá amusedamused
249
745120
1736
Tôi đã thực sự rất vui thích
12:38
to see that there's some some people
who want it to be just machinesmáy móc.
250
746880
3456
khi thấy một số người muốn
được như những cỗ máy.
12:42
(LaughterTiếng cười)
251
750360
1696
(Cười)
12:44
And there was totaltoàn bộ disagreementbất đồng
about what the rolevai trò of humanscon người should be,
252
752080
3856
Và toàn bộ không nhất trí về vấn đề
đâu là vai trò con người nên có
12:47
even at the mostphần lớn basiccăn bản levelcấp độ,
253
755960
1976
thậm chí ở mức cơ bản nhất.
12:49
so let's take a closergần hơn look
at possiblekhả thi futurestương lai
254
757960
2816
Hãy nhìn gần hơn
về một tương lai
12:52
that we mightcó thể choosechọn
to steerchỉ đạo towardđối với, alrightổn thỏa?
255
760800
2736
mà chúng ta có thể chọn để
hướng tới, được không?
12:55
So don't get be wrongsai rồi here.
256
763560
1336
Bạn đừng hiểu sai ý tôi.
12:56
I'm not talkingđang nói about spacekhông gian traveldu lịch,
257
764920
2056
Tôi không nói về du hành xuyên không gian,
12:59
merelyđơn thuần about humanity'snhân loại
metaphoricalẩn dụ journeyhành trình into the futureTương lai.
258
767000
3200
chỉ đơn thuần là về hành trình ẩn ý
của loài người tới tương lai.
13:02
So one optionTùy chọn that some
of my AIAI colleaguesđồng nghiệp like
259
770920
3496
Một lựa chọn mà một số
đồng nghiệp AI của tôi ưa thích
13:06
is to buildxây dựng superintelligencesuperintelligence
and keep it underDưới humanNhân loại controlđiều khiển,
260
774440
3616
là xây dựng siêu AI, và giữ nó
trong sự kiểm soát của con người,
13:10
like an enslavednô lệ god,
261
778080
1736
như là nô lệ của Chúa,
13:11
disconnectedbị ngắt kết nối from the internetInternet
262
779840
1576
ngắt kết nối với internet
13:13
and used to createtạo nên unimaginablekhông thể tưởng tượng được
technologyCông nghệ and wealthsự giàu có
263
781440
3256
và được sử dụng để tạo ra công nghệ
phi thường và của cải
13:16
for whoeverbất cứ ai controlskiểm soát it.
264
784720
1240
cho bất cứ người nào kiểm soát nó.
Song Lord Acton đã cảnh báo chúng ta
13:18
But LordChúa ActonActon warnedcảnh báo us
265
786800
1456
13:20
that powerquyền lực corruptscorrupts,
and absolutetuyệt đối powerquyền lực corruptscorrupts absolutelychắc chắn rồi,
266
788280
3616
rằng quyền lực, và quyền lực
tuyệt đối dẫn đến hỗn loạn tuyệt đối,
13:23
so you mightcó thể worrylo that maybe
we humanscon người just aren'tkhông phải smartthông minh enoughđủ,
267
791920
4056
nên bạn có thể lo lắng rằng liệu con người
không đủ thông minh
13:28
or wisekhôn ngoan enoughđủ ratherhơn,
268
796000
1536
hoặc không đủ khôn ngoan hơn,
13:29
to handlexử lý this much powerquyền lực.
269
797560
1240
để nắm giữ quyền lực này.
13:31
AlsoCũng, asidequa một bên from any
moralđạo đức qualmsQualms you mightcó thể have
270
799640
2536
Ngoài những nỗi e sợ
về đạo đức bạn có thể có,
13:34
about enslavingenslaving superiorcấp trên mindstâm trí,
271
802200
2296
về sự nô dịch cho siêu trí tuệ,
13:36
you mightcó thể worrylo that maybe
the superintelligencesuperintelligence could outsmartoutsmart us,
272
804520
3976
Bạn có thể bất an về việc
AI có thể thông minh hơn chúng ta,
13:40
breakphá vỡ out and take over.
273
808520
2240
thoát khỏi và chiếm quyền kiểm soát.
13:43
But I alsocũng thế have colleaguesđồng nghiệp
who are fine with AIAI takinglấy over
274
811560
3416
Nhưng tôi cũng có những đồng nghiệp
lạc quan về việc AI sẽ chiếm giữ
13:47
and even causinggây ra humanNhân loại extinctionsự tuyệt chủng,
275
815000
2296
và thậm chí là nguyên nhân
tuyệt chủng con người,
13:49
as long as we feel the the AIsTrường quốc tế Mỹ
are our worthyxứng đáng descendantshậu duệ,
276
817320
3576
khi chúng ta cảm thấy AI là
những hậu duệ xứng đáng,
13:52
like our childrenbọn trẻ.
277
820920
1736
như con cháu chúng ta.
13:54
But how would we know that the AIsTrường quốc tế Mỹ
have adoptedcon nuôi our besttốt valuesgiá trị
278
822680
5616
Nhưng làm sao ta biết được AI tiếp nhận
những giá trị tốt nhất của con người,
14:00
and aren'tkhông phải just unconsciousbất tỉnh zombieszombie
trickingtricking us into anthropomorphizinganthropomorphizing them?
279
828320
4376
và không phải là hình nộm lừa
chúng ta qua nhân cách hóa?
14:04
AlsoCũng, shouldn'tkhông nên those people
who don't want humanNhân loại extinctionsự tuyệt chủng
280
832720
2856
Liệu những ai không muốn
con người tuyệt chủng,
14:07
have a say in the mattervấn đề, too?
281
835600
1440
lên tiếng rằng đó cũng là nguyên nhân?
14:10
Now, if you didn't like eitherhoặc
of those two high-techcông nghệ cao optionslựa chọn,
282
838200
3376
Giờ đây, nếu bạn đều không thích
cả hai lựa chọn công nghệ này,
14:13
it's importantquan trọng to remembernhớ lại
that low-techcông nghệ thấp is suicidetự tử
283
841600
3176
thì điều quan trọng cần nhớ là
công nghệ thấp là tự sát
14:16
from a cosmicvũ trụ perspectivequan điểm,
284
844800
1256
từ góc nhìn tương lai,
14:18
because if we don't go farxa
beyondvượt ra ngoài today'sngày nay technologyCông nghệ,
285
846080
2496
vì nếu chúng ta không vượt xa
công nghệ hiện có,
14:20
the questioncâu hỏi isn't whetherliệu humanitynhân loại
is going to go extincttuyệt chủng,
286
848600
2816
câu hỏi sẽ không phải là
liệu nhân loại sắp bị tuyệt chủng,
14:23
merelyđơn thuần whetherliệu
we're going to get takenLấy out
287
851440
2016
mà sẽ là chúng ta sẽ bị kiểm soát
bởi hành tinh hủy diệt tiếp theo,
siêu núi lửa
14:25
by the nextkế tiếp killersát thủ asteroidtiểu hành tinh, supervolcanosiêu núi lửa
288
853480
2136
14:27
or some other problemvấn đề
that better technologyCông nghệ could have solvedđã được giải quyết.
289
855640
3096
hoặc vài vấn đề khác mà đáng ra
công nghệ tốt hơn có thể giải quyết.
14:30
So, how about havingđang có
our cakebánh ngọt and eatingĂn it ...
290
858760
3576
Cho nên, việc có cái bánh và ăn nó...
14:34
with AGIAgi that's not enslavednô lệ
291
862360
1840
cùng với AGI không phải là sự nô dịch
nhưng lại đối xử tốt với chúng ta vì
giá trị của chúng song hành cùng chúng ta?
14:37
but treatsxử lý us well because its valuesgiá trị
are alignedliên kết with ourscủa chúng tôi?
292
865120
3176
14:40
This is the gistgist of what EliezerEliezer YudkowskyQuận yudkowsky
has calledgọi là "friendlythân thiện AIAI,"
293
868320
4176
Đây là nguyên nhân chính mà Cliezer
Yudkowsky đã gọi là "AI thân thiện"
14:44
and if we can do this,
it could be awesometuyệt vời.
294
872520
2680
Nếu ta có thể làm được điều này,
đó sẽ rất tuyệt.
14:47
It could not only eliminateloại bỏ negativetiêu cực
experienceskinh nghiệm like diseasedịch bệnh, povertynghèo nàn,
295
875840
4816
AI không thể loại bỏ những trải nghiệm
tiêu cực như bệnh tật, đói nghèo,
tội phạm và những khổ đau khác.
14:52
crimetội ác and other sufferingđau khổ,
296
880680
1456
14:54
but it could alsocũng thế give us
the freedomsự tự do to choosechọn
297
882160
2816
Nhưng nó có thể cho chúng ta
sự tự do lựa chọn
14:57
from a fantastictuyệt diệu newMới diversitysự đa dạng
of positivetích cực experienceskinh nghiệm --
298
885000
4056
từ sự đa dạng, mới mẻ tuyệt vời
của những trải nghiệm tích cực --
15:01
basicallyvề cơ bản makingchế tạo us
the mastersThạc sĩ of our ownsở hữu destinyđịnh mệnh.
299
889080
3160
dựa trên việc để chúng ta
làm chủ số phận của chính mình.
15:06
So in summarytóm tắt,
300
894280
1376
Tóm lại,
15:07
our situationtình hình with technologyCông nghệ
is complicatedphức tạp,
301
895680
3096
vị thế của chúng ta với
công nghệ là phức tạp,
15:10
but the biglớn picturehình ảnh is ratherhơn simpleđơn giản.
302
898800
2416
nhưng nhìn chung
thì khá đơn giản.
15:13
MostHầu hết AIAI researchersCác nhà nghiên cứu
expectchờ đợi AGIAgi withinbên trong decadesthập kỷ,
303
901240
3456
Đa số các nhà nghiên cứu AI
chờ đợi AGI qua hàng thập kỷ,
15:16
and if we just bumblekêu vo vo
into this unpreparedchuẩn bị,
304
904720
3136
và nếu chúng ta chỉ tự mãn
mà không chuẩn bị,
15:19
it will probablycó lẽ be
the biggestlớn nhất mistakesai lầm in humanNhân loại historylịch sử --
305
907880
3336
đó sẽ có thể là sai lầm lớn nhất
trong lịch sử loài người.
15:23
let's faceđối mặt it.
306
911240
1416
Hãy đối mặt với nó.
15:24
It could enablecho phép brutaltàn bạo,
globaltoàn cầu dictatorshipchế độ độc tài
307
912680
2576
Nó có thể sẽ tàn bạo, độc quyền toàn cầu,
15:27
with unprecedentedchưa từng có inequalitybất bình đẳng,
surveillancegiám sát and sufferingđau khổ,
308
915280
3536
bằng sự bất bình đẳng không thể
dự đoán, bị quản đốc và tổn thương,
và thậm chí có thể là
sự tuyệt chủng loài người.
15:30
and maybe even humanNhân loại extinctionsự tuyệt chủng.
309
918840
1976
15:32
But if we steerchỉ đạo carefullycẩn thận,
310
920840
2320
Nhưng nếu chúng ta điều hướng
cẩn thận,
15:36
we could endkết thúc up in a fantastictuyệt diệu futureTương lai
where everybody'smọi người better off:
311
924040
3896
ta có thể đúc kết trong một tương lai
sáng lạng khi mọi người đều tốt lên:
người nghèo sẽ giàu có lên,
người giàu thì giàu hơn,
15:39
the poornghèo nàn are richerphong phú hơn, the richgiàu có are richerphong phú hơn,
312
927960
2376
15:42
everybodymọi người is healthykhỏe mạnh
and freemiễn phí to livetrực tiếp out theirhọ dreamsnhững giấc mơ.
313
930360
3960
mọi người đều khỏe mạnh và tự do
sống với ước mơ của mình.
15:47
Now, hangtreo on.
314
935000
1536
Bây giờ, còn nữa.
15:48
Do you folksfolks want the futureTương lai
that's politicallychính trị right or left?
315
936560
4576
Các bạn muốn tương lai là đúng hay sai?
Bạn có muốn một xã hội yên bình
với lề lối đạo đức nghiêm trị,
15:53
Do you want the piousĐạo Đức societyxã hội
with strictnghiêm khắc moralđạo đức rulesquy tắc,
316
941160
2856
hay là một chủ nghĩa khoái lạc -
tự do cho tất cả,
15:56
or do you an hedonistichedonistic free-for-allFree-for-all,
317
944040
1816
15:57
more like BurningĐốt cháy Man 24/7?
318
945880
2216
như Burning Man 24/7?
Bạn mong có những bờ biển cát trắng,
rừng xanh và hồ trong veo,
16:00
Do you want beautifulđẹp beachesbãi biển,
forestsrừng and lakesHồ nước,
319
948120
2416
16:02
or would you preferthích hơn to rearrangesắp xếp lại
some of those atomsnguyên tử with the computersmáy vi tính,
320
950560
3416
hay bạn sẽ thích sắp xếp lại
các nguyên tử bằng máy tính,
16:06
enablingcho phép virtualảo experienceskinh nghiệm?
321
954000
1715
có khả năng trải nghiệm thực tế ảo?
16:07
With friendlythân thiện AIAI, we could simplyđơn giản
buildxây dựng all of these societiesxã hội
322
955739
3157
Với AI thân thiện, chúng ta đơn giản
có thể xây dựng một xã hội như thế
16:10
and give people the freedomsự tự do
to choosechọn which one they want to livetrực tiếp in
323
958920
3216
và cho mọi người sự tự do
lựa chọn cuộc sống
16:14
because we would no longerlâu hơn
be limitedgiới hạn by our intelligenceSự thông minh,
324
962160
3096
vì chúng ta sẽ không còn bị
giới hạn bởi trí thông minh,
16:17
merelyđơn thuần by the lawspháp luật of physicsvật lý.
325
965280
1456
chỉ vì luật pháp
hay vật lý học.
16:18
So the resourcestài nguyên and spacekhông gian
for this would be astronomicalthiên văn --
326
966760
4616
Và nguồn nguyên liệu và không gian có thể
vô cùng to lớn.
16:23
literallynghĩa đen.
327
971400
1320
16:25
So here'sđây là our choicelựa chọn.
328
973320
1200
Và đó là lựa chọn
của chúng ta.
16:27
We can eitherhoặc be complacenttự mãn
about our futureTương lai,
329
975880
2320
Chúng ta có thể bằng lòng về tương lai,
16:31
takinglấy as an articlebài báo of blindmù quáng faithđức tin
330
979440
2656
và kiểm soát như một bài báo
với đức tin mù quáng
16:34
that any newMới technologyCông nghệ
is guaranteedđảm bảo to be beneficialmang lại lợi ích,
331
982120
4016
nói rằng công nghệ mới nào
cũng bảo đảm mang lại lợi ích,
16:38
and just repeatnói lại that to ourselveschúng ta
as a mantrathần chú over and over and over again
332
986160
4136
và chỉ là sự lặp lại của chính chúng ta.
16:42
as we drifttrôi dạt like a rudderlesskhông shiptàu
towardsvề hướng our ownsở hữu obsolescencelỗi thời.
333
990320
3680
khi ta buông trôi như con tàu mất lái
về sự lỗi thời của chính mình.
16:46
Or we can be ambitioustham vọng --
334
994920
1880
Hoặc ta có thể tham vọng về
suy nghĩ làm cách nào để kiểm soát
và điều hướng công nghệ
16:49
thinkingSuy nghĩ hardcứng about how
to steerchỉ đạo our technologyCông nghệ
335
997840
2456
16:52
and where we want to go with it
336
1000320
1936
và cùng công nghệ
tiến xa tới đâu
16:54
to createtạo nên the agetuổi tác of amazementkinh ngạc.
337
1002280
1760
để tạo ra thời kỳ đáng kinh ngạc.
16:57
We're all here to celebrateăn mừng
the agetuổi tác of amazementkinh ngạc,
338
1005000
2856
Tất cả chúng ta ở đây để ăn mừng nó,
16:59
and I feel that its essenceBản chất should lienói dối
in becomingtrở thành not overpoweredlật
339
1007880
4440
và tôi cảm thấy bản chất của nó nên
nằm ở việc không bị áp đảo
17:05
but empoweredđược trao quyền by our technologyCông nghệ.
340
1013240
2616
mà là sự trao quyền bằng công nghệ.
17:07
Thank you.
341
1015880
1376
Cảm ơn các bạn!
17:09
(ApplauseVỗ tay)
342
1017280
3080
(Vỗ tay)
Translated by Patrizia Le
Reviewed by Quynh Anh Ha

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com