ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Ta có thể xây dựng trí thông minh nhân tạo mà không làm mất kiểm soát chúng?

Filmed:
5,024,015 views

Lo sợ trước AI siêu thông minh? Theo nhà khoa học thần kinh và triết gia Sam Harris thì bạn nên làm thế - và không chỉ ở một số cách lí thuyết. Chúng ta sẽ xây dựng các máy siêu nhân, Harris nói, nhưng chúng ta chưa vật lộn với những vấn đề liên quan đến việc tạo ra một cái gì đó mà có thể đối xử với chúng ta theo cách chúng ta đối xử với con kiến.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurethất bại of intuitiontrực giác
0
1000
2216
Tôi chuẩn bị nói về
sự thất bại của trực giác
00:15
that manynhiều of us sufferđau khổ from.
1
3240
1600
mà nhiều người trong chúng ta
thường gặp phải.
00:17
It's really a failurethất bại
to detectphát hiện a certainchắc chắn kindloại of dangernguy hiểm.
2
5480
3040
Nó thật ra là sự thất bại trong việc
phát hiện một mối nguy hiểm nhất định.
00:21
I'm going to describemiêu tả a scenariokịch bản
3
9360
1736
Tôi sẽ mô tả một viễn cảnh
00:23
that I think is bothcả hai terrifyingđáng sợ
4
11120
3256
mà tôi nghĩ vừa kinh khủng
00:26
and likelycó khả năng to occurxảy ra,
5
14400
1760
vừa có thể sẽ xảy ra,
00:28
and that's not a good combinationsự phối hợp,
6
16840
1656
và đây không phải sự kết hợp tốt
00:30
as it turnslượt out.
7
18520
1536
khi nó xảy ra.
00:32
And yetchưa ratherhơn than be scaredsợ hãi,
mostphần lớn of you will feel
8
20080
2456
Thế nhưng thay vì sợ,
hầu hết các bạn sẽ cảm thấy
00:34
that what I'm talkingđang nói about
is kindloại of coolmát mẻ.
9
22560
2080
rằng điều tôi đang nói thật ra rất tuyệt
00:37
I'm going to describemiêu tả
how the gainslợi ích we make
10
25200
2976
Tôi sẽ mô tả cách mà
những thứ ta gặt hái được
00:40
in artificialnhân tạo intelligenceSự thông minh
11
28200
1776
từ trí thông minh nhân tạo (AI)
00:42
could ultimatelycuối cùng destroyhủy hoại us.
12
30000
1776
có thể hủy diệt chúng ta.
Thực ra, tôi nghĩ rất khó để xem làm sao
chúng có thể không tiêu diệt chúng ta
00:43
And in factthực tế, I think it's very difficultkhó khăn
to see how they won'tsẽ không destroyhủy hoại us
13
31800
3456
00:47
or inspiretruyền cảm hứng us to destroyhủy hoại ourselveschúng ta.
14
35280
1680
hoặc làm cho chúng ta tự hủy diệt mình.
00:49
And yetchưa if you're anything like me,
15
37400
1856
Nhưng nếu các bạn giống tôi,
00:51
you'llbạn sẽ find that it's funvui vẻ
to think about these things.
16
39280
2656
bạn sẽ thấy rằng nó rất vui
khi nghĩ về những điều này.
00:53
And that responsephản ứng is partphần of the problemvấn đề.
17
41960
3376
Và phản ứng đó là một phần của vấn đề.
00:57
OK? That responsephản ứng should worrylo you.
18
45360
1720
OK? Phản ứng đó sẽ làm bạn lo lắng.
Và nếu tôi thuyết phục được các bạn
trong buổi nói chuyện này
00:59
And if I were to convincethuyết phục you in this talk
19
47920
2656
01:02
that we were likelycó khả năng
to sufferđau khổ a globaltoàn cầu faminenạn đói,
20
50600
3416
rằng chúng ta có thể sẽ phải
hứng chịu một nạn đói toàn cầu,
01:06
eitherhoặc because of climatekhí hậu changethay đổi
or some other catastrophetai biến,
21
54040
3056
hoặc do biến đổi khí hậu hoặc
do một số thiên tai khác,
01:09
and that your grandchildrencháu,
or theirhọ grandchildrencháu,
22
57120
3416
và rằng cháu chắt của các bạn hay của họ,
01:12
are very likelycó khả năng to livetrực tiếp like this,
23
60560
1800
rất có thể sẽ phải sống như thế này,
01:15
you wouldn'tsẽ không think,
24
63200
1200
thì bạn sẽ không nghĩ,
01:17
"InterestingThú vị.
25
65440
1336
"Tuyệt vời.
01:18
I like this TEDTED Talk."
26
66800
1200
Tôi thích buổi nói chuyện này."
01:21
FamineNạn đói isn't funvui vẻ.
27
69200
1520
Nạn đói không vui vẻ gì đâu.
01:23
DeathCái chết by sciencekhoa học fictionviễn tưởng,
on the other handtay, is funvui vẻ,
28
71800
3376
Tuy nhiên cái chết do khoa học
viễn tưởng lại rất hài hước.
01:27
and one of the things that worrieslo lắng me mostphần lớn
about the developmentphát triển of AIAI at this pointđiểm
29
75200
3976
mà một trong số những thứ làm tôi
lo lắng nhất về việc phát triển AI
01:31
is that we seemhình như unablekhông thể to marshalnguyên soái
an appropriatethích hợp emotionalđa cảm responsephản ứng
30
79200
4096
là chúng ta dường như không thể sắp xếp
một phản ứng cảm xúc thích hợp nào
01:35
to the dangersnguy hiểm that lienói dối aheadphía trước.
31
83320
1816
cho những mối nguy hiểm trước mắt.
01:37
I am unablekhông thể to marshalnguyên soái this responsephản ứng,
and I'm givingtặng this talk.
32
85160
3200
Tôi không thể sắp xếp thứ phản ứng này,
nên tôi mới đưa ra buổi nói chuyện này.
01:42
It's as thoughTuy nhiên we standđứng before two doorscửa ra vào.
33
90120
2696
Nó như thể chúng ta
đứng trước hai cánh cửa.
01:44
BehindĐằng sau doorcửa numbercon số one,
34
92840
1256
Sau cánh cửa thứ nhất,
01:46
we stop makingchế tạo progresstiến độ
in buildingTòa nhà intelligentthông minh machinesmáy móc.
35
94120
3296
chúng ta ngưng quá trình xây dựng
các loại máy móc thông minh.
01:49
Our computermáy vi tính hardwarephần cứng and softwarephần mềm
just stopsdừng lại gettingnhận được better for some reasonlý do.
36
97440
4016
Phần cứng và phần mềm máy tính
không cải tiến tốt hơn nữa vì vài lí do.
01:53
Now take a momentchốc lát
to considerxem xét why this mightcó thể happenxảy ra.
37
101480
3000
Giờ hãy dành thời gian suy nghĩ
tại sao điều này có thể xảy ra.
01:57
I mean, givenđược how valuablequý giá
intelligenceSự thông minh and automationtự động hóa are,
38
105080
3656
Ý tôi là, dựa vào giá trị của
trí thông minh và sự tự động hóa,
02:00
we will continuetiếp tục to improvecải tiến our technologyCông nghệ
if we are at all ablecó thể to.
39
108760
3520
chúng ta vẫn sẽ tiếp tục cải tiến
công nghệ nếu ta hoàn toàn có thể.
Điều gì có thể khiến chúng ta
dừng làm việc này?
02:05
What could stop us from doing this?
40
113200
1667
02:07
A full-scalequy mô đầy đủ nuclearNguyên tử warchiến tranh?
41
115800
1800
Một cuộc chiến hạt nhân quy mô lớn?
02:11
A globaltoàn cầu pandemicđại dịch?
42
119000
1560
Một đại dịch toàn cầu?
02:14
An asteroidtiểu hành tinh impactva chạm?
43
122320
1320
Va chạm thiên thạch?
02:17
JustinJustin BieberBieber becomingtrở thành
presidentchủ tịch of the UnitedVương StatesTiểu bang?
44
125640
2576
Hay Justin Bieber trở thành tổng thống Mỹ?
02:20
(LaughterTiếng cười)
45
128240
2280
(Cười)
02:24
The pointđiểm is, something would have to
destroyhủy hoại civilizationnền văn minh as we know it.
46
132760
3920
Vấn đề là, thứ gì đó sẽ phải hủy diệt
nền văn minh như chúng ta đã biết.
Bạn phải tưởng tượng nó
sẽ phải tồi tệ như thế nào
02:29
You have to imaginetưởng tượng
how badxấu it would have to be
47
137360
4296
02:33
to preventngăn chặn us from makingchế tạo
improvementscải tiến in our technologyCông nghệ
48
141680
3336
để ngăn chúng ta tiếp tục
cải tiến công nghệ
02:37
permanentlyvĩnh viễn,
49
145040
1216
vĩnh viễn,
02:38
generationthế hệ after generationthế hệ.
50
146280
2016
thế hệ này qua thế hệ khác.
Gần như theo định nghĩa,
đây là thứ tồi tệ nhất
02:40
AlmostGần by definitionĐịnh nghĩa,
this is the worsttệ nhất thing
51
148320
2136
02:42
that's ever happenedđã xảy ra in humanNhân loại historylịch sử.
52
150480
2016
xảy ra trong lịch sử nhân loại.
02:44
So the only alternativethay thế,
53
152520
1296
Vậy nên lựa chọn duy nhất,
02:45
and this is what liesdối trá
behindphía sau doorcửa numbercon số two,
54
153840
2336
và nó nằm sau cánh cửa số hai,
02:48
is that we continuetiếp tục
to improvecải tiến our intelligentthông minh machinesmáy móc
55
156200
3136
đó là chúng ta tiếp tục cải tiến
các máy móc thông minh
02:51
yearnăm after yearnăm after yearnăm.
56
159360
1600
năm này qua năm khác.
Tới một thời điểm nhất định, chúng ta sẽ
tạo ra những cỗ máy thông minh hơn mình,
02:53
At a certainchắc chắn pointđiểm, we will buildxây dựng
machinesmáy móc that are smarterthông minh hơn than we are,
57
161720
3640
và một khi chúng ta sở hữu
các cỗ máy thông minh hơn mình,
02:58
and onceMột lần we have machinesmáy móc
that are smarterthông minh hơn than we are,
58
166080
2616
03:00
they will beginbắt đầu to improvecải tiến themselvesbản thân họ.
59
168720
1976
chúng sẽ bắt đầu tự cải tiến.
Sau đó, chúng ta mạo hiểm với thứ
mà nhà toán học Ij Good gọi là
03:02
And then we riskrủi ro what
the mathematiciannhà toán học IJIJ Good calledgọi là
60
170720
2736
03:05
an "intelligenceSự thông minh explosionปัก แทน เลือก ปัก,"
61
173480
1776
sự "bùng nổ trí tuệ"
03:07
that the processquá trình could get away from us.
62
175280
2000
và quá trình đó có thể sẽ
tiến xa ra khỏi chúng ta.
03:10
Now, this is oftenthường xuyên caricaturedcaricatured,
as I have here,
63
178120
2816
Và giờ, điều này thường hay bị biếm họa,
như tôi có ở đây,
03:12
as a fearnỗi sợ that armiesquân đội of maliciousđộc hại robotsrobot
64
180960
3216
nỗi sợ trước một đội quân robot độc ác
03:16
will attacktấn công us.
65
184200
1256
sẽ tấn công chúng ta.
03:17
But that isn't the mostphần lớn likelycó khả năng scenariokịch bản.
66
185480
2696
Nhưng đó chưa phải là viễn cảnh
dễ xảy ra nhất.
03:20
It's not that our machinesmáy móc
will becometrở nên spontaneouslymột cách tự nhiên malevolenthiểm độc.
67
188200
4856
Không phải những cỗ máy của chúng ta
tự nhiên trở nên ác độc
03:25
The concernmối quan ngại is really
that we will buildxây dựng machinesmáy móc
68
193080
2616
Mối lo thật sự là khi
chúng ta tạo ra những cỗ máy
03:27
that are so much
more competentcó thẩm quyền than we are
69
195720
2056
tài giỏi hơn chúng ta quá nhiều
03:29
that the slightestnhỏ nhất divergencephân kỳ
betweengiữa theirhọ goalsnhững mục tiêu and our ownsở hữu
70
197800
3776
để rồi, dù chỉ một khác biệt nhỏ nhất
giữa mục tiêu của chúng và ta thôi
03:33
could destroyhủy hoại us.
71
201600
1200
cũng có thể hủy diệt chúng ta.
03:35
Just think about how we relateliên hệ to antskiến.
72
203960
2080
Hãy nghĩ đến mối quan hệ
giữa chúng ta loài kiến.
03:38
We don't hateghét bỏ them.
73
206600
1656
Chúng ta không ghét chúng.
03:40
We don't go out of our way to harmlàm hại them.
74
208280
2056
Chúng ta không cố tình làm hại chúng.
Thực tế đôi khi chúng ta cố gắng
không làm hại chúng.
03:42
In factthực tế, sometimesđôi khi
we take painsđau not to harmlàm hại them.
75
210360
2376
03:44
We stepbậc thang over them on the sidewalkđường đi bộ.
76
212760
2016
Chúng ta bước qua chúng trên vỉa hè.
03:46
But wheneverbất cứ khi nào theirhọ presencesự hiện diện
77
214800
2136
Nhưng mỗi khi sự xuất hiện của chúng
xung đột cực kì với một
trong các mục đích của chúng ta,
03:48
seriouslynghiêm túc conflictsmâu thuẫn with one of our goalsnhững mục tiêu,
78
216960
2496
03:51
let's say when constructingxây dựng
a buildingTòa nhà like this one,
79
219480
2477
Ví dụ như khi xây dựng
một tòa nhà như thế này,
03:53
we annihilatetiêu diệt them withoutkhông có a qualmqualm.
80
221981
1960
chúng ta tiêu diệt chúng không lo lắng.
03:56
The concernmối quan ngại is that we will
one day buildxây dựng machinesmáy móc
81
224480
2936
Có nghĩa là một ngày nào đó
khi chúng ta tạo ra các cỗ máy
03:59
that, whetherliệu they're consciouscó ý thức or not,
82
227440
2736
cho dù chúng có ý thức hay không,
04:02
could treatđãi us with similargiống disregardbỏ qua.
83
230200
2000
cũng sẽ đối xử với chúng ta
theo sự bất chấp tương tự như thế.
04:05
Now, I suspectnghi ngờ this seemsdường như
far-fetchedxa vời to manynhiều of you.
84
233760
2760
Bây giờ, tôi nghi ngờ rằng điều này có vẻ
quá xa với nhiều người
04:09
I betcá cược there are those of you who doubtnghi ngờ
that superintelligentsuperintelligent AIAI is possiblekhả thi,
85
237360
6336
Tôi cá là có một số người đang nghi ngờ
rằng AI siêu thông minh có thể xảy ra,
04:15
much lessít hơn inevitablechắc chắn xảy ra.
86
243720
1656
ít nhiều không thể tránh khỏi.
04:17
But then you mustphải find something wrongsai rồi
with one of the followingtiếp theo assumptionsgiả định.
87
245400
3620
Nhưng sau đó bạn phải tìm ra điều sai
với một trong các giả định sau.
04:21
And there are only threesố ba of them.
88
249044
1572
Và chỉ có 3 giả định.
04:23
IntelligenceTình báo is a mattervấn đề of informationthông tin
processingChế biến in physicalvật lý systemshệ thống.
89
251800
4719
Trí thông minh là một vấn đề của quá trình
xử lí thông tin trong các hệ thống vật lí.
Thực ra, điều này hơn một chút
so với giả định.
04:29
ActuallyTrên thực tế, this is a little bitbit more
than an assumptiongiả thiết.
90
257320
2615
04:31
We have alreadyđã builtđược xây dựng
narrowhẹp intelligenceSự thông minh into our machinesmáy móc,
91
259959
3457
Chúng ta đã tạo ra trí thông minh hạn hẹp
trong các cỗ máy của mình rồi,
04:35
and manynhiều of these machinesmáy móc performbiểu diễn
92
263440
2016
Và rất nhiều máy móc cũng đã hoạt động
04:37
at a levelcấp độ of superhumansiêu nhân
intelligenceSự thông minh alreadyđã.
93
265480
2640
ở mức độ của trí thông minh siêu việt rồi.
04:40
And we know that merechỉ là mattervấn đề
94
268840
2576
Và chúng ta biết rằng chỉ có vật chất
mới có thể tạo cơ hội cho
"trí thông minh không giới hạn,"
04:43
can give risetăng lên to what is calledgọi là
"generalchung intelligenceSự thông minh,"
95
271440
2616
04:46
an abilitycó khả năng to think flexiblylinh hoạt
acrossbăng qua multiplenhiều domainstên miền,
96
274080
3656
một khả năng suy nghĩ linh hoạt
trên nhiều lĩnh vực,
04:49
because our brainsnão have managedquản lý it. Right?
97
277760
3136
bởi vì bộ não chúng ta quản lí nó.
Đúng chứ?
04:52
I mean, there's just atomsnguyên tử in here,
98
280920
3936
Ý tôi là, chỉ có các hạt nhân trong đây,
04:56
and as long as we continuetiếp tục
to buildxây dựng systemshệ thống of atomsnguyên tử
99
284880
4496
và miễn là chúng ta tiếp tục xây dựng
hệ thống các nguyên tử
05:01
that displaytrưng bày more and more
intelligentthông minh behaviorhành vi,
100
289400
2696
để biểu lộ những hành động
thông minh nhiều hơn nữa,
05:04
we will eventuallycuối cùng,
unlesstrừ khi we are interruptedgián đoạn,
101
292120
2536
cuối cùng chúng ta sẽ,
trừ khi chúng ta bị gián đoạn,
05:06
we will eventuallycuối cùng
buildxây dựng generalchung intelligenceSự thông minh
102
294680
3376
cuối cùng chúng ta sẽ xây dựng được
trí tuệ không giới hạn
05:10
into our machinesmáy móc.
103
298080
1296
cho máy móc của mình.
05:11
It's crucialquan trọng to realizenhận ra
that the ratetỷ lệ of progresstiến độ doesn't mattervấn đề,
104
299400
3656
Cần phải nhận ra rằng
tiến độ không quan trọng.
bởi vì bất kì quá trình nào cũng đủ
để đưa chúng ta vào khu vực kết thúc.
05:15
because any progresstiến độ
is enoughđủ to get us into the endkết thúc zonevùng.
105
303080
3176
Ta không cần định luật Moore để tiếp tục.
Ta không cần phát triển theo cấp số nhân.
05:18
We don't need Moore'sMoore lawpháp luật to continuetiếp tục.
We don't need exponentialsố mũ progresstiến độ.
106
306280
3776
05:22
We just need to keep going.
107
310080
1600
Chúng ta chỉ cần tiếp tục bước đi.
05:25
The secondthứ hai assumptiongiả thiết
is that we will keep going.
108
313480
2920
Giả định thứ hai là
chúng ta sẽ tiếp tục đi.
05:29
We will continuetiếp tục to improvecải tiến
our intelligentthông minh machinesmáy móc.
109
317000
2760
Chúng ta tiếp tục cải tiến
những cỗ máy thông minh của mình.
05:33
And givenđược the valuegiá trị of intelligenceSự thông minh --
110
321000
4376
Và dựa vào giá trị của trí thông minh --
Ý tôi là, trí thông minh hoặc là nguồn gốc
của tất cả mọi thứ chúng ta đánh giá
05:37
I mean, intelligenceSự thông minh is eitherhoặc
the sourcenguồn of everything we valuegiá trị
111
325400
3536
hoặc chúng ta cần nó để bảo vệ
tất cả mọi thứ chúng ta coi trọng.
05:40
or we need it to safeguardbảo vệ
everything we valuegiá trị.
112
328960
2776
05:43
It is our mostphần lớn valuablequý giá resourcetài nguyên.
113
331760
2256
Nó là tài nguyên quý giá nhất
của chúng ta.
Vì thế chúng ta muốn làm điều này.
05:46
So we want to do this.
114
334040
1536
05:47
We have problemscác vấn đề
that we desperatelytuyệt vọng need to solvegiải quyết.
115
335600
3336
Chúng ta có những vần đề nhất định
phải liều mạng giải quyết.
05:50
We want to curechữa khỏi diseasesbệnh tật
like Alzheimer'sAlzheimer and cancerung thư.
116
338960
3200
Chúng ta muốn chữa khỏi các căn bệnh
như Alzheimer hay ung thư.
05:54
We want to understandhiểu không economicthuộc kinh tế systemshệ thống.
We want to improvecải tiến our climatekhí hậu sciencekhoa học.
117
342960
3936
Chúng ta muốn nắm vững hệ thống kinh tế.
Chúng ta muốn cải thiện khoa học khí hậu.
05:58
So we will do this, if we can.
118
346920
2256
Cho nên chúng ta sẽ làm nó nếu có thể.
06:01
The trainxe lửa is alreadyđã out of the stationga tàu,
and there's no brakephanh to pullkéo.
119
349200
3286
Tàu đã rời khỏi trạm,
và không thể kéo phanh nữa.
06:05
FinallyCuối cùng, we don't standđứng
on a peakcao điểm of intelligenceSự thông minh,
120
353880
5456
Và điều cuối: chúng ta không đứng trên
đỉnh cao của trí thông minh,
06:11
or anywhereở đâu nearở gần it, likelycó khả năng.
121
359360
1800
hay có thể là chỗ nào đó gần nó.
Và điều này thực sự là
cái nhìn sâu sắc quan trọng.
06:13
And this really is the crucialquan trọng insightcái nhìn sâu sắc.
122
361640
1896
06:15
This is what makeslàm cho
our situationtình hình so precariousbấp bênh,
123
363560
2416
Đây là thứ làm tình trạng của
chúng ta bất ổn,
06:18
and this is what makeslàm cho our intuitionstrực giác
about riskrủi ro so unreliablekhông đáng tin cậy.
124
366000
4040
và nó cũng làm trực giác của chúng ta
về rủi ro trở nên không đáng tin.
06:23
Now, just considerxem xét the smartestthông minh nhất personngười
who has ever livedđã sống.
125
371120
2720
Bây giờ hãy xem xét một người
thông minh nhất trên đời.
06:26
On almosthầu hết everyone'smọi người shortlistdanh sách ngắn here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Hầu như trong danh sách của các bạn
đều sẽ có tên John von Neumann.
06:30
I mean, the impressionấn tượng that vonvon NeumannNeumann
madethực hiện on the people around him,
127
378080
3336
Ý tôi là, ấn tượng mà von Neumann tạo ra
đối với mọi người xung quanh,
06:33
and this includedbao gồm the greatestvĩ đại nhất
mathematiciansnhà toán học and physicistsnhà vật lý of his time,
128
381440
4056
và nó cũng bao gồm những nhà toán học
và vật lí vĩ đại ở thời của ông ta,
06:37
is fairlycông bằng well-documentedCác tài liệu.
129
385520
1936
được lưu truyền khá tốt.
06:39
If only halfmột nửa the storiesnhững câu chuyện
about him are halfmột nửa truethật,
130
387480
3776
Nếu một nửa câu chuyện về ông
chỉ đúng 50%,
06:43
there's no questioncâu hỏi
131
391280
1216
không cần bàn cãi
06:44
he's one of the smartestthông minh nhất people
who has ever livedđã sống.
132
392520
2456
ông là người thông minh nhất
từng sống trên đời.
06:47
So considerxem xét the spectrumquang phổ of intelligenceSự thông minh.
133
395000
2520
Vậy hãy xét về chuỗi phân bố
của trí thông minh.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Ở đây là John von Neumann.
06:53
And then we have you and me.
135
401560
1334
Tiếp theo là các bạn và tôi.
06:56
And then we have a chicken.
136
404120
1296
Và tiếp là con gà.
06:57
(LaughterTiếng cười)
137
405440
1936
(Cười)
06:59
Sorry, a chicken.
138
407400
1216
Xin lỗi, một con gà.
07:00
(LaughterTiếng cười)
139
408640
1256
(Cười)
07:01
There's no reasonlý do for me to make this talk
more depressingbuồn than it needsnhu cầu to be.
140
409920
3736
Không lí do gì tôi phải làm buổi
nói chuyện này tệ hại hơn cần thiết.
07:05
(LaughterTiếng cười)
141
413680
1600
(Cười)
07:08
It seemsdường như overwhelminglyáp đảo likelycó khả năng, howeverTuy nhiên,
that the spectrumquang phổ of intelligenceSự thông minh
142
416339
3477
Tuy nhiên, có vẻ có khả năng rất lớn là
chuỗi phân bố trí thông minh
07:11
extendskéo dài much furtherthêm nữa
than we currentlyhiện tại conceivethụ thai,
143
419840
3120
mở rộng ra xa hơn nhiều so với
những gì chúng ta tưởng tượng,
và nếu chúng ta tạo ra
những cỗ máy thông minh hơn mình,
07:15
and if we buildxây dựng machinesmáy móc
that are more intelligentthông minh than we are,
144
423880
3216
07:19
they will very likelycó khả năng
explorekhám phá this spectrumquang phổ
145
427120
2296
chúng có thể sẽ khai phá dải phân bố này
07:21
in wayscách that we can't imaginetưởng tượng,
146
429440
1856
theo cách ta không thể tưởng tượng,
07:23
and exceedvượt quá us in wayscách
that we can't imaginetưởng tượng.
147
431320
2520
và vượt xa chúng ta theo cách
ta không thể tưởng tượng.
07:27
And it's importantquan trọng to recognizenhìn nhận that
this is truethật by virtueĐức hạnh of speedtốc độ alonemột mình.
148
435000
4336
Và quan trọng là nhận ra rằng điều này
đúng với tính hấp dẫn của sự mau lẹ.
07:31
Right? So imaginetưởng tượng if we just builtđược xây dựng
a superintelligentsuperintelligent AIAI
149
439360
5056
Đúng chứ? Hãy cứ tưởng tượng nếu ta
tạo ra một AI siêu thông minh
07:36
that was no smarterthông minh hơn
than your averageTrung bình cộng teamđội of researchersCác nhà nghiên cứu
150
444440
3456
mà không tài giỏi hơn
nhóm các nhà nghiên cứu trung bình
07:39
at StanfordStanford or MITMIT.
151
447920
2296
ở Stanford hay MIT.
07:42
Well, electronicđiện tử circuitsmạch
functionchức năng about a milliontriệu timeslần fasternhanh hơn
152
450240
2976
Vâng, các mạch điện tử hoạt động
nhanh hơn khoảng một triệu lần
07:45
than biochemicalsinh hóa onesnhững người,
153
453240
1256
so với các mạch sinh hóa,
07:46
so this machinemáy móc should think
about a milliontriệu timeslần fasternhanh hơn
154
454520
3136
nên cỗ máy này có thể suy nghĩ
nhanh hơn khoảng một triệu lần
07:49
than the mindstâm trí that builtđược xây dựng it.
155
457680
1816
so với trí não đã tạo ra nó.
07:51
So you setbộ it runningđang chạy for a weektuần,
156
459520
1656
Rồi bạn cài đặt nó chạy một tuần,
07:53
and it will performbiểu diễn 20,000 yearsnăm
of human-levelmức độ của con người intellectualtrí tuệ work,
157
461200
4560
và nó sẽ thực hiện 20.000 năm làm việc
ở trình độ trí tuệ của con người,
07:58
weektuần after weektuần after weektuần.
158
466400
1960
tuần này qua tuần khác.
08:01
How could we even understandhiểu không,
much lessít hơn constrainhạn chế,
159
469640
3096
Thậm chí làm sao ta hiểu được,
dù ít nhiều hạn chế,
08:04
a mindlí trí makingchế tạo this sortsắp xếp of progresstiến độ?
160
472760
2280
một bộ óc thực hiện
kiểu quá trình như vậy?
08:08
The other thing that's worryinglo lắng, franklythẳng thắn,
161
476840
2136
Một điều khác thật sự đáng lo lắng,
08:11
is that, imaginetưởng tượng the besttốt casetrường hợp scenariokịch bản.
162
479000
4976
đó là, tưởng tượng ra
một viễn cảnh tốt nhất.
08:16
So imaginetưởng tượng we hitđánh upontrên a designthiết kế
of superintelligentsuperintelligent AIAI
163
484000
4176
Nào hãy tưởng tượng chúng ta tìm ra
một thiết kế cho AI siêu thông minh
mà không có các vấn đề an toàn.
08:20
that has no safetyan toàn concernslo ngại.
164
488200
1376
08:21
We have the perfecthoàn hảo designthiết kế
the first time around.
165
489600
3256
Lần đầu tiên chúng ta có được
một bản thiết kế hoàn hảo.
08:24
It's as thoughTuy nhiên we'vechúng tôi đã been handedbàn giao an oracleoracle
166
492880
2216
Nó như thể chúng ta nhận được
một lời tiên tri
08:27
that behavesứng xử exactlychính xác as intendeddự định.
167
495120
2016
xảy ra chính xác như trong dự định.
08:29
Well, this machinemáy móc would be
the perfecthoàn hảo labor-savingtiết kiệm lao động devicethiết bị.
168
497160
3720
Vâng, cỗ máy này sẽ là một thiết bị
tuyệt vời giúp tiết kiệm nhân lực.
Nó có thể thiết kế một cỗ máy
có khả năng tạo ra cỗ máy khác
08:33
It can designthiết kế the machinemáy móc
that can buildxây dựng the machinemáy móc
169
501680
2429
08:36
that can do any physicalvật lý work,
170
504133
1763
thực hiện các công việc thể chất,
08:37
poweredđược cung cấp by sunlightánh sáng mặt trời,
171
505920
1456
chạy bằng ánh sáng mặt trời,
08:39
more or lessít hơn for the costGiá cả
of rawthô materialsnguyên vật liệu.
172
507400
2696
nhiều hơn hoặc ít hơn cho
các chi phí nguyên liệu.
08:42
So we're talkingđang nói about
the endkết thúc of humanNhân loại drudgerydrudgery.
173
510120
3256
Vậy chúng ta đang nói tới sự kết thúc
cho nỗi cực nhọc của con người.
08:45
We're alsocũng thế talkingđang nói about the endkết thúc
of mostphần lớn intellectualtrí tuệ work.
174
513400
2800
Chúng ta cũng nói về sự chấm dứt
cho các công việc trí óc.
Vậy loài khỉ giống chúng ta sẽ làm gì
trong tình huống này?
08:49
So what would apeskhỉ like ourselveschúng ta
do in this circumstancehoàn cảnh?
175
517200
3056
08:52
Well, we'dThứ Tư be freemiễn phí to playchơi FrisbeeDĩa nhựa
and give eachmỗi other massagesMát-xa.
176
520280
4080
Vâng, chúng ta được tự do chơi Frisbee
và nhắn tin với từng người.
08:57
AddThêm some LSDLSD and some
questionablenghi vấn wardrobetủ quần áo choicessự lựa chọn,
177
525840
2856
Thêm vài LSD và vài lựa chọn cho
bộ quần áo đáng ngờ,
09:00
and the wholetoàn thể worldthế giới
could be like BurningĐốt cháy Man.
178
528720
2176
và cả thế giới sẽ như ở Burning Man.
09:02
(LaughterTiếng cười)
179
530920
1640
(Cười)
09:06
Now, that mightcó thể soundâm thanh prettyđẹp good,
180
534320
2000
Bây giờ, điều đó có lẽ nghe rất tốt,
09:09
but askhỏi yourselfbản thân bạn what would happenxảy ra
181
537280
2376
nhưng thử hỏi bản thân xem
điều gì sẽ xảy ra
09:11
underDưới our currenthiện hành economicthuộc kinh tế
and politicalchính trị ordergọi món?
182
539680
2736
dưới trật tự kinh tế và chính trị
của chúng ta bây giờ?
09:14
It seemsdường như likelycó khả năng that we would witnessnhân chứng
183
542440
2416
Có vẻ là chúng ta sẽ chứng kiến
09:16
a levelcấp độ of wealthsự giàu có inequalitybất bình đẳng
and unemploymenttỷ lệ thất nghiệp
184
544880
4136
một mức độ phân biệt giàu nghèo
và nạn thất nghiệp
chưa từng thấy trước đây.
09:21
that we have never seenđã xem before.
185
549040
1496
09:22
AbsentVắng mặt a willingnesssẵn sàng
to immediatelyngay put this newMới wealthsự giàu có
186
550560
2616
Sự thiếu tự nguyện trong việc lập tức
đưa sự giàu có mới này
09:25
to the servicedịch vụ of all humanitynhân loại,
187
553200
1480
vào phục vụ cho toàn nhân loại,
09:27
a fewvài trillionairesTrillionaires could graceân huệ
the coversbao gồm of our businesskinh doanh magazinestạp chí
188
555640
3616
một vài "tỷ tỷ phú" đươc vinh danh
trên trang bìa của các tờ tạp chí kinh tế
09:31
while the restnghỉ ngơi of the worldthế giới
would be freemiễn phí to starvechết đói.
189
559280
2440
trong khi phần còn lại của thế giới
thì chịu cảnh chết đói
Người Nga và Trung Quốc sẽ làm gì
09:34
And what would the RussiansNgười Nga
or the ChineseTrung Quốc do
190
562320
2296
khi họ nghe được tin một số công ty
trong Thung lũng Silicon
09:36
if they heardnghe that some companyCông ty
in SiliconSilicon ValleyThung lũng
191
564640
2616
09:39
was about to deploytriển khai a superintelligentsuperintelligent AIAI?
192
567280
2736
chuẩn bị triển khai
một AI siêu thông minh?
09:42
This machinemáy móc would be capablecó khả năng
of wagingtiến hành warchiến tranh,
193
570040
2856
Cỗ máy này có khả năng sẽ
tiến hành chiến tranh
09:44
whetherliệu terrestrialtrên mặt đất or cyberCyber,
194
572920
2216
dù cho trên mặt đất hay trên mạng,
09:47
with unprecedentedchưa từng có powerquyền lực.
195
575160
1680
với sức mạnh chưa từng có.
09:50
This is a winner-take-allngười chiến thắng-mất-tất cả scenariokịch bản.
196
578120
1856
Đây là viễn cảnh "thắng làm vua".
09:52
To be sixsáu monthstháng aheadphía trước
of the competitioncuộc thi here
197
580000
3136
Dẫn trước sáu tháng trong cuộc đua này
09:55
is to be 500,000 yearsnăm aheadphía trước,
198
583160
2776
tương đương với
bị dẫn trước 500.000 năm,
09:57
at a minimumtối thiểu.
199
585960
1496
ít nhất là vậy.
09:59
So it seemsdường như that even merechỉ là rumorstin đồn
of this kindloại of breakthroughđột phá
200
587480
4736
Vì vậy, thậm chí nó có vẻ chỉ là
những tin đồn cho kiểu đột phá như thế
10:04
could causenguyên nhân our speciesloài to go berserkBerserk.
201
592240
2376
nhưng cũng đủ khiến loài người cáu tiết.
10:06
Now, one of the mostphần lớn frighteningkhủng khiếp things,
202
594640
2896
Và giờ, một trong những điều đáng sợ nhất,
10:09
in my viewlượt xem, at this momentchốc lát,
203
597560
2776
theo tôi nghĩ ngay tại thời điểm này,
10:12
are the kindscác loại of things
that AIAI researchersCác nhà nghiên cứu say
204
600360
4296
chính là những thứ mà
các nhà nghiên cứu về AI nói
10:16
when they want to be reassuringyên tâm.
205
604680
1560
khi họ muốn được yên tâm.
Và thời gian là lí do thường nhất cho việc
chúng ta không cần phải lo lắng.
10:19
And the mostphần lớn commonchung reasonlý do
we're told not to worrylo is time.
206
607000
3456
Các bạn biết không,
đây là một con đường dài.
10:22
This is all a long way off,
don't you know.
207
610480
2056
10:24
This is probablycó lẽ 50 or 100 yearsnăm away.
208
612560
2440
Có thể là 50 hay 100 năm nữa.
10:27
One researchernhà nghiên cứu has said,
209
615720
1256
Một nhà nghiên cứu đã nói,
10:29
"WorryingĐáng lo ngại about AIAI safetyan toàn
210
617000
1576
"lo lắng về độ an toàn của AI
10:30
is like worryinglo lắng
about overpopulationsự quá tải on MarsSao Hỏa."
211
618600
2280
cũng như lo lắng về
bùng nổ dân số trên sao Hỏa."
Đây là phiên bản của Thung lũng Silicon
10:34
This is the SiliconSilicon ValleyThung lũng versionphiên bản
212
622116
1620
về việc "đừng làm cái đầu nhỏ
của bạn lo lắng về nó."
10:35
of "don't worrylo your
prettyđẹp little headcái đầu about it."
213
623760
2376
10:38
(LaughterTiếng cười)
214
626160
1336
(Cười)
10:39
No one seemsdường như to noticeđể ý
215
627520
1896
Có vẻ chả ai chú ý
10:41
that referencingtham khảo the time horizonđường chân trời
216
629440
2616
rằng xem xét trên phạm vi thời gian
10:44
is a totaltoàn bộ nonPhòng Không sequiturSequitur.
217
632080
2576
là hoàn toàn vô căn cứ.
10:46
If intelligenceSự thông minh is just a mattervấn đề
of informationthông tin processingChế biến,
218
634680
3256
Nếu trí thông minh chỉ là một vấn đề
về xử lí thông tin,
10:49
and we continuetiếp tục to improvecải tiến our machinesmáy móc,
219
637960
2656
và chúng ta tiếp tục cải tiến các cỗ máy,
10:52
we will producesản xuất
some formhình thức of superintelligencesuperintelligence.
220
640640
2880
chúng ta sẽ tạo ra được
vài dạng của siêu trí tuệ.
10:56
And we have no ideaý kiến
how long it will take us
221
644320
3656
Và chúng ta không biết
sẽ tốn bao nhiêu thời gian
11:00
to createtạo nên the conditionsđiều kiện
to do that safelymột cách an toàn.
222
648000
2400
để tạo ra những điều kiện
thực hiện việc này một cách an toàn.
11:04
Let me say that again.
223
652200
1296
Tôi xin nhắc lại.
11:05
We have no ideaý kiến how long it will take us
224
653520
3816
Chúng ta không biết
sẽ tốn bao nhiêu thời gian
11:09
to createtạo nên the conditionsđiều kiện
to do that safelymột cách an toàn.
225
657360
2240
để tạo ra những điều kiện
thực hiện việc này một cách an toàn.
11:12
And if you haven'tđã không noticednhận thấy,
50 yearsnăm is not what it used to be.
226
660920
3456
Và nếu bạn chưa nhận ra,
50 năm không còn như xưa
11:16
This is 50 yearsnăm in monthstháng.
227
664400
2456
Đây là 50 năm tính theo nhiều tháng.
11:18
This is how long we'vechúng tôi đã had the iPhoneiPhone.
228
666880
1840
Đây là thời gian chúng ta tạo ra iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontivi.
229
669440
2600
Đây là thời gian "Gia đình Simpson"
được chiếu trên TV.
11:24
FiftyNăm mươi yearsnăm is not that much time
230
672680
2376
50 năm không quá nhiều
11:27
to meetgặp one of the greatestvĩ đại nhất challengesthách thức
our speciesloài will ever faceđối mặt.
231
675080
3160
để thực hiện một trong số những thử thách
lớn nhất mà loài người từng đối mặt.
11:31
OnceMột lần again, we seemhình như to be failingthất bại
to have an appropriatethích hợp emotionalđa cảm responsephản ứng
232
679640
4016
Một lần nữa, chúng ta có vẻ không thế
đưa ra một phản ứng cảm xúc phù hợp
11:35
to what we have everymỗi reasonlý do
to believe is comingđang đến.
233
683680
2696
cho thứ mà chúng ta có đủ lí do
để tin rằng nó sẽ xảy ra.
11:38
The computermáy vi tính scientistnhà khoa học StuartStuart RussellRussell
has a nicetốt đẹp analogysự giống nhau here.
234
686400
3976
Nhà khoa học máy tính Stuart Russell
có một phép loại suy rất hay ở đây.
11:42
He said, imaginetưởng tượng that we receivednhận
a messagethông điệp from an alienngười ngoài hành tinh civilizationnền văn minh,
235
690400
4896
Ông nói, tưởng tượng chúng ta nhận được
tin nhắn từ nền văn minh ngoài hành tinh,
11:47
which readđọc:
236
695320
1696
ghi rằng:
11:49
"People of EarthTrái đất,
237
697040
1536
"Loài người trên Trái Đất,
11:50
we will arriveđến nơi on your planethành tinh in 50 yearsnăm.
238
698600
2360
Chúng ta sẽ đáp xuống
hành tinh các người trong 50 năm nữa.
11:53
Get readysẳn sàng."
239
701800
1576
Chuẩn bị đi."
11:55
And now we're just countingđếm down
the monthstháng untilcho đến the mothershipmẹ landsvùng đất?
240
703400
4256
Và giờ chúng ta chỉ đếm ngược từng tháng
đến khi phi thuyền mẹ đáp xuống?
11:59
We would feel a little
more urgencykhẩn cấp than we do.
241
707680
3000
Chúng ta sẽ cảm thấy nhiều cấp bách hơn.
Một lí do khác bảo
chúng ta không nên lo lắng
12:04
AnotherKhác reasonlý do we're told not to worrylo
242
712680
1856
là các cỗ máy này không làm gì khác
ngoài chia sẻ giá trị với chúng ta
12:06
is that these machinesmáy móc
can't help but sharechia sẻ our valuesgiá trị
243
714560
3016
bởi vì chúng thật sự sẽ là
những phần mở rộng của chúng ta.
12:09
because they will be literallynghĩa đen
extensionsTiện ích mở rộng of ourselveschúng ta.
244
717600
2616
12:12
They'llHọ sẽ be graftedghép ontotrên our brainsnão,
245
720240
1816
Chúng sẽ được cấy vào não chúng ta,
12:14
and we'lltốt essentiallybản chất
becometrở nên theirhọ limbiclimbic systemshệ thống.
246
722080
2360
và chúng ta về cơ bản trở thành
hệ thống cảm xúc của chúng.
12:17
Now take a momentchốc lát to considerxem xét
247
725120
1416
Giờ hãy xem xét
12:18
that the safestan toàn nhất
and only prudentthận trọng pathcon đường forwardphía trước,
248
726560
3176
rằng con đường an toàn và
đầy thận trọng duy nhất phía trước,
12:21
recommendedkhuyến cáo,
249
729760
1336
được đề xuất,
12:23
is to implantcấy ghép this technologyCông nghệ
directlytrực tiếp into our brainsnão.
250
731120
2800
chính là cấy trực tiếp công nghệ này
vào não chúng ta.
12:26
Now, this mayTháng Năm in factthực tế be the safestan toàn nhất
and only prudentthận trọng pathcon đường forwardphía trước,
251
734600
3376
Hiện giờ nó có lẽ thật sự là con đường
an toàn, thận trọng duy nhất,
12:30
but usuallythông thường one'scủa một người safetyan toàn concernslo ngại
about a technologyCông nghệ
252
738000
3056
nhưng thường thì mối lo lắng an toàn
của một người về công nghệ
12:33
have to be prettyđẹp much workedđã làm việc out
before you stickgậy it insidephía trong your headcái đầu.
253
741080
3656
phải được tính toán khá kĩ càng
trước khi bạn đính nó vào đầu mình.
12:36
(LaughterTiếng cười)
254
744760
2016
(Cười)
12:38
The deepersâu sắc hơn problemvấn đề is that
buildingTòa nhà superintelligentsuperintelligent AIAI on its ownsở hữu
255
746800
5336
Vấn đề sâu hơn là xây dựng
một AI siêu thông minh riêng lẻ
12:44
seemsdường như likelycó khả năng to be easierdễ dàng hơn
256
752160
1736
có vẻ dễ dàng hơn
12:45
than buildingTòa nhà superintelligentsuperintelligent AIAI
257
753920
1856
là tạo ra một AI siêu thông minh
và có được ngành
khoa học thần kinh hoàn chỉnh
12:47
and havingđang có the completedhoàn thành neurosciencethần kinh học
258
755800
1776
12:49
that allowscho phép us to seamlesslyliên tục
integratetích hợp our mindstâm trí with it.
259
757600
2680
mà cho phép chúng ta chúng ta
tích hợp trí óc của mình và nó.
12:52
And givenđược that the companiescác công ty
and governmentscác chính phủ doing this work
260
760800
3176
Và giả sử các công ty và
các chính phủ làm việc này
12:56
are likelycó khả năng to perceivecảm nhận themselvesbản thân họ
as beingđang in a racecuộc đua againstchống lại all othersKhác,
261
764000
3656
có thể sẽ nhận ra bản thân đang trong
cuộc đua chống lại loài người,
12:59
givenđược that to winthắng lợi this racecuộc đua
is to winthắng lợi the worldthế giới,
262
767680
3256
giả sử rằng thắng cuộc đua này
là có cả thế giới,
13:02
providedcung cấp you don't destroyhủy hoại it
in the nextkế tiếp momentchốc lát,
263
770960
2456
miễn là bạn không hủy diệt nó
vào thời điểm kế tiếp,
13:05
then it seemsdường như likelycó khả năng
that whateverbất cứ điều gì is easierdễ dàng hơn to do
264
773440
2616
thì nó có vẻ như là bất kể cái gì dễ hơn
13:08
will get donelàm xong first.
265
776080
1200
sẽ được hoàn thành trước.
13:10
Now, unfortunatelykhông may,
I don't have a solutiondung dịch to this problemvấn đề,
266
778560
2856
Bây giờ, đáng tiếc là tôi không có
giải pháp cho vấn đề này,
13:13
apartxa nhau from recommendinggiới thiệu
that more of us think about it.
267
781440
2616
ngoại trừ đề nghị chúng ta
cần nghĩ về nó nhiều hơn.
Tôi nghĩ chúng ta cần thứ gì đó
như Manhattan Project
13:16
I think we need something
like a ManhattanManhattan ProjectDự án
268
784080
2376
13:18
on the topicđề tài of artificialnhân tạo intelligenceSự thông minh.
269
786480
2016
trong chủ đề về trí thông minh nhân tạo.
Không vì để tạo ra nó, bởi tôi nghĩ
chúng ta chắc chắn sẽ làm được,
13:20
Not to buildxây dựng it, because I think
we'lltốt inevitablychắc chắn do that,
270
788520
2736
13:23
but to understandhiểu không
how to avoidtránh an armscánh tay racecuộc đua
271
791280
3336
mà để hiểu cách ngăn ngừa
cuộc chạy đua vũ trang
13:26
and to buildxây dựng it in a way
that is alignedliên kết with our interestssở thích.
272
794640
3496
và xây dựng nó theo cách phù hợp
với lợi ích của chúng ta.
13:30
When you're talkingđang nói
about superintelligentsuperintelligent AIAI
273
798160
2136
Khi chúng ta nói về AI siêu thông minh
13:32
that can make changesthay đổi to itselfchinh no,
274
800320
2256
có thể tự thay đổi,
13:34
it seemsdường như that we only have one chancecơ hội
to get the initialban đầu conditionsđiều kiện right,
275
802600
4616
có vẻ như chúng ta chỉ có một cơ hội
để làm những điều kiện ban đầu đúng đắn,
và thậm chí sau đó chúng ta
sẽ cần phải ta hứng chịu
13:39
and even then we will need to absorbhấp thụ
276
807240
2056
13:41
the economicthuộc kinh tế and politicalchính trị
consequenceshậu quả of gettingnhận được them right.
277
809320
3040
những hậu quả kinh tế chính trị
khi làm nó đúng đắn.
13:45
But the momentchốc lát we admitthừa nhận
278
813760
2056
Nhưng khoảnh khác ta thừa nhận
13:47
that informationthông tin processingChế biến
is the sourcenguồn of intelligenceSự thông minh,
279
815840
4000
rằng xử lí thông tin là
nguồn gốc của trí thông minh,
13:52
that some appropriatethích hợp computationaltính toán systemhệ thống
is what the basisnền tảng of intelligenceSự thông minh is,
280
820720
4800
rằng một số hệ thống tính toán phù hợp
là nền tảng cho trí thông minh
13:58
and we admitthừa nhận that we will improvecải tiến
these systemshệ thống continuouslyliên tục,
281
826360
3760
và chúng ta thừa nhận rằng chúng ta
tiếp tục cải tiến những hệ thống này,
14:03
and we admitthừa nhận that the horizonđường chân trời
of cognitionnhận thức very likelycó khả năng farxa exceedsvượt quá
282
831280
4456
và chúng ta thừa nhận rằng
chân trời của nhận thức có thể rất xa
14:07
what we currentlyhiện tại know,
283
835760
1200
so với những gì chúng ta đang biết,
thì chúng ta phải công nhận
14:10
then we have to admitthừa nhận
284
838120
1216
14:11
that we are in the processquá trình
of buildingTòa nhà some sortsắp xếp of god.
285
839360
2640
rằng chúng ta đang trong quá trình
tạo ra một loại thánh thần.
14:15
Now would be a good time
286
843400
1576
Bây giờ sẽ là thời điểm tốt
14:17
to make sure it's a god we can livetrực tiếp with.
287
845000
1953
để chắc chắn rằng nó là thánh thần
mà chúng ta có thể sống chung
14:20
Thank you very much.
288
848120
1536
Cảm ơn các bạn rất nhiều.
14:21
(ApplauseVỗ tay)
289
849680
5093
(Vỗ tay)
Translated by Huong Nguyen
Reviewed by Phương Uyên

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com