ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

სემ ჰერისი: შეგვიძლია შევქმნათ ხელოვნური ინტელექტი ისე, რომ მასზე კონტროლი არ დავკარგოთ?

Filmed:
5,024,015 views

გეშინიათ ზეგონიერი ხელოვნური ინტელექტის? ნეირომეცნიერი და ფილოსოფოსი სემ ჰერისი ამბობს, რომ უნდა გვეშინოდეს და არა მხოლოდ თეორიულად. ჩვენ სუპერ მანქანების აგების გზას ვადგავართ, მაგრამ ჯერ არ შევჭიდებივართ პრობლემებს, რომლებიც დაკავშირებულია ისეთი რამის შექმნასთან, რაც შეიძლება ისე მოგვეპყროს, როგორც ჩვენ ვეპყრობით ჭიანჭველებს, ამბობს ჰერტისი.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failure of intuition
0
1000
2216
მე ვაპირებ ვისაუბრო
ინტუიციის იმ პრობლემაზე,
00:15
that many of us suffer from.
1
3240
1600
რომელიც ბევრ ჩვენგანს ახასიათებს.
00:17
It's really a failure
to detect a certain kind of danger.
2
5480
3040
ესაა უუნარობა,
ამოიცნო გარკვეული ტიპის საფრთხე.
00:21
I'm going to describe a scenario
3
9360
1736
ვაპირებ აღვწერო სცენარი,
00:23
that I think is both terrifying
4
11120
3256
რომელიც ერთდროულად შემაძრწუნებელიცაა
00:26
and likely to occur,
5
14400
1760
და მოსალოდნელიც.
00:28
and that's not a good combination,
6
16840
1656
რაც, როგორც ირკვევა
00:30
as it turns out.
7
18520
1536
არაა კარგი კომბინაცია.
00:32
And yet rather than be scared,
most of you will feel
8
20080
2456
მიუხედავად ამისა,
საშიშის ნაცვლად უმეტესობა
00:34
that what I'm talking about
is kind of cool.
9
22560
2080
სახალისოდ აღიქვამს იმას,
რაზეც ვაპირებ ვისაუბრო.
00:37
I'm going to describe
how the gains we make
10
25200
2976
ვაპირებ აღვწერო, თუ როგორ შეიძლება
00:40
in artificial intelligence
11
28200
1776
ხელოვნური ინტელექტის სფეროში წინსვლამ
00:42
could ultimately destroy us.
12
30000
1776
საბოლოოდ გაგვანადგუროს.
00:43
And in fact, I think it's very difficult
to see how they won't destroy us
13
31800
3456
პრინციპში, ვფქრობ,
ძნელი წარმოსადგენიც კია,
როგორ შეიძლება არ გაგვანადგუროს,
ან არ გვიბიძგოს თვითგანადგურებისკენ.
00:47
or inspire us to destroy ourselves.
14
35280
1680
00:49
And yet if you're anything like me,
15
37400
1856
თუმცა, თუ თქვენც ჩემნაირი ხართ,
00:51
you'll find that it's fun
to think about these things.
16
39280
2656
გეგონებათ, რომ ასეთ რამეებზე
ფიქრი სახალისოა.
00:53
And that response is part of the problem.
17
41960
3376
და თავად ეს რეაქცია პრობლემის ნაწილია.
00:57
OK? That response should worry you.
18
45360
1720
ამ რეაქციამ უნდა შეგაწუხოთ.
00:59
And if I were to convince you in this talk
19
47920
2656
ახლა, ამ საუბარში, რომ დაგაწრმუნოთ,
01:02
that we were likely
to suffer a global famine,
20
50600
3416
რომ კლიმატის ცვლილებით,
ან სხვა რამე კატასტროფით გამოწვეული
01:06
either because of climate change
or some other catastrophe,
21
54040
3056
გლობალური შიმშილობაა მოსალონდელი,
01:09
and that your grandchildren,
or their grandchildren,
22
57120
3416
და რომ თქვენმა შვილიშვილებმა,
ან მათმა შვილიშვილებმა
01:12
are very likely to live like this,
23
60560
1800
დიდი შანსია ამ პირობებში იცხოვრონ,
01:15
you wouldn't think,
24
63200
1200
თქვენ არ იფიქრებდით:
01:17
"Interesting.
25
65440
1336
"საინტერესოა,
01:18
I like this TED Talk."
26
66800
1200
მომწონს ეს TED საუბარი"
01:21
Famine isn't fun.
27
69200
1520
შიმშილობა არაა სახალისო.
01:23
Death by science fiction,
on the other hand, is fun,
28
71800
3376
სამეცნიერო ფანტასტიკის ხელით სიკვდილი
კი სახალისოა.
01:27
and one of the things that worries me most
about the development of AI at this point
29
75200
3976
ერთ-ერთი, რაც ხელოვნური ინტელექტის
შექმნასთან დაკავშირებით მაწუხებს,
01:31
is that we seem unable to marshal
an appropriate emotional response
30
79200
4096
არის რომ ჩვენ თითქოს არ შეგვწევს უნარი
გვქონდეს ადექვატური ემოციური რეაქცია
01:35
to the dangers that lie ahead.
31
83320
1816
მოსალოდნელ საფრთხეებზე.
01:37
I am unable to marshal this response,
and I'm giving this talk.
32
85160
3200
არც მე ძალმიძს ამ რეაქიის გამომუშავება,
თუმცა ამ თემაზე გამოვდივარ.
01:42
It's as though we stand before two doors.
33
90120
2696
თითქოს ორი კარის წინ ვდგავართ.
01:44
Behind door number one,
34
92840
1256
პირველი კარის შიგნით,
01:46
we stop making progress
in building intelligent machines.
35
94120
3296
ხელოვნური ინტელექტის განვითარების
პროგრესი ჩერდება.
01:49
Our computer hardware and software
just stops getting better for some reason.
36
97440
4016
ჩვენი კოპიუტერების აპარატული და პროგრამული
საშუალებები რატომღაც აღარ უმჯობესდება.
01:53
Now take a moment
to consider why this might happen.
37
101480
3000
ერთი წამით დაფიქრდით,
რატომ შეიძლება ეს მოხდეს.
01:57
I mean, given how valuable
intelligence and automation are,
38
105080
3656
იმის გათვალისწინებით, თუ რა ფასეულია
მანქანური ინტელექტი და ავტომატიზაცია,
02:00
we will continue to improve our technology
if we are at all able to.
39
108760
3520
ჩვენ აუცილებლად განვაგრძობთ
ტექნოლოგიურ წინსვლას, თუ შეგვეძლება.
02:05
What could stop us from doing this?
40
113200
1667
რამ შეიძლება ეს შეაჩეროს?
02:07
A full-scale nuclear war?
41
115800
1800
სრულმასშტაბიანმა ბირთვულმა ომმა?
02:11
A global pandemic?
42
119000
1560
გლობალურმა პანდემიამ?
02:14
An asteroid impact?
43
122320
1320
ასტეროიდის დაჯახებამ?
02:17
Justin Bieber becoming
president of the United States?
44
125640
2576
ჯასტინ ბიბერის აშშ-ს პრეზიდენტად გახდომამ?
02:20
(Laughter)
45
128240
2280
(სიცილი)
02:24
The point is, something would have to
destroy civilization as we know it.
46
132760
3920
მოკლედ, რაღაც ისეთი უნდა იყოს,
რაც არსებულ ცივილიზაციას დაანგრევს.
02:29
You have to imagine
how bad it would have to be
47
137360
4296
წარმოიდგინეთ, რა ცუდი რამ უნდა იყოს,
02:33
to prevent us from making
improvements in our technology
48
141680
3336
რომ ტექნოლოგიური პროგრესი შეაჩეროს
02:37
permanently,
49
145040
1216
სამუდამოდ,
02:38
generation after generation.
50
146280
2016
თაობიდან თაობამდე.
განმარტებით, ეს რაღაც
ყველაზე უარესი რამ იქნება,
02:40
Almost by definition,
this is the worst thing
51
148320
2136
რაც კი ოდესმე მომხდარა
კაცობრიობის ისტორიაში.
02:42
that's ever happened in human history.
52
150480
2016
02:44
So the only alternative,
53
152520
1296
ამის ერთადერთი ალტერნატივა,
02:45
and this is what lies
behind door number two,
54
153840
2336
რომელიც მეორე კარს მიღმაა,
არის რეალობა,
02:48
is that we continue
to improve our intelligent machines
55
156200
3136
რომლის მიხედვით ჩვენ ვაგძელებთ
გონიერი მანქანების გაუმჯობესებას
02:51
year after year after year.
56
159360
1600
წლიდან წლამდე.
02:53
At a certain point, we will build
machines that are smarter than we are,
57
161720
3640
რაღაც მომენტში, ჩვენ შევქმნით მანქანებს,
რომლებიც ჩვენზე ჭკვიანები იქნებიან
და რა დროსაც ეს მოხდება,
02:58
and once we have machines
that are smarter than we are,
58
166080
2616
ისინი საკუთარი თავების
გაუმჯობესებას შეუდგებიან
03:00
they will begin to improve themselves.
59
168720
1976
03:02
And then we risk what
the mathematician IJ Good called
60
170720
2736
და დავდგებით, როგორც ამას
ი. დ. გუდმა უწოდა,
"ინტელექტის აფეთქების" საფრთხის წინაშე,
03:05
an "intelligence explosion,"
61
173480
1776
03:07
that the process could get away from us.
62
175280
2000
რითიც შეიძლება
პროცესები ხელიდან გაგვექცეს.
03:10
Now, this is often caricatured,
as I have here,
63
178120
2816
ხშირად ეს მსგავსი კარიკატურების
სახითაა გამოსახული.
03:12
as a fear that armies of malicious robots
64
180960
3216
როგორც ბოროტი რობოტების არმიები,
03:16
will attack us.
65
184200
1256
რომლებიც თავს გვესხმიან,
03:17
But that isn't the most likely scenario.
66
185480
2696
მაგრამ ეს არაა ყველაზე სავარაუდო სცენარი.
03:20
It's not that our machines
will become spontaneously malevolent.
67
188200
4856
ჩვენი მანქანები,
მყისიერად კი არ გაბოროტდებიან.
სინამდვილეში წუხილი იმაზეა,
რომ ჩვენ ისეთ მანქანებს შევქმნით,
03:25
The concern is really
that we will build machines
68
193080
2616
რომლებიც ჩვენზე იმდენად უფრო
კომპეტენტურები იქნებიან,
03:27
that are so much
more competent than we are
69
195720
2056
03:29
that the slightest divergence
between their goals and our own
70
197800
3776
რომ ჩვენსა და მათ მიზნებს შორის
მცირედმა უთანხმოებამაც კი
03:33
could destroy us.
71
201600
1200
შეიძლება გაგვანადგუროს.
03:35
Just think about how we relate to ants.
72
203960
2080
დაფიქრდით, რა აზრის ვართ ჭიანჭველებზე.
03:38
We don't hate them.
73
206600
1656
ჩვენ ისინი არ გვძულს.
03:40
We don't go out of our way to harm them.
74
208280
2056
ჩვენ მიზანი არაა მათ ვავნოთ.
03:42
In fact, sometimes
we take pains not to harm them.
75
210360
2376
პრინციპში ზოგჯერ ვცდილობთ კიდეც არ ვავნოთ.
03:44
We step over them on the sidewalk.
76
212760
2016
ფეხს არ ვადგამთ ტროტუარზე.
03:46
But whenever their presence
77
214800
2136
მაგრამ როცა კი მათი არსებობა,
03:48
seriously conflicts with one of our goals,
78
216960
2496
ჩვენს მიზნებს სერიოზულად ეწინააღმდეგება,
03:51
let's say when constructing
a building like this one,
79
219480
2477
მაგალითად ამისნაირი შენობის აგებისას,
03:53
we annihilate them without a qualm.
80
221981
1960
ჩვენ ყოყმანის გარეშე ვანადგურებთ მათ.
03:56
The concern is that we will
one day build machines
81
224480
2936
მე ის მაწუხებს,
რომ ერთ დღესაც ჩვენ შევქმნით მანქანებს,
03:59
that, whether they're conscious or not,
82
227440
2736
რომელებიც, ცნობიერები იქნებიან თუ არა,
04:02
could treat us with similar disregard.
83
230200
2000
შეიძლება მსგავსი გულგრილობით მოგვეკიდონ.
04:05
Now, I suspect this seems
far-fetched to many of you.
84
233760
2760
ეჭვი მაქვს ბევრ თქვენგანს,
ეს ზედმეტ გაზვიადებად ეჩვენება.
04:09
I bet there are those of you who doubt
that superintelligent AI is possible,
85
237360
6336
დარმწუნებული ვარ ზოგი თქვენგანი,
ზეგონიერი ხელოვნური ინტელექტის შექმნის
არათუ გარდაუვალობას, არამედ
შესაძლებლობასაც კი ეჭვქვეშ აყენებს,
04:15
much less inevitable.
86
243720
1656
04:17
But then you must find something wrong
with one of the following assumptions.
87
245400
3620
მაგრამ მაშინ თქვენ პრობლემა უნდა იპოვოთ
შემდეგი დაშვებებიდან ერთ-ერთში.
04:21
And there are only three of them.
88
249044
1572
სულ სამია ასეთი.
04:23
Intelligence is a matter of information
processing in physical systems.
89
251800
4719
ინტელექტი ფიზიკურ სისტემებში
ინფორმაციის დამუშავებას წარმოადგენს.
04:29
Actually, this is a little bit more
than an assumption.
90
257320
2615
პრინციპში, ეს დაშვებაზე ცოტა უფრო მეტიცაა.
04:31
We have already built
narrow intelligence into our machines,
91
259959
3457
ჩვენ უკვე შევქმენით მანქანები
ვიწრო ინტელექტით
04:35
and many of these machines perform
92
263440
2016
და ბევრი მათქგანი მუშაობს კიდეც
04:37
at a level of superhuman
intelligence already.
93
265480
2640
ზეადამიანის შესაბამისი ინტელექტის დონეზე.
04:40
And we know that mere matter
94
268840
2576
ასევე ვიცით, რომ მატერიას
04:43
can give rise to what is called
"general intelligence,"
95
271440
2616
შეუძლია წამოქმნას ე.წ. "ზოგადი ინტელექტი",
04:46
an ability to think flexibly
across multiple domains,
96
274080
3656
სხვადასხვა სფეროებაში
მოქნილად აზროვნების უნარი,
04:49
because our brains have managed it. Right?
97
277760
3136
რადგან ჩვენი ტვინები ახერხებენ ამას.
04:52
I mean, there's just atoms in here,
98
280920
3936
აქ ხომ მხოლოდ ატომებია
04:56
and as long as we continue
to build systems of atoms
99
284880
4496
და თუ ატომებისგან შემდგარი
ისეთი სისტემების შექმნას განვაგრძობთ,
05:01
that display more and more
intelligent behavior,
100
289400
2696
რომლებიც სულ უფრო მეტ
გონიერ საქციელს გამოავლენენ,
05:04
we will eventually,
unless we are interrupted,
101
292120
2536
რაღაცამ თუ არ შეგვაჩერა,
05:06
we will eventually
build general intelligence
102
294680
3376
საბოლოოდ ზოგადი ინტელექტის მქონე
05:10
into our machines.
103
298080
1296
მანქანებს შევქმნით.
05:11
It's crucial to realize
that the rate of progress doesn't matter,
104
299400
3656
მნიშვნელოვანია გავიაზროთ,
რომ პროგრესის ტემპს არ აქვს მნიშვნელობა,
05:15
because any progress
is enough to get us into the end zone.
105
303080
3176
რადგან ნებისმიერი ტემპი საკმარისია,
რომ ბოლოში გავიდეთ.
05:18
We don't need Moore's law to continue.
We don't need exponential progress.
106
306280
3776
ჩვენ არ გვჭირდება მურის კანონი ამისთვის.
არ გვჭირდება ექსპონენციალური პროგრესი.
05:22
We just need to keep going.
107
310080
1600
ჩვენ მხოლოდ წინსვლა გვჭირდება.
05:25
The second assumption
is that we will keep going.
108
313480
2920
მეორე დაშვება ისაა,
რომ ჩვენ განვაგრძობთ პროგრესს.
05:29
We will continue to improve
our intelligent machines.
109
317000
2760
განვაგრძობთ გონიერი მანქანების შექმნას.
05:33
And given the value of intelligence --
110
321000
4376
თუ ინტელექტის ფასს გავითვალისწინებთ...
05:37
I mean, intelligence is either
the source of everything we value
111
325400
3536
ინტელექტი, ან ყველაფერ იმის წყაროა
რასაც ვაფასებთ,
ან გვჭირდება იმისთვის, რომ დავიცვათ
ყველაფერი ის რასაც ვაფასებთ.
05:40
or we need it to safeguard
everything we value.
112
328960
2776
05:43
It is our most valuable resource.
113
331760
2256
ის ჩვენი ყველაზე ფასეული რესურსია.
05:46
So we want to do this.
114
334040
1536
ამიტომ გვინდა ამის კეთება.
05:47
We have problems
that we desperately need to solve.
115
335600
3336
ჩვენ გვაქვს პრობლემები,
რომელთა გადაწყვეტა აუცილებელია.
05:50
We want to cure diseases
like Alzheimer's and cancer.
116
338960
3200
ჩვენ გვინდა ალცჰაიმერის და კიბოს მაგვარი
დაავადებების განკურნება.
05:54
We want to understand economic systems.
We want to improve our climate science.
117
342960
3936
გვინდა ეკონომიკური სისტემებში გარკვევა.
გვინდა კლიმატური მეცნიერების გაუმჯობესება.
05:58
So we will do this, if we can.
118
346920
2256
ამიტომ თუ შევძელით,
ამას აუცილებლად ვიზამთ.
06:01
The train is already out of the station,
and there's no brake to pull.
119
349200
3286
მატარებელი უკვე დაიძრა
და მას მუხრუჭი არ აქვს.
06:05
Finally, we don't stand
on a peak of intelligence,
120
353880
5456
ბოლოს, ჩვენ არ წარმოვადგენთ
ინტელექტის პიკს.
06:11
or anywhere near it, likely.
121
359360
1800
მასთან ახლოსაც კი არ ვართ.
06:13
And this really is the crucial insight.
122
361640
1896
ეს მართლაც საკვანძო აზრია.
06:15
This is what makes
our situation so precarious,
123
363560
2416
ეს არის ის, რაც ჩვენს მდგომარეობას
ასე არასაიმედოს
06:18
and this is what makes our intuitions
about risk so unreliable.
124
366000
4040
და რისკების მიმართ
ჩვენს ინტუიციას, ასე არასანდოს ხდის.
06:23
Now, just consider the smartest person
who has ever lived.
125
371120
2720
განვიხილოთ ყველა დროის
უჭკვიანესი ადამიანი.
06:26
On almost everyone's shortlist here
is John von Neumann.
126
374640
3416
ერთ-ერთ ასეთად თითქმის ყველა
ჯონ ვან ნოიმანს დაასახელებს.
06:30
I mean, the impression that von Neumann
made on the people around him,
127
378080
3336
შთაბეჭდილება, რომელიც ვან ნოუმანმა
მის გარშემომყოფებზე მოახდინა,
06:33
and this included the greatest
mathematicians and physicists of his time,
128
381440
4056
მისი თანამედროვე უდედესი მათემატიკოსების
და ფიზიკოსების ჩათვლით,
06:37
is fairly well-documented.
129
385520
1936
კარგადაა დოკუმენტირებული.
06:39
If only half the stories
about him are half true,
130
387480
3776
ამ ისტორიების მხოლოდ ნახევარიც
რომ იყოს ნახევრად მართალი,
06:43
there's no question
131
391280
1216
ეჭვგარეშეა,
06:44
he's one of the smartest people
who has ever lived.
132
392520
2456
რომ ის ყველა დროის ერთ-ერთი
უჭკვიანესი ადამიანი იყო.
06:47
So consider the spectrum of intelligence.
133
395000
2520
განვიხილოთ ინტელექტის სპექტრი.
06:50
Here we have John von Neumann.
134
398320
1429
აქ არის ჯონ ვან ნოიმანი.
06:53
And then we have you and me.
135
401560
1334
აქ კი, ვართ მე და თქვენ
და აქ კი - ქათამია.
06:56
And then we have a chicken.
136
404120
1296
06:57
(Laughter)
137
405440
1936
(სიცილი)
06:59
Sorry, a chicken.
138
407400
1216
უკაცრავად, ქათამი.
07:00
(Laughter)
139
408640
1256
(სიცილი)
07:01
There's no reason for me to make this talk
more depressing than it needs to be.
140
409920
3736
საჭირო არაა ეს საუბარი,
კიდევ უფრო დეპრესიული გავხადოთ.
07:05
(Laughter)
141
413680
1600
(სიცილი)
07:08
It seems overwhelmingly likely, however,
that the spectrum of intelligence
142
416339
3477
დიდად სავარაუდოა,
რომ ინტელექტის სპექტრი,
07:11
extends much further
than we currently conceive,
143
419840
3120
ბევრად უფრო შორს მიდის,
ვიდრე ჩვენ ამჟამად წარმოგვიდგენია
07:15
and if we build machines
that are more intelligent than we are,
144
423880
3216
და თუ ჩვენ შევქმნით მანქანებს,
რომლებსაც ჩვენზე დიდი ინტელექტი აქვთ,
07:19
they will very likely
explore this spectrum
145
427120
2296
დიდი ალბათობით ისინი ამ სპექტრის
ჩვენთვის წარმოუდგენელ სივრცეებს აითვისებენ
07:21
in ways that we can't imagine,
146
429440
1856
07:23
and exceed us in ways
that we can't imagine.
147
431320
2520
და ისე გვაჯობებენ,
რომ ვერც კი წარმოვიდგენთ.
07:27
And it's important to recognize that
this is true by virtue of speed alone.
148
435000
4336
მნიშვნელოვანია ვხვდებოდეთ, რომ ეს ასეა
მხოლოდ სისწრაფის შემთხვევაშიც კი.
07:31
Right? So imagine if we just built
a superintelligent AI
149
439360
5056
წარმოიდგინეთ, რომ შევქმენით
ზეგონიერი ხელოვნური ინტელექტი,
07:36
that was no smarter
than your average team of researchers
150
444440
3456
რომელიც სტენფორდის, ან MIT-ის
07:39
at Stanford or MIT.
151
447920
2296
საშუალო დონის მკვლევართა ჯგუფზე
ჭკვიანი არაა.
07:42
Well, electronic circuits
function about a million times faster
152
450240
2976
ელექტრონული სქემები დაახლოებით
მილიონჯერ უფრო სწრაფად ფუნქციონირებენ,
07:45
than biochemical ones,
153
453240
1256
ვიდრე ბიოქიმიური.
07:46
so this machine should think
about a million times faster
154
454520
3136
ამიტომ ეს მანქანა იაზროვნებს
დაახლოებით მილიონჯერ სწრაფად,
07:49
than the minds that built it.
155
457680
1816
ვიდრე ტვინები რომლებმაც ის შექმნეს.
07:51
So you set it running for a week,
156
459520
1656
თუ მას ერთი კვირა ვამუშვებთ,
07:53
and it will perform 20,000 years
of human-level intellectual work,
157
461200
4560
ის შეასრულებს 20 000 წლის
ადამიანის დონის ინტელეტქუალურ სამუშაოს
07:58
week after week after week.
158
466400
1960
კვირიდან კვირამდე.
ამის შემდეგ, არათუ როგორ შევზღუდავთ,
არამედ როგორ გავუგებთ ტვინს,
08:01
How could we even understand,
much less constrain,
159
469640
3096
08:04
a mind making this sort of progress?
160
472760
2280
რომელიც ასეთ პროგრესს განიცდის?
08:08
The other thing that's worrying, frankly,
161
476840
2136
კიდევ ერთი რამ, რაც გულწრფელად მაწუხებს
08:11
is that, imagine the best case scenario.
162
479000
4976
არის, რომ საუკეთესო ვარიანტში,
წარმოიდგინეთ დავაპროექტეთ ისეთი
ზეგონიერი ხელოვნური ინტელექტი,
08:16
So imagine we hit upon a design
of superintelligent AI
163
484000
4176
08:20
that has no safety concerns.
164
488200
1376
რომელსაც უსაფრთხოების პრობლემა არ აქვს.
08:21
We have the perfect design
the first time around.
165
489600
3256
ჩვენ პირველივე ჯერზე
გვაქვს იდეალური პროექტი.
08:24
It's as though we've been handed an oracle
166
492880
2216
თითქოს გვებოძა პროექტი,
08:27
that behaves exactly as intended.
167
495120
2016
რომელიც ისე მუშაობს როგორც ჩაფიქრებულია.
08:29
Well, this machine would be
the perfect labor-saving device.
168
497160
3720
ასეთი მანქანა იდეალური იქნებოდა
შრომის შესამსუბუქებლად.
მან შეიძლება დააპროექტოს მანქანა,
რომელიც შექმნის მანქანას,
08:33
It can design the machine
that can build the machine
169
501680
2429
08:36
that can do any physical work,
170
504133
1763
რომელსაც შეუძლია
ნებისმიერი ფიზიკური სამუშაოს შესრულება
მზის ენერგიით,
08:37
powered by sunlight,
171
505920
1456
08:39
more or less for the cost
of raw materials.
172
507400
2696
მეტ-ნაკლებად ნედლეულის ფასად.
08:42
So we're talking about
the end of human drudgery.
173
510120
3256
ანუ ლაპარაკია ადამიანის დამქანცველი შრომის
დასასრულზე.
08:45
We're also talking about the end
of most intellectual work.
174
513400
2800
ლაპარაკია ასევე უმეტესი
ინტელექტულაური შრომის დასასრულზე.
08:49
So what would apes like ourselves
do in this circumstance?
175
517200
3056
მაშ, რას გააკეთებენ
ჩვენნაირი პრიმატები ამ სიტუაციაში?
08:52
Well, we'd be free to play Frisbee
and give each other massages.
176
520280
4080
თავისუფლად შევძლებთ ვითამაშოთ
ფრისბი და მასაჟი ვუკეთოთ ერთმანეთს.
08:57
Add some LSD and some
questionable wardrobe choices,
177
525840
2856
დავამატოთ ცოტა LSD,
ცოტა უცნაური ტანსაცმელი
09:00
and the whole world
could be like Burning Man.
178
528720
2176
და მთელი მსოფლიო "Burning Man"-ის
ფესტივალს დაემსგავსება.
09:02
(Laughter)
179
530920
1640
(სიცილი)
09:06
Now, that might sound pretty good,
180
534320
2000
ეს შეიძლება მშვენივრად ჟღერდეს,
09:09
but ask yourself what would happen
181
537280
2376
მაგრამ ჰკითხეთ საკუთარ თავებს,
09:11
under our current economic
and political order?
182
539680
2736
რა მოხდება არსებულ ეკონომიკურ
და პოლიტიკურ წყობაში?
09:14
It seems likely that we would witness
183
542440
2416
სავარაუდოა, რომ მივიღოთ
09:16
a level of wealth inequality
and unemployment
184
544880
4136
უთანასწორობის და უმუშევრობის ისეთი დონე,
09:21
that we have never seen before.
185
549040
1496
როგორიც არასდროს გვინახავს.
09:22
Absent a willingness
to immediately put this new wealth
186
550560
2616
ამ ახალი სიმდიდრის
მთელი კაცობირობის სასარგებლოდ
09:25
to the service of all humanity,
187
553200
1480
გაღების სურვილის არ ქონის პირობებში,
09:27
a few trillionaires could grace
the covers of our business magazines
188
555640
3616
მილიარდელების მცირე ჯგუფი,
დაამშვენებს ბიზნესჟურნალების გარეკანებს,
09:31
while the rest of the world
would be free to starve.
189
559280
2440
მაშინ როცა დანარჩენები იშიმშილებენ.
09:34
And what would the Russians
or the Chinese do
190
562320
2296
რას იზამენ რუსები, ან ჩინელები,
09:36
if they heard that some company
in Silicon Valley
191
564640
2616
თუ გაიგებენ, რომ სილიკონის ველზე
რომელიღაც კომპანია,
09:39
was about to deploy a superintelligent AI?
192
567280
2736
აპირებს ზეგონიერი
ხელოვნური ინტელექტი აამუშაოს?
09:42
This machine would be capable
of waging war,
193
570040
2856
ამ მანქანას არნახული ძალით შეეძლება
09:44
whether terrestrial or cyber,
194
572920
2216
აწარმოოს ომი,
09:47
with unprecedented power.
195
575160
1680
როგორც სახმელეთო, ისე კიბერომი.
09:50
This is a winner-take-all scenario.
196
578120
1856
ეს ის სცენარია,
რომელშიც გამარჯვებული იღებს ყველაფერს.
09:52
To be six months ahead
of the competition here
197
580000
3136
ამ შეჯიბრში 6 თვით წინ ყოფნა,
09:55
is to be 500,000 years ahead,
198
583160
2776
მინიმუმ 500 000 წლით წინ ყოფნას ნიშნავს.
09:57
at a minimum.
199
585960
1496
09:59
So it seems that even mere rumors
of this kind of breakthrough
200
587480
4736
ამიტომ, ასეთი გარღვევის შესახებ
ჭირებმაც კი,
10:04
could cause our species to go berserk.
201
592240
2376
შეიძლება გადარიოს ჩვენი სახეობა.
10:06
Now, one of the most frightening things,
202
594640
2896
ერთ-ერთი ყველაზე საშიში რამ,
10:09
in my view, at this moment,
203
597560
2776
ამჟამად, ჩემი აზრით
10:12
are the kinds of things
that AI researchers say
204
600360
4296
არის ის რასაც ხელოვნური ინტელექტის
მკვლევარები ამბობენ,
10:16
when they want to be reassuring.
205
604680
1560
როცა უნდათ, რომ იმედი მოგვცენ.
10:19
And the most common reason
we're told not to worry is time.
206
607000
3456
ყველაზე ხშირად ნათქვამი მიზეზი იმისა,
რომ არ ვიღელვოთ, არის დრო.
10:22
This is all a long way off,
don't you know.
207
610480
2056
ხომ იცით, იქამდე ჯერ კიდევ შორია.
10:24
This is probably 50 or 100 years away.
208
612560
2440
სავარაუდოდ სადღაც 50 -100 წელია იქამდე.
10:27
One researcher has said,
209
615720
1256
ერთმა მკვლევარმა თქვა:
10:29
"Worrying about AI safety
210
617000
1576
"ხელოვნურ ინტელექტზე ნერვიულობა,
10:30
is like worrying
about overpopulation on Mars."
211
618600
2280
იგივეა რაც ინერვიულოთ
მარსის გადამეტდასახლებულობაზე"
ეს, "ამაზე ფიქრით ტვინს ნუ დაიღლით "-ის
10:34
This is the Silicon Valley version
212
622116
1620
10:35
of "don't worry your
pretty little head about it."
213
623760
2376
სილიკონის ველისეული ვერსიაა
10:38
(Laughter)
214
626160
1336
(სიცილი)
10:39
No one seems to notice
215
627520
1896
თითქოს ვერავინ ამჩნევს,
10:41
that referencing the time horizon
216
629440
2616
რომ დროითი ფაქტორის მოყვანა
10:44
is a total non sequitur.
217
632080
2576
სრულიად უადგილოა.
10:46
If intelligence is just a matter
of information processing,
218
634680
3256
თუ ინტელექტი მხოლოდ
ინფორმაციის დამუშავების ამბავია
10:49
and we continue to improve our machines,
219
637960
2656
და ჩვენ განვაგრძობთ
მანქანების გაუმჯობესებას,
10:52
we will produce
some form of superintelligence.
220
640640
2880
მაშინ მივიღებთ რაღაც ტიპის
სუპერინტელექტს
10:56
And we have no idea
how long it will take us
221
644320
3656
და ჩვენ წარმოდგენა არ გვაქვს,
რა დრო დაგვჭირდება იმისთვის,
11:00
to create the conditions
to do that safely.
222
648000
2400
რომ მივიღოთ შესაბამისი
უსაფრთხოების ზომები.
ნება მომეცით, კიდევ გავიმეორო.
11:04
Let me say that again.
223
652200
1296
11:05
We have no idea how long it will take us
224
653520
3816
ჩვენ წარმოდგენა არ გვაქვს,
რა დრო დაგვჭირდება იმისთვის,
11:09
to create the conditions
to do that safely.
225
657360
2240
რომ მივიღოთ შესაბამისი
უსაფრთხოების ზომები.
11:12
And if you haven't noticed,
50 years is not what it used to be.
226
660920
3456
თუ ვერ შეამჩნიეთ, გეტყვით,
რომ ეს ის 50 წელი არ არის, რაც უწინ იყო.
11:16
This is 50 years in months.
227
664400
2456
ეს არის 50 წელი თვეებში.
11:18
This is how long we've had the iPhone.
228
666880
1840
ამდენი ხანია რაც აიფონები გვაქვს.
11:21
This is how long "The Simpsons"
has been on television.
229
669440
2600
ამდენი ხანია რაც "სიმფსონები" გადის.
11:24
Fifty years is not that much time
230
672680
2376
50 წელი არც ისე დიდი დროა იმისთვის,
11:27
to meet one of the greatest challenges
our species will ever face.
231
675080
3160
რომ ჩვენი სახეობისთვის
ერთ-ერთ უდიდეს გამოწვევას შევეგებოთ.
11:31
Once again, we seem to be failing
to have an appropriate emotional response
232
679640
4016
კიდევ ერთხელ, თითქოს არ შეგვწევს უნარი
გვქონდეს ადექვატური ემოციური რეაქცია,
11:35
to what we have every reason
to believe is coming.
233
683680
2696
იმის მიმართ, რაც აშკარად მოსალოდნელია.
11:38
The computer scientist Stuart Russell
has a nice analogy here.
234
686400
3976
კომპიუტერულმა მეცნიერმა სტიურატ რასელმა
კარგი ანალოგია გააკეთა.
11:42
He said, imagine that we received
a message from an alien civilization,
235
690400
4896
მან თქვა, წარმოიდგინეთ, რომ უცხოპლანეტელი
ცივილიზაციისგან მივიღეთ გზავნილი,
11:47
which read:
236
695320
1696
რომელიც ამბობს:
11:49
"People of Earth,
237
697040
1536
"დედამიწის მოსახლეობავ,
11:50
we will arrive on your planet in 50 years.
238
698600
2360
ჩვენ გეწვევით თქვენ პლანეტაზე
50 წელიწადში.
11:53
Get ready."
239
701800
1576
მოემზადეთ"
11:55
And now we're just counting down
the months until the mothership lands?
240
703400
4256
და ამის შემდეგ თვეების თვლას დავიწყებთ,
სანამ ხომალდი არ ჩამოვა?
11:59
We would feel a little
more urgency than we do.
241
707680
3000
ალბათ, ამაზე ცოტა უფრო მეტ
გადაუდებლობას ვიგრძნობდით.
კიდევ ერთი მიზეზი,
რასაც დასამშვიდებლად ამბობენ,
12:04
Another reason we're told not to worry
242
712680
1856
არის რომ ამ მანქანებს ჩვენი ფასეულობების
გაზიარების გარდა სხვა გზა არ ექნებათ,
12:06
is that these machines
can't help but share our values
243
714560
3016
12:09
because they will be literally
extensions of ourselves.
244
717600
2616
რადგან ისინი ჩვენი გაგრძელებები იქნებიან.
12:12
They'll be grafted onto our brains,
245
720240
1816
ისინი ჩვენს ტვინს მიუერთდებიან,
12:14
and we'll essentially
become their limbic systems.
246
722080
2360
ჩვენ კი მათი ლიმბური სისტემა გავხდებით.
12:17
Now take a moment to consider
247
725120
1416
ერთი წამით დავფიქრდეთ,
12:18
that the safest
and only prudent path forward,
248
726560
3176
რომ ყველაზე უსაფრთხო
და ერთადერთი წინდახედული,
12:21
recommended,
249
729760
1336
რეკომენდებული გზა,
12:23
is to implant this technology
directly into our brains.
250
731120
2800
არის ამ ტექნოლოგიების პირდაპირ
ჩვენ ტვინში ჩანერგვა.
12:26
Now, this may in fact be the safest
and only prudent path forward,
251
734600
3376
ეს შეიძლება მართლაც ყველაზე უსაფრთხო
და ერთადერთი წინდახედული გზა იყოს,
12:30
but usually one's safety concerns
about a technology
252
738000
3056
მაგრამ როგორც წესი,
ტექნოლოგიის უსაფრთხოებაზე ზრუნვა,
12:33
have to be pretty much worked out
before you stick it inside your head.
253
741080
3656
მანამ უნდა იყოს დამთავრებული,
სანამ მას თავში შევიტენით.
12:36
(Laughter)
254
744760
2016
(სიცილი)
12:38
The deeper problem is that
building superintelligent AI on its own
255
746800
5336
უფრო სიღრმისეული პრობლემა ისაა,
რომ ზეგონიერი ხელოვნური ინტელექტის შექმნა,
12:44
seems likely to be easier
256
752160
1736
თავისთავად უფრო მარტივი ჩანს,
12:45
than building superintelligent AI
257
753920
1856
ვიდრე მისი შექმნა
და შემდეგ ნეირომეცნიერების სრული შესწავლა,
12:47
and having the completed neuroscience
258
755800
1776
12:49
that allows us to seamlessly
integrate our minds with it.
259
757600
2680
რაც საშუალებას მოგვცემს
მოვახდინოთ ჩვენ ტვინში მისი ინტეგრაცია.
12:52
And given that the companies
and governments doing this work
260
760800
3176
იმის გათვალისწინებით,
რომ კომპანიები და მთავრობები,
12:56
are likely to perceive themselves
as being in a race against all others,
261
764000
3656
რომლებიც ამას აკეთებენ,
თავს ყველა დანარჩენთან შეჯიბრში აღიქვამენ
12:59
given that to win this race
is to win the world,
262
767680
3256
და რომ ამ შეჯიბრის მოგება,
მსოფლიოს მოგებას ნიშნავს,
13:02
provided you don't destroy it
in the next moment,
263
770960
2456
თუ მეორე წამს ამ მსოფლიოს
არ გაანადგურებენ,
13:05
then it seems likely
that whatever is easier to do
264
773440
2616
მაშინ სავარაუდოა,
რომ პირველ რიგში იმას გააკეთებენ,
13:08
will get done first.
265
776080
1200
რისი გაკეთებაც ყველაზე მარტივია.
13:10
Now, unfortunately,
I don't have a solution to this problem,
266
778560
2856
სამწუხაროდ მე არ მაქვს
ამ პრობლემაზე პასუხი,
13:13
apart from recommending
that more of us think about it.
267
781440
2616
გარდა რჩევისა, რომ უფრო მეტმა ჩვენგანმა
იფიქროს ამაზე.
ვფიქრობ, რაღაც "მანჰეტენის პროექტის"
მაგვარი გვჭირდება
13:16
I think we need something
like a Manhattan Project
268
784080
2376
13:18
on the topic of artificial intelligence.
269
786480
2016
ხელოვნური ინტელექტის მიმართულებით.
არა იმისთვის, რომ ის შევქმნათ,
რადგან ვფიქრობ ეს გარდაუვლად მოხდება,
13:20
Not to build it, because I think
we'll inevitably do that,
270
788520
2736
13:23
but to understand
how to avoid an arms race
271
791280
3336
არამედ, რომ გავარკვიოთ,
თუ როგორ ავიცილოთ თავიდან სამხედრო შეჯიბრი
13:26
and to build it in a way
that is aligned with our interests.
272
794640
3496
და შევქმნათ ეს მანქანა ისე,
რომ ის თანხვედრაში იყოს, ჩვენ ინტერესთან.
13:30
When you're talking
about superintelligent AI
273
798160
2136
როცა ვლაპარაკობთ ზეგონიერ
ხელოვნურ ინტელექტზე,
13:32
that can make changes to itself,
274
800320
2256
რომელსაც საკუთარი თავის შეცვლა შეუძლია,
13:34
it seems that we only have one chance
to get the initial conditions right,
275
802600
4616
მგონია, რომ ერთი შანსი გვაქვს,
სწორ საწყის პირობებს მივაგნით
13:39
and even then we will need to absorb
276
807240
2056
და ამ შემთხვევაშიც დაგვჭირდება,
13:41
the economic and political
consequences of getting them right.
277
809320
3040
რომ ამის პოლიტიკური და ეკონომიკური
შედეგები გადავხარშოთ.
13:45
But the moment we admit
278
813760
2056
თუმცა, როგორც კი ვაღიარებთ,
13:47
that information processing
is the source of intelligence,
279
815840
4000
რომ ინტელექტის წყარო
ინფორმაციის დამუშავებაა,
13:52
that some appropriate computational system
is what the basis of intelligence is,
280
820720
4800
რომ რაღაც შესაბამისი გამოთვლითი სისტემა
წარმოდაგენს ინტელექტის ბაზისს,
13:58
and we admit that we will improve
these systems continuously,
281
826360
3760
ვაღიარებთ, რომ ჩვენ უწყვეტად
გავაუმჯობესებთ ამ სისტემებს
14:03
and we admit that the horizon
of cognition very likely far exceeds
282
831280
4456
და ვაღიარებთ, რომ გონებრივი შესაძლებლობის
ჰორიზონტი იმაზე ბევრად უფრო შორს მიდის,
14:07
what we currently know,
283
835760
1200
ვიდრე ჩვენ დღეს წარმოგვიდგენია,
14:10
then we have to admit
284
838120
1216
მაშინ უნდა ვაღიაროთ,
14:11
that we are in the process
of building some sort of god.
285
839360
2640
რომ ჩვენ ვართ რაღაც ტიპის
ღმერთის შექმნის პროცესში.
ახლა ის დროა, ვიზრუნოთ იმაზე,
რომ ეს ისეთი ღმერთი იყოს,
14:15
Now would be a good time
286
843400
1576
14:17
to make sure it's a god we can live with.
287
845000
1953
რომელთანაც შევძლებთ თანაცხოვრებას.
14:20
Thank you very much.
288
848120
1536
დიდი მადლობა.
14:21
(Applause)
289
849680
5093
(აპლოდისმენტები)
Translated by Levan Lashauri
Reviewed by Tamta Makharadze

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com