ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Kontrolü kaybetmeden Yapay Zekâ üretebilir miyiz?

Filmed:
5,024,015 views

Süper zeki Yapay Zekâ'dan korkuyor musunuz? Sinirbilimci ve filozof Sam Harris, Korkmalısın! --ve sadece teorik olarak değil-- diyor. İnsanüstü makineler üreteceğiz ancak karıncalara davrandığımız gibi bizlere de aynı şekilde davranabilecek bir şeyi üretmeyle ilgili sorunlarla henüz boğuşmadık diyor Harris.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurebaşarısızlık of intuitionsezgi
0
1000
2216
Birçoğumuzun muzdarip olduğu
00:15
that manyçok of us sufferacı çekmek from.
1
3240
1600
bir önsezi yetersizliğinden bahsedeceğim.
00:17
It's really a failurebaşarısızlık
to detectbelirlemek a certainbelli kindtür of dangerTehlike.
2
5480
3040
Belirli tür bir tehlikeyi
sezmek gerçekten bir yetersizliktir.
00:21
I'm going to describetanımlamak a scenariosenaryo
3
9360
1736
Bir senaryo anlatacağım,
00:23
that I think is bothher ikisi de terrifyingdehşet verici
4
11120
3256
korkunç olduğunu düşündüğüm
00:26
and likelymuhtemelen to occurmeydana,
5
14400
1760
ve gerçekleşmesi muhtemel olan
00:28
and that's not a good combinationkombinasyon,
6
16840
1656
ve görünen o ki
00:30
as it turnsdönüşler out.
7
18520
1536
iyi bir kombinasyon da değil.
00:32
And yethenüz ratherdaha doğrusu than be scaredkorkmuş,
mostçoğu of you will feel
8
20080
2456
Yine de korkmak yerine
çoğunuz, bahsettiklerimin
00:34
that what I'm talkingkonuşma about
is kindtür of coolgüzel.
9
22560
2080
havalı olduğunu düşüneceksiniz.
00:37
I'm going to describetanımlamak
how the gainskazançlar we make
10
25200
2976
Yapay zekâdaki kazanımlarımızın
00:40
in artificialyapay intelligencezeka
11
28200
1776
nihayetinde bizi nasıl
00:42
could ultimatelyen sonunda destroyyıkmak us.
12
30000
1776
mahvedeceğinden bahsedeceğim.
00:43
And in factgerçek, I think it's very difficultzor
to see how they won'talışkanlık destroyyıkmak us
13
31800
3456
Hatta bence, bizi mahvetmeyeceğini
veya kendimizi mahvetmeyi bize
00:47
or inspireilham vermek us to destroyyıkmak ourselveskendimizi.
14
35280
1680
aşılamayacağını düşünmek çok güç.
00:49
And yethenüz if you're anything like me,
15
37400
1856
Fakat sizler de benim gibiyseniz,
00:51
you'llEğer olacak find that it's funeğlence
to think about these things.
16
39280
2656
bunları düşünmenin zevkli
olacağını keşfedeceksiniz.
00:53
And that responsetepki is partBölüm of the problemsorun.
17
41960
3376
Ve bu yanıtta sorunun bir parçası.
00:57
OK? That responsetepki should worryendişelenmek you.
18
45360
1720
Bu yanıt sizi endişelendirmeli.
00:59
And if I were to convinceikna etmek you in this talk
19
47920
2656
Bu konuşmada sizi, olası bir
küresel bir kıtlığa,
01:02
that we were likelymuhtemelen
to sufferacı çekmek a globalglobal faminekıtlık,
20
50600
3416
iklim değişikliği veya
başka bir afetten dolayı,
01:06
eitherya because of climateiklim changedeğişiklik
or some other catastropheafet,
21
54040
3056
torunlarınız veya
onların torunlarının muhtemelen
01:09
and that your grandchildrentorunlar,
or theironların grandchildrentorunlar,
22
57120
3416
bu şekilde yaşama durumuna
01:12
are very likelymuhtemelen to livecanlı like this,
23
60560
1800
yakın olduğuna ikna ediyor olsaydım,
01:15
you wouldn'tolmaz think,
24
63200
1200
"İlginç.
01:17
"Interestingİlginç.
25
65440
1336
Bu TED konuşmasını beğendim."
01:18
I like this TEDTED Talk."
26
66800
1200
diye düşünmezdiniz.
01:21
FamineKıtlık isn't funeğlence.
27
69200
1520
Kıtlık eğlenceli değildir.
01:23
DeathÖlüm by scienceBilim fictionkurgu,
on the other handel, is funeğlence,
28
71800
3376
Diğer taraftan bilim
kurgudaki ölüm ise eğlencelidir
ve bu noktada beni yapay zekâdaki
01:27
and one of the things that worriesEndişeye me mostçoğu
about the developmentgelişme of AIAI at this pointpuan
29
75200
3976
en çok endişelendiren gelişmelerden biri,
01:31
is that we seemgörünmek unableaciz to marshalMareşal
an appropriateuygun emotionalduygusal responsetepki
30
79200
4096
önümüzde uzanan tehlikelere,
uygun duyarlı bir yanıtı
01:35
to the dangerstehlikeleri that lieYalan aheadönde.
31
83320
1816
sıralayamıyor gibi görünüyoruz.
01:37
I am unableaciz to marshalMareşal this responsetepki,
and I'm givingvererek this talk.
32
85160
3200
Bu yanıtı sıralayamıyorum ve
bu konuşmayı yapıyorum.
01:42
It's as thoughgerçi we standdurmak before two doorskapılar.
33
90120
2696
İki kapının önünde duruyoruz gibi.
01:44
BehindArkasında doorkapı numbernumara one,
34
92840
1256
1 numaralı kapının ardında
01:46
we stop makingyapma progressilerleme
in buildingbina intelligentakıllı machinesmakineler.
35
94120
3296
zeki makine üretmedeki
gelişmeleri durduruyoruz.
01:49
Our computerbilgisayar hardwaredonanım and softwareyazılım
just stopsdurak gettingalma better for some reasonneden.
36
97440
4016
Her nedense bilgisayarlarımızın donanım
ve yazılımı daha iyi olmayı durduruyor.
01:53
Now take a momentan
to considerdüşünmek why this mightbelki happenolmak.
37
101480
3000
Şimdi bir dakikanızı ayırın ve bunun
neden olabileceğini değerlendirin.
01:57
I mean, givenverilmiş how valuabledeğerli
intelligencezeka and automationOtomasyon are,
38
105080
3656
Yani, zekâ ve otomasyonun ne kadar
değerli olduğu göz önüne alındığında,
02:00
we will continuedevam et to improveiyileştirmek our technologyteknoloji
if we are at all ableyapabilmek to.
39
108760
3520
yapabilirsek, teknolojimizi geliştirmeye
devam edeceğiz.
02:05
What could stop us from doing this?
40
113200
1667
Bunu yapmamızı ne engelleyebilir?
02:07
A full-scaletam ölçekli nuclearnükleer warsavaş?
41
115800
1800
Büyük çaplı bir nükleer savaş mı?
02:11
A globalglobal pandemicyaygın?
42
119000
1560
Küresel bir salgın mı?
02:14
An asteroidasteroit impactdarbe?
43
122320
1320
Asteroit çarpması mı?
02:17
JustinJustin BieberBieber becomingolma
presidentDevlet Başkanı of the UnitedAmerika StatesBirleşik?
44
125640
2576
Justin Bieber'in Amerika Başkanı
olması mı?
(Kahkahalar)
02:20
(LaughterKahkaha)
45
128240
2280
02:24
The pointpuan is, something would have to
destroyyıkmak civilizationmedeniyet as we know it.
46
132760
3920
Mesele şu ki, bildiğimiz üzere
bir şeyler medeniyeti yok etmeli.
02:29
You have to imaginehayal etmek
how badkötü it would have to be
47
137360
4296
Ne kadar kötü
olabileceğini hayal etmelisiniz,
02:33
to preventönlemek us from makingyapma
improvementsiyileştirmeler in our technologyteknoloji
48
141680
3336
teknolojimizde iyileştirme
yapmamızı engellemenin,
02:37
permanentlykalıcı olarak,
49
145040
1216
daimi olarak,
02:38
generationnesil after generationnesil.
50
146280
2016
nesilden nesile.
02:40
AlmostNeredeyse by definitiontanım,
this is the worsten kötü thing
51
148320
2136
Neredeyse, doğası gereği
bu, insan tarihinde gerçekleşen
en kötü şey.
02:42
that's ever happenedolmuş in humaninsan historytarih.
52
150480
2016
02:44
So the only alternativealternatif,
53
152520
1296
Bu yüzden tek alternatif,
02:45
and this is what liesyalanlar
behindarkasında doorkapı numbernumara two,
54
153840
2336
ikinci kapının ardındaki,
02:48
is that we continuedevam et
to improveiyileştirmek our intelligentakıllı machinesmakineler
55
156200
3136
akıllı makinelerimizi yıllar geçtikçe
02:51
yearyıl after yearyıl after yearyıl.
56
159360
1600
geliştirmeye devam etmemiz.
02:53
At a certainbelli pointpuan, we will buildinşa etmek
machinesmakineler that are smarterdaha akıllı than we are,
57
161720
3640
Bir noktada da bizden daha
akıllı makineler inşa edeceğiz
02:58
and oncebir Zamanlar we have machinesmakineler
that are smarterdaha akıllı than we are,
58
166080
2616
ve bizden akıllı makinelerimiz
olduğunda onlar,
03:00
they will beginbaşla to improveiyileştirmek themselveskendilerini.
59
168720
1976
kendilerini geliştirmeye başlayacaklar.
03:02
And then we riskrisk what
the mathematicianmatematikçi IJIJ Good calleddenilen
60
170720
2736
Ve sonra, matematikçi IJ Good'un
"zekâ patlaması" olarak
03:05
an "intelligencezeka explosionpatlama,"
61
173480
1776
adlandırdığı bu süreçle,
03:07
that the processsüreç could get away from us.
62
175280
2000
bizden kurtulabilecekler.
03:10
Now, this is oftensık sık caricaturedkarikatürize,
as I have here,
63
178120
2816
Sıklıkla karikatürize edilir,
benim de burada yaptığım gibi,
03:12
as a fearkorku that armiesorduları of maliciouskötü amaçlı robotsrobotlar
64
180960
3216
korku kötücül robot ordularının
03:16
will attacksaldırı us.
65
184200
1256
bize saldırmaları.
03:17
But that isn't the mostçoğu likelymuhtemelen scenariosenaryo.
66
185480
2696
Ama bu çok da olası bir senaryo değil.
03:20
It's not that our machinesmakineler
will becomeolmak spontaneouslykendiliğinden malevolentkötü niyetli.
67
188200
4856
Kendiliğinden makinelerimiz
kötücül olacak değil.
03:25
The concernilgilendirmek is really
that we will buildinşa etmek machinesmakineler
68
193080
2616
Asıl kaygılandıran ise;
bizden o kadar çok daha yetkin
03:27
that are so much
more competentyetkili than we are
69
195720
2056
makineler üreteceğiz ki bizim ve onların
03:29
that the slightestEn ufak bir divergenceuyuşmazlık
betweenarasında theironların goalshedefleri and our ownkendi
70
197800
3776
amaçları arasındaki
en küçük bir fark, bizi
03:33
could destroyyıkmak us.
71
201600
1200
ortadan kaldırabilecek.
03:35
Just think about how we relateilgili to antskarıncalar.
72
203960
2080
Nasıl da karıncalar gibi
olacağımızı bir düşünün.
03:38
We don't hatenefret them.
73
206600
1656
Onlardan nefret etmiyoruz.
Onlara zarar vermek için
yolumuzu değiştirmiyoruz.
03:40
We don't go out of our way to harmzarar them.
74
208280
2056
03:42
In factgerçek, sometimesara sıra
we take painszahmet not to harmzarar them.
75
210360
2376
Üstelik bazen onlara zarar
vermemeye çalışıyoruz.
03:44
We stepadım over them on the sidewalkkaldırım.
76
212760
2016
Kaldırımlarda üzerlerinden geçiyoruz.
03:46
But wheneverher ne zaman theironların presencevarlık
77
214800
2136
Ancak ne zaman onların varlıkları
03:48
seriouslycidden mi conflictsçatışmalar with one of our goalshedefleri,
78
216960
2496
bizim hedeflerimizle çakışsa,
03:51
let's say when constructinginşa
a buildingbina like this one,
79
219480
2477
diyelim ki bu gibi bir bina inşa ederken,
03:53
we annihilateyok etmek them withoutolmadan a qualmazabı.
80
221981
1960
tereddütsüz imha edebiliyoruz onları.
03:56
The concernilgilendirmek is that we will
one day buildinşa etmek machinesmakineler
81
224480
2936
Endişe uyandıran ise bir gün,
bilinçli olsun veya olmasın
03:59
that, whetherolup olmadığını they're consciousbilinçli or not,
82
227440
2736
bize de benzer bir umursamazlıkla
muamele edebilecek
04:02
could treattedavi etmek us with similarbenzer disregardgöz ardı.
83
230200
2000
makineler üreteceğiz.
04:05
Now, I suspectşüpheli this seemsgörünüyor
far-fetchedzoraki to manyçok of you.
84
233760
2760
Zannederim ki bir çoğunuza ihtimal
dışı görünüyor bu durum.
04:09
I betbahis there are those of you who doubtşüphe
that superintelligentanlaman AIAI is possiblemümkün,
85
237360
6336
Eminim ki bazılarınız süper zeki
Yapay Zekâ'nın kaçınılmaz olması
şöyle dursun,
mümkünlüğünden dahi şüphe duyuyor.
04:15
much lessaz inevitablekaçınılmaz.
86
243720
1656
04:17
But then you mustşart find something wrongyanlış
with one of the followingtakip etme assumptionsvarsayımlar.
87
245400
3620
Ancak sonra ileriki varsayımlardan
bazılarında bir tuhaflık bulmalısınız.
04:21
And there are only threeüç of them.
88
249044
1572
Ve sadece üç tanesi var.
04:23
IntelligenceKarar destek sistemi is a mattermadde of informationbilgi
processingişleme in physicalfiziksel systemssistemler.
89
251800
4719
Zekâ, fiziksel sistemlerde
bilgi işleme ile ilgilidir.
04:29
ActuallyAslında, this is a little bitbit more
than an assumptionvarsayım.
90
257320
2615
Aslında bu bir varsayımdan biraz fazla.
04:31
We have alreadyzaten builtinşa edilmiş
narrowdar intelligencezeka into our machinesmakineler,
91
259959
3457
Zaten makinelerimizde kısıtlı
zekâyı kurduk ve
04:35
and manyçok of these machinesmakineler performyapmak
92
263440
2016
bu makinelerin çoğu çoktan
04:37
at a levelseviye of superhumaninsanüstü
intelligencezeka alreadyzaten.
93
265480
2640
üstün insan seviyesinde bir
performansta.
04:40
And we know that meresırf mattermadde
94
268840
2576
Ve biliyoruz ki bu mutlak mesele,
04:43
can give riseyükselmek to what is calleddenilen
"generalgenel intelligencezeka,"
95
271440
2616
"genel zekâ" denilen birçok
alanda esneklikle
04:46
an abilitykabiliyet to think flexiblyesnek
acrosskarşısında multipleçoklu domainsetki alanları,
96
274080
3656
düşünebilme yeteneğine sebep olabilir,
04:49
because our brainsbeyin have managedyönetilen it. Right?
97
277760
3136
çünkü beyinlerimiz bunu başardı değil mi?
04:52
I mean, there's just atomsatomları in here,
98
280920
3936
Yani sadece atomlar var burada
04:56
and as long as we continuedevam et
to buildinşa etmek systemssistemler of atomsatomları
99
284880
4496
ve biz gitgide daha zeki
davranışlar sergileyen atomlar
05:01
that displayGörüntüle more and more
intelligentakıllı behaviordavranış,
100
289400
2696
sistemi kurmaya devam ettikçe,
05:04
we will eventuallysonunda,
unlessolmadıkça we are interruptedkesintiye,
101
292120
2536
nihayetinde makinelerimize
05:06
we will eventuallysonunda
buildinşa etmek generalgenel intelligencezeka
102
294680
3376
genel zekâyı kurabileceğiz,
05:10
into our machinesmakineler.
103
298080
1296
engellenmedikçe.
05:11
It's crucialçok önemli to realizegerçekleştirmek
that the rateoran of progressilerleme doesn't mattermadde,
104
299400
3656
İlerlemenin seviyesinin önemli
olmadığının farkına varmak çok mühim,
05:15
because any progressilerleme
is enoughyeterli to get us into the endson zonebölge.
105
303080
3176
çünkü herhangi bir gelişme
bizi sayı çizgisine getirmeye yetebilir.
Devam etmek için Moore
kanununa gerek yok.
05:18
We don't need Moore'sMoore'un lawhukuk to continuedevam et.
We don't need exponentialüstel progressilerleme.
106
306280
3776
Üstel bir gelişime ihtiyacımız yok.
05:22
We just need to keep going.
107
310080
1600
Sadece devam etmeliyiz.
05:25
The secondikinci assumptionvarsayım
is that we will keep going.
108
313480
2920
İkinci varsayım ise devam etmemiz.
05:29
We will continuedevam et to improveiyileştirmek
our intelligentakıllı machinesmakineler.
109
317000
2760
Akıllı makinelerimizi geliştirmeye
devam edeceğiz.
05:33
And givenverilmiş the valuedeğer of intelligencezeka --
110
321000
4376
Ve zekânın değeri göz önüne alınırsa,
05:37
I mean, intelligencezeka is eitherya
the sourcekaynak of everything we valuedeğer
111
325400
3536
yani zekâ ya bütün değer
verdiklerimizin kaynağıdır ya da
değer verdiğimiz her şeyi
05:40
or we need it to safeguardgüvenlik amacıyla
everything we valuedeğer.
112
328960
2776
korumak için ona ihtiyacımız vardır.
05:43
It is our mostçoğu valuabledeğerli resourcekaynak.
113
331760
2256
Bizim en değerli kaynağımızdır.
05:46
So we want to do this.
114
334040
1536
O yüzden bunu yapmak isteriz.
05:47
We have problemssorunlar
that we desperatelyumutsuzca need to solveçözmek.
115
335600
3336
Umutsuzca çözmek istediğimiz
problemlerimiz vardır.
05:50
We want to cureÇare diseaseshastalıklar
like Alzheimer'sAlzheimer and cancerkanser.
116
338960
3200
Alzheimer ve kanser gibi
hastalıkları tedavi etmek isteriz.
05:54
We want to understandanlama economicekonomik systemssistemler.
We want to improveiyileştirmek our climateiklim scienceBilim.
117
342960
3936
Ekonomi sistemlerini anlamak isteriz.
İklim bilimini ilerletmek isteriz.
05:58
So we will do this, if we can.
118
346920
2256
Yani yapabilirsek bunu yapacağız.
06:01
The traintren is alreadyzaten out of the stationistasyon,
and there's no brakeFren to pullÇek.
119
349200
3286
Tren çoktan istasyondan çıktı ve
basılabilecek bir fren yok.
06:05
FinallySon olarak, we don't standdurmak
on a peakzirve of intelligencezeka,
120
353880
5456
Velhasıl, zekânın zirvesinde duramayız
06:11
or anywhereherhangi bir yer nearyakın it, likelymuhtemelen.
121
359360
1800
ya da yakınında herhangi bir yerde.
06:13
And this really is the crucialçok önemli insightIçgörü.
122
361640
1896
Ve bu gerçekten mühim bir öngörüdür.
06:15
This is what makesmarkaları
our situationdurum so precarioustehlikeli,
123
363560
2416
Durumumuzu istikrarsız yapan ve
06:18
and this is what makesmarkaları our intuitionssezgiler
about riskrisk so unreliablegüvenilmez.
124
366000
4040
risk hakkındaki sezgilerimizi güvenilmez
kılan bu durum.
06:23
Now, just considerdüşünmek the smartestzeki personkişi
who has ever livedyaşamış.
125
371120
2720
Şimdi yaşamış en zeki insanı düşünün.
06:26
On almostneredeyse everyone'sherkesin var shortlistkısa liste here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Buradaki hemen hemen herkesin
son listesinde John von Neumann vardır.
06:30
I mean, the impressionizlenim that vonvon NeumannNeumann
madeyapılmış on the people around him,
127
378080
3336
Yani, John von Neumann' nın çevresindeki
insanlardaki etkisi,
06:33
and this includeddahil the greatestEn büyük
mathematiciansmatematikçiler and physicistsfizikçiler of his time,
128
381440
4056
zamanının en iyi matematikçileri
ve fizikçileri de dâhil olmak üzere,
06:37
is fairlyoldukça well-documentediyi belgelenmiş.
129
385520
1936
oldukça detaylı olarak hazırlanmış.
06:39
If only halfyarım the storieshikayeleri
about him are halfyarım truedoğru,
130
387480
3776
Hakkında anlatılanların yarısı
yarı gerçek ise
06:43
there's no questionsoru
131
391280
1216
şimdiye dek yaşamış
06:44
he's one of the smartestzeki people
who has ever livedyaşamış.
132
392520
2456
en zeki insan olduğuna şüphe yok.
06:47
So considerdüşünmek the spectrumspektrum of intelligencezeka.
133
395000
2520
Öyleyse zekâ spektrumunu bir düşünün.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Bir tarafta John von Neumann
06:53
And then we have you and me.
135
401560
1334
ve diğer tarafta siz ve ben.
06:56
And then we have a chickentavuk.
136
404120
1296
Ve bir de tavuk.
06:57
(LaughterKahkaha)
137
405440
1936
(Gülüşmeler)
06:59
Sorry, a chickentavuk.
138
407400
1216
Pardon, bir tavuk.
07:00
(LaughterKahkaha)
139
408640
1256
(Gülüşmeler)
07:01
There's no reasonneden for me to make this talk
more depressingiç karartıcı than it needsihtiyaçlar to be.
140
409920
3736
Bu konuşmayı gereğinden daha
depresif yapmama gerek yok.
07:05
(LaughterKahkaha)
141
413680
1600
(Gülüşmeler)
07:08
It seemsgörünüyor overwhelminglyezici likelymuhtemelen, howeverancak,
that the spectrumspektrum of intelligencezeka
142
416339
3477
Ezici bir üstünlükle olası görünüyor
ancak zekâ spektrumu
07:11
extendsuzanır much furtherayrıca
than we currentlyşu anda conceivegebe,
143
419840
3120
şu anda tasarlayabileceğimizden
daha da ileriye uzanıyor
07:15
and if we buildinşa etmek machinesmakineler
that are more intelligentakıllı than we are,
144
423880
3216
ve kendimizden daha zeki
makineler üretirsek
07:19
they will very likelymuhtemelen
explorekeşfetmek this spectrumspektrum
145
427120
2296
büyük ihtimalle bu spektrumu
hayal edemeyeceğimiz
07:21
in waysyolları that we can't imaginehayal etmek,
146
429440
1856
ölçüde keşfedecekler
07:23
and exceedaşan us in waysyolları
that we can't imaginehayal etmek.
147
431320
2520
ve o ölçüde bizi aşacaklar.
07:27
And it's importantönemli to recognizetanımak that
this is truedoğru by virtueErdem of speedhız aloneyalnız.
148
435000
4336
Ve hızın fazileti gereği bunun
doğru olduğunu anlamak önemli.
07:31
Right? So imaginehayal etmek if we just builtinşa edilmiş
a superintelligentanlaman AIAI
149
439360
5056
Değil mi? Stanford veya MIT'deki
ortalama araştırmacı takımınızdan
07:36
that was no smarterdaha akıllı
than your averageortalama teamtakım of researchersaraştırmacılar
150
444440
3456
daha zeki olmayan süper zeki
Yapay Zekâ
07:39
at StanfordStanford or MITMIT.
151
447920
2296
geliştirdiğimizi düşünün.
07:42
Well, electronicelektronik circuitsdevreler
functionfonksiyon about a millionmilyon timeszamanlar fasterDaha hızlı
152
450240
2976
Elektronik devreler,
biyokimyasallardan milyon kez
07:45
than biochemicalbiyokimyasal onesolanlar,
153
453240
1256
daha hızlı çalışır, yani
07:46
so this machinemakine should think
about a millionmilyon timeszamanlar fasterDaha hızlı
154
454520
3136
bu makine onu yapan beyinlerden
milyon kez daha
07:49
than the mindszihinler that builtinşa edilmiş it.
155
457680
1816
hızlı çalışmalıdır.
07:51
So you setset it runningkoşu for a weekhafta,
156
459520
1656
Bir haftalığına çalışmaya ayarlasanız
07:53
and it will performyapmak 20,000 yearsyıl
of human-levelinsan düzeyi intellectualentellektüel work,
157
461200
4560
ve insan seviyesinde 20.000 yıl
sürecek zihinsel
07:58
weekhafta after weekhafta after weekhafta.
158
466400
1960
işleri yapacak, haftalarca.
08:01
How could we even understandanlama,
much lessaz constrainsınırlamak,
159
469640
3096
Engellemek şöyle dursun,
bu tarz bir zihinsel
08:04
a mindus makingyapma this sortçeşit of progressilerleme?
160
472760
2280
ilerlemeyi nasıl durdurabiliriz ki?
08:08
The other thing that's worryingendişe verici, franklyaçıkçası,
161
476840
2136
Endişe uyandıran diğer bir şey ise,
08:11
is that, imaginehayal etmek the besten iyi casedurum scenariosenaryo.
162
479000
4976
açıkcası, olabilecek en iyi
senaryoyu düşünün.
08:16
So imaginehayal etmek we hitvurmak uponüzerine a designdizayn
of superintelligentanlaman AIAI
163
484000
4176
Hiçbir kaygı barındırmayan
bir süper zeki Yapay Zekâ
tasarımı keşfettiğimizi düşünün.
08:20
that has no safetyemniyet concernsendişeler.
164
488200
1376
08:21
We have the perfectmükemmel designdizayn
the first time around.
165
489600
3256
İlk seferde en iyi tasarımı bulduk.
08:24
It's as thoughgerçi we'vebiz ettik been handedeli an oracletorpil
166
492880
2216
Tam da istenilen şekilde davranan bir
08:27
that behavesdavranır exactlykesinlikle as intendedistenilen.
167
495120
2016
kâhin bize verilmiş gibi.
08:29
Well, this machinemakine would be
the perfectmükemmel labor-savingemek tasarrufu devicecihaz.
168
497160
3720
Bu makine müthiş bir işten
tasarruf ettiren bir aygıt olurdu.
08:33
It can designdizayn the machinemakine
that can buildinşa etmek the machinemakine
169
501680
2429
Güneş ışığıyla çalışan, herhangi
bir fiziksel işi yapabilen,
08:36
that can do any physicalfiziksel work,
170
504133
1763
aşağı yukarı ham maddeleri
08:37
poweredenerjili by sunlightGüneş ışığı,
171
505920
1456
maliyetinde olan makineyi
08:39
more or lessaz for the costmaliyet
of rawçiğ materialsmalzemeler.
172
507400
2696
yapabilecek makineyi tasarlayabilir.
08:42
So we're talkingkonuşma about
the endson of humaninsan drudgeryangarya.
173
510120
3256
Yani insanların yaptığı angarya
işlerin sonundan bahsediyoruz.
08:45
We're alsoAyrıca talkingkonuşma about the endson
of mostçoğu intellectualentellektüel work.
174
513400
2800
Aynı zamanda çoğu zihinsel işlerin de
sonundan bahsediyoruz.
08:49
So what would apesmaymunlar like ourselveskendimizi
do in this circumstancedurum?
175
517200
3056
Böyle bir durumda biz
maymunlar ne yapardık?
08:52
Well, we'devlenmek be freeücretsiz to playoyun FrisbeeFrizbi
and give eachher other massagesMasaj.
176
520280
4080
Birbirimize masaj yapabilir ve
frizbi oynayabiliriz.
08:57
AddEkle some LSDLSD and some
questionablekuşkulu wardrobegiysi dolabı choicesseçimler,
177
525840
2856
Biraz LSD ve tartışmaya açık
giysi seçimlerini de ekleyin
ve bütün dünya Burning
Man (festival) gibi olabilir.
09:00
and the wholebütün worldDünya
could be like BurningYanan Man.
178
528720
2176
09:02
(LaughterKahkaha)
179
530920
1640
(Gülüşmeler)
09:06
Now, that mightbelki soundses prettygüzel good,
180
534320
2000
Şimdi kulağa hoş gelebilir ama
09:09
but asksormak yourselfkendin what would happenolmak
181
537280
2376
kendinize şu anki ekonomik
ve siyasi düzenimizde
09:11
underaltında our currentşimdiki economicekonomik
and politicalsiyasi ordersipariş?
182
539680
2736
ne olabileceğini sorun.
09:14
It seemsgörünüyor likelymuhtemelen that we would witnesstanık
183
542440
2416
Daha önce görmediğimiz düzeyde
09:16
a levelseviye of wealthservet inequalityeşitsizlik
and unemploymentişsizlik
184
544880
4136
eşitsiz bir zenginlik ve işsizliğe
09:21
that we have never seengörüldü before.
185
549040
1496
tanık olurduk gibi görünüyor.
09:22
AbsentYok a willingnessistekli
to immediatelyhemen put this newyeni wealthservet
186
550560
2616
Bu yeni zenginliği derhal tüm
insanlığın hizmetine
09:25
to the servicehizmet of all humanityinsanlık,
187
553200
1480
sunmadaki isteksizlikle,
09:27
a fewaz trillionairesTrillionaires could graceGrace
the coverskapaklar of our business magazinesdergiler
188
555640
3616
dünyanın geri kalanı açlıktan
ölürken birkaç trilyoner
09:31
while the restdinlenme of the worldDünya
would be freeücretsiz to starveAçlıktan.
189
559280
2440
ekonomi dergilerimizin
kapaklarını süslüyor olabilir.
Peki ya Ruslar ya da Çinliler,
Silikon Vadisi'ndeki
09:34
And what would the RussiansRuslar
or the ChineseÇince do
190
562320
2296
09:36
if they heardduymuş that some companyşirket
in SiliconSilikon ValleyVadi
191
564640
2616
bazı şirketlerin üstün zeki
Yapay Zekâ'yı dağıtmak
09:39
was about to deploydağıtmak a superintelligentanlaman AIAI?
192
567280
2736
üzere olduğunu duysa ne yaparlardı?
09:42
This machinemakine would be capableyetenekli
of wagingyürüten warsavaş,
193
570040
2856
Karasal ya da siber, bu makine
09:44
whetherolup olmadığını terrestrialkarasal or cyberCyber,
194
572920
2216
tahmin edilemez bir güçle savaş
09:47
with unprecedentedeşi görülmemiş powergüç.
195
575160
1680
çıkarabilecek potansiyelde olurdu.
09:50
This is a winner-take-allKazanan hepsini alır scenariosenaryo.
196
578120
1856
Bu kazananın her şeyi
aldığı bir senaryo.
09:52
To be sixaltı monthsay aheadönde
of the competitionyarışma here
197
580000
3136
Buradaki rekabetten 6 ay
ilerde olmak
09:55
is to be 500,000 yearsyıl aheadönde,
198
583160
2776
minimum 500.000 yıl
09:57
at a minimumasgari.
199
585960
1496
ileride olmaktır.
09:59
So it seemsgörünüyor that even meresırf rumorssöylentiler
of this kindtür of breakthroughbuluş
200
587480
4736
Demek ki bu tür bir atılımın
sadece söylentisi bile
10:04
could causesebeb olmak our speciesTürler to go berserkBerserk.
201
592240
2376
türümüzün çıldırmasına yol açabiliyor.
10:06
Now, one of the mostçoğu frighteningkorkutucu things,
202
594640
2896
Şimdi en korkutucu şeylerden bir tanesi
10:09
in my viewgörünüm, at this momentan,
203
597560
2776
bana göre, şu anda,
10:12
are the kindsçeşit of things
that AIAI researchersaraştırmacılar say
204
600360
4296
Yapay Zekâ araştırmacılarının
güven verici olmak istediklerinde
10:16
when they want to be reassuringgüven verici.
205
604680
1560
söyledikleri şeyler.
Ve en sık bize endişe etmememiz
10:19
And the mostçoğu commonortak reasonneden
we're told not to worryendişelenmek is time.
206
607000
3456
için söylenen neden ise zaman.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Çok çok uzakta, haberin yok mu?
10:24
This is probablymuhtemelen 50 or 100 yearsyıl away.
208
612560
2440
Muhtemelen 50 ya da 100 yıl kadar uzakta.
10:27
One researcheraraştırmacı has said,
209
615720
1256
Bir araştırmacı dedi ki;
"Yapay Zekâ güvenliği için endişelenmek
10:29
"WorryingEndişe verici about AIAI safetyemniyet
210
617000
1576
10:30
is like worryingendişe verici
about overpopulationaşırı nüfus on MarsMars."
211
618600
2280
Mars'ta aşırı nüfus artışına
endişelenmek gibi."
10:34
This is the SiliconSilikon ValleyVadi versionversiyon
212
622116
1620
Bu Silikon Vadisi'nin
10:35
of "don't worryendişelenmek your
prettygüzel little headkafa about it."
213
623760
2376
"Sıkmayın tatlı canınızı" versiyonu.
10:38
(LaughterKahkaha)
214
626160
1336
(Gülüşmeler)
10:39
No one seemsgörünüyor to noticeihbar
215
627520
1896
Zamana referanslamanın
10:41
that referencingbaşvuran the time horizonufuk
216
629440
2616
tamamen yersiz bir deyim
10:44
is a totalGenel Toplam nonSigara sequiturlâf.
217
632080
2576
olduğunu kimse fark etmiyor.
10:46
If intelligencezeka is just a mattermadde
of informationbilgi processingişleme,
218
634680
3256
Zekâ eğer bilgi işlemeden ibaretse
10:49
and we continuedevam et to improveiyileştirmek our machinesmakineler,
219
637960
2656
ve biz makinelerimizi geliştirmeye
devam edersek
10:52
we will produceüretmek
some formform of superintelligencesuperintelligence.
220
640640
2880
bir tür süper zekâ üreteceğiz.
10:56
And we have no ideaFikir
how long it will take us
221
644320
3656
Ve güvenli bir biçimde yapmak için
gerekli şartları yaratmanın
11:00
to createyaratmak the conditionskoşullar
to do that safelygüvenli bir şekilde.
222
648000
2400
ne kadar süreceği hakkında
hiçbir fikrimiz yok.
11:04
Let me say that again.
223
652200
1296
Bir daha söyleyeyim.
11:05
We have no ideaFikir how long it will take us
224
653520
3816
Güvenli bir biçimde yapmak için
gerekli şartları yaratmanın
11:09
to createyaratmak the conditionskoşullar
to do that safelygüvenli bir şekilde.
225
657360
2240
ne kadar süreceği hakkında
hiçbir fikrimiz yok.
11:12
And if you haven'tyok noticedfark,
50 yearsyıl is not what it used to be.
226
660920
3456
Ve eğer fark etmediyseniz,
50 yıl eskisi gibi değil artık.
11:16
This is 50 yearsyıl in monthsay.
227
664400
2456
Bu ay olarak 50 yıl.
11:18
This is how long we'vebiz ettik had the iPhoneiPhone.
228
666880
1840
Bu kadar zamandır iPhone var.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevizyon.
229
669440
2600
Bu kadar zamandır "The Simpsons"
(Simpsonlar) televizyonda.
11:24
FiftyElli yearsyıl is not that much time
230
672680
2376
50 yıl, türümüzün karşılaşabileceği
11:27
to meetkarşılamak one of the greatestEn büyük challengeszorluklar
our speciesTürler will ever faceyüz.
231
675080
3160
en büyük zorluklar için
fazla bir zaman değil.
11:31
OnceBir kez again, we seemgörünmek to be failinghata
to have an appropriateuygun emotionalduygusal responsetepki
232
679640
4016
Bir defa daha uygun duygusal karşılık
vermede başarısız gibiyiz,
11:35
to what we have everyher reasonneden
to believe is cominggelecek.
233
683680
2696
yaklaştığına inanmamız için
tüm gerekçelere sahipken.
11:38
The computerbilgisayar scientistBilim insanı StuartStuart RussellRussell
has a niceGüzel analogyanaloji here.
234
686400
3976
Bilgisayar bilimcisi Stuart Russell'ın
güzel bir benzetimi var.
11:42
He said, imaginehayal etmek that we receivedAlınan
a messagemesaj from an alienyabancı civilizationmedeniyet,
235
690400
4896
Diyor ki; uzaylı bir medeniyetten
bir mektup aldığımızı düşünün,
11:47
whichhangi readokumak:
236
695320
1696
şöyle diyor:
11:49
"People of EarthDünya,
237
697040
1536
"Dünya Halkı,
11:50
we will arrivevarmak on your planetgezegen in 50 yearsyıl.
238
698600
2360
50 yıl içinde gezegeninize ulaşacağız.
11:53
Get readyhazır."
239
701800
1576
Hazırlanın."
11:55
And now we're just countingsayma down
the monthsay untila kadar the mothershipAna gemi landstoprakları?
240
703400
4256
Ve şimdi, ana gemi varana kadar
ay ay geri mi sayacağız?
11:59
We would feel a little
more urgencyaciliyet than we do.
241
707680
3000
Normalden biraz daha fazla
aciliyet hissederdik.
12:04
AnotherBaşka bir reasonneden we're told not to worryendişelenmek
242
712680
1856
Endişelenmememiz söylenen
bir diğer gerekçe ise
12:06
is that these machinesmakineler
can't help but sharepay our valuesdeğerler
243
714560
3016
bu makinelerin istemeden bizim
değerlerimizi paylaşacak
12:09
because they will be literallyharfi harfine
extensionsuzantıları of ourselveskendimizi.
244
717600
2616
olmaları, çünkü
bizim devamımız gibi olacaklar.
12:12
They'llOnlar olacak be graftedaşılı ontoüstüne our brainsbeyin,
245
720240
1816
Beyinlerimize aşılanacaklar
12:14
and we'lliyi essentiallyesasen
becomeolmak theironların limbiclimbik systemssistemler.
246
722080
2360
ve temelde onların limbik
sistemi olacağız.
12:17
Now take a momentan to considerdüşünmek
247
725120
1416
Şimdi bir dakikanızı ayırın ve
12:18
that the safestEn güvenli
and only prudentihtiyatlı pathyol forwardileri,
248
726560
3176
önümüzdeki en sağlam ve ihtiyatlı yolun,
12:21
recommendedÖnerilen,
249
729760
1336
önerilenin, bu teknolojiyi
12:23
is to implantimplant this technologyteknoloji
directlydirekt olarak into our brainsbeyin.
250
731120
2800
direkt olarak beyinlerimize
yerleştirmek olduğunu değerlendirin.
12:26
Now, this mayMayıs ayı in factgerçek be the safestEn güvenli
and only prudentihtiyatlı pathyol forwardileri,
251
734600
3376
Belki de bu, önümüzdeki en güvenli
ve özenli yol olabilir
12:30
but usuallygenellikle one'sbiri safetyemniyet concernsendişeler
about a technologyteknoloji
252
738000
3056
ama genelde kişinin teknoloji hakkındaki
güvenlik endişelerinin
12:33
have to be prettygüzel much workedişlenmiş out
before you stickÇubuk it insideiçeride your headkafa.
253
741080
3656
kafasının içine bir şey yerleştirmeden
çözülmesi gerekir.
12:36
(LaughterKahkaha)
254
744760
2016
(Kahkahalar)
12:38
The deeperDaha derine problemsorun is that
buildingbina superintelligentanlaman AIAI on its ownkendi
255
746800
5336
Daha derindeki problem ise süper zeki
YZ geliştirmek başlı başına
12:44
seemsgörünüyor likelymuhtemelen to be easierDaha kolay
256
752160
1736
daha kolay gibi görünüyor,
12:45
than buildingbina superintelligentanlaman AIAI
257
753920
1856
sorunsuzca zihinlerimizle entegre
12:47
and havingsahip olan the completedtamamlanan neurosciencenörobilim
258
755800
1776
olabilen tamamlanmış sinirbilimli
12:49
that allowsverir us to seamlesslysorunsuz
integratebirleştirmek our mindszihinler with it.
259
757600
2680
bir yapay zekâ geliştirmektense.
12:52
And givenverilmiş that the companiesşirketler
and governmentshükümetler doing this work
260
760800
3176
Ve farz edelim ki devletlerin ve
şirketlerin bunu yapıyorken
12:56
are likelymuhtemelen to perceivealgıladıkları themselveskendilerini
as beingolmak in a raceyarış againstkarşısında all othersdiğerleri,
261
764000
3656
birbirleriyle yarış
içerisindeymişçe algılamaları
12:59
givenverilmiş that to winkazanmak this raceyarış
is to winkazanmak the worldDünya,
262
767680
3256
ve bu yarışı kazanmalarının da
dünyayı kazanmak sanmaları,
13:02
providedsağlanan you don't destroyyıkmak it
in the nextSonraki momentan,
263
770960
2456
peşi sıra mahvetmemek şartıyla,
13:05
then it seemsgörünüyor likelymuhtemelen
that whateverher neyse is easierDaha kolay to do
264
773440
2616
sonrasında hangisi en kolaysa
13:08
will get donetamam first.
265
776080
1200
ilk o yapılacakmış gibi görünüyor.
13:10
Now, unfortunatelyne yazık ki,
I don't have a solutionçözüm to this problemsorun,
266
778560
2856
Şu an ne yazık ki bu soruna bir
çözümüm yok,
13:13
apartayrı from recommendingtavsiye
that more of us think about it.
267
781440
2616
çoğumuza bunu düşünmeyi önermek dışında.
13:16
I think we need something
like a ManhattanManhattan ProjectProje
268
784080
2376
Yapay Zekâ konusunda Manhattan
Projesi gibi
13:18
on the topickonu of artificialyapay intelligencezeka.
269
786480
2016
bir şeye ihtiyacımız var.
13:20
Not to buildinşa etmek it, because I think
we'lliyi inevitablykaçınılmaz do that,
270
788520
2736
Geliştirmek için değil, çünkü
kaçınılamaz bir şekilde
yapacağız bana göre,
13:23
but to understandanlama
how to avoidönlemek an armssilâh raceyarış
271
791280
3336
ama silahlanma yarışından
nasıl kaçıncağımızı anlamak
13:26
and to buildinşa etmek it in a way
that is alignedhizalanmış with our interestsilgi.
272
794640
3496
ve menfaatlerimiz doğrultusunda
inşa etmek için.
13:30
When you're talkingkonuşma
about superintelligentanlaman AIAI
273
798160
2136
Süper zeki YZ 'nın kendi
başına değişiklikler
13:32
that can make changesdeğişiklikler to itselfkendisi,
274
800320
2256
yapabileceğinden bahsederken,
13:34
it seemsgörünüyor that we only have one chanceşans
to get the initialilk conditionskoşullar right,
275
802600
4616
ana koşulları doğru anlamada tek
şansımız varmış gibi görünüyor
13:39
and even then we will need to absorbemmek
276
807240
2056
ve o zaman dahi bunları doğru anlamanın
13:41
the economicekonomik and politicalsiyasi
consequencessonuçları of gettingalma them right.
277
809320
3040
siyasi ve ekonomik sonuçlarını
özümsememiz gerekecektir.
13:45
But the momentan we admititiraf etmek
278
813760
2056
Bilgi işlemenin yapay zekânın
13:47
that informationbilgi processingişleme
is the sourcekaynak of intelligencezeka,
279
815840
4000
kaynağı olduğunu kabul ettiğimiz an,
13:52
that some appropriateuygun computationalbilişimsel systemsistem
is what the basistemel of intelligencezeka is,
280
820720
4800
bu bazı uygun hesaplama sistemlerinin
zekânın temeli olduğunu
13:58
and we admititiraf etmek that we will improveiyileştirmek
these systemssistemler continuouslydevamlı olarak,
281
826360
3760
ve bu sistemleri aralıksız
geliştireceğimizi kabul ettiğimizde
14:03
and we admititiraf etmek that the horizonufuk
of cognitionbiliş very likelymuhtemelen faruzak exceedsaşıyor
282
831280
4456
ve bilişin ufkunun bildiğimizden
daha uzaklara uzandığını
14:07
what we currentlyşu anda know,
283
835760
1200
kabul ettiğimizde,
14:10
then we have to admititiraf etmek
284
838120
1216
bir çeşit yaratıcı
14:11
that we are in the processsüreç
of buildingbina some sortçeşit of god.
285
839360
2640
geliştirme sürecinde olduğumuzu
kabul etmek durumunda olacağız.
Şu an ise bu yaratıcıyla
yaşayabilme durumumuza
14:15
Now would be a good time
286
843400
1576
14:17
to make sure it's a god we can livecanlı with.
287
845000
1953
karar vermek için doğru zaman olabilir.
14:20
Thank you very much.
288
848120
1536
Çok teşekkürler.
14:21
(ApplauseAlkış)
289
849680
5093
(Alkışlar)
Translated by Pınar Sadioglu
Reviewed by Yunus Aşık

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com