ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Max Tegmark: Yapay zekâya boyun eğmek değil, onunla güçlenmek

Filmed:
1,409,007 views

Birçok yapay zekâ araştırmacısı yapay zekânın insanları her görevde ve işte birkaç on yıl içerisinde geçeceğini öngörüyorlar, kendi zekâmızın sınırlarından değil, sadece fizik kuralları tarafından kısıtlandığımız bir geleceğe yol açarak. MIT'li fizikçi ve yapay zekâ araştırmacısı Max Tegmark gerçek fırsatları ve tehlikeleri efsanelerden ayırıyor, şimdi atmamız gereken kesin adımları anlatarak, yapay zekânın insanlığın başına gelmiş en kötü değil, en iyi şey olduğunu garanti altına almak için.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionmilyar yearsyıl
of cosmickozmik historytarih,
0
760
4416
13,8 milyar yıllık kozmik geçmişin
ardından
00:17
our universeEvren has wokenuyandı up
1
5200
2096
evrenimiz uyandı
00:19
and becomeolmak awarefarkında of itselfkendisi.
2
7320
1520
ve kendi farkına vardı.
00:21
From a smallküçük bluemavi planetgezegen,
3
9480
1936
Küçük mavi bir gezegenden
00:23
tinyminik, consciousbilinçli partsparçalar of our universeEvren
have begunbaşladı gazingbakan out into the cosmosEvren
4
11440
4136
evrenimizin ufacık, bilinçli parçaları
uzayı teleskoplarla
00:27
with telescopesteleskoplar,
5
15600
1376
gözetlemeye başladılar
ve mahçup edici bir şey keşfettiler.
00:29
discoveringkeşfetmek something humblinghumbling.
6
17000
1480
00:31
We'veBiz ettik discoveredkeşfedilen that our universeEvren
is vastlyçok grandergörkemli
7
19320
2896
Evrenimizin atalarımızın düşündüğünden
00:34
than our ancestorsatalarımız imaginedhayal
8
22240
1336
çok daha büyük olduğunu
00:35
and that life seemsgörünüyor to be an almostneredeyse
imperceptiblybelli belirsiz smallküçük perturbationpertürbasyon
9
23600
4256
ve hayatın, aksi taktirde ölü olacak
bir evrende ufacık ve belli belirsiz
00:39
on an otherwiseaksi takdirde deadölü universeEvren.
10
27880
1720
bir sapma olduğunu keşfettik.
00:42
But we'vebiz ettik alsoAyrıca discoveredkeşfedilen
something inspiringilham verici,
11
30320
3016
Aynı zamanda büyüleyici
bir şey keşfettik;
00:45
whichhangi is that the technologyteknoloji
we're developinggelişen has the potentialpotansiyel
12
33360
2976
geliştirdiğimiz teknolojinin,
hayatın ilerlemesine
00:48
to help life flourishgüzelleşmek like never before,
13
36360
2856
yardım etme potansiyelinin daha önce
hiç olmadığı kadar fazla olduğunu
00:51
not just for centuriesyüzyıllar
but for billionsmilyarlarca of yearsyıl,
14
39240
3096
sadece yüzyıllardır değil
milyarlarca senedir
00:54
and not just on earthtoprak but throughoutboyunca
much of this amazingşaşırtıcı cosmosEvren.
15
42360
4120
ve sadece dünyada değil,
bu müthiş evrenin birçok yerinde...
00:59
I think of the earliesten erken life as "Life 1.0"
16
47680
3336
En erken yaşamı "Yaşam 1.0"
olarak düşünüyorum
01:03
because it was really dumbdilsiz,
17
51040
1376
çünkü gerçekten aptaldı,
01:04
like bacteriabakteriler, unableaciz to learnöğrenmek
anything duringsırasında its lifetimeömür.
18
52440
4296
bakteri gibi, yaşamı boyunca
öğrenmekten aciz.
01:08
I think of us humansinsanlar as "Life 2.0"
because we can learnöğrenmek,
19
56760
3376
Biz insanları "Yaşam 2.0" olarak
tahayyül ediyorum çünkü öğrenebiliyoruz
01:12
whichhangi we in nerdyinek, geekinek speakkonuşmak,
20
60160
1496
bilgisayar diliyle konuşursak
01:13
mightbelki think of as installingYükleme
newyeni softwareyazılım into our brainsbeyin,
21
61680
3216
beynimize yeni bir program kurmak
ile kıyaslanabilir,
01:16
like languagesdiller and job skillsbecerileri.
22
64920
2120
diller ve iş becerileri gibi.
01:19
"Life 3.0," whichhangi can designdizayn not only
its softwareyazılım but alsoAyrıca its hardwaredonanım
23
67680
4296
Kendi yazılımını ve donanımını
tasarlayan "Yaşam 3.0"
01:24
of coursekurs doesn't existvar olmak yethenüz.
24
72000
1656
tabii ki henüz mevcut değil.
01:25
But perhapsbelki our technologyteknoloji
has alreadyzaten madeyapılmış us "Life 2.1,"
25
73680
3776
Ama belki teknolojimiz bizi zaten
"Yaşam 2.1" yapmıştır
01:29
with our artificialyapay kneesdizler,
pacemakersKalp pilleri and cochlearkoklear implantsimplantlar.
26
77480
4336
yapay dizlerimiz, kalp pillerimiz
ve biyonik kulaklarımız ile.
01:33
So let's take a closeryakın look
at our relationshipilişki with technologyteknoloji, OK?
27
81840
3880
O zaman teknoloji ile olan ilişkimize
daha yakından bakalım mı?
01:38
As an exampleörnek,
28
86800
1216
Örnek verecek olursak
01:40
the ApolloApollo 11 moonay missionmisyon
was bothher ikisi de successfulbaşarılı and inspiringilham verici,
29
88040
5296
Apollo 11 ay misyonunun
hem başarılı hem de ilham verici olması
01:45
showinggösterme that when we humansinsanlar
use technologyteknoloji wiselyakıllıca,
30
93360
3016
biz insanların, teknolojiyi
akıllıca kullandığımızda
01:48
we can accomplishbaşarmak things
that our ancestorsatalarımız could only dreamrüya of.
31
96400
3936
atalarımızın sadece hayal edebilecekleri
şeyleri başarabildiğimizi gösteriyor.
01:52
But there's an even more inspiringilham verici journeyseyahat
32
100360
2976
Ama daha da ilham verici bir yolculuk var
01:55
propelledtahrikli by something
more powerfulgüçlü than rocketroket enginesmotorlar,
33
103360
2680
roket motorundan daha güçlü
bir şey ile çalıştırılan,
01:59
where the passengersyolcu
aren'tdeğil just threeüç astronautsastronotlar
34
107200
2336
yolcuları sadece üç astronottan değil,
02:01
but all of humanityinsanlık.
35
109560
1776
bütün insanlıktan oluşan.
02:03
Let's talk about our collectivetoplu
journeyseyahat into the futuregelecek
36
111360
2936
Yapay zekâ ile geleceğe
02:06
with artificialyapay intelligencezeka.
37
114320
2000
ortak yolculuğumuzdan bahsedelim.
02:08
My friendarkadaş JaanJaan TallinnTallinn likesseviyor to pointpuan out
that just as with rocketryRoket,
38
116960
4536
Arkadaşım Jaan Tallinn, füze biliminde
olduğu gibi
02:13
it's not enoughyeterli to make
our technologyteknoloji powerfulgüçlü.
39
121520
3160
teknolojiyi güçlendirmemizin
yeterli olmadığını ifade ediyor.
02:17
We alsoAyrıca have to figureşekil out,
if we're going to be really ambitiousiddialı,
40
125560
3175
Aynı zamanda gerçekten
azimli olup olmayacağımızı,
02:20
how to steerSteer it
41
128759
1416
nasıl yönlendireceğimizi
02:22
and where we want to go with it.
42
130199
1681
ve hedefimizi çözmemiz lazım.
02:24
So let's talk about all threeüç
for artificialyapay intelligencezeka:
43
132880
2840
Yapay zekâ bakımından
önemli üç konudan da bahsedelim:
02:28
the powergüç, the steeringyönetim
and the destinationhedef.
44
136440
3056
güç, yönlendirme ve hedef.
02:31
Let's startbaşlama with the powergüç.
45
139520
1286
Güç ile başlayalım.
02:33
I definetanımlamak intelligencezeka very inclusivelyikisi --
46
141600
3096
Ben zekâyı çok kapsamlı ama
basit bir şekilde,
02:36
simplybasitçe as our abilitykabiliyet
to accomplishbaşarmak complexkarmaşık goalshedefleri,
47
144720
4336
karışık hedeflerin üstesinden
gelme yeteneğimiz olarak tanımlıyorum
02:41
because I want to includeDahil etmek bothher ikisi de
biologicalbiyolojik and artificialyapay intelligencezeka.
48
149080
3816
çünkü hem biyolojik hem de
yapay zekâyı dâhil etmek istiyorum.
02:44
And I want to avoidönlemek
the sillysaçma carbon-chauvinismkarbon-şovenizm ideaFikir
49
152920
4016
Karbon şovenizminin 'sadece
etten kemikten isen zeki olabilirsin'
şeklindeki saçma sapan fikrini
çürütmek istiyorum.
02:48
that you can only be smartakıllı
if you're madeyapılmış of meatet.
50
156960
2360
02:52
It's really amazingşaşırtıcı how the powergüç
of AIAI has grownyetişkin recentlyson günlerde.
51
160880
4176
Son zamanlarda yapay zekânın gücü
inanılmaz derecede arttı.
02:57
Just think about it.
52
165080
1256
Sadece bir düşünün.
02:58
Not long agoönce, robotsrobotlar couldn'tcould walkyürümek.
53
166360
3200
Daha düne kadar
robotlar yürüyemiyordu.
03:03
Now, they can do backflipsBackflips.
54
171040
1720
Şimdi ise ters takla atabiliyorlar.
03:06
Not long agoönce,
55
174080
1816
Daha düne kadar
03:07
we didn't have self-drivingkendi kendine sürüş carsarabalar.
56
175920
1760
sürücüsüz arabalarımız yoktu.
03:10
Now, we have self-flyingkendi kendine uçan rocketsRoketler.
57
178920
2480
Şimdi ise pilotsuz roketlerimiz var.
03:15
Not long agoönce,
58
183960
1416
Daha düne kadar
03:17
AIAI couldn'tcould do faceyüz recognitiontanıma.
59
185400
2616
yapay zekânın yüz tanımlaması yoktu.
03:20
Now, AIAI can generateüretmek fakesahte facesyüzleri
60
188040
2976
Şimdi ise yapay zekâ
sahte yüzler oluşturup
03:23
and simulatebenzetmek your faceyüz
sayingsöz stuffşey that you never said.
61
191040
4160
yüzünü hiç söylemediğin şeyleri
söylüyormuş gibi taklit edebiliyor.
03:28
Not long agoönce,
62
196400
1576
Daha düne kadar
03:30
AIAI couldn'tcould beatdövmek us at the gameoyun of Go.
63
198000
1880
yapay zekâ, Go oyununda bizi yenemezdi.
03:32
Then, GoogleGoogle DeepMind'sDeepMind'ın AlphaZeroAlphaZero AIAI
tookaldı 3,000 yearsyıl of humaninsan Go gamesoyunlar
64
200400
5096
Sonra Google DeepMind'ın AlphaZero
yapay zekâsı 3000 yıllık Go oyunlarını
03:37
and Go wisdombilgelik,
65
205520
1256
ve Go bilgeliğini alıp
03:38
ignoredihmal it all and becameoldu the world'sDünyanın en besten iyi
playeroyuncu by just playingoynama againstkarşısında itselfkendisi.
66
206800
4976
görmezden geldi ve kendisine karşı
oynayarak dünyanın en iyi oyuncusu oldu.
03:43
And the mostçoğu impressiveetkileyici featfeat here
wasn'tdeğildi that it crushedezilmiş humaninsan gamersoyuncular,
67
211800
3696
Burada en çarpıcı başarı
oyuncuları yenmesi değil
03:47
but that it crushedezilmiş humaninsan AIAI researchersaraştırmacılar
68
215520
2576
senelerini oyun oynama yazılımlarının
geliştirilmesine adamış
03:50
who had spentharcanmış decadeson yıllar
handcraftinghandcrafting game-playingoyun oynarken softwareyazılım.
69
218120
3680
yapay zekâ araştırmacılarını yenmesi.
03:54
And AlphaZeroAlphaZero crushedezilmiş humaninsan AIAI researchersaraştırmacılar
not just in Go but even at chesssatranç,
70
222200
4656
Ve AlphaZero yapay zekâ araştırmacıları
sadece Go'da değil
03:58
whichhangi we have been workingçalışma on sincedan beri 1950.
71
226880
2480
1950'den beri üzerinde çalıştığımız
satrançta bile yendi.
04:02
So all this amazingşaşırtıcı recentson progressilerleme in AIAI
really begsyalvarır the questionsoru:
72
230000
4240
Yapay zekâda son zamanlardaki inanılmaz
ilerleme gerçekten şu soruyu ortaya atıyor
04:07
How faruzak will it go?
73
235280
1560
Ne kadar ileriye gidecek?
04:09
I like to think about this questionsoru
74
237800
1696
Bu soruyu yer şekillerinin
04:11
in termsşartlar of this abstractsoyut
landscapepeyzaj of tasksgörevler,
75
239520
2976
görevleri temsil ettiği soyut bir alan
olarak düşünmenizi istiyorum;
04:14
where the elevationyükseklik representstemsil
how hardzor it is for AIAI to do eachher taskgörev
76
242520
3456
rakım, her bir görevi insanlarla
aynı seviyede yapmanın yapay zekâ için
04:18
at humaninsan levelseviye,
77
246000
1216
ne kadar zor olduğunu,
04:19
and the seadeniz levelseviye representstemsil
what AIAI can do todaybugün.
78
247240
2760
deniz seviyesi ise yapay zekânın
bugün yapabildiklerini gösteriyor.
04:23
The seadeniz levelseviye is risingyükselen
as AIAI improvesgeliştirir,
79
251120
2056
Yapay zekâ geliştikçe
deniz seviyesi yükseliyor
04:25
so there's a kindtür of globalglobal warmingısınma
going on here in the taskgörev landscapepeyzaj.
80
253200
3440
yani bu görev alanında
bir tür küresel ısınma gerçekleşiyor.
04:30
And the obviousaçık takeawaypaket servisi olan Restoran
is to avoidönlemek careerskariyer at the waterfrontliman bölgesi --
81
258040
3335
Buradaki ana fikir deniz kıyısındaki
kariyerlerden kaçınmamız --
04:33
(LaughterKahkaha)
82
261399
1257
(Kahkaha)
04:34
whichhangi will soonyakında be
automatedotomatikleştirilmiş and disruptedbozulduğu.
83
262680
2856
yakında otomatikleştirilip
dağıtılacak.
04:37
But there's a much
biggerDaha büyük questionsoru as well.
84
265560
2976
Ama ortada daha büyük
bir soru var.
04:40
How highyüksek will the waterSu endson up risingyükselen?
85
268560
1810
Su daha ne kadar yükselecek?
04:43
Will it eventuallysonunda riseyükselmek
to floodsel everything,
86
271440
3200
Sonunda her şeyi
sular altında mı bırakacak,
04:47
matchingeşleştirme humaninsan intelligencezeka at all tasksgörevler.
87
275840
2496
insan zekâsıyla her görevde
eşit bir seviyeye gelerek.
04:50
This is the definitiontanım
of artificialyapay generalgenel intelligencezeka --
88
278360
3736
İşte bu genel yapay zekânın tanımı --
04:54
AGIAGI,
89
282120
1296
GYZ, başlangıçtan bu yana
04:55
whichhangi has been the holyKutsal grailkase
of AIAI researchAraştırma sincedan beri its inceptionbaşlangıç.
90
283440
3080
yapay zekâ araştırmalarının nihai
ve ulaşılması neredeyse imkânsız hedefi.
04:59
By this definitiontanım, people who say,
91
287000
1776
Bu tanım ile
05:00
"AhAh, there will always be jobsMeslekler
that humansinsanlar can do better than machinesmakineler,"
92
288800
3416
"Her zaman insanların makinelerden
daha iyi yapabileceği işler olacak"
05:04
are simplybasitçe sayingsöz
that we'lliyi never get AGIAGI.
93
292240
2920
diyen insanlar, hiçbir zaman GYZ'ye
ulaşamayacağımızı söylüyorlar.
05:07
Sure, we mightbelki still chooseseçmek
to have some humaninsan jobsMeslekler
94
295680
3576
Tabii hâlâ beşeri bir iş seçebiliriz
05:11
or to give humansinsanlar incomegelir
and purposeamaç with our jobsMeslekler,
95
299280
3096
veya insanlar işlerimizle
maaş alabilir ya da amaç edinebilirler
05:14
but AGIAGI will in any casedurum
transformdönüştürmek life as we know it
96
302400
3736
ama ne olursa olsun GYZ
alışageldiğimiz hayatı değiştirecek
05:18
with humansinsanlar no longeruzun beingolmak
the mostçoğu intelligentakıllı.
97
306160
2736
ve artık insanlar en zeki olmayacak.
05:20
Now, if the waterSu levelseviye does reachulaşmak AGIAGI,
98
308920
3696
Eğer GYZ deniz seviyesine ulaşırsa
yapay zekânın ilerleme süreci
05:24
then furtherayrıca AIAI progressilerleme will be driventahrik
mainlyağırlıklı olarak not by humansinsanlar but by AIAI,
99
312640
5296
ağırlıklı olarak insanlar tarafından değil
yapay zekâ tarafından yönlendirilecek
05:29
whichhangi meansanlamına geliyor that there's a possibilityolasılık
100
317960
1856
ve bu demektir ki bir ihtimal
05:31
that furtherayrıca AIAI progressilerleme
could be way fasterDaha hızlı
101
319840
2336
yapay zekâ yıllardır süregelen
insana özgü araştırma ve geliştirme
05:34
than the typicaltipik humaninsan researchAraştırma
and developmentgelişme timescalezaman ölçeği of yearsyıl,
102
322200
3376
zaman ölçeğinden
çok daha hızlı gelişebilir.
05:37
raisingyükselen the controversialtartışmalı possibilityolasılık
of an intelligencezeka explosionpatlama
103
325600
4016
Bununla birlikte tartışmalı
zekâ patlaması ihtimali yükseliyor,
05:41
where recursivelyözyinelemeli olarak self-improvingkendi kendini iyileştirme AIAI
104
329640
2296
kendini geliştiren yapay zekâ
05:43
rapidlyhızla leavesyapraklar humaninsan
intelligencezeka faruzak behindarkasında,
105
331960
3416
insan zekâsını hızla mazide bırakarak
05:47
creatingoluşturma what's knownbilinen
as superintelligencesuperintelligence.
106
335400
2440
süper zekâ olarak bilinen şeyi yaratıyor.
05:51
AlrightTamam, realitygerçeklik checkKontrol:
107
339800
2280
Tamam, gerçeğe dönelim:
05:55
Are we going to get AGIAGI any time soonyakında?
108
343120
2440
Yakın zamanda GYZ olacak mı?
05:58
Some famousünlü AIAI researchersaraştırmacılar,
like RodneyRodney BrooksBrooks,
109
346360
2696
Bazı ünlü yapay zekâ araştırmacıları,
Rodney Brooks gibi,
06:01
think it won'talışkanlık happenolmak
for hundredsyüzlerce of yearsyıl.
110
349080
2496
bunun yüzlerce yıl daha
gerçekleşmeyeceğini düşünüyor.
06:03
But othersdiğerleri, like GoogleGoogle DeepMindDeepMind
founderkurucu DemisDemis HassabisHassabis,
111
351600
3896
Ama başkaları, Google DeepMind
kurucusu Demis Hassabis gibi,
06:07
are more optimisticiyimser
112
355520
1256
daha olumlu bakıyorlar
06:08
and are workingçalışma to try to make
it happenolmak much soonerEr.
113
356800
2576
ve daha erken
olması için çalışıyorlar.
06:11
And recentson surveysanketler have showngösterilen
that mostçoğu AIAI researchersaraştırmacılar
114
359400
3296
En son yapılan anketlere göre
yapay zekâ araştırmacılarının çoğunluğu
06:14
actuallyaslında sharepay Demis'sDemis'ın optimismiyimserlik,
115
362720
2856
Demis'in iyimserliğini paylaşıyor,
06:17
expectingbekliyor that we will
get AGIAGI withiniçinde decadeson yıllar,
116
365600
3080
beklenti o ki, GYZ
birkaç on yıl içerisinde ortaya çıkacak
06:21
so withiniçinde the lifetimeömür of manyçok of us,
117
369640
2256
yani birçoğumuz hâlen hayattayken,
06:23
whichhangi begsyalvarır the questionsoru -- and then what?
118
371920
1960
bu da akıllara şu soruyu getiriyor
-- peki ya sonra?
06:27
What do we want the rolerol of humansinsanlar to be
119
375040
2216
İnsanın rolü ne olmalı,
eğer makineler her şeyi bizden daha iyi
ve daha ucuza yapabiliyorsa?
06:29
if machinesmakineler can do everything better
and cheaperdaha ucuz than us?
120
377280
2680
06:35
The way I see it, we faceyüz a choiceseçim.
121
383000
2000
Bence bir tercih yapmalıyız.
06:38
One optionseçenek is to be complacenthalinden memnun.
122
386000
1576
İlk seçenek, ilgisiz kalmak.
06:39
We can say, "Oh, let's just buildinşa etmek machinesmakineler
that can do everything we can do
123
387600
3776
Diyebiliriz ki, "Bizim yapabildiklerimizi
yapabilen makineler geliştirelim
06:43
and not worryendişelenmek about the consequencessonuçları.
124
391400
1816
ve sonuçlarını düşünmeyelim.
06:45
Come on, if we buildinşa etmek technologyteknoloji
that makesmarkaları all humansinsanlar obsoleteeski,
125
393240
3256
Hadi ama, teknoloji biz insanları
işe yaramaz bir yığına dönüştürüyorsa
06:48
what could possiblybelki go wrongyanlış?"
126
396520
2096
sorun bunun neresinde?
06:50
(LaughterKahkaha)
127
398640
1656
(Kahkaha)
06:52
But I think that would be
embarrassinglyutanç verici lametopal.
128
400320
2760
Ama bence bu utandırıcı bir şekilde
saçma olur.
06:56
I think we should be more ambitiousiddialı --
in the spiritruh of TEDTED.
129
404080
3496
Bence daha hırslı olmalıyız --
TED'i örnek alarak.
06:59
Let's envisionöngörülüyor a trulygerçekten inspiringilham verici
high-techyüksek teknoloji futuregelecek
130
407600
3496
Gerçekten ilham veren yüksek
teknolojili bir gelecek hayal edip
07:03
and try to steerSteer towardskarşı it.
131
411120
1400
ona doğru yönelmeyi deneyelim.
07:05
This bringsgetiriyor us to the secondikinci partBölüm
of our rocketroket metaphormecaz: the steeringyönetim.
132
413720
3536
Bu bizi roket metaforunun ikinci
bölümüne getiriyor: yönlendirme.
07:09
We're makingyapma AIAI more powerfulgüçlü,
133
417280
1896
Biz yapay zekâyı daha güçlü yapıyoruz
07:11
but how can we steerSteer towardskarşı a futuregelecek
134
419200
3816
ama nasıl bir geleceğe doğru
yönlendirelim ki
07:15
where AIAI helpsyardım eder humanityinsanlık flourishgüzelleşmek
ratherdaha doğrusu than flounderpisi balığı?
135
423040
3080
YZ insanlığın ilerlemesine
yardım etsin, bocalamasından ziyade?
07:18
To help with this,
136
426760
1256
Buna yardım etmek için
07:20
I cofoundedcofounded the FutureGelecek of Life InstituteEnstitüsü.
137
428040
1976
Yaşamın Geleceği Enstitüsünü kurduk,
küçük, kâr amacı olmayan,
faydalı teknoloji kullanımını
07:22
It's a smallküçük nonprofitkâr amacı gütmeyen promotingteşvik
beneficialfaydalı technologyteknoloji use,
138
430040
2776
07:24
and our goalhedef is simplybasitçe
for the futuregelecek of life to existvar olmak
139
432840
2736
destekleyen... Amacımız sadece
yaşamın geleceğinin var olması
07:27
and to be as inspiringilham verici as possiblemümkün.
140
435600
2056
ve bunun mümkün olduğunca
ilham verici olması.
07:29
You know, I love technologyteknoloji.
141
437680
3176
Ben teknolojiyi seviyorum biliyorsunuz.
07:32
TechnologyTeknoloji is why todaybugün
is better than the StoneTaş AgeYaş.
142
440880
2920
Bugünün taş devrinden
daha iyi olması teknoloji sayesinde.
07:36
And I'm optimisticiyimser that we can createyaratmak
a really inspiringilham verici high-techyüksek teknoloji futuregelecek ...
143
444600
4080
Gerçekten ilham verici yüksek teknolojili
bir gelecek yaratabileceğimize inanıyorum,
07:41
if -- and this is a bigbüyük if --
144
449680
1456
eğer -- ve bu büyük bir eğer --
07:43
if we winkazanmak the wisdombilgelik raceyarış --
145
451160
2456
eğer akıl yarışını kazanırsak --
07:45
the raceyarış betweenarasında the growingbüyüyen
powergüç of our technologyteknoloji
146
453640
2856
ki bu yarış, teknolojimizin büyüyen gücü
07:48
and the growingbüyüyen wisdombilgelik
with whichhangi we manageyönetmek it.
147
456520
2200
ve onu yöneten aklın gelişen
bilgeliği arasında.
07:51
But this is going to requiregerektirir
a changedeğişiklik of strategystrateji
148
459240
2296
Ama bunun için stratejinin
değişmesi gerekiyor
07:53
because our oldeski strategystrateji
has been learningöğrenme from mistakeshatalar.
149
461560
3040
çünkü eski stratejimiz
hatalardan ders çıkarıyor.
07:57
We inventedicat edildi fireateş,
150
465280
1536
Ateşi keşfettik,
07:58
screwedberbat up a bunchDemet of timeszamanlar --
151
466840
1536
birkaç kere çuvalladık --
08:00
inventedicat edildi the fireateş extinguisherYangın söndürücü.
152
468400
1816
yangın tüpünü icat ettik.
08:02
(LaughterKahkaha)
153
470240
1336
(Kahkaha)
08:03
We inventedicat edildi the cararaba,
screwedberbat up a bunchDemet of timeszamanlar --
154
471600
2416
Arabayı icat ettik,
birkaç kere çuvalladık --
trafik ışıklarını, emniyet kemerini
ve hava yastığını icat ettik
08:06
inventedicat edildi the traffictrafik lightışık,
the seatoturma yeri beltkemer and the airbagHava yastığı,
155
474040
2667
08:08
but with more powerfulgüçlü technologyteknoloji
like nuclearnükleer weaponssilahlar and AGIAGI,
156
476731
3845
ama daha güçlü teknolojiyle,
nükleer silah ve GYZ gibi
08:12
learningöğrenme from mistakeshatalar
is a lousybitli strategystrateji,
157
480600
3376
hatalardan öğrenmek
kötü bir strateji,
08:16
don't you think?
158
484000
1216
öyle değil mi?
08:17
(LaughterKahkaha)
159
485240
1016
(Kahkaha)
08:18
It's much better to be proactiveproaktif
ratherdaha doğrusu than reactiveReaktif;
160
486280
2576
Önetkin olmak tepkili olmaktan
çok daha iyi;
08:20
planplan aheadönde and get things
right the first time
161
488880
2296
ileriye dönük planlayıp ilk seferde
doğru yapmak...
08:23
because that mightbelki be
the only time we'lliyi get.
162
491200
2496
çünkü bu tek şansımız olabilir.
08:25
But it is funnykomik because
sometimesara sıra people tell me,
163
493720
2336
Komik bir durum çünkü bazen
insanlar bana diyor ki
08:28
"MaxMax, shhhSessiz ol, don't talk like that.
164
496080
2736
"Max, öyle deme.
08:30
That's LudditeOtomasyona karşı kimse scaremongeringscaremongering."
165
498840
1720
Bu korku tellallığı."
08:34
But it's not scaremongeringscaremongering.
166
502040
1536
Ama korku tellallığı değil bu.
08:35
It's what we at MITMIT
call safetyemniyet engineeringmühendislik.
167
503600
2880
MIT'de iş güvenliği mühendisliği
olarak adlandırdığımız şey.
08:39
Think about it:
168
507200
1216
Düşünün:
08:40
before NASANASA launchedbaşlattı
the ApolloApollo 11 missionmisyon,
169
508440
2216
NASA Apollo 11 misyonunu
fırlatmadan önce,
08:42
they systematicallysistematik olarak thought throughvasitasiyla
everything that could go wrongyanlış
170
510680
3136
insanları patlayıcı yakıt tanklarının
üstüne koyup
kimsenin yardım edemeyeceği
bir yere fırlattığında
08:45
when you put people
on topüst of explosivepatlayıcı fuelyakıt tankstanklar
171
513840
2376
ters gidebilecek her şeyi
sistematik olarak düşündüler.
08:48
and launchbaşlatmak them somewherebir yerde
where no one could help them.
172
516240
2616
08:50
And there was a lot that could go wrongyanlış.
173
518880
1936
Ve ters gidecek birçok şey vardı.
08:52
Was that scaremongeringscaremongering?
174
520840
1480
O korku tellallığı mıydı?
08:55
No.
175
523159
1217
Hayır.
08:56
That's was preciselytam
the safetyemniyet engineeringmühendislik
176
524400
2016
O tam olarak bu misyonun
08:58
that ensuredsağlanmalıdır the successbaşarı of the missionmisyon,
177
526440
1936
başarısını sağlayan iş güvenliği
09:00
and that is preciselytam the strategystrateji
I think we should take with AGIAGI.
178
528400
4176
ve bu tam olarak GYZ için
kullanmamız gereken strateji.
09:04
Think throughvasitasiyla what can go wrongyanlış
to make sure it goesgider right.
179
532600
4056
Doğru gitmesini sağlamak için yanlış
gidebilecekleri düşün.
09:08
So in this spiritruh,
we'vebiz ettik organizedörgütlü conferenceskonferanslar,
180
536680
2536
Bunun için
en iyi, yapay zekâ araştırmacılarını
ve diğer düşünürleri bir araya getirip
YZ'yi faydalı tutmak için ihtiyacımız olan
09:11
bringinggetiren togetherbirlikte leadingönemli
AIAI researchersaraştırmacılar and other thinkersdüşünürler
181
539240
2816
09:14
to discusstartışmak how to growbüyümek this wisdombilgelik
we need to keep AIAI beneficialfaydalı.
182
542080
3736
akıl nasıl büyür diye konuşmak için
konferanslar düzenledik.
09:17
Our last conferencekonferans
was in AsilomarAsilomar, CaliforniaCalifornia last yearyıl
183
545840
3296
En son konferansımız geçen sene
Asilomar, Kaliforniya'daydı
09:21
and producedüretilmiş this listliste of 23 principlesprensipler
184
549160
3056
ve orada 23 maddeden oluşan
bir liste yapıldı,
şu ana dek binden fazla YZ araştırmacısı
ve üst düzey endüstri liderleri
09:24
whichhangi have sincedan beri been signedimzalı
by over 1,000 AIAI researchersaraştırmacılar
185
552240
2896
09:27
and keyanahtar industrysanayi leadersliderler,
186
555160
1296
tarafından imzalandı
09:28
and I want to tell you
about threeüç of these principlesprensipler.
187
556480
3176
ve size bu maddelerin üçünden
bahsetmek istiyorum.
09:31
One is that we should avoidönlemek an armssilâh raceyarış
and lethalöldürücü autonomousözerk weaponssilahlar.
188
559680
4960
Bir, cephane yarışı ve
ölümcül özerk silahları bırakmalıyız.
09:37
The ideaFikir here is that any scienceBilim
can be used for newyeni waysyolları of helpingyardım ediyor people
189
565480
3616
Buradaki fikir, her bilim insanlara
yardım etmek ya da zarar vermek için
09:41
or newyeni waysyolları of harmingzarar verme people.
190
569120
1536
kullanılabilir.
09:42
For exampleörnek, biologyBiyoloji and chemistrykimya
are much more likelymuhtemelen to be used
191
570680
3936
Mesela biyoloji ve kimya insanları
öldürmek için yeni yollar bulmak yerine
09:46
for newyeni medicinesilaçlar or newyeni cureskürler
than for newyeni waysyolları of killingöldürme people,
192
574640
4856
daha çok yeni ilaçlar
ve yeni tedaviler için kullanılır,
09:51
because biologistsbiyologlar
and chemistskimyacılar pusheditilmiş hardzor --
193
579520
2176
çünkü biyologlar ve kimyagerler
biyolojik ve kimyasal silahların
yasaklanması için çok direndiler
09:53
and successfullybaşarılı olarak --
194
581720
1256
09:55
for bansyasakları on biologicalbiyolojik
and chemicalkimyasal weaponssilahlar.
195
583000
2176
ve başarılı oldular.
09:57
And in the sameaynı spiritruh,
196
585200
1256
Ve aynı düşünceyle
09:58
mostçoğu AIAI researchersaraştırmacılar want to stigmatizedamgalamak
and banyasak lethalöldürücü autonomousözerk weaponssilahlar.
197
586480
4440
çoğu YZ araştırmacısı ölümcül özerk
silahları kınayıp yasaklamak istiyor.
10:03
AnotherBaşka bir AsilomarAsilomar AIAI principleprensip
198
591600
1816
Başka bir Asilomar yapay zekâ prensibi ise
10:05
is that we should mitigateazaltmak
AI-fueledAI yakıtlı incomegelir inequalityeşitsizlik.
199
593440
3696
yapay zekâ bölümündeki
maaş ayrımcılığını azaltmak.
10:09
I think that if we can growbüyümek
the economicekonomik piepasta dramaticallydramatik with AIAI
200
597160
4456
Bence biz milli gelir pastasını yapay
zekâ ile önemli ölçüde büyütebiliyorsak
10:13
and we still can't figureşekil out
how to dividebölmek this piepasta
201
601640
2456
ve herkesin durumunun
daha iyi olması için
hâlâ bu pastayı nasıl bölüşeceğimizi
çözemiyorsak
10:16
so that everyoneherkes is better off,
202
604120
1576
10:17
then shameutanç on us.
203
605720
1256
bize yazıklar olsun.
10:19
(ApplauseAlkış)
204
607000
4096
(Alkış)
10:23
AlrightTamam, now raiseyükseltmek your handel
if your computerbilgisayar has ever crashedçöktü.
205
611120
3600
Peki, şimdi elinizi kaldırın eğer
bilgisayarınız bir kere bile çöktüyse.
10:27
(LaughterKahkaha)
206
615480
1256
(Kahkaha)
10:28
WowVay canına, that's a lot of handseller.
207
616760
1656
Vay be, baya bir kişi.
10:30
Well, then you'llEğer olacak appreciateanlamak
this principleprensip
208
618440
2176
O zaman yapay zekâ güvenlik
araştırmalarına
10:32
that we should investyatırmak much more
in AIAI safetyemniyet researchAraştırma,
209
620640
3136
daha çok para yatırmamız
hoşunuza gider
10:35
because as we put AIAI in chargeşarj etmek
of even more decisionskararlar and infrastructurealtyapı,
210
623800
3656
çünkü yapay zekâya daha çok karar
ve altyapı sorumluluğu verdikçe
10:39
we need to figureşekil out how to transformdönüştürmek
today'sbugünkü buggyböcekli and hackablehackable computersbilgisayarlar
211
627480
3616
bugünün sorunlu ve hacklenebilen
bilgisayarları nasıl gerçekten güvenilir
10:43
into robustgüçlü AIAI systemssistemler
that we can really trustgüven,
212
631120
2416
ve sağlam yapay zekâ sistemlerine dönüşür
çözmemiz lazım
10:45
because otherwiseaksi takdirde,
213
633560
1216
çünkü aksi hâlde
bütün bu muhteşem yeni teknoloji
arızalı çalışıp bize zarar verir
10:46
all this awesomemüthiş newyeni technologyteknoloji
can malfunctionarıza and harmzarar us,
214
634800
2816
10:49
or get hackedkesmek and be turneddönük againstkarşısında us.
215
637640
1976
veya hacklenip bize karşı kullanılabilir.
10:51
And this AIAI safetyemniyet work
has to includeDahil etmek work on AIAI valuedeğer alignmenthizalama,
216
639640
5696
Ve bu yapay zekâ güvenlik çalışmasının,
YZ değer sırası çalışmasını içermesi lazım
çünkü GYZ'den gelen gerçek tehlike
saçma Hollywood filmlerindeki
10:57
because the realgerçek threattehdit
from AGIAGI isn't malicekötü niyet,
217
645360
2816
11:00
like in sillysaçma HollywoodHollywood moviesfilmler,
218
648200
1656
kötülük değil
11:01
but competenceyetki --
219
649880
1736
aksine beceri --
11:03
AGIAGI accomplishingyerine getirmeye goalshedefleri
that just aren'tdeğil alignedhizalanmış with oursbizim.
220
651640
3416
GYZ'nin bizim hedeflerimizle paralel
olmayan hedeflere ulaşması...
11:07
For exampleörnek, when we humansinsanlar drovesürdü
the WestBatı AfricanAfrika blacksiyah rhinoGergedan extinctsoyu tükenmiş,
221
655080
4736
Mesela biz insanlar Batı Afrika
gergedanının neslini tükettiğimizde
11:11
we didn't do it because we were a bunchDemet
of evilkötülük rhinocerosGergedan hatershaters, did we?
222
659840
3896
bunu, onlardan nefret ettiğimiz
için yapmadık, değil mi?
11:15
We did it because
we were smarterdaha akıllı than them
223
663760
2056
Onlardan daha akıllı olduğumuz
için yaptık
11:17
and our goalshedefleri weren'tdeğildi alignedhizalanmış with theirsonların.
224
665840
2576
ve bizim hedeflerimiz onlarınkine uymadı.
11:20
But AGIAGI is by definitiontanım smarterdaha akıllı than us,
225
668440
2656
Ama GYZ doğası gereği bizden daha akıllı
11:23
so to make sure that we don't put
ourselveskendimizi in the positionpozisyon of those rhinosgergedanlar
226
671120
3576
yani GYZ'yi yaratırken
o gergedanlarla aynı duruma
11:26
if we createyaratmak AGIAGI,
227
674720
1976
düşmemek için
11:28
we need to figureşekil out how
to make machinesmakineler understandanlama our goalshedefleri,
228
676720
4176
makinelerin bizim hedeflerimizi
anlamasını, benimsemesini ve sürdürmesini
11:32
adoptbenimsemek our goalshedefleri and retaintutmak our goalshedefleri.
229
680920
3160
nasıl sağlayabileceğimizi çözmeliyiz.
11:37
And whosekimin goalshedefleri should these be, anywayneyse?
230
685320
2856
Peki kimin hedefleri olmalı?
11:40
WhichHangi goalshedefleri should they be?
231
688200
1896
Hangi hedefler olmalı?
11:42
This bringsgetiriyor us to the thirdüçüncü partBölüm
of our rocketroket metaphormecaz: the destinationhedef.
232
690120
3560
Bu bizi roket metaforumuzun
üçüncü bölümüne getiriyor: istikâmet.
11:47
We're makingyapma AIAI more powerfulgüçlü,
233
695160
1856
yapay zekâyı daha güçlü yapıp
nasıl yönlendireceğimizi
çözmeye çalışıyoruz
11:49
tryingçalışıyor to figureşekil out how to steerSteer it,
234
697040
1816
11:50
but where do we want to go with it?
235
698880
1680
ama bununla nereye varmak istiyoruz?
11:53
This is the elephantfil in the roomoda
that almostneredeyse nobodykimse talksgörüşmeler about --
236
701760
3656
Bu, burada TED'de
bile konuşulmayan
11:57
not even here at TEDTED --
237
705440
1856
görmezden gelinen aşikâr gerçek
11:59
because we're so fixatedsabitlenmiş
on short-termkısa dönem AIAI challengeszorluklar.
238
707320
4080
çünkü biz kısa süreli zorlu
yapay zekâ işlerine şartlanmışız.
12:04
Look, our speciesTürler is tryingçalışıyor to buildinşa etmek AGIAGI,
239
712080
4656
Bizim cinsimiz GYZ'yi
12:08
motivatedmotive by curiositymerak and economicsekonomi bilimi,
240
716760
3496
meraktan ve ekonomiden motive olarak
geliştirmeye çalışıyor
12:12
but what sortçeşit of futuregelecek societytoplum
are we hopingumut for if we succeedbaşarılı olmak?
241
720280
3680
ama gelecekte ne tür bir toplum
başarmayı umuyoruz?
Geçenlerde bununla ilgili bir
görüş anketi yaptık
12:16
We did an opiniongörüş pollAnket on this recentlyson günlerde,
242
724680
1936
12:18
and I was struckvurdu to see
243
726640
1216
ve çoğu insanın aslında
12:19
that mostçoğu people actuallyaslında
want us to buildinşa etmek superintelligencesuperintelligence:
244
727880
2896
süper zekâ, bizden her yönden
çok daha akıllı olan yapay zekâ
12:22
AIAI that's vastlyçok smarterdaha akıllı
than us in all waysyolları.
245
730800
3160
geliştirmemizi istediklerini
görmeme şaşırdım.
12:27
What there was the greatestEn büyük agreementanlaşma on
was that we should be ambitiousiddialı
246
735120
3416
Hemfikir olduğumuz konu azimli olmamız
12:30
and help life spreadYAYILMIŞ into the cosmosEvren,
247
738560
2016
ve yaşamın uzaya dağılmasına
yardım etmemiz
12:32
but there was much lessaz agreementanlaşma
about who or what should be in chargeşarj etmek.
248
740600
4496
ama kimin veya neyin sorumlu olacağı
konusunda pek aynı fikirde olamadık.
12:37
And I was actuallyaslında quiteoldukça amusedeğlenerek
249
745120
1736
Ve aslında oldukça eğlendim
12:38
to see that there's some some people
who want it to be just machinesmakineler.
250
746880
3456
bazı insanların sadece makinelerin
sorumlu olmasını istediklerini görünce.
12:42
(LaughterKahkaha)
251
750360
1696
(Kahkaha)
12:44
And there was totalGenel Toplam disagreementanlaşmazlık
about what the rolerol of humansinsanlar should be,
252
752080
3856
İnsanın rolü hakkında
en basit seviyede bile
12:47
even at the mostçoğu basictemel levelseviye,
253
755960
1976
büyük fikir ayrımı vardı.
12:49
so let's take a closeryakın look
at possiblemümkün futuresvadeli işlem
254
757960
2816
Şimdi yönelebileceğimiz
muhtemel geleceklere
12:52
that we mightbelki chooseseçmek
to steerSteer towardkarşı, alrightPeki?
255
760800
2736
daha yakından bakalım.
12:55
So don't get be wrongyanlış here.
256
763560
1336
Beni yanlış anlamayın.
12:56
I'm not talkingkonuşma about spaceuzay travelseyahat,
257
764920
2056
Uzay yolculuğundan değil,
12:59
merelysadece about humanity'sinsanlığın
metaphoricalMecazi journeyseyahat into the futuregelecek.
258
767000
3200
sadece insanlığın geleceğe
mecazi yolculuğundan bahsediyorum.
13:02
So one optionseçenek that some
of my AIAI colleaguesmeslektaşlar like
259
770920
3496
YZ iş arkadaşlarımın beğendiği
bir seçenek, esir edilmiş bir tanrı gibi
13:06
is to buildinşa etmek superintelligencesuperintelligence
and keep it underaltında humaninsan controlkontrol,
260
774440
3616
internet bağlantısı kesilmiş
ve onu kontrol eden için
13:10
like an enslavedköle god,
261
778080
1736
akıl almaz teknoloji
13:11
disconnectedbağlantı kesildi from the internetInternet
262
779840
1576
ve zenginlik getiren
13:13
and used to createyaratmak unimaginabledüşünülemez
technologyteknoloji and wealthservet
263
781440
3256
süper zekâ geliştirip onu
insan denetiminin
13:16
for whoeverher kim controlskontroller it.
264
784720
1240
altında tutmak.
13:18
But LordLord ActonActon warneduyardı us
265
786800
1456
Ama Acton efendi bizi uyardı;
13:20
that powergüç corruptsbozmak,
and absolutekesin powergüç corruptsbozmak absolutelykesinlikle,
266
788280
3616
güç bozar ve sınırsız güç
mutlaka bozar.
13:23
so you mightbelki worryendişelenmek that maybe
we humansinsanlar just aren'tdeğil smartakıllı enoughyeterli,
267
791920
4056
O yüzden insanların yeteri kadar zeki,
daha doğrusu bilgili olmadıklarından
13:28
or wisebilge enoughyeterli ratherdaha doğrusu,
268
796000
1536
bu kadar güçle başa çıkmak için,
13:29
to handlesap this much powergüç.
269
797560
1240
endişe edebilirsiniz.
13:31
AlsoAyrıca, asidebir kenara from any
moralmanevi qualmsqualms you mightbelki have
270
799640
2536
Üstün akılları esir almakla ilgili
13:34
about enslavingköleleştirme superiorüstün mindszihinler,
271
802200
2296
her ahlaki şüphenin yanında
13:36
you mightbelki worryendişelenmek that maybe
the superintelligencesuperintelligence could outsmartzekâsı us,
272
804520
3976
süper zekânın belki bizi
zekâsıyla yenip zincirlerini kırıp
13:40
breakkırılma out and take over.
273
808520
2240
yönetimi ele geçirebileceğinden
endişe edebilirsiniz.
13:43
But I alsoAyrıca have colleaguesmeslektaşlar
who are fine with AIAI takingalma over
274
811560
3416
Ama yapay zekânın yönetimi ele geçirmesine
ve insanın neslinin tükenmesine
13:47
and even causingneden olan humaninsan extinctionsönme,
275
815000
2296
kafa yormayan iş arkadaşlarım var,
13:49
as long as we feel the the AIsAIS
are our worthylayık descendantstorunları,
276
817320
3576
yeter ki yapay zekânın gelecekteki
kıymetli kuşağımız olduğunu hissedelim,
13:52
like our childrençocuklar.
277
820920
1736
çocuklarımız gibi.
13:54
But how would we know that the AIsAIS
have adoptedbenimsenen our besten iyi valuesdeğerler
278
822680
5616
Ama nasıl bilebiliriz ki, yapay zekâların
en iyi değerlerimizi benimseyip
14:00
and aren'tdeğil just unconsciousbilinçsiz zombieszombiler
trickingkandırma us into anthropomorphizinganthropomorphizing them?
279
828320
4376
sadece bilinçsiz zombiler olup bizi onları
insanlaştırmak için kandırmadıklarını?
14:04
AlsoAyrıca, shouldn'tolmamalı those people
who don't want humaninsan extinctionsönme
280
832720
2856
İnsan neslinin tükenmesini istemeyen
insanların da
14:07
have a say in the mattermadde, too?
281
835600
1440
bunda söz hakkı olması gerekmiyor mu?
14:10
Now, if you didn't like eitherya
of those two high-techyüksek teknoloji optionsseçenekleri,
282
838200
3376
Bu iki yüksek teknoloji opsiyonunu
beğenmediyseniz
14:13
it's importantönemli to rememberhatırlamak
that low-techDüşük teknolojili is suicideintihar
283
841600
3176
uzay açısından düşük teknolojinin
intihar olduğunu
14:16
from a cosmickozmik perspectiveperspektif,
284
844800
1256
hatırlamak önemli,
14:18
because if we don't go faruzak
beyondötesinde today'sbugünkü technologyteknoloji,
285
846080
2496
çünkü bugünkü teknolojinin
çok ilerisine gitmezsek
14:20
the questionsoru isn't whetherolup olmadığını humanityinsanlık
is going to go extinctsoyu tükenmiş,
286
848600
2816
soru insanlığın tükeneceği
değil
14:23
merelysadece whetherolup olmadığını
we're going to get takenalınmış out
287
851440
2016
ancak daha iyi teknolojinin
çözebileceği
14:25
by the nextSonraki killerkatil asteroidasteroit, supervolcanoSüper yanardağ
288
853480
2136
bir sonraki katil asteroitin,
14:27
or some other problemsorun
that better technologyteknoloji could have solvedçözülmüş.
289
855640
3096
yanardağın veya başka sorunun
bizi yok etmesi.
14:30
So, how about havingsahip olan
our cakekek and eatingyemek yiyor it ...
290
858760
3576
Peki, değerlerimiz uyumlu olduğu için
bize iyi davranan
14:34
with AGIAGI that's not enslavedköle
291
862360
1840
köleleştirilmemiş genel yapay zekâ ile
14:37
but treatsmuamele etmek us well because its valuesdeğerler
are alignedhizalanmış with oursbizim?
292
865120
3176
oturup pasta yemeye ne dersiniz?
14:40
This is the gistana fikri of what EliezerEliezer YudkowskyYudkowsky
has calleddenilen "friendlyarkadaş canlısı AIAI,"
293
868320
4176
Bu Eliezer Yudkowsky'nin "samimi
yapay zekâ ''dediği ana fikir
14:44
and if we can do this,
it could be awesomemüthiş.
294
872520
2680
ve bunu yapabilirsek
mükemmel olur.
14:47
It could not only eliminateelemek negativenegatif
experiencesdeneyimler like diseasehastalık, povertyyoksulluk,
295
875840
4816
Sadece hastalık, fakirlik, suç
ve başka işkenceler gibi kötü tecrübeleri
14:52
crimesuç and other sufferingçile,
296
880680
1456
yok etmekle kalmaz,
14:54
but it could alsoAyrıca give us
the freedomözgürlük to chooseseçmek
297
882160
2816
aynı zamanda müthiş çeşitlilikte
pozitif tecrübeleri
14:57
from a fantasticfantastik newyeni diversityçeşitlilik
of positivepozitif experiencesdeneyimler --
298
885000
4056
seçme özgürlüğünü verir --
15:01
basicallytemel olarak makingyapma us
the mastersyüksek lisans of our ownkendi destinyKader.
299
889080
3160
bizi kendi kaderimizin efendisi
yaparak.
15:06
So in summaryÖzeti,
300
894280
1376
Özet olarak
15:07
our situationdurum with technologyteknoloji
is complicatedkarmaşık,
301
895680
3096
teknolojiyle olan durumumuz karışık
15:10
but the bigbüyük pictureresim is ratherdaha doğrusu simplebasit.
302
898800
2416
ama büyük resim oldukça basit.
15:13
MostÇoğu AIAI researchersaraştırmacılar
expectbeklemek AGIAGI withiniçinde decadeson yıllar,
303
901240
3456
Çoğu yapay zekâ araştırmacısı
GYZ'yi birkaç on yıl içinde bekliyor
15:16
and if we just bumblebombus
into this unpreparedhazırlıksız,
304
904720
3136
ve biz buna hazırlıksız girişirsek
15:19
it will probablymuhtemelen be
the biggesten büyük mistakehata in humaninsan historytarih --
305
907880
3336
bu muhtemelen insanlık tarihinin
en büyük hatası olur --
15:23
let's faceyüz it.
306
911240
1416
gerçekçi olmak gerekirse.
15:24
It could enableetkinleştirmek brutalacımasız,
globalglobal dictatorshipdiktatörlük
307
912680
2576
Eşi görülmemiş eşitsizlikle
acımasız diktatörlük,
15:27
with unprecedentedeşi görülmemiş inequalityeşitsizlik,
surveillancegözetim and sufferingçile,
308
915280
3536
gözetim ve işkence, hatta belki
insan neslinin tükenmesine
15:30
and maybe even humaninsan extinctionsönme.
309
918840
1976
yol açabilir.
15:32
But if we steerSteer carefullydikkatlice,
310
920840
2320
Ama dikkatlice yönelirsek
15:36
we could endson up in a fantasticfantastik futuregelecek
where everybody'sherkesin better off:
311
924040
3896
herkesin çok daha iyi durumda olduğu
müthiş bir geleceğe varabiliriz:
15:39
the poorfakir are richerzengin, the richzengin are richerzengin,
312
927960
2376
fakir daha zengin, zengin daha zengin,
15:42
everybodyherkes is healthysağlıklı
and freeücretsiz to livecanlı out theironların dreamsrüyalar.
313
930360
3960
herkes sağlıklı
ve hayallerini gerçekleştirmekte özgür.
15:47
Now, hangasmak on.
314
935000
1536
Şimdi durun.
15:48
Do you folksarkadaşlar want the futuregelecek
that's politicallypolitik olarak right or left?
315
936560
4576
Sizler sağcı mı solcu mu
bir gelecek istiyorsunuz?
15:53
Do you want the piousdindar societytoplum
with strictsıkı moralmanevi ruleskurallar,
316
941160
2856
Sıkı ahlaki kuralları olan
muhafazakâr mı
15:56
or do you an hedonistichazcı free-for-allFree-tüm,
317
944040
1816
ya da 7/24 Burning Man gibi
hedonistik
15:57
more like BurningYanan Man 24/7?
318
945880
2216
herkese bedava toplum mu istiyorsunuz?
16:00
Do you want beautifulgüzel beachesSahiller,
forestsormanlar and lakesGöller,
319
948120
2416
Güzel plajlar, ormanlar ve göller mi
istersiniz
16:02
or would you prefertercih etmek to rearrangeyeniden düzenleme
some of those atomsatomları with the computersbilgisayarlar,
320
950560
3416
yoksa sanal tecrübe sağlayarak
bu atomların birkaçını
16:06
enablingetkinleştirme virtualsanal experiencesdeneyimler?
321
954000
1715
bilgisayarla düzeltmek mi?
16:07
With friendlyarkadaş canlısı AIAI, we could simplybasitçe
buildinşa etmek all of these societiestoplumlar
322
955739
3157
Samimi yapay zekâ ile kolaylıkla
bu toplumları geliştirip
16:10
and give people the freedomözgürlük
to chooseseçmek whichhangi one they want to livecanlı in
323
958920
3216
insanlara yaşamak istedikleri yeri
seçme özgürlüğünü verebiliriz
16:14
because we would no longeruzun
be limitedsınırlı by our intelligencezeka,
324
962160
3096
çünkü artık zekâmızla değil,
sadece fizik kurallarıyla
16:17
merelysadece by the lawsyasalar of physicsfizik.
325
965280
1456
sınırlanacağız.
16:18
So the resourceskaynaklar and spaceuzay
for this would be astronomicalastronomik --
326
966760
4616
Bunun için kaynaklar ve mekân
16:23
literallyharfi harfine.
327
971400
1320
aşırı büyük olur.
16:25
So here'sburada our choiceseçim.
328
973320
1200
Seçeneklerimiz şunlar;
16:27
We can eitherya be complacenthalinden memnun
about our futuregelecek,
329
975880
2320
ya geleceğimizle ilgili
kayıtsız kalırız,
16:31
takingalma as an articlemakale of blindkör faithinanç
330
979440
2656
her yeni teknolojinin kârlı
olacağına körü körüne inanıp
16:34
that any newyeni technologyteknoloji
is guaranteedgarantili to be beneficialfaydalı,
331
982120
4016
bunu mantra olarak
16:38
and just repeattekrar et that to ourselveskendimizi
as a mantramantra over and over and over again
332
986160
4136
dümensiz bir gemi gibi
kendi eskimemize doğru yönelirken,
16:42
as we driftsürüklenme like a rudderlessDümensiz shipgemi
towardskarşı our ownkendi obsolescenceEskitme.
333
990320
3680
kendimize sürekli
tekrarlayabiliriz.
16:46
Or we can be ambitiousiddialı --
334
994920
1880
Ya da hırslı olabiliriz --
teknolojimizi nasıl yönlendireceğimizi
16:49
thinkingdüşünme hardzor about how
to steerSteer our technologyteknoloji
335
997840
2456
16:52
and where we want to go with it
336
1000320
1936
ve nereye varmak istediğimizi
iyice düşünerek
16:54
to createyaratmak the ageyaş of amazementhayretle.
337
1002280
1760
muhteşem çağı geliştirmek için.
16:57
We're all here to celebratekutlamak
the ageyaş of amazementhayretle,
338
1005000
2856
Hepimiz muhteşem çağı kutlamak
için buradayız
16:59
and I feel that its essenceöz should lieYalan
in becomingolma not overpoweredoverpowered
339
1007880
4440
ve hissediyorum ki özünde
ona boyun eğmek değil
17:05
but empoweredgüçlenmiş by our technologyteknoloji.
340
1013240
2616
teknolojimizle güçlenmek var.
17:07
Thank you.
341
1015880
1376
Teşekkürler.
17:09
(ApplauseAlkış)
342
1017280
3080
(Alkış)
Translated by Melis Meyer-Gümüs
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com