ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Süper zeki yapay zekadan korkmayın

Filmed:
2,866,438 views

Bilim adamı ve filozof Grady Booch diyor ki: "Yeni teknolojiler yeni endişeler ortaya çıkarır, ama çok güçlü ve hisleri olmayan bir yapay zekadan korkmamıza gerek yok". Booch süper zeki bilgisayarlar hakkındaki (bilim kurgular yüzünden oluşmuş) en kötü korkularımızı onlara değerlerimizi nasıl öğreteceğimizi açıklayarak, sadece programlamayarak, yatıştırıyor. Olası olmayan varoluşsal bir tehdit hakkında endişelenmek yerine, yapay zekanın insan hayatını nasıl geliştireceğini düşünmemize teşvik ediyor.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidçocuk,
I was the quintessentialözetin özeti nerdinek öğrenci.
0
760
3840
Çocukken tam bir inektim.
00:17
I think some of you were, too.
1
5320
2176
Galiba bazılarınız da inektiniz.
00:19
(LaughterKahkaha)
2
7520
1216
(Kahkaha)
00:20
And you, sirBayım, who laughedgüldü the loudestsesin,
you probablymuhtemelen still are.
3
8760
3216
Ve siz beyefendi, en sesli gülen,
siz muhtemelen hala ineksiniz.
00:24
(LaughterKahkaha)
4
12000
2256
(Kahkaha)
00:26
I grewbüyüdü up in a smallküçük townkasaba
in the dustytozlu plainsovalar of northkuzeyinde TexasTexas,
5
14280
3496
Kuzey Teksas'ın tozlu düz arazilerinde
küçük bir kasabada büyüdüm.
00:29
the sonoğul of a sheriffŞerif
who was the sonoğul of a pastorPapaz.
6
17800
3336
Babam şerif,
büyükbabam ise bir papazdı.
00:33
GettingBaşlarken into troublesorun was not an optionseçenek.
7
21160
1920
Başımı belaya sokmak
hiç kaçınılmaz değildi.
00:36
And so I startedbaşladı readingokuma
calculusDiferansiyel ve İntegral Hesap bookskitaplar for funeğlence.
8
24040
3256
Bu yüzden öylesine matematik
kitapları okumaya başladım.
00:39
(LaughterKahkaha)
9
27320
1536
(Kahkaha)
00:40
You did, too.
10
28880
1696
Sen de okudun.
00:42
That led me to buildingbina a laserlazer
and a computerbilgisayar and modelmodel rocketsRoketler,
11
30600
3736
Bu okumalar lazer, bilgisayar ve
maket roketler yapmamı sağladı.
00:46
and that led me to makingyapma
rocketroket fuelyakıt in my bedroomyatak odası.
12
34360
3000
Bunlar ise roket yakıtı yapmamı sağladı.
00:49
Now, in scientificilmi termsşartlar,
13
37960
3656
Şimdi, bilimsel olarak
00:53
we call this a very badkötü ideaFikir.
14
41640
3256
biz buna "çok kötü bir fikir" deriz.
00:56
(LaughterKahkaha)
15
44920
1216
(Kahkaha)
00:58
Around that sameaynı time,
16
46160
2176
O zamanlarda,
01:00
StanleyStanley Kubrick'sKubrick'in "2001: A SpaceUzay OdysseyOdyssey"
camegeldi to the theaterstiyatro,
17
48360
3216
Stanley Kubrick'in filmi
"2001: Uzay Macerası" sinemalara gelmişti,
01:03
and my life was foreversonsuza dek changeddeğişmiş.
18
51600
2200
ve benim hayatım sonsuza kadar değişmişti.
01:06
I lovedsevilen everything about that moviefilm,
19
54280
2056
Bu filmi çok sevmiştim,
01:08
especiallyözellikle the HALHAL 9000.
20
56360
2536
özellikle HAL 9000'i.
01:10
Now, HALHAL was a sentientduygulu computerbilgisayar
21
58920
2056
HAL, uzay gemisi Keşif'i Dünya'dan
01:13
designedtasarlanmış to guidekılavuz the DiscoveryKeşif spacecraftuzay aracı
22
61000
2456
Jüpiter'e götürmek için tasarlanmış
01:15
from the EarthDünya to JupiterJüpiter.
23
63480
2536
duyguları olan bir bilgisayar.
01:18
HALHAL was alsoAyrıca a flawedkusurlu characterkarakter,
24
66040
2056
HAL ayrıca kusurlu bir karaktere sahip.
01:20
for in the endson he choseseçti
to valuedeğer the missionmisyon over humaninsan life.
25
68120
4280
Çünkü sonunda, görevi
insan hayatına tercih etmişti.
01:24
Now, HALHAL was a fictionalkurgusal characterkarakter,
26
72840
2096
HAL uydurma bir karakter,
01:26
but nonethelessyine de he speakskonuşur to our fearsendişe,
27
74960
2656
ama yine de o korkularımızı simgeliyor,
01:29
our fearsendişe of beingolmak subjugatedboyun eğdirilmiş
28
77640
2096
İnsanlığımızı umursamayan
01:31
by some unfeelingduygusuz, artificialyapay intelligencezeka
29
79760
3016
duygusuz bir yapay zeka tarafından
01:34
who is indifferentkayıtsız to our humanityinsanlık.
30
82800
1960
kontrol altına alınma korkumuz.
01:37
I believe that suchböyle fearsendişe are unfoundedasılsız.
31
85880
2576
Bu tür korkuların yersiz
olduğuna inanıyorum.
01:40
IndeedGerçekten de, we standdurmak at a remarkabledikkat çekici time
32
88480
2696
Gerçekten de insan tarihinde
01:43
in humaninsan historytarih,
33
91200
1536
olağanüstü bir zamandayız.
01:44
where, driventahrik by refusalret to acceptkabul etmek
the limitssınırları of our bodiesbedenler and our mindszihinler,
34
92760
4976
Vücudumuzun ve aklımızın
limitleri olduğunu kabul etmeyişimizle
01:49
we are buildingbina machinesmakineler
35
97760
1696
Yaşam deneyimini
01:51
of exquisiteenfes, beautifulgüzel
complexitykarmaşa and graceGrace
36
99480
3616
hayallerin ötesinde geliştirecek
01:55
that will extenduzatmak the humaninsan experiencedeneyim
37
103120
2056
üstün bir karmaşıklık ve zarafete sahip
01:57
in waysyolları beyondötesinde our imagininghayal.
38
105200
1680
makineler üretiyoruz.
01:59
After a careerkariyer that led me
from the AirHava ForceKuvvet AcademyAkademi
39
107720
2576
Beni hava harp okulundan
hava komutasına, oradan da
02:02
to SpaceUzay CommandKomut to now,
40
110320
1936
şimdiye getiren kariyerden sonra
02:04
I becameoldu a systemssistemler engineermühendis,
41
112280
1696
sistem mühendisi oldum.
02:06
and recentlyson günlerde I was drawnçekilmiş
into an engineeringmühendislik problemsorun
42
114000
2736
Geçenlerde NASA'nın Mars göreviyle ilgili
02:08
associatedilişkili with NASA'sNASA'ın missionmisyon to MarsMars.
43
116760
2576
bir mühendislik probleminde yer aldım.
02:11
Now, in spaceuzay flightsuçuşlar to the MoonAy,
44
119360
2496
Ay'a giden uzay uçuşlarında
02:13
we can relygüvenmek uponüzerine
missionmisyon controlkontrol in HoustonHouston
45
121880
3136
uçuşla ilgili her şeyde
02:17
to watch over all aspectsyönleri of a flightuçuş.
46
125040
1976
Houston'daki görev merkezine bağlıyız.
02:19
HoweverAncak, MarsMars is 200 timeszamanlar furtherayrıca away,
47
127040
3536
Fakat, Mars 200 kat uzakta.
02:22
and as a resultsonuç it takes
on averageortalama 13 minutesdakika
48
130600
3216
Sonuç olarak, bir sinyalin
Dünya'dan Mars'a ulaşması
02:25
for a signalişaret to travelseyahat
from the EarthDünya to MarsMars.
49
133840
3136
ortalama 13 dakika sürüyor.
02:29
If there's troublesorun,
there's not enoughyeterli time.
50
137000
3400
Bir sorun varsa,
yeteri kadar zaman yok.
02:32
And so a reasonablemakul engineeringmühendislik solutionçözüm
51
140840
2496
Makul bir mühendislik çözümü sunmak için
02:35
callsaramalar for us to put missionmisyon controlkontrol
52
143360
2576
görev kontrolü uzay aracı Orion'ın
02:37
insideiçeride the wallsduvarlar of the OrionOrion spacecraftuzay aracı.
53
145960
3016
içine koymamız gerekir.
02:41
AnotherBaşka bir fascinatingbüyüleyici ideaFikir
in the missionmisyon profileprofil
54
149000
2896
Görev profilindeki başka
bir enteresan fikir
02:43
placesyerler humanoidinsanımsı robotsrobotlar
on the surfaceyüzey of MarsMars
55
151920
2896
insanlar Mars'a varmadan önce,
02:46
before the humansinsanlar themselveskendilerini arrivevarmak,
56
154840
1856
Mars'ın yüzeyine insansı robotlar
02:48
first to buildinşa etmek facilitiestesisler
57
156720
1656
gönderip tesisler kurdurmak,
02:50
and latersonra to serveservis as collaborativeişbirlikçi
membersüyeler of the scienceBilim teamtakım.
58
158400
3360
sonra onları araştırma ekibinin
ortak mensubu yapmak.
02:55
Now, as I lookedbaktı at this
from an engineeringmühendislik perspectiveperspektif,
59
163400
2736
Bu fikre bir mühendisin
bakış açısından baktığımda,
02:58
it becameoldu very clearaçık to me
that what I neededgerekli to architectmimar
60
166160
3176
tasarlamam gereken şeyin
akıllı, iş birliği yapabilen,
03:01
was a smartakıllı, collaborativeişbirlikçi,
61
169360
2176
sosyal zekaya sahip
bir yapay zeka olduğu
03:03
sociallysosyal intelligentakıllı
artificialyapay intelligencezeka.
62
171560
2376
çok açık ve netti.
03:05
In other wordskelimeler, I neededgerekli to buildinşa etmek
something very much like a HALHAL
63
173960
4296
Başka deyişle, HAL'e çok benzeyen
bir şey yapmam gerekti.
03:10
but withoutolmadan the homicidalkatil tendencieseğilimler.
64
178280
2416
ama adam öldürme meyili olmayan bir HAL.
03:12
(LaughterKahkaha)
65
180720
1360
(Kahkaha)
03:14
Let's pauseDuraklat for a momentan.
66
182920
1816
Biraz ara verelim.
03:16
Is it really possiblemümkün to buildinşa etmek
an artificialyapay intelligencezeka like that?
67
184760
3896
Böyle bir yapay zeka yapmak
gerçekten mümkün mü?
03:20
ActuallyAslında, it is.
68
188680
1456
Aslında mümkün.
03:22
In manyçok waysyolları,
69
190160
1256
Bir çok yönüyle,
03:23
this is a hardzor engineeringmühendislik problemsorun
70
191440
1976
yapay zeka ilkeleriyle, bu zor
03:25
with elementselementler of AIAI,
71
193440
1456
bir mühendislik problemidir,
03:26
not some wetıslak hairsaç balltop of an AIAI problemsorun
that needsihtiyaçlar to be engineeredmühendislik.
72
194920
4696
mühendisliği yapılacak
basit bir yapay zeka problemi değil.
03:31
To paraphrasetefsir AlanAlan TuringTuring,
73
199640
2656
Alan Turing'in dediği gibi,
03:34
I'm not interestedilgili
in buildingbina a sentientduygulu machinemakine.
74
202320
2376
Duyguları olan bir makine
yapmakla ilgilenmiyorum.
03:36
I'm not buildingbina a HALHAL.
75
204720
1576
Bir HAL yapmıyorum.
03:38
All I'm after is a simplebasit brainbeyin,
76
206320
2416
Tek yapmak istediğim,
03:40
something that offersteklifler
the illusionyanılsama of intelligencezeka.
77
208760
3120
zeka yanılsaması gösteren basit bir beyin.
03:45
The artSanat and the scienceBilim of computingbilgi işlem
have come a long way
78
213000
3136
HAL ilk gösterildiğinden beri,
programlama sanatı ve bilimi
03:48
sincedan beri HALHAL was onscreenekranda,
79
216160
1496
uzun yol kat etti.
03:49
and I'd imaginehayal etmek if his inventormucit
DrDr. ChandraChandra were here todaybugün,
80
217680
3216
HAL'in yaratıcısı eğer burada olsaydı,
03:52
he'diçin ona have a wholebütün lot of questionssorular for us.
81
220920
2336
eminim bize soracağı çok soru olurdu.
03:55
Is it really possiblemümkün for us
82
223280
2096
"Milyonlarca cihazdan oluşan bir sistemin
03:57
to take a systemsistem of millionsmilyonlarca
uponüzerine millionsmilyonlarca of devicescihazlar,
83
225400
4016
veri akışını okuyup
onların hata ve eylemlerini
04:01
to readokumak in theironların dataveri streamsakışları,
84
229440
1456
önceden tahmin etmek
04:02
to predicttahmin theironların failuresarızaları
and actdavranmak in advanceilerlemek?
85
230920
2256
gerçekten mümkün mü?"
04:05
Yes.
86
233200
1216
Evet.
04:06
Can we buildinşa etmek systemssistemler that converseConverse
with humansinsanlar in naturaldoğal languagedil?
87
234440
3176
"İnsanlarla doğal dilde sohbet edebilen
sistemler yapabilir miyiz?"
04:09
Yes.
88
237640
1216
Evet.
04:10
Can we buildinşa etmek systemssistemler
that recognizetanımak objectsnesneleri, identifybelirlemek emotionsduygular,
89
238880
2976
"Objeleri ve duyguları
tanımlayabilen, duygusal davranan
04:13
emoteEmote themselveskendilerini,
playoyun gamesoyunlar and even readokumak lipsdudaklar?
90
241880
3376
oyun oynayabilen ve hatta dudak
okuyabilen sistemler yapabilir miyiz?
04:17
Yes.
91
245280
1216
Evet.
04:18
Can we buildinşa etmek a systemsistem that setskümeler goalshedefleri,
92
246520
2136
''Hedefler koyup
o hedefleri gerçekleştirmek
04:20
that carriestaşır out plansplanları againstkarşısında those goalshedefleri
and learnsöğrenir alonguzun bir the way?
93
248680
3616
için planlar yapan ve bu esnada
öğrenen bir sistem yapabilir miyiz?''
04:24
Yes.
94
252320
1216
Evet.
04:25
Can we buildinşa etmek systemssistemler
that have a theoryteori of mindus?
95
253560
3336
"Akıl teorisi olan sistemler
yapabilir miyiz?"
04:28
This we are learningöğrenme to do.
96
256920
1496
İşte bunu yapmayı öğreniyoruz.
04:30
Can we buildinşa etmek systemssistemler that have
an ethicalahlâki and moralmanevi foundationvakıf?
97
258440
3480
"Etik ve ahlaki temeli olan
sistemler yapabilir miyiz?"
04:34
This we mustşart learnöğrenmek how to do.
98
262480
2040
İşte bunu öğrenmek zorundayız.
04:37
So let's acceptkabul etmek for a momentan
99
265360
1376
Farz edelim ki
04:38
that it's possiblemümkün to buildinşa etmek
suchböyle an artificialyapay intelligencezeka
100
266760
2896
bu ve benzeri amaçlar için bu tür
04:41
for this kindtür of missionmisyon and othersdiğerleri.
101
269680
2136
bir yapay zeka geliştirmek mümkün olsun.
04:43
The nextSonraki questionsoru
you mustşart asksormak yourselfkendin is,
102
271840
2536
Kendinize sormanız gereken
ilk soru şu olmalı:
04:46
should we fearkorku it?
103
274400
1456
Bundan korkmalı mıyız?
04:47
Now, everyher newyeni technologyteknoloji
104
275880
1976
Her yeni teknoloji
04:49
bringsgetiriyor with it
some measureölçmek of trepidationdehşet.
105
277880
2896
korkuyu da kendiyle birlikte getirir.
04:52
When we first saw carsarabalar,
106
280800
1696
Arabaları ilk gördüğümüzde
04:54
people lamentedağıt that we would see
the destructionimha of the familyaile.
107
282520
4016
insanlar ailenin yok oluşunu
göreceğimizden yakındılar.
04:58
When we first saw telephonestelefonlar come in,
108
286560
2696
Telefonlar hayatımıza girdiğinde
05:01
people were worriedendişeli it would destroyyıkmak
all civilsivil conversationkonuşma.
109
289280
2896
herkes bunun medeni konuşmayı
tahrip edeceğinden endişeliydi.
05:04
At a pointpuan in time we saw
the writtenyazılı wordsözcük becomeolmak pervasiveyaygın,
110
292200
3936
Yazılı kelimelerin kalıcı
olduğunu anladığımız zaman
05:08
people thought we would losekaybetmek
our abilitykabiliyet to memorizeezberlemek.
111
296160
2496
insanlar ezber yeteneğimizin
kaybolacağını sandılar.
05:10
These things are all truedoğru to a degreederece,
112
298680
2056
Bütün bunlar bir noktaya kadar doğru
05:12
but it's alsoAyrıca the casedurum
that these technologiesteknolojiler
113
300760
2416
Fakat bu teknolojilerin
yaşam deneyimimizi
05:15
broughtgetirdi to us things
that extendedGenişletilmiş the humaninsan experiencedeneyim
114
303200
3376
inanılmaz şekillerde geliştirecek şeyler
05:18
in some profoundderin waysyolları.
115
306600
1880
getirdiği de bir gerçek.
05:21
So let's take this a little furtherayrıca.
116
309840
2280
Hadi bunu bir adım daha öteye taşıyalım.
05:25
I do not fearkorku the creationoluşturma
of an AIAI like this,
117
313120
4736
Bu tür bir yapay zekanın
yaratılmasından korkmuyorum,
05:29
because it will eventuallysonunda
embodysomutlaştırmak some of our valuesdeğerler.
118
317880
3816
çünkü zamanla yapay zeka
bazı değerlerimizi cisimleştirecek.
05:33
ConsiderDüşünün this: buildingbina a cognitivebilişsel systemsistem
is fundamentallyesasen differentfarklı
119
321720
3496
Şunu düşünün: Bilişsel bir sistem yapmak
geleneksel yazılım yoğunluklu
05:37
than buildingbina a traditionalgeleneksel
software-intensiveyazılım-yoğun systemsistem of the pastgeçmiş.
120
325240
3296
bir sistem yapmaktan temel olarak farklı.
05:40
We don't programprogram them. We teachöğretmek them.
121
328560
2456
Onları programlamıyoruz.
Onlara öğretiyoruz.
05:43
In ordersipariş to teachöğretmek a systemsistem
how to recognizetanımak flowersÇiçekler,
122
331040
2656
Bir sisteme çiçekleri nasıl
tanıyacağını öğretmek için
05:45
I showgöstermek it thousandsbinlerce of flowersÇiçekler
of the kindsçeşit I like.
123
333720
3016
ona sevdiğim türde
binlerce çiçek gösteririm.
05:48
In ordersipariş to teachöğretmek a systemsistem
how to playoyun a gameoyun --
124
336760
2256
Bir sisteme oyun oynamayı
öğretmek için
05:51
Well, I would. You would, too.
125
339040
1960
Öğretirdim, sen de öğretirdin.
05:54
I like flowersÇiçekler. Come on.
126
342600
2040
Çiçekleri severim, hadi ama.
05:57
To teachöğretmek a systemsistem
how to playoyun a gameoyun like Go,
127
345440
2856
Bir sisteme Go gibi bir oyunu
oynamayı öğretmek için
06:00
I'd have it playoyun thousandsbinlerce of gamesoyunlar of Go,
128
348320
2056
Ona binlerce Go oynattırırdım.
06:02
but in the processsüreç I alsoAyrıca teachöğretmek it
129
350400
1656
Fakat bu süreçte ona ayrıca
06:04
how to discernayırt
a good gameoyun from a badkötü gameoyun.
130
352080
2416
iyi oyunu kötü oyundan
ayırmayı da öğretirim.
06:06
If I want to createyaratmak an artificiallyyapay
intelligentakıllı legalyasal assistantYardımcısı,
131
354520
3696
Yapay zekası olan bir
avukat yardımcısı yaratmak istersem,
06:10
I will teachöğretmek it some corpuskülliyat of lawhukuk
132
358240
1776
ona biraz hukuk dağarcığı öğretirim,
06:12
but at the sameaynı time I am fusingeritme with it
133
360040
2856
ama aynı zamanda
hukukun bir parçası olan
06:14
the senseduyu of mercymerhamet and justiceadalet
that is partBölüm of that lawhukuk.
134
362920
2880
merhamet ve adalet
duygusunu da aşılarım.
06:18
In scientificilmi termsşartlar,
this is what we call groundzemin truthhakikat,
135
366560
2976
Bilimsel olarak söyleyecek olursam,
buna "kesin referans" deriz
06:21
and here'sburada the importantönemli pointpuan:
136
369560
2016
İşte önemli nokta şu:
06:23
in producingüreten these machinesmakineler,
137
371600
1456
Bu makineleri üretirken
06:25
we are thereforebu nedenle teachingöğretim them
a senseduyu of our valuesdeğerler.
138
373080
3416
onlara kendi değerlerimizden
bir parça da öğretiriz.
06:28
To that endson, I trustgüven
an artificialyapay intelligencezeka
139
376520
3136
Bu noktaya kadar, daha çok olmasa da
yapay zekaya iyi yetişmiş
06:31
the sameaynı, if not more,
as a humaninsan who is well-trainediyi eğitimli.
140
379680
3640
bir insana güvendiğim kadar güvenirim.
06:36
But, you mayMayıs ayı asksormak,
141
384080
1216
Fakat şunu sorabilirsiniz:
06:37
what about roguehaydut agentsajanları,
142
385320
2616
Ya kötüye kullanan 3. partiler?
06:39
some well-fundediyi finanse edilen
nongovernmentservisler organizationorganizasyon?
143
387960
3336
bazı iyi finanse edilmiş
sivil toplum kuruluşları?
06:43
I do not fearkorku an artificialyapay intelligencezeka
in the handel of a loneyalnız wolfKurt.
144
391320
3816
Yalnız bir kurdun elindeki
yapay zekadan korkmam.
06:47
ClearlyAçıkça, we cannotyapamam protectkorumak ourselveskendimizi
againstkarşısında all randomrasgele actseylemler of violenceşiddet,
145
395160
4536
Açıkçası, kendimizi bütün rastgele
şiddet olaylarına karşı koruyamayız.
06:51
but the realitygerçeklik is suchböyle a systemsistem
146
399720
2136
Ancak gerçeklik öyle bir sistem ki
06:53
requiresgerektirir substantialönemli trainingEğitim
and subtleince trainingEğitim
147
401880
3096
insan kaynaklarının çok ötesinde
oldukça büyük
06:57
faruzak beyondötesinde the resourceskaynaklar of an individualbireysel.
148
405000
2296
ve kıvrak zekaya sahip
bir eğitime ihtiyaç duyar.
06:59
And furthermoreayrıca,
149
407320
1216
Dahası...
07:00
it's faruzak more than just injectingenjekte
an internetInternet virusvirüs to the worldDünya,
150
408560
3256
Bir düğmeye basıp milyonlarca
yere yayılan ve
07:03
where you pushit a buttondüğme,
all of a suddenani it's in a millionmilyon placesyerler
151
411840
3096
laptopların her yerde patlamasına
yol açan bir internet virüsü
07:06
and laptopsdizüstü bilgisayarlar startbaşlama blowingüfleme up
all over the placeyer.
152
414960
2456
sızdırmaktan çok daha fazlası.
07:09
Now, these kindsçeşit of substancesmaddeler
are much largerdaha büyük,
153
417440
2816
Bu tür maddeler çok daha büyük,
07:12
and we'lliyi certainlykesinlikle see them cominggelecek.
154
420280
1715
ve kesinlikle bunlara tanık olacağız.
07:14
Do I fearkorku that suchböyle
an artificialyapay intelligencezeka
155
422520
3056
Yapay zekanın bütün insanlığı
07:17
mightbelki threatentehdit all of humanityinsanlık?
156
425600
1960
tehdit edebileceğinden korkuyor muyum?
07:20
If you look at moviesfilmler
suchböyle as "The MatrixMatris," "MetropolisMetropolis,"
157
428280
4376
"The Matrix", "Metropolis", "Terminator"
gibi filmlere ya da
07:24
"The TerminatorSonlandırıcı,"
showsgösterileri suchböyle as "WestworldWestworld,"
158
432680
3176
"Westworld" gibi dizilere bakarsanız
07:27
they all speakkonuşmak of this kindtür of fearkorku.
159
435880
2136
onlar hep bu tür bir korkudan bahsederler.
07:30
IndeedGerçekten de, in the bookkitap "SuperintelligenceSuperintelligence"
by the philosopherfilozof NickNick BostromBostrom,
160
438040
4296
Gerçekten de filozof Nick Bostrom
"Süper Zeka" kitabında
07:34
he picksseçtikleri up on this themetema
161
442360
1536
bu konudan bahseder.
07:35
and observesgözlemler that a superintelligencesuperintelligence
mightbelki not only be dangeroustehlikeli,
162
443920
4016
Süper zekanın sadece tehlikeli
olabileceğini değil
07:39
it could representtemsil etmek an existentialvaroluşsal threattehdit
to all of humanityinsanlık.
163
447960
3856
ayrıca varoluşsal bir tehdit
oluşturabileceğini gözlemliyor.
07:43
DrDr. Bostrom'sBostrom'ın basictemel argumenttartışma
164
451840
2216
Dr. Bostrom'un temel argümanı şöyle:
07:46
is that suchböyle systemssistemler will eventuallysonunda
165
454080
2736
Bu sistemler zamanla o kadar çok
07:48
have suchböyle an insatiabledoyumsuz
thirstsusuzluk for informationbilgi
166
456840
3256
bilgiye doyumsuzca aç olacaklar ki
07:52
that they will perhapsbelki learnöğrenmek how to learnöğrenmek
167
460120
2896
belki de öğrenmeyi öğrenecekler
07:55
and eventuallysonunda discoverkeşfetmek
that they mayMayıs ayı have goalshedefleri
168
463040
2616
ve zamanla insanların
ihtiyaçlarıyla çelişen
07:57
that are contraryaksi to humaninsan needsihtiyaçlar.
169
465680
2296
amaçlara sahip olacaklar.
08:00
DrDr. BostromBostrom has a numbernumara of followerstakipçileri.
170
468000
1856
Dr. Bostrom'un bir çok takipçisi var.
08:01
He is supporteddestekli by people
suchböyle as ElonElon MuskMisk and StephenStephen HawkingHawking.
171
469880
4320
Elon Musk ve Stephen Hawking gibi
insanlar tarafından destekleniyor.
08:06
With all duenedeniyle respectsaygı
172
474880
2400
Bu parlak beyinlere
08:10
to these brilliantparlak mindszihinler,
173
478160
2016
saygısızlık etmek istemem ama
08:12
I believe that they
are fundamentallyesasen wrongyanlış.
174
480200
2256
onların aslında hatalı
olduğuna inanıyorum.
08:14
Now, there are a lot of piecesparçalar
of DrDr. Bostrom'sBostrom'ın argumenttartışma to unpackaçmak,
175
482480
3176
Dr. Bostrom'un argümanlarının
ayrıntılarına inmek isterdim ama
08:17
and I don't have time to unpackaçmak them all,
176
485680
2136
o kadar zamanım yok.
08:19
but very brieflykısaca, considerdüşünmek this:
177
487840
2696
Şunu çok kısaca bir düşünün:
08:22
superSüper knowingbilme is very differentfarklı
than superSüper doing.
178
490560
3736
Süper bilmek süper yapmaktan çok farklı.
08:26
HALHAL was a threattehdit to the DiscoveryKeşif crewmürettebat
179
494320
1896
HAL Keşif'i bütün yönleriyle
08:28
only insofarkadarıyla as HALHAL commandedkomuta
all aspectsyönleri of the DiscoveryKeşif.
180
496240
4416
komuta ettiği sürece,
o Keşif tayfasına karşı bir tehditti.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
Bu yüzden onun süper
zekaya sahip olması gerekir.
08:35
It would have to have dominionhakimiyet
over all of our worldDünya.
182
503200
2496
Onun bütün dünya üzerinde
egemenliği olurdu.
08:37
This is the stuffşey of SkynetSkynet
from the moviefilm "The TerminatorSonlandırıcı"
183
505720
2816
Bu The Terminator'deki Skynet şeyi işte,
08:40
in whichhangi we had a superintelligencesuperintelligence
184
508560
1856
İnsan iradesi üzerinde kontrolü olan,
08:42
that commandedkomuta humaninsan will,
185
510440
1376
dünyanın her bir köşesindeki
08:43
that directedyönlendirilmiş everyher devicecihaz
that was in everyher cornerköşe of the worldDünya.
186
511840
3856
her bir cihazı yöneten
bir süper zeka.
08:47
PracticallyPratik olarak speakingkonuşuyorum,
187
515720
1456
Gerçekçi konuşursak,
08:49
it ain'tdeğil gonna happenolmak.
188
517200
2096
bu olmayacak.
08:51
We are not buildingbina AIsAIS
that controlkontrol the weatherhava,
189
519320
3056
Bizler havayı kontrol eden,
zamanı yönlendiren,
08:54
that directdirekt the tidesgelgit,
190
522400
1336
kaprisli, karmakarışık
08:55
that commandkomuta us
capriciouskaprisli, chaotickarmakarışık humansinsanlar.
191
523760
3376
insanları komuta eden
yapay zekalar yapmıyoruz.
08:59
And furthermoreayrıca, if suchböyle
an artificialyapay intelligencezeka existedvar,
192
527160
3896
Buna ek olarak,
böyle bir yapay zeka olsaydı,
09:03
it would have to competeyarışmak
with humaninsan economiesekonomiler,
193
531080
2936
insan ekonomisiyle yarışmak zorunda
olurdu, dolayısıyla
09:06
and therebyböylece competeyarışmak for resourceskaynaklar with us.
194
534040
2520
kaynaklar için bizimle yarışırlardı.
09:09
And in the endson --
195
537200
1216
Sonunda
09:10
don't tell SiriSiri this --
196
538440
1240
Siri'ye şunu söylemeyin:
09:12
we can always unplugçıkarın them.
197
540440
1376
"Hiç olmadı fişini çekeriz."
09:13
(LaughterKahkaha)
198
541840
2120
(Kahkaha)
09:17
We are on an incredibleinanılmaz journeyseyahat
199
545360
2456
Makinelerimizle mükemmel bir
09:19
of coevolutionCoevolution with our machinesmakineler.
200
547840
2496
evrim birlikteliği yolculuğundayız.
09:22
The humansinsanlar we are todaybugün
201
550360
2496
Bugünkü olduğumuz insan
09:24
are not the humansinsanlar we will be then.
202
552880
2536
o zamankiyle aynı olmayacak.
09:27
To worryendişelenmek now about the riseyükselmek
of a superintelligencesuperintelligence
203
555440
3136
Süper zekanın yükselişi hakkında
şimdi bu kadar endişelenmemiz
09:30
is in manyçok waysyolları a dangeroustehlikeli distractionoyalama
204
558600
3056
bir çok yönüyle tehlikeli bir
dikkat dağınıklığıdır,
09:33
because the riseyükselmek of computingbilgi işlem itselfkendisi
205
561680
2336
çünkü programlamanın yükselişi
09:36
bringsgetiriyor to us a numbernumara
of humaninsan and societaltoplumsal issuessorunlar
206
564040
3016
bize çözmemiz gereken bir çok
insancıl ve toplumsal
09:39
to whichhangi we mustşart now attendkatılmak.
207
567080
1640
sorunlar getirecek.
09:41
How shall-acak I besten iyi organizedüzenlemek societytoplum
208
569360
2816
İnsanların iş gücüne olan
ihtiyaç azaldığında
09:44
when the need for humaninsan laboremek diminishesazalır?
209
572200
2336
toplumda düzeni en iyi nasıl sağlarım:
09:46
How can I bringgetirmek understandinganlayış
and educationEğitim throughoutboyunca the globeküre
210
574560
3816
Dünya geneline nasıl anlayış ve
eğitim getiririm ve yine de
09:50
and still respectsaygı our differencesfarklar?
211
578400
1776
farklılıklarımıza saygı gösteririm?
09:52
How mightbelki I extenduzatmak and enhanceartırmak humaninsan life
throughvasitasiyla cognitivebilişsel healthcaresağlık hizmeti?
212
580200
4256
İnsan hayatını bilişsel sağlık hizmeti ile
nasıl genişletebilir ve geliştirebilirim?
09:56
How mightbelki I use computingbilgi işlem
213
584480
2856
Bizi yıldızlara götürecek programlamayı
09:59
to help take us to the starsyıldızlar?
214
587360
1760
nasıl kullabilirim?
10:01
And that's the excitingheyecan verici thing.
215
589760
2040
İşte bu heyecan verici bir şey.
10:04
The opportunitiesfırsatlar to use computingbilgi işlem
216
592400
2336
İnsan deneyimini ilerletmek için
10:06
to advanceilerlemek the humaninsan experiencedeneyim
217
594760
1536
programlama kullanma fırsatı
10:08
are withiniçinde our reachulaşmak,
218
596320
1416
elimizde
10:09
here and now,
219
597760
1856
Bu aralar
10:11
and we are just beginningbaşlangıç.
220
599640
1680
daha yeni başlıyoruz.
10:14
Thank you very much.
221
602280
1216
Çok teşekkürler.
10:15
(ApplauseAlkış)
222
603520
4286
(Alkış)
Translated by Enes Anbar
Reviewed by Cihan Ekmekçi

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com