ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Güvenlik İllüzyonu

Filmed:
958,315 views

Bilgisayar güvenlik uzmanu Bruce Schneier'ın dediğine göre güvende olma duygusu ve gerçekten güvende olma her zaman birbirine uymayabilir. TEDxPSU konuşmasında, haberlerde gördüğümüz tehlikelerden korunmak için neden milyonlar harcayıp da, daha muhtemel tehlikeleri göz ardı ediyor olduğumuzu açıklıyor -- ve bu tavrı nasıl değiştirebileceğimiz anlatıyor.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitygüvenlik is two differentfarklı things:
0
0
2000
Güvenlik iki farklı şeydir:
00:17
it's a feelingduygu, and it's a realitygerçeklik.
1
2000
2000
hem histir hem de gerçeklik.
00:19
And they're differentfarklı.
2
4000
2000
Ve bunlar birbirinden farklıdır.
00:21
You could feel securegüvenli
3
6000
2000
Güvende olmasanız bile
00:23
even if you're not.
4
8000
2000
güvende hissedebilirsiniz.
00:25
And you can be securegüvenli
5
10000
2000
Öyle hissediyor olmasanız bile
00:27
even if you don't feel it.
6
12000
2000
güvende olabilirsiniz.
00:29
Really, we have two separateayrı conceptskavramlar
7
14000
2000
Cidden, elimizde iki ayrı kavram var
00:31
mappedeşlenen ontoüstüne the sameaynı wordsözcük.
8
16000
2000
ve ikisi de aynı kelimeyle tanınıyor.
00:33
And what I want to do in this talk
9
18000
2000
Ve bu konuşmada yapmak istediğim
00:35
is to splitBölünmüş them apartayrı --
10
20000
2000
bu ikiliyi birbirinden ayırmak --
00:37
figuringendam out when they divergesapmak
11
22000
2000
nasıl birbirlerinden ayrılıp
00:39
and how they convergeYakınsama.
12
24000
2000
nasıl birleştiklerini anlatarak.
00:41
And languagedil is actuallyaslında a problemsorun here.
13
26000
2000
Ve dil aslında burada bir problem.
00:43
There aren'tdeğil a lot of good wordskelimeler
14
28000
2000
Bahsedeceğimiz kavramları anlatmak için
00:45
for the conceptskavramlar we're going to talk about.
15
30000
3000
yeterince doğru kelime bulunmuyor.
00:48
So if you look at securitygüvenlik
16
33000
2000
Güvenliğe ekonomik açıdan
00:50
from economicekonomik termsşartlar,
17
35000
2000
bakacak olursanız,
00:52
it's a trade-offticaret-off.
18
37000
2000
bir değiş tokuş gibidir.
00:54
EveryHer time you get some securitygüvenlik,
19
39000
2000
Güvenliğe ulaştığınız her an,
00:56
you're always tradingticari off something.
20
41000
2000
karşılığında birşey verirsiniz.
00:58
WhetherOlup olmadığı this is a personalkişisel decisionkarar --
21
43000
2000
Şahsi bir karar da olabilir --
01:00
whetherolup olmadığını you're going to installkurmak a burglarhırsız alarmalarm in your home --
22
45000
2000
evinize soygun alarmı taktırmak gibi --
01:02
or a nationalUlusal decisionkarar -- where you're going to invadesaldırmak some foreignyabancı countryülke --
23
47000
3000
ulusal bir karar da -- yabancı bir ülkede nereyi işgal edeceğiniz gibi --
01:05
you're going to tradeTicaret off something,
24
50000
2000
karşılığında birşeyler verirsiniz,
01:07
eitherya moneypara or time, conveniencekolaylık, capabilitiesyetenekleri,
25
52000
3000
para, zaman, kolaylık, yetenek,
01:10
maybe fundamentaltemel libertiesözgürlükler.
26
55000
3000
ya da temel özgürlüklerinizi.
01:13
And the questionsoru to asksormak when you look at a securitygüvenlik anything
27
58000
3000
Br güvenlik alanına bakıp da soracağınız soru
01:16
is not whetherolup olmadığını this makesmarkaları us saferdaha güvenli,
28
61000
3000
bizi daha güvende yapıp yapmayacağı değil,
01:19
but whetherolup olmadığını it's worthdeğer the trade-offticaret-off.
29
64000
3000
bir değiş tokuşa değip değmeyeceği olur.
01:22
You've heardduymuş in the pastgeçmiş severalbirkaç yearsyıl,
30
67000
2000
Geçen birkaç yıdır duyuyorsunuz,
01:24
the worldDünya is saferdaha güvenli because SaddamSaddam HusseinHüseyin is not in powergüç.
31
69000
2000
dünya Saddam Hüseyin artık iktidarda olmadığı için daha güvenli.
01:26
That mightbelki be truedoğru, but it's not terriblyson derece relevantuygun.
32
71000
3000
Doğru olabilir, ama tamamen alakalı değil.
01:29
The questionsoru is, was it worthdeğer it?
33
74000
3000
Asıl soru şu: buna değdi mi?
01:32
And you can make your ownkendi decisionkarar,
34
77000
3000
Kendi muhakemenizi yapabilir,
01:35
and then you'llEğer olacak decidekarar ver whetherolup olmadığını the invasionistila was worthdeğer it.
35
80000
2000
ve yapılan çıkarmaya değip değmediğine karar verebilirsiniz.
01:37
That's how you think about securitygüvenlik --
36
82000
2000
İşte güvenliği böyle tanımlarsınız --
01:39
in termsşartlar of the trade-offticaret-off.
37
84000
2000
değiş tokuş esasına dayalı olarak.
01:41
Now there's oftensık sık no right or wrongyanlış here.
38
86000
3000
Aslında burada doğru ya da yanlış yoktur.
01:44
Some of us have a burglarhırsız alarmalarm systemsistem at home,
39
89000
2000
Kimimiz evimize soygun alarmı kurdururuz,
01:46
and some of us don't.
40
91000
2000
kimimiz gerek görmeyiz.
01:48
And it'llolacak dependbağımlı on where we livecanlı,
41
93000
2000
Be da nerede yaşadığımıza bağlıdır,
01:50
whetherolup olmadığını we livecanlı aloneyalnız or have a familyaile,
42
95000
2000
yalnız mı yoksa ailemizle mi yaşadığımıza,
01:52
how much coolgüzel stuffşey we have,
43
97000
2000
ne kadar değerli eşyamız olduğuna,
01:54
how much we're willingistekli to acceptkabul etmek
44
99000
2000
soyulma riskini göze alabilmemize
01:56
the riskrisk of thefthırsızlık.
45
101000
2000
bağlıdır.
01:58
In politicssiyaset alsoAyrıca,
46
103000
2000
Poltikada da,
02:00
there are differentfarklı opinionsgörüşler.
47
105000
2000
farklı görüşler vardır.
02:02
A lot of timeszamanlar, these trade-offsdengelemeler
48
107000
2000
Bir çok defa, bu değiş tokuşlar
02:04
are about more than just securitygüvenlik,
49
109000
2000
güvenlikten daha mühimdir.
02:06
and I think that's really importantönemli.
50
111000
2000
Ve bence de bu çok önemlidir.
02:08
Now people have a naturaldoğal intuitionsezgi
51
113000
2000
Şimdi, insanların bu değiş tokuşlarla
02:10
about these trade-offsdengelemeler.
52
115000
2000
ilgili doğal bir içgüdüleri vardır.
02:12
We make them everyher day --
53
117000
2000
Hergün bunları yapıyoruz --
02:14
last night in my hotelotel roomoda,
54
119000
2000
dün akşam otel odamda,
02:16
when I decidedkarar to double-lockÇift-kilit the doorkapı,
55
121000
2000
kapımı iki defa kilitlemeye karar verdiğimde,
02:18
or you in your cararaba when you drovesürdü here,
56
123000
2000
ya da siz arabanızla buraya gelirken,
02:20
when we go eatyemek lunchöğle yemeği
57
125000
2000
yemeğe gittiğimizde
02:22
and decidekarar ver the food'sGıda'nın not poisonzehir and we'lliyi eatyemek it.
58
127000
3000
yemeğin zehirli olmadığına karar verip yediğimizde.
02:25
We make these trade-offsdengelemeler again and again,
59
130000
2000
Bu değiş tokuşları tekrar tekrar yapıyoruz,
02:27
multipleçoklu timeszamanlar a day.
60
132000
2000
günde defalarca.
02:29
We oftensık sık won'talışkanlık even noticeihbar them.
61
134000
2000
Bazen yaptığımızın farkına bile varmayız.
02:31
They're just partBölüm of beingolmak alivecanlı; we all do it.
62
136000
2000
Yaşamımızın bir parçası; herkesin yaptığı bir şey.
02:33
EveryHer speciesTürler does it.
63
138000
3000
Her canlının yaptığı birşey.
02:36
ImagineHayal a rabbittavşan in a fieldalan, eatingyemek yiyor grassçimen,
64
141000
2000
Bir tavşanı düşünün, tarlada otları yiyor,
02:38
and the rabbit'stavşan going to see a foxtilki.
65
143000
3000
ve tavşan bir tilki görür.
02:41
That rabbittavşan will make a securitygüvenlik trade-offticaret-off:
66
146000
2000
O tavşan güvenlik değiş tokuşu yapacaktır.
02:43
"Should I staykalmak, or should I fleekaçmak?"
67
148000
2000
"Kalsam mı, yoksa kaçsam mı?"
02:45
And if you think about it,
68
150000
2000
Ve bunu düşündüğünüzde,
02:47
the rabbitstavşan that are good at makingyapma that trade-offticaret-off
69
152000
3000
bu takası yapabilen tavşanlar yaşamaya
02:50
will tendeğiliminde to livecanlı and reproduceçoğaltmak,
70
155000
2000
ve çoğalmaya devam eder,
02:52
and the rabbitstavşan that are badkötü at it
71
157000
2000
bu takasta başarısız olanlar
02:54
will get eatenyemiş or starveAçlıktan.
72
159000
2000
yem olur ya da açlıktan ölür.
02:56
So you'dşimdi etsen think
73
161000
2000
Ve siz de, bizim
02:58
that us, as a successfulbaşarılı speciesTürler on the planetgezegen --
74
163000
3000
gezegendeki başarılı canlı türü olarak --
03:01
you, me, everybodyherkes --
75
166000
2000
sen, ben, hepimiz --
03:03
would be really good at makingyapma these trade-offsdengelemeler.
76
168000
3000
bu değiş tokuşta ne kadar başarılı olduğumuzu düşünürsünüz.
03:06
YetHenüz it seemsgörünüyor, again and again,
77
171000
2000
Ancak, bu konuda tekrar tekrar
03:08
that we're hopelesslyumutsuzca badkötü at it.
78
173000
3000
umutsuzca başarısız oluyoruz.
03:11
And I think that's a fundamentallyesasen interestingilginç questionsoru.
79
176000
3000
Ve ben bunun çok ilginç bir soru olduğunu düşünüyorum.
03:14
I'll give you the shortkısa answerCevap.
80
179000
2000
Size kısa cevabı vereceğim.
03:16
The answerCevap is, we respondyanıtlamak to the feelingduygu of securitygüvenlik
81
181000
2000
Cevap, bizim gerçeklik yerine güvenlik duygusuna
03:18
and not the realitygerçeklik.
82
183000
3000
yanıt vermemiz.
03:21
Now mostçoğu of the time, that worksEserleri.
83
186000
3000
Çoğu kez, işe yarar.
03:25
MostÇoğu of the time,
84
190000
2000
Çoğu zaman,
03:27
feelingduygu and realitygerçeklik are the sameaynı.
85
192000
3000
hissedilen ve gerçek olan aynıdır.
03:30
CertainlyKesinlikle that's truedoğru
86
195000
2000
Tarihöncesi insanlarının çoğu
03:32
for mostçoğu of humaninsan prehistoryTarih öncesi.
87
197000
3000
için kesinlikle doğru.
03:35
We'veBiz ettik developedgelişmiş this abilitykabiliyet
88
200000
3000
Biz bu duyguyu geliştirdik
03:38
because it makesmarkaları evolutionaryevrimsel senseduyu.
89
203000
2000
çünkü bize evrimsel olarak mantıklı geldi.
03:40
One way to think of it
90
205000
2000
Başka şekilde düşünecek olursak
03:42
is that we're highlybüyük ölçüde optimizedoptimize
91
207000
2000
biz risk kararlarına
03:44
for riskrisk decisionskararlar
92
209000
2000
bir hayli odaklıyız,
03:46
that are endemicendemik to livingyaşam in smallküçük familyaile groupsgruplar
93
211000
3000
bu Doğu Afrika dağlıklarında MÖ 100.000lerde
03:49
in the EastDoğu AfricanAfrika highlandsHighlands in 100,000 B.C.
94
214000
3000
küçük aile gruplarında yaşayanlar için çok yaygındı.
03:52
2010 NewYeni YorkYork, not so much.
95
217000
3000
2010 New York'unda o kadar da değil.
03:56
Now there are severalbirkaç biasesönyargıların in riskrisk perceptionalgı.
96
221000
3000
Risk algısında birçok önyargı vardır.
03:59
A lot of good experimentsdeneyler in this.
97
224000
2000
Bunun üzerine de birçok deney.
04:01
And you can see certainbelli biasesönyargıların that come up again and again.
98
226000
3000
Ve belli başlı önyargılarla tekrar tekrar karşılaşıldığını görürsünüz.
04:04
So I'll give you fourdört.
99
229000
2000
Dördünü anlatacağım
04:06
We tendeğiliminde to exaggerateabartmak spectacularmuhteşem and rarenadir risksriskler
100
231000
3000
Dikkat çekici ve çok az rastlanan tehlikeleri abartmaya meyilliyiz
04:09
and downplayTürkiye'nin üyeliğiyle commonortak risksriskler --
101
234000
2000
yaygın riskleri de küçük görmeye --
04:11
so flyinguçan versuse karşı drivingsürme.
102
236000
3000
mesela uçağa karşı araba.
04:14
The unknownBilinmeyen is perceivedalgılanan
103
239000
2000
Bilinmeyen, alışkın olduğumuzdan
04:16
to be riskierriskli than the familiartanıdık.
104
241000
3000
daha tehlikerli olarak algılanır.
04:20
One exampleörnek would be,
105
245000
2000
Buna bir örnek,
04:22
people fearkorku kidnappingadam kaçırma by strangersyabancı insanlar
106
247000
3000
yabancılar tarafından kaçırılmaktan korkan insanlar,
04:25
when the dataveri supportsdestekler kidnappingadam kaçırma by relativesakrabaları is much more commonortak.
107
250000
3000
veriler tanıdıklar tarafından kaçırılmanın daha yaygın olduğunu söylüyor.
04:28
This is for childrençocuklar.
108
253000
2000
Bu çocuklar için geçerli.
04:30
ThirdÜçüncü, personifiedşahsında risksriskler
109
255000
3000
Üçüncüsü, kişileştirilmiş tehlikeler
04:33
are perceivedalgılanan to be greaterbüyük than anonymousanonim risksriskler --
110
258000
3000
anonim olanlardan daha büyük algılanırlar.
04:36
so BinDepo gözü LadenYüklü is scarierdaha korkunç because he has a nameisim.
111
261000
3000
Yani Bin Laden ismi olduğu için daha korkutucudur.
04:39
And the fourthdördüncü
112
264000
2000
Dördüncüsü
04:41
is people underestimateAzımsamak risksriskler
113
266000
2000
insanlar kontrol edebildikleri
04:43
in situationsdurumlar they do controlkontrol
114
268000
2000
durumlardaki tehlikeleri küçümser,
04:45
and overestimateAbartma them in situationsdurumlar they don't controlkontrol.
115
270000
4000
kontrollerinde olmayan durumları büyütürler.
04:49
So oncebir Zamanlar you take up skydivingParaşütle atlama or smokingsigara içmek,
116
274000
3000
Paraşüt atlama ya da sigara içmeye başladığınızda,
04:52
you downplayTürkiye'nin üyeliğiyle the risksriskler.
117
277000
2000
tehlikeyi küçümsersiniz.
04:54
If a riskrisk is thrustitme uponüzerine you -- terrorismterörizm was a good exampleörnek --
118
279000
3000
Bir risk sizi vurduğunda -- terörizm buna iyi bir örnek --
04:57
you'llEğer olacak overplayfazla önemsemek it because you don't feel like it's in your controlkontrol.
119
282000
3000
durumu büyütürsünüz, çünkü sizin kontrolünüzde olmadığını hissedersiniz.
05:02
There are a bunchDemet of other of these biasesönyargıların, these cognitivebilişsel biasesönyargıların,
120
287000
3000
Buna benzer birkaç tane daha önyargı vardır, kavramsal yargılar,
05:05
that affectetkilemek our riskrisk decisionskararlar.
121
290000
3000
ve risk kararlarımızı etkilerler.
05:08
There's the availabilitykullanılabilirlik heuristicbuluşsal yöntem,
122
293000
2000
Sezgilerin geçerliliği diye birşey var,
05:10
whichhangi basicallytemel olarak meansanlamına geliyor
123
295000
2000
kısaca birşeylerin ihtimalini
05:12
we estimatetahmin the probabilityolasılık of something
124
297000
3000
örneklerinin akla ne kadar kolay
05:15
by how easykolay it is to bringgetirmek instancesörnekleri of it to mindus.
125
300000
4000
geldiğiyle ölçmemiz anlamına gelir.
05:19
So you can imaginehayal etmek how that worksEserleri.
126
304000
2000
Bunun nasıl işlediğini tahmin edebilirsiniz.
05:21
If you hearduymak a lot about tigerKaplan attackssaldırılar, there mustşart be a lot of tigersKaplanlar around.
127
306000
3000
Eğer çok sık kaplan saldırısı duyuyorsanız, etrafta çok kaplan var demektir.
05:24
You don't hearduymak about lionAslan attackssaldırılar, there aren'tdeğil a lot of lionsaslanlar around.
128
309000
3000
Aslan saldırılarını duymuyorsanız, etrafta pek aslan yoktur.
05:27
This worksEserleri untila kadar you inventicat etmek newspapersgazeteler.
129
312000
3000
Bu gazetelerin icadına kadar işe yarıyordu.
05:30
Because what newspapersgazeteler do
130
315000
2000
Çünkü gazetelerin tüm yaptığı
05:32
is they repeattekrar et again and again
131
317000
2000
az görülen riskleri tekrar tekrar
05:34
rarenadir risksriskler.
132
319000
2000
yazmaktır.
05:36
I tell people, if it's in the newshaber, don't worryendişelenmek about it.
133
321000
2000
Her zaman söylerim, eğer haberlerde çıktıysa, korkmayın.
05:38
Because by definitiontanım,
134
323000
2000
Çünkü tanımı böyle,
05:40
newshaber is something that almostneredeyse never happensolur.
135
325000
3000
haberler, neredeyse hiç olmayan şeylerden oluşur.
05:43
(LaughterKahkaha)
136
328000
2000
(Kahkahalar)
05:45
When something is so commonortak, it's no longeruzun newshaber --
137
330000
3000
Eğer birşey çok yaygınsa, artık haber olmaktan çıkar --
05:48
cararaba crashesçöker, domesticyerli violenceşiddet --
138
333000
2000
araba kazaları, ev içi şiddeti --
05:50
those are the risksriskler you worryendişelenmek about.
139
335000
3000
endişelendiğiniz riskler bunlar.
05:53
We're alsoAyrıca a speciesTürler of storytellersöykü anlatan kimse.
140
338000
2000
Biz ayrıca hikaye anlatan bir türüz.
05:55
We respondyanıtlamak to storieshikayeleri more than dataveri.
141
340000
3000
Hikayelere verilerden daha çok önem veriyoruz.
05:58
And there's some basictemel innumeracyinnumeracy going on.
142
343000
2000
Ve olup biten aslında çok basit bir yanlış hesaplama.
06:00
I mean, the jokeşaka "One, Two, ThreeÜç, ManyBirçok" is kindtür of right.
143
345000
3000
Yani, "Bir, iki, üç, çok fazla" dedikleri çok doğru.
06:03
We're really good at smallküçük numberssayılar.
144
348000
3000
Küçük rakamlarla aramız iyi.
06:06
One mangoMango, two mangoesMango, threeüç mangoesMango,
145
351000
2000
Bir mango, iki mango, üç mango,
06:08
10,000 mangoesMango, 100,000 mangoesMango --
146
353000
2000
10.000 mango, 100.000 mango--
06:10
it's still more mangoesMango you can eatyemek before they rotrot.
147
355000
3000
çürümeden yiyebileceğimizden hala çok fazla.
06:13
So one halfyarım, one quarterçeyrek, one fifthbeşinci -- we're good at that.
148
358000
3000
O zaman yarım, çeyrek, beşte biri -- işte bunlar daha iyi.
06:16
One in a millionmilyon, one in a billionmilyar --
149
361000
2000
Milyonda bir, milyarda bir --
06:18
they're bothher ikisi de almostneredeyse never.
150
363000
3000
ikisi de neredeyse hiç demek.
06:21
So we have troublesorun with the risksriskler
151
366000
2000
Yani çok yaygın olmayan risklerle
06:23
that aren'tdeğil very commonortak.
152
368000
2000
hep sorun yaşıyoruz.
06:25
And what these cognitivebilişsel biasesönyargıların do
153
370000
2000
Bu kavramsal önyargıların yaptığı ise
06:27
is they actdavranmak as filtersfiltreler betweenarasında us and realitygerçeklik.
154
372000
3000
bizimle gerçeklik arasında bir perde oluşturmak.
06:30
And the resultsonuç
155
375000
2000
Ve bunun sonucunda
06:32
is that feelingduygu and realitygerçeklik get out of whackvurmak,
156
377000
2000
hislerimizle gerçeklik hızla ayrılıp,
06:34
they get differentfarklı.
157
379000
3000
farklılaşıyorlar.
06:37
Now you eitherya have a feelingduygu -- you feel more securegüvenli than you are.
158
382000
3000
Artık ya hissediyorsunuzdur -- olduğunuzdan daha güvenli hissediyorsunuzdur.
06:40
There's a falseyanlış senseduyu of securitygüvenlik.
159
385000
2000
Güvende olduğunuza dair yanlış bir hisse kapılırsınız.
06:42
Or the other way,
160
387000
2000
Ya da,
06:44
and that's a falseyanlış senseduyu of insecuritygüvensizlik.
161
389000
2000
güvende olmadığınıza dair yanlış hisse kapılırsınız.
06:46
I writeyazmak a lot about "securitygüvenlik theatertiyatro,"
162
391000
3000
"Güvenlik tiyatroları"yla ilgili çok sık yazarım,
06:49
whichhangi are productsÜrünler that make people feel securegüvenli,
163
394000
3000
insanları güvende hissettiren ancak bu konuda
06:52
but don't actuallyaslında do anything.
164
397000
2000
hiç birşey yapmayan ürünler.
06:54
There's no realgerçek wordsözcük for stuffşey that makesmarkaları us securegüvenli,
165
399000
2000
Kendimizi güvende hissettiren anncak güvenliğimizi
06:56
but doesn't make us feel securegüvenli.
166
401000
2000
sağlamayan şeyler için gerçek bir kelimemiz yok.
06:58
Maybe it's what the CIA'sCIA'ın supposedsözde to do for us.
167
403000
3000
Belki de CIA'in yapması gereken şey budur.
07:03
So back to economicsekonomi bilimi.
168
408000
2000
Ekonomiye geri gelelim.
07:05
If economicsekonomi bilimi, if the marketpazar, drivessürücüler securitygüvenlik,
169
410000
4000
Ekonomi, pazar güvenlik sağlarsa,
07:09
and if people make trade-offsdengelemeler
170
414000
2000
ve insanlar güven hissi için
07:11
basedmerkezli on the feelingduygu of securitygüvenlik,
171
416000
3000
değiş-tokuşa devam ederse,
07:14
then the smartakıllı thing for companiesşirketler to do
172
419000
2000
akıllı şirketlerin ekonomik teşvik için
07:16
for the economicekonomik incentivesteşvikler
173
421000
2000
yapmaları gereken şey
07:18
are to make people feel securegüvenli.
174
423000
3000
insanları güvende hissettirmektir.
07:21
And there are two waysyolları to do this.
175
426000
3000
Ve bunu yapmanın iki yolu vardır.
07:24
One, you can make people actuallyaslında securegüvenli
176
429000
2000
Biri, insanların güvenliğini sağlamak
07:26
and hopeumut they noticeihbar.
177
431000
2000
ve farketmelerini ummak.
07:28
Or two, you can make people just feel securegüvenli
178
433000
3000
Diğeri, insanların sadece güvende hissetmelerini sağlayıp
07:31
and hopeumut they don't noticeihbar.
179
436000
3000
farketmemelerini ummak.
07:35
So what makesmarkaları people noticeihbar?
180
440000
3000
Peki insanların farketmesini ne sağlar?
07:38
Well a coupleçift of things:
181
443000
2000
Bazı şeyler var:
07:40
understandinganlayış of the securitygüvenlik,
182
445000
2000
güvenliğin, risklerin ve tehditlerin
07:42
of the risksriskler, the threatstehditler,
183
447000
2000
ve alınan önlemlerin ne olduğunu anlamak,
07:44
the countermeasureskarşı önlemler, how they work.
184
449000
3000
ve bunların işleyişini öğrenmek.
07:47
But if you know stuffşey,
185
452000
2000
Bunları biliyorsanız,
07:49
you're more likelymuhtemelen to have your feelingsduygular matchmaç realitygerçeklik.
186
454000
3000
hislerinizin gerçeklikle uyuşmasını başarmanız daha olasıdır.
07:52
EnoughYeterince realgerçek worldDünya examplesörnekler helpsyardım eder.
187
457000
3000
Yeterince gerçek örnekler yardımcı olabilir.
07:55
Now we all know the crimesuç rateoran in our neighborhoodKomşuluk,
188
460000
3000
Hepimiz yaşadığımız yerlerdeki suç oranlarını biliriz,
07:58
because we livecanlı there, and we get a feelingduygu about it
189
463000
3000
çünkü orada yaşıyoruz ve burayla ilgilli hislerimiz
08:01
that basicallytemel olarak matchesmaçlar realitygerçeklik.
190
466000
3000
çoğunlukla gerçeklikle eşleşir.
08:04
SecurityGüvenlik theater'sTiyatro exposedmaruz
191
469000
3000
Güvenlik tiyatrolarına
08:07
when it's obviousaçık that it's not workingçalışma properlyuygun şekilde.
192
472000
3000
işe yaramadığı kesin olduğunda maruz kalırız.
08:10
Okay, so what makesmarkaları people not noticeihbar?
193
475000
4000
Pekala, insanların farketmemesini ne sağlar?
08:14
Well, a poorfakir understandinganlayış.
194
479000
2000
Tabi ki, az bilgi sahibi olmak.
08:16
If you don't understandanlama the risksriskler, you don't understandanlama the costsmaliyetler,
195
481000
3000
Eğer riskleri bilmezseniz, neye malolacağını da anlayamazsınız,
08:19
you're likelymuhtemelen to get the trade-offticaret-off wrongyanlış,
196
484000
2000
bu yüzden doğru takası yapamazsınız,
08:21
and your feelingduygu doesn't matchmaç realitygerçeklik.
197
486000
3000
ve hisleriniz gerçeklikle eşleşmez.
08:24
Not enoughyeterli examplesörnekler.
198
489000
2000
Örnekler yeterli değil.
08:26
There's an inherentdoğal problemsorun
199
491000
2000
Düşük ihtimalli olaylarla ilgili
08:28
with lowdüşük probabilityolasılık eventsolaylar.
200
493000
2000
doğal bir problem var.
08:30
If, for exampleörnek,
201
495000
2000
Mesela,
08:32
terrorismterörizm almostneredeyse never happensolur,
202
497000
2000
terörizm neredeyse hiç olmasaydı,
08:34
it's really hardzor to judgehakim
203
499000
2000
terör karşıtı önlemlerin
08:36
the efficacyetkinlik of counter-terroristterörle mücadele measuresönlemler.
204
501000
3000
etkinliğini ölçmek zorlaşırdı.
08:40
This is why you keep sacrificingödün virginsbakireler,
205
505000
3000
Bakireleri kurban etmeye devam etmenizin,
08:43
and why your unicornTek boynuzlu at defensessavunmaları are workingçalışma just great.
206
508000
3000
ve ünikornlardan korunma yönteminizin işe yaramasının asıl sebebi budur.
08:46
There aren'tdeğil enoughyeterli examplesörnekler of failuresarızaları.
207
511000
3000
Yeterince başarısız olma örneğiniz yoktur.
08:50
AlsoAyrıca, feelingsduygular that are cloudingClouding the issuessorunlar --
208
515000
3000
Ayrıca, meseleleri gizleyen hisler --
08:53
the cognitivebilişsel biasesönyargıların I talkedkonuştuk about earlierdaha erken,
209
518000
2000
daha önce bahsettiğim kavramsal önyargılar,
08:55
fearsendişe, folkHalk beliefsinançlar,
210
520000
3000
korkular ve halk inanışları,
08:58
basicallytemel olarak an inadequateyetersiz modelmodel of realitygerçeklik.
211
523000
3000
gerçekliğin yetersiz birer modelleridirler.
09:02
So let me complicatekarmaşık hale things.
212
527000
3000
O zaman durumu biraz daha karmaşıklaştıralım.
09:05
I have feelingduygu and realitygerçeklik.
213
530000
2000
Elimde hisler ve gerçeklik var.
09:07
I want to addeklemek a thirdüçüncü elementeleman. I want to addeklemek modelmodel.
214
532000
3000
Üçüncü bir element daha ekleyelim: bir model ekleyelim.
09:10
FeelingDuygu and modelmodel in our headkafa,
215
535000
2000
Model ve duygular kafamızda,
09:12
realitygerçeklik is the outsidedışında worldDünya.
216
537000
2000
gerçeklik ise dış dünyada.
09:14
It doesn't changedeğişiklik; it's realgerçek.
217
539000
3000
Değişmez; çünkü gerçek.
09:17
So feelingduygu is basedmerkezli on our intuitionsezgi.
218
542000
2000
Hisler içgüdülerimize dayalıdır.
09:19
ModelModeli is basedmerkezli on reasonneden.
219
544000
2000
Model, mantığa.
09:21
That's basicallytemel olarak the differencefark.
220
546000
3000
Aradaki temel fark budur
09:24
In a primitiveilkel and simplebasit worldDünya,
221
549000
2000
Basit ve ilkel bir dünyada,
09:26
there's really no reasonneden for a modelmodel
222
551000
3000
bir modele o kadar da ihtiyaç yoktur.
09:29
because feelingduygu is closekapat to realitygerçeklik.
223
554000
3000
Çünkü hisler gerçekliğe yakındır.
09:32
You don't need a modelmodel.
224
557000
2000
Modele ihtiyaç duymazsınız.
09:34
But in a modernmodern and complexkarmaşık worldDünya,
225
559000
2000
Ancak modern ve karmaşık bir dünyada,
09:36
you need modelsmodeller
226
561000
2000
karşılaştığımız riskleri
09:38
to understandanlama a lot of the risksriskler we faceyüz.
227
563000
3000
anlamak için modellerie ihtiyaç duyarız.
09:42
There's no feelingduygu about germsmikroplar.
228
567000
2000
Mikropları hissetmeyiz.
09:44
You need a modelmodel to understandanlama them.
229
569000
3000
Bu nedenle anlamak için modele ihtiyaç duyarız.
09:47
So this modelmodel
230
572000
2000
Bu model de
09:49
is an intelligentakıllı representationtemsil of realitygerçeklik.
231
574000
3000
gerçeğin iyi uyarlanmış bir temsilidir.
09:52
It's, of coursekurs, limitedsınırlı by scienceBilim,
232
577000
3000
Tabi ki, bilim ve teknolojinin olanaklarıyla
09:55
by technologyteknoloji.
233
580000
2000
sınırlıdır.
09:57
We couldn'tcould have a germmikrop theoryteori of diseasehastalık
234
582000
3000
Hastalıkların mikroplarla bağlantılı olma teorisini
10:00
before we inventedicat edildi the microscopemikroskop to see them.
235
585000
3000
mikroskop icat edilip de onları görmeden bilemezdik.
10:04
It's limitedsınırlı by our cognitivebilişsel biasesönyargıların.
236
589000
3000
Kavramsal önyargılarımızla da sınırlıdır.
10:07
But it has the abilitykabiliyet
237
592000
2000
Ama bu, hislerimizi
10:09
to overridegeçersiz kılma our feelingsduygular.
238
594000
2000
hükümsüz kılabilir.
10:11
Where do we get these modelsmodeller? We get them from othersdiğerleri.
239
596000
3000
Bu modelleri nasıl ediniriz? Diğerlerinden alarak.
10:14
We get them from religiondin, from culturekültür,
240
599000
3000
Modelleri dinden, kültürden, öğretmenlerden,
10:17
teachersöğretmenler, eldersyaşlılar.
241
602000
2000
büyüklerimizden ediniriz.
10:19
A coupleçift yearsyıl agoönce,
242
604000
2000
Bir kaç yıl önce
10:21
I was in SouthGüney AfricaAfrika on safariSafari.
243
606000
2000
Güney Afrika'da safarideydim.
10:23
The trackerait diğer siteler I was with grewbüyüdü up in KrugerKruger NationalUlusal ParkPark.
244
608000
3000
Grubumuzun rehberi Kruger Ulusal Parkında büyümüş.
10:26
He had some very complexkarmaşık modelsmodeller of how to survivehayatta kalmak.
245
611000
3000
Hayatta kalmak için oldukça karmaşık modeller edinmiş.
10:29
And it dependedbağlı on if you were attackedsaldırıya
246
614000
2000
Bu model, bir aslan ya da leopar yada gergedan
10:31
by a lionAslan or a leopardleopar or a rhinoGergedan or an elephantfil --
247
616000
2000
ya da fil saldırısana uğramayı --
10:33
and when you had to runkoş away, and when you couldn'tcould runkoş away, and when you had to climbtırmanış a treeağaç --
248
618000
3000
ve kaçmak zorunda oluşunuzu, ve bir ağaca tırmanmayı bilmeseniz bile
10:36
when you could never climbtırmanış a treeağaç.
249
621000
2000
ağaca tırmanmak zorunda oluşunuzu içeriyor.
10:38
I would have diedvefat etti in a day,
250
623000
3000
Ben orada bir gün içinde ölürdüm,
10:41
but he was borndoğmuş there,
251
626000
2000
ancak adam orada doğmuş,
10:43
and he understoodanladım how to survivehayatta kalmak.
252
628000
2000
ve hayatta kalma yollarını öğrenmiş.
10:45
I was borndoğmuş in NewYeni YorkYork CityŞehir.
253
630000
2000
Bense New York'ta doğdum.
10:47
I could have takenalınmış him to NewYeni YorkYork, and he would have diedvefat etti in a day.
254
632000
3000
Onu da New York'a getirsem, o da bir gün içinde ölürdü.
10:50
(LaughterKahkaha)
255
635000
2000
(Kahkahalar)
10:52
Because we had differentfarklı modelsmodeller
256
637000
2000
Çünkü biz, farklı deneyimlere bağlı
10:54
basedmerkezli on our differentfarklı experiencesdeneyimler.
257
639000
3000
farklı modeller edinmişiz.
10:58
ModelsModelleri can come from the mediamedya,
258
643000
2000
Modellerimiz medyadan ya da
11:00
from our electedseçildi officialsYetkililer.
259
645000
3000
seçilmiş yetkililerimizden gelebilir.
11:03
Think of modelsmodeller of terrorismterörizm,
260
648000
3000
Terörizm modellerini düşünün,
11:06
childçocuk kidnappingadam kaçırma,
261
651000
3000
çocuk kaçırma,
11:09
airlinehavayolu safetyemniyet, cararaba safetyemniyet.
262
654000
2000
havayolu ya da araç güvenliğini.
11:11
ModelsModelleri can come from industrysanayi.
263
656000
3000
Modeller endüstriden gelebilir.
11:14
The two I'm followingtakip etme are surveillancegözetim cameraskameralar,
264
659000
2000
Takip ettiğim iki tanesi gözetim kameraları ve
11:16
IDKİMLİĞİ cardskartları,
265
661000
2000
kimlik kartları,
11:18
quiteoldukça a lot of our computerbilgisayar securitygüvenlik modelsmodeller come from there.
266
663000
3000
bilgisayar güvenlik modellerimizin çoğu bunlardan geliyor.
11:21
A lot of modelsmodeller come from scienceBilim.
267
666000
3000
Çoğu modelse bilimden gelir.
11:24
HealthSağlık modelsmodeller are a great exampleörnek.
268
669000
2000
Sağlık modelleri buna iyi bir örnek olur.
11:26
Think of cancerkanser, of birdkuş flugrip, swinedomuz flugrip, SARSSARS.
269
671000
3000
Kanseri bi düşünün, kuş gribi, domuz gribi ve SARS'ı.
11:29
All of our feelingsduygular of securitygüvenlik
270
674000
3000
Bu hastalıklara karşı geliştirdiğimiz
11:32
about those diseaseshastalıklar
271
677000
2000
güvenlik hisleri
11:34
come from modelsmodeller
272
679000
2000
bize verilen
11:36
givenverilmiş to us, really, by scienceBilim filteredFiltre throughvasitasiyla the mediamedya.
273
681000
3000
medyadın bilimden ayıklayıp sunduğu modellere dayanır.
11:40
So modelsmodeller can changedeğişiklik.
274
685000
3000
Yani modeller değişebilir.
11:43
ModelsModelleri are not staticstatik.
275
688000
2000
Modeller sabit değillerdir.
11:45
As we becomeolmak more comfortablerahat in our environmentsortamları,
276
690000
3000
Çevremizde daha güvende hissetikçe
11:48
our modelmodel can movehareket closeryakın to our feelingsduygular.
277
693000
4000
modelimiz hislerimize daha çok yaklaşır.
11:53
So an exampleörnek mightbelki be,
278
698000
2000
Örneğin,
11:55
if you go back 100 yearsyıl agoönce
279
700000
2000
elektriğin yeni yaygınlaşmaya başladığı
11:57
when electricityelektrik was first becomingolma commonortak,
280
702000
3000
100 yıl öncesine gidecek olsaydınız
12:00
there were a lot of fearsendişe about it.
281
705000
2000
elektrikten ne kadar korkulduğunu görürdünüz.
12:02
I mean, there were people who were afraidkorkmuş to pushit doorbellskapı zilleri,
282
707000
2000
Kapı zilini çalmaktan korkan insanlar vardı,
12:04
because there was electricityelektrik in there, and that was dangeroustehlikeli.
283
709000
3000
çünkü düğmede elektrik vardı ve bu tehlikeliydi.
12:07
For us, we're very facilefacile around electricityelektrik.
284
712000
3000
Bize gelince, biz elektrik konusunda çok rahatız.
12:10
We changedeğişiklik lightışık bulbsampuller
285
715000
2000
Hiç düşünmeden
12:12
withoutolmadan even thinkingdüşünme about it.
286
717000
2000
ampulleri değiştirebiliyoruz.
12:14
Our modelmodel of securitygüvenlik around electricityelektrik
287
719000
4000
Elektrik konusunda oluşturduğumuz
12:18
is something we were borndoğmuş into.
288
723000
3000
bu güven modeliyle büyüdük.
12:21
It hasn'tdeğil sahiptir changeddeğişmiş as we were growingbüyüyen up.
289
726000
3000
Ve bu sürede bu hiç değişmedi.
12:24
And we're good at it.
290
729000
3000
Ve hepimiz bunda iyiyiz.
12:27
Or think of the risksriskler
291
732000
2000
İnternet risklerinin
12:29
on the InternetInternet acrosskarşısında generationsnesiller --
292
734000
2000
nesiller boyunca değişimini düşünün --
12:31
how your parentsebeveyn approachyaklaşım InternetInternet securitygüvenlik,
293
736000
2000
anne babanızın internet güvenliğine yaklaşımını,
12:33
versuse karşı how you do,
294
738000
2000
sizin yaklaşımınızı,
12:35
versuse karşı how our kidsçocuklar will.
295
740000
3000
ve çocuklarınızınkini karşılaştırın.
12:38
ModelsModelleri eventuallysonunda fadekarartmak into the backgroundarka fon.
296
743000
3000
Modeller zamanla altyapı halini alır.
12:42
IntuitiveSezgisel is just anotherbir diğeri wordsözcük for familiartanıdık.
297
747000
3000
Sezgisel, tanıdık anlamına gelen başka bir sözcüktür.
12:45
So as your modelmodel is closekapat to realitygerçeklik,
298
750000
2000
Yani, modeliniz gerçekliğe ve
12:47
and it convergesyakınsar with feelingsduygular,
299
752000
2000
hislerinize yaklaştıkça,
12:49
you oftensık sık don't know it's there.
300
754000
3000
orada olduğunu çoğunlukla farketmezsiniz.
12:52
So a niceGüzel exampleörnek of this
301
757000
2000
Buna bir örnek olarak
12:54
camegeldi from last yearyıl and swinedomuz flugrip.
302
759000
3000
geçen yılki domuz gribini verebiliriz.
12:57
When swinedomuz flugrip first appearedortaya çıktı,
303
762000
2000
Domuz gribi ilk ortaya çıktığında,
12:59
the initialilk newshaber causedneden oldu a lot of overreactionaşırı tepki.
304
764000
4000
ilk haberler aşırı bir tepkiye sebep olmuştu.
13:03
Now it had a nameisim,
305
768000
2000
Artık bir ismi de vardı,
13:05
whichhangi madeyapılmış it scarierdaha korkunç than the regulardüzenli flugrip,
306
770000
2000
bu da onu sıradan bir gripten korkutucu kıldı,
13:07
even thoughgerçi it was more deadlyölümcül.
307
772000
2000
daha ölümcül olmasına rağmen.
13:09
And people thought doctorsdoktorlar should be ableyapabilmek to dealanlaştık mı with it.
308
774000
4000
Ve insanlar, doktorların buna bir çare bulabilmesi gerektiğini düşündü.
13:13
So there was that feelingduygu of lackeksiklik of controlkontrol.
309
778000
2000
Bu da kontrol eksikliği duygusuna sebep oldu.
13:15
And those two things
310
780000
2000
Ve bu iki şey
13:17
madeyapılmış the riskrisk more than it was.
311
782000
2000
riski olduğundan büyük gösterdi.
13:19
As the noveltyyenilik woregiydiği off, the monthsay wentgitti by,
312
784000
3000
Zaman geçip de olay artık eskidiğinde,
13:22
there was some amounttutar of tolerancehata payı,
313
787000
2000
daha tahammül edilebilir oldu,
13:24
people got used to it.
314
789000
2000
insanlar buna alıştı.
13:26
There was no newyeni dataveri, but there was lessaz fearkorku.
315
791000
3000
Yeni bir bilgi yoktu ama daha az korku vardı.
13:29
By autumnSonbahar,
316
794000
2000
Sonbaharda,
13:31
people thought
317
796000
2000
insanlar artık
13:33
the doctorsdoktorlar should have solvedçözülmüş this alreadyzaten.
318
798000
2000
doktorların bu işi çözdüklerini düşündüler.
13:35
And there's kindtür of a bifurcationçatallanma --
319
800000
2000
İnsanların korku ve kabullenme arasında
13:37
people had to chooseseçmek
320
802000
2000
aslında korku ve umursamazlık arasında
13:39
betweenarasında fearkorku and acceptancekabul --
321
804000
4000
seçmesi gereken
13:43
actuallyaslında fearkorku and indifferencekayıtsızlık --
322
808000
2000
bir çeşit yol ayrımı vardır --
13:45
they kindtür of choseseçti suspicionşüphe.
323
810000
3000
ve çoğunlukla şüpheyi seçerler.
13:48
And when the vaccineaşı appearedortaya çıktı last winterkış,
324
813000
3000
Ve geçen kış aşı geliştirildiğinde,
13:51
there were a lot of people -- a surprisingşaşırtıcı numbernumara --
325
816000
3000
bir çok insan --şaşırtıcı bir sayıda--
13:54
who refusedreddetti to get it --
326
819000
3000
aşılanmayı reddetti.
13:58
as a niceGüzel exampleörnek
327
823000
2000
bu da insanların
14:00
of how people'sinsanların feelingsduygular of securitygüvenlik changedeğişiklik, how theironların modelmodel changesdeğişiklikler,
328
825000
3000
güvenlik duygularının ve modellerinin nasıl değiştiğine dair iyi bir örnek,
14:03
sortçeşit of wildlyçılgınca
329
828000
2000
çok sert bir şekilde
14:05
with no newyeni informationbilgi,
330
830000
2000
ve yeni bilgi almaksızın,
14:07
with no newyeni inputgiriş.
331
832000
2000
yeni bir şey öğrenmeksizin.
14:09
This kindtür of thing happensolur a lot.
332
834000
3000
Böyle şeyler sık sık olur.
14:12
I'm going to give one more complicationkomplikasyon.
333
837000
3000
Bir karmaşadan daha bahsedeceğim.
14:15
We have feelingduygu, modelmodel, realitygerçeklik.
334
840000
3000
Hissettiklerimiz, model ve gerçekliğimiz var.
14:18
I have a very relativisticRelativistik viewgörünüm of securitygüvenlik.
335
843000
2000
Benim güvenliğe bakış açım oldukça gerçekçi.
14:20
I think it dependsbağlıdır on the observergözlemci.
336
845000
3000
Bu yüzden de bunun gözlemciye bağlı olduğunu düşünüğyorum.
14:23
And mostçoğu securitygüvenlik decisionskararlar
337
848000
2000
Ve çoğu güvenlik kararları
14:25
have a varietyvaryete of people involvedilgili.
338
850000
4000
çok farklı insanları içerir.
14:29
And stakeholderspaydaşlar
339
854000
2000
Ve bu insanlar
14:31
with specificözel trade-offsdengelemeler
340
856000
3000
özel değiş-tokuşlarıyla
14:34
will try to influenceetki the decisionkarar.
341
859000
2000
kararı etkilemeyi deneyecekler.
14:36
And I call that theironların agendaGündem.
342
861000
2000
Buna onların amacı diyelim.
14:38
And you see agendaGündem --
343
863000
2000
Ve amaçlarını anlıyorsunuz --
14:40
this is marketingpazarlama, this is politicssiyaset --
344
865000
3000
bu pazarlama, bu politika --
14:43
tryingçalışıyor to convinceikna etmek you to have one modelmodel versuse karşı anotherbir diğeri,
345
868000
3000
sizi bir model yerine diğeri için ikna etmeye çalışıyorlar,
14:46
tryingçalışıyor to convinceikna etmek you to ignorealdırmamak a modelmodel
346
871000
2000
bir modeli görmezden gelmeniz ve hislerinize
14:48
and trustgüven your feelingsduygular,
347
873000
3000
güvenmeniz için ikna ediyorlar,
14:51
marginalizingmarginalizing people with modelsmodeller you don't like.
348
876000
3000
beğenmediğiniz modelleri insanlarla sınırlayarak hem de.
14:54
This is not uncommonnadir.
349
879000
3000
Bu çok sık olur.
14:57
An exampleörnek, a great exampleörnek, is the riskrisk of smokingsigara içmek.
350
882000
3000
Örneğin, harika bir örnek, sigara içmenin tehlikeleri.
15:01
In the historytarih of the pastgeçmiş 50 yearsyıl, the smokingsigara içmek riskrisk
351
886000
3000
Geçen 50 yıl içinde, sigaranın tehlikeleri
15:04
showsgösterileri how a modelmodel changesdeğişiklikler,
352
889000
2000
bir modelin nasıl değiştiğini gösterir,
15:06
and it alsoAyrıca showsgösterileri how an industrysanayi fightskavgalar againstkarşısında
353
891000
3000
ve bir endüstrinin beğenmedikleri modelle
15:09
a modelmodel it doesn't like.
354
894000
2000
nasıl savaştığına örnektir.
15:11
CompareKarşılaştır that to the secondhandİkinci el smokeduman debatetartışma --
355
896000
3000
Bunu daha önce yapılmış sigara tartışmalarıyla kıyaslayın --
15:14
probablymuhtemelen about 20 yearsyıl behindarkasında.
356
899000
3000
muhtemelen 20 yıl geride kalmıştır.
15:17
Think about seatoturma yeri beltskemerleri.
357
902000
2000
Emniyet kemerlerini düşünün.
15:19
When I was a kidçocuk, no one woregiydiği a seatoturma yeri beltkemer.
358
904000
2000
Ben çocukken, hiçkimse emniyet kemeri takmazdı.
15:21
NowadaysGünümüzde, no kidçocuk will let you drivesürücü
359
906000
2000
Şimdi ise, emniyet kemerinizi takmadıysanız
15:23
if you're not wearinggiyme a seatoturma yeri beltkemer.
360
908000
2000
hiçbir çocuk arabayı sürmenize izin vermez.
15:26
CompareKarşılaştır that to the airbagHava yastığı debatetartışma --
361
911000
2000
Bunu hava yastığı tartışmalarıyla kıyaslayın,
15:28
probablymuhtemelen about 30 yearsyıl behindarkasında.
362
913000
3000
muhtemelen 30 yıl öncesinde kalmıştır.
15:31
All examplesörnekler of modelsmodeller changingdeğiştirme.
363
916000
3000
Hepsi model değişimine örnektir.
15:36
What we learnöğrenmek is that changingdeğiştirme modelsmodeller is hardzor.
364
921000
3000
Öğrendiğimiz model değişiminin zor olduğudur.
15:39
ModelsModelleri are hardzor to dislodgeçıkarmak.
365
924000
2000
Modelleri yerinden oynatmak güçtür.
15:41
If they equaleşit your feelingsduygular,
366
926000
2000
Eğer hislerinize eşitlerse,
15:43
you don't even know you have a modelmodel.
367
928000
3000
bir modeliniz olduğunun farkına varmazsınız.
15:46
And there's anotherbir diğeri cognitivebilişsel biasönyargı
368
931000
2000
Ve başka bir kavramsal önyargı da var ki,
15:48
I'll call confirmationOnayla biasönyargı,
369
933000
2000
ben buna onay yargısı diyeceğim.
15:50
where we tendeğiliminde to acceptkabul etmek dataveri
370
935000
3000
İnançlarımızı onaylayan bilgileri
15:53
that confirmsonaylar our beliefsinançlar
371
938000
2000
kabul etmeye meyilliyizdir ancak
15:55
and rejectReddet dataveri that contradictsçelişmektedir our beliefsinançlar.
372
940000
3000
inançlarımızla çatışan bilgileri reddederiz.
15:59
So evidencekanıt againstkarşısında our modelmodel,
373
944000
2000
Modelimize karşı olan bir kanıtı
16:01
we're likelymuhtemelen to ignorealdırmamak, even if it's compellingzorlayıcı.
374
946000
3000
ne kadar ciddi olursa olsun görmezden geliriz.
16:04
It has to get very compellingzorlayıcı before we'lliyi payödeme attentionDikkat.
375
949000
3000
Dikkatimizi çekmek için daha da ciddileşmesi gerekir.
16:08
NewYeni modelsmodeller that extenduzatmak long periodsdönemleri of time are hardzor.
376
953000
2000
Uzun zamana yayılan yeni modeller de zorlayıcıdır.
16:10
GlobalKüresel warmingısınma is a great exampleörnek.
377
955000
2000
Global ısınma buna iyi bir örnektir.
16:12
We're terriblekorkunç
378
957000
2000
80 yılı kapsayan
16:14
at modelsmodeller that spankarış 80 yearsyıl.
379
959000
2000
modelleri anlamakta çok başarısızız.
16:16
We can do to the nextSonraki harvesthasat.
380
961000
2000
Bir sonraki hasatı yapabiliriz.
16:18
We can oftensık sık do untila kadar our kidsçocuklar growbüyümek up.
381
963000
3000
Çocuklarımızı yetiştirebiliriz.
16:21
But 80 yearsyıl, we're just not good at.
382
966000
3000
Ama 80 yıl, işte bunda iyi değiliz.
16:24
So it's a very hardzor modelmodel to acceptkabul etmek.
383
969000
3000
Bu nedenle de kabul etmesi zor bir modeldir.
16:27
We can have bothher ikisi de modelsmodeller in our headkafa simultaneouslyeşzamanlı,
384
972000
4000
Her iki modeli de aynı anda aklımızda tutabiliriz,
16:31
right, that kindtür of problemsorun
385
976000
3000
ya da iki farklı inancı
16:34
where we're holdingtutma bothher ikisi de beliefsinançlar togetherbirlikte,
386
979000
3000
barındırmamız gibi bir problemi,
16:37
right, the cognitivebilişsel dissonanceuyumsuzluk.
387
982000
2000
ya da kavramsal uyumsuzlukları.
16:39
EventuallySonunda,
388
984000
2000
Sonunda,
16:41
the newyeni modelmodel will replacedeğiştirmek the oldeski modelmodel.
389
986000
3000
yeni model eskisinin yerini alacaktır.
16:44
StrongGüçlü feelingsduygular can createyaratmak a modelmodel.
390
989000
3000
Güçlü duygular yeni bir model oluşturabilir.
16:47
SeptemberEylül 11thinci createdoluşturulan a securitygüvenlik modelmodel
391
992000
3000
11 Eylül bir çok insanın kafasında yeni bir
16:50
in a lot of people'sinsanların headskafalar.
392
995000
2000
güvenlik modeli oluşturdu.
16:52
AlsoAyrıca, personalkişisel experiencesdeneyimler with crimesuç can do it,
393
997000
3000
Suçlarla olan kişisel deneyimlerimiz de bunu yapabilir,
16:55
personalkişisel healthsağlık scarekorkutmak,
394
1000000
2000
kişisel sağlık endişeleri,
16:57
a healthsağlık scarekorkutmak in the newshaber.
395
1002000
2000
ya da haberlerdeki sağlık sorunları.
16:59
You'llYou'll see these calleddenilen flashbulbyanan eventsolaylar
396
1004000
2000
Psikiyatristlerin buna flaş lambası etkisi
17:01
by psychiatristsPsikiyatristler.
397
1006000
2000
dediğini görürsünüz.
17:03
They can createyaratmak a modelmodel instantaneouslyhemen,
398
1008000
3000
Bunlar anında bir model yaratabilirler,
17:06
because they're very emotiveduygusal.
399
1011000
3000
çünkü duygulara dokunurlar.
17:09
So in the technologicalteknolojik worldDünya,
400
1014000
2000
Yani teknolojik dünyada,
17:11
we don't have experiencedeneyim
401
1016000
2000
modelleri yargılamaya yetecek
17:13
to judgehakim modelsmodeller.
402
1018000
2000
deneyimlerimiz yok.
17:15
And we relygüvenmek on othersdiğerleri. We relygüvenmek on proxiesyakınlık.
403
1020000
2000
Böylece diğerlerine, yakınlarımıza inanıyoruz.
17:17
I mean, this worksEserleri as long as it's to correctdoğru othersdiğerleri.
404
1022000
4000
Bu da diğerleri haklı olduğu sürece işe yarıyor.
17:21
We relygüvenmek on governmenthükümet agenciesajanslar
405
1026000
2000
Bize hangi ilaçların güvenli olduğunu
17:23
to tell us what pharmaceuticalsEczacılık are safekasa.
406
1028000
5000
söyleyen devlet kurumlarına inanıyoruz.
17:28
I flewuçtu here yesterdaydün.
407
1033000
2000
Buraya dün uçtum.
17:30
I didn't checkKontrol the airplaneuçak.
408
1035000
2000
Uçağı kontrol etmedim.
17:32
I relieddayanıyordu on some other groupgrup
409
1037000
2000
Bindiğim uçağın güvenliğini
17:34
to determinebelirlemek whetherolup olmadığını my planeuçak was safekasa to flyuçmak.
410
1039000
3000
kontrol eden başka bir gruba inandım.
17:37
We're here, noneYok of us fearkorku the roofçatı is going to collapseçöküş on us,
411
1042000
3000
Hepimiz burada, tavanın üstümüze çökmesinden korkmadan oturuyoruz,
17:40
not because we checkedkontrol,
412
1045000
3000
kontrol ettiğimiz için değil,
17:43
but because we're prettygüzel sure
413
1048000
2000
buradaki binaların
17:45
the buildingbina codeskodları here are good.
414
1050000
3000
sağlamlığından emin olduğumuz için.
17:48
It's a modelmodel we just acceptkabul etmek
415
1053000
2000
Bu, inanç sayesinde
17:50
prettygüzel much by faithinanç.
416
1055000
2000
kabul ettiğimiz bir model.
17:52
And that's okay.
417
1057000
3000
Ve bu sorun değil.
17:57
Now, what we want
418
1062000
2000
Şimdi istediğimiz,
17:59
is people to get familiartanıdık enoughyeterli
419
1064000
2000
insanların daha iyi modelleri
18:01
with better modelsmodeller --
420
1066000
2000
yeterince tanıyabilmesi --
18:03
have it reflectedyansıyan in theironların feelingsduygular --
421
1068000
2000
bunu hislerinde yansıtabilmesi --
18:05
to allowizin vermek them to make securitygüvenlik trade-offsdengelemeler.
422
1070000
4000
bu sayede doğru değiş-tokuşları yapabilmeleri.
18:09
Now when these go out of whackvurmak,
423
1074000
2000
Bunlar olmadığında ise
18:11
you have two optionsseçenekleri.
424
1076000
2000
iki seçeneğiniz vardır.
18:13
One, you can fixdüzeltmek people'sinsanların feelingsduygular,
425
1078000
2000
İlki, insanların hislerini onarabilirsiniz,
18:15
directlydirekt olarak appealtemyiz to feelingsduygular.
426
1080000
2000
doğrudan hislere odaklanırsınız.
18:17
It's manipulationhile, but it can work.
427
1082000
3000
Buna hile denir, ama işe yarayabilir.
18:20
The secondikinci, more honestdürüst way
428
1085000
2000
İkincisi, daha dürüst bir şekilde,
18:22
is to actuallyaslında fixdüzeltmek the modelmodel.
429
1087000
3000
gerçekten modeli tamir edersiniz.
18:26
ChangeDeğiştir happensolur slowlyyavaşça.
430
1091000
2000
Değişim zamanla olur.
18:28
The smokingsigara içmek debatetartışma tookaldı 40 yearsyıl,
431
1093000
3000
Sigara tartışması 40 yıl sürdü,
18:31
and that was an easykolay one.
432
1096000
3000
ve bu aslında kolay olandı.
18:34
Some of this stuffşey is hardzor.
433
1099000
2000
Bunlardan bazıları zordur.
18:36
I mean really thoughgerçi,
434
1101000
2000
Yani cidden zor,
18:38
informationbilgi seemsgörünüyor like our besten iyi hopeumut.
435
1103000
2000
bilgi tek umudumuz gibi görünür.
18:40
And I liedYalan.
436
1105000
2000
Ve size yalan söyledim.
18:42
RememberHatırlıyorum I said feelingduygu, modelmodel, realitygerçeklik;
437
1107000
2000
Hisler, model, gerçeklik dediğimi hatırlıyor musunuz?
18:44
I said realitygerçeklik doesn't changedeğişiklik. It actuallyaslında does.
438
1109000
3000
Gerçeklik değişmez demiştim. Aslında değişir.
18:47
We livecanlı in a technologicalteknolojik worldDünya;
439
1112000
2000
Teknolojik bir dünyada yaşıyoruz;
18:49
realitygerçeklik changesdeğişiklikler all the time.
440
1114000
3000
gerçeklik devamlı değişiyor.
18:52
So we mightbelki have -- for the first time in our speciesTürler --
441
1117000
3000
Yani karşımızdaki durum şöyle -- türümüzde ilk defa--
18:55
feelingduygu chaseskovalayan modelmodel, modelmodel chaseskovalayan realitygerçeklik, reality'sgerçeklik'ın movinghareketli --
442
1120000
3000
hisler modeli takip eder, model gerçekliği, ve gerçeklik hareket halindedir --
18:58
they mightbelki never catchyakalamak up.
443
1123000
3000
asla yakalayamayabilirsiniz.
19:02
We don't know.
444
1127000
2000
Bilemeyiz.
19:04
But in the long-termuzun vadeli,
445
1129000
2000
Ama uzun sürede,
19:06
bothher ikisi de feelingduygu and realitygerçeklik are importantönemli.
446
1131000
3000
hisler ve gerçeklik mühimdir.
19:09
And I want to closekapat with two quickhızlı storieshikayeleri to illustrateörneklemek this.
447
1134000
3000
Ve bunu örneklemek için iki kısa hikayeyle bitireceğim.
19:12
1982 -- I don't know if people will rememberhatırlamak this --
448
1137000
2000
1982'de -- insanların bunu hatırlayacaklarından emin değilim --
19:14
there was a shortkısa epidemicsalgın
449
1139000
3000
Amerika'da Tylenol zehirlenmesinden
19:17
of TylenolTylenol poisoningszehirlenmeler in the UnitedAmerika StatesBirleşik.
450
1142000
2000
dolayı kısa süreli bir salgın vardı.
19:19
It's a horrifickorkunç storyÖykü. SomeoneBirisi tookaldı a bottleşişe of TylenolTylenol,
451
1144000
3000
Korkunç bir hikaye. Birileri bir şişe Tylenol alıyor,
19:22
put poisonzehir in it, closedkapalı it up, put it back on the shelfraf.
452
1147000
3000
içini zehir doldurup, rafa geri koyuyor.
19:25
SomeoneBirisi elsebaşka boughtsatın it and diedvefat etti.
453
1150000
2000
Başka biri bunu satın alıyor ve ölüyor.
19:27
This terrifieddehşete people.
454
1152000
2000
Bu insanları korkuttu.
19:29
There were a coupleçift of copycattaklitçi attackssaldırılar.
455
1154000
2000
Buna benzer bir kaç tane daha vaka oldu.
19:31
There wasn'tdeğildi any realgerçek riskrisk, but people were scaredkorkmuş.
456
1156000
3000
Gerçek bir risk hiç olmadı ama insanlar korktular.
19:34
And this is how
457
1159000
2000
Ve böylece
19:36
the tamper-prooftampon-kanıt drugilaç industrysanayi was inventedicat edildi.
458
1161000
2000
açılma güvenlikli ilaç endüstrisi oluştu.
19:38
Those tamper-prooftampon-kanıt capskapaklar, that camegeldi from this.
459
1163000
2000
Vu güvenlikli kapaklar burdan ortaya çıktı.
19:40
It's completetamamlayınız securitygüvenlik theatertiyatro.
460
1165000
2000
Gerçek bir "güvenlik tiyatrosu".
19:42
As a homeworkev ödevi assignmentatama, think of 10 waysyolları to get around it.
461
1167000
2000
Ev ödevi olarak, bundan kurtulmanın 10 yolunu düşünün.
19:44
I'll give you one, a syringeşırınga.
462
1169000
3000
Her birinize bir şırınga vereceğim.
19:47
But it madeyapılmış people feel better.
463
1172000
3000
Ama bu insanların daha iyi hissetmesini sağladı.
19:50
It madeyapılmış theironların feelingduygu of securitygüvenlik
464
1175000
2000
Güvenlik hissinin gerçeklikle
19:52
more matchmaç the realitygerçeklik.
465
1177000
2000
daha çok örtüşmesini sağladı.
19:54
Last storyÖykü, a fewaz yearsyıl agoönce, a friendarkadaş of mineMayın gaveverdi birthdoğum.
466
1179000
3000
Son hikaye, bir kaç yıl önce, bir arkadaşım doğum yaptı.
19:57
I visitziyaret etmek her in the hospitalhastane.
467
1182000
2000
Hastanede ziyaretine gittim.
19:59
It turnsdönüşler out when a baby'sBebeğin borndoğmuş now,
468
1184000
2000
Farkettim ki, şimdi doğan bebeklere
20:01
they put an RFIDRFID braceletbilezik on the babybebek,
469
1186000
2000
annelerininkiyle uyuşan
20:03
put a correspondinguyan one on the motheranne,
470
1188000
2000
alarmlı dijital bir güvenlik bilekliği takıyorlar,
20:05
so if anyonekimse other than the motheranne takes the babybebek out of the maternityAnnelik wardkoğuş,
471
1190000
2000
yane, annesi hariç biri bebeği yeni doğan bölümünden çıkarırsa,
20:07
an alarmalarm goesgider off.
472
1192000
2000
alarm çalıyor.
20:09
I said, "Well, that's kindtür of neattemiz.
473
1194000
2000
Ben de "Oldukça iyiymiş" dedim.
20:11
I wondermerak etmek how rampantyaygın babybebek snatchingkapma is
474
1196000
2000
"Hastaneden bebek kaçırma ne kadar yaygın
20:13
out of hospitalshastaneler."
475
1198000
2000
merak ediyorum."
20:15
I go home, I look it up.
476
1200000
2000
Eve gittim, araştırdım.
20:17
It basicallytemel olarak never happensolur.
477
1202000
2000
Neredeyse hiç olmuyormuş.
20:19
But if you think about it,
478
1204000
2000
Ama düşündüğünüzde,
20:21
if you are a hospitalhastane,
479
1206000
2000
hastanedeyseniz,
20:23
and you need to take a babybebek away from its motheranne,
480
1208000
2000
ve bebeği annesinden ayırıp bazı testler yaptırmak için
20:25
out of the roomoda to runkoş some teststestler,
481
1210000
2000
odadan çıkarmanız gerekiyorsa,
20:27
you better have some good securitygüvenlik theatertiyatro,
482
1212000
2000
sağlam bir güvenlik tiyatrosu düzenleseniz iyi olur,
20:29
or she's going to ripHuzur içinde yatsın your armkol off.
483
1214000
2000
yoksa annesi kolunuzu koparabilir.
20:31
(LaughterKahkaha)
484
1216000
2000
(Kahkahalar)
20:33
So it's importantönemli for us,
485
1218000
2000
Yani bizler için bu çok önemli,
20:35
those of us who designdizayn securitygüvenlik,
486
1220000
2000
güvenlik tasarımcıları için,
20:37
who look at securitygüvenlik policypolitika,
487
1222000
3000
güvenlik politikalarına bakanlar için,
20:40
or even look at publichalka açık policypolitika
488
1225000
2000
hatta kamu politikalarının
20:42
in waysyolları that affectetkilemek securitygüvenlik.
489
1227000
2000
güvenliği etkileyen alanlarına bakanlar için.
20:44
It's not just realitygerçeklik; it's feelingduygu and realitygerçeklik.
490
1229000
3000
Olay sadece gerçeklikte değil, hisle ve gerçeklikte.
20:47
What's importantönemli
491
1232000
2000
Önemli olan
20:49
is that they be about the sameaynı.
492
1234000
2000
her ikisinin örtüşmesi.
20:51
It's importantönemli that, if our feelingsduygular matchmaç realitygerçeklik,
493
1236000
2000
Hislerimiz ver gerçeklik örtüştüğü sürece,
20:53
we make better securitygüvenlik trade-offsdengelemeler.
494
1238000
2000
daha iyi güvenlik değiş-tokuşları yapıyoruz.
20:55
Thank you.
495
1240000
2000
Teşekkürler.
20:57
(ApplauseAlkış)
496
1242000
2000
(Alkışlar)
Translated by Diba Szamosi
Reviewed by Sancak Gülgen

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com