ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Fatamorgana keamanan

Filmed:
958,315 views

Rasa aman dan kondisi keamanan yang sesungguhnya tidak selalu sejalan, kata pakar keamanan komputer Bruce Schneier. Di TEDxPSU, dia menjelaskan mengapa begitu banyak uang dihabiskan untuk mengatasi risiko yang muncul hanya di berita, seperti yang sekarang terjadi di banyak bandara udara, sementara risiko yang benar-benar bisa terjadi, diabaikan -- dan bagaimana cara menghentikan hal ini.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitykeamanan is two differentberbeda things:
0
0
2000
Jadi keamanan itu punya dua sisi yg berbeda:
00:17
it's a feelingperasaan, and it's a realityrealitas.
1
2000
2000
ada sisi perasaan, dan ada sisi kenyataan.
00:19
And they're differentberbeda.
2
4000
2000
Dan keduanya tidak sama
00:21
You could feel secureaman
3
6000
2000
Anda bisa merasa aman
00:23
even if you're not.
4
8000
2000
meski dalam bahaya.
00:25
And you can be secureaman
5
10000
2000
Dan anda bisa aman
00:27
even if you don't feel it.
6
12000
2000
meski anda tidak merasa aman.
00:29
Really, we have two separateterpisah conceptskonsep
7
14000
2000
Adalah fakta, kita punya dua konsep yang berbeda
00:31
mappeddipetakan ontoke the samesama wordkata.
8
16000
2000
yang terkandung dalam satu kata yg sama.
00:33
And what I want to do in this talk
9
18000
2000
Dan yang ingin saya tunjukkan disini
00:35
is to splitmembagi them apartselain --
10
20000
2000
adalah cara memisahkan mereka --
00:37
figuringmencari tahu out when they divergemenyimpang
11
22000
2000
mencari tahu kapan mereka jadi beda
00:39
and how they convergeberkumpul.
12
24000
2000
dan kapan mereka jadi serupa.
00:41
And languagebahasa is actuallysebenarnya a problemmasalah here.
13
26000
2000
Dan masalahnya ada pada bahasa.
00:43
There aren'ttidak a lot of good wordskata-kata
14
28000
2000
Tidak banyak kata yang tepat
00:45
for the conceptskonsep we're going to talk about.
15
30000
3000
untuk menunjukkan konsep yang akan saya kemukakan.
00:48
So if you look at securitykeamanan
16
33000
2000
Jadi kalau anda memandang kemanan
00:50
from economicekonomis termsistilah,
17
35000
2000
dari sudut pandang ekonomi,
00:52
it's a trade-offtrade-off.
18
37000
2000
ini adalah tukar-tambah.
00:54
EverySetiap time you get some securitykeamanan,
19
39000
2000
Tiap kali anda menghadirkan keamanan,
00:56
you're always tradingperdagangan off something.
20
41000
2000
anda selalu menukarnya dengan sesuatu.
00:58
WhetherApakah this is a personalpribadi decisionkeputusan --
21
43000
2000
Baik dalam urusan pribadi --
01:00
whetherapakah you're going to installmemasang a burglarpencuri alarmalarm in your home --
22
45000
2000
seperti keputusan memasang alarm anti maling di rumah --
01:02
or a nationalNasional decisionkeputusan -- where you're going to invademenyerbu some foreignasing countrynegara --
23
47000
3000
atau keputusan umum -- seperti keputusan menyerang negara lain --
01:05
you're going to tradeperdagangan off something,
24
50000
2000
anda pasti akan harus mengorbankan sesuatu,
01:07
eitherantara moneyuang or time, conveniencekenyamanan, capabilitieskemampuan,
25
52000
3000
baik dengan uang, waktu, kenyamanan, kewenangan,
01:10
maybe fundamentalmendasar libertieskebebasan.
26
55000
3000
bahkan mungkin dengan kebebasan hakiki kita.
01:13
And the questionpertanyaan to askmeminta when you look at a securitykeamanan anything
27
58000
3000
Dan pertanyaan yang muncul dalam kondisi itu
01:16
is not whetherapakah this makesmembuat us saferlebih aman,
28
61000
3000
bukan apakah hal itu akan membuat kita lebih aman,
01:19
but whetherapakah it's worthbernilai the trade-offtrade-off.
29
64000
3000
tapi apakah hal itu setimpal dengan pengorbanannya.
01:22
You've heardmendengar in the pastlalu severalbeberapa yearstahun,
30
67000
2000
Anda sudah dengar beberapa tahun terakhir ini
01:24
the worlddunia is saferlebih aman because SaddamSaddam HusseinHussein is not in powerkekuasaan.
31
69000
2000
bahwa dunia jadi lebih aman selama Saddam Hussein tidak berkuasa.
01:26
That mightmungkin be truebenar, but it's not terriblysangat relevantrelevan.
32
71000
3000
Yang mungkin benar tapi tidak terlalu relevan.
01:29
The questionpertanyaan is, was it worthbernilai it?
33
74000
3000
Pertanyaannya adalah, apa hal itu perlu ?
01:32
And you can make your ownsendiri decisionkeputusan,
34
77000
3000
Anda putuskan sendiri,
01:35
and then you'llAnda akan decidememutuskan whetherapakah the invasioninvasi was worthbernilai it.
35
80000
2000
anda putuskan apakah invasi itu perlu
01:37
That's how you think about securitykeamanan --
36
82000
2000
Begitulah cara kita memandang kemanan --
01:39
in termsistilah of the trade-offtrade-off.
37
84000
2000
sebuah transaksi tukar tambah.
01:41
Now there's oftensering no right or wrongsalah here.
38
86000
3000
Ini bukan soal benar atau salah.
01:44
Some of us have a burglarpencuri alarmalarm systemsistem at home,
39
89000
2000
Sebagian orang punya alarm anti maling di rumahnya,
01:46
and some of us don't.
40
91000
2000
sebagian tidak.
01:48
And it'llitu akan dependtergantung on where we livehidup,
41
93000
2000
Semuanya tergantung dimana kita tinggal,
01:50
whetherapakah we livehidup alonesendirian or have a familykeluarga,
42
95000
2000
apakah kita tinggal sendirian atau dengan keluarga,
01:52
how much coolkeren stuffbarang we have,
43
97000
2000
berapa banyak barang berharga yg kita punya,
01:54
how much we're willingrela to acceptmenerima
44
99000
2000
seberapa besar risiko kemalingan
01:56
the riskrisiko of theftpencurian.
45
101000
2000
yang bersedia kita terima.
01:58
In politicspolitik alsojuga,
46
103000
2000
Di bidang politik juga sama,
02:00
there are differentberbeda opinionspendapat.
47
105000
2000
ada banyak opini yg berbeda.
02:02
A lot of timeswaktu, these trade-offstrade-off
48
107000
2000
Hampir selalu, pengorbanan ini
02:04
are about more than just securitykeamanan,
49
109000
2000
tidak melulu soal kemanan
02:06
and I think that's really importantpenting.
50
111000
2000
dan menurut saya hal ini penting
02:08
Now people have a naturalalam intuitionintuisi
51
113000
2000
Orang-orang sekarang punya naluri
02:10
about these trade-offstrade-off.
52
115000
2000
tentang pengorbanan ini.
02:12
We make them everysetiap day --
53
117000
2000
Ini terjadi setiap hari --
02:14
last night in my hotelhotel roomkamar,
54
119000
2000
semalam di kamar hotel saya,
02:16
when I decidedmemutuskan to double-lockDouble-lock the doorpintu,
55
121000
2000
ketika saya putuskan mengunci pintu kamar saya,
02:18
or you in your carmobil when you drovemelaju here,
56
123000
2000
atau anda ketika mengendarai mobil anda ke sini,
02:20
when we go eatmakan lunchmakan siang
57
125000
2000
atau ketika makan siang
02:22
and decidememutuskan the food'sMakanan not poisonmeracuni and we'llbaik eatmakan it.
58
127000
3000
dan kita putuskan makanannya aman untuk dimakan.
02:25
We make these trade-offstrade-off again and again,
59
130000
2000
Kita lakukan pengorbanan ini terus menerus
02:27
multiplebanyak timeswaktu a day.
60
132000
2000
beberapa kali dalam sehari.
02:29
We oftensering won'tbiasa even noticemelihat them.
61
134000
2000
Kadang kita tidak sadar telah melakukannya.
02:31
They're just partbagian of beingmakhluk alivehidup; we all do it.
62
136000
2000
Orang yang hidup ya pasti seperti itu, semuanya sama.
02:33
EverySetiap speciesjenis does it.
63
138000
3000
Semua mahluk juga begitu.
02:36
ImagineBayangkan a rabbitKelinci in a fieldbidang, eatingmakan grassrumput,
64
141000
2000
Bayangkan seekor kelinci tengah memakan rumput di sebuah lapangan
02:38
and the rabbit'sRabbit's going to see a foxrubah.
65
143000
3000
ketika dia melihat seekor rubah datang
02:41
That rabbitKelinci will make a securitykeamanan trade-offtrade-off:
66
146000
2000
kelinci itu akan menimbang-nimbang
02:43
"Should I staytinggal, or should I fleemelarikan diri?"
67
148000
2000
"Saya sebaiknya tetap tinggal, atau kabur?"
02:45
And if you think about it,
68
150000
2000
Dan memang kalau dipikir
02:47
the rabbitsKelinci that are good at makingmembuat that trade-offtrade-off
69
152000
3000
kelinci yang mengambil keputusan yang tepat
02:50
will tendcenderung to livehidup and reproducebereproduksi,
70
155000
2000
cenderung hidup dan berkembang biak
02:52
and the rabbitsKelinci that are badburuk at it
71
157000
2000
sedangkan yang salah memutuskan
02:54
will get eatendimakan or starvekelaparan.
72
159000
2000
dimakan atau mati kelaparan.
02:56
So you'dAnda akan think
73
161000
2000
Jadi kalau begitu
02:58
that us, as a successfulsukses speciesjenis on the planetplanet --
74
163000
3000
karena kita sukses hidup di planet ini --
03:01
you, me, everybodysemua orang --
75
166000
2000
anda, saya, semuanya --
03:03
would be really good at makingmembuat these trade-offstrade-off.
76
168000
3000
mestinya kita pandai memutuskan hal ini.
03:06
YetNamun it seemsSepertinya, again and again,
77
171000
2000
Tapi kelihatannya, berulang-ulang,
03:08
that we're hopelesslyputus asa badburuk at it.
78
173000
3000
terbukti kita tidak terlalu pandai dalam hal itu.
03:11
And I think that's a fundamentallypada dasarnya interestingmenarik questionpertanyaan.
79
176000
3000
Dan menurut saya ini problem yang menarik.
03:14
I'll give you the shortpendek answermenjawab.
80
179000
2000
Saya berikan jawaban singkatnya.
03:16
The answermenjawab is, we respondmenanggapi to the feelingperasaan of securitykeamanan
81
181000
2000
Jawabannya adalah, kita bereaksi pada rasa aman
03:18
and not the realityrealitas.
82
183000
3000
bukan keamanan.
03:21
Now mostpaling of the time, that worksbekerja.
83
186000
3000
Biasanya, hal ini tidak bermasalah
03:25
MostSebagian of the time,
84
190000
2000
Biasanya,
03:27
feelingperasaan and realityrealitas are the samesama.
85
192000
3000
rasa dan kondisi sebenarnya umumnya sama.
03:30
CertainlyTentu saja that's truebenar
86
195000
2000
Ini sepenuhnya benar
03:32
for mostpaling of humanmanusia prehistoryprasejarah.
87
197000
3000
di masa lampau.
03:35
We'veKami telah developeddikembangkan this abilitykemampuan
88
200000
3000
Kita punya kemampuan ini
03:38
because it makesmembuat evolutionaryevolusioner sensemerasakan.
89
203000
2000
karena sesuai dengan perkembangan evolusi kita.
03:40
One way to think of it
90
205000
2000
Cara lain memadang hal ini adalah
03:42
is that we're highlysangat optimizeddioptimalkan
91
207000
2000
kita terlatih dengan baik
03:44
for riskrisiko decisionskeputusan
92
209000
2000
dalam analisa risiko
03:46
that are endemicpenyebaran to livinghidup in smallkecil familykeluarga groupskelompok
93
211000
3000
yang sering dibutuhkan pada lingkup keluarga
03:49
in the EastTimur AfricanAfrika highlandsdataran tinggi in 100,000 B.C.
94
214000
3000
di dataran tinggi Afrika Timur pada 100.000 SM.
03:52
2010 NewBaru YorkYork, not so much.
95
217000
3000
Kalau di New York tahun 2010, tidak terlalu sering.
03:56
Now there are severalbeberapa biasesbias in riskrisiko perceptionpersepsi.
96
221000
3000
Tentu saja ada penyimpangan-penyimpangan dalam persepsi risiko
03:59
A lot of good experimentspercobaan in this.
97
224000
2000
Banyak penelitian tentang ini.
04:01
And you can see certaintertentu biasesbias that come up again and again.
98
226000
3000
Dan beberapa penyimpangan terjadi lebih sering dari yang lain.
04:04
So I'll give you fourempat.
99
229000
2000
Saya sebutkan empat saja.
04:06
We tendcenderung to exaggerateberlebihan spectacularspektakuler and rarelangka risksrisiko
100
231000
3000
Kita cenderung melebih-lebihkan risiko yang jarang terjadi
04:09
and downplaymengecilkan commonumum risksrisiko --
101
234000
2000
dan menyepelekan risiko yang lebih umum --
04:11
so flyingpenerbangan versusmelawan drivingmenyetir.
102
236000
3000
misalnya jalan udara dan jalan darat.
04:14
The unknowntidak diketahui is perceiveddirasakan
103
239000
2000
Yang tidak diketahui dianggap
04:16
to be riskierberisiko than the familiarakrab.
104
241000
3000
lebih berisiko ketimbang yang biasa diketahui.
04:20
One examplecontoh would be,
105
245000
2000
Contohnya adalah,
04:22
people feartakut kidnappingpenculikan by strangersorang asing
106
247000
3000
orang takut diculik oleh orang asing
04:25
when the datadata supportsmendukung kidnappingpenculikan by relativeskerabat is much more commonumum.
107
250000
3000
padahal faktanya banyak korban penculikan diculik oleh anggota keluarga sendiri
04:28
This is for childrenanak-anak.
108
253000
2000
dan umumnya terjadi pada anak-anak
04:30
ThirdKetiga, personifieddipersonifikasikan risksrisiko
109
255000
3000
Ketiga, risiko yg dipersonifikasi
04:33
are perceiveddirasakan to be greaterlebih besar than anonymousanonim risksrisiko --
110
258000
3000
dianggap lebih rawan ketimbang risiko yg tak dikenal --
04:36
so BinBin LadenSarat is scariermenakutkan because he has a namenama.
111
261000
3000
jadi Bin Laden lebih seram karena dia punya nama.
04:39
And the fourthkeempat
112
264000
2000
Dan ke empat
04:41
is people underestimatemeremehkan risksrisiko
113
266000
2000
adalah kebanyakan orang menyepelekan risiko
04:43
in situationssituasi they do controlkontrol
114
268000
2000
pada situasi dimana mereka punya kendali
04:45
and overestimatemenaksir terlalu tinggi them in situationssituasi they don't controlkontrol.
115
270000
4000
dan membesar-besarkan risiko pada situasi dimana mereka tidak berwewenang.
04:49
So oncesekali you take up skydivingterjun payung or smokingmerokok,
116
274000
3000
Jadi sekali pernah melakukan terjun payung atau merokok
04:52
you downplaymengecilkan the risksrisiko.
117
277000
2000
anda anggap hal itu tidak terlalu berbahaya.
04:54
If a riskrisiko is thrustdorongan uponatas you -- terrorismterorisme was a good examplecontoh --
118
279000
3000
Tapi kalau tiba-tiba disodorkan risiko yang asing -- terorisme adalah contoh yang bagus --
04:57
you'llAnda akan overplayBermain Berlebih-lebihan it because you don't feel like it's in your controlkontrol.
119
282000
3000
anda jadi paranoid, karena anda merasa tidak punya kendali.
05:02
There are a bunchbanyak of other of these biasesbias, these cognitivekognitif biasesbias,
120
287000
3000
Masih banyak penyimpangan-penyimpangan logika seperti itu
05:05
that affectmempengaruhi our riskrisiko decisionskeputusan.
121
290000
3000
yang mempengaruhi keputusan kita tentang risiko.
05:08
There's the availabilityketersediaan heuristicTag heuristic,
122
293000
2000
Misalnya aturan jempol tentang jumlah,
05:10
whichyang basicallypada dasarnya meanscara
123
295000
2000
yang maksudnya
05:12
we estimatememperkirakan the probabilitykemungkinan of something
124
297000
3000
kita perkirakan peluang terjadinya sesuatu
05:15
by how easymudah it is to bringmembawa instancescontoh of it to mindpikiran.
125
300000
4000
berdasarkan seberapa sering kita dengar insiden itu terjadi.
05:19
So you can imaginemembayangkan how that worksbekerja.
126
304000
2000
Jadi cara kerjanya bisa seperti ini
05:21
If you hearmendengar a lot about tigerHarimau attacksserangan, there mustharus be a lot of tigersHarimau around.
127
306000
3000
kalau anda banyak dengar tentang serangan macan, pasti jumlah macan itu banyak.
05:24
You don't hearmendengar about lionsinga attacksserangan, there aren'ttidak a lot of lionssinga around.
128
309000
3000
Sebaliknya karena jarang terdengar adanya serangan singa, maka jumlah singa seolah tidak banyak.
05:27
This worksbekerja untilsampai you inventmenciptakan newspaperskoran.
129
312000
3000
Anggapan ini benar sebelum ditemukannya koran.
05:30
Because what newspaperskoran do
130
315000
2000
Karena surat kabar kerjanya memang
05:32
is they repeatulangi again and again
131
317000
2000
mengulang-ulang
05:34
rarelangka risksrisiko.
132
319000
2000
risiko yang jarang terjadi.
05:36
I tell people, if it's in the newsberita, don't worrykuatir about it.
133
321000
2000
Saya suka bilang pada orang, kalau ada di koran, tidak usah dikhawatirkan
05:38
Because by definitiondefinisi,
134
323000
2000
Karena secara definitif,
05:40
newsberita is something that almosthampir never happensterjadi.
135
325000
3000
berita adalah sesuatu yang hampir tidak pernah terjadi.
05:43
(LaughterTawa)
136
328000
2000
(Tertawa)
05:45
When something is so commonumum, it's no longerlebih lama newsberita --
137
330000
3000
Kalau sesuatu itu biasa terjadi, tidak akan disebut berita --
05:48
carmobil crashescrash, domesticlokal violencekekerasan --
138
333000
2000
kecelakaan lalin, kekerasan rumah tangga --
05:50
those are the risksrisiko you worrykuatir about.
139
335000
3000
itu baru risiko yang harus diperhatikan.
05:53
We're alsojuga a speciesjenis of storytellerspendongeng.
140
338000
2000
Kita juga mahluk yang doyan bercerita.
05:55
We respondmenanggapi to storiescerita more than datadata.
141
340000
3000
Kita lebih perhatian pada cerita ketimbang data.
05:58
And there's some basicdasar innumeracyinnumeracy going on.
142
343000
2000
Sebaliknya kita juga punya problem dengan angka.
06:00
I mean, the jokelelucon "One, Two, ThreeTiga, ManyBanyak" is kindjenis of right.
143
345000
3000
Lelucon yang bilang "satu, dua, tiga, banyak" itu lebih banyak benarnya.
06:03
We're really good at smallkecil numbersangka.
144
348000
3000
Kita lebih perhatian pada satuan yang kecil.
06:06
One mangoMangga, two mangoesmangga, threetiga mangoesmangga,
145
351000
2000
Satu mangga, dua mangga, tiga mangga,
06:08
10,000 mangoesmangga, 100,000 mangoesmangga --
146
353000
2000
10.000 mangga, 100.000 mangga --
06:10
it's still more mangoesmangga you can eatmakan before they rotmembusuk.
147
355000
3000
dianggap sama banyak.
06:13
So one halfsetengah, one quarterperempat, one fifthkelima -- we're good at that.
148
358000
3000
Sedangkan satu setengah, satu seperempat, satu seperlima -- jadi perhatian kita.
06:16
One in a millionjuta, one in a billionmilyar --
149
361000
2000
Satu dari sejuta, satu dari semilyar --
06:18
they're bothkedua almosthampir never.
150
363000
3000
dua-duanya dianggap sama saja dengan tidak pernah.
06:21
So we have troublekesulitan with the risksrisiko
151
366000
2000
Jadi kita prihatin akan risiko
06:23
that aren'ttidak very commonumum.
152
368000
2000
yang jarang terjadi.
06:25
And what these cognitivekognitif biasesbias do
153
370000
2000
Dan penyimpangan logika ini
06:27
is they actbertindak as filtersfilter betweenantara us and realityrealitas.
154
372000
3000
berperan menjadi pemilah antara kita dan dunia nyata.
06:30
And the resulthasil
155
375000
2000
Akibatnya
06:32
is that feelingperasaan and realityrealitas get out of whackmendera,
156
377000
2000
perasaan kita dan kondisi sebenarnya jadi kacau,
06:34
they get differentberbeda.
157
379000
3000
jadi berbeda.
06:37
Now you eitherantara have a feelingperasaan -- you feel more secureaman than you are.
158
382000
3000
Sekarang kalau tidak merasa lebih aman
06:40
There's a falseSalah sensemerasakan of securitykeamanan.
159
385000
2000
yang disebut rasa aman yg keliru.
06:42
Or the other way,
160
387000
2000
Kita alami yg sebaliknya
06:44
and that's a falseSalah sensemerasakan of insecurityketidakamanan.
161
389000
2000
yang disebut rasa tidak aman yang keliru.
06:46
I writemenulis a lot about "securitykeamanan theaterteater,"
162
391000
3000
Saya banyak menulis tentang "Security theater" (panggung keamanan)
06:49
whichyang are productsproduk that make people feel secureaman,
163
394000
3000
yang merupakan produk yang bikin orang merasa aman
06:52
but don't actuallysebenarnya do anything.
164
397000
2000
tapi sebenarnya tidak melakukan apa-apa.
06:54
There's no realnyata wordkata for stuffbarang that makesmembuat us secureaman,
165
399000
2000
Tidak ada sebutan untuk hal yang membuat kita aman
06:56
but doesn't make us feel secureaman.
166
401000
2000
tapi tidak membuat kita merasa aman.
06:58
Maybe it's what the CIA'sCIA supposedseharusnya to do for us.
167
403000
3000
Mungkin itu tugas CIA.
07:03
So back to economicsekonomi.
168
408000
2000
Jadi balik ke prinsip ekonomi
07:05
If economicsekonomi, if the marketpasar, drivesdrive securitykeamanan,
169
410000
4000
Kalau ekonomi, kalau pasar, mengendalikan keamanan,
07:09
and if people make trade-offstrade-off
170
414000
2000
dan orang memutuskan sesuatu
07:11
basedberbasis on the feelingperasaan of securitykeamanan,
171
416000
3000
berdasarkan perasaan tentang keamanan,
07:14
then the smartpintar thing for companiesperusahaan to do
172
419000
2000
maka hal terbaik yang perusahaan bisa lakukan
07:16
for the economicekonomis incentivesinsentif
173
421000
2000
demi keuntungan ekonomi
07:18
are to make people feel secureaman.
174
423000
3000
adalah membuat orang merasa aman.
07:21
And there are two wayscara to do this.
175
426000
3000
Ada dua cara mewujudkan ini.
07:24
One, you can make people actuallysebenarnya secureaman
176
429000
2000
Satu, anda benar-benar mengamankan orang
07:26
and hopeberharap they noticemelihat.
177
431000
2000
dan berharap mereka sadar akan hal itu.
07:28
Or two, you can make people just feel secureaman
178
433000
3000
Atau kedua, anda cukup membuat orang merasa aman
07:31
and hopeberharap they don't noticemelihat.
179
436000
3000
dan berharap mereka tidak sadar akan hal itu.
07:35
So what makesmembuat people noticemelihat?
180
440000
3000
Jadi apa yang membuat orang menyadari hal ini ?
07:38
Well a couplepasangan of things:
181
443000
2000
Dua hal:
07:40
understandingpengertian of the securitykeamanan,
182
445000
2000
pemahaman tentang keamanan,
07:42
of the risksrisiko, the threatsancaman,
183
447000
2000
tentang risiko, tentang ancaman,
07:44
the countermeasureslangkah-langkah penanggulangan, how they work.
184
449000
3000
Dan tentang pencegahannya, bagaimana cara kerjanya.
07:47
But if you know stuffbarang,
185
452000
2000
Kalau anda paham itu semua
07:49
you're more likelymungkin to have your feelingsperasaan matchpertandingan realityrealitas.
186
454000
3000
lebih besar peluang perasaan anda cocok dengan kondisi nyatanya.
07:52
EnoughCukup realnyata worlddunia examplescontoh helpsmembantu.
187
457000
3000
Jumlah contoh insiden di dunia nyata juga membantu.
07:55
Now we all know the crimekejahatan ratemenilai in our neighborhoodlingkungan,
188
460000
3000
Kalau kita punya data insiden keamanan di lingkungan kita
07:58
because we livehidup there, and we get a feelingperasaan about it
189
463000
3000
karena kita tinggal disitu, perasaan kita jadi
08:01
that basicallypada dasarnya matchespertandingan realityrealitas.
190
466000
3000
umumnya cocok dengan kenyataannya.
08:04
SecurityKeamanan theater'steater exposedterbuka
191
469000
3000
Panggung keamanan, dilaksanakan
08:07
when it's obviousjelas that it's not workingkerja properlytepat.
192
472000
3000
padahal jelas tidak berfungsi dengan baik.
08:10
Okay, so what makesmembuat people not noticemelihat?
193
475000
4000
Baiklah, sekarang apa yang membuat orang tidak menyadari hal ini ?
08:14
Well, a poormiskin understandingpengertian.
194
479000
2000
Kurangnya pemahaman.
08:16
If you don't understandmemahami the risksrisiko, you don't understandmemahami the costsbiaya,
195
481000
3000
Kalau anda tidak paham risikonya, anda tidak paham biayanya,
08:19
you're likelymungkin to get the trade-offtrade-off wrongsalah,
196
484000
2000
hampir pasti anda akan salah memutuskan
08:21
and your feelingperasaan doesn't matchpertandingan realityrealitas.
197
486000
3000
dan perasaan anda tidak terlalu cocok dengan kenyataan.
08:24
Not enoughcukup examplescontoh.
198
489000
2000
Tidak punya cukup contoh.
08:26
There's an inherentinheren problemmasalah
199
491000
2000
Ada problem laten
08:28
with lowrendah probabilitykemungkinan eventsacara.
200
493000
2000
dalam insiden berpeluang rendah
08:30
If, for examplecontoh,
201
495000
2000
jika, misalnya
08:32
terrorismterorisme almosthampir never happensterjadi,
202
497000
2000
terorisme hampir tidak pernah terjadi
08:34
it's really hardkeras to judgehakim
203
499000
2000
sulit sekali memutuskan
08:36
the efficacyKhasiat of counter-terroristCounter-teroris measuresukuran.
204
501000
3000
keberhasilan dari inisiatif-inisiatif anti-terorisme.
08:40
This is why you keep sacrificingmengorbankan virginsperawan,
205
505000
3000
Makanya kita lebih sering "memberikan sesajen",
08:43
and why your unicornUnicorn defensespertahanan are workingkerja just great.
206
508000
3000
dan kenapa solusi mistis anda berjalan "baik".
08:46
There aren'ttidak enoughcukup examplescontoh of failureskegagalan.
207
511000
3000
Tidak cukup banyak contoh kegagalan.
08:50
AlsoJuga, feelingsperasaan that are cloudingmengaburkan the issuesMasalah --
208
515000
3000
Juga, perasaan yang mengelabui isu yang sebenarnya --
08:53
the cognitivekognitif biasesbias I talkedberbicara about earliersebelumnya,
209
518000
2000
penyimpangan logika yang saya singgung sebelumnya
08:55
fearsketakutan, folkrakyat beliefskeyakinan,
210
520000
3000
ketakutan, takhayul,
08:58
basicallypada dasarnya an inadequatetidak memadai modelmodel of realityrealitas.
211
523000
3000
intinya tidak adanya model dunia nyata.
09:02
So let me complicatemenyulitkan things.
212
527000
3000
Kalau mau dibikin ribet.
09:05
I have feelingperasaan and realityrealitas.
213
530000
2000
Saya punya perasaan dan kenyataan.
09:07
I want to addmenambahkan a thirdketiga elementelemen. I want to addmenambahkan modelmodel.
214
532000
3000
Mari kita tambahkan yang ketiga. Kita tambahkan model.
09:10
FeelingPerasaan and modelmodel in our headkepala,
215
535000
2000
Ada perasaan, ada model di kepala kita
09:12
realityrealitas is the outsidedi luar worlddunia.
216
537000
2000
dan kenyataan di dunia luar
09:14
It doesn't changeperubahan; it's realnyata.
217
539000
3000
sama sekali tidak berubah. Tetap saja yang nyata.
09:17
So feelingperasaan is basedberbasis on our intuitionintuisi.
218
542000
2000
Perasaan berpijak pada intuisi.
09:19
ModelModel is basedberbasis on reasonalasan.
219
544000
2000
Model berpijak pada logika.
09:21
That's basicallypada dasarnya the differenceperbedaan.
220
546000
3000
Itulah perbedaan intinya.
09:24
In a primitiveprimitif and simplesederhana worlddunia,
221
549000
2000
Dalam dunia yang primitif dan sederhana,
09:26
there's really no reasonalasan for a modelmodel
222
551000
3000
tidak ada alasan untuk punya model
09:29
because feelingperasaan is closedekat to realityrealitas.
223
554000
3000
karena perasaan cocok dengan realita.
09:32
You don't need a modelmodel.
224
557000
2000
Anda tidak butuh model.
09:34
But in a modernmodern and complexkompleks worlddunia,
225
559000
2000
Tapi dalam dunia modern dan rumit,
09:36
you need modelsmodel
226
561000
2000
anda butuh model
09:38
to understandmemahami a lot of the risksrisiko we facemenghadapi.
227
563000
3000
untuk memahami begitu banyak risiko yang kita hadapi.
09:42
There's no feelingperasaan about germskuman.
228
567000
2000
Tidak ada perasaan tentang kuman.
09:44
You need a modelmodel to understandmemahami them.
229
569000
3000
Butuh model untuk memahami mereka.
09:47
So this modelmodel
230
572000
2000
Jadi model ini
09:49
is an intelligentcerdas representationperwakilan of realityrealitas.
231
574000
3000
adalah analogi yang cerdas dari kenyataan.
09:52
It's, of courseTentu saja, limitedterbatas by scienceilmu,
232
577000
3000
Yang tentu saja dibatasi secara ilmiah
09:55
by technologyteknologi.
233
580000
2000
oleh teknologi.
09:57
We couldn'ttidak bisa have a germkuman theoryteori of diseasepenyakit
234
582000
3000
Kita tidak punya teori penyakit berbasis kuman
10:00
before we inventeddiciptakan the microscopemikroskop to see them.
235
585000
3000
sebelum diciptakannya mikroskop.
10:04
It's limitedterbatas by our cognitivekognitif biasesbias.
236
589000
3000
Analogi ini juga dibatasi oleh penyimpangan logika
10:07
But it has the abilitykemampuan
237
592000
2000
tapi dia punya kemampuan
10:09
to overridemenimpa our feelingsperasaan.
238
594000
2000
mengatasi perasaan.
10:11
Where do we get these modelsmodel? We get them from otherslainnya.
239
596000
3000
Darimana bisa kita dapatkan model-model ini ? Dari orang lain.
10:14
We get them from religionagama, from culturebudaya,
240
599000
3000
Dari agama, kebudayaan,
10:17
teachersguru, elderssesepuh.
241
602000
2000
guru, tetua.
10:19
A couplepasangan yearstahun agolalu,
242
604000
2000
Dua tahun yg lalu,
10:21
I was in SouthSelatan AfricaAfrika on safariSafari.
243
606000
2000
saya bersafari ke Afrika Selatan.
10:23
The trackerTracker I was with grewtumbuh up in KrugerKruger NationalNasional ParkPark.
244
608000
3000
Pemandunya lahir dan besar di Taman Nasional Kruger.
10:26
He had some very complexkompleks modelsmodel of how to survivebertahan.
245
611000
3000
Dia punya model yang rumit untuk bertahan hidup
10:29
And it dependedtergantung on if you were attackedterserang
246
614000
2000
yang jadi andalan ketika anda diserang
10:31
by a lionsinga or a leopardmacan tutul or a rhinoBadak or an elephantgajah --
247
616000
2000
oleh singa atau macan tutul atau badak atau gajah --
10:33
and when you had to runmenjalankan away, and when you couldn'ttidak bisa runmenjalankan away, and when you had to climbmendaki a treepohon --
248
618000
3000
dan ketika harus melarikan diri, atau memanjat pohon --
10:36
when you could never climbmendaki a treepohon.
249
621000
2000
kalau anda tidak mampu memanjat pohon.
10:38
I would have diedmeninggal in a day,
250
623000
3000
Seharipun saya tidak akan bisa bertahan
10:41
but he was bornlahir there,
251
626000
2000
tapi dia lahir di sana,
10:43
and he understooddipahami how to survivebertahan.
252
628000
2000
dan dia paham bagaimana agar selamat.
10:45
I was bornlahir in NewBaru YorkYork CityKota.
253
630000
2000
Saya lahir di kota New York.
10:47
I could have takendiambil him to NewBaru YorkYork, and he would have diedmeninggal in a day.
254
632000
3000
saya bisa bawa pemandu itu ke new york, dan seharipun dia tidak akan selamat.
10:50
(LaughterTawa)
255
635000
2000
(tertawa)
10:52
Because we had differentberbeda modelsmodel
256
637000
2000
Karena kita punya model yang berbeda
10:54
basedberbasis on our differentberbeda experiencespengalaman.
257
639000
3000
berdasarkan pengalaman kita yang berbeda.
10:58
ModelsModel can come from the mediamedia,
258
643000
2000
Model bisa diambil dari media,
11:00
from our electedterpilih officialspejabat.
259
645000
3000
dari para wakil rakyat.
11:03
Think of modelsmodel of terrorismterorisme,
260
648000
3000
bayangkan model untuk terorisme,
11:06
childanak kidnappingpenculikan,
261
651000
3000
penculikan anak,
11:09
airlineperusahaan penerbangan safetykeamanan, carmobil safetykeamanan.
262
654000
2000
keamanan maskapai penerbangan dan mobil.
11:11
ModelsModel can come from industryindustri.
263
656000
3000
Model bisa diambil dari industri.
11:14
The two I'm followingberikut are surveillancepengawasan cameraskamera,
264
659000
2000
Dua industri yang jadi perhatian saya adalah kamera pengintai,
11:16
IDID cardskartu-kartu,
265
661000
2000
dan kartu identitas,
11:18
quitecukup a lot of our computerkomputer securitykeamanan modelsmodel come from there.
266
663000
3000
banyak sekali model keamanan komputer kami datang dari sana.
11:21
A lot of modelsmodel come from scienceilmu.
267
666000
3000
banyak model datang dari ilmu pengetahuan.
11:24
HealthKesehatan modelsmodel are a great examplecontoh.
268
669000
2000
Model kesehatan misalnya.
11:26
Think of cancerkanker, of birdburung fluflu, swinebabi fluflu, SARSSARS.
269
671000
3000
Bayangkan kanker, flu burung, flu babi dan SARS.
11:29
All of our feelingsperasaan of securitykeamanan
270
674000
3000
Semua rasa aman kita
11:32
about those diseasespenyakit
271
677000
2000
tentang penyakit-penyakit itu
11:34
come from modelsmodel
272
679000
2000
datang dari model-model
11:36
givendiberikan to us, really, by scienceilmu filtereddisaring throughmelalui the mediamedia.
273
681000
3000
yang dicekokkan ke kita, lewat saringan ilmiah, lewat media.
11:40
So modelsmodel can changeperubahan.
274
685000
3000
Jadi model bisa berubah.
11:43
ModelsModel are not staticstatis.
275
688000
2000
Model tidak statis.
11:45
As we becomemenjadi more comfortablenyaman in our environmentslingkungan,
276
690000
3000
Ketika kita makin nyaman dengan lingkungan kita,
11:48
our modelmodel can movepindah closerlebih dekat to our feelingsperasaan.
277
693000
4000
model kita makin makin mirip dengan perasaan kita.
11:53
So an examplecontoh mightmungkin be,
278
698000
2000
Contoh, misalnya
11:55
if you go back 100 yearstahun agolalu
279
700000
2000
100 tahun yang lalu
11:57
when electricitylistrik was first becomingmenjadi commonumum,
280
702000
3000
ketika listrik baru mulai diterima khalayak,
12:00
there were a lot of fearsketakutan about it.
281
705000
2000
banyak ketakutan tentang hal itu.
12:02
I mean, there were people who were afraidtakut to pushDorong doorbellsBel Pintu,
282
707000
2000
Ada orang yang takut menekan bel pintu
12:04
because there was electricitylistrik in there, and that was dangerousberbahaya.
283
709000
3000
karena ada listrik yang mengalir dan itu dianggap berbahaya.
12:07
For us, we're very facilelancar around electricitylistrik.
284
712000
3000
Buat kita, kita sangat cuek dengan listrik disekitar kita.
12:10
We changeperubahan lightcahaya bulbslampu
285
715000
2000
Kita mengganti bohlam
12:12
withouttanpa even thinkingberpikir about it.
286
717000
2000
tanpa pikir panjang.
12:14
Our modelmodel of securitykeamanan around electricitylistrik
287
719000
4000
Model kita tentangg listrik
12:18
is something we were bornlahir into.
288
723000
3000
sesuai dengan dunia dimana kita dilahirkan
12:21
It hasn'tbelum changedberubah as we were growingpertumbuhan up.
289
726000
3000
yang tidak berubah selama kita tumbuh
12:24
And we're good at it.
290
729000
3000
dan kita jadi mahir soal itu.
12:27
Or think of the risksrisiko
291
732000
2000
Atau bayangkan risiko-risiko
12:29
on the InternetInternet acrossmenyeberang generationsgenerasi --
292
734000
2000
yang ada di internet berdasarkan generasi penggunanya --
12:31
how your parentsorangtua approachpendekatan InternetInternet securitykeamanan,
293
736000
2000
sikap orang tua anda tentang keamanan internet,
12:33
versusmelawan how you do,
294
738000
2000
dibanding sikap anda,
12:35
versusmelawan how our kidsanak-anak will.
295
740000
3000
dibanding sikap anak anda nantinya.
12:38
ModelsModel eventuallyakhirnya fadeluntur into the backgroundLatar Belakang.
296
743000
3000
Model pada akhirnya akan lenyap jadi alam bawah sadar.
12:42
IntuitiveIntuitif is just anotherlain wordkata for familiarakrab.
297
747000
3000
Intuisi hanya nama lain dari kebiasaan.
12:45
So as your modelmodel is closedekat to realityrealitas,
298
750000
2000
Jadi kalau model anda dekat dengan realita
12:47
and it convergesmenyatu with feelingsperasaan,
299
752000
2000
dan bersatu dengan perasaan,
12:49
you oftensering don't know it's there.
300
754000
3000
anda sering tidak menyadari keberadaannya.
12:52
So a nicebagus examplecontoh of this
301
757000
2000
Contoh yang menarik tentang ini adalah
12:54
camedatang from last yeartahun and swinebabi fluflu.
302
759000
3000
ketika flu babi merebak tahun lalu.
12:57
When swinebabi fluflu first appearedmuncul,
303
762000
2000
Ketika pertama kali ditemukan,
12:59
the initialawal newsberita causeddisebabkan a lot of overreactionreaksi berlebihan.
304
764000
4000
banyak orang ketakutan dengan flu babi.
13:03
Now it had a namenama,
305
768000
2000
Sekarang jadi punya nama
13:05
whichyang madeterbuat it scariermenakutkan than the regularreguler fluflu,
306
770000
2000
yang membuatnya lebih menyeramkan dari flu biasa
13:07
even thoughmeskipun it was more deadlymematikan.
307
772000
2000
meskipun lebih berbahaya
13:09
And people thought doctorsdokter should be ablesanggup to dealberurusan with it.
308
774000
4000
dan orang-orang menuntut dokter untuk mengatasinya.
13:13
So there was that feelingperasaan of lackkekurangan of controlkontrol.
309
778000
2000
Jadi ada semacam perasaan hilangnya kendali.
13:15
And those two things
310
780000
2000
Dan dua hal itu
13:17
madeterbuat the riskrisiko more than it was.
311
782000
2000
membuat risikonya tampak lebih tinggi.
13:19
As the noveltykebaruan worememakainya off, the monthsbulan wentpergi by,
312
784000
3000
Ketika sudah tidak jadi berita, dan beberapa bulan berlalu,
13:22
there was some amountjumlah of tolerancetoleransi,
313
787000
2000
orang mulai mentolerirnya,
13:24
people got used to it.
314
789000
2000
orang jadi terbiasa.
13:26
There was no newbaru datadata, but there was lesskurang feartakut.
315
791000
3000
Tidak ada data yang lebih baru, tapi ketakutan yang ada menyusut.
13:29
By autumnmusim gugur,
316
794000
2000
Di musim gugur,
13:31
people thought
317
796000
2000
semua orang pikir
13:33
the doctorsdokter should have solvedterpecahkan this alreadysudah.
318
798000
2000
dokter pasti sudah mengatasinya.
13:35
And there's kindjenis of a bifurcationpencabangan dua --
319
800000
2000
Masyarakat terbelah jadi dua --
13:37
people had to choosememilih
320
802000
2000
orang-orang harus memilih
13:39
betweenantara feartakut and acceptancepenerimaan --
321
804000
4000
tetap takut atau menerima keadaan --
13:43
actuallysebenarnya feartakut and indifferencepengabaian --
322
808000
2000
sebenarnya takut dan kemasabodohan
13:45
they kindjenis of chosememilih suspicionkecurigaan.
323
810000
3000
cenderung memihak kecurigaan.
13:48
And when the vaccinevaksin appearedmuncul last wintermusim dingin,
324
813000
3000
Ketika penawarnya muncul di akhir musim dingin,
13:51
there were a lot of people -- a surprisingmengejutkan numberjumlah --
325
816000
3000
banyak orang -- dalam jumlah yg mengejutkan --
13:54
who refusedmenolak to get it --
326
819000
3000
menolak menggunakannya.
13:58
as a nicebagus examplecontoh
327
823000
2000
Ini contoh menarik
14:00
of how people'sorang-orang feelingsperasaan of securitykeamanan changeperubahan, how theirmereka modelmodel changesperubahan,
328
825000
3000
bagaimana perasaan tentang keamanan berubah, bagaimana model berubah,
14:03
sortmenyortir of wildlyliar
329
828000
2000
begitu kontras
14:05
with no newbaru informationinformasi,
330
830000
2000
tanpa informasi baru,
14:07
with no newbaru inputmemasukkan.
331
832000
2000
tanpa masukan baru.
14:09
This kindjenis of thing happensterjadi a lot.
332
834000
3000
hal seperti ini sering sekali terjadi.
14:12
I'm going to give one more complicationkomplikasi.
333
837000
3000
saya akan coba bikin ini tambah ruwet lagi.
14:15
We have feelingperasaan, modelmodel, realityrealitas.
334
840000
3000
Kita punya perasaan, model, kenyataan.
14:18
I have a very relativisticrelativistik viewmelihat of securitykeamanan.
335
843000
2000
Saya punya pandangan tentang keamanan yang relatif.
14:20
I think it dependstergantung on the observerpengamat.
336
845000
3000
Menurut saya pengamatnya berpengaruh besar
14:23
And mostpaling securitykeamanan decisionskeputusan
337
848000
2000
dan hampir semua keputusan tentang kemanan
14:25
have a varietyvariasi of people involvedterlibat.
338
850000
4000
melibatkan beragam macam orang
14:29
And stakeholdersstakeholder
339
854000
2000
dan pemilik saham
14:31
with specificspesifik trade-offstrade-off
340
856000
3000
dengan pertimbangan yang sangat khusus
14:34
will try to influencemempengaruhi the decisionkeputusan.
341
859000
2000
akan mencoba mempengaruhi keputusan itu.
14:36
And I call that theirmereka agendaJadwal acara.
342
861000
2000
Saya sebut ini agenda.
14:38
And you see agendaJadwal acara --
343
863000
2000
Anda akan lihat beragam macam agenda --
14:40
this is marketingpemasaran, this is politicspolitik --
344
865000
3000
ada yang buat marketing, politik --
14:43
tryingmencoba to convincemeyakinkan you to have one modelmodel versusmelawan anotherlain,
345
868000
3000
usaha meyakinkan anda untuk memakai model tertentu,
14:46
tryingmencoba to convincemeyakinkan you to ignoremengabaikan a modelmodel
346
871000
2000
usaha membuat anda mengabaikan model tertentu
14:48
and trustkepercayaan your feelingsperasaan,
347
873000
3000
dan percaya saja pada perasaan anda,
14:51
marginalizingmeminggirkan people with modelsmodel you don't like.
348
876000
3000
mengucilkan orang yg menggunakan model yang anda tidak suka.
14:54
This is not uncommonjarang.
349
879000
3000
Ini hal yang lazim.
14:57
An examplecontoh, a great examplecontoh, is the riskrisiko of smokingmerokok.
350
882000
3000
Contoh paling bagus tentang ini adalah risiko merokok.
15:01
In the historysejarah of the pastlalu 50 yearstahun, the smokingmerokok riskrisiko
351
886000
3000
Selama 50 tahun terakhir, risiko merokok
15:04
showsmenunjukkan how a modelmodel changesperubahan,
352
889000
2000
menunjukkan bagaimana sebuah model berubah
15:06
and it alsojuga showsmenunjukkan how an industryindustri fightsperkelahian againstmelawan
353
891000
3000
dan menunjukkan bagaimana sebuah industri
15:09
a modelmodel it doesn't like.
354
894000
2000
melawan model yang tidak disukai.
15:11
CompareBandingkan that to the secondhandbekas smokemerokok debateperdebatan --
355
896000
3000
Bandingkan dengan debat tentang rokok --
15:14
probablymungkin about 20 yearstahun behinddibelakang.
356
899000
3000
20 tahun sebelumnya.
15:17
Think about seatkursi beltssabuk.
357
902000
2000
Sama halnya dengan sabuk pengaman.
15:19
When I was a kidanak, no one worememakainya a seatkursi beltsabuk.
358
904000
2000
Waktu saya kecil, tidak ada yang mengenakan sabuk pengaman
15:21
NowadaysSaat ini, no kidanak will let you drivemendorong
359
906000
2000
Sekarang, tidak ada anak-anak yang mengizinkan anda nyetir
15:23
if you're not wearingmemakai a seatkursi beltsabuk.
360
908000
2000
kalau tidak pakai sabuk pengaman.
15:26
CompareBandingkan that to the airbagairbag debateperdebatan --
361
911000
2000
Bandingkan itu dengan debat tentang airbag --
15:28
probablymungkin about 30 yearstahun behinddibelakang.
362
913000
3000
30 tahun sebelumnya.
15:31
All examplescontoh of modelsmodel changingberubah.
363
916000
3000
Semuanya contoh berubahnya suatu model.
15:36
What we learnbelajar is that changingberubah modelsmodel is hardkeras.
364
921000
3000
Hikmahnya adalah, mengubah model itu susah.
15:39
ModelsModel are hardkeras to dislodgemengusir.
365
924000
2000
Model susah digulingkan.
15:41
If they equalsama your feelingsperasaan,
366
926000
2000
Kalau cocok dengan perasaan anda,
15:43
you don't even know you have a modelmodel.
367
928000
3000
anda bahkan tidak sadar anda punya model.
15:46
And there's anotherlain cognitivekognitif biasbias
368
931000
2000
Ada satu penyimpangan logika yang penting
15:48
I'll call confirmationkonfirmasi biasbias,
369
933000
2000
Saya sebut penyimpangan konfirmasi
15:50
where we tendcenderung to acceptmenerima datadata
370
935000
3000
dimana kita cenderung menerima data
15:53
that confirmsmenegaskan our beliefskeyakinan
371
938000
2000
yang mengkonfirmasi kepercayaan kita
15:55
and rejectmenolak datadata that contradictsbertentangan dengan our beliefskeyakinan.
372
940000
3000
dan menolak data yang menentang kepercayaan kita.
15:59
So evidencebukti againstmelawan our modelmodel,
373
944000
2000
Jadi bukti yang menyanggah model kita,
16:01
we're likelymungkin to ignoremengabaikan, even if it's compellingmenarik.
374
946000
3000
lebih sering kita abaikan, meski beralasan.
16:04
It has to get very compellingmenarik before we'llbaik paymembayar attentionperhatian.
375
949000
3000
Bukti itu harus sangat kuat baru kita perhatikan.
16:08
NewBaru modelsmodel that extendmemperpanjang long periodsperiode of time are hardkeras.
376
953000
2000
Model yang berlangsung lama agak sulit dibayangkan.
16:10
GlobalGlobal warmingpemanasan is a great examplecontoh.
377
955000
2000
Pemanasan global contohnya.
16:12
We're terribleburuk
378
957000
2000
Kita susah memahami
16:14
at modelsmodel that spanmenjangkau 80 yearstahun.
379
959000
2000
model dengan rentang 80 tahun.
16:16
We can do to the nextberikutnya harvestpanen.
380
961000
2000
Kita bisa paham yang periodenya setahun.
16:18
We can oftensering do untilsampai our kidsanak-anak growtumbuh up.
381
963000
3000
Kadang kita paham model dengan rentang waktu sampai anak kita dewasa.
16:21
But 80 yearstahun, we're just not good at.
382
966000
3000
Tapi 80 tahun, kelewat jauh.
16:24
So it's a very hardkeras modelmodel to acceptmenerima.
383
969000
3000
Jadi model seperti itu sulit sekali diterima.
16:27
We can have bothkedua modelsmodel in our headkepala simultaneouslyserentak,
384
972000
4000
Kita bisa punya dua model sekaligus di kepala
16:31
right, that kindjenis of problemmasalah
385
976000
3000
atau masalah seperti
16:34
where we're holdingmemegang bothkedua beliefskeyakinan togetherbersama,
386
979000
3000
ketika kita menganut standar ganda
16:37
right, the cognitivekognitif dissonancedisonansi.
387
982000
2000
atau kesumbangan logika.
16:39
EventuallyAkhirnya,
388
984000
2000
Pada akhirnya,
16:41
the newbaru modelmodel will replacemenggantikan the oldtua modelmodel.
389
986000
3000
model baru akan menggantikan model yang lama.
16:44
StrongKuat feelingsperasaan can createmembuat a modelmodel.
390
989000
3000
perasaan yang kuat bisa menciptakan model baru.
16:47
SeptemberSeptember 11thth createddiciptakan a securitykeamanan modelmodel
391
992000
3000
Peristiwa 11 september menciptakan model keamanan baru
16:50
in a lot of people'sorang-orang headskepala.
392
995000
2000
di kepala banyak orang.
16:52
AlsoJuga, personalpribadi experiencespengalaman with crimekejahatan can do it,
393
997000
3000
Pengalaman jadi korban kriminalitas juga punya efek yang sama,
16:55
personalpribadi healthkesehatan scareketakutan,
394
1000000
2000
trauma kesehatan,
16:57
a healthkesehatan scareketakutan in the newsberita.
395
1002000
2000
trauma kesehatan yang disebar berita.
16:59
You'llAnda akan see these calledbernama flashbulbflashbulb eventsacara
396
1004000
2000
Ada fenomena yang disebut flashbulb
17:01
by psychiatristspsikiater.
397
1006000
2000
oleh ahli jiwa.
17:03
They can createmembuat a modelmodel instantaneouslyseketika,
398
1008000
3000
Yang bisa menciptakan model seketika
17:06
because they're very emotiveemosi.
399
1011000
3000
karena sangat emosional.
17:09
So in the technologicalteknologi worlddunia,
400
1014000
2000
Jadi di dunia yang sarat teknologi
17:11
we don't have experiencepengalaman
401
1016000
2000
kita tidak berpengalaman
17:13
to judgehakim modelsmodel.
402
1018000
2000
untuk menilai model.
17:15
And we relymengandalkan on otherslainnya. We relymengandalkan on proxiesproxy.
403
1020000
2000
Jadi kita mengandalkan orang lain. Kita mengandalkan perwakilan.
17:17
I mean, this worksbekerja as long as it's to correctbenar otherslainnya.
404
1022000
4000
Ini berlaku hanya ketika untuk mengoreksi orang lain.
17:21
We relymengandalkan on governmentpemerintah agenciesagensi
405
1026000
2000
Kita mengandalkan badan negara
17:23
to tell us what pharmaceuticalsfarmasi are safeaman.
406
1028000
5000
untuk memutuskan obat apa yang aman dipakai.
17:28
I flewterbang here yesterdaykemarin.
407
1033000
2000
Saya terbang ke sini kemarin.
17:30
I didn't checkmemeriksa the airplanepesawat terbang.
408
1035000
2000
Saya tidak periksa pesawat udaranya.
17:32
I relieddiandalkan on some other groupkelompok
409
1037000
2000
Saya mengandalkan suatu kelompok lain
17:34
to determinemenentukan whetherapakah my planepesawat was safeaman to flyterbang.
410
1039000
3000
untuk memutuskan pesawatnya layak terbang atau tidak.
17:37
We're here, nonetidak ada of us feartakut the roofatap is going to collapsejatuh on us,
411
1042000
3000
Kita semua disini, tidak ada yang khawatir atap bangunan ini akan runtuh,
17:40
not because we checkeddiperiksa,
412
1045000
3000
bukan karena sudah kita pastikan,
17:43
but because we're prettycantik sure
413
1048000
2000
tapi karena kita lumayan yakin
17:45
the buildingbangunan codesKode here are good.
414
1050000
3000
standar keselamatan gedung ini cukup bagus.
17:48
It's a modelmodel we just acceptmenerima
415
1053000
2000
Sebuah model yang kita terima
17:50
prettycantik much by faithiman.
416
1055000
2000
hanya dengan keyakinan.
17:52
And that's okay.
417
1057000
3000
Dan itu ok ok saja.
17:57
Now, what we want
418
1062000
2000
Sekarang yang kita harapkan
17:59
is people to get familiarakrab enoughcukup
419
1064000
2000
adalah orang untuk mengenali dengan lebih baik
18:01
with better modelsmodel --
420
1066000
2000
dengan model yg lebih baik
18:03
have it reflectedtercermin in theirmereka feelingsperasaan --
421
1068000
2000
dan merefleksikannya pada perasaan --
18:05
to allowmengizinkan them to make securitykeamanan trade-offstrade-off.
422
1070000
4000
untuk mengizinkannya memutuskan masalah keamanan.
18:09
Now when these go out of whackmendera,
423
1074000
2000
Ketika hal ini tidak jalan
18:11
you have two optionspilihan.
424
1076000
2000
anda hanya punya dua pilihan.
18:13
One, you can fixmemperbaiki people'sorang-orang feelingsperasaan,
425
1078000
2000
Satu, anda ubah perasaan orang,
18:15
directlylangsung appealmenarik to feelingsperasaan.
426
1080000
2000
langsung mempengaruhi perasaan.
18:17
It's manipulationmanipulasi, but it can work.
427
1082000
3000
Ini manipulasi tapi bisa jalan.
18:20
The secondkedua, more honestjujur way
428
1085000
2000
Kedua, yang lebih jujur,
18:22
is to actuallysebenarnya fixmemperbaiki the modelmodel.
429
1087000
3000
adalah dengan memperbaiki model.
18:26
ChangePerubahan happensterjadi slowlyperlahan.
430
1091000
2000
perubahan berlangsung lambat.
18:28
The smokingmerokok debateperdebatan tookmengambil 40 yearstahun,
431
1093000
3000
Debat soal rokok makan waktu 40 tahun
18:31
and that was an easymudah one.
432
1096000
3000
dan itu soal yang mudah.
18:34
Some of this stuffbarang is hardkeras.
433
1099000
2000
Beberapa kasus sangat sulit.
18:36
I mean really thoughmeskipun,
434
1101000
2000
Tapi ya kelihatannya
18:38
informationinformasi seemsSepertinya like our bestterbaik hopeberharap.
435
1103000
2000
informasi cenderung ramah pada harapan terbaik kita.
18:40
And I liedbohong.
436
1105000
2000
Dan saya bohong.
18:42
RememberIngat I said feelingperasaan, modelmodel, realityrealitas;
437
1107000
2000
Ingat waktu saya bilang perasaan, model dan realita ?
18:44
I said realityrealitas doesn't changeperubahan. It actuallysebenarnya does.
438
1109000
3000
Saya bilang realita tidak pernah bisa berubah. Sebetulnya bisa.
18:47
We livehidup in a technologicalteknologi worlddunia;
439
1112000
2000
Kita hidup didunia teknologi;
18:49
realityrealitas changesperubahan all the time.
440
1114000
3000
Realitas berubah setiap waktu.
18:52
So we mightmungkin have -- for the first time in our speciesjenis --
441
1117000
3000
Jadi bisa terjadi -- untuk pertama kalinya dalam sejarah --
18:55
feelingperasaan chasesmengejar modelmodel, modelmodel chasesmengejar realityrealitas, reality'skenyataan di movingbergerak --
442
1120000
3000
perasaan mengejar model, model mengejar realita, realita bergerak --
18:58
they mightmungkin never catchmenangkap up.
443
1123000
3000
tanpa titik temu.
19:02
We don't know.
444
1127000
2000
Kita tidak pernah tahu.
19:04
But in the long-termjangka panjang,
445
1129000
2000
Tapi dalam jangka panjang
19:06
bothkedua feelingperasaan and realityrealitas are importantpenting.
446
1131000
3000
baik perasaan maupun realita itu penting.
19:09
And I want to closedekat with two quickcepat storiescerita to illustratemenjelaskan this.
447
1134000
3000
Saya akan akhiri ini dengan dua cerita sebagai ilustrasi.
19:12
1982 -- I don't know if people will rememberingat this --
448
1137000
2000
1982 -- entah masih ada yang ingat apa tidak --
19:14
there was a shortpendek epidemicwabah
449
1139000
3000
ada epidemi singkat
19:17
of TylenolTylenol poisoningskeracunan in the UnitedInggris StatesSerikat.
450
1142000
2000
tentang keracunan Tylenol di Amerika Serikat.
19:19
It's a horrificmengerikan storycerita. SomeoneSeseorang tookmengambil a bottlebotol of TylenolTylenol,
451
1144000
3000
Ini cerita yang mengerikan. Seseorang mengambil botol Tylenol,
19:22
put poisonmeracuni in it, closedTutup it up, put it back on the shelfrak.
452
1147000
3000
memasukkan racun kedalamnya, menutupnya dan mengembalikannya ke rak.
19:25
SomeoneSeseorang elselain boughtmembeli it and diedmeninggal.
453
1150000
2000
Orang lain yang membelinya mati keracunan.
19:27
This terrifiedketakutan people.
454
1152000
2000
Ini menakutkan banyak orang.
19:29
There were a couplepasangan of copycatpeniru attacksserangan.
455
1154000
2000
Ada beberapa orang yg meniru modus ini.
19:31
There wasn'ttidak any realnyata riskrisiko, but people were scaredtakut.
456
1156000
3000
Tidak ada risiko yang nyata, tapi orang-orang ketakutan.
19:34
And this is how
457
1159000
2000
Inilah asal muasal
19:36
the tamper-proofTamper-Bukti drugobat industryindustri was inventeddiciptakan.
458
1161000
2000
lahirnya industry obat-obatan yang bersegel.
19:38
Those tamper-proofTamper-Bukti capstopi, that camedatang from this.
459
1163000
2000
Tutup bersegel sebagai solusinya
19:40
It's completelengkap securitykeamanan theaterteater.
460
1165000
2000
adalah panggung keamanan.
19:42
As a homeworkpekerjaan rumah assignmenttugas, think of 10 wayscara to get around it.
461
1167000
2000
Sebagai PR pikirkan 10 cara untuk membukanya tanpa merusak segelnya.
19:44
I'll give you one, a syringejarum suntik.
462
1169000
3000
Saya berikan satu, jarum suntik.
19:47
But it madeterbuat people feel better.
463
1172000
3000
Tapi segel itu membuat orang lebih tenang,
19:50
It madeterbuat theirmereka feelingperasaan of securitykeamanan
464
1175000
2000
menciptakan rasa aman,
19:52
more matchpertandingan the realityrealitas.
465
1177000
2000
lebih mendekati kenyataannya.
19:54
Last storycerita, a fewbeberapa yearstahun agolalu, a friendteman of mineranjau gavememberi birthkelahiran.
466
1179000
3000
Cerita terakhir, beberapa tahun yang lalu, teman saya melahirkan.
19:57
I visitmengunjungi her in the hospitalRSUD.
467
1182000
2000
Saya menjenguknya di rumah sakit.
19:59
It turnsberubah out when a baby'sbayi bornlahir now,
468
1184000
2000
Ternyata bayi yang lahir, sekarang ini,
20:01
they put an RFIDRFID braceletgelang on the babybayi,
469
1186000
2000
dikenakan gelang RFID
20:03
put a correspondingsesuai one on the motheribu,
470
1188000
2000
yang berpasangan dengan gelang yang dikenakan ke ibunya,
20:05
so if anyonesiapa saja other than the motheribu takes the babybayi out of the maternitybersalin wardmenangkal,
471
1190000
2000
jadi siapa saja yang bukan ibunya membawa bayi itu keluar ruangan,
20:07
an alarmalarm goespergi off.
472
1192000
2000
alarm akan berbunyi.
20:09
I said, "Well, that's kindjenis of neatrapi.
473
1194000
2000
Saya bilang, "wah ini cukup keren
20:11
I wonderbertanya-tanya how rampantmerajalela babybayi snatchingmenyambar is
474
1196000
2000
saya bertanya-tanya seberapa sering terjadi penculikan bayi
20:13
out of hospitalsrumah sakit."
475
1198000
2000
dari sebuah rumah sakit. "
20:15
I go home, I look it up.
476
1200000
2000
Saya pulang, dan memeriksanya.
20:17
It basicallypada dasarnya never happensterjadi.
477
1202000
2000
Ternyata tidak pernah terjadi.
20:19
But if you think about it,
478
1204000
2000
Tapi kalau dipikir-pikir,
20:21
if you are a hospitalRSUD,
479
1206000
2000
kalau anda pengelola rumah sakit,
20:23
and you need to take a babybayi away from its motheribu,
480
1208000
2000
dan anda perlu membawa bayi itu keluar ruangan,
20:25
out of the roomkamar to runmenjalankan some teststes,
481
1210000
2000
menjauh dari ibunya untuk melakukan serangkaian tes,
20:27
you better have some good securitykeamanan theaterteater,
482
1212000
2000
anda sebaiknya punya panggung keamanan yang baik
20:29
or she's going to ripmeninggal dunia your armlengan off.
483
1214000
2000
atau anda berurusan dengan ibunya.
20:31
(LaughterTawa)
484
1216000
2000
(Tertawa)
20:33
So it's importantpenting for us,
485
1218000
2000
Jadi penting bagi kita
20:35
those of us who designDesain securitykeamanan,
486
1220000
2000
yang mendesain keamanan,
20:37
who look at securitykeamanan policykebijakan,
487
1222000
3000
yang menyusun kebijakan keamanan,
20:40
or even look at publicpublik policykebijakan
488
1225000
2000
atau bahkan kebijakan umum
20:42
in wayscara that affectmempengaruhi securitykeamanan.
489
1227000
2000
yang mempengaruhi keamanan.
20:44
It's not just realityrealitas; it's feelingperasaan and realityrealitas.
490
1229000
3000
Masalahnya tidak hanya soal realita, tapi perasaan dan realita.
20:47
What's importantpenting
491
1232000
2000
Yang penting adalah
20:49
is that they be about the samesama.
492
1234000
2000
keduanya muncul bersamaan.
20:51
It's importantpenting that, if our feelingsperasaan matchpertandingan realityrealitas,
493
1236000
2000
Hal ini penting karena, ketika perasaan kita cocok dengan kenyataan,
20:53
we make better securitykeamanan trade-offstrade-off.
494
1238000
2000
kita bisa memutuskan masalah keamanan dengan lebih baik.
20:55
Thank you.
495
1240000
2000
Terima kasih.
20:57
(ApplauseTepuk tangan)
496
1242000
2000
(Tepuk tangan)
Translated by Judge Pau
Reviewed by Irma Amelia Muhammad

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com