ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

ब्रुस श्नायर: सुरक्षिततेचे मृगजळ

Filmed:
958,315 views

सुरक्षिततेची भावना आणि सुरक्षिततेचे वास्तव हे नेहमी एकच असतात असे नाही, असे म्हणतायत संगणक-सुरक्षातज्ञ ब्रुस श्नायर. TEDxPSU मध्ये, ते समजावत आहेत आपण वर्तमानपत्रात छापून आलेल्या बातम्या बनलेल्या धोक्यांवर करोडो रुपये का खर्च करतो, जसे की तुमच्या जवळील विमानतळावर सुरू असलेल्या 'सुरक्षिततेच्या नाटकावर', आणि त्याचवेळी जास्त शक्यता असलेल्या धोकादायक गोष्टींकडे डोळेझाक करतो -- आणि आपण हे कसे बदलू शकतो.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So security is two different things:
0
0
2000
तर सुरक्षितता म्हणजे दोन भिन्न गोष्टी आहेत:
00:17
it's a feeling, and it's a reality.
1
2000
2000
ती एक भावना आहे आणि ते एक वास्तव आहे.
00:19
And they're different.
2
4000
2000
आणि ह्या दोन्ही गोष्टी वेगवेगळ्या आहेत.
00:21
You could feel secure
3
6000
2000
तुम्ही सुरक्षित नसला तरी
00:23
even if you're not.
4
8000
2000
तुम्हाला सुरक्षित वाटू शकते.
00:25
And you can be secure
5
10000
2000
आणि तुम्हाला सुरक्षित वाटले नाही तरी
00:27
even if you don't feel it.
6
12000
2000
तुम्ही सुरक्षित असू शकता.
00:29
Really, we have two separate concepts
7
14000
2000
खरोखर, त्या दोन वेगवेगळ्या संकल्पना
00:31
mapped onto the same word.
8
16000
2000
एकाच शब्दाशी संबंधित आहेत.
00:33
And what I want to do in this talk
9
18000
2000
आणि या भाषणाद्वारे मला
00:35
is to split them apart --
10
20000
2000
त्या दोन्ही तोडायच्या आहेत --
00:37
figuring out when they diverge
11
22000
2000
त्या कधी दूर जातात
00:39
and how they converge.
12
24000
2000
आणि त्या कधी एकत्र येतात हे समजून घेऊन.
00:41
And language is actually a problem here.
13
26000
2000
आणि भाषा हा यातील एक खराखुरा अडथळा आहे.
00:43
There aren't a lot of good words
14
28000
2000
आपण ज्या संकल्पनांबद्दल बोलणार आहोत
00:45
for the concepts we're going to talk about.
15
30000
3000
त्यांसाठी फारसे योग्य शब्द नाही आहेत.
00:48
So if you look at security
16
33000
2000
म्हणून जर तुम्ही सुरक्षिततेकडे
00:50
from economic terms,
17
35000
2000
अर्थशास्त्राच्या दृष्टीने पाहिले तर,
00:52
it's a trade-off.
18
37000
2000
ती एक जमा खर्चाचे गणित आहे.
00:54
Every time you get some security,
19
39000
2000
प्रत्येकवेळी तुम्हाला सुरक्षितता मिळत असते
00:56
you're always trading off something.
20
41000
2000
त्यावेळी तुम्ही दुसरे काहीतरी खर्च करत असता.
00:58
Whether this is a personal decision --
21
43000
2000
हा तुमचा व्यक्तिगत निर्णय असेल --
01:00
whether you're going to install a burglar alarm in your home --
22
45000
2000
तुम्ही घरी सुरक्षा-गजर लावणार का नाही याबद्दलचा --
01:02
or a national decision -- where you're going to invade some foreign country --
23
47000
3000
किंवा राष्ट्रीय निर्णय असेल -- तुम्ही दुसर्या देशावर आक्रमण करण्यासाठीचा--
01:05
you're going to trade off something,
24
50000
2000
तुम्ही कशावर तरी पाणी सोडताय,
01:07
either money or time, convenience, capabilities,
25
52000
3000
पैसा किंवा वेळ, सुविधा, क्षमता,
01:10
maybe fundamental liberties.
26
55000
3000
किंवा मूलभूत स्वातंत्र्यांवर
01:13
And the question to ask when you look at a security anything
27
58000
3000
आणि कोणत्याही सुरक्षेकडे पाहताना विचारायचा प्रश्न
01:16
is not whether this makes us safer,
28
61000
3000
हा नाही की त्यामुळे आपण सुरक्षित होत आहोत की नाही,
01:19
but whether it's worth the trade-off.
29
64000
3000
पण त्यासाठी मोजलेली किंमत बरोबर आहे की नाही हा आहे.
01:22
You've heard in the past several years,
30
67000
2000
तुम्ही गेली काही वर्षे ऐकताय,
01:24
the world is safer because Saddam Hussein is not in power.
31
69000
2000
सद्दाम हुसेन सत्तेवर नाही त्यामुळे जग जास्त सुरक्षित आहे.
01:26
That might be true, but it's not terribly relevant.
32
71000
3000
ते खरे असेलही, पण ते जास्त महत्त्वाचे नाही आहे.
01:29
The question is, was it worth it?
33
74000
3000
प्रश्न आहे की त्यासाठी मोजलेली किंमत बरोबर होती की नव्हती.
01:32
And you can make your own decision,
34
77000
3000
आणि तुमचा तुम्ही निर्णय घ्या,
01:35
and then you'll decide whether the invasion was worth it.
35
80000
2000
आणि तुम्ही ठरवाल की त्यांच्यावर केलेले आक्रमण बरोबर होते की नाही.
01:37
That's how you think about security --
36
82000
2000
असा तुम्ही सुरक्षिततेबद्दल विचार करायचा असतो --
01:39
in terms of the trade-off.
37
84000
2000
जमा-खर्चाच्या गणिताद्वारे.
01:41
Now there's often no right or wrong here.
38
86000
3000
आता यात अनेकवेळा चूक किंवा बरोबर असे काहीच नसते.
01:44
Some of us have a burglar alarm system at home,
39
89000
2000
आपल्यातील काही लोकांच्या घरात सुरक्षागजर प्रणाली असते,
01:46
and some of us don't.
40
91000
2000
आणि काहींच्यात नसते.
01:48
And it'll depend on where we live,
41
93000
2000
आणि हे सर्व अवलंबून आहे आपण कुठे राहतो,
01:50
whether we live alone or have a family,
42
95000
2000
आपण एकटे राहतो की कुटूंबासोबत,
01:52
how much cool stuff we have,
43
97000
2000
आपल्याकडे किती मुल्यवान माल आहे,
01:54
how much we're willing to accept
44
99000
2000
आणि चोरीच्या धोक्याचा स्विकार
01:56
the risk of theft.
45
101000
2000
आपण किती करू शकतो यांवर.
01:58
In politics also,
46
103000
2000
राजकारणातही,
02:00
there are different opinions.
47
105000
2000
बरेच वेगवेगळे पर्याय असतात.
02:02
A lot of times, these trade-offs
48
107000
2000
आणि बर्‍याच वेळेला, हे जमा-खर्च,
02:04
are about more than just security,
49
109000
2000
फक्त सुरक्षिततेशिवाय इतर गोष्टींबद्दल असतात,
02:06
and I think that's really important.
50
111000
2000
आणि मला वाटते ते खरोखर महत्त्वाचे आहे.
02:08
Now people have a natural intuition
51
113000
2000
आता लोकांना या जमाखर्चाबद्दल
02:10
about these trade-offs.
52
115000
2000
नैसर्गिक अंतर्ज्ञान असते.
02:12
We make them every day --
53
117000
2000
आपण ते दररोज करत असतो --
02:14
last night in my hotel room,
54
119000
2000
काल रात्री माझ्या हॉटेलच्या खोलीत,
02:16
when I decided to double-lock the door,
55
121000
2000
जेव्हा मी दाराला दोन कुलुपे लावायचे ठरवले त्यावेळी,
02:18
or you in your car when you drove here,
56
123000
2000
किंवा तुम्ही इथे गाडी चालवत आला त्यावेळी
02:20
when we go eat lunch
57
125000
2000
जेव्हा आपण जेवायला जातो त्यावेळी
02:22
and decide the food's not poison and we'll eat it.
58
127000
3000
आपण ठरवतो की जेवण विषारी नाही आहे आणि आपण ते खातो.
02:25
We make these trade-offs again and again,
59
130000
2000
आपण हे जमा-खर्चाचे गणित परत परत
02:27
multiple times a day.
60
132000
2000
दररोज अनेक वेळा करतो.
02:29
We often won't even notice them.
61
134000
2000
बहुतांशी आपल्या ध्यानातही ते येत नाहीत.
02:31
They're just part of being alive; we all do it.
62
136000
2000
आपल्या जिवंत असण्याचाच ते एक भाग आहेत; आपण सगळेच ते करतो.
02:33
Every species does it.
63
138000
3000
प्रत्येक प्रजाती तसे करते.
02:36
Imagine a rabbit in a field, eating grass,
64
141000
2000
समजा शेतात एक ससा गवत खातो आहे,
02:38
and the rabbit's going to see a fox.
65
143000
3000
आणि सश्याला कोल्हा दिसणार आहे.
02:41
That rabbit will make a security trade-off:
66
146000
2000
ससा सुरक्षिततेच्या जमा-खर्चाचे गणित करणार आहे:
02:43
"Should I stay, or should I flee?"
67
148000
2000
"मी थांबू की मी पळून जाऊ?"
02:45
And if you think about it,
68
150000
2000
आणि तुम्ही त्याबाबत विचार केला,
02:47
the rabbits that are good at making that trade-off
69
152000
3000
तर जे ससे ते गणित करण्यात चांगले आहेत
02:50
will tend to live and reproduce,
70
155000
2000
ते जगतील आणि प्रजनन करतील
02:52
and the rabbits that are bad at it
71
157000
2000
आणि जे ससे ते करण्यात वाईट असतील
02:54
will get eaten or starve.
72
159000
2000
ते भक्ष्य बनतील किंवा उपाशी राहतील.
02:56
So you'd think
73
161000
2000
आणि तुम्हा विचार करता की
02:58
that us, as a successful species on the planet --
74
163000
3000
आपण, या ग्रहावरील सर्वात यशस्वी प्रजाती --
03:01
you, me, everybody --
75
166000
2000
तुम्ही, मी, सर्वजण --
03:03
would be really good at making these trade-offs.
76
168000
3000
हे जमा-खर्चाचे गणित करण्यात एकदम पारंगत असू.
03:06
Yet it seems, again and again,
77
171000
2000
तरी परत परत असे दिसून येते
03:08
that we're hopelessly bad at it.
78
173000
3000
की आपण त्याबाबत अतिशय वाईट आहोत.
03:11
And I think that's a fundamentally interesting question.
79
176000
3000
आणि मला वाटते की हा मूलतः रोचक प्रश्न आहे.
03:14
I'll give you the short answer.
80
179000
2000
मी तुम्हाला थोडक्यात उत्तर देईन.
03:16
The answer is, we respond to the feeling of security
81
181000
2000
उत्तर आहे की आपण सुरक्षिततेच्या भावनेनुसार वागतो
03:18
and not the reality.
82
183000
3000
आणि वास्तवानुसार नाही.
03:21
Now most of the time, that works.
83
186000
3000
आणि बहुतेक वेळा ते चालते.
03:25
Most of the time,
84
190000
2000
बर्‍याचदा,
03:27
feeling and reality are the same.
85
192000
3000
भावना आणि वास्तव एकच असतात.
03:30
Certainly that's true
86
195000
2000
आणि जवळजवळ संपूर्ण मानवी प्रागैतिहासात
03:32
for most of human prehistory.
87
197000
3000
ते नक्कीच खरे होते.
03:35
We've developed this ability
88
200000
3000
आपण ही क्षमता विकसित केली आहे
03:38
because it makes evolutionary sense.
89
203000
2000
कारण ती उत्क्रांतीच्या दृष्टीने योग्य होती.
03:40
One way to think of it
90
205000
2000
याबद्दल असा विचार करता येईल
03:42
is that we're highly optimized
91
207000
2000
की आपण इसपूर्व १,००,००० मध्ये
03:44
for risk decisions
92
209000
2000
पूर्व आफ्रिकेतील पर्वतीय प्रदेशात छोट्या कुटूंबातील गटात
03:46
that are endemic to living in small family groups
93
211000
3000
राहात असताना नेहमी घ्याव्या लागलेल्या धोक्यांबद्दलच्या
03:49
in the East African highlands in 100,000 B.C.
94
214000
3000
निर्णयांबाबत अतिशय तल्लख आहोत.
03:52
2010 New York, not so much.
95
217000
3000
२०१० मधल्या न्यूयॉर्कसाठी, फारसे नाही.
03:56
Now there are several biases in risk perception.
96
221000
3000
धोका समजण्याच्या बाबतीत अनेक चुका होत असतात.
03:59
A lot of good experiments in this.
97
224000
2000
यातील बरेच चांगले प्रयोग केले गेले आहेत.
04:01
And you can see certain biases that come up again and again.
98
226000
3000
आणि तुम्हाला काही चुका पुन्हापन्हा होताना दिसू शकतील.
04:04
So I'll give you four.
99
229000
2000
मी त्यातील चार सांगतो.
04:06
We tend to exaggerate spectacular and rare risks
100
231000
3000
आपण भव्य-दिव्य आणि असामान्य अशा धोक्यांना अतिरंजित करतो
04:09
and downplay common risks --
101
234000
2000
आणि नेहमीच्या धोक्यांना कमी किंमत देतो --
04:11
so flying versus driving.
102
236000
3000
जसे (विमानातून) उडणे विरूद्ध (गाडी) चालवणे.
04:14
The unknown is perceived
103
239000
2000
अज्ञात गोष्टींना ज्ञात गोष्टींपेक्षा
04:16
to be riskier than the familiar.
104
241000
3000
जास्त धोकादायक समजले जाते.
04:20
One example would be,
105
245000
2000
त्याचे एक उदाहारण असेल,
04:22
people fear kidnapping by strangers
106
247000
3000
लोकांना परके लोक अपहरण करतील अशी भीती वाटते,
04:25
when the data supports kidnapping by relatives is much more common.
107
250000
3000
तर याबाबतीतील माहिती नातेवाईकांनी केलेली अपहरणे जास्त असतात याला आधार देते.
04:28
This is for children.
108
253000
2000
हे आहे मुलांबाबात.
04:30
Third, personified risks
109
255000
3000
तिसरी, एखाद्या व्यक्तीशी निगडीत अशा धोक्यांना
04:33
are perceived to be greater than anonymous risks --
110
258000
3000
अनामिक धोक्यांपेक्षा जास्त मोठे समजले जाते.
04:36
so Bin Laden is scarier because he has a name.
111
261000
3000
जसं बिन लादेन जास्त भीतीदायक आहे कारण त्याला नाव आहे.
04:39
And the fourth
112
264000
2000
आणि चौथी..
04:41
is people underestimate risks
113
266000
2000
की लोक त्यांचे नियंत्रण असलेल्या परिस्थितीतील
04:43
in situations they do control
114
268000
2000
धोक्यांना प्रमाणापेक्षा कमी महत्त्व देतात
04:45
and overestimate them in situations they don't control.
115
270000
4000
आणि ज्या परिस्थितीवर त्यांचे नियत्रण नाही त्यातील धोक्यांना जास्त महत्त्व देतात.
04:49
So once you take up skydiving or smoking,
116
274000
3000
तर एकदा तुम्ही स्कायडायविंग किंवा धुम्रपान करण्यास सुरूवात केली,
04:52
you downplay the risks.
117
277000
2000
की तुम्ही त्यातील धोक्यांने कमी लेखता.
04:54
If a risk is thrust upon you -- terrorism was a good example --
118
279000
3000
जर धोका तुमच्यावर लादला गेला असेल तर -- दहशतवाद हे चांगले उदाहरण होते --
04:57
you'll overplay it because you don't feel like it's in your control.
119
282000
3000
तुम्ही त्याला जास्त किंमत देता, कारण तुम्हाला ते तुमच्या नियंत्रणाखाली आहे असे वाटत नाही.
05:02
There are a bunch of other of these biases, these cognitive biases,
120
287000
3000
अशा आणखीही बर्‍याच चुका आहेत, आकलनातील चुका,
05:05
that affect our risk decisions.
121
290000
3000
ज्या आपल्या धोक्यांविषयीच्या निर्णयांवर परिणाम करतात.
05:08
There's the availability heuristic,
122
293000
2000
त्यातील एक उपलब्धता अनुमान,
05:10
which basically means
123
295000
2000
ज्याचा अर्थ मूलतः असा आहे की
05:12
we estimate the probability of something
124
297000
3000
आपण एखाद्या गोष्टीची शक्यता त्या गोष्टीबद्दलच्या
05:15
by how easy it is to bring instances of it to mind.
125
300000
4000
घटना किती लगेच मनात आणू शकतो यावरून ठरवतो.
05:19
So you can imagine how that works.
126
304000
2000
तुम्ही विचार करू शकाल ते कसे होते.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
127
306000
3000
तुम्ही जर वाघांच्या हल्ल्यांबाबात बरेच ऐकले असेल तर, आजूबाजूला भरपूर वाघ असणारच.
05:24
You don't hear about lion attacks, there aren't a lot of lions around.
128
309000
3000
सिंहाचे हल्ले तुमच्या ऐकिवात नाहीत म्हणजे अजूबाजूला जास्त सिंह नाही आहेत.
05:27
This works until you invent newspapers.
129
312000
3000
हे ठीक आहे जोपर्यंत तुम्ही वर्तमानपत्रांचा शोध लावत नाही.
05:30
Because what newspapers do
130
315000
2000
कारण वर्तमानपत्रे काय करतात की
05:32
is they repeat again and again
131
317000
2000
ती कधीतरी उद्भवणार्‍या धोक्यांची
05:34
rare risks.
132
319000
2000
वारंवार पुनरूक्ती करतात
05:36
I tell people, if it's in the news, don't worry about it.
133
321000
2000
मी लोकांना सांगतो, जर एखादी गोष्ट वर्तमानपत्रात असेल तर त्याबद्दल काळजी करू नका.
05:38
Because by definition,
134
323000
2000
कारण व्याख्येनुसारच,
05:40
news is something that almost never happens.
135
325000
3000
बातमी म्हणजे एखादी गोष्ट जी जवळजवळ कधीच घडत नाही.
05:43
(Laughter)
136
328000
2000
(हशा)
05:45
When something is so common, it's no longer news --
137
330000
3000
एखादी गोष्ट सारखीच घडत असेल, तर ती बातमी होऊ शकत नाही --
05:48
car crashes, domestic violence --
138
333000
2000
गाड्यांचे अपघात, घरगुती मारहाण --
05:50
those are the risks you worry about.
139
335000
3000
त्यागोष्टींबद्दल तुम्ही काळजी घेतली पाहिजे.
05:53
We're also a species of storytellers.
140
338000
2000
आणि आपण एक गोष्टी सागणार्‍यांची जमात पण आहोत.
05:55
We respond to stories more than data.
141
340000
3000
आपण माहितीपेक्षा गोष्टींना जास्त महत्त्व देतो.
05:58
And there's some basic innumeracy going on.
142
343000
2000
आणि त्यात थोडा पायाभूत निरंकपणा (अंकांबद्दलचे अज्ञान) आहे.
06:00
I mean, the joke "One, Two, Three, Many" is kind of right.
143
345000
3000
म्हणजे तो "एक दोन तीन, अनेक" चा विनोद काहीसा बरोबरच आहे.
06:03
We're really good at small numbers.
144
348000
3000
आपन लहान संख्यांच्या बाबतीत एकदम चांगले आहोत.
06:06
One mango, two mangoes, three mangoes,
145
351000
2000
एक आंबा, दोन आंबे, तीन आंबे,
06:08
10,000 mangoes, 100,000 mangoes --
146
353000
2000
१०,००० आंबे, १,००,००० आंबे --
06:10
it's still more mangoes you can eat before they rot.
147
355000
3000
अजुनही नासून जाण्याआधी खाता येतील त्यापेक्षा ते जास्त आंबे आहेत.
06:13
So one half, one quarter, one fifth -- we're good at that.
148
358000
3000
तर अर्धा, पाव, एक पंचमांश -- याबाबत आपण चांगले आहोत.
06:16
One in a million, one in a billion --
149
361000
2000
दहा लाखात एक, शंभर कोटीत एक --
06:18
they're both almost never.
150
363000
3000
ते म्हणजे जवळ जवळ नसल्यासारखेच आहेत.
06:21
So we have trouble with the risks
151
366000
2000
म्हणूनच आपल्याला सामान्य नसलेले धोके
06:23
that aren't very common.
152
368000
2000
समजण्यास त्रास होतो.
06:25
And what these cognitive biases do
153
370000
2000
आणि या आकलनशक्तीतील चुका
06:27
is they act as filters between us and reality.
154
372000
3000
आपल्या आणि वास्तवामधील चाळणी बनतात.
06:30
And the result
155
375000
2000
आणि त्याचा परिणाम
06:32
is that feeling and reality get out of whack,
156
377000
2000
असा होतो की भावना आणि वास्तव यात काहीच समान राहत नाही,
06:34
they get different.
157
379000
3000
ते भिन्न बनतात.
06:37
Now you either have a feeling -- you feel more secure than you are.
158
382000
3000
आता तुमची एकतर अशी भावना असते की -- तुम्हाला तुम्ही असता त्यापेक्षा जास्त सुरक्षित वाटते.
06:40
There's a false sense of security.
159
385000
2000
हीच आहे सुरक्षेची चुकीची समजूत.
06:42
Or the other way,
160
387000
2000
किंवा उलट,
06:44
and that's a false sense of insecurity.
161
389000
2000
आपण असुरक्षित असल्याची चुकीची भावना.
06:46
I write a lot about "security theater,"
162
391000
3000
मी "सुरक्षिततेच्या नाटकासंबंधी" बरेच लिहीतो,
06:49
which are products that make people feel secure,
163
394000
3000
ज्या अशा गोष्टी आहेत ज्यामुळे लोकांना सुरक्षित वाटते,
06:52
but don't actually do anything.
164
397000
2000
पण वास्तवात त्यांचा काहीही उपयोग होत नाही.
06:54
There's no real word for stuff that makes us secure,
165
399000
2000
अशा गोष्टींसाठी कुठलाच शब्द नाही आहे ज्या आपल्याला सुरक्षित करतात,
06:56
but doesn't make us feel secure.
166
401000
2000
पण आपल्याला सुरक्षित वाटू देत नाहीत.
06:58
Maybe it's what the CIA's supposed to do for us.
167
403000
3000
बहुतेक ते काम आपल्यासाठी सीआयए करते.
07:03
So back to economics.
168
408000
2000
परतूया अर्थशास्त्राकडे.
07:05
If economics, if the market, drives security,
169
410000
4000
जर अर्थशास्त्र, किंवा बाजारपेठेच्या पद्धतीने सुरक्षितता चालली तर,
07:09
and if people make trade-offs
170
414000
2000
आणि जर लोकांनी जम-खर्चाचे गणित
07:11
based on the feeling of security,
171
416000
3000
सुरक्षिततेच्या भावनेवरून केले तर,
07:14
then the smart thing for companies to do
172
419000
2000
पैसा मिळविण्यासाठी कंपन्यांसाठी हुशारीची गोष्ट
07:16
for the economic incentives
173
421000
2000
म्हणजे लोकांच्यात सुरक्षिततेची भावना वाढवण्यासाठौ
07:18
are to make people feel secure.
174
423000
3000
जे काही करावे लागते ते करायचे.
07:21
And there are two ways to do this.
175
426000
3000
आणि हे दोन रीतीने करता येते.
07:24
One, you can make people actually secure
176
429000
2000
पहिली, तुम्ही लोकांना खरोखर सुरक्षित करू शकता
07:26
and hope they notice.
177
431000
2000
आणि ते त्याची नोंद घेतील अशी आशा राखता.
07:28
Or two, you can make people just feel secure
178
433000
3000
किंवा दुसरी, तुम्ही लोकांना फक्त ते सुरक्षित आहेत असे भासवू शकता
07:31
and hope they don't notice.
179
436000
3000
आणि त्यांना ते कळणार नाही अशी आशा राखता.
07:35
So what makes people notice?
180
440000
3000
आणि असे काय आहे की लोकांना नोंद घ्यायला लावते?
07:38
Well a couple of things:
181
443000
2000
त्या आहेत दोन गोष्टी:
07:40
understanding of the security,
182
445000
2000
सुरक्षितता, धोके, जोखिमी,
07:42
of the risks, the threats,
183
447000
2000
त्यांवरचे उपाय, आणि ते कसे काम करतात
07:44
the countermeasures, how they work.
184
449000
3000
याबद्दलची समज.
07:47
But if you know stuff,
185
452000
2000
पण तुम्हाला गोष्टी माहिती असतील,
07:49
you're more likely to have your feelings match reality.
186
454000
3000
तर तुमच्या भावना वास्तवाच्या जवळ असण्याची शक्यता जास्त आहे.
07:52
Enough real world examples helps.
187
457000
3000
पुरेशी व्यवहारातील उदाहारणे मदत करतील.
07:55
Now we all know the crime rate in our neighborhood,
188
460000
3000
आता आपल्याला आपल्या आजूबाजूच्या भागातील गुन्ह्यांचे प्रमाण माहिती आहे,
07:58
because we live there, and we get a feeling about it
189
463000
3000
कारण आपण तेथे राहतो, आणि त्याबद्दलची आपली भावना
08:01
that basically matches reality.
190
466000
3000
मूलतः वास्तवाशी एकरूप असते.
08:04
Security theater's exposed
191
469000
3000
सुरक्षिततेचे नाटक तेव्हा उघडे पडते
08:07
when it's obvious that it's not working properly.
192
472000
3000
जेव्हा ते काम करत नाही हे स्पष्ट होते.
08:10
Okay, so what makes people not notice?
193
475000
4000
ठीक आहे, तर कोणती गोष्ट लोकांना नोंद घ्यावयाला लावते?
08:14
Well, a poor understanding.
194
479000
2000
ती म्हणजे कमी समज.
08:16
If you don't understand the risks, you don't understand the costs,
195
481000
3000
जर तुम्हाला धोकयांची समज नसेल तर तुम्हाला त्याच्या किंमतीची समज नसते,
08:19
you're likely to get the trade-off wrong,
196
484000
2000
आणि जमखर्चाचे तुमचे गणित चुकीचे होण्याची शक्यता वाढते,
08:21
and your feeling doesn't match reality.
197
486000
3000
आणि तुमची भावना वास्तवाशी एकरूप नसते.
08:24
Not enough examples.
198
489000
2000
जास्त उदाहरणे नाही आहेत.
08:26
There's an inherent problem
199
491000
2000
कमी वारंवारतेच्या घटनांबाबत
08:28
with low probability events.
200
493000
2000
एक अंतर्भूत प्रश्न असतो.
08:30
If, for example,
201
495000
2000
उदाहरणार्थ, जर
08:32
terrorism almost never happens,
202
497000
2000
दहशतवाद जवळजवळ होतच नसला तर,
08:34
it's really hard to judge
203
499000
2000
तर दहशतवादविरोधी-उपायांच्या प्रभावांबद्दल
08:36
the efficacy of counter-terrorist measures.
204
501000
3000
कोणताही निर्णय घेणे अवघड आहे.
08:40
This is why you keep sacrificing virgins,
205
505000
3000
अशा कारणांसाठीच तुम्ही कुमारिकांचे बलिदान देत राहता,
08:43
and why your unicorn defenses are working just great.
206
508000
3000
आणि तुमचे जादूई घोड्याचे संरक्षण एकदम छान काम करते.
08:46
There aren't enough examples of failures.
207
511000
3000
असफलतेची पुरेशी उदाहरणे नाही आहेत.
08:50
Also, feelings that are clouding the issues --
208
515000
3000
आणि, भावना ज्या या गोष्टीला धुरकट बनवतायत --
08:53
the cognitive biases I talked about earlier,
209
518000
2000
आकलनशक्तीतील चुका, ज्याबद्दल मी आधी बोललो,
08:55
fears, folk beliefs,
210
520000
3000
भीती, सामजिक श्रद्धा,
08:58
basically an inadequate model of reality.
211
523000
3000
किंवा मूलतः वास्तवाचे अपुरे प्रतिरूप.
09:02
So let me complicate things.
212
527000
3000
तर मला गोष्टी अजुनही क्लिष्ट करू द्या.
09:05
I have feeling and reality.
213
530000
2000
माझ्याकडे भावना आणि वास्तव आहे.
09:07
I want to add a third element. I want to add model.
214
532000
3000
मला तिसरे मूलतत्त्व त्यात वाढवायचे आहे, मला प्रतिरूप वाढवायचे आहे.
09:10
Feeling and model in our head,
215
535000
2000
भावना आणि प्रतिरूप आपल्या डोक्यात,
09:12
reality is the outside world.
216
537000
2000
आणि वास्तव बाहेरील जगात असते.
09:14
It doesn't change; it's real.
217
539000
3000
ते बदलत नाही; ते खरे आहे.
09:17
So feeling is based on our intuition.
218
542000
2000
तर भावना आपल्या अंतर्ज्ञानावर अवलंबून असते.
09:19
Model is based on reason.
219
544000
2000
प्रतिरूप विचारशक्तीवर अवलंबून असते.
09:21
That's basically the difference.
220
546000
3000
मूलतः तोच फरक आहे.
09:24
In a primitive and simple world,
221
549000
2000
एका सुलभ आणि प्राचीन जगात,
09:26
there's really no reason for a model
222
551000
3000
प्रतिरूप असण्यावे कारणच नाही.
09:29
because feeling is close to reality.
223
554000
3000
कारण भावना ही वास्तवाशी जवळ आहे.
09:32
You don't need a model.
224
557000
2000
तुम्हाला प्रतिरूपाची गरजच नाही आहे.
09:34
But in a modern and complex world,
225
559000
2000
पण आधुनिक व क्लिष्ट जगात,
09:36
you need models
226
561000
2000
आपल्याला सामोऱ्या जावे लागलेल्या धोक्यांबाबत
09:38
to understand a lot of the risks we face.
227
563000
3000
समजून घेण्यासाठी तुम्हाला प्रतिरूपांची गरज असते.
09:42
There's no feeling about germs.
228
567000
2000
जंतूंविषयी काही भावना नसते.
09:44
You need a model to understand them.
229
569000
3000
त्यांना समजण्यासाठी प्रतिरूपाचीच गरज असते.
09:47
So this model
230
572000
2000
म्हणजेच हे प्रतिरूप
09:49
is an intelligent representation of reality.
231
574000
3000
वास्तवाचे एक हुशारीने केलेले वर्णन असते.
09:52
It's, of course, limited by science,
232
577000
3000
आणि नक्कीच ते विज्ञान आणि तंत्रज्ञानानुसार,
09:55
by technology.
233
580000
2000
सीमितच असते.
09:57
We couldn't have a germ theory of disease
234
582000
3000
जोपर्यंत सुक्ष्मदर्शीचा शोध लागला नव्हता तोपर्यंत
10:00
before we invented the microscope to see them.
235
585000
3000
जंतूजन्य रोगांच्या सिद्धांताबद्दल आपल्याला कळणे शक्यच नव्हते.
10:04
It's limited by our cognitive biases.
236
589000
3000
आणि ते आपल्या आकलनशक्तीतील तृटींमुळेही सीमित असते.
10:07
But it has the ability
237
592000
2000
पण त्यात आपल्या भावनेला उलथण्याची
10:09
to override our feelings.
238
594000
2000
क्षमता असते.
10:11
Where do we get these models? We get them from others.
239
596000
3000
आणि ही प्रतिरूपे आपल्याला कोठून मिळतात? दुसऱ्या लोकांकडून.
10:14
We get them from religion, from culture,
240
599000
3000
धर्मातून, संस्कृतीतून,
10:17
teachers, elders.
241
602000
2000
शिक्षकांकडून, वयस्क लोकांकडून.
10:19
A couple years ago,
242
604000
2000
दोन वर्षांपूर्वी,
10:21
I was in South Africa on safari.
243
606000
2000
मी दक्षिण आफ्रिकेत सफारीसाठी गेलो होतो.
10:23
The tracker I was with grew up in Kruger National Park.
244
608000
3000
तिथे माझ्याबरोबर असलेला मार्गदर्शक क्रुगर राष्ट्रीय उद्यानात वाढला होता.
10:26
He had some very complex models of how to survive.
245
611000
3000
कसे टिकून रहायचे याबद्दलची त्याची बरीच क्लिष्ट प्रतिरूपे होती.
10:29
And it depended on if you were attacked
246
614000
2000
आणि ते सर्व तुमच्यावर सिंह किंवा चित्ता किंवा रानगेंडा किंवा हत्ती
10:31
by a lion or a leopard or a rhino or an elephant --
247
616000
2000
यांपैकी कोणी हल्ला केला यावर आणि तुम्हाला कधी पळून जायला लागते,
10:33
and when you had to run away, and when you couldn't run away, and when you had to climb a tree --
248
618000
3000
आणि तुम्हाला झाडावर कधी चढावे लागते --
10:36
when you could never climb a tree.
249
621000
2000
आणि कधी झाडावर आजिबात चढून चालणार नव्हते यावर अवलंबून होते
10:38
I would have died in a day,
250
623000
3000
मी एका दिवसातच मेलो असतो,
10:41
but he was born there,
251
626000
2000
पण तो तिथे जन्मला होता,
10:43
and he understood how to survive.
252
628000
2000
आणि कसे टिकून राहायाचे याची त्याला समज होती.
10:45
I was born in New York City.
253
630000
2000
मी न्युयॉर्क शहरात जन्मलो होतो.
10:47
I could have taken him to New York, and he would have died in a day.
254
632000
3000
मी त्याला न्युयॉर्कला घेऊन गेलो असतो, आणि तो एका दिवासात मेला असता.
10:50
(Laughter)
255
635000
2000
(हशा)
10:52
Because we had different models
256
637000
2000
कारण आमच्या वेगवेगळ्या अनुभवांनुसार
10:54
based on our different experiences.
257
639000
3000
आमच्याकडील प्रतिरूपे भिन्नभिन्न होती.
10:58
Models can come from the media,
258
643000
2000
प्रतिरूपे माध्यमांकडून येऊ शकतात,
11:00
from our elected officials.
259
645000
3000
आपल्या निर्वाचित अधिकाऱ्यांकडूनही.
11:03
Think of models of terrorism,
260
648000
3000
दहशतवादाच्या, बाल अपहरणाच्या,
11:06
child kidnapping,
261
651000
3000
विमान सुरक्षेच्या, गाडीच्या सुरक्षेच्या
11:09
airline safety, car safety.
262
654000
2000
प्रतिरूपांचा विचार करा,
11:11
Models can come from industry.
263
656000
3000
प्रतिरूपे उद्योगांकडून येऊ शकतात.
11:14
The two I'm following are surveillance cameras,
264
659000
2000
मी अभ्यास करतो अशी दोन अवेक्षण कॅमेरा आणि
11:16
ID cards,
265
661000
2000
ओळखपत्रांची,
11:18
quite a lot of our computer security models come from there.
266
663000
3000
संगणक सुरक्षिततेची बरीच प्रतिरूपे तिकडूनच येतात.
11:21
A lot of models come from science.
267
666000
3000
बरीच प्रतिरूपे विज्ञानाकडून येतात.
11:24
Health models are a great example.
268
669000
2000
आरोग्यासंबंधीची प्रतिरूपे चांगली उदाहरणे आहेत.
11:26
Think of cancer, of bird flu, swine flu, SARS.
269
671000
3000
कर्करोग, बर्ड फ्लू, स्वाईन फ्लू, सार्सचा विचार करा.
11:29
All of our feelings of security
270
674000
3000
या रोगासंबंधीच्या सुरक्षिततेच्या
11:32
about those diseases
271
677000
2000
आपल्या सर्व भावना
11:34
come from models
272
679000
2000
खरेतर विज्ञानाने दिलेल्या आणि माध्यमातून गाळून आलेल्या
11:36
given to us, really, by science filtered through the media.
273
681000
3000
प्रतिरूपांवरून येतात.
11:40
So models can change.
274
685000
3000
तर प्रतिरूपे बदलू शकतात.
11:43
Models are not static.
275
688000
2000
प्रतिरूपे स्थिर नसतात.
11:45
As we become more comfortable in our environments,
276
690000
3000
जसे आपण आपल्या पर्यावरणात जसे जास्त रूळत जातो,
11:48
our model can move closer to our feelings.
277
693000
4000
आपली प्रतिरूपे आपल्या भावनेच्या जवळ जाऊ शकतात.
11:53
So an example might be,
278
698000
2000
तर एक उदाहरण कदाचित,
11:55
if you go back 100 years ago
279
700000
2000
जर तुम्ही १०० वर्षापुर्वी पाहिले,
11:57
when electricity was first becoming common,
280
702000
3000
जेव्हा वीज पाहिल्यांदा रोजच्या व्यवहारात येत होती,
12:00
there were a lot of fears about it.
281
705000
2000
तिच्या संबंधी भरपूर भीती होती.
12:02
I mean, there were people who were afraid to push doorbells,
282
707000
2000
मला म्हणायचे आहे की, असे लोक होते जे दरवाजावरील घंटेची कळ दाबायला घाबरत होते,
12:04
because there was electricity in there, and that was dangerous.
283
709000
3000
कारण त्यात वीज होती आणि ती धोकादायक होती.
12:07
For us, we're very facile around electricity.
284
712000
3000
आपल्यासाठी, आपण वीजेबरोबर अगदीच सहजतेने राहतो.
12:10
We change light bulbs
285
715000
2000
आपण विद्य़ुत दिवे बदलतो
12:12
without even thinking about it.
286
717000
2000
त्याबद्दल अगदी काहीही विचार न करता.
12:14
Our model of security around electricity
287
719000
4000
वीजेच्या सुरक्षिततेचे आपले प्रतिरूप
12:18
is something we were born into.
288
723000
3000
आपण जन्मलो तेव्हापासूनचे आहे.
12:21
It hasn't changed as we were growing up.
289
726000
3000
आपण वाढत असताना ते बदललेले नाही.
12:24
And we're good at it.
290
729000
3000
आणि आपण त्यात चांगले आहोत.
12:27
Or think of the risks
291
732000
2000
किंवा विचार करा
12:29
on the Internet across generations --
292
734000
2000
विविध पिढ्यांमधील इंटरनेटवरील धोक्यांचा
12:31
how your parents approach Internet security,
293
736000
2000
तुमच्या पालकांचा इंटरनेट सुरक्षिततेबद्दल काय दृष्टिकोन आहे,
12:33
versus how you do,
294
738000
2000
विरूद्ध तुमचा काय आहे,
12:35
versus how our kids will.
295
740000
3000
विरूद्ध आपल्या मुलांचा काय असेल.
12:38
Models eventually fade into the background.
296
743000
3000
प्रतिरूपे सरतेशेवटी पृष्ठभूमीत विरून जातात.
12:42
Intuitive is just another word for familiar.
297
747000
3000
अंतर्ज्ञान हा फक्त परिचित साठीचा दुसरा शब्द आहे.
12:45
So as your model is close to reality,
298
750000
2000
तर जसे जसे तुमचे प्रतिरूप वास्तवाच्या जवळ जाते,
12:47
and it converges with feelings,
299
752000
2000
आणि तुमच्या भावनेत मिसळत जाते,
12:49
you often don't know it's there.
300
754000
3000
तुम्हाला त्याचे अस्तित्वच कळत नाही.
12:52
So a nice example of this
301
757000
2000
याचे एक सुरेख उदाहरण मागच्या वर्षी
12:54
came from last year and swine flu.
302
759000
3000
स्वाईन फ्लू संबंधीचे आहे.
12:57
When swine flu first appeared,
303
762000
2000
जेव्हा स्वाईन फ्लू पाहिल्यांदा उद्भवला,
12:59
the initial news caused a lot of overreaction.
304
764000
4000
सुरूवातीच्या बातमीमुळे प्रमाणपेक्षा जास्त प्रतिक्रिया आल्या.
13:03
Now it had a name,
305
768000
2000
आता याला नाव होते,
13:05
which made it scarier than the regular flu,
306
770000
2000
त्यामुळे नेहेमीच्या तापापेक्षा तो जास्त भीतीदायक झाला,
13:07
even though it was more deadly.
307
772000
2000
जरी साधा फ्लू त्यापेक्षा जास्त प्राणघातक होता.
13:09
And people thought doctors should be able to deal with it.
308
774000
4000
आणि लोकांना वाटत होते की डॉक्टरांना त्याच्याशी सामना करता आला पाहिजे.
13:13
So there was that feeling of lack of control.
309
778000
2000
त्यामुळे परिस्थिती नियंत्रणाखाली नसल्याची भावना निर्माण झाली.
13:15
And those two things
310
780000
2000
आणि त्या दोन गोष्टींनी
13:17
made the risk more than it was.
311
782000
2000
धोक्याला वास्तवापेक्षा जास्त बनविले.
13:19
As the novelty wore off, the months went by,
312
784000
3000
जसे नाविन्य कमी होऊ लागले, महिने सरले,
13:22
there was some amount of tolerance,
313
787000
2000
थोडी सहनशिलता तयार झाली,
13:24
people got used to it.
314
789000
2000
लोकांना त्याची सवय झाली.
13:26
There was no new data, but there was less fear.
315
791000
3000
नवीन माहिती काहीच नव्हती पण भीती कमी झाली.
13:29
By autumn,
316
794000
2000
शरद ऋतूपर्यंत,
13:31
people thought
317
796000
2000
लोकांना वाटू लागले
13:33
the doctors should have solved this already.
318
798000
2000
डॉक्टरांनी यावर तोडगा शोधून काढला असावा.
13:35
And there's kind of a bifurcation --
319
800000
2000
आणि लोकांना एक प्रकराचे --
13:37
people had to choose
320
802000
2000
विभाजन निवडायचे होते
13:39
between fear and acceptance --
321
804000
4000
भिती आणि स्विकृतीमध्ये --
13:43
actually fear and indifference --
322
808000
2000
खरेतर भिती आणि उदासिनतेमध्ये --
13:45
they kind of chose suspicion.
323
810000
3000
आणि त्यांनी एक प्रकारचा संशय निवडला.
13:48
And when the vaccine appeared last winter,
324
813000
3000
आणि मागच्या हिवाळ्यात ज्यावेळी लस निघाली,
13:51
there were a lot of people -- a surprising number --
325
816000
3000
असे बरेच लोक होते -- आश्चर्यकारकरित्या जास्त --
13:54
who refused to get it --
326
819000
3000
ज्यांनी लस घेण्यास नकार दिला --
13:58
as a nice example
327
823000
2000
हे चांगले उदाहरण आहे
14:00
of how people's feelings of security change, how their model changes,
328
825000
3000
लोकांच्या सुरक्षिततेविषयीच्या भावना कशा बदलतात, त्यांचे प्रतिरूप कसे बदलते,
14:03
sort of wildly
329
828000
2000
एकदम मोठ्या प्रमाणात
14:05
with no new information,
330
830000
2000
कोणत्याही नवीन माहितीशिवाय
14:07
with no new input.
331
832000
2000
कोणत्याही नवीन गोष्टीशिवाय.
14:09
This kind of thing happens a lot.
332
834000
3000
आणि हे काहीसे बऱ्याच वेळा घडते.
14:12
I'm going to give one more complication.
333
837000
3000
मी आणखी एक गुंत्याबद्दल बोलणार आहे.
14:15
We have feeling, model, reality.
334
840000
3000
आपल्याकडे भावना, प्रतिरूप आणि वास्तव आहे.
14:18
I have a very relativistic view of security.
335
843000
2000
माझी सुरक्षिततेविषयी दृष्टी सापेक्षतावादी आहे.
14:20
I think it depends on the observer.
336
845000
3000
मला वाटते ती बघणाऱ्यावर अवलंबून असते.
14:23
And most security decisions
337
848000
2000
आणि बरेच सुरक्षिततेबसद्दलचे निर्णय घेताना
14:25
have a variety of people involved.
338
850000
4000
विविध लोक सामील होतात.
14:29
And stakeholders
339
854000
2000
आणि ज्या लोकांचा थेट नफा-तोटा
14:31
with specific trade-offs
340
856000
3000
होणार असतो
14:34
will try to influence the decision.
341
859000
2000
ते निर्णयावर दबाव टाकायचा प्रयत्न करतात.
14:36
And I call that their agenda.
342
861000
2000
आणि मी त्याला त्यांची कार्ययोजना मानतो.
14:38
And you see agenda --
343
863000
2000
आणि तुम्हाला माहिती आहे कार्ययोजाना --
14:40
this is marketing, this is politics --
344
865000
3000
म्हणजे असते विपणन, ते राजकारण असते --
14:43
trying to convince you to have one model versus another,
345
868000
3000
तुम्हाला एका प्रतिरूपापासून दुसऱ्याकडे नेण्यासाठी
14:46
trying to convince you to ignore a model
346
871000
2000
तुमचे प्रतिरूप सोडून तुमच्या भावनांवर
14:48
and trust your feelings,
347
873000
3000
विश्वास ठेवायला परावृत्त करण्यासाठी,
14:51
marginalizing people with models you don't like.
348
876000
3000
तुम्हाला आवडत नसलेले प्रतिरूप मानणाऱ्या लोकांना एकटे पाडण्यासाठी.
14:54
This is not uncommon.
349
879000
3000
हे काही असाधारण नाही आहे.
14:57
An example, a great example, is the risk of smoking.
350
882000
3000
एक उदाहरण, मोठे उदाहरण, धुम्रपानाच्या धोक्याबद्दल आहे.
15:01
In the history of the past 50 years, the smoking risk
351
886000
3000
गेल्या ५० वर्षांच्या इतिहासात, प्रतिरूप कशी बदलतात हे
15:04
shows how a model changes,
352
889000
2000
धुम्रपानाचा धोका दाखवतो,
15:06
and it also shows how an industry fights against
353
891000
3000
आणि तो हेही दाखवतो की उद्योग कसे लढतात
15:09
a model it doesn't like.
354
894000
2000
त्यांच्या नावडत्या प्रतिरूपांविरूद्ध.
15:11
Compare that to the secondhand smoke debate --
355
896000
3000
ह्याची तुलना करा दुसऱ्याच्या -धुम्रपानामुळे होणाऱ्या धोक्याच्या चर्चेबद्दल --
15:14
probably about 20 years behind.
356
899000
3000
जी अजुनही २० वर्षे मागे आहे.
15:17
Think about seat belts.
357
902000
2000
खुर्चीच्या सुरक्षापट्ट्यांचा विचार करा.
15:19
When I was a kid, no one wore a seat belt.
358
904000
2000
मी ज्यावेळी लहान होतो, कोणीच खुर्चीचे सुरक्षापट्टे वापरत नव्हते.
15:21
Nowadays, no kid will let you drive
359
906000
2000
हल्ली, तुम्ही सुरक्षापट्टा बांधला नाही तर
15:23
if you're not wearing a seat belt.
360
908000
2000
कोणीही मुले तुम्हाला चालवू देणार नाहीत.
15:26
Compare that to the airbag debate --
361
911000
2000
त्याची तुलना करा एअरबॅगच्या चर्चेशी --
15:28
probably about 30 years behind.
362
913000
3000
बहुतेक ती ३० वर्षे मागे आहे.
15:31
All examples of models changing.
363
916000
3000
प्रतिरूपांची सर्व उदाहरणे बदलत आहेत.
15:36
What we learn is that changing models is hard.
364
921000
3000
आपण शिकतोय की प्रतिरूपे बदलणे कठीण आहे.
15:39
Models are hard to dislodge.
365
924000
2000
प्रतिरूपांना हटवणे कठीण आहे.
15:41
If they equal your feelings,
366
926000
2000
आणि ती तुमच्या भावनेशी एकरूप असतील तर,
15:43
you don't even know you have a model.
367
928000
3000
तुम्हाला माहितीही नसते की ते एक प्रतिरूप आहे.
15:46
And there's another cognitive bias
368
931000
2000
आणि आकलनक्षमतेत आणखीही एक चूक आहे.
15:48
I'll call confirmation bias,
369
933000
2000
मी तिला म्हणेन पुष्टीकरण चूक,
15:50
where we tend to accept data
370
935000
3000
ज्यात आपण आपल्या विश्वासांचे
15:53
that confirms our beliefs
371
938000
2000
पुष्टीकरण करणारी माहिती लगेच स्विकारतो
15:55
and reject data that contradicts our beliefs.
372
940000
3000
आणि त्यांचे खंडन करणारी माहिती धुडकावून लावतो.
15:59
So evidence against our model,
373
944000
2000
म्हणून आपल्या प्रतिरूपाविरुद्धचा पुरावा,
16:01
we're likely to ignore, even if it's compelling.
374
946000
3000
जरी ठोस असला तरी आपण तो उपेक्षित करण्याची शक्यता असते.
16:04
It has to get very compelling before we'll pay attention.
375
949000
3000
आपले लक्ष्य वेधण्यासाठी तो अतिशय ठोस असायला हवा.
16:08
New models that extend long periods of time are hard.
376
953000
2000
लांब कालांतरावर पसरलेली नवी प्रतिरूपे कठीण असतात.
16:10
Global warming is a great example.
377
955000
2000
वैश्विक तापमानवाढ हे मोठे उदाहरण आहे.
16:12
We're terrible
378
957000
2000
८० वर्षांपेक्षा जास्त काळात पसरलेले
16:14
at models that span 80 years.
379
959000
2000
प्रतिरूप समजण्याबाबत आपण अती वाईट आहोत.
16:16
We can do to the next harvest.
380
961000
2000
आपण पुढचे पीक काढू शकतो.
16:18
We can often do until our kids grow up.
381
963000
3000
आपण मुले वाढेपर्यंतच्या काळापर्यंत विचार करू शकतो.
16:21
But 80 years, we're just not good at.
382
966000
3000
पण ८० वर्षाच्या काळासाठी आपण जराही चांगले नाही.
16:24
So it's a very hard model to accept.
383
969000
3000
म्हणून ते स्विकार करण्यासाठी कठीण प्रतिरूप आहे.
16:27
We can have both models in our head simultaneously,
384
972000
4000
एकाचवेळी आपल्या डोक्यात दोन प्रतिरूपे असू शकतात,
16:31
right, that kind of problem
385
976000
3000
किंवा अशा पद्धतीची जटीलता ज्यात
16:34
where we're holding both beliefs together,
386
979000
3000
आपण एकाच वेळी दोन गोष्टींवर विश्वास ठेवतो,
16:37
right, the cognitive dissonance.
387
982000
2000
किंवा आकलनक्षमतेतील विसंवाद.
16:39
Eventually,
388
984000
2000
सरतेशेवटी,
16:41
the new model will replace the old model.
389
986000
3000
नवे प्रतिरूप जुन्या प्रतिरूपाची जागा घेईल.
16:44
Strong feelings can create a model.
390
989000
3000
ठोस विश्वास प्रतिरूप तयार करू शकते.
16:47
September 11th created a security model
391
992000
3000
११ सप्टेंबर मुळे बऱ्यच लोकांच्या डोक्यात
16:50
in a lot of people's heads.
392
995000
2000
सुरक्षिततेचे एक नवे प्रतिरूप तयार झाले.
16:52
Also, personal experiences with crime can do it,
393
997000
3000
परत, आपराधाचा स्वतःला आलेला अनुभव तसे करू शकतो,
16:55
personal health scare,
394
1000000
2000
स्वतःच्या आरोग्याबद्दलचे प्रश्न,
16:57
a health scare in the news.
395
1002000
2000
बातमीत असलेले रोग.
16:59
You'll see these called flashbulb events
396
1004000
2000
तुम्ही पाहाल की मनोरोगतज्ञ या घटनांना
17:01
by psychiatrists.
397
1006000
2000
चमकदार दिव्यांच्या घटना म्हणतात.
17:03
They can create a model instantaneously,
398
1008000
3000
त्या एका क्षणात नवे प्रतिरूप तयार करू शकतात,
17:06
because they're very emotive.
399
1011000
3000
कारण त्या लोकांना भावनाकूल बनवतात.
17:09
So in the technological world,
400
1014000
2000
तर तांत्रिक जगात,
17:11
we don't have experience
401
1016000
2000
प्रतिरुपांबाबत निर्णय घेण्याचा
17:13
to judge models.
402
1018000
2000
आपल्याला अनुभव नाही.
17:15
And we rely on others. We rely on proxies.
403
1020000
2000
आपण दुसऱ्यांवर अवलंबून राहतो, आपण मध्यस्थांवर अवलंबून असतो.
17:17
I mean, this works as long as it's to correct others.
404
1022000
4000
मला म्हणायचे आहे की हे दुसरे लोक बरोबर असेपर्यंतच चालू शकते.
17:21
We rely on government agencies
405
1026000
2000
कोणती औषधे सुरक्षित आहेत हे ठरवण्यासाठी
17:23
to tell us what pharmaceuticals are safe.
406
1028000
5000
आपण सरकारी यंत्रणेवर अवलंबून असतो.
17:28
I flew here yesterday.
407
1033000
2000
मी येथे काल उडून आलो.
17:30
I didn't check the airplane.
408
1035000
2000
मी स्वतः विमानाची पाहणी केली नाही.
17:32
I relied on some other group
409
1037000
2000
माझे विमान सुरक्षित आहे की नाही ठरवण्यासाठी
17:34
to determine whether my plane was safe to fly.
410
1039000
3000
मी दुसऱ्या गटावर विश्वास ठेवला.
17:37
We're here, none of us fear the roof is going to collapse on us,
411
1042000
3000
आपण येथे आहोत, आणि हे छप्पर आपल्यावर कोसळेल याची कोणालाच भिती वाटत नाही,
17:40
not because we checked,
412
1045000
3000
आपण स्वतः चाचपणी केली म्हणून नाही,
17:43
but because we're pretty sure
413
1048000
2000
पण आपल्याला माहिती आहे की बांधकामाचे इथले नियम
17:45
the building codes here are good.
414
1050000
3000
चांगले आहेत म्हणून
17:48
It's a model we just accept
415
1053000
2000
हे एक असे प्रतिरूप आहे जे आपण
17:50
pretty much by faith.
416
1055000
2000
फक्त श्रद्धेने स्विकारले आहे.
17:52
And that's okay.
417
1057000
3000
आणि ते ठीकही आहे.
17:57
Now, what we want
418
1062000
2000
आता, आपल्याला गरज आहे ती
17:59
is people to get familiar enough
419
1064000
2000
लोकांनी चांगल्या प्रतिरूपांबद्दल
18:01
with better models --
420
1066000
2000
पुरेशी माहिती समजून घेण्याची --
18:03
have it reflected in their feelings --
421
1068000
2000
आणि ती त्यांच्या भावनेत प्रतिबिंबित करण्याची --
18:05
to allow them to make security trade-offs.
422
1070000
4000
ज्यातून त्याने सुरक्षिततेच्या जमा-खर्चाचे गणित करता येईल.
18:09
Now when these go out of whack,
423
1074000
2000
जर भावना आणि प्रतिरूप परस्परविरोधी असले,
18:11
you have two options.
424
1076000
2000
तर तुमच्याकडे दोन पर्याय आहेत.
18:13
One, you can fix people's feelings,
425
1078000
2000
एक तुम्ही लोकांच्या भावना सुधारू शकता,
18:15
directly appeal to feelings.
426
1080000
2000
थेट त्यांच्या भावनेला हात घालून.
18:17
It's manipulation, but it can work.
427
1082000
3000
ती एकप्रकारची फसवणूक आहे, पण ती काम करेल.
18:20
The second, more honest way
428
1085000
2000
दुसरी जास्त प्रामाणिक पद्धत आहे
18:22
is to actually fix the model.
429
1087000
3000
प्रतिरूप दुरूस्त करण्याची.
18:26
Change happens slowly.
430
1091000
2000
बदल हळूहळू घडतो.
18:28
The smoking debate took 40 years,
431
1093000
3000
धुम्रपानाबद्दलची चर्चा ४० वर्षे व्हावी लागली,
18:31
and that was an easy one.
432
1096000
3000
आणि तो प्रश्न सोपा होता.
18:34
Some of this stuff is hard.
433
1099000
2000
यातील काही गोष्टी कठीण आहेत.
18:36
I mean really though,
434
1101000
2000
पण मला असे वाटते की खरोखर
18:38
information seems like our best hope.
435
1103000
2000
माहिती हीच आपली सर्वात चांगली आशा आहे.
18:40
And I lied.
436
1105000
2000
आणि मी खोटे बोललो.
18:42
Remember I said feeling, model, reality;
437
1107000
2000
लक्षात आहे का जेव्हा मी भावना, प्रतिरूप, वास्तव यांबद्दल बोललो.
18:44
I said reality doesn't change. It actually does.
438
1109000
3000
मी म्हणालो वास्तव बदलत नाही. ते खरेतर बदलते.
18:47
We live in a technological world;
439
1112000
2000
आपण तांत्रिक जगात राहतो;
18:49
reality changes all the time.
440
1114000
3000
वास्तव सारखेच बदलत असते.
18:52
So we might have -- for the first time in our species --
441
1117000
3000
आपल्या प्रजातीसाठी पहिल्यांदा असे होतेय की
18:55
feeling chases model, model chases reality, reality's moving --
442
1120000
3000
भावना प्रतिरूपांच्या मागे आहेत, प्रतिरूपे वास्तवाच्या मागे आहे आणि वास्तव बदलत आहे --
18:58
they might never catch up.
443
1123000
3000
आणी ते कधीच मिळणार नाहीत.
19:02
We don't know.
444
1127000
2000
आपल्याला माहिती नाही.
19:04
But in the long-term,
445
1129000
2000
पण मोठ्या कालखंडात,
19:06
both feeling and reality are important.
446
1131000
3000
दोन्ही भावना आणि वास्तव महत्त्वाचे आहेत.
19:09
And I want to close with two quick stories to illustrate this.
447
1134000
3000
आणि हे समजविण्यासाठी दोन गोष्टी सांगून मी थांबणार आहे.
19:12
1982 -- I don't know if people will remember this --
448
1137000
2000
१९८२ -- माहिती नाही लोकांच्या लक्ष्यात आहे की नाही --
19:14
there was a short epidemic
449
1139000
3000
त्यावेळी संयुक्त संस्थानात एक छोटीशी साथ पसरली होती
19:17
of Tylenol poisonings in the United States.
450
1142000
2000
टायलेनॉलतू होणाऱ्या विषबाधेची.
19:19
It's a horrific story. Someone took a bottle of Tylenol,
451
1144000
3000
ती एक भयानक गोष्ट आहे. कोणीतरी टायलेनॉलची बाटली घेतली,
19:22
put poison in it, closed it up, put it back on the shelf.
452
1147000
3000
त्यात विष टाकले, बंद केली आणि परत जागेवर ठेवली.
19:25
Someone else bought it and died.
453
1150000
2000
कोणीतरी दुसऱ्याने ती विकत घेतली आणि मृत्यमूखी पडले.
19:27
This terrified people.
454
1152000
2000
याने लोक प्रचंड घाबरले.
19:29
There were a couple of copycat attacks.
455
1154000
2000
अशाच प्रकारचे एकदोन आणखीही हल्ले झाले.
19:31
There wasn't any real risk, but people were scared.
456
1156000
3000
यातून खरा धोका काहीच नव्हता, पण लोक घाबरले होते.
19:34
And this is how
457
1159000
2000
आणि यातूनच
19:36
the tamper-proof drug industry was invented.
458
1161000
2000
ढवळाढवळ-रोधक औषधोद्योगांची सुरुवात झाली.
19:38
Those tamper-proof caps, that came from this.
459
1163000
2000
ती ढवळाढवळ-रोधक टोपणे, यातूनच आली.
19:40
It's complete security theater.
460
1165000
2000
ते संपूर्णपणे एक सुरक्षिततेचे नाटक आहे.
19:42
As a homework assignment, think of 10 ways to get around it.
461
1167000
2000
गृहपाठ म्हणून त्यावर मात करण्याचे १० मार्ग शोधा.
19:44
I'll give you one, a syringe.
462
1169000
3000
मी तुम्हाला एक देतो, औषधी सुई
19:47
But it made people feel better.
463
1172000
3000
पण यातून लोकांना चांगले वाटले.
19:50
It made their feeling of security
464
1175000
2000
त्यामुळे त्यांची सुरक्षीततेची भावना
19:52
more match the reality.
465
1177000
2000
वास्तवाच्या जवळ येण्यास मदत झाली.
19:54
Last story, a few years ago, a friend of mine gave birth.
466
1179000
3000
शेवटची गोष्ट, काही वर्षांपूर्वी, माझ्या मैत्रिणीने जन्म दिला.
19:57
I visit her in the hospital.
467
1182000
2000
मी तिला दवाखान्यात भेटायला गेलो.
19:59
It turns out when a baby's born now,
468
1184000
2000
हल्ली जेव्हा बाळ जन्माला येते,
20:01
they put an RFID bracelet on the baby,
469
1186000
2000
ते बाळाच्या हातार रेडियो-बांगडी घालतात ओळखण्यासाठी,
20:03
put a corresponding one on the mother,
470
1188000
2000
आणि तशीच एक आईच्या हातात घालतात,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
471
1190000
2000
म्हणजे जर आईशिवाय कोणी मुलाला प्रसुतीगृहातून बाहेर नेले,
20:07
an alarm goes off.
472
1192000
2000
तर गजर वाजतो.
20:09
I said, "Well, that's kind of neat.
473
1194000
2000
मी म्हणालो, "वा, एकदम छान आहे हे.
20:11
I wonder how rampant baby snatching is
474
1196000
2000
पण आपल्याकडे दवाखान्यातून मुलांना पळविण्याचे
20:13
out of hospitals."
475
1198000
2000
प्रमाण किती आहे."
20:15
I go home, I look it up.
476
1200000
2000
मी घरी गेलो आणि पाहिले.
20:17
It basically never happens.
477
1202000
2000
मूलतः ते कधीच होत नाही.
20:19
But if you think about it,
478
1204000
2000
पण जर त्याबद्दल तुम्ही विचार केला तर,
20:21
if you are a hospital,
479
1206000
2000
जर तुम्ही दवाखाना असाल,
20:23
and you need to take a baby away from its mother,
480
1208000
2000
आणि जर तुम्हाला बाळाला काही चाचण्या करण्यासाठी
20:25
out of the room to run some tests,
481
1210000
2000
आईपासून दूर घेऊन जायचे आहे,
20:27
you better have some good security theater,
482
1212000
2000
तर तुमच्याकडे एक चांगले "सुरक्षिततेचे नाटक" असणे गरजेचे आहे.
20:29
or she's going to rip your arm off.
483
1214000
2000
नाहीतर आई तुमचा हात तोडून टाकेल.
20:31
(Laughter)
484
1216000
2000
(हशा)
20:33
So it's important for us,
485
1218000
2000
म्हणून ते आपल्यासाठी महत्त्वाचे आहे,
20:35
those of us who design security,
486
1220000
2000
आपल्यातील जे सुरक्षिततेची संरचना करतात त्यांच्यासाठी,
20:37
who look at security policy,
487
1222000
3000
जे सुरक्षा नीती पाहतात त्यांच्यासाठी,
20:40
or even look at public policy
488
1225000
2000
किंवा सुरक्षेवर परिणाम करणारी
20:42
in ways that affect security.
489
1227000
2000
सार्वजनिक नीती ठरवतात त्यांच्यासाठी.
20:44
It's not just reality; it's feeling and reality.
490
1229000
3000
सुरक्षितता फक्त वास्तवच नाही तर भावना आणि वास्तव आहे.
20:47
What's important
491
1232000
2000
आणि महत्त्वाचे हे आहे की
20:49
is that they be about the same.
492
1234000
2000
ते दोन्ही जवळजवळ एकसारखेच असावेत.
20:51
It's important that, if our feelings match reality,
493
1236000
2000
महत्त्वाचे आहे की, आपल्या भावना वास्तवाशी एकरूप असाव्यात.
20:53
we make better security trade-offs.
494
1238000
2000
आपण सुरक्षेच्या जमा-खर्चाचे गणित व्यवस्थित करावे.
20:55
Thank you.
495
1240000
2000
धन्यवाद.
20:57
(Applause)
496
1242000
2000
(टाळ्या)
Translated by Pratik Dixit
Reviewed by Aditya Kulkarni

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com