ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Il miraggio della sicurezza

Filmed:
958,315 views

Quando si parla di sicurezza, la sensazione e la realtà non sono sempre la stessa cosa, dice l'esperto di sicurezza informatica Bruce Schneier. Nel suo intervento a TEDxPSU, egli spiega perché spendiamo miliardi per prevenire i rischi resi noti dalle cronache e dai media, come il "teatro della sicurezza" – ora in atto nel vostro aeroporto locale – mentre trascuriamo i rischi più probabili, e come fare per uscire da questo schema.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitysicurezza is two differentdiverso things:
0
0
2000
Dunque, la sicurezza ha due aspetti distinti:
00:17
it's a feelingsensazione, and it's a realityla realtà.
1
2000
2000
è una sensazione, ed è una realtà.
00:19
And they're differentdiverso.
2
4000
2000
E queste sono due cose differenti.
00:21
You could feel securegarantire la
3
6000
2000
Vi potreste sentire sicuri
00:23
even if you're not.
4
8000
2000
anche se non lo siete.
00:25
And you can be securegarantire la
5
10000
2000
E potete essere al sicuro
00:27
even if you don't feel it.
6
12000
2000
anche se non ne avete la sensazione.
00:29
Really, we have two separateseparato conceptsconcetti
7
14000
2000
In realtà, attribuiamo due concetti separati
00:31
mappedmappato ontosu the samestesso wordparola.
8
16000
2000
alla stessa parola.
00:33
And what I want to do in this talk
9
18000
2000
E quello che voglio fare in questo discorso
00:35
is to splitDiviso them aparta parte --
10
20000
2000
è di dividerli –
00:37
figuringcapire out when they divergedivergere
11
22000
2000
cercando di capire in che modo divergano
00:39
and how they convergeconvergono.
12
24000
2000
ed in che modo convergano.
00:41
And languageLingua is actuallyin realtà a problemproblema here.
13
26000
2000
Il linguaggio è effettivamente un problema in questo caso.
00:43
There aren'tnon sono a lot of good wordsparole
14
28000
2000
Non ci sono tante parole adatte
00:45
for the conceptsconcetti we're going to talk about.
15
30000
3000
per i concetti dei quali parleremo oggi.
00:48
So if you look at securitysicurezza
16
33000
2000
Quindi, se pensate al concetto di sicurezza
00:50
from economiceconomico termscondizioni,
17
35000
2000
in termini economici
00:52
it's a trade-offTrade-off.
18
37000
2000
è un compromesso, una scelta.
00:54
EveryOgni time you get some securitysicurezza,
19
39000
2000
Ogni volta che decidete di accrescere la vostra sicurezza,
00:56
you're always tradingcommercio off something.
20
41000
2000
dovete sempre rinunciare a qualcosa.
00:58
WhetherSe this is a personalpersonale decisiondecisione --
21
43000
2000
Sia che si tratti di una decisione personale –
01:00
whetherse you're going to installinstallare a burglarimpianto antifurto alarmallarme in your home --
22
45000
2000
se ad esempio volete installare un allarme contro i ladri in casa vostra –
01:02
or a nationalnazionale decisiondecisione -- where you're going to invadeinvadere some foreignstraniero countrynazione --
23
47000
3000
o che si tratti di una decisione a livello nazionale – se ad esempio volete invadere un paese straniero –
01:05
you're going to tradecommercio off something,
24
50000
2000
dovrete rinunciare a qualcosa,
01:07
eithero moneyi soldi or time, convenienceconvenienza, capabilitiescapacità,
25
52000
3000
denaro, tempo, convenienza, o capacità,
01:10
maybe fundamentalfondamentale libertieslibertà.
26
55000
3000
forse libertà fondamentali.
01:13
And the questiondomanda to askChiedere when you look at a securitysicurezza anything
27
58000
3000
E la domanda da fare su qualsiasi cosa inerente alla sicurezza
01:16
is not whetherse this makesfa us saferpiù sicuro,
28
61000
3000
non è tanto se questa ci renda più sicuri,
01:19
but whetherse it's worthdi valore the trade-offTrade-off.
29
64000
3000
ma piuttosto se ne valga la pena.
01:22
You've heardsentito in the pastpassato severalparecchi yearsanni,
30
67000
2000
Negli scorsi anni avete sentito dire
01:24
the worldmondo is saferpiù sicuro because SaddamSaddam HusseinHussein is not in powerenergia.
31
69000
2000
che il mondo è più sicuro, ora che Saddam Hussein non è più al potere.
01:26
That mightpotrebbe be truevero, but it's not terriblyterribilmente relevantpertinente.
32
71000
3000
Potrebbe essere vero, ma non è di fondamentale importanza.
01:29
The questiondomanda is, was it worthdi valore it?
33
74000
3000
La domanda è, ne è valsa la pena?
01:32
And you can make your ownproprio decisiondecisione,
34
77000
3000
E voi potete decidere da soli,
01:35
and then you'llpotrai decidedecidere whetherse the invasioninvasione was worthdi valore it.
35
80000
2000
e poi concluderete se sia valsa la pena di optare per l'invasione.
01:37
That's how you think about securitysicurezza --
36
82000
2000
Ecco come pensare al concetto di sicurezza –
01:39
in termscondizioni of the trade-offTrade-off.
37
84000
2000
in termini di scelte.
01:41
Now there's oftenspesso no right or wrongsbagliato here.
38
86000
3000
Spesso non c'è "giusto" o "sbagliato" in queste cose.
01:44
Some of us have a burglarimpianto antifurto alarmallarme systemsistema at home,
39
89000
2000
Alcuni di noi hanno in casa propria un sistema d'allarme contro i ladri,
01:46
and some of us don't.
40
91000
2000
altri no.
01:48
And it'llsara dependdipendere on where we livevivere,
41
93000
2000
E dipenderà da dove viviamo,
01:50
whetherse we livevivere aloneda solo or have a familyfamiglia,
42
95000
2000
se viviamo da soli o abbiamo una famiglia,
01:52
how much coolfreddo stuffcose we have,
43
97000
2000
quanta bella roba abbiamo,
01:54
how much we're willingdisposto to acceptaccettare
44
99000
2000
quanto siamo pronti ad accettare
01:56
the riskrischio of theftfurto.
45
101000
2000
il rischio del furto.
01:58
In politicspolitica alsoanche,
46
103000
2000
Anche in politica
02:00
there are differentdiverso opinionsopinioni.
47
105000
2000
ci sono differenti opinioni.
02:02
A lot of timesvolte, these trade-offstrade-off
48
107000
2000
Parecchie volte, queste scelte
02:04
are about more than just securitysicurezza,
49
109000
2000
non hanno solo a che fare con la sicurezza,
02:06
and I think that's really importantimportante.
50
111000
2000
ed io penso che questo sia veramente importante.
02:08
Now people have a naturalnaturale intuitionintuizione
51
113000
2000
Ora, la gente ha un'intuizione naturale
02:10
about these trade-offstrade-off.
52
115000
2000
riguardo a queste scelte.
02:12
We make them everyogni day --
53
117000
2000
Le facciamo tutti i giorni –
02:14
last night in my hotelHotel roomcamera,
54
119000
2000
la notte scorsa, nella mia stanza d'albergo,
02:16
when I decideddeciso to double-lockdoppio blocco the doorporta,
55
121000
2000
quando ho deciso di chiudere la porta con due mandate,
02:18
or you in your carauto when you droveguidavo here,
56
123000
2000
oppure voi nella vostra macchina, mentre venivate qui,
02:20
when we go eatmangiare lunchpranzo
57
125000
2000
quando pranziamo fuori
02:22
and decidedecidere the food'sdi cibo not poisonveleno and we'llbene eatmangiare it.
58
127000
3000
e decidiamo che il cibo non è veleno e che lo mangeremo.
02:25
We make these trade-offstrade-off again and again,
59
130000
2000
Facciamo queste scelte continuamente
02:27
multiplemultiplo timesvolte a day.
60
132000
2000
più volte al giorno.
02:29
We oftenspesso won'tnon lo farà even noticeAvviso them.
61
134000
2000
Spesso senza neppure accorgercene.
02:31
They're just partparte of beingessere alivevivo; we all do it.
62
136000
2000
Fanno semplicemente parte dell'essere vivi; lo facciamo tutti.
02:33
EveryOgni speciesspecie does it.
63
138000
3000
Ogni specie lo fa.
02:36
ImagineImmaginate a rabbitconiglio in a fieldcampo, eatingmangiare grasserba,
64
141000
2000
Immaginate un coniglio che mangia l'erba in un campo,
02:38
and the rabbit'sdi coniglio going to see a foxVolpe.
65
143000
3000
ed il coniglio vede una volpe.
02:41
That rabbitconiglio will make a securitysicurezza trade-offTrade-off:
66
146000
2000
Quel coniglio farà una scelta per la sua sicurezza:
02:43
"Should I stayrestare, or should I fleefuggire?"
67
148000
2000
"Devo restare, o devo scappare?"
02:45
And if you think about it,
68
150000
2000
E se ci riflettete,
02:47
the rabbitsconigli that are good at makingfabbricazione that trade-offTrade-off
69
152000
3000
i conigli bravi a fare quel tipo di scelta
02:50
will tendtendere to livevivere and reproduceriprodurre,
70
155000
2000
tenderanno a vivere e riprodursi,
02:52
and the rabbitsconigli that are badcattivo at it
71
157000
2000
mentre i conigli meno bravi
02:54
will get eatenmangiato or starvemorire di fame.
72
159000
2000
verranno mangiati o moriranno di fame.
02:56
So you'dfaresti think
73
161000
2000
Quindi si penserebbe
02:58
that us, as a successfulriuscito speciesspecie on the planetpianeta --
74
163000
3000
che noi, in qualità di specie vincente su questo pianeta –
03:01
you, me, everybodytutti --
75
166000
2000
voi, io, tutti –
03:03
would be really good at makingfabbricazione these trade-offstrade-off.
76
168000
3000
siamo veramente bravi a fare queste scelte.
03:06
YetAncora it seemssembra, again and again,
77
171000
2000
Ma ogni volta la realtà ci dimostra che
03:08
that we're hopelesslyirrimediabilmente badcattivo at it.
78
173000
3000
siamo inesorabilmente negati.
03:11
And I think that's a fundamentallyfondamentalmente interestinginteressante questiondomanda.
79
176000
3000
Ed io credo che questa sia una questione fondamentalmente interessante.
03:14
I'll give you the shortcorto answerrisposta.
80
179000
2000
Vi darò la risposta breve.
03:16
The answerrisposta is, we respondrispondere to the feelingsensazione of securitysicurezza
81
181000
2000
La risposta è: noi rispondiamo alla sensazione di sicurezza
03:18
and not the realityla realtà.
82
183000
3000
e non alla realtà.
03:21
Now mostmaggior parte of the time, that workslavori.
83
186000
3000
Ora, il più delle volte, questo funziona.
03:25
MostMaggior parte of the time,
84
190000
2000
Il più delle volte,
03:27
feelingsensazione and realityla realtà are the samestesso.
85
192000
3000
la sensazione e la realtà coincidono.
03:30
CertainlyCertamente that's truevero
86
195000
2000
Certamente questo è vero
03:32
for mostmaggior parte of humanumano prehistorypreistoria.
87
197000
3000
per la maggior parte della preistoria umana.
03:35
We'veAbbiamo developedsviluppato this abilitycapacità
88
200000
3000
Abbiamo sviluppato questa abilità
03:38
because it makesfa evolutionaryevolutiva sensesenso.
89
203000
2000
perchè questo trova riscontro nell'evoluzione.
03:40
One way to think of it
90
205000
2000
Un modo di vedere questo concetto
03:42
is that we're highlyaltamente optimizedottimizzato
91
207000
2000
è che siamo estremamente attrezzati
03:44
for riskrischio decisionsdecisioni
92
209000
2000
per scelte rischiose
03:46
that are endemicendemico to livingvita in smallpiccolo familyfamiglia groupsgruppi
93
211000
3000
endemiche al vivere in piccoli gruppi familiari
03:49
in the EastEast AfricanAfricano highlandsHighlands in 100,000 B.C.
94
214000
3000
negli altipiani dell'Africa Orientale nel 100.000 A.C. (Avanti Cristo) –
03:52
2010 NewNuovo YorkYork, not so much.
95
217000
3000
non così nella New York del 2010.
03:56
Now there are severalparecchi biasespregiudizi in riskrischio perceptionpercezione.
96
221000
3000
Ora, ci sono parecchi preconcetti nella percezione dei rischi.
03:59
A lot of good experimentsesperimenti in this.
97
224000
2000
Tanti buoni esperimenti in questo campo.
04:01
And you can see certaincerto biasespregiudizi that come up again and again.
98
226000
3000
Potete osservare certi preconcetti, o distorsioni, che continuano a riaffiorare.
04:04
So I'll give you fourquattro.
99
229000
2000
Ve ne darò quattro.
04:06
We tendtendere to exaggerateesagerare spectacularspettacolare and rareraro risksrischi
100
231000
3000
Noi tendiamo ad esagerare rischi spettacolari e rari
04:09
and downplayminimizzare commonComune risksrischi --
101
234000
2000
ed a minimizzare quelli comuni,
04:11
so flyingvolante versuscontro drivingguida.
102
236000
3000
come ad esempio il volare rispetto al guidare.
04:14
The unknownsconosciuto is perceivedpercepito
103
239000
2000
L'ignoto viene percepito
04:16
to be riskierpiù rischiose than the familiarfamiliare.
104
241000
3000
come più rischioso del familiare.
04:20
One exampleesempio would be,
105
245000
2000
Un esempio sarebbe
04:22
people fearpaura kidnappingsequestro di persona by strangersgli stranieri
106
247000
3000
che la gente teme il rapimento da parte di estranei,
04:25
when the datadati supportssupporta kidnappingsequestro di persona by relativesparenti is much more commonComune.
107
250000
3000
mentre il rapimento da parte di familiari è statisticamente molto più comune.
04:28
This is for childrenbambini.
108
253000
2000
Questo per quanto riguarda i bambini.
04:30
ThirdTerzo, personifiedal crocevia risksrischi
109
255000
3000
Terzo, i rischi personificati
04:33
are perceivedpercepito to be greatermaggiore than anonymousanonimo risksrischi --
110
258000
3000
vengono percepiti come maggiori dei rischi anonimi,
04:36
so BinBin LadenPieno carico is scarierpiù spaventosa because he has a namenome.
111
261000
3000
e quindi Bin Laden fa più paura, perché ha un nome.
04:39
And the fourthil quarto
112
264000
2000
Ed il quarto
04:41
is people underestimatesottovalutare risksrischi
113
266000
2000
è che la gente sottovaluta i rischi
04:43
in situationssituazioni they do controlcontrollo
114
268000
2000
nelle situazioni sulle quali ha controllo,
04:45
and overestimatesopravvalutare them in situationssituazioni they don't controlcontrollo.
115
270000
4000
mentre li sopravvaluta in quelle che non può controllare.
04:49
So onceuna volta you take up skydivingparacadutismo or smokingfumo,
116
274000
3000
Quindi, una volta che iniziate a fare skydiving oppure a fumare,
04:52
you downplayminimizzare the risksrischi.
117
277000
2000
ne minimizzate i rischi.
04:54
If a riskrischio is thrustspinta uponsu you -- terrorismterrorismo was a good exampleesempio --
118
279000
3000
Se un rischio vi arriva da fuori – il terrorismo era un buon esempio –
04:57
you'llpotrai overplayoverplay it because you don't feel like it's in your controlcontrollo.
119
282000
3000
lo sopravvaluterete, perché non avete la sensazione di esserne in controllo.
05:02
There are a bunchmazzo of other of these biasespregiudizi, these cognitiveconoscitivo biasespregiudizi,
120
287000
3000
Ci sono un sacco di altre predisposizioni innate, questi errori sistematici cognitivi,
05:05
that affectinfluenzare our riskrischio decisionsdecisioni.
121
290000
3000
che influenzano le nostre decisioni di fronte al rischio.
05:08
There's the availabilitydisponibilità heuristiceuristico,
122
293000
2000
C'è l'euristica della disponibilità,
05:10
whichquale basicallyfondamentalmente meanssi intende
123
295000
2000
che sostanzialmente significa
05:12
we estimatestima the probabilityprobabilità of something
124
297000
3000
che noi stimiamo la probabilità di un evento
05:15
by how easyfacile it is to bringportare instancescasi of it to mindmente.
125
300000
4000
sulla base della facilità con cui siamo in grado di pensare ad esempi relativi.
05:19
So you can imagineimmaginare how that workslavori.
126
304000
2000
Quindi potete immaginare come funziona.
05:21
If you hearsentire a lot about tigertigre attacksattacchi, there mustdovere be a lot of tigerstigri around.
127
306000
3000
Se sentite parlare tanto di attacchi di tigri, ci devono essere un sacco di tigri in giro.
05:24
You don't hearsentire about lionLeone attacksattacchi, there aren'tnon sono a lot of lionsleoni around.
128
309000
3000
Se non sentite parlare di attacchi di leoni, non ci sono tanti leoni in giro.
05:27
This workslavori untilfino a you inventinventare newspapersgiornali.
129
312000
3000
Questo funziona finchè inventate i giornali.
05:30
Because what newspapersgiornali do
130
315000
2000
Perchè quello che i giornali fanno
05:32
is they repeatripetere again and again
131
317000
2000
è di ripetere continuamente
05:34
rareraro risksrischi.
132
319000
2000
i rischi rari.
05:36
I tell people, if it's in the newsnotizia, don't worrypreoccupazione about it.
133
321000
2000
Io dico alla gente, se fa notizia, non ve ne preoccupate.
05:38
Because by definitiondefinizione,
134
323000
2000
Perchè, per definizione,
05:40
newsnotizia is something that almostquasi never happensaccade.
135
325000
3000
la notizia è qualcosa che non succede quasi mai.
05:43
(LaughterRisate)
136
328000
2000
(Risate)
05:45
When something is so commonComune, it's no longerpiù a lungo newsnotizia --
137
330000
3000
Quando qualcosa è così comune, non fa più notizia;
05:48
carauto crashessi blocca, domesticdomestico violenceviolenza --
138
333000
2000
incidenti d'auto, violenza domestica,
05:50
those are the risksrischi you worrypreoccupazione about.
139
335000
3000
quelli sono i rischi dei quali vi dovete preoccupare.
05:53
We're alsoanche a speciesspecie of storytellerscantastorie.
140
338000
2000
Noi siamo anche una specie di "raccontastorie".
05:55
We respondrispondere to storiesstorie more than datadati.
141
340000
3000
Rispondiamo alle storie molto più che ai numeri.
05:58
And there's some basicdi base innumeracyinnumeracy going on.
142
343000
2000
E poi c'`è anche un po' di analfabetismo numerico di base.
06:00
I mean, the jokescherzo "One, Two, ThreeTre, ManyMolti" is kindgenere of right.
143
345000
3000
Intendo dire, la battuta "Uno, due, tre, tanti" è abbastanza giusta.
06:03
We're really good at smallpiccolo numbersnumeri.
144
348000
3000
Siamo veramente bravi con i numeri piccoli.
06:06
One mangoMango, two mangoesmanghi, threetre mangoesmanghi,
145
351000
2000
Un mango, due manghi, tre manghi,
06:08
10,000 mangoesmanghi, 100,000 mangoesmanghi --
146
353000
2000
10.000 manghi, 100.000 manghi,
06:10
it's still more mangoesmanghi you can eatmangiare before they rotRot.
147
355000
3000
sono sempre più manghi di quanti ne potreste mangiare prima che marciscano tutti.
06:13
So one halfmetà, one quartertrimestre, one fifthquinto -- we're good at that.
148
358000
3000
Metà, un quarto, un quinto; siamo bravi in questo.
06:16
One in a millionmilione, one in a billionmiliardo --
149
361000
2000
Uno su un milione, uno su un miliardo...
06:18
they're bothentrambi almostquasi never.
150
363000
3000
entrambi sono come dire "quasi mai".
06:21
So we have troubleguaio with the risksrischi
151
366000
2000
Quindi abbiamo problemi con i rischi
06:23
that aren'tnon sono very commonComune.
152
368000
2000
che non sono molto comuni.
06:25
And what these cognitiveconoscitivo biasespregiudizi do
153
370000
2000
E quello che fanno queste distorsioni cognitive,
06:27
is they actatto as filtersfiltri betweenfra us and realityla realtà.
154
372000
3000
è di fungere da filtri tra noi e la realtà.
06:30
And the resultrisultato
155
375000
2000
Ed il risultato
06:32
is that feelingsensazione and realityla realtà get out of whackpicchiare,
156
377000
2000
è che sensazione e realtà vanno fuori fase,
06:34
they get differentdiverso.
157
379000
3000
diventano diversi.
06:37
Now you eithero have a feelingsensazione -- you feel more securegarantire la than you are.
158
382000
3000
Ora, o avete una sensazione, vi sentite più sicuri di quanto lo siate in realtà.
06:40
There's a falsefalso sensesenso of securitysicurezza.
159
385000
2000
C'è un falso senso di sicurezza.
06:42
Or the other way,
160
387000
2000
Oppure succede l'opposto,
06:44
and that's a falsefalso sensesenso of insecurityinsicurezza.
161
389000
2000
che è un falso senso di insicurezza.
06:46
I writeScrivi a lot about "securitysicurezza theaterTeatro,"
162
391000
3000
Io scrivo parecchio sul "teatro della sicurezza",
06:49
whichquale are productsprodotti that make people feel securegarantire la,
163
394000
3000
prodotti che fanno sentire sicura la gente,
06:52
but don't actuallyin realtà do anything.
164
397000
2000
ma che in effetti non fanno niente.
06:54
There's no realvero wordparola for stuffcose that makesfa us securegarantire la,
165
399000
2000
Non c'è una vera parola per descrivere cose che ci rendono sicuri,
06:56
but doesn't make us feel securegarantire la.
166
401000
2000
ma non ci fanno sentire sicuri.
06:58
Maybe it's what the CIA'sDella CIA supposedipotetico to do for us.
167
403000
3000
Forse è quello che la CIA dovrebbe fare per noi.
07:03
So back to economicseconomia.
168
408000
2000
Allora, ritornando all'economia.
07:05
If economicseconomia, if the marketmercato, drivesunità securitysicurezza,
169
410000
4000
Se l'economia, se il mercato, traina la sicurezza,
07:09
and if people make trade-offstrade-off
170
414000
2000
e se la gente fa delle scelte
07:11
basedbasato on the feelingsensazione of securitysicurezza,
171
416000
3000
basate sulla sensazione di sicurezza,
07:14
then the smartinteligente thing for companiesaziende to do
172
419000
2000
allora la cosa intelligente da fare per le aziende
07:16
for the economiceconomico incentivesincentivi
173
421000
2000
per gli incentivi economici
07:18
are to make people feel securegarantire la.
174
423000
3000
è di far sentire sicura la gente.
07:21
And there are two waysmodi to do this.
175
426000
3000
E ci sono due modi per ottenere questo.
07:24
One, you can make people actuallyin realtà securegarantire la
176
429000
2000
Uno, potete rendere la gente davvero sicura
07:26
and hopesperanza they noticeAvviso.
177
431000
2000
e sperare che se ne accorga.
07:28
Or two, you can make people just feel securegarantire la
178
433000
3000
O due, potete solamente farla sentire sicura
07:31
and hopesperanza they don't noticeAvviso.
179
436000
3000
e sperare che non se ne accorga.
07:35
So what makesfa people noticeAvviso?
180
440000
3000
Quindi, cos'è che fa in modo che la gente se ne accorga?
07:38
Well a couplecoppia of things:
181
443000
2000
Beh, un paio di cose:
07:40
understandingcomprensione of the securitysicurezza,
182
445000
2000
capire la sicurezza,
07:42
of the risksrischi, the threatsminacce,
183
447000
2000
i rischi associati, le minacce,
07:44
the countermeasurescontromisure, how they work.
184
449000
3000
le contromisure, come tutto funziona.
07:47
But if you know stuffcose,
185
452000
2000
Ma se sapete come funzionano le cose,
07:49
you're more likelyprobabile to have your feelingssentimenti matchincontro realityla realtà.
186
454000
3000
è più probabile che le vostre sensazioni corrispondano alla realtà.
07:52
EnoughAbbastanza realvero worldmondo examplesesempi helpsaiuta.
187
457000
3000
Ci sono abbastanza esempi reali che aiutano.
07:55
Now we all know the crimecrimine rateVota in our neighborhoodQuartiere,
188
460000
3000
Ora, tutti noi conosciamo il tasso di criminalità del nostro vicinato,
07:58
because we livevivere there, and we get a feelingsensazione about it
189
463000
3000
perchè viviamo lì e abbiamo una sensazione su come vanno le cose
08:01
that basicallyfondamentalmente matchespartite realityla realtà.
190
466000
3000
che sostanzialmente corrisponde alla realtà.
08:04
SecuritySicurezza theater'sdi teatro exposedesposto
191
469000
3000
Il teatro della sicurezza è smascherato
08:07
when it's obviousevidente that it's not workinglavoro properlypropriamente.
192
472000
3000
quando è palese che non funziona come dovrebbe.
08:10
Okay, so what makesfa people not noticeAvviso?
193
475000
4000
Okay, quindi, cos'è che fa in modo che la gente non si accorga?
08:14
Well, a poorpovero understandingcomprensione.
194
479000
2000
Beh, la scarsa comprensione.
08:16
If you don't understandcapire the risksrischi, you don't understandcapire the costscosti,
195
481000
3000
Se non capite i rischi, se non capite i costi,
08:19
you're likelyprobabile to get the trade-offTrade-off wrongsbagliato,
196
484000
2000
probabilmente sbaglierete le scelte,
08:21
and your feelingsensazione doesn't matchincontro realityla realtà.
197
486000
3000
e la vostra sensazione non corrisponderà alla realtà.
08:24
Not enoughabbastanza examplesesempi.
198
489000
2000
Non ci sono abbastanza esempi.
08:26
There's an inherentinerente problemproblema
199
491000
2000
C'è un problema di base
08:28
with lowBasso probabilityprobabilità eventseventi.
200
493000
2000
relativo ad eventi di scarsa probabilità.
08:30
If, for exampleesempio,
201
495000
2000
Se, ad esempio,
08:32
terrorismterrorismo almostquasi never happensaccade,
202
497000
2000
il terrorismo non si verifica quasi mai,
08:34
it's really harddifficile to judgegiudice
203
499000
2000
è veramente difficile giudicare
08:36
the efficacyefficacia of counter-terroristcounter-terrorist measuresprovvedimenti.
204
501000
3000
l'efficacia delle misure antiterroristiche.
08:40
This is why you keep sacrificingsacrificare virginsVergini,
205
505000
3000
Questa è la ragione per cui si continuano a sacrificare delle vergini,
08:43
and why your unicornunicorno defensesdifese are workinglavoro just great.
206
508000
3000
e perchè la difesa dell'unicorno funziona alla grande.
08:46
There aren'tnon sono enoughabbastanza examplesesempi of failuresfallimenti.
207
511000
3000
Non ci sono sufficienti esempi di fallimenti.
08:50
AlsoAnche, feelingssentimenti that are cloudingappannamento the issuesproblemi --
208
515000
3000
Ed inoltre, ci sono sensazioni che offuscano la visione delle cose,
08:53
the cognitiveconoscitivo biasespregiudizi I talkedparlato about earlierprima,
209
518000
2000
le distorsioni cognitive di cui parlavo prima,
08:55
fearspaure, folkFolk beliefscredenze,
210
520000
3000
paure, credenze popolari,
08:58
basicallyfondamentalmente an inadequateinadeguata modelmodello of realityla realtà.
211
523000
3000
sostanzialmente, un modello inadeguato della realtà.
09:02
So let me complicatecomplicare things.
212
527000
3000
Consentitemi di complicare ulteriormente le cose.
09:05
I have feelingsensazione and realityla realtà.
213
530000
2000
Abbiamo sensazione e realtà.
09:07
I want to addInserisci a thirdterzo elementelemento. I want to addInserisci modelmodello.
214
532000
3000
Voglio aggiungere un terzo elemento. Voglio aggiungere modello.
09:10
FeelingSensazione and modelmodello in our headcapo,
215
535000
2000
La sensazione ed il modello sono nella nostra mente,
09:12
realityla realtà is the outsideal di fuori worldmondo.
216
537000
2000
la realtà è il mondo esterno.
09:14
It doesn't changemodificare; it's realvero.
217
539000
3000
Non cambia; è reale.
09:17
So feelingsensazione is basedbasato on our intuitionintuizione.
218
542000
2000
Dunque, la sensazione dipende dalla nostra intuizione.
09:19
ModelModello is basedbasato on reasonragionare.
219
544000
2000
Il modello, dal ragionamento.
09:21
That's basicallyfondamentalmente the differencedifferenza.
220
546000
3000
Questa è sostanzialmente la differenza.
09:24
In a primitiveprimitivo and simplesemplice worldmondo,
221
549000
2000
In un mondo primitivo e semplice,
09:26
there's really no reasonragionare for a modelmodello
222
551000
3000
il modello non ha veramente ragion d'essere.
09:29
because feelingsensazione is closevicino to realityla realtà.
223
554000
3000
Perché la sensazione è vicina alla realtà.
09:32
You don't need a modelmodello.
224
557000
2000
Non c'è bisogno di un modello.
09:34
But in a modernmoderno and complexcomplesso worldmondo,
225
559000
2000
Ma, in un mondo moderno e complesso,
09:36
you need modelsModelli
226
561000
2000
occorrono modelli
09:38
to understandcapire a lot of the risksrischi we faceviso.
227
563000
3000
per capire molti dei rischi che corriamo.
09:42
There's no feelingsensazione about germsgermi.
228
567000
2000
Non c'è nessuna sensazione riguardo ai germi.
09:44
You need a modelmodello to understandcapire them.
229
569000
3000
Occorre un modello per capirli.
09:47
So this modelmodello
230
572000
2000
Ora, questo modello
09:49
is an intelligentintelligente representationrappresentazione of realityla realtà.
231
574000
3000
è un'intelligente rappresentazione della realtà.
09:52
It's, of coursecorso, limitedlimitato by sciencescienza,
232
577000
3000
È, naturalmente, limitato dalla scienza,
09:55
by technologytecnologia.
233
580000
2000
dalla tecnologia.
09:57
We couldn'tnon poteva have a germgerme theoryteoria of diseasemalattia
234
582000
3000
Non potevamo avere una teoria sui germi patogeni
10:00
before we inventedinventato the microscopemicroscopio to see them.
235
585000
3000
prima che inventassimo il microscopio per poterli vedere.
10:04
It's limitedlimitato by our cognitiveconoscitivo biasespregiudizi.
236
589000
3000
È limitato dalle nostre distorsioni cognitive.
10:07
But it has the abilitycapacità
237
592000
2000
Ma ha la capacità
10:09
to overrideeseguire l'override our feelingssentimenti.
238
594000
2000
di essere più forte delle nostre sensazioni.
10:11
Where do we get these modelsModelli? We get them from othersaltri.
239
596000
3000
Da dove prendiamo questi modelli? Li prendiamo dagli altri.
10:14
We get them from religionreligione, from culturecultura,
240
599000
3000
Li prendiamo dalla religione, dalla cultura,
10:17
teachersinsegnanti, eldersanziani.
241
602000
2000
dai maestri, dagli anziani.
10:19
A couplecoppia yearsanni agofa,
242
604000
2000
Un paio di anni fa
10:21
I was in SouthSud AfricaAfrica on safariSafari.
243
606000
2000
mi trovavo in Sud Africa per un safari.
10:23
The trackerTracking I was with grewè cresciuto up in KrugerKruger NationalNazionale ParkParco.
244
608000
3000
La guida con cui stavo era cresciuta nel Parco Nazionale di Kruger.
10:26
He had some very complexcomplesso modelsModelli of how to survivesopravvivere.
245
611000
3000
Aveva dei modelli di sopravvivenza molto complicati.
10:29
And it dependeddipendeva on if you were attackedattaccato
246
614000
2000
A seconda di chi era l'aggressore,
10:31
by a lionLeone or a leopardleopardo or a rhinoRhino or an elephantelefante --
247
616000
2000
un leone, un leopardo, un rinoceronte o un elefante,
10:33
and when you had to runcorrere away, and when you couldn'tnon poteva runcorrere away, and when you had to climbscalata a treealbero --
248
618000
3000
diceva quando dovevate scappare, quando arrampicarvi su un albero,
10:36
when you could never climbscalata a treealbero.
249
621000
2000
e quando non avreste mai dovuto arrampicarvi su un albero.
10:38
I would have diedmorto in a day,
250
623000
3000
Io sarei morto in un giorno,
10:41
but he was bornNato there,
251
626000
2000
ma lui era nato lì,
10:43
and he understoodinteso how to survivesopravvivere.
252
628000
2000
ed aveva capito come sopravvivere.
10:45
I was bornNato in NewNuovo YorkYork CityCittà.
253
630000
2000
Io sono nato a New York City.
10:47
I could have takenprese him to NewNuovo YorkYork, and he would have diedmorto in a day.
254
632000
3000
Avrei potuto portarlo a New York, e lui sarebbe morto in un giorno.
10:50
(LaughterRisate)
255
635000
2000
(Risate)
10:52
Because we had differentdiverso modelsModelli
256
637000
2000
Perchè avevamo differenti modelli
10:54
basedbasato on our differentdiverso experiencesesperienze.
257
639000
3000
basati sulle nostre differenti esperienze.
10:58
ModelsModelli can come from the mediamedia,
258
643000
2000
I modelli possono derivare dai media,
11:00
from our electedeletto officialsfunzionari.
259
645000
3000
dalle autorità costituite.
11:03
Think of modelsModelli of terrorismterrorismo,
260
648000
3000
Pensate ai modelli di terrorismo,
11:06
childbambino kidnappingsequestro di persona,
261
651000
3000
di rapimento di bambini,
11:09
airlinelinea aerea safetysicurezza, carauto safetysicurezza.
262
654000
2000
di sicurezza delle linee aeree, di sicurezza delle automobili.
11:11
ModelsModelli can come from industryindustria.
263
656000
3000
I modelli possono venire dall'industria.
11:14
The two I'm followinga seguire are surveillancesorveglianza camerasmacchine fotografiche,
264
659000
2000
I due che sto seguendo sono le telecamere di sorveglianza,
11:16
IDID cardscarte,
265
661000
2000
le carte d'identità,
11:18
quiteabbastanza a lot of our computercomputer securitysicurezza modelsModelli come from there.
266
663000
3000
una gran parte dei nostri modelli di sicurezza informatica vengono da lì.
11:21
A lot of modelsModelli come from sciencescienza.
267
666000
3000
Moltissimi modelli vengono dalla scienza.
11:24
HealthSalute modelsModelli are a great exampleesempio.
268
669000
2000
I modelli della salute sono un ottimo esempio.
11:26
Think of cancercancro, of birduccello fluinfluenza, swinesuina fluinfluenza, SARSSARS.
269
671000
3000
Pensate al cancro, all'influenza aviaria, a quella suina, alla SARS.
11:29
All of our feelingssentimenti of securitysicurezza
270
674000
3000
Tutte le nostre sensazioni di sicurezza
11:32
about those diseasesmalattie
271
677000
2000
su queste malattie
11:34
come from modelsModelli
272
679000
2000
derivano da modelli
11:36
givendato to us, really, by sciencescienza filteredfiltrati throughattraverso the mediamedia.
273
681000
3000
effettivamente veicolati sino a noi dalla scienza, filtrata attraverso i media.
11:40
So modelsModelli can changemodificare.
274
685000
3000
Quindi i modelli possono cambiare.
11:43
ModelsModelli are not staticstatici.
275
688000
2000
I modelli non sono statici.
11:45
As we becomediventare more comfortableconfortevole in our environmentsambienti,
276
690000
3000
Man mano che ci adattiamo al nostro ambiente,
11:48
our modelmodello can movemossa closerpiù vicino to our feelingssentimenti.
277
693000
4000
i nostri modelli possono avvicinarsi maggiormente alle nostre sensazioni.
11:53
So an exampleesempio mightpotrebbe be,
278
698000
2000
Per cui, un esempio potrebbe essere,
11:55
if you go back 100 yearsanni agofa
279
700000
2000
se tornate indietro a 100 anni fa,
11:57
when electricityelettricità was first becomingdiventando commonComune,
280
702000
3000
quando l'elettricità cominciava a diffondersi,
12:00
there were a lot of fearspaure about it.
281
705000
2000
aveva generato molte paure.
12:02
I mean, there were people who were afraidimpaurito to pushspingere doorbellsCampanelli,
282
707000
2000
Voglio dire, c'erano persone che avevano paura di premere un campanello,
12:04
because there was electricityelettricità in there, and that was dangerouspericoloso.
283
709000
3000
perchè dentro vi era dell'elettricità, e ciò era pericoloso.
12:07
For us, we're very facilefacile around electricityelettricità.
284
712000
3000
Noi oggi siamo molto disinvolti con l'elettricità.
12:10
We changemodificare lightleggero bulbslampadine
285
715000
2000
Cambiamo le lampadine
12:12
withoutsenza even thinkingpensiero about it.
286
717000
2000
senza neppure pensarci su.
12:14
Our modelmodello of securitysicurezza around electricityelettricità
287
719000
4000
Il nostro modello di sicurezza per l'elettricità
12:18
is something we were bornNato into.
288
723000
3000
è qualcosa con cui siamo nati.
12:21
It hasn'tnon ha changedcambiato as we were growingin crescita up.
289
726000
3000
Non è cambiato mentre crescevamo.
12:24
And we're good at it.
290
729000
3000
E lo conosciamo molto bene.
12:27
Or think of the risksrischi
291
732000
2000
Oppure pensate ai rischi
12:29
on the InternetInternet acrossattraverso generationsgenerazioni --
292
734000
2000
dell'internet per le diverse generazioni;
12:31
how your parentsgenitori approachapproccio InternetInternet securitysicurezza,
293
736000
2000
a come i vostri genitori affrontano la sicurezza su internet,
12:33
versuscontro how you do,
294
738000
2000
rispetto a come l'affrontate voi,
12:35
versuscontro how our kidsbambini will.
295
740000
3000
rispetto a come l'affronteranno i nostri bambini.
12:38
ModelsModelli eventuallyinfine fadedissolvenza into the backgroundsfondo.
296
743000
3000
I modelli alla fine diventano invisibili.
12:42
IntuitiveIntuitiva is just anotherun altro wordparola for familiarfamiliare.
297
747000
3000
"Intuitivo" è solo un altro termine per "familiare".
12:45
So as your modelmodello is closevicino to realityla realtà,
298
750000
2000
Così, quando il vostro modello si avvicina alla realtà
12:47
and it convergesconverge with feelingssentimenti,
299
752000
2000
e converge con le sensazioni,
12:49
you oftenspesso don't know it's there.
300
754000
3000
spesso non vi accorgete che c'è.
12:52
So a nicesimpatico exampleesempio of this
301
757000
2000
Un bell'esempio di ciò
12:54
cameè venuto from last yearanno and swinesuina fluinfluenza.
302
759000
3000
è l'influenza suina dello scorso anno.
12:57
When swinesuina fluinfluenza first appearedè apparso,
303
762000
2000
Quando l'influenza suina si manifestò per la prima volta,
12:59
the initialiniziale newsnotizia causedcausato a lot of overreactionreazione eccessiva.
304
764000
4000
le prime notizie causarono un grande allarmismo.
13:03
Now it had a namenome,
305
768000
2000
Ora aveva un nome
13:05
whichquale madefatto it scarierpiù spaventosa than the regularregolare fluinfluenza,
306
770000
2000
che la rendeva più spaventosa dell'influenza comune,
13:07
even thoughanche se it was more deadlymortale.
307
772000
2000
anche se questa era più mortale.
13:09
And people thought doctorsmedici should be ablecapace to dealaffare with it.
308
774000
4000
E la gente pensava che i medici fossero in grado di sconfiggerla.
13:13
So there was that feelingsensazione of lackmancanza of controlcontrollo.
309
778000
2000
Per cui vi fu quella sensazione di impotenza.
13:15
And those two things
310
780000
2000
E queste due cose
13:17
madefatto the riskrischio more than it was.
311
782000
2000
ingigantirono il rischio.
13:19
As the noveltynovità woreindossava off, the monthsmesi wentandato by,
312
784000
3000
Quando la novità svanì, i mesi passarono,
13:22
there was some amountquantità of tolerancetolleranza,
313
787000
2000
vi fu una certa tolleranza,
13:24
people got used to it.
314
789000
2000
la gente vi si abituò.
13:26
There was no newnuovo datadati, but there was lessDi meno fearpaura.
315
791000
3000
Non c'erano nuovi dati, ma c'era meno paura.
13:29
By autumnautunno,
316
794000
2000
In autunno
13:31
people thought
317
796000
2000
la gente pensò
13:33
the doctorsmedici should have solvedrisolto this alreadygià.
318
798000
2000
che i medici dovevano averla già risolta.
13:35
And there's kindgenere of a bifurcationbiforcazione --
319
800000
2000
E c'è una sorta di biforcazione,
13:37
people had to choosescegliere
320
802000
2000
la gente doveva scegliere
13:39
betweenfra fearpaura and acceptanceaccettazione --
321
804000
4000
tra paura e accettazione,
13:43
actuallyin realtà fearpaura and indifferenceindifferenza --
322
808000
2000
anzi, tra paura e indifferenza.
13:45
they kindgenere of chosescelto suspicionsospetto.
323
810000
3000
Decisero di scegliere il sospetto.
13:48
And when the vaccinevaccino appearedè apparso last winterinverno,
324
813000
3000
E quando il vaccino apparve lo scorso inverno,
13:51
there were a lot of people -- a surprisingsorprendente numbernumero --
325
816000
3000
vi fu un gran numero di persone -- un numero sorprendente --
13:54
who refusedha rifiutato to get it --
326
819000
3000
che rifiutò di usarlo;
13:58
as a nicesimpatico exampleesempio
327
823000
2000
un bell'esempio
14:00
of how people'spersone di feelingssentimenti of securitysicurezza changemodificare, how theirloro modelmodello changesi cambiamenti,
328
825000
3000
di come il senso di sicurezza della gente cambia, di come cambiano i loro modelli,
14:03
sortordinare of wildlyselvaggiamente
329
828000
2000
quasi selvaggiamente
14:05
with no newnuovo informationinformazione,
330
830000
2000
senza alcuna nuova informazione,
14:07
with no newnuovo inputingresso.
331
832000
2000
senza alcun nuovo elemento.
14:09
This kindgenere of thing happensaccade a lot.
332
834000
3000
Questo genere di cose accade frequentemente.
14:12
I'm going to give one more complicationcomplicazione.
333
837000
3000
Rendo la cosa ancor più complicata.
14:15
We have feelingsensazione, modelmodello, realityla realtà.
334
840000
3000
Noi abbiamo sensazioni, modelli, realtà.
14:18
I have a very relativisticrelativistica viewvista of securitysicurezza.
335
843000
2000
Io ho un punto di vista molto relativistico della sicurezza.
14:20
I think it dependsdipende on the observerosservatore.
336
845000
3000
Penso che dipenda dall'osservatore.
14:23
And mostmaggior parte securitysicurezza decisionsdecisioni
337
848000
2000
E che la maggior parte delle decisioni sulla sicurezza
14:25
have a varietyvarietà of people involvedcoinvolti.
338
850000
4000
coinvolgano una varietà di persone.
14:29
And stakeholdersle parti interessate
339
854000
2000
E i venditori di sicurezza
14:31
with specificspecifica trade-offstrade-off
340
856000
3000
con i loro specifici interessi
14:34
will try to influenceinfluenza the decisiondecisione.
341
859000
2000
cercheranno di influenzare la decisione.
14:36
And I call that theirloro agendaordine del giorno.
342
861000
2000
Io la chiamo la loro "agenda".
14:38
And you see agendaordine del giorno --
343
863000
2000
E voi vedete l'agenda;
14:40
this is marketingmarketing, this is politicspolitica --
344
865000
3000
sono il marketing, la politica,
14:43
tryingprovare to convinceconvincere you to have one modelmodello versuscontro anotherun altro,
345
868000
3000
che cercano di convincervi ad avere un modello piuttosto che un altro,
14:46
tryingprovare to convinceconvincere you to ignoreignorare a modelmodello
346
871000
2000
tentando di convincervi ad ignorare un modello
14:48
and trustfiducia your feelingssentimenti,
347
873000
3000
e fidarvi del vostro istinto,
14:51
marginalizingemarginando people with modelsModelli you don't like.
348
876000
3000
emarginando la gente che ha modelli che non vi piacciono.
14:54
This is not uncommonnon comune.
349
879000
3000
Ciò non è infrequente.
14:57
An exampleesempio, a great exampleesempio, is the riskrischio of smokingfumo.
350
882000
3000
Un esempio, un grande esempio, è il rischio associato al fumo.
15:01
In the historystoria of the pastpassato 50 yearsanni, the smokingfumo riskrischio
351
886000
3000
Nella storia degli ultimi 50 anni, il rischio del fumo
15:04
showsSpettacoli how a modelmodello changesi cambiamenti,
352
889000
2000
dimostra come cambia un modello,
15:06
and it alsoanche showsSpettacoli how an industryindustria fightscombatte againstcontro
353
891000
3000
e dimostra anche come un industria combatte contro
15:09
a modelmodello it doesn't like.
354
894000
2000
un modello che non le piace.
15:11
CompareConfronta that to the secondhandseconda mano smokefumo debatediscussione --
355
896000
3000
Paragonatelo al dibattito sul fumo passivo,
15:14
probablyprobabilmente about 20 yearsanni behinddietro a.
356
899000
3000
probabilmente iniziato una ventina di anni fa.
15:17
Think about seatposto a sedere beltscinture.
357
902000
2000
Pensate alle cinture di sicurezza.
15:19
When I was a kidragazzo, no one woreindossava a seatposto a sedere beltcintura.
358
904000
2000
Quando ero un ragazzino, nessuno metteva una cintura di sicurezza.
15:21
NowadaysAl giorno d'oggi, no kidragazzo will let you driveguidare
359
906000
2000
Oggi, nessun ragazzino vi lascerebbe guidare
15:23
if you're not wearingindossare a seatposto a sedere beltcintura.
360
908000
2000
se non indossate una cintura di sicurezza.
15:26
CompareConfronta that to the airbagairbag debatediscussione --
361
911000
2000
Paragonatelo al dibattito sull'airbag,
15:28
probablyprobabilmente about 30 yearsanni behinddietro a.
362
913000
3000
di circa 30 anni or sono.
15:31
All examplesesempi of modelsModelli changingmutevole.
363
916000
3000
Tutti esempi di modelli che cambiano.
15:36
What we learnimparare is that changingmutevole modelsModelli is harddifficile.
364
921000
3000
Quel che impariamo è che cambiare i modelli è difficile.
15:39
ModelsModelli are harddifficile to dislodgesloggiare.
365
924000
2000
I modelli sono duri da demolire.
15:41
If they equalpari your feelingssentimenti,
366
926000
2000
Se poi combaciano con le vostre sensazioni,
15:43
you don't even know you have a modelmodello.
367
928000
3000
non sapete neppure di averli.
15:46
And there's anotherun altro cognitiveconoscitivo biaspregiudizio
368
931000
2000
E c'è un'altra distorsione cognitiva
15:48
I'll call confirmationconferma biaspregiudizio,
369
933000
2000
che chiamerò pregiudizio di conferma,
15:50
where we tendtendere to acceptaccettare datadati
370
935000
3000
dove noi tendiamo ad accettare i dati
15:53
that confirmsconferma our beliefscredenze
371
938000
2000
che confermano le nostre convinzioni
15:55
and rejectrifiutare datadati that contradictscontraddice our beliefscredenze.
372
940000
3000
e a respingere quelli che le contraddicono.
15:59
So evidenceprova againstcontro our modelmodello,
373
944000
2000
Altrettanto, l'evidenza contro il nostro modello,
16:01
we're likelyprobabile to ignoreignorare, even if it's compellingconvincente.
374
946000
3000
noi tendiamo ad ignorarla, anche se è convincente.
16:04
It has to get very compellingconvincente before we'llbene paypagare attentionAttenzione.
375
949000
3000
Deve diventare molto convincente prima che la consideriamo.
16:08
NewNuovo modelsModelli that extendestendere long periodsperiodi of time are harddifficile.
376
953000
2000
I nuovi modelli che si protraggono per lunghi periodi di tempo sono difficili.
16:10
GlobalGlobale warmingriscaldamento is a great exampleesempio.
377
955000
2000
Il riscaldamento globale è un grande esempio.
16:12
We're terribleterribile
378
957000
2000
Siamo terribili
16:14
at modelsModelli that spancampata 80 yearsanni.
379
959000
2000
con i modelli che durano 80 anni.
16:16
We can do to the nextIl prossimo harvestraccolto.
380
961000
2000
Possiamo arrivare sino al prossimo raccolto.
16:18
We can oftenspesso do untilfino a our kidsbambini growcrescere up.
381
963000
3000
Spesso possiamo arrivare fino a quando i nostri figli diventano adulti.
16:21
But 80 yearsanni, we're just not good at.
382
966000
3000
Ma per 80 anni, siamo proprio negati.
16:24
So it's a very harddifficile modelmodello to acceptaccettare.
383
969000
3000
Quindi è un modello molto duro da accettare.
16:27
We can have bothentrambi modelsModelli in our headcapo simultaneouslycontemporaneamente,
384
972000
4000
Possiamo avere entrambi i modelli nella nostra mente simultaneamente,
16:31
right, that kindgenere of problemproblema
385
976000
3000
o quel genere di problema
16:34
where we're holdingdetenzione bothentrambi beliefscredenze togetherinsieme,
386
979000
3000
per cui teniamo insieme entrambe le convinzioni,
16:37
right, the cognitiveconoscitivo dissonancedissonanza.
387
982000
2000
oppure la dissonanza cognitiva.
16:39
EventuallyAlla fine,
388
984000
2000
Alla fine,
16:41
the newnuovo modelmodello will replacesostituire the oldvecchio modelmodello.
389
986000
3000
il nuovo modello rimpiazzerà quello vecchio.
16:44
StrongStrong feelingssentimenti can createcreare a modelmodello.
390
989000
3000
Sensazioni forti posso creare un modello.
16:47
SeptemberSettembre 11thesimo createdcreato a securitysicurezza modelmodello
391
992000
3000
L'11 settembre ha creato un modello di sicurezza
16:50
in a lot of people'spersone di headsteste.
392
995000
2000
nella testa di molta gente.
16:52
AlsoAnche, personalpersonale experiencesesperienze with crimecrimine can do it,
393
997000
3000
Inoltre, esperienze personali con il crimine possono crearlo,
16:55
personalpersonale healthSalute scarespavento,
394
1000000
2000
così come uno spavento per la propria salute,
16:57
a healthSalute scarespavento in the newsnotizia.
395
1002000
2000
un allarme sanitario nelle notizie.
16:59
You'llYou'll see these calledchiamato flashbulbFlashbulb eventseventi
396
1004000
2000
Vedrete questi "flashbulb events" (ricordi fotografici di un evento pubblico straordinario)
17:01
by psychiatristspsichiatri.
397
1006000
2000
così chiamati dagli psichiatri.
17:03
They can createcreare a modelmodello instantaneouslyistantaneamente,
398
1008000
3000
Possono creare istantaneamente dei modelli,
17:06
because they're very emotiveemotivo.
399
1011000
3000
perchè sono molto toccanti.
17:09
So in the technologicaltecnologico worldmondo,
400
1014000
2000
Nel mondo della tecnologia
17:11
we don't have experienceEsperienza
401
1016000
2000
non abbiamo esperienza
17:13
to judgegiudice modelsModelli.
402
1018000
2000
per giudicare i modelli.
17:15
And we relyfare affidamento on othersaltri. We relyfare affidamento on proxiesproxy.
403
1020000
2000
E dipendiamo da altri. Ci affidiamo a sostituti.
17:17
I mean, this workslavori as long as it's to correctcorretta othersaltri.
404
1022000
4000
Intendo dire, questo funziona finchè si tratta di correggere altri.
17:21
We relyfare affidamento on governmentgoverno agenciesagenzie
405
1026000
2000
Ci affidiamo alle agenzie governative
17:23
to tell us what pharmaceuticalsprodotti farmaceutici are safesicuro.
406
1028000
5000
per dirci quali farmaci sono sicuri.
17:28
I flewvolò here yesterdayieri.
407
1033000
2000
Ieri sono giunto qui in volo.
17:30
I didn't checkdai un'occhiata the airplaneaereo.
408
1035000
2000
Non ho ispezionato l'aereo.
17:32
I reliedcontato on some other groupgruppo
409
1037000
2000
Mi sono fidato di qualche altro gruppo
17:34
to determinedeterminare whetherse my planeaereo was safesicuro to flyvolare.
410
1039000
3000
per determinare se il mio velivolo fosse sicuro per volare.
17:37
We're here, nonenessuna of us fearpaura the rooftetto is going to collapsecrollo on us,
411
1042000
3000
Noi siamo qui, nessuno di noi teme che il tetto ci possa cadere addosso,
17:40
not because we checkedverificato,
412
1045000
3000
non perché l'abbiamo verificato,
17:43
but because we're prettybella sure
413
1048000
2000
ma perché siamo sufficientemente sicuri
17:45
the buildingcostruzione codescodici here are good.
414
1050000
3000
che i regolamenti edilizi siano stati rispettati.
17:48
It's a modelmodello we just acceptaccettare
415
1053000
2000
È un modello che accettiamo
17:50
prettybella much by faithfede.
416
1055000
2000
praticamente per fede.
17:52
And that's okay.
417
1057000
3000
E va bene che sia così.
17:57
Now, what we want
418
1062000
2000
Ora, ciò che vogliamo
17:59
is people to get familiarfamiliare enoughabbastanza
419
1064000
2000
è che le persone familiarizzino sufficientemente
18:01
with better modelsModelli --
420
1066000
2000
con modelli migliori;
18:03
have it reflectedriflette in theirloro feelingssentimenti --
421
1068000
2000
li interiorizzino, in modo che questi si rispecchino nelle loro sensazioni,
18:05
to allowpermettere them to make securitysicurezza trade-offstrade-off.
422
1070000
4000
per permettere loro di fare scelte di sicurezza.
18:09
Now when these go out of whackpicchiare,
423
1074000
2000
Ora, quando queste vanno fuori fase,
18:11
you have two optionsopzioni.
424
1076000
2000
ci sono due scelte.
18:13
One, you can fixfissare people'spersone di feelingssentimenti,
425
1078000
2000
Una, potete rimettere a posto le sensazioni della gente,
18:15
directlydirettamente appealappello to feelingssentimenti.
426
1080000
2000
appellandovi direttamente ai sentimenti.
18:17
It's manipulationmanipolazione, but it can work.
427
1082000
3000
È una manipolazione, ma può funzionare.
18:20
The secondsecondo, more honestonesto way
428
1085000
2000
La seconda, e più onesta opzione,
18:22
is to actuallyin realtà fixfissare the modelmodello.
429
1087000
3000
è quella di aggiustare proprio il modello.
18:26
ChangeCambiamento happensaccade slowlylentamente.
430
1091000
2000
I cambiamenti avvengono lentamente.
18:28
The smokingfumo debatediscussione tookha preso 40 yearsanni,
431
1093000
3000
Il dibattito sul fumo è durato 40 anni,
18:31
and that was an easyfacile one.
432
1096000
3000
e quello era uno facile.
18:34
Some of this stuffcose is harddifficile.
433
1099000
2000
Alcune di queste cose sono ostiche.
18:36
I mean really thoughanche se,
434
1101000
2000
Intendo dire, veramente,
18:38
informationinformazione seemssembra like our bestmigliore hopesperanza.
435
1103000
2000
l'informazione sembra essere la nostra migliore speranza.
18:40
And I liedmentito.
436
1105000
2000
E ho mentito.
18:42
RememberRicordate I said feelingsensazione, modelmodello, realityla realtà;
437
1107000
2000
Ricordate quando ho detto sensazione, modello, realtà.
18:44
I said realityla realtà doesn't changemodificare. It actuallyin realtà does.
438
1109000
3000
Vi ho detto che la realtà non cambia mai. In effetti, cambia.
18:47
We livevivere in a technologicaltecnologico worldmondo;
439
1112000
2000
Viviamo in un mondo tecnologico;
18:49
realityla realtà changesi cambiamenti all the time.
440
1114000
3000
la realtà cambia continuamente.
18:52
So we mightpotrebbe have -- for the first time in our speciesspecie --
441
1117000
3000
Per cui possiamo avere -- per la prima volta nella storia della nostra specie --
18:55
feelingsensazione chasesinseguimenti modelmodello, modelmodello chasesinseguimenti realityla realtà, reality'sdi realtà movingin movimento --
442
1120000
3000
sensazioni che rincorrono i modelli, modelli che rincorrono la realtà, la realtà in movimento --
18:58
they mightpotrebbe never catchcatturare up.
443
1123000
3000
potrebbero non raggiungerla mai.
19:02
We don't know.
444
1127000
2000
Noi non lo sappiamo.
19:04
But in the long-termlungo termine,
445
1129000
2000
Ma, alla lunga,
19:06
bothentrambi feelingsensazione and realityla realtà are importantimportante.
446
1131000
3000
sensazioni e modelli sono ugualmente importanti.
19:09
And I want to closevicino with two quickveloce storiesstorie to illustrateillustrare this.
447
1134000
3000
E desidero chiudere con due veloci storielle per illustrarlo.
19:12
1982 -- I don't know if people will rememberricorda this --
448
1137000
2000
1982 -- non so se ve lo ricordate --
19:14
there was a shortcorto epidemicepidemico
449
1139000
3000
vi fu una breve epidemia
19:17
of TylenolTylenol poisoningsintossicazioni in the UnitedUniti d'America StatesStati.
450
1142000
2000
di avvelenamenti da Tylenol negli Stati Uniti.
19:19
It's a horrificorribile storystoria. SomeoneQualcuno tookha preso a bottlebottiglia of TylenolTylenol,
451
1144000
3000
È una storia orribile. Qualcuno prese un flacone di Tylenol,
19:22
put poisonveleno in it, closedchiuso it up, put it back on the shelfmensola.
452
1147000
3000
vi mise del veleno, lo chiuse, e lo rimise sullo scaffale.
19:25
SomeoneQualcuno elsealtro boughtcomprato it and diedmorto.
453
1150000
2000
Qualcun altro lo comprò e morì.
19:27
This terrifiedterrorizzato people.
454
1152000
2000
Ciò gettò il terrore tra la gente.
19:29
There were a couplecoppia of copycatimitatore attacksattacchi.
455
1154000
2000
Vi furono un paio di casi di emulazione.
19:31
There wasn'tnon era any realvero riskrischio, but people were scaredimpaurito.
456
1156000
3000
Non c'era alcun rischio reale, ma la gente era spaventata.
19:34
And this is how
457
1159000
2000
E questo è come
19:36
the tamper-proofa prova di manomissione drugdroga industryindustria was inventedinventato.
458
1161000
2000
fu inventata l'industria dei medicinali a prova di manomissione.
19:38
Those tamper-proofa prova di manomissione capscaps, that cameè venuto from this.
459
1163000
2000
I tappi di sicurezza nacquero da qui.
19:40
It's completecompletare securitysicurezza theaterTeatro.
460
1165000
2000
È tutto teatro della sicurezza.
19:42
As a homeworkcompiti a casa assignmentassegnazione, think of 10 waysmodi to get around it.
461
1167000
2000
Come compito a casa, pensate a 10 modi per aggirarlo.
19:44
I'll give you one, a syringesiringa.
462
1169000
3000
Ve ne do uno, una siringa.
19:47
But it madefatto people feel better.
463
1172000
3000
Però fece sentir meglio la gente.
19:50
It madefatto theirloro feelingsensazione of securitysicurezza
464
1175000
2000
Fece in modo che il loro senso di sicurezza
19:52
more matchincontro the realityla realtà.
465
1177000
2000
combaciasse maggiormente con la realtà.
19:54
Last storystoria, a fewpochi yearsanni agofa, a friendamico of mineil mio gaveha dato birthnascita.
466
1179000
3000
Ultima storia; qualche anno fa, una mia amica partorì.
19:57
I visitvisita her in the hospitalospedale.
467
1182000
2000
Le feci visita in ospedale.
19:59
It turnsgiri out when a baby'sdi bambino bornNato now,
468
1184000
2000
A quanto pare, ora, quando nasce un bimbo,
20:01
they put an RFIDRFID braceletBracciale on the babybambino,
469
1186000
2000
gli mettono un braccialetto identificativo (RFID),
20:03
put a correspondingcorrispondente one on the mothermadre,
470
1188000
2000
e ne mettono uno corrispondente alla madre,
20:05
so if anyonechiunque other than the mothermadre takes the babybambino out of the maternitymaternità wardreparto,
471
1190000
2000
così che se una donna che non sia la madre porta il neonato fuori dal reparto di maternità,
20:07
an alarmallarme goesva off.
472
1192000
2000
il braccialetto fa scattare un allarme.
20:09
I said, "Well, that's kindgenere of neatpulito.
473
1194000
2000
Ho detto, "Beh, è una bella cosa.
20:11
I wondermeravigliarsi how rampantrampante babybambino snatchingscippo is
474
1196000
2000
Mi chiedo quanto sia dilagante il rapimento di neonati
20:13
out of hospitalsospedali."
475
1198000
2000
negli ospedali."
20:15
I go home, I look it up.
476
1200000
2000
Vado a casa, indago.
20:17
It basicallyfondamentalmente never happensaccade.
477
1202000
2000
Praticamente non succede mai.
20:19
But if you think about it,
478
1204000
2000
Ma, se ci pensate,
20:21
if you are a hospitalospedale,
479
1206000
2000
se voi foste un ospedaliero
20:23
and you need to take a babybambino away from its mothermadre,
480
1208000
2000
e aveste necessità di portare via un neonato dalla sua mamma,
20:25
out of the roomcamera to runcorrere some teststest,
481
1210000
2000
fuori dalla stanza, per fare qualche esame,
20:27
you better have some good securitysicurezza theaterTeatro,
482
1212000
2000
fareste meglio ad avere un buon teatro della sicurezza,
20:29
or she's going to ripriposa in pace your armbraccio off.
483
1214000
2000
o questa potrebbe strapparvi un braccio.
20:31
(LaughterRisate)
484
1216000
2000
(Risate)
20:33
So it's importantimportante for us,
485
1218000
2000
È quindi importante per chi di noi
20:35
those of us who designdesign securitysicurezza,
486
1220000
2000
progetta la sicurezza,
20:37
who look at securitysicurezza policypolitica,
487
1222000
3000
chi analizza le politiche di sicurezza,
20:40
or even look at publicpubblico policypolitica
488
1225000
2000
o addirittura quello che delle politiche pubbliche
20:42
in waysmodi that affectinfluenzare securitysicurezza.
489
1227000
2000
ha a che fare con la sicurezza.
20:44
It's not just realityla realtà; it's feelingsensazione and realityla realtà.
490
1229000
3000
Non si tratta solo di realtà, ma di sensazione e di realtà.
20:47
What's importantimportante
491
1232000
2000
Ciò che importa
20:49
is that they be about the samestesso.
492
1234000
2000
è che questi collimino, più o meno.
20:51
It's importantimportante that, if our feelingssentimenti matchincontro realityla realtà,
493
1236000
2000
È importante che, se le nostre sensazioni corrispondono alla realtà,
20:53
we make better securitysicurezza trade-offstrade-off.
494
1238000
2000
noi facciamo delle scelte migliori sulla sicurezza.
20:55
Thank you.
495
1240000
2000
Grazie.
20:57
(ApplauseApplausi)
496
1242000
2000
(Applausi)
Translated by Laura Pasquale
Reviewed by Daniele Buratti

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com