ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alesandro Akvisti (Alessandro Acquisti): Kako će izgledati budućnost bez tajni?

Filmed:
1,423,103 views

Granica između privatnog i javnog života u poslednjoj deceniji je nejasna - i u stvarnom životu i na internetu. Alesandro Akvisti je tu da nam objasni šta to znači i zbog čega je važno. U govoru koji je pomalo zastrašujući i tera na razmišljanje, prikazuje detalje jednog skorašnjeg i jednog istraživanja u toku, uključujući i projekat koji pokazuje koliko je lako povezati fotografiju nepoznate osobe sa njenim izuzetno osetljivim ličnim podacima.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyприча
0
641
2354
Želim da vam ispričam jednu priču
00:14
connectingповезивање the notoriousпознати privacyprivatnost incidentинцидент
1
2995
3176
koja povezuje čuveni incident
u vezi sa privatnošću,
00:18
involvingукључивање AdamAdam and EveEve,
2
6171
2769
koji uključuje Adama i Evu,
00:20
and the remarkableизузетно shiftсмена in the boundariesгранице
3
8940
3446
sa neverovatnim promenama u granicama
00:24
betweenизмеђу publicјавно and privateприватни whichкоја has occurredдошло
4
12386
2686
između privatnog i javnog života
koje su se desile u poslednjih 10 godina.
00:27
in the pastпрошлост 10 yearsгодине.
5
15072
1770
00:28
You know the incidentинцидент.
6
16842
1298
Svi znate za taj incident.
00:30
AdamAdam and EveEve one day in the GardenVrt of EdenEden
7
18140
3330
Adam i Eva, jednoga dana u Raju
00:33
realizeсхватите they are nakedгола.
8
21470
1843
shvate da su nagi.
00:35
They freakнаказо out.
9
23313
1500
Polude.
00:36
And the restодмор is historyисторија.
10
24813
2757
A ostatak priče pripada istoriji.
00:39
NowadaysOvih dana, AdamAdam and EveEve
11
27570
2188
Danas bi Adam i Eva
00:41
would probablyвероватно actчинити differentlyдругачије.
12
29758
2361
verovatno drugačije reagovali.
00:44
[@AdamAdam Last niteNite was a blastексплозија! lovedвољен datDat appleјабука LOLLOL]
13
32119
2268
[@Adam Sinoć je bila ludnica!
jabuka je super LOL]
00:46
[@EveEve yepAha.. babeBejb, know what happenedдесило to my pantspantalone thoTo?]
14
34387
1873
[@Eva Aha..
dušo, znaš li gde su mi pantalone?
00:48
We do revealоткривају so much more informationинформације
15
36260
2636
Mnogo više informacija o sebi
00:50
about ourselvesсами onlineонлине than ever before,
16
38896
3334
otkrivamo na internetu,
nego ikad ranije,
00:54
and so much informationинформације about us
17
42230
1704
i sve više i više informacija o nama
00:55
is beingбиће collectedприкупљени by organizationsорганизације.
18
43934
2224
prikupljaju razne organizacije.
00:58
Now there is much to gainдобит and benefitкористи
19
46158
3282
Mnogo toga možemo da dobijemo
01:01
from this massiveмасивни analysisанализа of personalлични informationинформације,
20
49440
2446
od ove masivne analize ličnih podataka,
01:03
or bigвелики dataподаци,
21
51886
1946
ili "velikih podataka",
01:05
but there are alsoтакође complexкомплекс tradeoffskompromise that come
22
53832
2638
ali odavanjem svoje privatnosti
01:08
from givingдавање away our privacyprivatnost.
23
56470
3098
stupamo u kompleksnu razmenu.
01:11
And my storyприча is about these tradeoffskompromise.
24
59568
4023
Priča koju vam pričam
je upravo o toj razmeni.
01:15
We startпочетак with an observationпосматрање whichкоја, in my mindум,
25
63591
2584
Počinjemo sa opservacijom koja je,
po meni,
01:18
has becomeпостати clearerjasnije and clearerjasnije in the pastпрошлост fewнеколико yearsгодине,
26
66175
3327
postala sve jasnija u poslednjih
nekoliko godina,
01:21
that any personalлични informationинформације
27
69502
2097
da bilo koja lična informacija
01:23
can becomeпостати sensitiveосетљив informationинформације.
28
71599
2285
lako može postati osetljiva informacija.
01:25
Back in the yearгодине 2000, about 100 billionмилијарде photosфотографије
29
73884
4125
2000. godine je slikano
oko 100 milijardi fotografija
01:30
were shotпуцањ worldwideширом света,
30
78009
1912
širom sveta,
01:31
but only a minusculeminijaturno proportionпропорције of them
31
79921
3065
ali je samo mali deo njih
01:34
were actuallyзаправо uploadedуплоадед onlineонлине.
32
82986
1883
postavljen na internet.
01:36
In 2010, only on FacebookFacebook, in a singleједно monthмесец дана,
33
84869
3361
2010, samo na Fejsbuk
tokom jednog meseca
01:40
2.5 billionмилијарде photosфотографије were uploadedуплоадед,
34
88230
3270
postavljeno je 2,5 milijarde fotografija,
01:43
mostнајвише of them identifiedидентификовани.
35
91500
1882
a većina njih je bila sa identifikacijom.
01:45
In the sameисти spanспан of time,
36
93382
1880
U istom periodu,
01:47
computers'kompjutera abilityспособност to recognizeпрепознати people in photosфотографије
37
95262
4870
mogućnost kompjutera
da prepoznaje ljude na slikama
01:52
improvedпобољшано by threeтри ordersнаруџбе of magnitudeвеличина.
38
100132
3608
se povećala tri puta.
01:55
What happensсе дешава when you combineкомбиновати
39
103740
1882
Šta se dešava kad kombinujemo
01:57
these technologiesтехнологије togetherзаједно:
40
105622
1501
ove tehnologije:
01:59
increasingповећање availabilityRaspoloživost of facialtretman lica dataподаци;
41
107123
2658
uvećanu dostupnost facijalnih podataka,
02:01
improvingпобољшање facialtretman lica recognizingпрепознаје abilityспособност by computersрачунари;
42
109781
3648
povećanu sposobnost kompjutera
da prepoznaju lica,
02:05
but alsoтакође cloudоблак computingрад на рачунару,
43
113429
2182
ali i informacije u oblaku,
02:07
whichкоја givesдаје anyoneбило ко in this theaterтеатар
44
115611
1888
što svakome u ovoj prostoriji
02:09
the kindкинд of computationalрачунарски powerмоћ
45
117499
1560
daje moć računara
02:11
whichкоја a fewнеколико yearsгодине agoпре was only the domainдомена
46
119059
1886
koja je do pre nekoliko godina
bila svojstvena
02:12
of three-lettertri slova agenciesагенције;
47
120945
1782
samo agencijama
sa troslovnim akronimom;
02:14
and ubiquitousсвеприсутан computingрад на рачунару,
48
122727
1378
i sveprisutno korišćenje računara,
02:16
whichкоја allowsомогућава my phoneтелефон, whichкоја is not a supercomputerсуперкомпјутер,
49
124105
2892
koje dozvoljava mom telefonu,
koji nije superkompjuter,
02:18
to connectцоннецт to the InternetInternet
50
126997
1671
da se poveže na internet
02:20
and do there hundredsстотине of thousandsхиљаде
51
128668
2334
i obavlja stotine hiljada
02:23
of faceлице metricsMetrika in a fewнеколико secondsсекунде?
52
131002
2639
prepoznavanja lica u nekoliko sekundi?
02:25
Well, we conjecturepretpostavkama that the resultрезултат
53
133641
2628
Pa, nagađamo da će rezultat
02:28
of this combinationкомбинација of technologiesтехнологије
54
136269
2064
ove kombinacije tehnologija
02:30
will be a radicalрадикалан changeпромена in our very notionsпојмове
55
138333
2888
uneti radikalnu promenu
u našim shvatanjima
02:33
of privacyprivatnost and anonymityанонимност.
56
141221
2257
privatnosti i anonimnosti.
02:35
To testтест that, we did an experimentексперимент
57
143478
1993
Da bismo to testirali,
sproveli smo eksperiment
02:37
on CarnegieCarnegie MellonMellon UniversityUniverzitet campusкампус.
58
145471
2121
na kampusu Karnegi Melon univerziteta.
02:39
We askedпитао studentsстуденти who were walkingХодање by
59
147592
2099
Zamolili smo studente u prolazu
02:41
to participateучествовати in a studyстудија,
60
149691
1779
da učestvuju u ispitivanju,
02:43
and we tookузела a shotпуцањ with a webcamWeb kamera,
61
151470
2562
fotografisali smo ih veb kamerom
02:46
and we askedпитао them to fillпопуните out a surveyанкета on a laptopлап топ.
62
154032
2782
i zamolili ih da na laptopu
popune jedan upitnik.
02:48
While they were fillingпуњење out the surveyанкета,
63
156814
1979
Dok su to radili,
mi smo ubacili njihovu fotografiju
na računarsku mrežu u oblaku
02:50
we uploadedуплоадед theirњихова shotпуцањ to a cloud-computingCloud computing clusterкластер,
64
158793
2797
02:53
and we startedпочела usingКористећи a facialtretman lica recognizerProgram za prepoznavanje
65
161590
1727
i pokrenuli program prepoznavanja lica
02:55
to matchутакмица that shotпуцањ to a databaseбаза података
66
163317
2405
kako bismo povezali tu fotografiju
02:57
of some hundredsстотине of thousandsхиљаде of imagesслике
67
165722
2393
sa bazom od stotina hiljada slika
03:00
whichкоја we had downloadedпреузете from FacebookFacebook profilesProfili.
68
168115
3596
koje smo poskidali sa Fejsbuk profila.
03:03
By the time the subjectпредмет reachedдостигао the last pageстрана
69
171711
3259
Do trenutka kada je ispitanik
stigao do poslednje strane upitnika,
03:06
on the surveyанкета, the pageстрана had been dynamicallydinamički updatedажурирано
70
174970
3347
stranica je automatski ažurirana
03:10
with the 10 bestнајбоље matchingPodudaranje photosфотографије
71
178317
2313
sa deset najpribližnijih fotografija
03:12
whichкоја the recognizerProgram za prepoznavanje had foundнашао,
72
180630
2285
koje je program pronašao,
03:14
and we askedпитао the subjectsпредмети to indicateиндицирајте
73
182915
1738
i zamolili smo ispitanike da naznače
03:16
whetherда ли је he or she foundнашао themselvesсами in the photoфотографија.
74
184653
4120
ako su se prepoznali na fotografijama.
03:20
Do you see the subjectпредмет?
75
188773
3699
Da li vidite ispitanika?
03:24
Well, the computerрачунар did, and in factчињеница did so
76
192472
2845
Pa, računar je video,
03:27
for one out of threeтри subjectsпредмети.
77
195317
2149
u stvari uspeo je u jednom od tri slučaja.
03:29
So essentiallyУ суштини, we can startпочетак from an anonymousанонимно faceлице,
78
197466
3184
U osnovi, možemo početi od anonimnog lica,
03:32
offlineодсутан or onlineонлине, and we can use facialtretman lica recognitionпризнање
79
200650
3484
na internetu ili van njega,
i možemo koristiti prepoznavanje lica
03:36
to give a nameиме to that anonymousанонимно faceлице
80
204134
2360
da imenujemo to nepoznato lice
03:38
thanksХвала to socialсоцијално mediaмедији dataподаци.
81
206494
2108
zahvaljujući podacima
sa društvenih medija.
03:40
But a fewнеколико yearsгодине back, we did something elseдруго.
82
208602
1872
Ali nekoliko godina ranije,
uradili smo nešto drugo.
03:42
We startedпочела from socialсоцијално mediaмедији dataподаци,
83
210474
1823
Počeli smo od podataka
sa društvenih medija,
03:44
we combinedкомбиновано it statisticallyстатистички with dataподаци
84
212297
3051
pomešali ih statistički sa podacima
03:47
from U.S. governmentвлада socialсоцијално securityсигурност,
85
215348
2102
iz socijalnog osiguranja vlade SAD-a,
03:49
and we endedзавршио up predictingпредвиђање socialсоцијално securityсигурност numbersбројеви,
86
217450
3324
i na kraju smo predviđali
brojeve socijalnog osiguranja,
03:52
whichкоја in the UnitedUjedinjeni StatesDržava
87
220774
1512
koji su u Sjedinjenim Državama
03:54
are extremelyизузетно sensitiveосетљив informationинформације.
88
222286
2040
izuzetno osetljiva informacija.
03:56
Do you see where I'm going with this?
89
224326
2093
Da li primećujete kuda idem s ovim?
03:58
So if you combineкомбиновати the two studiesстудије togetherзаједно,
90
226419
2922
Dakle, ako spojite ta dva istraživanja,
04:01
then the questionпитање becomesпостаје,
91
229341
1512
onda pitanje postaje,
04:02
can you startпочетак from a faceлице and,
92
230853
2720
možete li početi od lica
04:05
usingКористећи facialtretman lica recognitionпризнање, find a nameиме
93
233573
2311
i koristeći prepoznavanje lica,
pronaći ime
04:07
and publiclyjavno availableдоступан informationинформације
94
235884
2669
i javno dostupne informacije
04:10
about that nameиме and that personособа,
95
238553
1932
o tom imenu i toj osobi,
04:12
and from that publiclyjavno availableдоступан informationинформације
96
240485
2248
i iz tih javno dostupnih informacija
04:14
inferodredi non-publiclykoje nisu javno availableдоступан informationинформације,
97
242733
2042
izvući one koje nisu javno dostupne,
04:16
much more sensitiveосетљив onesоне
98
244775
1606
one mnogo osetljivije,
04:18
whichкоја you linkлинк back to the faceлице?
99
246381
1492
koje možete povezati sa tim licem?
04:19
And the answerодговор is, yes, we can, and we did.
100
247873
1916
Odgovor je da, možemo, i to smo i uradili.
04:21
Of courseкурс, the accuracyтачност keepsзадржава gettingдобијања worseгоре.
101
249789
2568
Naravno, preciznost se smanjuje.
04:24
[27% of subjects'subjekti' first 5 SSNSSN digitscifre identifiedидентификовани (with 4 attemptsпокушаји)]
102
252357
944
[4 pokušaja; identifikovano prvih 5 cifara
broja SO kod 27% ispitanika]
04:25
But in factчињеница, we even decidedодлучио to developразвити an iPhoneiPhone appапликација
103
253301
3827
Ali odlučili smo i da razvijemo aplikaciju
04:29
whichкоја usesкористи the phone'sтелефон internalинтерни cameraКамера
104
257128
2715
koja koristi ugrađenu telefonsku kameru
04:31
to take a shotпуцањ of a subjectпредмет
105
259843
1600
da fotografiše ispitanika
04:33
and then uploadотпремити it to a cloudоблак
106
261443
1487
i potom ubaci sliku na oblak
04:34
and then do what I just describedописани to you in realправи time:
107
262930
2662
i uradi u realnom vremenu
ono što sam vam opisao:
04:37
looking for a matchутакмица, findingпроналажење publicјавно informationинформације,
108
265592
2088
traži podudaranje,
nalazi javne informacije,
04:39
tryingпокушавајући to inferodredi sensitiveосетљив informationинформације,
109
267680
1730
pokušava da otkrije osetljive informacije,
04:41
and then sendingслање back to the phoneтелефон
110
269410
2591
i šalje sve nazad telefonu
04:44
so that it is overlaidizuzeli on the faceлице of the subjectпредмет,
111
272001
3609
tako da se prikaže preko lica ispitanika,
04:47
an exampleпример of augmentedувећан realityреалност,
112
275610
1901
kao proširena stvarnost,
04:49
probablyвероватно a creepyjezivo exampleпример of augmentedувећан realityреалност.
113
277511
2451
verovatno jezivi primer
proširene stvarnosti.
04:51
In factчињеница, we didn't developразвити the appапликација to make it availableдоступан,
114
279962
3339
Zapravo, nismo razvili aplikaciju
koja bi bila dostupna,
04:55
just as a proofдоказ of conceptконцепт.
115
283301
1922
nego samo kao dokaz ideje.
04:57
In factчињеница, take these technologiesтехнологије
116
285223
2313
U stvari, uzmite ove tehnologije
04:59
and pushпусх them to theirњихова logicalлогичан extremeекстремно.
117
287536
1837
i gurnite ih
do njihovog logičnog ekstrema.
05:01
ImagineZamislite a futureбудућност in whichкоја strangersстранци around you
118
289373
2719
Zamislite budućnost
u kojoj će vas stranci u okolini
05:04
will look at you throughкроз theirњихова GoogleGoogle GlassesČaše
119
292092
2311
gledati kroz Gugl naočare,
05:06
or, one day, theirњихова contactконтакт lensesсочива,
120
294403
2307
ili jednog dana kroz kontaktna sočiva,
05:08
and use sevenседам or eightосам dataподаци pointsбодова about you
121
296710
4020
i koristiti sedam ili osam podataka o vama
05:12
to inferodredi anything elseдруго
122
300730
2582
da pronađu bilo šta
05:15
whichкоја mayможе be knownпознат about you.
123
303312
2603
što je možda o vama poznato.
05:17
What will this futureбудућност withoutбез secretsтајне look like?
124
305915
4794
Kako će izgledati ta budućnost bez tajni?
05:22
And should we careнега?
125
310709
1964
I da li bi trebalo da nas je briga?
05:24
We mayможе like to believe
126
312673
1891
Možda nam se sviđa da verujemo
05:26
that the futureбудућност with so much wealthбогатство of dataподаци
127
314564
3040
da će ta budućnost sa obiljem podataka
05:29
would be a futureбудућност with no more biasesпредрасуде,
128
317604
2514
biti nepolarizovana budućnost,
05:32
but in factчињеница, havingимати so much informationинформације
129
320118
3583
ali zapravo,
posedovanje toliko informacija
05:35
doesn't mean that we will make decisionsОдлуке
130
323701
2191
ne znači da ćemo donositi
objektivnije odluke.
05:37
whichкоја are more objectiveобјективан.
131
325892
1706
05:39
In anotherдруги experimentексперимент, we presentedпредстављен to our subjectsпредмети
132
327598
2560
U jednom drugom eksperimentu,
ispitanicima smo predstavili
05:42
informationинформације about a potentialпотенцијал jobпосао candidatekandidat.
133
330158
2246
informacije o potencijalnom
kandidatu za posao.
05:44
We includedукључени in this informationинформације some referencesреференце
134
332404
3178
Tu smo uključili i neke
05:47
to some funnyсмешно, absolutelyапсолутно legalправни,
135
335582
2646
zabavne, potpuno legalne,
05:50
but perhapsможда slightlyмало embarrassingsramotno informationинформације
136
338228
2465
ali možda donekle
ponižavajuće informacije
05:52
that the subjectпредмет had postedобјављено onlineонлине.
137
340693
2020
koje je subjekat postavio na internet.
05:54
Now interestinglyзанимљиво, amongмеђу our subjectsпредмети,
138
342713
2366
Zanimljivo je da su neki ispitanici
05:57
some had postedобјављено comparableупоредив informationинформације,
139
345079
3083
postavili slične informacije,
06:00
and some had not.
140
348162
2362
a drugi nisu.
06:02
WhichŠto groupгрупа do you think
141
350524
1949
Šta mislite, koja grupa
06:04
was more likelyвероватно to judgeсудија harshlyoštro our subjectпредмет?
142
352473
4552
je bila sklonija
da oštro prosuđuje o našem subjektu?
06:09
ParadoxicallyParadoksalno, it was the groupгрупа
143
357025
1957
Paradoksalno, ona grupa
06:10
who had postedобјављено similarслично informationинформације,
144
358982
1733
koja je postavila slične informacije,
06:12
an exampleпример of moralморално dissonancekonflikt.
145
360715
2942
to je primer moralne disonance.
06:15
Now you mayможе be thinkingразмишљање,
146
363657
1750
Možda mislite
06:17
this does not applyприменити to me,
147
365407
1702
da se to ne odnosi na vas,
06:19
because I have nothing to hideсакрити.
148
367109
2162
jer nemate šta da krijete.
06:21
But in factчињеница, privacyprivatnost is not about
149
369271
2482
Ali u stvari, kod privatnosti
06:23
havingимати something negativeнегативно to hideсакрити.
150
371753
3676
se ne radi o tome
da krijete nešto negativno.
06:27
ImagineZamislite that you are the H.R. directorдиректор
151
375429
2354
Zamislite da ste direktor
odeljenja za ljudske resurse
06:29
of a certainизвестан organizationорганизација, and you receiveпримитиsumсумés,
152
377783
2947
u nekoj organizaciji i primate biografije,
06:32
and you decideодлучити to find more informationинформације about the candidateskandidati.
153
380730
2473
i odlučite da pronađete
više informacija o kandidatima.
06:35
ThereforeZbog toga, you GoogleGoogle theirњихова namesимена
154
383203
2460
Ukucate njihova imena u Gugl,
06:37
and in a certainизвестан universeуниверзум,
155
385663
2240
i u nekom univerzumu,
06:39
you find this informationинформације.
156
387903
2008
pronađete ovu informaciju.
06:41
Or in a parallelпаралелно universeуниверзум, you find this informationинформације.
157
389911
4437
Ili u nekom paralelnom univerzumu,
pronađete ovu informaciju.
06:46
Do you think that you would be equallyподједнако likelyвероватно
158
394348
2717
Da li mislite da biste podjednako
bili skloni
06:49
to call eitherили candidatekandidat for an interviewинтервју?
159
397065
2803
da pozovete jednog
od ova dva kandidata na razgovor?
06:51
If you think so, then you are not
160
399868
2282
Ako to mislite, onda se razlikujete
06:54
like the U.S. employersposlodavci who are, in factчињеница,
161
402150
2582
od poslodavaca u SAD-u,
koji su u stvari
06:56
partдео of our experimentексперимент, meaningзначење we did exactlyбаш тако that.
162
404732
3307
deo našeg eksperimenta,
znači da smo upravo to uradili.
07:00
We createdстворено FacebookFacebook profilesProfili, manipulatingманипулисање traitsособине,
163
408039
3182
Napravili smo profile na Fejsbuku,
izmislili osobine,
07:03
then we startedпочела sendingслање out résumсумés to companiesкомпаније in the U.S.,
164
411221
2851
a potom smo počeli da šaljemo biografije
kompanijama u SAD,
07:06
and we detectedotkriven je, we monitorednadziru,
165
414072
1908
i pratili smo
07:07
whetherда ли је they were searchingпретраживање for our candidateskandidati,
166
415980
2393
da li proveravaju naše kandidate
07:10
and whetherда ли је they were actingглума on the informationинформације
167
418373
1832
i da li reaguju na informacije
koje nalaze na društvenim medijima.
07:12
they foundнашао on socialсоцијално mediaмедији. And they were.
168
420205
1938
I reagovali su.
07:14
DiscriminationDiskriminacije was happeningдогађај throughкроз socialсоцијално mediaмедији
169
422143
2101
Kroz društvene medije,
kandidati istih veština
07:16
for equallyподједнако skilledквалификован candidateskandidati.
170
424244
3073
bili su diskriminisani.
07:19
Now marketersмаркетинга like us to believe
171
427317
4575
Marketari bi želeli da verujemo
07:23
that all informationинформације about us will always
172
431892
2269
kako će sve informacije o nama
07:26
be used in a mannerманир whichкоја is in our favorфавор.
173
434161
3273
uvek biti korišćene u našu korist.
07:29
But think again. Why should that be always the caseслучај?
174
437434
3715
Razmislite još jednom.
Zašto bi to uvek bilo tako?
07:33
In a movieфилм whichкоја cameДошао out a fewнеколико yearsгодине agoпре,
175
441149
2664
U jednom filmu od pre nekoliko godina,
07:35
"MinorityManjina ReportIzveštaj," a famousпознат sceneсцена
176
443813
2553
"Suvišni izveštaj", u poznatoj sceni
07:38
had TomToma CruiseKrstarenje walkходати in a mallтржни центар
177
446366
2576
Tom Kruz ulazi u tržni centar
07:40
and holographicHolografski personalizedpersonalizovane advertisingоглашавање
178
448942
3776
i holografske personalizovane reklame
07:44
would appearпојавити around him.
179
452718
1835
se pojavljuju oko njega.
07:46
Now, that movieфилм is setкомплет in 2054,
180
454553
3227
Radnja tog filma smeštena je u 2054,
07:49
about 40 yearsгодине from now,
181
457780
1642
oko 40 godina od danas,
07:51
and as excitingузбудљиво as that technologyтехнологија looksизглед,
182
459422
2908
i koliko god ta tehnologija
uzbudljivo izgledala,
07:54
it alreadyвећ vastlyогромно underestimatespodcenjuje
183
462330
2646
ona već izuzetno potcenjuje
07:56
the amountизнос of informationинформације that organizationsорганизације
184
464976
2140
količinu informacija koje organizacije
07:59
can gatherскупити about you, and how they can use it
185
467116
2483
mogu da skupe o vama,
i kako mogu da ih koriste
08:01
to influenceутицај you in a way that you will not even detectоткрити.
186
469599
3398
da utiču na vas na načine
koje nećete ni primetiti.
08:04
So as an exampleпример, this is anotherдруги experimentексперимент
187
472997
2103
Kao ilustracija,
ovo je još jedan eksperiment
08:07
actuallyзаправо we are runningтрчање, not yetјош увек completedзавршено.
188
475100
2273
koji sprovodimo, koji nije još završen.
08:09
ImagineZamislite that an organizationорганизација has accessприступ
189
477373
2319
Zamislite da neka organizacija ima pristup
08:11
to your listлиста of FacebookFacebook friendsпријатељи,
190
479692
2056
listi vaših Fejsbuk prijatelja,
08:13
and throughкроз some kindкинд of algorithmalgoritam
191
481748
1772
i preko nekakvog algoritma
08:15
they can detectоткрити the two friendsпријатељи that you like the mostнајвише.
192
483520
3734
može da otkrije
vaša dva najdraža prijatelja.
08:19
And then they createстворити, in realправи time,
193
487254
2280
I potom u realnom vremenu kreira
08:21
a facialtretman lica compositeкомпозитни of these two friendsпријатељи.
194
489534
2842
lice od sklopa lica ta dva prijatelja.
08:24
Now studiesстудије priorпре to oursнаша have shownпоказано that people
195
492376
3069
E sad, studije pre naše su dokazale
08:27
don't recognizeпрепознати any longerдуже even themselvesсами
196
495445
2885
da u takvim sklopovima
ljudi više ne prepoznaju ni sebe,
08:30
in facialtretman lica compositesкомпозити, but they reactреаговати
197
498330
2462
ali reaguju pozitivno na njih.
08:32
to those compositesкомпозити in a positiveпозитивно mannerманир.
198
500792
2117
08:34
So nextследећи time you are looking for a certainизвестан productпроизвод,
199
502909
3415
Sledeći put kad budete tražili
neki proizvod,
08:38
and there is an adад suggestingсугеришући you to buyкупити it,
200
506324
2559
i pojavi se oglas
koji vam sugeriše da ga kupite,
08:40
it will not be just a standardстандард spokespersonPortparol.
201
508883
2907
to neće biti neki standardni prodavac.
08:43
It will be one of your friendsпријатељи,
202
511790
2313
Biće to jedan od vaših prijatelja,
08:46
and you will not even know that this is happeningдогађај.
203
514103
3303
a vi nećete ni znati da se to dešava.
08:49
Now the problemпроблем is that
204
517406
2413
Problem je u tome
08:51
the currentТренутни policyполитика mechanismsмеханизми we have
205
519819
2519
što trenutni mehanizmi zaštite
08:54
to protectзаштитити ourselvesсами from the abuseszloupotreba of personalлични informationинформације
206
522338
3438
protiv zloupotrebe ličnih informacija
08:57
are like bringingдоносећи a knifeнож to a gunfightvatreno oružje.
207
525776
2984
liče na srljanje grlom u jagode.
09:00
One of these mechanismsмеханизми is transparencyтранспарентност,
208
528760
2913
Jedan od tih mehanizama
je transparentnost,
09:03
tellingговорећи people what you are going to do with theirњихова dataподаци.
209
531673
3200
obaveštavanje ljudi o tome
šta ćete uraditi s njihovim podacima.
09:06
And in principleпринцип, that's a very good thing.
210
534873
2106
U osnovi je to veoma dobra stvar.
09:08
It's necessaryнеопходно, but it is not sufficientdovoljne.
211
536979
3667
Neophodna je, ali nije dovoljna.
09:12
TransparencyTransparentnost can be misdirectedpogrešno.
212
540646
3698
Transparentnost može biti
pogrešno usmerena.
09:16
You can tell people what you are going to do,
213
544344
2104
Možete reći ljudima šta ćete uraditi,
09:18
and then you still nudgeguranje them to discloseotkriti
214
546448
2232
i onda ih ipak navesti da otkriju
09:20
arbitraryпроизвољан amountsизноси of personalлични informationинформације.
215
548680
2623
proizvoljne količine ličnih informacija.
09:23
So in yetјош увек anotherдруги experimentексперимент, this one with studentsстуденти,
216
551303
2886
U još jednom eksperimentu,
ovaj put sa studentima,
09:26
we askedпитао them to provideпружити informationинформације
217
554189
3058
tražili smo da daju informacije
09:29
about theirњихова campusкампус behaviorпонашање,
218
557247
1813
o svom ponašanju na kampusu,
09:31
includingукључујући prettyприлично sensitiveосетљив questionsпитања, suchтаква as this one.
219
559060
2940
uključujući i dosta osetljiva pitanja,
poput ovog:
[Da li ste ikad varali na ispitu?]
09:34
[Have you ever cheatedпреварен in an examispit?]
220
562000
621
09:34
Now to one groupгрупа of subjectsпредмети, we told them,
221
562621
2300
Jednoj grupi studenata smo rekli:
09:36
"Only other studentsстуденти will see your answersодговори."
222
564921
2841
"Vaše odgovore će videti
samo drugi studenti".
09:39
To anotherдруги groupгрупа of subjectsпредмети, we told them,
223
567762
1579
Drugoj grupi studenata smo rekli:
09:41
"StudentsStudenti and facultyфакултет will see your answersодговори."
224
569341
3561
"Vaše odgovore će videti
studenti i nastavno osoblje".
09:44
TransparencyTransparentnost. NotificationObavijesti. And sure enoughдовољно, this workedрадио је,
225
572902
2591
Transparentnost. Obaveštenje.
I ovo je upalilo,
09:47
in the senseсмисао that the first groupгрупа of subjectsпредмети
226
575493
1407
u smislu da je prva grupa studenata
09:48
were much more likelyвероватно to discloseotkriti than the secondдруго.
227
576900
2568
bila spremnija da odgovori od druge.
09:51
It makesчини senseсмисао, right?
228
579468
1520
Ima smisla, zar ne?
09:52
But then we addedдодато the misdirectionOdvlaиenjem paћnje.
229
580988
1490
Ali onda amo dodali
obmanjujuće uputstvo.
09:54
We repeatedпоновио the experimentексперимент with the sameисти two groupsгрупе,
230
582478
2760
Ponovili smo eksperiment
sa iste dve grupe,
09:57
this time addingдодавање a delayкашњење
231
585238
2427
ovog puta dodajući vreme
09:59
betweenизмеђу the time we told subjectsпредмети
232
587665
2935
između trenutka kad ih obaveštavamo
10:02
how we would use theirњихова dataподаци
233
590600
2080
na koji način ćemo koristiti
njihove podatke
10:04
and the time we actuallyзаправо startedпочела answeringодговарајући the questionsпитања.
234
592680
4388
i trenutka kad počinjemo
da odgovaramo na pitanja.
10:09
How long a delayкашњење do you think we had to addдодати
235
597068
2561
Šta mislite, koliko vremena
smo morali da dodamo
10:11
in orderнаручи to nullifyPoništi the inhibitoryinhibitorni effectефекат
236
599629
4613
da bismo poništili inhibitorni efekat
10:16
of knowingзнајући that facultyфакултет would see your answersодговори?
237
604242
3411
saznanja da će nastavno osoblje
videti vaše odgovore?
10:19
TenDeset minutesминута?
238
607653
1780
Deset minuta?
10:21
FivePet minutesминута?
239
609433
1791
Pet minuta?
10:23
One minuteминута?
240
611224
1776
Minut?
10:25
How about 15 secondsсекунде?
241
613000
2049
Kako zvuči 15 sekundi?
10:27
FifteenPetnaest godina secondsсекунде were sufficientdovoljne to have the two groupsгрупе
242
615049
2668
15 sekundi je bilo dovoljno da obe grupe
10:29
discloseotkriti the sameисти amountизнос of informationинформације,
243
617717
1568
otkriju istu količinu informacija,
10:31
as if the secondдруго groupгрупа now no longerдуже caresбрине
244
619285
2746
kao da drugoj grupi više nije važno
10:34
for facultyфакултет readingчитање theirњихова answersодговори.
245
622031
2656
što će nastavno osoblje
čitati njihove odgovore.
10:36
Now I have to admitпризнајем that this talk so farдалеко
246
624687
3336
Moram da priznam
da ovaj govor do sada
zvuči izuzetno mračno,
10:40
mayможе soundзвук exceedinglyizuzetno gloomysumoran,
247
628023
2480
10:42
but that is not my pointтачка.
248
630503
1721
ali to mi nije cilj.
10:44
In factчињеница, I want to shareОбјави with you the factчињеница that
249
632224
2699
Zapravo, želim sa vama
da podelim činjenicu
10:46
there are alternativesalternative.
250
634923
1772
da postoje alternative.
10:48
The way we are doing things now is not the only way
251
636695
2499
Način na koji sada radimo
10:51
they can doneГотово, and certainlyсигурно not the bestнајбоље way
252
639194
3037
nije jedini i sigurno nije najbolji.
10:54
they can be doneГотово.
253
642231
2027
10:56
When someoneнеко tellsкаже you, "People don't careнега about privacyprivatnost,"
254
644258
4171
Kada vam neko kaže
da ljudima nije stalo do privatnosti,
11:00
considerразмотрити whetherда ли је the gameигра has been designedдизајниран
255
648429
2642
razmislite o tome da je igra osmišljena
11:03
and riggedопремљени so that they cannotне може careнега about privacyprivatnost,
256
651071
2724
i napravljena tako
da ne mogu da brinu o privatnosti,
11:05
and comingдолазе to the realizationrealizacija that these manipulationsmanipulacije occurпојавити
257
653795
3262
i shvatanje da se ovakve manipulacije
dešavaju,
11:09
is alreadyвећ halfwayна пола пута throughкроз the processпроцес
258
657057
1607
je već polovina pređenog puta
11:10
of beingбиће ableу могуцности to protectзаштитити yourselfсами.
259
658664
2258
u procesu da se zaštitite.
11:12
When someoneнеко tellsкаже you that privacyprivatnost is incompatiblenije kompatibilan
260
660922
3710
Kada vam neko kaže da se privatnost
ne slaže sa koristima "velikih podataka",
11:16
with the benefitsПредности of bigвелики dataподаци,
261
664632
1849
11:18
considerразмотрити that in the last 20 yearsгодине,
262
666481
2473
uzmite u obzir da su
u poslednjih 20 godina
11:20
researchersистраживачи have createdстворено technologiesтехнологије
263
668954
1917
istraživači stvorili tehnologije
11:22
to allowдозволите virtuallyпрактично any electronicелектронски transactionstransakcije
264
670871
3318
koje dozvoljavaju da se skoro svaka
elektronska transakcija izvrši
11:26
to take placeместо in a more privacy-preservingočuvanje privatnosti mannerманир.
265
674189
3749
na način koji omogućava
bolje čuvanje privatnosti.
11:29
We can browsePotraži the InternetInternet anonymouslyanonimno.
266
677938
2555
Možemo anonimno da pretražujemo internet.
11:32
We can sendпошаљи emailsемаилс that can only be readчитати
267
680493
2678
Možemo da šaljemo imejlove
koje može da pročita
11:35
by the intendedнамењен recipientprimalac, not even the NSANSA.
268
683171
3709
samo primalac, ali ne i NSA.
11:38
We can have even privacy-preservingočuvanje privatnosti dataподаци miningРударство.
269
686880
2997
Možemo čak i da prikupljamo podatke
uz očuvanje privatnosti.
11:41
In other wordsречи, we can have the benefitsПредности of bigвелики dataподаци
270
689877
3894
Drugim rečima, možemo imati koristi
od "velikih podataka"
11:45
while protectingзаштита privacyprivatnost.
271
693771
2132
uz očuvanje privatnosti.
11:47
Of courseкурс, these technologiesтехнологије implyimpliciraju a shiftingпомерање
272
695903
3791
Naravno, ove tehnologije
nagoveštavaju promenu troškova i zarade
11:51
of costтрошак and revenuesprihodi
273
699694
1546
11:53
betweenизмеђу dataподаци holdersдржаче and dataподаци subjectsпредмети,
274
701240
2107
između onih koji imaju
i onih koji traže podatke,
11:55
whichкоја is why, perhapsможда, you don't hearчујеш more about them.
275
703347
3453
što je verovatno razlog
zašto ne znate više o njima.
11:58
WhichŠto bringsдоноси me back to the GardenVrt of EdenEden.
276
706800
3706
I to me vraća rajskom vrtu.
12:02
There is a secondдруго privacyprivatnost interpretationinterpretacija
277
710506
2780
Postoji i druga interpretacija privatnosti
12:05
of the storyприча of the GardenVrt of EdenEden
278
713286
1809
u priči o rajskom vrtu,
12:07
whichкоја doesn't have to do with the issueпитање
279
715095
2096
koja ne mora biti u vezi sa činjenicom
12:09
of AdamAdam and EveEve feelingОсећај nakedгола
280
717191
2225
da se Adam i Eva osećaju
golo i posramljeno.
12:11
and feelingОсећај ashamedсрам.
281
719416
2381
12:13
You can find echoesехо of this interpretationinterpretacija
282
721797
2781
Odjeke ove interpretacije možete naći
12:16
in JohnJohn Milton'sMiltonovo "ParadiseRaj LostIzgubio."
283
724578
2782
u "Izgubljenom raju", Džona Miltona.
12:19
In the gardenврт, AdamAdam and EveEve are materiallymaterijalno contentсадржај.
284
727360
4197
U raju, Adam i Eva
su materijalno zadovoljni.
12:23
They're happyсрећан. They are satisfiedзадовољан.
285
731557
2104
Srećni su i zadovoljni.
12:25
HoweverMeđutim, they alsoтакође lackнедостатак knowledgeзнање
286
733661
2293
Međutim, nedostaje im znanje
12:27
and self-awarenessSamosvest.
287
735954
1640
i samosvest.
12:29
The momentтренутак they eatјести the aptlyprigodno namedназван
288
737594
3319
U trenutku kada pojedu
prigodno nazvano, voće znanja,
12:32
fruitвоће of knowledgeзнање,
289
740913
1293
12:34
that's when they discoverоткрити themselvesсами.
290
742206
2605
oni otkrivaju sebe.
12:36
They becomeпостати awareсвесна. They achieveпостићи autonomyautonomija.
291
744811
4031
Postaju svesni. Postižu nezavisnost.
12:40
The priceЦена to payплатите, howeverМеђутим, is leavingодлазак the gardenврт.
292
748842
3126
Međutim, cena koju plaćaju
je napuštanje raja.
12:43
So privacyprivatnost, in a way, is bothи једно и друго the meansзначи
293
751968
3881
Dakle, privatnost je i sredstvo
12:47
and the priceЦена to payплатите for freedomслобода.
294
755849
2962
i cena koja se plaća za slobodu.
12:50
Again, marketersмаркетинга tell us
295
758811
2770
Opet, stručnjaci kažu
12:53
that bigвелики dataподаци and socialсоцијално mediaмедији
296
761581
3019
da "veliki podaci" i društveni mediji
12:56
are not just a paradiseрај of profitпрофит for them,
297
764600
2979
za njih nisu samo raj profita,
12:59
but a GardenVrt of EdenEden for the restодмор of us.
298
767579
2457
nego i Rajski vrt za nas ostale.
13:02
We get freeбесплатно contentсадржај.
299
770036
1238
Dobijamo besplatan sadržaj.
13:03
We get to playигра AngryLjut BirdsPtice. We get targetedциљани appsаппс.
300
771274
3123
Možemo da igramo "Angry Birds".
Dobijamo ciljane aplikacije.
13:06
But in factчињеница, in a fewнеколико yearsгодине, organizationsорганизације
301
774397
2897
Ali u stvari, za nekoliko godina,
organizacije će znati toliko o nama,
13:09
will know so much about us,
302
777294
1609
13:10
they will be ableу могуцности to inferodredi our desiresжеље
303
778903
2710
da će biti u mogućnosti
da zaključe o našim željama
13:13
before we even formобразац them, and perhapsможда
304
781613
2204
pre nego što ih mi uobličimo,
13:15
buyкупити productsпроизводи on our behalfу име
305
783817
2447
i možda da kupuju proizvode za nas,
13:18
before we even know we need them.
306
786264
2274
pre nego što i znamo da su nam potrebni.
13:20
Now there was one Englishengleski authorаутор
307
788538
3237
Postojao je jedan engleski autor
13:23
who anticipatedочекивано this kindкинд of futureбудућност
308
791775
3045
koji je predvideo ovakvu budućnost
13:26
where we would tradeтрговина away
309
794820
1405
gde menjamo svoju autonomiju i slobodu
13:28
our autonomyautonomija and freedomслобода for comfortудобност.
310
796225
3548
za udobnost.
13:31
Even more so than GeorgeGeorge OrwellOrvel,
311
799773
2161
Čak i više nego Džordž Orvel,
13:33
the authorаутор is, of courseкурс, AldousAldous HuxleyHuxley.
312
801934
2761
taj autor je, naravno, Oldos Haksli.
13:36
In "BraveHrabar NewNovi WorldSvet," he imagineszamišlja a societyдруштво
313
804695
2854
U "Vrlom novom svetu"
on predstavlja društvo
13:39
where technologiesтехнологије that we createdстворено
314
807549
2171
gde nas tehnologije,
13:41
originallyоригинално for freedomслобода
315
809720
1859
koje smo stvorili pre svega za slobodu,
13:43
endкрај up coercingiznuda us.
316
811579
2567
na kraju zarobe.
13:46
HoweverMeđutim, in the bookкњига, he alsoтакође offersнуди us a way out
317
814146
4791
Međutim, on u knjizi nudi
i izlaz iz takvog društva,
13:50
of that societyдруштво, similarслично to the pathпут
318
818937
3438
sličan putu
13:54
that AdamAdam and EveEve had to followпратити to leaveодлази the gardenврт.
319
822375
3955
kojim su Adam i Eva morali da krenu
da bi izašli iz vrta.
13:58
In the wordsречи of the SavageDivljak,
320
826330
2147
Prema rečima Divljaka,
14:00
regainingponovno sticanje autonomyautonomija and freedomслобода is possibleмогуће,
321
828477
3069
moguće je povratiti autonomiju i slobodu,
14:03
althoughиако the priceЦена to payплатите is steepстрм.
322
831546
2679
ali je cena koja se plaća visoka.
14:06
So I do believe that one of the definingдефинисање fightsборбе
323
834225
5715
Verujem da će jedna od definišućih borbi
našeg vremena
14:11
of our timesпута will be the fightборба
324
839940
2563
biti borba
14:14
for the controlконтрола over personalлични informationинформације,
325
842503
2387
za kontrolu naših ličnih informacija,
14:16
the fightборба over whetherда ли је bigвелики dataподаци will becomeпостати a forceсила
326
844890
3507
borba oko pitanja da li će "veliki podaci"
biti sila slobode
14:20
for freedomслобода,
327
848397
1289
14:21
ratherприлично than a forceсила whichкоја will hiddenlyhiddenly manipulateманипулирати us.
328
849686
4746
ili sila koja će u potaji
manipulisati nama.
14:26
Right now, manyмноги of us
329
854432
2593
Trenutno, mnogi od nas
14:29
do not even know that the fightборба is going on,
330
857025
2753
ni ne znaju da se vodi borba,
14:31
but it is, whetherда ли је you like it or not.
331
859778
2672
ali vodi se, sviđalo vam se to ili ne.
14:34
And at the riskризик of playingиграње the serpentzmija,
332
862450
2804
Uz rizik da preuzmem ulogu zmije,
14:37
I will tell you that the toolsалати for the fightборба
333
865254
2897
reći ću vam da su alati te borbe ovde,
14:40
are here, the awarenessсвесност of what is going on,
334
868151
3009
svest o tome šta se dešava,
14:43
and in your handsруке,
335
871160
1355
i u vašim rukama,
14:44
just a fewнеколико clicksкликова away.
336
872515
3740
na samo nekoliko klikova od vas.
14:48
Thank you.
337
876255
1482
Hvala.
14:49
(ApplauseAplauz)
338
877737
4477
(Aplauz)
Translated by Ivana Korom
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com