ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Dlaczego prywatność ma znaczenie

Filmed:
1,423,103 views

Granica pomiędzy sferą publiczną i prywatną rozmyła się w ostatnich 10 latach, zarówno w internecie, jak i realnym życiu. Alessandro Acquisti tłumaczy, co to oznacza i dlaczego ta granica jest istotna. W tym prowokującym do przemyśleń, nieco przerażającym przemówieniu, dzieli się szczegółami już przeprowadzonych i bieżących badań - między innymi projektu, który pokazał, jak łatwo jest znaleźć poufne dane osobiste na temat obcej osoby na podstawie jej zdjęcia.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyfabuła
0
641
2354
Opowiem historię,
00:14
connectingzłączony the notoriousnotoryczny privacyPrywatność incidentincydent
1
2995
3176
związaną z głośnym przypadkiem
dotyczącym prywatności
00:18
involvingangażujące AdamAdam and EveEwa,
2
6171
2769
z Adamem i Ewą w roli głównej,
00:20
and the remarkableznakomity shiftprzesunięcie in the boundariesGranic
3
8940
3446
i znaczącym przesunięciem granicy
00:24
betweenpomiędzy publicpubliczny and privateprywatny whichktóry has occurredwystąpił
4
12386
2686
pomiędzy sferą publiczną i prywatną
00:27
in the pastprzeszłość 10 yearslat.
5
15072
1770
w ciągu ostatnich 10 lat.
00:28
You know the incidentincydent.
6
16842
1298
Znacie tę historię.
00:30
AdamAdam and EveEwa one day in the GardenOgród of EdenEden
7
18140
3330
Pewnego dnia w raju, Adam i Ewa
00:33
realizerealizować they are nakednagi.
8
21470
1843
spostrzegli, że są nadzy.
00:35
They freakwybryk out.
9
23313
1500
Spanikowali.
00:36
And the restodpoczynek is historyhistoria.
10
24813
2757
Reszta jest historią.
00:39
NowadaysW dzisiejszych czasach, AdamAdam and EveEwa
11
27570
2188
Obecnie, Adam i Ewa
00:41
would probablyprawdopodobnie actdziałać differentlyróżnie.
12
29758
2361
pewnie zachowaliby się inaczej.
00:44
[@AdamAdam Last niteNite was a blastpodmuch! lovedkochany datdat applejabłko LOLLOL]
13
32119
2268
[@Adam Super ubaw wczoraj! jabłko ekstra LOL]
00:46
[@EveEwa yeptak.. babeLaska, know what happenedstało się to my pantsSpodnie thotho?]
14
34387
1873
[@Ewa no... kotku, wiesz co się stało z moimi spodniami?]
00:48
We do revealodsłonić so much more informationInformacja
15
36260
2636
Ujawniamy w internecie znacznie więcej informacji
00:50
about ourselvesmy sami onlineonline than ever before,
16
38896
3334
niż kiedyś,
00:54
and so much informationInformacja about us
17
42230
1704
a organizacje zbierają o nas
00:55
is beingistota collectedZebrane by organizationsorganizacje.
18
43934
2224
coraz więcej danych.
00:58
Now there is much to gainzdobyć and benefitzasiłek
19
46158
3282
Można wiele skorzystać
01:01
from this massivemasywny analysisanaliza of personalosobisty informationInformacja,
20
49440
2446
z masowej analizy informacji osobistych
01:03
or bigduży datadane,
21
51886
1946
i dużej ilości danych,
01:05
but there are alsorównież complexzłożony tradeoffswady i zalety that come
22
53832
2638
lecz oddawanie prywatności
01:08
from givingdający away our privacyPrywatność.
23
56470
3098
odbywa się kosztem złożonych kompromisów.
01:11
And my storyfabuła is about these tradeoffswady i zalety.
24
59568
4023
O tym jest ta historia.
01:15
We startpoczątek with an observationobserwacja whichktóry, in my mindumysł,
25
63591
2584
Zacznijmy od pewnej obserwacji, która dla mnie
01:18
has becomestają się clearerjaśniejsze and clearerjaśniejsze in the pastprzeszłość fewkilka yearslat,
26
66175
3327
stawała się coraz wyraźniejsza w ostatnich latach.
01:21
that any personalosobisty informationInformacja
27
69502
2097
Każdy rodzaj danych osobowych
01:23
can becomestają się sensitivewrażliwy informationInformacja.
28
71599
2285
może stać się informacją wrażliwą.
01:25
Back in the yearrok 2000, about 100 billionmiliard photoszdjęcia
29
73884
4125
W roku 2000 wykonano na całym świecie
01:30
were shotstrzał worldwidena calym swiecie,
30
78009
1912
około 100 miliardów zdjęć,
01:31
but only a minusculeMinuskuł proportionproporcja of them
31
79921
3065
ale tylko minimalny ich procent
01:34
were actuallytak właściwie uploadedprzesłane onlineonline.
32
82986
1883
znalazł się w Internecie.
01:36
In 2010, only on FacebookFacebook, in a singlepojedynczy monthmiesiąc,
33
84869
3361
W roku 2010 tylko na Facebooku, w ciągu miesiąca,
01:40
2.5 billionmiliard photoszdjęcia were uploadedprzesłane,
34
88230
3270
umieszczono 2,5 miliarda zdjęć,
01:43
mostwiększość of them identifiedzidentyfikowane.
35
91500
1882
w większości opisanych.
01:45
In the samepodobnie spanprzęsło of time,
36
93382
1880
W tym samym przedziale czasu
01:47
computers'Komputery abilityzdolność to recognizerozpoznać people in photoszdjęcia
37
95262
4870
zdolność komputerów do rozpoznania fotografii ludzi
01:52
improvedulepszony by threetrzy ordersświęcenia of magnitudewielkość.
38
100132
3608
poprawiła się o trzy rzędy wielkości.
01:55
What happensdzieje się when you combinepołączyć
39
103740
1882
Co się dzieje
01:57
these technologiestechnologie togetherRazem:
40
105622
1501
po połączeniu tych technologii:
01:59
increasingwzrastający availabilitydostępność of facialwytryski na twarz datadane;
41
107123
2658
wzrasta dostępność do zdjęć twarzy,
02:01
improvingpoprawa facialwytryski na twarz recognizingrozpoznawanie abilityzdolność by computerskomputery;
42
109781
3648
poprawia się zdolność komputerów do ich rozpoznania
02:05
but alsorównież cloudChmura computingprzetwarzanie danych,
43
113429
2182
a chmury obliczeniowe,
02:07
whichktóry givesdaje anyonektokolwiek in this theaterteatr
44
115611
1888
dają każdemu użytkownikowi
02:09
the kinduprzejmy of computationalobliczeniowy powermoc
45
117499
1560
moc obliczeniową,
02:11
whichktóry a fewkilka yearslat agotemu was only the domaindomena
46
119059
1886
która jeszcze kilka lat temu
02:12
of three-letter3 literowy agenciesagencje;
47
120945
1782
była domeną tylko trzyliterowych agencji,
02:14
and ubiquitouswszechobecny computingprzetwarzanie danych,
48
122727
1378
plus wszechobecne obliczenia,
02:16
whichktóry allowspozwala my phonetelefon, whichktóry is not a supercomputersuperkomputer,
49
124105
2892
pozwalające mojemu telefonowi, który nie jest superkomputerem,
02:18
to connectpołączyć to the InternetInternet
50
126997
1671
na połączenie z Internetem
02:20
and do there hundredssetki of thousandstysiące
51
128668
2334
i zebranie setek tysięcy danych
02:23
of facetwarz metricsmetryki in a fewkilka secondstowary drugiej jakości?
52
131002
2639
o twarzach w ciągu sekund?
02:25
Well, we conjectureprzypuszczenie that the resultwynik
53
133641
2628
Podejrzewamy,
02:28
of this combinationpołączenie of technologiestechnologie
54
136269
2064
że połączenie tych technologii
02:30
will be a radicalrodnik changezmiana in our very notionsgalanteria
55
138333
2888
spowoduje znaczącą zmianę
02:33
of privacyPrywatność and anonymityanonimowość.
56
141221
2257
w postrzeganiu prywatności i anonimowości.
02:35
To testtest that, we did an experimenteksperyment
57
143478
1993
By to sprawdzić, przeprowadziliśmy eksperyment
02:37
on CarnegieCarnegie MellonMellon UniversityUniwersytet campuskampus.
58
145471
2121
na kampusie Carnegie Mellon University.
02:39
We askedspytał studentsstudenci who were walkingpieszy by
59
147592
2099
Poprosiliśmy przechodzących studentów
02:41
to participateuczestniczyć in a studybadanie,
60
149691
1779
o udziału w badaniu.
02:43
and we tookwziął a shotstrzał with a webcamKamerka Internetowa,
61
151470
2562
Zrobiliśmy im zdjęcia kamerą internetową,
02:46
and we askedspytał them to fillwypełniać out a surveyAnkieta on a laptopkomputer przenośny.
62
154032
2782
i poprosiliśmy o wypełnienie ankiety na laptopie.
02:48
While they were fillingNadzienie out the surveyAnkieta,
63
156814
1979
W międzyczasie
02:50
we uploadedprzesłane theirich shotstrzał to a cloud-computingprzetwarzanie w chmurze clustergrupa,
64
158793
2797
przesłaliśmy ich zdjęcia na klaster chmur obliczeniowych
02:53
and we startedRozpoczęty usingza pomocą a facialwytryski na twarz recognizeraparat rozpoznawania
65
161590
1727
i przy użyciu rozpoznawania twarzy
02:55
to matchmecz that shotstrzał to a databaseBaza danych
66
163317
2405
zaczęliśmy szukać dopasowań
02:57
of some hundredssetki of thousandstysiące of imagesobrazy
67
165722
2393
wśród setek tysięcy zdjęć
03:00
whichktóry we had downloadedpobrane from FacebookFacebook profilesProfile.
68
168115
3596
ściągniętych z profili na Facebooku.
03:03
By the time the subjectPrzedmiot reachedosiągnięty the last pagestrona
69
171711
3259
Zanim badany dotarł do ostatniej strony ankiety,
03:06
on the surveyAnkieta, the pagestrona had been dynamicallydynamicznie updatedzaktualizowany
70
174970
3347
ona już zawierała
03:10
with the 10 bestNajlepiej matchingdopasowanie photoszdjęcia
71
178317
2313
10 najbardziej pasujących zdjęć,
03:12
whichktóry the recognizeraparat rozpoznawania had founduznany,
72
180630
2285
które znalazł identyfikator.
03:14
and we askedspytał the subjectstematy to indicatewskazać
73
182915
1738
Poprosiliśmy badanych
03:16
whetherczy he or she founduznany themselvessami in the photozdjęcie.
74
184653
4120
o stwierdzenie,czy odnaleźli się na tych zdjęciach.
03:20
Do you see the subjectPrzedmiot?
75
188773
3699
Widzicie badanego?
03:24
Well, the computerkomputer did, and in factfakt did so
76
192472
2845
Komputer go zobaczył,
03:27
for one out of threetrzy subjectstematy.
77
195317
2149
i było tak dla jednej trzeciej badanych.
03:29
So essentiallygłównie, we can startpoczątek from an anonymousanonimowy facetwarz,
78
197466
3184
A więc możemy zacząć od anonimowej twarzy,
03:32
offlineoffline or onlineonline, and we can use facialwytryski na twarz recognitionuznanie
79
200650
3484
offline, czy online, użyć identyfikacji twarzy,
03:36
to give a nameNazwa to that anonymousanonimowy facetwarz
80
204134
2360
aby dzięki danym z mediów społecznościowych
03:38
thanksdzięki to socialspołeczny mediagłoska bezdźwięczna datadane.
81
206494
2108
nadać jej imię.
03:40
But a fewkilka yearslat back, we did something elsejeszcze.
82
208602
1872
Kilka lat temu zrobiliśmy coś innego.
03:42
We startedRozpoczęty from socialspołeczny mediagłoska bezdźwięczna datadane,
83
210474
1823
Zaczęliśmy od danych z portali społecznościowych,
03:44
we combinedłączny it statisticallystatystycznie with datadane
84
212297
3051
które połączyliśmy zależnościami statystycznymi
03:47
from U.S. governmentrząd socialspołeczny securitybezpieczeństwo,
85
215348
2102
z danymi z amerykańskiego rządowego systemu ubezpieczeń społecznych.
03:49
and we endedzakończyło się up predictingprzewidywanie socialspołeczny securitybezpieczeństwo numbersliczby,
86
217450
3324
Udało nam się przewidzieć numery ubezpieczeń społecznych,
03:52
whichktóry in the UnitedStany Zjednoczone StatesPaństwa
87
220774
1512
które w USA
03:54
are extremelyniezwykle sensitivewrażliwy informationInformacja.
88
222286
2040
są niezwykle wrażliwymi danymi.
03:56
Do you see where I'm going with this?
89
224326
2093
Rozumiecie, dokąd zmierzam?
03:58
So if you combinepołączyć the two studiesstudia togetherRazem,
90
226419
2922
Jeśli połączymy te dwa badania,
04:01
then the questionpytanie becomesstaje się,
91
229341
1512
powstaje pytanie,
04:02
can you startpoczątek from a facetwarz and,
92
230853
2720
czy można zacząć od twarzy,
04:05
usingza pomocą facialwytryski na twarz recognitionuznanie, find a nameNazwa
93
233573
2311
i używając identyfikatora twarzy,
04:07
and publiclypublicznie availabledostępny informationInformacja
94
235884
2669
znaleźć imię i informacje publicznie dostępne
04:10
about that nameNazwa and that personosoba,
95
238553
1932
na temat danej osoby,
04:12
and from that publiclypublicznie availabledostępny informationInformacja
96
240485
2248
a potem, używając tych informacji,
04:14
inferrozpoznać non-publiclypublicznie availabledostępny informationInformacja,
97
242733
2042
dotrzeć do danych publicznie niedostępnych,
04:16
much more sensitivewrażliwy oneste
98
244775
1606
które są
04:18
whichktóry you linkpołączyć back to the facetwarz?
99
246381
1492
znacznie bardziej wrażliwe?
04:19
And the answerodpowiedź is, yes, we can, and we did.
100
247873
1916
Odpowiedź brzmi: tak i to właśnie zrobiliśmy.
04:21
Of coursekurs, the accuracyprecyzja keepstrzyma gettinguzyskiwanie worsegorzej.
101
249789
2568
Oczywiście przy kolejnych dopasowaniach spada dokładność.
04:24
[27% of subjects'uczestników badania first 5 SSNSSN digitscyfry identifiedzidentyfikowane (with 4 attemptspróbowanie)]
102
252357
944
[zidentyfikowano 5 pierwszych cyfr numeru ubezpieczenia w 27% (po 4 próbach)]
04:25
But in factfakt, we even decidedzdecydowany to developrozwijać an iPhoneiPhone appaplikacja
103
253301
3827
Stworzyliśmy aplikację na iPhone'a,
04:29
whichktóry usesużywa the phone'stelefon internalwewnętrzny cameraaparat fotograficzny
104
257128
2715
która wykorzystuje wbudowaną kamerę
04:31
to take a shotstrzał of a subjectPrzedmiot
105
259843
1600
do zrobienia zdjęcia obiektu,
04:33
and then uploadPrzekazać plik it to a cloudChmura
106
261443
1487
a potem wysyła je do chmury
04:34
and then do what I just describedopisane to you in realreal time:
107
262930
2662
i robi opisywane rzeczy w czasie rzeczywistym:
04:37
looking for a matchmecz, findingodkrycie publicpubliczny informationInformacja,
108
265592
2088
dopasowuje, wyszukuje dane publiczne,
04:39
tryingpróbować to inferrozpoznać sensitivewrażliwy informationInformacja,
109
267680
1730
próbuje pozyskać poufne dane,
04:41
and then sendingwysyłanie back to the phonetelefon
110
269410
2591
a potem przesyła je z powrotem
04:44
so that it is overlaidpokrył on the facetwarz of the subjectPrzedmiot,
111
272001
3609
i nakłada na twarz obiektu,
04:47
an exampleprzykład of augmentedpowiększony realityrzeczywistość,
112
275610
1901
dając, pewnie trochę przerażający,
04:49
probablyprawdopodobnie a creepyCreepy exampleprzykład of augmentedpowiększony realityrzeczywistość.
113
277511
2451
przykład rzeczywistości rozszerzonej.
04:51
In factfakt, we didn't developrozwijać the appaplikacja to make it availabledostępny,
114
279962
3339
Ta aplikacja nie powstała do użytku publicznego,
04:55
just as a proofdowód of conceptpojęcie.
115
283301
1922
tylko żeby udowodnić, że to możliwe.
04:57
In factfakt, take these technologiestechnologie
116
285223
2313
Spójrzmy na te technologie
04:59
and pushPchać them to theirich logicallogiczny extremeskrajny.
117
287536
1837
i wyobraźmy sobie ich ekstremalne zastosowania.
05:01
ImagineWyobraź sobie a futureprzyszłość in whichktóry strangersobcy around you
118
289373
2719
Wyobraźmy sobie przyszłość,
05:04
will look at you throughprzez theirich GoogleGoogle GlassesOkulary
119
292092
2311
w której obcy ludzie patrzą na nas przez Google Glass,
05:06
or, one day, theirich contactkontakt lensessoczewki,
120
294403
2307
a kiedyś, przez soczewki kontaktowe,
05:08
and use sevensiedem or eightosiem datadane pointszwrotnica about you
121
296710
4020
i używając siedmiu czy ośmiu informacji
05:12
to inferrozpoznać anything elsejeszcze
122
300730
2582
docierają do wszelkich innych
05:15
whichktóry maymoże be knownznany about you.
123
303312
2603
dostępnych o nas danych.
05:17
What will this futureprzyszłość withoutbez secretstajniki look like?
124
305915
4794
Jak będzie wyglądać przyszłość bez tajemnic?
05:22
And should we careopieka?
125
310709
1964
I czy powinno nas to obchodzić?
05:24
We maymoże like to believe
126
312673
1891
Możemy chcieć wierzyć,
05:26
that the futureprzyszłość with so much wealthbogactwo of datadane
127
314564
3040
że przyszłość z taką ilością dostępnych danych
05:29
would be a futureprzyszłość with no more biasesuprzedzenia,
128
317604
2514
będzie pozbawiona zniekształceń,
05:32
but in factfakt, havingmający so much informationInformacja
129
320118
3583
ale w zasadzie
05:35
doesn't mean that we will make decisionsdecyzje
130
323701
2191
posiadanie tak wielu danych nie oznacza,
05:37
whichktóry are more objectivecel.
131
325892
1706
że nasze decyzje będą bardziej obiektywne.
05:39
In anotherinne experimenteksperyment, we presentedprzedstawione to our subjectstematy
132
327598
2560
W kolejnym eksperymencie dostarczyliśmy badanym
05:42
informationInformacja about a potentialpotencjał jobpraca candidatekandydat.
133
330158
2246
dane o potencjalnym kandydacie do pracy.
05:44
We includedw zestawie in this informationInformacja some referencesreferencje
134
332404
3178
Były tam wzmianki
05:47
to some funnyzabawny, absolutelyabsolutnie legalprawny,
135
335582
2646
o pewnych zabawnych, całkowicie legalnych,
05:50
but perhapsmoże slightlynieco embarrassingżenujące informationInformacja
136
338228
2465
ale trochę żenujących sprawach,
05:52
that the subjectPrzedmiot had postedopublikowany onlineonline.
137
340693
2020
które kandydat umieścił w Internecie.
05:54
Now interestinglyco ciekawe, amongpośród our subjectstematy,
138
342713
2366
Co ciekawe,
05:57
some had postedopublikowany comparableporównywalny informationInformacja,
139
345079
3083
niektórzy z naszych badanych
06:00
and some had not.
140
348162
2362
zamieszczali podobne informacje, a niektórzy nie.
06:02
WhichCo groupGrupa do you think
141
350524
1949
Jak myślicie,
06:04
was more likelyprawdopodobne to judgesędzia harshlyostro our subjectPrzedmiot?
142
352473
4552
która grupa była bardziej surowa w ocenie?
06:09
ParadoxicallyParadoksalnie, it was the groupGrupa
143
357025
1957
Paradoksalnie, to ci,
06:10
who had postedopublikowany similarpodobny informationInformacja,
144
358982
1733
którzy umieszczali w sieci podobne informacje.
06:12
an exampleprzykład of moralmorał dissonancedysonans.
145
360715
2942
To przykład dysonansu moralnego.
06:15
Now you maymoże be thinkingmyślący,
146
363657
1750
Możecie myśleć,
06:17
this does not applyzastosować to me,
147
365407
1702
że was to nie dotyczy,
06:19
because I have nothing to hideukryć.
148
367109
2162
bo nie macie nic do ukrycia.
06:21
But in factfakt, privacyPrywatność is not about
149
369271
2482
Ale faktycznie, w prywatności nie chodzi o to,
06:23
havingmający something negativenegatywny to hideukryć.
150
371753
3676
że mamy coś negatywnego do ukrycia.
06:27
ImagineWyobraź sobie that you are the H.R. directordyrektor
151
375429
2354
Wyobraźcie sobie, że jesteście dyrektorami personalnymi
06:29
of a certainpewny organizationorganizacja, and you receiveotrzymaćsumsumaés,
152
377783
2947
w pewnej organizacji i dostajecie CV.
06:32
and you decidedecydować się to find more informationInformacja about the candidatesKandydaci.
153
380730
2473
Postanawiacie dowiedzieć się więcej o kandydatach.
06:35
ThereforeW związku z tym, you GoogleGoogle theirich namesnazwy
154
383203
2460
Szukacie ich w Google,
06:37
and in a certainpewny universewszechświat,
155
385663
2240
i w jednym przypadku
06:39
you find this informationInformacja.
156
387903
2008
znajdujecie określoną informację.
06:41
Or in a parallelrównolegle universewszechświat, you find this informationInformacja.
157
389911
4437
A drugim, inną informację.
06:46
Do you think that you would be equallyna równi likelyprawdopodobne
158
394348
2717
Sądzicie, że bylibyście tak samo skłonni
06:49
to call eitherzarówno candidatekandydat for an interviewwywiad?
159
397065
2803
zaprosić każdego z kandydatów na rozmowę?
06:51
If you think so, then you are not
160
399868
2282
Jeśli tak, to nie jesteście podobni
06:54
like the U.S. employerspracodawców who are, in factfakt,
161
402150
2582
do amerykańskich pracodawców,
06:56
partczęść of our experimenteksperyment, meaningznaczenie we did exactlydokładnie that.
162
404732
3307
którzy uczestniczyli w naszym badaniu.
07:00
We createdstworzony FacebookFacebook profilesProfile, manipulatingmanipulowanie traitscechy,
163
408039
3182
Stworzyliśmy profile na Facebooku, manipulując cechami,
07:03
then we startedRozpoczęty sendingwysyłanie out résumsumaés to companiesfirmy in the U.S.,
164
411221
2851
a potem porozsyłaliśmy CV do amerykańskich firm.
07:06
and we detectedwykryte, we monitoredmonitorowane,
165
414072
1908
Obserwowaliśmy
07:07
whetherczy they were searchingbadawczy for our candidatesKandydaci,
166
415980
2393
czy szukają naszych kandydatów,
07:10
and whetherczy they were actinggra aktorska on the informationInformacja
167
418373
1832
i czy wykorzystują informacje,
07:12
they founduznany on socialspołeczny mediagłoska bezdźwięczna. And they were.
168
420205
1938
z portali społecznościowych. I wykorzystywali.
07:14
DiscriminationDyskryminacji was happeningwydarzenie throughprzez socialspołeczny mediagłoska bezdźwięczna
169
422143
2101
Dla tak samo wykwalifikowanych kandydatów
07:16
for equallyna równi skilledwykwalifikowany candidatesKandydaci.
170
424244
3073
media te powodowały dyskryminację.
07:19
Now marketersmarketerzy like us to believe
171
427317
4575
Marketingowcy chcą nas przekonać,
07:23
that all informationInformacja about us will always
172
431892
2269
że każda informacja o nas
07:26
be used in a mannersposób whichktóry is in our favorprzysługa.
173
434161
3273
zawsze będzie wykorzystana na naszą korzyść.
07:29
But think again. Why should that be always the casewalizka?
174
437434
3715
Ale zastanówcie się. Dlaczego miałoby tak być?
07:33
In a moviefilm whichktóry cameoprawa ołowiana witrażu out a fewkilka yearslat agotemu,
175
441149
2664
W filmie sprzed kilku lat
07:35
"MinorityMniejszościowych ReportRaport," a famoussławny scenescena
176
443813
2553
"Raport Mniejszości", w słynnej scenie
07:38
had TomTom CruiseRejs walkspacerować in a mallcentrum handlowe
177
446366
2576
Tom Cruise idzie przez centrum handlowe,
07:40
and holographicholograficzne personalizedspersonalizowane advertisingreklama
178
448942
3776
a obok niego pojawia się
07:44
would appearzjawić się around him.
179
452718
1835
hologram ze spersonalizowaną reklamą.
07:46
Now, that moviefilm is setzestaw in 2054,
180
454553
3227
Akcja filmu dzieje się w 2054 roku,
07:49
about 40 yearslat from now,
181
457780
1642
za jakieś 40 lat,
07:51
and as excitingekscytujący as that technologytechnologia lookswygląda,
182
459422
2908
i jakkolwiek ekscytująco wygląda ta technologia,
07:54
it alreadyjuż vastlybardzo underestimatesdocenia
183
462330
2646
to już znacznie nie docenia
07:56
the amountilość of informationInformacja that organizationsorganizacje
184
464976
2140
ilości informacji, które organizacje
07:59
can gatherzbierać about you, and how they can use it
185
467116
2483
są w stanie o nas zebrać,
08:01
to influencewpływ you in a way that you will not even detectwykryć.
186
469599
3398
i jak niezauważalnie mogą na nas wpływać.
08:04
So as an exampleprzykład, this is anotherinne experimenteksperyment
187
472997
2103
I kolejne badanie,
08:07
actuallytak właściwie we are runningbieganie, not yetjeszcze completedzakończony.
188
475100
2273
jeszcze nie jest skończone.
08:09
ImagineWyobraź sobie that an organizationorganizacja has accessdostęp
189
477373
2319
Wyobraźcie sobie, że organizacja ma dostęp
08:11
to your listlista of FacebookFacebook friendsprzyjaciele,
190
479692
2056
do listy waszych przyjaciół na Facebooku,
08:13
and throughprzez some kinduprzejmy of algorithmalgorytm
191
481748
1772
i dzięki jakiemuś algorytmowi
08:15
they can detectwykryć the two friendsprzyjaciele that you like the mostwiększość.
192
483520
3734
potrafi stwierdzić, których dwóch lubicie najbardziej.
08:19
And then they createStwórz, in realreal time,
193
487254
2280
Potrafi w czasie rzeczywistym
08:21
a facialwytryski na twarz compositezłożony of these two friendsprzyjaciele.
194
489534
2842
stworzyć połączenie twarzy tych osób.
08:24
Now studiesstudia priorwcześniejszy to oursnasz have shownpokazane that people
195
492376
3069
Poprzednie badania wskazują,
08:27
don't recognizerozpoznać any longerdłużej even themselvessami
196
495445
2885
że w przypadku kombinacji rysów twarzy,
08:30
in facialwytryski na twarz compositeskompozyty, but they reactreagować
197
498330
2462
ludzie nie rozpoznają nawet siebie,
08:32
to those compositeskompozyty in a positivepozytywny mannersposób.
198
500792
2117
ale reagują w pozytywny sposób.
08:34
So nextNastępny time you are looking for a certainpewny productprodukt,
199
502909
3415
Zatem następnym razem, poszukując jakiegoś produktu,
08:38
and there is an adogłoszenie suggestingsugestia you to buykupować it,
200
506324
2559
zobaczycie reklamę, w której nie wystąpi
08:40
it will not be just a standardstandard spokespersonRzecznik prasowy.
201
508883
2907
zwykły aktor,
08:43
It will be one of your friendsprzyjaciele,
202
511790
2313
ale jeden z waszych przyjaciół,
08:46
and you will not even know that this is happeningwydarzenie.
203
514103
3303
a wy nawet nie będziecie tego świadomi.
08:49
Now the problemproblem is that
204
517406
2413
Problem w tym,
08:51
the currentobecny policypolityka mechanismsmechanizmy we have
205
519819
2519
że obecne mechanizmy
08:54
to protectochraniać ourselvesmy sami from the abusesnadużyć of personalosobisty informationInformacja
206
522338
3438
chroniące przed nadużyciami danych osobowych,
08:57
are like bringingprzynoszący a knifenóż to a gunfightstrzelanina.
207
525776
2984
są jak przyniesienie noża na strzelaninę.
09:00
One of these mechanismsmechanizmy is transparencyprzezroczystość,
208
528760
2913
Jednym z nich jest przejrzystość,
09:03
tellingwymowny people what you are going to do with theirich datadane.
209
531673
3200
nakazująca informowanie ludzi, co zrobisz z ich danymi.
09:06
And in principlezasada, that's a very good thing.
210
534873
2106
W teorii to dobra rzecz.
09:08
It's necessaryniezbędny, but it is not sufficientwystarczające.
211
536979
3667
Potrzebna, ale niewystarczająca.
09:12
TransparencyPrzejrzystość can be misdirectedbłędnie.
212
540646
3698
Przejrzystość można przeinaczyć.
09:16
You can tell people what you are going to do,
213
544344
2104
Możesz powiedzieć, co chcesz zrobić,
09:18
and then you still nudgePosuwanie them to discloseujawnić
214
546448
2232
a potem nadal przekonywać ich
09:20
arbitraryarbitralny amountskwoty of personalosobisty informationInformacja.
215
548680
2623
do ujawnienia kolejnych prywatnych danych.
09:23
So in yetjeszcze anotherinne experimenteksperyment, this one with studentsstudenci,
216
551303
2886
W innym eksperymencie poproszono studentów
09:26
we askedspytał them to providezapewniać informationInformacja
217
554189
3058
o dostarczenie informacji
09:29
about theirich campuskampus behaviorzachowanie,
218
557247
1813
na temat ich zachowań studenckich,
09:31
includingwłącznie z prettyładny sensitivewrażliwy questionspytania, suchtaki as this one.
219
559060
2940
między innymi dość wrażliwych kwestii, na przykład:
09:34
[Have you ever cheatedoszukany in an examegzamin?]
220
562000
621
["Czy kiedyś ściągałeś na egzaminie?"]
09:34
Now to one groupGrupa of subjectstematy, we told them,
221
562621
2300
Jednej grupie powiedzieliśmy:
09:36
"Only other studentsstudenci will see your answersodpowiedzi."
222
564921
2841
"Tylko inni studenci zobaczą wasze odpowiedzi".
09:39
To anotherinne groupGrupa of subjectstematy, we told them,
223
567762
1579
Drugiej zaś:
09:41
"StudentsStudenci and facultyWydział will see your answersodpowiedzi."
224
569341
3561
"Wasze odpowiedzi zobaczą studenci i wykładowcy".
09:44
TransparencyPrzejrzystość. NotificationPowiadomienia. And sure enoughdość, this workedpracował,
225
572902
2591
Przejrzystość. Powiadomienie. I zadziałało.
09:47
in the sensesens that the first groupGrupa of subjectstematy
226
575493
1407
Pierwsza grupa badanych
09:48
were much more likelyprawdopodobne to discloseujawnić than the seconddruga.
227
576900
2568
znacznie chętniej ujawniała informacje.
09:51
It makesczyni sensesens, right?
228
579468
1520
Ma to sens, prawda?
09:52
But then we addedw dodatku the misdirectionodwrócenie uwagi.
229
580988
1490
Potem odwróciliśmy kota ogonem.
09:54
We repeatedpowtarzający się the experimenteksperyment with the samepodobnie two groupsgrupy,
230
582478
2760
Powtórzyliśmy eksperyment z tymi samymi grupami,
09:57
this time addingdodawanie a delayopóźnienie
231
585238
2427
tym razem robiąc przerwę
09:59
betweenpomiędzy the time we told subjectstematy
232
587665
2935
pomiędzy informacją,
10:02
how we would use theirich datadane
233
590600
2080
jak wykorzystamy dane,
10:04
and the time we actuallytak właściwie startedRozpoczęty answeringodpowiadając the questionspytania.
234
592680
4388
a faktycznym czasem odpowiadania na pytania.
10:09
How long a delayopóźnienie do you think we had to addDodaj
235
597068
2561
Jak długa musiała być przerwa,
10:11
in orderzamówienie to nullifyunieważnić the inhibitoryhamujące effectefekt
236
599629
4613
by usunąć zahamowania
10:16
of knowingporozumiewawczy that facultyWydział would see your answersodpowiedzi?
237
604242
3411
powstałe z wiedzy o pokazaniu odpowiedzi wykładowcom?
10:19
TenDziesięć minutesminuty?
238
607653
1780
Dziesięć minut?
10:21
FivePięć minutesminuty?
239
609433
1791
Pięć?
10:23
One minutechwila?
240
611224
1776
Jedną minutę?
10:25
How about 15 secondstowary drugiej jakości?
241
613000
2049
Może 15 sekund?
10:27
FifteenPiętnastu secondstowary drugiej jakości were sufficientwystarczające to have the two groupsgrupy
242
615049
2668
Wystarczyło 15 sekund,
10:29
discloseujawnić the samepodobnie amountilość of informationInformacja,
243
617717
1568
żeby obie grupy ujawniły tyle samo informacji,
10:31
as if the seconddruga groupGrupa now no longerdłużej caresdba
244
619285
2746
tak jakby drugiej grupy już nie obchodziło,
10:34
for facultyWydział readingczytanie theirich answersodpowiedzi.
245
622031
2656
że wykładowcy zobaczą ich odpowiedzi.
10:36
Now I have to admitprzyznać that this talk so fardaleko
246
624687
3336
Muszę przyznać, że na razie moje wystąpienie
10:40
maymoże sounddźwięk exceedinglyniezwykle gloomyponury,
247
628023
2480
brzmi strasznie przygnębiająco,
10:42
but that is not my pointpunkt.
248
630503
1721
a nie o to mi chodzi.
10:44
In factfakt, I want to sharedzielić with you the factfakt that
249
632224
2699
Naprawdę chcę powiedzieć,
10:46
there are alternativesalternatywy.
250
634923
1772
że są inne rozwiązania.
10:48
The way we are doing things now is not the only way
251
636695
2499
Sposób, w jaki działamy teraz,
10:51
they can doneGotowe, and certainlyna pewno not the bestNajlepiej way
252
639194
3037
to nie jedyna możliwość,
10:54
they can be doneGotowe.
253
642231
2027
a na pewno nie najlepsza.
10:56
When someonektoś tellsmówi you, "People don't careopieka about privacyPrywatność,"
254
644258
4171
Kiedy ktoś wam mówi: "Ludzi nie obchodzi prywatność",
11:00
considerrozważać whetherczy the gamegra has been designedzaprojektowany
255
648429
2642
zastanówcie się, czy nie zaprojektowano tego tak,
11:03
and riggedsfałszowane so that they cannotnie może careopieka about privacyPrywatność,
256
651071
2724
by nie byli w stanie o tym pomyśleć.
11:05
and comingprzyjście to the realizationRealizacja that these manipulationsmanipulacje occurpojawić się
257
653795
3262
Zrozumienie takiej manipulacji
11:09
is alreadyjuż halfwaywpół throughprzez the processproces
258
657057
1607
to połowa drogi
11:10
of beingistota ablezdolny to protectochraniać yourselfsiebie.
259
658664
2258
do ochrony siebie.
11:12
When someonektoś tellsmówi you that privacyPrywatność is incompatibleniezgodne
260
660922
3710
Kiedy mówią wam, że prywatność nie idzie w parze
11:16
with the benefitskorzyści of bigduży datadane,
261
664632
1849
z korzyściami, które dają wielkie zbiory danych,
11:18
considerrozważać that in the last 20 yearslat,
262
666481
2473
pomyślcie, że za 20 lat
11:20
researchersnaukowcy have createdstworzony technologiestechnologie
263
668954
1917
badacze stworzą technologie,
11:22
to allowdopuszczać virtuallywirtualnie any electronicelektroniczny transactionstransakcje
264
670871
3318
które pozwolą dokonywać transakcji elektronicznych
11:26
to take placemiejsce in a more privacy-preservingOchrona prywatności mannersposób.
265
674189
3749
w sposób bardziej chroniący prywatność.
11:29
We can browsePrzeglądaj the InternetInternet anonymouslyanonimowo.
266
677938
2555
Możemy anonimowo przeglądać internet.
11:32
We can sendwysłać emailse-maile that can only be readczytać
267
680493
2678
Możemy wysyłać e-maile, czytane przez adresata
11:35
by the intendedzamierzony recipientodbiorcy, not even the NSANSA.
268
683171
3709
a nie przez agencję bezpieczeństwa wewnętrznego.
11:38
We can have even privacy-preservingOchrona prywatności datadane mininggórnictwo.
269
686880
2997
Możemy nawet mieć chroniącą prywatność eksplorację danych.
11:41
In other wordssłowa, we can have the benefitskorzyści of bigduży datadane
270
689877
3894
Innymi słowy, możemy mieć korzyści z wielkich zbiorów danych,
11:45
while protectingochrona privacyPrywatność.
271
693771
2132
chroniąc jednocześnie prywatność.
11:47
Of coursekurs, these technologiestechnologie implyoznacza a shiftingprzeniesienie
272
695903
3791
Oczywiście, wprowadzenie tych technologii
11:51
of costkoszt and revenuesprzychody
273
699694
1546
oznacza przesunięcie kosztu i przychodu
11:53
betweenpomiędzy datadane holdersposiadacze and datadane subjectstematy,
274
701240
2107
pomiędzy właścicielami danych i ich podmiotami
11:55
whichktóry is why, perhapsmoże, you don't hearsłyszeć more about them.
275
703347
3453
i pewnie dlatego nie słyszy się o tym więcej.
11:58
WhichCo bringsprzynosi me back to the GardenOgród of EdenEden.
276
706800
3706
Wracam więc do raju.
12:02
There is a seconddruga privacyPrywatność interpretationinterpretacja
277
710506
2780
Jest druga interpretacja tej historii,
12:05
of the storyfabuła of the GardenOgród of EdenEden
278
713286
1809
jeśli chodzi o prywatność.
12:07
whichktóry doesn't have to do with the issuekwestia
279
715095
2096
Nie chodzi o to,
12:09
of AdamAdam and EveEwa feelinguczucie nakednagi
280
717191
2225
że Adam i Ewa poczuli się nadzy
12:11
and feelinguczucie ashamedzawstydzony.
281
719416
2381
i zawstydzeni.
12:13
You can find echoesecha of this interpretationinterpretacja
282
721797
2781
Echo tej interpretacji mamy
12:16
in JohnJohn Milton'sMilton's "ParadiseParadise LostStracił."
283
724578
2782
w "Raju utraconym" Johna Miltona.
12:19
In the gardenogród, AdamAdam and EveEwa are materiallymaterialnie contentzadowolony.
284
727360
4197
W ogrodzie Adam i Ewa są naprawdę zadowoleni.
12:23
They're happyszczęśliwy. They are satisfiedzadowolona.
285
731557
2104
Szczęśliwi. Usatysfakcjonowani.
12:25
HoweverJednak, they alsorównież lackbrak knowledgewiedza, umiejętności
286
733661
2293
Jednak brak im wiedzy
12:27
and self-awarenesssamoświadomość.
287
735954
1640
i samoświadomości.
12:29
The momentza chwilę they eatjeść the aptlytrafnie namedo imieniu
288
737594
3319
Kiedy zjadają, trafnie nazwany,
12:32
fruitowoc of knowledgewiedza, umiejętności,
289
740913
1293
owoc poznania,
12:34
that's when they discoverodkryć themselvessami.
290
742206
2605
odkrywają samych siebie.
12:36
They becomestają się awareświadomy. They achieveosiągać autonomyautonomii.
291
744811
4031
Zyskują świadomość i niezależność.
12:40
The pricecena to payzapłacić, howeverjednak, is leavingodejście the gardenogród.
292
748842
3126
Ceną jest opuszczenie ogrodu.
12:43
So privacyPrywatność, in a way, is bothobie the meansznaczy
293
751968
3881
Prywatność zatem,
12:47
and the pricecena to payzapłacić for freedomwolność.
294
755849
2962
jest zarówno drogą do wolności, jak i jej kosztem.
12:50
Again, marketersmarketerzy tell us
295
758811
2770
Marketingowcy mówią nam,
12:53
that bigduży datadane and socialspołeczny mediagłoska bezdźwięczna
296
761581
3019
że wielkie zbiory danych i media społecznościowe
12:56
are not just a paradiseraj of profitzysk for them,
297
764600
2979
to nie tylko raj korzyści dla nich,
12:59
but a GardenOgród of EdenEden for the restodpoczynek of us.
298
767579
2457
ale i dla nas.
13:02
We get freewolny contentzadowolony.
299
770036
1238
Dostajemy darmowe udogodnienia:
13:03
We get to playgrać AngryZły BirdsPtaki. We get targetedukierunkowane appsaplikacje.
300
771274
3123
Angry Birds czy spersonalizowane aplikacje.
13:06
But in factfakt, in a fewkilka yearslat, organizationsorganizacje
301
774397
2897
Tak naprawdę, za kilka lat
13:09
will know so much about us,
302
777294
1609
organizacje będą wiedziały o nas tak wiele,
13:10
they will be ablezdolny to inferrozpoznać our desirespragnienia
303
778903
2710
że będą znać nasze potrzeby,
13:13
before we even formformularz them, and perhapsmoże
304
781613
2204
zanim my je odkryjemy,
13:15
buykupować productsprodukty on our behalfimieniu
305
783817
2447
kupować w naszym imieniu produkty,
13:18
before we even know we need them.
306
786264
2274
zanim zorientujemy się, że ich potrzebujemy.
13:20
Now there was one EnglishAngielski authorautor
307
788538
3237
Był pewien angielski pisarz,
13:23
who anticipatedprzewidywane this kinduprzejmy of futureprzyszłość
308
791775
3045
który przewidział taką przyszłość,
13:26
where we would tradehandel away
309
794820
1405
w której oddawalibyśmy
13:28
our autonomyautonomii and freedomwolność for comfortkomfort.
310
796225
3548
naszą niezależność i wolność za wygodę.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Bardziej niż George Orwell
13:33
the authorautor is, of coursekurs, AldousAldous HuxleyHuxley.
312
801934
2761
był nim Aldous Huxley.
13:36
In "BraveOdważny NewNowy WorldŚwiat," he imagineswyobraża sobie a societyspołeczeństwo
313
804695
2854
W "Nowym wspaniałym świecie" opisuje społeczeństwo,
13:39
where technologiestechnologie that we createdstworzony
314
807549
2171
w którym nacisk wywierają technologie,
13:41
originallypierwotnie for freedomwolność
315
809720
1859
pierwotnie stworzone
13:43
endkoniec up coercingzmuszanie us.
316
811579
2567
dla wolności.
13:46
HoweverJednak, in the bookksiążka, he alsorównież offersoferuje us a way out
317
814146
4791
Jednak proponuje także
13:50
of that societyspołeczeństwo, similarpodobny to the pathścieżka
318
818937
3438
sposób ucieczki z tego społeczeństwa,
13:54
that AdamAdam and EveEwa had to followśledzić to leavepozostawiać the gardenogród.
319
822375
3955
podobny do opuszczenia raju przez Adama i Ewę.
13:58
In the wordssłowa of the SavageSavage,
320
826330
2147
Savage twierdzi,
14:00
regainingodzyskanie autonomyautonomii and freedomwolność is possiblemożliwy,
321
828477
3069
że odzyskanie niezależności i wolności jest możliwe,
14:03
althoughmimo że the pricecena to payzapłacić is steepstromy.
322
831546
2679
jakkolwiek cena jest wygórowana.
14:06
So I do believe that one of the definingdefiniowanie fightswalki
323
834225
5715
Wierzę zatem, że jedną z decydujących wojen
14:11
of our timesczasy will be the fightwalka
324
839940
2563
naszych czasów,
14:14
for the controlkontrola over personalosobisty informationInformacja,
325
842503
2387
będzie walka o kontrolę nad danymi osobowymi.
14:16
the fightwalka over whetherczy bigduży datadane will becomestają się a forcesiła
326
844890
3507
Walka o to, czy wielkie zbiory danych
14:20
for freedomwolność,
327
848397
1289
staną po stronie wolności,
14:21
ratherraczej than a forcesiła whichktóry will hiddenlyskrycie mógł manipulatemanipulować us.
328
849686
4746
a nie posłużą tajnym manipulacjom.
14:26
Right now, manywiele of us
329
854432
2593
Obecnie większość z nas
14:29
do not even know that the fightwalka is going on,
330
857025
2753
nawet nie wie, że ta walka trwa,
14:31
but it is, whetherczy you like it or not.
331
859778
2672
ale tak jest czy nam się to podoba, czy nie.
14:34
And at the riskryzyko of playinggra the serpentwąż,
332
862450
2804
Ryzykując, że odegram rolę biblijnego węża
14:37
I will tell you that the toolsprzybory for the fightwalka
333
865254
2897
powiem, że narzędzia tej walki
14:40
are here, the awarenessświadomość of what is going on,
334
868151
3009
są dostępne, a świadomość tej sytuacji
14:43
and in your handsręce,
335
871160
1355
jest w waszych rękach,
14:44
just a fewkilka clickskliknięcia away.
336
872515
3740
w odległości kilku kliknięć.
14:48
Thank you.
337
876255
1482
Dziękuję.
14:49
(ApplauseAplauz)
338
877737
4477
(Oklaski)
Translated by Joanna Zajc
Reviewed by Agata Lesnicka

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com