ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Алессандро Аквісті: Чому приватність важлива

Filmed:
1,423,103 views

Межа між публічним і приватним протягом останніх 10 років стерлася як у реальному, так і в віртуальному житті, тому Алессандро Аквісті вирішив пояснити, що це означає і чому це важливо. У цьому мислетворчому відео, яке дещо спантеличує, він ділиться подробицями останніх досліджень, а також тих, які ще тривають - включно з проектом, що демонструє, наскільки просто зараз поєднати фотографію незнайомця з конфіденційною інформацією про нього.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyісторія
0
641
2354
Я б хотів розповісти Вам історію,
00:14
connectingпідключення the notoriousгорезвісний privacyконфіденційність incidentінцидент
1
2995
3176
що містить загальновідомий випадок приватності,
00:18
involvingзалучення AdamАдам and EveЄва,
2
6171
2769
що трапився з Адамом та Євою,
00:20
and the remarkableчудовий shiftзміна in the boundariesкордони
3
8940
3446
і про значні зміщення меж
00:24
betweenміж publicгромадськість and privateприватний whichкотрий has occurredсталося
4
12386
2686
між публічним і приватним, що відбулися
00:27
in the pastминуле 10 yearsроків.
5
15072
1770
протягом останніх 10 років.
00:28
You know the incidentінцидент.
6
16842
1298
Ви знаєте цей випадок.
00:30
AdamАдам and EveЄва one day in the GardenСад of EdenГотель Eden
7
18140
3330
Одного дня в Едемському саду Адам і Єва
00:33
realizeусвідомити they are nakedголий.
8
21470
1843
усвідомлюють, що вони голі.
00:35
They freakфрік out.
9
23313
1500
Вони шоковані.
00:36
And the restвідпочинок is historyісторія.
10
24813
2757
А решта - це вже історія.
00:39
NowadaysНа сьогоднішній день, AdamАдам and EveЄва
11
27570
2188
Сьогодні Адам і Єва
00:41
would probablyймовірно actдіяти differentlyінакше.
12
29758
2361
напевне повели б себе по-іншому.
00:44
[@AdamАдам Last niteNite was a blastвибух! lovedлюбив datDAT appleяблуко LOLПомираю від сміху]
13
32119
2268
[@Адам: вчорашня ніч була супер! ]
00:46
[@EveЄва yepУгу.. babeнемовля, know what happenedсталося to my pantsШтани thoТхо?]
14
34387
1873
[@Єва: егеж, крихітко, не знаєш, де мої штани? ]
00:48
We do revealрозкрий so much more informationінформація
15
36260
2636
Ми таки видаємо набагато більше інформації
00:50
about ourselvesми самі onlineонлайн than ever before,
16
38896
3334
про нас в Інтернеті, ніж коли-небудь раніше,
00:54
and so much informationінформація about us
17
42230
1704
і дуже багато інформації про нас
00:55
is beingбуття collectedзібрані by organizationsорганізації.
18
43934
2224
збирається різними структурами.
00:58
Now there is much to gainвиграти and benefitкористь
19
46158
3282
Тепер є багато вигод
01:01
from this massiveмасивний analysisаналіз of personalособистий informationінформація,
20
49440
2446
з масового аналізу особистої інформації
01:03
or bigвеликий dataдані,
21
51886
1946
чи з баз даних,
01:05
but there are alsoтакож complexкомплекс tradeoffsкомпроміси that come
22
53832
2638
але ми також платимо певну ціну
01:08
from givingдавати away our privacyконфіденційність.
23
56470
3098
за викриття приватності.
01:11
And my storyісторія is about these tradeoffsкомпроміси.
24
59568
4023
І в моїй розповіді ідеться про цю ціну.
01:15
We startпочати with an observationспостереження whichкотрий, in my mindрозум,
25
63591
2584
Почнемо зі спостереження, яке, на мою думку,
01:18
has becomeстати clearerясніше and clearerясніше in the pastминуле fewмало хто yearsроків,
26
66175
3327
стає все чіткішим за останні кілька років.
01:21
that any personalособистий informationінформація
27
69502
2097
Воно полягає в тому, що будь-яка особиста інформація
01:23
can becomeстати sensitiveчутливий informationінформація.
28
71599
2285
може стати точкою ураження.
01:25
Back in the yearрік 2000, about 100 billionмільярд photosфотографії
29
73884
4125
Повертаючись у 2000 рік, близько 100 млрд фотографій
01:30
were shotвистрілений worldwideсвітовий,
30
78009
1912
було зроблено по всьому світу,
01:31
but only a minusculeмізер proportionпропорція of them
31
79921
3065
проте лише крихітну їх частину
01:34
were actuallyнасправді uploadedзавантажено onlineонлайн.
32
82986
1883
завантажили в Інтернет.
01:36
In 2010, only on FacebookFacebook, in a singleсингл monthмісяць,
33
84869
3361
У 2010 році лише на Facebook, всього за один місяць
01:40
2.5 billionмільярд photosфотографії were uploadedзавантажено,
34
88230
3270
було завантажено 2,5 млрд фотографій,
01:43
mostнайбільше of them identifiedвиявлено.
35
91500
1882
і більшість з них ідентифіковані.
01:45
In the sameтой же spanпроліт of time,
36
93382
1880
За той самий проміжок часу
01:47
computers'комп'ютери' abilityздібності to recognizeрозпізнати people in photosфотографії
37
95262
4870
можливість комп'ютера розпізнавати людей на фотографіях
01:52
improvedпокращився by threeтри ordersзамовлення of magnitudeвеличина.
38
100132
3608
покращилася втричі.
01:55
What happensбуває when you combineкомбінувати
39
103740
1882
Що ж відбувається, коли ви поєднуєте
01:57
these technologiesтехнології togetherразом:
40
105622
1501
ці технології:
01:59
increasingзбільшується availabilityдоступність of facialДогляд за шкірою обличчя dataдані;
41
107123
2658
збільшення доступності до особистих даних;
02:01
improvingполіпшення facialДогляд за шкірою обличчя recognizingвизнаючи abilityздібності by computersкомп'ютери;
42
109781
3648
покращення можливості комп'ютера розпізнавати обличчя;
02:05
but alsoтакож cloudхмара computingобчислення,
43
113429
2182
але також "хмарні" обчислення,
02:07
whichкотрий givesдає anyoneбудь хто in this theaterтеатр
44
115611
1888
що дає кожному присутньому
02:09
the kindдоброзичливий of computationalобчислювальна powerвлада
45
117499
1560
певну обчислювальну потужність,
02:11
whichкотрий a fewмало хто yearsроків agoтому назад was only the domainдомен
46
119059
1886
яка кілька років тому була доступна
02:12
of three-letterтрьох літер agenciesагентства;
47
120945
1782
лише підпільним державним структурам;
02:14
and ubiquitousповсюдний computingобчислення,
48
122727
1378
і глобальні обчислення,
02:16
whichкотрий allowsдозволяє my phoneтелефон, whichкотрий is not a supercomputerсуперкомп'ютер,
49
124105
2892
що дозволяють моєму телефону, що не є супер-комп'ютером,
02:18
to connectпідключити to the InternetІнтернет
50
126997
1671
під'єднуватися до інтернету
02:20
and do there hundredsсотні of thousandsтисячі
51
128668
2334
і виконувати там сотні тисяч
02:23
of faceобличчя metricsметрики in a fewмало хто secondsсекунд?
52
131002
2639
співставлень облич всього за кілька секунд?
02:25
Well, we conjectureГіпотеза that the resultрезультат
53
133641
2628
Ну, як результат, ми припускаємо,
02:28
of this combinationкомбінація of technologiesтехнології
54
136269
2064
що ця комбінація технологій
02:30
will be a radicalрадикальний changeзмінити in our very notionsпоняття
55
138333
2888
здійснить радикальні зміни в нашому сприйнятті
02:33
of privacyконфіденційність and anonymityанонімність.
56
141221
2257
понять приватності та анонімності.
02:35
To testтест that, we did an experimentексперимент
57
143478
1993
Щоб це перевірити, ми здійснили експеримент
02:37
on CarnegieКарнегі MellonМеллона UniversityУніверситет campusкампус.
58
145471
2121
у студмістечку університету Карнеґі-Меллон.
02:39
We askedзапитав studentsстуденти who were walkingходити by
59
147592
2099
Ми попросили студентів, які проходили повз,
02:41
to participateбрати участь in a studyвивчення,
60
149691
1779
взяти участь в дослідженні.
02:43
and we tookвзяв a shotвистрілений with a webcamвеб-камера,
61
151470
2562
Ми фотографували їх на веб-камеру
02:46
and we askedзапитав them to fillзаповнити out a surveyобстеження on a laptopноутбук.
62
154032
2782
і просили пройти опитування на лептопі.
02:48
While they were fillingнаповнення out the surveyобстеження,
63
156814
1979
Поки вони заповнювали анкети,
02:50
we uploadedзавантажено theirїх shotвистрілений to a cloud-computingхмарних обчислень clusterкластер,
64
158793
2797
ми завантажили їхні фото до кластера хмарних обчислень
02:53
and we startedпочався usingвикористовуючи a facialДогляд за шкірою обличчя recognizerМодуль розпізнавання
65
161590
1727
та застосували систему розпізнавання облич,
02:55
to matchматч that shotвистрілений to a databaseбаза даних
66
163317
2405
щоб знайти їхні відповідники в базі даних
02:57
of some hundredsсотні of thousandsтисячі of imagesзображення
67
165722
2393
сотень тисяч фотографій,
03:00
whichкотрий we had downloadedзавантажений from FacebookFacebook profilesпрофілі.
68
168115
3596
які ми завантажили з профілів соцмережі Facebook.
03:03
By the time the subjectсуб'єкт reachedдосягли the last pageсторінка
69
171711
3259
Коли учасник дійшов до останньої сторінки
03:06
on the surveyобстеження, the pageсторінка had been dynamicallyдинамічно updatedоновлено
70
174970
3347
опитування, оновившись, сторінка динамічно
03:10
with the 10 bestнайкраще matchingзіставлення photosфотографії
71
178317
2313
підібрала 10 найбільш відповідних фотографій,
03:12
whichкотрий the recognizerМодуль розпізнавання had foundзнайдено,
72
180630
2285
які знайшов розпізнавач.
03:14
and we askedзапитав the subjectsпредметів to indicateвкажіть
73
182915
1738
Ми попросили учасників сказати,
03:16
whetherчи то he or she foundзнайдено themselvesсамі in the photoфото.
74
184653
4120
чи знайшли вони себе на фотографіях.
03:20
Do you see the subjectсуб'єкт?
75
188773
3699
Ви бачите респондента?
03:24
Well, the computerкомп'ютер did, and in factфакт did so
76
192472
2845
Що ж, комп'ютер побачив. І побачив
03:27
for one out of threeтри subjectsпредметів.
77
195317
2149
кожного третього з респондентів.
03:29
So essentiallyпо суті, we can startпочати from an anonymousанонімний faceобличчя,
78
197466
3184
По суті, ми можемо почати з лиця аноніма,
03:32
offlineофлайн or onlineонлайн, and we can use facialДогляд за шкірою обличчя recognitionвизнання
79
200650
3484
в мережі чи ні, і використати систему розпізнавання облич,
03:36
to give a nameім'я to that anonymousанонімний faceобличчя
80
204134
2360
щоб ідентифікувати обличчя цього аноніма
03:38
thanksДякую to socialсоціальний mediaЗМІ dataдані.
81
206494
2108
за допомогою даних соціальних мереж.
03:40
But a fewмало хто yearsроків back, we did something elseінакше.
82
208602
1872
Проте кілька років тому ми діяли по-іншому.
03:42
We startedпочався from socialсоціальний mediaЗМІ dataдані,
83
210474
1823
Ми розпочинали з даних соціальних мереж
03:44
we combinedоб'єднаний it statisticallyстатистично with dataдані
84
212297
3051
та поєднували їх статистично з даними
03:47
from U.S. governmentуряд socialсоціальний securityбезпека,
85
215348
2102
уряду соціальної безпеки США.
03:49
and we endedзакінчився up predictingпрогнозування socialсоціальний securityбезпека numbersномери,
86
217450
3324
В результаті ми спрогнозували номери соціального страхування,
03:52
whichкотрий in the UnitedЮнайтед StatesШтати
87
220774
1512
які в Сполучених Штатах
03:54
are extremelyнадзвичайно sensitiveчутливий informationінформація.
88
222286
2040
є надзвичайно конфіденційною інформацією.
03:56
Do you see where I'm going with this?
89
224326
2093
Чи ви бачите, до чого я веду?
03:58
So if you combineкомбінувати the two studiesнавчання togetherразом,
90
226419
2922
Тобто якщо об'єднати ці два дослідження,
04:01
then the questionпитання becomesстає,
91
229341
1512
виникає питання:
04:02
can you startпочати from a faceобличчя and,
92
230853
2720
чи можемо ми почати з обличчя
04:05
usingвикористовуючи facialДогляд за шкірою обличчя recognitionвизнання, find a nameім'я
93
233573
2311
і, використовуючи розпізнавач облич, знайти ім'я
04:07
and publiclyпублічно availableдоступний informationінформація
94
235884
2669
та публічно доступну інформацію
04:10
about that nameім'я and that personлюдина,
95
238553
1932
про це ім'я і цю людину
04:12
and from that publiclyпублічно availableдоступний informationінформація
96
240485
2248
і, виходячи з цієї інформації,
04:14
inferзробити висновок non-publiclyне публічно availableдоступний informationінформація,
97
242733
2042
вивести таку, яка не є публічно доступною,
04:16
much more sensitiveчутливий onesті, хто
98
244775
1606
більш конфіденційну,
04:18
whichкотрий you linkпосилання back to the faceобличчя?
99
246381
1492
яку можна знову співставити з обличчям?
04:19
And the answerвідповісти is, yes, we can, and we did.
100
247873
1916
Відповідь - так, ми можемо. І ми це зробили.
04:21
Of courseзвичайно, the accuracyточність keepsтримає gettingотримувати worseгірше.
101
249789
2568
Звісно, точність погіршується.
04:24
[27% of subjects'суб'єктів first 5 SSNSSN digitsцифри identifiedвиявлено (with 4 attemptsспроби)]
102
252357
944
[ у 27%респондентів визначено перших 5 символів номеру соціального страхування (з 4 спроб) ]
04:25
But in factфакт, we even decidedвирішив to developрозвиватися an iPhoneiPhone appдодаток
103
253301
3827
Але насправді ми навіть вирішили розробити додаток для iPhone,
04:29
whichкотрий usesвикористовує the phone'sтелефонний телефон internalвнутрішній cameraкамера
104
257128
2715
який застосовує фронтальну камеру телефона,
04:31
to take a shotвистрілений of a subjectсуб'єкт
105
259843
1600
щоб сфотографувати респондента
04:33
and then uploadзавантажити it to a cloudхмара
106
261443
1487
і завантажити її в хмару,
04:34
and then do what I just describedописаний to you in realреальний time:
107
262930
2662
а потім зробити все те, що я щойно описав:
04:37
looking for a matchматч, findingзнахідка publicгромадськість informationінформація,
108
265592
2088
шукати співпадіння, знайти публічну інформацію,
04:39
tryingнамагаюся to inferзробити висновок sensitiveчутливий informationінформація,
109
267680
1730
спробувати вивести конфіденційну
04:41
and then sendingвідправка back to the phoneтелефон
110
269410
2591
і надіслати в телефон,
04:44
so that it is overlaidрежимі накладання on the faceобличчя of the subjectсуб'єкт,
111
272001
3609
щоб вона відобразилася на обличчі респондента,
04:47
an exampleприклад of augmentedзбільшено realityреальність,
112
275610
1901
як приклад доповненої реальності,
04:49
probablyймовірно a creepyплазуни exampleприклад of augmentedзбільшено realityреальність.
113
277511
2451
мабуть жахаючої доповненої реальності.
04:51
In factфакт, we didn't developрозвиватися the appдодаток to make it availableдоступний,
114
279962
3339
Насправді, ми не розробляли додаток, щоб він був доступним,
04:55
just as a proofдоказ of conceptконцепція.
115
283301
1922
просто для підтвердження концепції.
04:57
In factфакт, take these technologiesтехнології
116
285223
2313
Візьмемо ці технології
04:59
and pushтиснути them to theirїх logicalлогічний extremeкрайній.
117
287536
1837
та доведемо їх до логічної межі.
05:01
ImagineУявіть собі a futureмайбутнє in whichкотрий strangersнезнайомці around you
118
289373
2719
Уявіть майбутнє, в якому незнайомці навколо вас
05:04
will look at you throughчерез theirїх GoogleGoogle GlassesОкуляри
119
292092
2311
дивитимуться на вас крізь Google окуляри
05:06
or, one day, theirїх contactконтакт lensesлінзи,
120
294403
2307
а, одного дня, й крізь контактні лінзи,
05:08
and use sevenсеми or eightвісім dataдані pointsокуляри about you
121
296710
4020
і, використовуючи 7 чи 8 пунктів вихідних даних про Вас,
05:12
to inferзробити висновок anything elseінакше
122
300730
2582
виведуть ще щось,
05:15
whichкотрий mayможе be knownвідомий about you.
123
303312
2603
що може бути про Вас відомим.
05:17
What will this futureмайбутнє withoutбез secretsтаємниці look like?
124
305915
4794
Як же виглядатиме таке майбутнє без таємниць?
05:22
And should we careтурбота?
125
310709
1964
Чи повинно нас це хвилювати?
05:24
We mayможе like to believe
126
312673
1891
Нам би хотілося вірити,
05:26
that the futureмайбутнє with so much wealthбагатство of dataдані
127
314564
3040
що майбутнє з таким обсягом доступної інформації
05:29
would be a futureмайбутнє with no more biasesупередження,
128
317604
2514
буде майбутнім без упереджень,
05:32
but in factфакт, havingмаючи so much informationінформація
129
320118
3583
але, насправді, володіння такою кількістю інформації
05:35
doesn't mean that we will make decisionsрішення
130
323701
2191
не означає, що наші рішення
05:37
whichкотрий are more objectiveоб'єктивний.
131
325892
1706
будуть об'єктивнішими.
05:39
In anotherінший experimentексперимент, we presentedпредставлений to our subjectsпредметів
132
327598
2560
В іншому експерименті ми запропонували респондентам
05:42
informationінформація about a potentialпотенціал jobробота candidateкандидат.
133
330158
2246
інформацію про потенційного працівника.
05:44
We includedвключений in this informationінформація some referencesпосилання
134
332404
3178
Ми включили до інформації про них кілька посилань
05:47
to some funnyсмішно, absolutelyабсолютно legalзаконний,
135
335582
2646
на певну смішну, цілком доступну інформацію,
05:50
but perhapsможе бути slightlyтрохи embarrassingнезручне informationінформація
136
338228
2465
проте дещо таку, що осоромлює,
05:52
that the subjectсуб'єкт had postedопубліковано onlineонлайн.
137
340693
2020
яку респондент виклав в мережі.
05:54
Now interestinglyЦікаво, amongсеред our subjectsпредметів,
138
342713
2366
Цікаво, що поміж респондентів
05:57
some had postedопубліковано comparableпорівнянний informationінформація,
139
345079
3083
дехто оприлюднив непевну інформацію,
06:00
and some had not.
140
348162
2362
а дехто ні.
06:02
WhichЯкий groupгрупа do you think
141
350524
1949
Яка з груп, на Вашу думку,
06:04
was more likelyшвидше за все to judgeсудити harshlyрізанням our subjectсуб'єкт?
142
352473
4552
більш імовірно, суворо засудить респондента?
06:09
ParadoxicallyЯк не парадоксально, it was the groupгрупа
143
357025
1957
Парадоксально, але це була група,
06:10
who had postedопубліковано similarподібний informationінформація,
144
358982
1733
що виклала ідентичну інформацію -
06:12
an exampleприклад of moralморальний dissonanceдисонанс.
145
360715
2942
приклад морального дисонансу.
06:15
Now you mayможе be thinkingмислення,
146
363657
1750
Як Ви, мабуть, думаєте,
06:17
this does not applyзастосовувати to me,
147
365407
1702
це не про мене,
06:19
because I have nothing to hideприховати.
148
367109
2162
оскільки мені нічого приховувати.
06:21
But in factфакт, privacyконфіденційність is not about
149
369271
2482
Та насправді приватність не обов'язково означає
06:23
havingмаючи something negativeнегативний to hideприховати.
150
371753
3676
мати щось до приховування.
06:27
ImagineУявіть собі that you are the H.R. directorрежисер
151
375429
2354
Уявіть, що ви директор відділу кадрів
06:29
of a certainпевний organizationорганізація, and you receiveотримуватиsumсумаés,
152
377783
2947
певної організації. Ви отримуєте резюме
06:32
and you decideвирішувати to find more informationінформація about the candidatesкандидатів.
153
380730
2473
і вирішуєте пошукати більше інформації про аплікантів.
06:35
ThereforeТому, you GoogleGoogle theirїх namesімена
154
383203
2460
Таким чином, ви гуглите їхні імена
06:37
and in a certainпевний universeвсесвіт,
155
385663
2240
і в якомусь із всесвітів
06:39
you find this informationінформація.
156
387903
2008
знаходите цю інформацію.
06:41
Or in a parallelпаралельно universeвсесвіт, you find this informationінформація.
157
389911
4437
Чи навіть в паралельному всесвіті, ви все ж знаходите цю інформацію.
06:46
Do you think that you would be equallyоднаково likelyшвидше за все
158
394348
2717
Як Ви думаєте, Ви з однаковою впевненістю
06:49
to call eitherабо candidateкандидат for an interviewінтерв'ю?
159
397065
2803
запросите обох кандидатів на співбесіду?
06:51
If you think so, then you are not
160
399868
2282
Якщо так, то Ви не є
06:54
like the U.S. employersроботодавців who are, in factфакт,
161
402150
2582
такими, як роботодавці США, які
06:56
partчастина of our experimentексперимент, meaningсенс we did exactlyточно that.
162
404732
3307
є частиною нашого експерименту, і вважають, що так чинити правильно.
07:00
We createdстворений FacebookFacebook profilesпрофілі, manipulatingманіпулюючи traitsриси,
163
408039
3182
Ми створили профілі на Facebook, засоби маніпуляції,
07:03
then we startedпочався sendingвідправка out résumсумаés to companiesкомпаній in the U.S.,
164
411221
2851
і почали розсилати резюме в американські компанії.
07:06
and we detectedвиявлено, we monitoredмоніторинг,
165
414072
1908
Ми провели моніторинг,
07:07
whetherчи то they were searchingпошук for our candidatesкандидатів,
166
415980
2393
чи шукали вони наших кандидатів
07:10
and whetherчи то they were actingдіючи on the informationінформація
167
418373
1832
та чи зважали вони на знайдену в соціальних
07:12
they foundзнайдено on socialсоціальний mediaЗМІ. And they were.
168
420205
1938
мережах інформацію. І вони зважали.
07:14
DiscriminationДискримінація was happeningвідбувається throughчерез socialсоціальний mediaЗМІ
169
422143
2101
Дискримінація, що ґрунтується на інформації з соціальних мереж,
07:16
for equallyоднаково skilledкваліфікований candidatesкандидатів.
170
424244
3073
застосовувалася щодо однаково кваліфікованих кандидатів.
07:19
Now marketersмаркетологи like us to believe
171
427317
4575
Сучасні маркетологи хочуть, щоб ми повірили,
07:23
that all informationінформація about us will always
172
431892
2269
що вся інформація про нас завжди
07:26
be used in a mannerманера whichкотрий is in our favorкористь.
173
434161
3273
буде використана в нашу користь.
07:29
But think again. Why should that be always the caseсправа?
174
437434
3715
Але подумайте ще раз. Чи завжди це так?
07:33
In a movieфільм whichкотрий cameприйшов out a fewмало хто yearsроків agoтому назад,
175
441149
2664
У фільмі "Особлива думка", що вийшов
07:35
"MinorityМеншини ReportЗвіт," a famousзнаменитий sceneсцени
176
443813
2553
кілька років тому, є сцена, де
07:38
had TomТом CruiseКруїз walkходити in a mallторговий центр
177
446366
2576
Том Круз іде в торговому центрі,
07:40
and holographicГолографічний personalizedперсоналізовані advertisingреклама
178
448942
3776
а навколо нього з'являються
07:44
would appearз'являтися around him.
179
452718
1835
персоналізовані рекламні голограми.
07:46
Now, that movieфільм is setвстановити in 2054,
180
454553
3227
Дія фільму відбувається у 2054 році
07:49
about 40 yearsроків from now,
181
457780
1642
близько 40 років від нашого часу,
07:51
and as excitingхвилююче as that technologyтехнологія looksвиглядає,
182
459422
2908
і хоч як захоплююче виглядають ці технології,
07:54
it alreadyвже vastlyвеличезно underestimatesнедооцінює
183
462330
2646
вони вже значно недооцінюють
07:56
the amountсума of informationінформація that organizationsорганізації
184
464976
2140
кількості інформації, яку організації
07:59
can gatherзібрати about you, and how they can use it
185
467116
2483
можуть про Вас зібрати і як вони можуть нею скористатись,
08:01
to influenceвплив you in a way that you will not even detectвиявити.
186
469599
3398
щоб вплинути на Вас без Вашого відома.
08:04
So as an exampleприклад, this is anotherінший experimentексперимент
187
472997
2103
Отже, як приклад маємо інший експеримент,
08:07
actuallyнасправді we are runningбіг, not yetвсе-таки completedзавершено.
188
475100
2273
який ще триває.
08:09
ImagineУявіть собі that an organizationорганізація has accessдоступ
189
477373
2319
Уявіть, що організація має доступ
08:11
to your listсписок of FacebookFacebook friendsдрузі,
190
479692
2056
до списку ваших друзів на Facebook
08:13
and throughчерез some kindдоброзичливий of algorithmалгоритм
191
481748
1772
і завдяки певному алгоритму дій
08:15
they can detectвиявити the two friendsдрузі that you like the mostнайбільше.
192
483520
3734
вона може виокремити двох улюблених,
08:19
And then they createстворити, in realреальний time,
193
487254
2280
а також в реальному часі скомпонувати
08:21
a facialДогляд за шкірою обличчя compositeкомпозитний of these two friendsдрузі.
194
489534
2842
з них двох фоторобот.
08:24
Now studiesнавчання priorпопередньо to oursнаш have shownпоказано that people
195
492376
3069
Дослідження, що передували нашим, показують, що люди
08:27
don't recognizeрозпізнати any longerдовше even themselvesсамі
196
495445
2885
більше не розпізнають навіть самих себе
08:30
in facialДогляд за шкірою обличчя compositesкомпозити, but they reactреагувати
197
498330
2462
на фотороботах, проте реагують
08:32
to those compositesкомпозити in a positiveпозитивний mannerманера.
198
500792
2117
на такі вельми позитивно.
08:34
So nextдалі time you are looking for a certainпевний productпродукт,
199
502909
3415
Тому наступного разу, шукаючи певний товар,
08:38
and there is an adреклама suggestingпропонуючи you to buyкупити it,
200
506324
2559
в рекламі, що пропонуватиме вам його придбати
08:40
it will not be just a standardстандарт spokespersonпрес-секретар.
201
508883
2907
буде не просто незнайома людина.
08:43
It will be one of your friendsдрузі,
202
511790
2313
Це буде один із ваших друзів,
08:46
and you will not even know that this is happeningвідбувається.
203
514103
3303
а ви навіть не здогадуватиметесь про це.
08:49
Now the problemпроблема is that
204
517406
2413
Проблема полягає в тому,
08:51
the currentструм policyполітика mechanismsмеханізми we have
205
519819
2519
що сучасні механізми захисту
08:54
to protectзахистити ourselvesми самі from the abusesзловживання of personalособистий informationінформація
206
522338
3438
від зловживання персональною інформацією
08:57
are like bringingприведення a knifeнож to a gunfightgunfight.
207
525776
2984
виглядають як ніж, принесений на перестрілку.
09:00
One of these mechanismsмеханізми is transparencyпрозорість,
208
528760
2913
Один із цих механізмів - прозорість,
09:03
tellingкажучи people what you are going to do with theirїх dataдані.
209
531673
3200
яка каже людям, яким чином ви збираєтеся використовувати їхні особисті дані.
09:06
And in principleпринцип, that's a very good thing.
210
534873
2106
Загалом це дуже хороша і необхідна річ.
09:08
It's necessaryнеобхідний, but it is not sufficientдостатній.
211
536979
3667
Але її недостатньо.
09:12
TransparencyПрозорість can be misdirectedневірними.
212
540646
3698
Прозорість може бути неправильно адресована.
09:16
You can tell people what you are going to do,
213
544344
2104
Ви можете інформувати людей про те, що ви збираєтесь робити,
09:18
and then you still nudgeЗсунути them to discloseрозкривати
214
546448
2232
але, все-таки, підштовхувати їх видавати
09:20
arbitraryдовільне amountsсуми of personalособистий informationінформація.
215
548680
2623
довільну кількість персональної інформації.
09:23
So in yetвсе-таки anotherінший experimentексперимент, this one with studentsстуденти,
216
551303
2886
Ми здійснили ще один експеримент, цього разу зі студентами.
09:26
we askedзапитав them to provideзабезпечити informationінформація
217
554189
3058
Ми попросили їх надати інформацію
09:29
about theirїх campusкампус behaviorповедінка,
218
557247
1813
про їхню поведінку в студентському містечку,
09:31
includingв тому числі prettyкрасиво sensitiveчутливий questionsпитання, suchтакий as this one.
219
559060
2940
включивши доволі делікатні питання, наприклад:
09:34
[Have you ever cheatedобдурено in an examіспит?]
220
562000
621
[ Ви коли-небудь списували на іспиті?]
09:34
Now to one groupгрупа of subjectsпредметів, we told them,
221
562621
2300
Одній групі студентів ми сказали:
09:36
"Only other studentsстуденти will see your answersвідповіді."
222
564921
2841
"Тільки студенти бачитимуть ваші відповіді".
09:39
To anotherінший groupгрупа of subjectsпредметів, we told them,
223
567762
1579
Іншій групі ми сказали:
09:41
"StudentsСтуденти and facultyфакультет will see your answersвідповіді."
224
569341
3561
"Ваші відповіді бачитимуть студенти і викладачі".
09:44
TransparencyПрозорість. NotificationСповіщення. And sure enoughдостатньо, this workedпрацював,
225
572902
2591
Прозорість. Попередження. Звісно, це спрацювало.
09:47
in the senseсенс that the first groupгрупа of subjectsпредметів
226
575493
1407
В тому сенсі, що у першій групі піддослідних
09:48
were much more likelyшвидше за все to discloseрозкривати than the secondдругий.
227
576900
2568
була більша ймовірність правдивості інформації.
09:51
It makesробить senseсенс, right?
228
579468
1520
Логічно, чи не так?
09:52
But then we addedдодано the misdirectionнеправильним.
229
580988
1490
Але тоді ми застосували зворотню вказівку.
09:54
We repeatedповторив the experimentексперимент with the sameтой же two groupsгрупи,
230
582478
2760
Ми повторили експеримент з тими ж групами,
09:57
this time addingдодавши a delayзатримка
231
585238
2427
проте цього разу додали затримку
09:59
betweenміж the time we told subjectsпредметів
232
587665
2935
в часі, між тим, щоб повідомити опонентам,
10:02
how we would use theirїх dataдані
233
590600
2080
як ми будемо використовувати їх дані,
10:04
and the time we actuallyнасправді startedпочався answeringвідповідати the questionsпитання.
234
592680
4388
і часом, коли вони почали відповідати.
10:09
How long a delayзатримка do you think we had to addдодати
235
597068
2561
Наскільки довгою, на Вашу думку, мала бути затримка,
10:11
in orderзамовлення to nullifyанулювати the inhibitoryгальмівний effectефект
236
599629
4613
щоб звести нанівець ефект придушення
10:16
of knowingзнаючи that facultyфакультет would see your answersвідповіді?
237
604242
3411
факту, що викладачі побачать їхні відповіді?
10:19
TenДесять minutesхвилин?
238
607653
1780
10 хвилин?
10:21
FiveП'ять minutesхвилин?
239
609433
1791
5 хвилин?
10:23
One minuteхвилина?
240
611224
1776
1 хвилина?
10:25
How about 15 secondsсекунд?
241
613000
2049
Як щодо 15 секунд?
10:27
FifteenП'ятнадцять років secondsсекунд were sufficientдостатній to have the two groupsгрупи
242
615049
2668
15 секунд було достатньо, щоб дві групи опонентів
10:29
discloseрозкривати the sameтой же amountсума of informationінформація,
243
617717
1568
розкрили таку ж кількість інформації,
10:31
as if the secondдругий groupгрупа now no longerдовше caresтурботи
244
619285
2746
при тому, що другу групу не хвилювало те,
10:34
for facultyфакультет readingчитання theirїх answersвідповіді.
245
622031
2656
що викладачі побачать відповіді.
10:36
Now I have to admitвизнати that this talk so farдалеко
246
624687
3336
Мушу визнати, що моя промова
10:40
mayможе soundзвук exceedinglyнадзвичайно gloomyПохмуро,
247
628023
2480
мабуть звучить надзвичайно гнітюче,
10:42
but that is not my pointточка.
248
630503
1721
але це не моя точка зору.
10:44
In factфакт, I want to shareподілитися with you the factфакт that
249
632224
2699
Насправді, я хочу сказати вам про те,
10:46
there are alternativesальтернативи.
250
634923
1772
що є альтернатива.
10:48
The way we are doing things now is not the only way
251
636695
2499
Спосіб, до якого ми вдаємося, не єдиний
10:51
they can doneзроблено, and certainlyзвичайно not the bestнайкраще way
252
639194
3037
і не найкращий, порівняно зі способом,
10:54
they can be doneзроблено.
253
642231
2027
яким ми можемо їх робити.
10:56
When someoneхтось tellsрозповідає you, "People don't careтурбота about privacyконфіденційність,"
254
644258
4171
Коли хтось каже вам: "Люди не зважають на приватність",
11:00
considerрозглянемо whetherчи то the gameгра has been designedрозроблений
255
648429
2642
подумайте про те, чи правилами гри було обумовлено,
11:03
and riggedфальсифікований so that they cannotне можу careтурбота about privacyконфіденційність,
256
651071
2724
що вони не можуть турбуватися про приватність
11:05
and comingприходить to the realizationреалізації that these manipulationsманіпуляції occurвиникати
257
653795
3262
і усвідомлюючи, що такі маніпуляції тапляються
11:09
is alreadyвже halfwayна півдорозі throughчерез the processпроцес
258
657057
1607
на половині шляху до
11:10
of beingбуття ableздатний to protectзахистити yourselfсамі.
259
658664
2258
здатності захисти себе.
11:12
When someoneхтось tellsрозповідає you that privacyконфіденційність is incompatibleнесумісні
260
660922
3710
Коли хтось каже вам, що приватність несумісна
11:16
with the benefitsвигоди of bigвеликий dataдані,
261
664632
1849
з перевагами великих баз даних,
11:18
considerрозглянемо that in the last 20 yearsроків,
262
666481
2473
подумайте про те, що протягом останніх 20 років
11:20
researchersдослідники have createdстворений technologiesтехнології
263
668954
1917
дослідники створили технології,
11:22
to allowдозволити virtuallyпрактично any electronicелектронний transactionsУгоди
264
670871
3318
що дозволяють віртуальним електронним транзакціям
11:26
to take placeмісце in a more privacy-preservingзбереження конфіденційності mannerманера.
265
674189
3749
відбуватися в режимі збереження приватності.
11:29
We can browseОгляд the InternetІнтернет anonymouslyанонімно.
266
677938
2555
Ми можемо анонімно переглядати інтернет-сторінки.
11:32
We can sendвідправити emailsелектронні листи that can only be readчитати
267
680493
2678
Ми можемо надсилати приватні електронні листи,
11:35
by the intendedпризначений recipientодержувач, not even the NSAАНБ.
268
683171
3709
до яких не має доступу навіть Управління національної безпеки.
11:38
We can have even privacy-preservingзбереження конфіденційності dataдані miningвидобуток.
269
686880
2997
Ми навіть можемо мати глибокий аналіз приватних даних.
11:41
In other wordsслова, we can have the benefitsвигоди of bigвеликий dataдані
270
689877
3894
Іншими словами, ми можемо отримувати вигоду від великих баз даних,
11:45
while protectingзахист privacyконфіденційність.
271
693771
2132
одночасно захищаючи свою приватність.
11:47
Of courseзвичайно, these technologiesтехнології implyпередбачають a shiftingпереміщення
272
695903
3791
Звісно, такі технології передбачають рух
11:51
of costвартість and revenuesдоходи
273
699694
1546
вартості та доходів
11:53
betweenміж dataдані holdersвласники and dataдані subjectsпредметів,
274
701240
2107
між сервісами зберігання та власниками даних,
11:55
whichкотрий is why, perhapsможе бути, you don't hearпочуй more about them.
275
703347
3453
саме тому ви, мабуть, не чули багато про них.
11:58
WhichЯкий bringsприносить me back to the GardenСад of EdenГотель Eden.
276
706800
3706
Це повертає мене до Едемського саду.
12:02
There is a secondдругий privacyконфіденційність interpretationінтерпретація
277
710506
2780
Існує інше трактування приватності
12:05
of the storyісторія of the GardenСад of EdenГотель Eden
278
713286
1809
з історії Едемського саду,
12:07
whichкотрий doesn't have to do with the issueпроблема
279
715095
2096
яке не має нічого спільного з тим,
12:09
of AdamАдам and EveЄва feelingпочуття nakedголий
280
717191
2225
що Адам і Єва побачили, що вони голі
12:11
and feelingпочуття ashamedсоромно.
281
719416
2381
і відчули сором.
12:13
You can find echoesвідгомони of this interpretationінтерпретація
282
721797
2781
Ви можете знайти схоже трактування
12:16
in JohnДжон Milton'sMilton "ParadiseРай LostВтратили."
283
724578
2782
у "Втраченому раї" Джона Мільтона.
12:19
In the gardenсад, AdamАдам and EveЄва are materiallyістотно contentзміст.
284
727360
4197
В саду Адам і Єва природньо задоволені.
12:23
They're happyщасливий. They are satisfiedзадоволений.
285
731557
2104
Вони щасливі. Вони задоволені.
12:25
HoweverОднак, they alsoтакож lackбрак knowledgeзнання
286
733661
2293
Тим не менше, їм бракує знань
12:27
and self-awarenessсамосвідомість.
287
735954
1640
та самосвідомості.
12:29
The momentмомент they eatїсти the aptlyвлучно namedназваний
288
737594
3319
У мить, коли вони куштують
12:32
fruitфрукти of knowledgeзнання,
289
740913
1293
плід пізнання,
12:34
that's when they discoverвідкрити themselvesсамі.
290
742206
2605
вони усвідомлюють себе.
12:36
They becomeстати awareусвідомлювати. They achieveдомогтися autonomyАвтономія.
291
744811
4031
Вони стають свідомими. Вони досягають автономії.
12:40
The priceціна to payплатити, howeverоднак, is leavingзалишаючи the gardenсад.
292
748842
3126
Проте ціна розплати - вигнання з раю.
12:43
So privacyконфіденційність, in a way, is bothобидва the meansзасоби
293
751968
3881
Тому приватність є засобом і ціною,
12:47
and the priceціна to payплатити for freedomсвобода.
294
755849
2962
яку слід платити за свободу.
12:50
Again, marketersмаркетологи tell us
295
758811
2770
Знову ж таки, маркетологи кажуть нам,
12:53
that bigвеликий dataдані and socialсоціальний mediaЗМІ
296
761581
3019
що великі бази даних і соціальні медіа
12:56
are not just a paradiseрай of profitприбуток for them,
297
764600
2979
є не тільки раєм прибутків для них,
12:59
but a GardenСад of EdenГотель Eden for the restвідпочинок of us.
298
767579
2457
але Едемським садом для всіх нас.
13:02
We get freeбезкоштовно contentзміст.
299
770036
1238
Ми отримуємо безкоштовний контент.
13:03
We get to playграти AngryСердитий BirdsПтахи. We get targetedцілеспрямований appsдодатки.
300
771274
3123
Ми отримуємо гру Angry Birds. Ми отримуємо цільові додатки.
13:06
But in factфакт, in a fewмало хто yearsроків, organizationsорганізації
301
774397
2897
Але через кілька років організації
13:09
will know so much about us,
302
777294
1609
знатимуть про нас стільки,
13:10
they will be ableздатний to inferзробити висновок our desiresбажання
303
778903
2710
що вони будуть здатні вивести наші бажання
13:13
before we even formформа them, and perhapsможе бути
304
781613
2204
перед тим, як ми їх сформуємо, а можливо й
13:15
buyкупити productsпродукти on our behalfвід імені
305
783817
2447
придбати продукти від нашого імені
13:18
before we even know we need them.
306
786264
2274
до того, як ми знатимемо, що вони нам потрібні.
13:20
Now there was one Englishанглійська authorавтор
307
788538
3237
Був один англійський письменник,
13:23
who anticipatedочікуваний this kindдоброзичливий of futureмайбутнє
308
791775
3045
що очікував майбутнього,
13:26
where we would tradeторгівля away
309
794820
1405
в якому ми віддамо
13:28
our autonomyАвтономія and freedomсвобода for comfortкомфорт.
310
796225
3548
свою автономність і свободу заради комфорту.
13:31
Even more so than GeorgeДжордж OrwellГотель Orwell,
311
799773
2161
Навіть більше, ніж Джордж Орвелл,
13:33
the authorавтор is, of courseзвичайно, AldousОлдос HuxleyХакслі.
312
801934
2761
цей автор, звісно ж, Олдос Гакслі.
13:36
In "BraveХоробрий NewНові WorldСвіт," he imaginesуявляє a societyсуспільство
313
804695
2854
У романі "Чудовий новий світ" він описав суспільство,
13:39
where technologiesтехнології that we createdстворений
314
807549
2171
в якому технології, що первинно створені
13:41
originallyспочатку for freedomсвобода
315
809720
1859
для свободи,
13:43
endкінець up coercingПримус us.
316
811579
2567
в результаті поневолюють нас.
13:46
HoweverОднак, in the bookкнига, he alsoтакож offersпропозиції us a way out
317
814146
4791
Проте в книзі він також пропонує нам вихід
13:50
of that societyсуспільство, similarподібний to the pathшлях
318
818937
3438
з цього суспільства, схожий до шляху,
13:54
that AdamАдам and EveЄва had to followслідуйте to leaveзалишати the gardenсад.
319
822375
3955
який Адам і Єва пішли, щоб покинути рай.
13:58
In the wordsслова of the SavageSavage,
320
826330
2147
Словами Дикуна (героя роману),
14:00
regainingвідновлення autonomyАвтономія and freedomсвобода is possibleможливий,
321
828477
3069
відновлення автономності і свободи можливе,
14:03
althoughхоча the priceціна to payплатити is steepкрутий.
322
831546
2679
проте ціна надмірно висока.
14:06
So I do believe that one of the definingвизначаючи fightsбійки
323
834225
5715
Тому я вважаю, що одним із вирішальних боїв
14:11
of our timesразів will be the fightбій
324
839940
2563
нашого часу буде бій
14:14
for the controlКОНТРОЛЬ over personalособистий informationінформація,
325
842503
2387
за отримання контролю над особистими даними,
14:16
the fightбій over whetherчи то bigвеликий dataдані will becomeстати a forceсила
326
844890
3507
боротьба, в якій великі бази даних стануть силою
14:20
for freedomсвобода,
327
848397
1289
для свободи,
14:21
ratherшвидше than a forceсила whichкотрий will hiddenlyhiddenly manipulateманіпулювати us.
328
849686
4746
а не такою, що приховано маніпулюватиме нами.
14:26
Right now, manyбагато хто of us
329
854432
2593
Саме зараз багато з нас
14:29
do not even know that the fightбій is going on,
330
857025
2753
навіть не усвідомлюють, що боротьба вже триває.
14:31
but it is, whetherчи то you like it or not.
331
859778
2672
Проте факт залишається фактом, подобається вам це чи ні.
14:34
And at the riskризик of playingграє the serpentзмія,
332
862450
2804
І, ризикуючи зіграти змія,
14:37
I will tell you that the toolsінструменти for the fightбій
333
865254
2897
скажу вам, що засоби боротьби
14:40
are here, the awarenessусвідомлення of what is going on,
334
868151
3009
є тут - усвідомлення того, що відбувається.
14:43
and in your handsруки,
335
871160
1355
І вони в ваших руках.
14:44
just a fewмало хто clicksкліки away.
336
872515
3740
Всього кілька кліків мишкою.
14:48
Thank you.
337
876255
1482
Дякую.
14:49
(ApplauseОплески)
338
877737
4477
(Оплески)
Translated by Roksolana Berezhanska
Reviewed by Marta Oliynyk

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com