ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

亚历山德罗·艾奎斯提: 为什么个人隐私如此重要?

Filmed:
1,423,103 views

在过去的几十年,网上和真实生活中,公共生活和私生活的界限变得越来越模糊,亚历山德罗·艾奎斯提解释了这一现象意味着什么和为什么这很重要。在这个让人发醒、甚至有些不寒而栗的演讲中,他分享了最近的研究-包括一个如何简单的把一张陌生人的照片和他们的个人敏感信息相匹配的项目。
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a story故事
0
641
2354
我想跟大家分享一个
00:14
connecting the notorious臭名昭著 privacy隐私 incident事件
1
2995
3176
将亚当和夏娃的
00:18
involving涉及 Adam亚当 and Eve前夕,
2
6171
2769
臭名昭著的隐私事件
00:20
and the remarkable卓越 shift转移 in the boundaries边界
3
8940
3446
和过去十年发生的
00:24
between之间 public上市 and private私人的 which哪一个 has occurred发生
4
12386
2686
公共和隐私领域里的显著变迁
00:27
in the past过去 10 years年份.
5
15072
1770
相结合的故事。
00:28
You know the incident事件.
6
16842
1298
大家都知道这个事件吧。
00:30
Adam亚当 and Eve前夕 one day in the Garden花园 of Eden伊甸园
7
18140
3330
在伊甸园里有一天亚当和夏娃
00:33
realize实现 they are naked.
8
21470
1843
意识到了他们是赤裸的。
00:35
They freak怪物 out.
9
23313
1500
他们吓坏了。
00:36
And the rest休息 is history历史.
10
24813
2757
然后剩下的就是历史了。
00:39
Nowadays如今, Adam亚当 and Eve前夕
11
27570
2188
换作现在的话,亚当和夏娃
00:41
would probably大概 act法案 differently不同.
12
29758
2361
可能会有不同的举动。
00:44
[@Adam亚当 Last nite有限 was a blast爆破! loved喜爱 datDAT apple苹果 LOL大声笑]
13
32119
2268
(推特)[@亚当,昨天太销魂了!我好爱那个苹果啊。]
00:46
[@Eve前夕 yep是的.. babe孩儿, know what happened发生 to my pants裤子 tho寿?]
14
34387
1873
[@夏娃,是啊,宝贝儿,知道我裤子变成什么样了吗?]
00:48
We do reveal揭示 so much more information信息
15
36260
2636
我们确实比以往任何时候都开放,
00:50
about ourselves我们自己 online线上 than ever before,
16
38896
3334
把大量关于自己的信息放在网上传播。
00:54
and so much information信息 about us
17
42230
1704
而且这么多有关我们的信息
00:55
is being存在 collected by organizations组织.
18
43934
2224
正在被各种机构收集起来。
00:58
Now there is much to gain获得 and benefit效益
19
46158
3282
当今,通过对这些大量
01:01
from this massive大规模的 analysis分析 of personal个人 information信息,
20
49440
2446
个人信息的研究,
01:03
or big data数据,
21
51886
1946
我们从中受益非浅;
01:05
but there are also complex复杂 tradeoffs权衡 that come
22
53832
2638
但是在放弃我们的隐私的同时
01:08
from giving away our privacy隐私.
23
56470
3098
也要付出很多的代价。
01:11
And my story故事 is about these tradeoffs权衡.
24
59568
4023
而我的故事就是关于这些代价的。
01:15
We start开始 with an observation意见 which哪一个, in my mind心神,
25
63591
2584
让我们首先看看一个我认为
01:18
has become成为 clearer更清晰 and clearer更清晰 in the past过去 few少数 years年份,
26
66175
3327
在过去几年已经变得越来越清晰的现象,
01:21
that any personal个人 information信息
27
69502
2097
那就是任何个人信息
01:23
can become成为 sensitive敏感 information信息.
28
71599
2285
都可能变成敏感信息。
01:25
Back in the year 2000, about 100 billion十亿 photos相片
29
73884
4125
在2000年的时候,全球大约拍摄了1000亿
01:30
were shot射击 worldwide全世界,
30
78009
1912
的照片,
01:31
but only a minuscule微不足道 proportion比例 of them
31
79921
3065
但是只有非常微不足道的一部分
01:34
were actually其实 uploaded上传 online线上.
32
82986
1883
被放在了网上。
01:36
In 2010, only on FacebookFacebook的, in a single month,
33
84869
3361
到了2010年,仅仅在脸书上,一个月
01:40
2.5 billion十亿 photos相片 were uploaded上传,
34
88230
3270
就上传了25亿张照片,
01:43
most of them identified确定.
35
91500
1882
大部分都是可确认的。
01:45
In the same相同 span跨度 of time,
36
93382
1880
同时,
01:47
computers'电脑' ability能力 to recognize认识 people in photos相片
37
95262
4870
计算机在照片中识别面孔的能力
01:52
improved改善 by three orders命令 of magnitude大小.
38
100132
3608
提高了三个数量级。
01:55
What happens发生 when you combine结合
39
103740
1882
当你把这些技术结合起来后
01:57
these technologies技术 together一起:
40
105622
1501
会发生什么呢?
01:59
increasing增加 availability可用性 of facial面部 data数据;
41
107123
2658
不断增加的脸部信息可用性;
02:01
improving提高 facial面部 recognizing认识 ability能力 by computers电脑;
42
109781
3648
不断增强的计算机面部识别能力;
02:05
but also cloud computing计算,
43
113429
2182
同时还有云计算,
02:07
which哪一个 gives anyone任何人 in this theater剧院
44
115611
1888
让在座的任何人
02:09
the kind of computational计算 power功率
45
117499
1560
都拥有了
02:11
which哪一个 a few少数 years年份 ago was only the domain
46
119059
1886
几年前只有情报机构才有的
02:12
of three-letter三个字母 agencies机构;
47
120945
1782
计算能力;
02:14
and ubiquitous普及 computing计算,
48
122727
1378
同时还有普适计算,
02:16
which哪一个 allows允许 my phone电话, which哪一个 is not a supercomputer超级计算机,
49
124105
2892
让我的手机,
02:18
to connect to the Internet互联网
50
126997
1671
和互联网相连接
02:20
and do there hundreds数以百计 of thousands数千
51
128668
2334
然后可以在几秒内进行
02:23
of face面对 metrics指标 in a few少数 seconds?
52
131002
2639
成百上千的面部数据测算。
02:25
Well, we conjecture推测 that the result结果
53
133641
2628
我们预测
02:28
of this combination组合 of technologies技术
54
136269
2064
这些技术的结合体
02:30
will be a radical激进 change更改 in our very notions概念
55
138333
2888
会对我们所谓的隐私和匿名
02:33
of privacy隐私 and anonymity匿名.
56
141221
2257
产生非常巨大的影响。
02:35
To test测试 that, we did an experiment实验
57
143478
1993
为了证明这个想法,我们在
02:37
on Carnegie卡内基 Mellon梅隆 University大学 campus校园.
58
145471
2121
卡内基·梅隆大学校园里做了一个测试。
02:39
We asked students学生们 who were walking步行 by
59
147592
2099
我们让过路的学生们
02:41
to participate参加 in a study研究,
60
149691
1779
参与一项研究,
02:43
and we took a shot射击 with a webcam摄像头,
61
151470
2562
我们用摄像头给他们照了相,
02:46
and we asked them to fill out a survey调查 on a laptop笔记本电脑.
62
154032
2782
然后我们让他们在电脑上填写一张调查问卷。
02:48
While they were filling填充 out the survey调查,
63
156814
1979
在此同时,
02:50
we uploaded上传 their shot射击 to a cloud-computing云计算 cluster,
64
158793
2797
我们把他们的照片上传到一个云计算节点上,
02:53
and we started开始 using运用 a facial面部 recognizer识别
65
161590
1727
然后我们开始用一个面部识别程序来
02:55
to match比赛 that shot射击 to a database数据库
66
163317
2405
把那张照片和一个有
02:57
of some hundreds数以百计 of thousands数千 of images图片
67
165722
2393
成百上千张照片的数据库相比较对照
03:00
which哪一个 we had downloaded下载 from FacebookFacebook的 profiles型材.
68
168115
3596
这些照片都是我们从脸书上下载下来的。
03:03
By the time the subject学科 reached到达 the last page
69
171711
3259
当被研究对象做到问卷的最后一页时,
03:06
on the survey调查, the page had been dynamically动态 updated更新
70
174970
3347
那页已经自动显示我们找到的
03:10
with the 10 best最好 matching匹配 photos相片
71
178317
2313
10张由识别程序找到的
03:12
which哪一个 the recognizer识别 had found发现,
72
180630
2285
最相似的图片,
03:14
and we asked the subjects主题 to indicate表明
73
182915
1738
然后我们让被研究对象确认
03:16
whether是否 he or she found发现 themselves他们自己 in the photo照片.
74
184653
4120
那些照片到底是不是自己。
03:20
Do you see the subject学科?
75
188773
3699
大家看到被研究对象了吗?
03:24
Well, the computer电脑 did, and in fact事实 did so
76
192472
2845
电脑做到了,实际上它的准确率是
03:27
for one out of three subjects主题.
77
195317
2149
三分之一。
03:29
So essentially实质上, we can start开始 from an anonymous匿名 face面对,
78
197466
3184
基本上,我们可以从一张匿名的面孔开始,
03:32
offline离线 or online线上, and we can use facial面部 recognition承认
79
200650
3484
线下或线上,然后我们可以用脸部识别技术
03:36
to give a name名称 to that anonymous匿名 face面对
80
204134
2360
找到那个人。
03:38
thanks谢谢 to social社会 media媒体 data数据.
81
206494
2108
这多亏了社交媒体的数据。
03:40
But a few少数 years年份 back, we did something else其他.
82
208602
1872
但是几年前,我们做了些其他事情。
03:42
We started开始 from social社会 media媒体 data数据,
83
210474
1823
我们从社交媒体数据出发,
03:44
we combined结合 it statistically统计学 with data数据
84
212297
3051
然后我们把它和美国政府的
03:47
from U.S. government政府 social社会 security安全,
85
215348
2102
社会安全机构里的数据相对照,
03:49
and we ended结束 up predicting预测 social社会 security安全 numbers数字,
86
217450
3324
我们最终可以预测一个人的社会保险号码,
03:52
which哪一个 in the United联合的 States状态
87
220774
1512
这个号码在美国
03:54
are extremely非常 sensitive敏感 information信息.
88
222286
2040
是极其敏感的信息。
03:56
Do you see where I'm going with this?
89
224326
2093
大家明白我的意思了吗?
03:58
So if you combine结合 the two studies学习 together一起,
90
226419
2922
如果你把这两个研究相结合,
04:01
then the question becomes,
91
229341
1512
问题就来了,
04:02
can you start开始 from a face面对 and,
92
230853
2720
你可不可以从一张面孔出发,
04:05
using运用 facial面部 recognition承认, find a name名称
93
233573
2311
然后通过面部识别找到这个人
04:07
and publicly公然 available可得到 information信息
94
235884
2669
和有关此人的
04:10
about that name名称 and that person,
95
238553
1932
各种公共信息,
04:12
and from that publicly公然 available可得到 information信息
96
240485
2248
从这些公共信息里,
04:14
infer推断 non-publicly非公开 available可得到 information信息,
97
242733
2042
可以推断出未公开的信息,
04:16
much more sensitive敏感 ones那些
98
244775
1606
即那些关于此人
04:18
which哪一个 you link链接 back to the face面对?
99
246381
1492
更敏感的信息呢?
04:19
And the answer回答 is, yes, we can, and we did.
100
247873
1916
答案是,可以的,我们也做到了。
04:21
Of course课程, the accuracy准确性 keeps保持 getting得到 worse更差.
101
249789
2568
当然,准确率也变糟了。
04:24
[27% of subjects'受试者 first 5 SSNSSN digits数字 identified确定 (with 4 attempts尝试)]
102
252357
944
[27%的调查对象的社会保障号头5个数字
可以通过4次尝试得到]
04:25
But in fact事实, we even decided决定 to develop发展 an iPhone苹果手机 app应用
103
253301
3827
但实际上,我们甚至决定开发一个苹果应用,
04:29
which哪一个 uses使用 the phone's手机 internal内部 camera相机
104
257128
2715
这个应用使用手机内置的相机给
04:31
to take a shot射击 of a subject学科
105
259843
1600
研究对象拍照
04:33
and then upload上载 it to a cloud
106
261443
1487
然后把照片上传到云端
04:34
and then do what I just described描述 to you in real真实 time:
107
262930
2662
然后实时地进行我刚才描述的计算:
04:37
looking for a match比赛, finding发现 public上市 information信息,
108
265592
2088
寻找匹配,公共信息,
04:39
trying to infer推断 sensitive敏感 information信息,
109
267680
1730
尝试推测敏感信息,
04:41
and then sending发出 back to the phone电话
110
269410
2591
然后把这些信息传送回手机
04:44
so that it is overlaid覆盖 on the face面对 of the subject学科,
111
272001
3609
然后把这些信息列到研究对象的图像旁边,
04:47
an example of augmented增强 reality现实,
112
275610
1901
这是个夸张现实的例子,
04:49
probably大概 a creepy爬行 example of augmented增强 reality现实.
113
277511
2451
大概也是一个令人毛骨悚然的现实。
04:51
In fact事实, we didn't develop发展 the app应用 to make it available可得到,
114
279962
3339
实际上,我们没有开发这个应用,
04:55
just as a proof证明 of concept概念.
115
283301
1922
这只是一个概念验证。
04:57
In fact事实, take these technologies技术
116
285223
2313
事实是,让我们把这些技术推进到
04:59
and push them to their logical合乎逻辑 extreme极端.
117
287536
1837
逻辑的极限。
05:01
Imagine想像 a future未来 in which哪一个 strangers陌生人 around you
118
289373
2719
设想一下未来你周围的陌生人
05:04
will look at you through通过 their Google谷歌 Glasses眼镜
119
292092
2311
可以通过他们的谷歌眼镜
05:06
or, one day, their contact联系 lenses镜头,
120
294403
2307
或者,他们的隐形眼镜,
05:08
and use seven or eight data数据 points about you
121
296710
4020
并通过你身上的7、8个数据点
05:12
to infer推断 anything else其他
122
300730
2582
就可以推测出
05:15
which哪一个 may可能 be known已知 about you.
123
303312
2603
任何与你有关的信息。
05:17
What will this future未来 without secrets秘密 look like?
124
305915
4794
这个没有任何秘密的未来会是怎样的?
05:22
And should we care关心?
125
310709
1964
而我们该不该关心这个问题?
05:24
We may可能 like to believe
126
312673
1891
我们可能会倾向于相信
05:26
that the future未来 with so much wealth财富 of data数据
127
314564
3040
这个有这么丰富的数据的未来
05:29
would be a future未来 with no more biases偏见,
128
317604
2514
会是一个不再有偏见的未来,
05:32
but in fact事实, having so much information信息
129
320118
3583
但实际上,拥有这么多的信息
05:35
doesn't mean that we will make decisions决定
130
323701
2191
并不意味着我们就会做出
05:37
which哪一个 are more objective目的.
131
325892
1706
更理性的选择。
05:39
In another另一个 experiment实验, we presented呈现 to our subjects主题
132
327598
2560
在另一个试验里,我们给研究对象
05:42
information信息 about a potential潜在 job工作 candidate候选人.
133
330158
2246
关于一个工作应征者的信息。
05:44
We included包括 in this information信息 some references引用
134
332404
3178
上传信息里同时也包括了一些
05:47
to some funny滑稽, absolutely绝对 legal法律,
135
335582
2646
有趣并且绝对合法,
05:50
but perhaps也许 slightly embarrassing尴尬 information信息
136
338228
2465
但毕竟有些
05:52
that the subject学科 had posted发布 online线上.
137
340693
2020
尴尬的内容。
05:54
Now interestingly有趣, among其中 our subjects主题,
138
342713
2366
有趣的是,
05:57
some had posted发布 comparable可比 information信息,
139
345079
3083
一部分研究对象发布了类似的信息,
06:00
and some had not.
140
348162
2362
有些没有。
06:02
Which哪一个 group do you think
141
350524
1949
大家认为哪个组
06:04
was more likely容易 to judge法官 harshly粗暴地 our subject学科?
142
352473
4552
会更有可能质疑他人呢?
06:09
Paradoxically矛盾的是, it was the group
143
357025
1957
自相矛盾的是,
06:10
who had posted发布 similar类似 information信息,
144
358982
1733
那是发布了类似信息的组,
06:12
an example of moral道德 dissonance不和谐.
145
360715
2942
这就是一个与个人道德相悖的例子。
06:15
Now you may可能 be thinking思维,
146
363657
1750
大家可能现在会想,
06:17
this does not apply应用 to me,
147
365407
1702
这跟我无关,
06:19
because I have nothing to hide隐藏.
148
367109
2162
因为我没有什么可隐藏的。
06:21
But in fact事实, privacy隐私 is not about
149
369271
2482
但实际上,隐私不是说
06:23
having something negative to hide隐藏.
150
371753
3676
你有什么坏事情要隐藏。
06:27
Imagine想像 that you are the H.R. director导向器
151
375429
2354
想象一下你是某机构人事部的主管,
06:29
of a certain某些 organization组织, and you receive接收sumés,
152
377783
2947
你收到一些简历,
06:32
and you decide决定 to find more information信息 about the candidates候选人.
153
380730
2473
然后你决定寻找更多的关于这些应征者的信息。
06:35
Therefore因此, you Google谷歌 their names
154
383203
2460
然后,你就在谷歌上搜他们的名字
06:37
and in a certain某些 universe宇宙,
155
385663
2240
在某种情形下,
06:39
you find this information信息.
156
387903
2008
你找到这个信息。
06:41
Or in a parallel平行 universe宇宙, you find this information信息.
157
389911
4437
或者在一个平行的空间里,你找到了这个信息。
06:46
Do you think that you would be equally一样 likely容易
158
394348
2717
你认为你会公平的
06:49
to call either candidate候选人 for an interview访问?
159
397065
2803
给任何一个应征者面试的机会吗?
06:51
If you think so, then you are not
160
399868
2282
如果你是这样想的话,
06:54
like the U.S. employers雇主 who are, in fact事实,
161
402150
2582
那么你与美国的老板们不同,
06:56
part部分 of our experiment实验, meaning含义 we did exactly究竟 that.
162
404732
3307
实际上,我们就是用了这些老板做的这个试验。
07:00
We created创建 FacebookFacebook的 profiles型材, manipulating操纵 traits性状,
163
408039
3182
我们建立了一些脸书帐号,编制了一些信息,
07:03
then we started开始 sending发出 out résumés to companies公司 in the U.S.,
164
411221
2851
然后我们开始给他们发简历,
07:06
and we detected检测, we monitored监控,
165
414072
1908
此后我们监控着,
07:07
whether是否 they were searching搜索 for our candidates候选人,
166
415980
2393
到底这些公司会不会搜索我们的应征者,
07:10
and whether是否 they were acting演戏 on the information信息
167
418373
1832
他们有没有对他们在社交网络上找到的信息
07:12
they found发现 on social社会 media媒体. And they were.
168
420205
1938
有所举动。实际上他们确实这样做了。
07:14
Discrimination区别 was happening事件 through通过 social社会 media媒体
169
422143
2101
对同等条件的应征者的歧视
07:16
for equally一样 skilled技能的 candidates候选人.
170
424244
3073
是正从社交网络收集的信息开始的。
07:19
Now marketers营销 like us to believe
171
427317
4575
现在营销人员希望我们相信
07:23
that all information信息 about us will always
172
431892
2269
关于我们的所有信息
07:26
be used in a manner方式 which哪一个 is in our favor偏爱.
173
434161
3273
永远都会以我们喜欢的方式被使用。
07:29
But think again. Why should that be always the case案件?
174
437434
3715
但是想想看,凭什么总会是这样?
07:33
In a movie电影 which哪一个 came来了 out a few少数 years年份 ago,
175
441149
2664
在几年前出品的一部电影里,
07:35
"Minority少数民族 Report报告," a famous著名 scene现场
176
443813
2553
“少数派报告”,一个著名的镜头里
07:38
had Tom汤姆 Cruise巡航 walk步行 in a mall购物中心
177
446366
2576
是汤姆·克鲁斯在一个大厦里走着
07:40
and holographic全息 personalized个性化 advertising广告
178
448942
3776
然后全息个性化的广告
07:44
would appear出现 around him.
179
452718
1835
出现在他周围。
07:46
Now, that movie电影 is set in 2054,
180
454553
3227
那部电影的背景年代是2054年,
07:49
about 40 years年份 from now,
181
457780
1642
大约离现在还有40年,
07:51
and as exciting扣人心弦 as that technology技术 looks容貌,
182
459422
2908
就像那个技术显示的一样让人兴奋,
07:54
it already已经 vastly大大 underestimates低估
183
462330
2646
它已经大大低估了
07:56
the amount of information信息 that organizations组织
184
464976
2140
各种机构可以搜集到的
07:59
can gather收集 about you, and how they can use it
185
467116
2483
关于你自己的信息,以及他们如何能利用这些信息
08:01
to influence影响 you in a way that you will not even detect检测.
186
469599
3398
以一种你自己都无法预测到的方式来影响你。
08:04
So as an example, this is another另一个 experiment实验
187
472997
2103
举个例子,这是另一个
08:07
actually其实 we are running赛跑, not yet然而 completed完成.
188
475100
2273
我们正在做的未完成的试验。
08:09
Imagine想像 that an organization组织 has access访问
189
477373
2319
想象一下某个机构有
08:11
to your list名单 of FacebookFacebook的 friends朋友,
190
479692
2056
你的脸书朋友信息,
08:13
and through通过 some kind of algorithm算法
191
481748
1772
通过某种算法
08:15
they can detect检测 the two friends朋友 that you like the most.
192
483520
3734
他们可以找到两个你最喜欢的朋友。
08:19
And then they create创建, in real真实 time,
193
487254
2280
然后,他们的即时创建出
08:21
a facial面部 composite综合 of these two friends朋友.
194
489534
2842
这两个朋友的脸部信息结合体。
08:24
Now studies学习 prior to ours我们的 have shown显示 that people
195
492376
3069
在我们之前的研究显示
08:27
don't recognize认识 any longer even themselves他们自己
196
495445
2885
人们在合成的脸部图片中
08:30
in facial面部 composites复合材料, but they react应对
197
498330
2462
甚至不会识别出自己,
08:32
to those composites复合材料 in a positive manner方式.
198
500792
2117
但是他们却对这些合成图片有好感。
08:34
So next下一个 time you are looking for a certain某些 product产品,
199
502909
3415
那么下次你在浏览某个产品的时候,
08:38
and there is an ad广告 suggesting提示 you to buy购买 it,
200
506324
2559
同时有个广告建议你买它,
08:40
it will not be just a standard标准 spokesperson发言人.
201
508883
2907
这就不会是一个标准的推销员,
08:43
It will be one of your friends朋友,
202
511790
2313
却会变成你的朋友,
08:46
and you will not even know that this is happening事件.
203
514103
3303
而且你都不会意识到正在发生着什么。
08:49
Now the problem问题 is that
204
517406
2413
现在的问题是
08:51
the current当前 policy政策 mechanisms机制 we have
205
519819
2519
我们当下的保护个人信息
08:54
to protect保护 ourselves我们自己 from the abuses滥用 of personal个人 information信息
206
522338
3438
不被滥用的政策法规
08:57
are like bringing使 a knife to a gunfight枪战.
207
525776
2984
还十分薄弱。
09:00
One of these mechanisms机制 is transparency透明度,
208
528760
2913
其中的一个法规是透明性,
09:03
telling告诉 people what you are going to do with their data数据.
209
531673
3200
要告诉人们你将怎样使用这些数据。
09:06
And in principle原理, that's a very good thing.
210
534873
2106
理论上,这是非常好的事情。
09:08
It's necessary必要, but it is not sufficient足够.
211
536979
3667
这是必要的,但是却不完善。
09:12
Transparency透明度 can be misdirected误导.
212
540646
3698
透明性也会被误导。
09:16
You can tell people what you are going to do,
213
544344
2104
你会告诉人们你要做什么,
09:18
and then you still nudge微调 them to disclose透露
214
546448
2232
然后你仍然试图诱导他们
09:20
arbitrary随意 amounts of personal个人 information信息.
215
548680
2623
给你任意数量的个人信息。
09:23
So in yet然而 another另一个 experiment实验, this one with students学生们,
216
551303
2886
那么在另一个实验里,这次我们让
09:26
we asked them to provide提供 information信息
217
554189
3058
学生们给我们他们的
09:29
about their campus校园 behavior行为,
218
557247
1813
学校表现信息
09:31
including包含 pretty漂亮 sensitive敏感 questions问题, such这样 as this one.
219
559060
2940
这包括一些非常敏感的信息,比如这个。
09:34
[Have you ever cheated被骗 in an exam考试?]
220
562000
621
[你有没有在考试中做过弊?]
09:34
Now to one group of subjects主题, we told them,
221
562621
2300
对其中一个组,我们告诉他们,
09:36
"Only other students学生们 will see your answers答案."
222
564921
2841
“只有其他的学生会看到你的答案。”
09:39
To another另一个 group of subjects主题, we told them,
223
567762
1579
而对另一组学生,我们说,
09:41
"Students学生们 and faculty学院 will see your answers答案."
224
569341
3561
“学生和系里会看到你们的答案。”
09:44
Transparency透明度. Notification通知. And sure enough足够, this worked工作,
225
572902
2591
透明度。预先声明。当然,这个奏效了,
09:47
in the sense that the first group of subjects主题
226
575493
1407
第一组学生
09:48
were much more likely容易 to disclose透露 than the second第二.
227
576900
2568
比第二组更愿意说出实情。
09:51
It makes品牌 sense, right?
228
579468
1520
很合理吧,不是吗?
09:52
But then we added添加 the misdirection误导.
229
580988
1490
但是我们加了下面的误导。
09:54
We repeated重复 the experiment实验 with the same相同 two groups,
230
582478
2760
我们在两组中重复做了这个实验,
09:57
this time adding加入 a delay延迟
231
585238
2427
这次我们
09:59
between之间 the time we told subjects主题
232
587665
2935
在告诉他们我们如何
10:02
how we would use their data数据
233
590600
2080
使用这些数据
10:04
and the time we actually其实 started开始 answering回答 the questions问题.
234
592680
4388
和让他们实际开始回答问题之间增加了一点延迟。
10:09
How long a delay延迟 do you think we had to add
235
597068
2561
大家认为这个延迟需要多久
10:11
in order订购 to nullify废止 the inhibitory抑制 effect影响
236
599629
4613
能让我们抵消掉之前的“系里也会看你们的答案”
10:16
of knowing会心 that faculty学院 would see your answers答案?
237
604242
3411
带来的抑制作用?
10:19
Ten minutes分钟?
238
607653
1780
十分钟?
10:21
Five minutes分钟?
239
609433
1791
五分钟?
10:23
One minute分钟?
240
611224
1776
一分钟?
10:25
How about 15 seconds?
241
613000
2049
15秒怎么样?
10:27
Fifteen十五 seconds were sufficient足够 to have the two groups
242
615049
2668
只要15秒就会让两组
10:29
disclose透露 the same相同 amount of information信息,
243
617717
1568
提供同样数量的数据,
10:31
as if the second第二 group now no longer cares管它
244
619285
2746
就好像第二组不再关心
10:34
for faculty学院 reading their answers答案.
245
622031
2656
系里会不会看他们的答案一样。
10:36
Now I have to admit承认 that this talk so far
246
624687
3336
到此为止,我得承认这个演讲
10:40
may可能 sound声音 exceedingly非常 gloomy阴沉,
247
628023
2480
可能显得非常的郁闷,
10:42
but that is not my point.
248
630503
1721
但是这不是我的重点。
10:44
In fact事实, I want to share分享 with you the fact事实 that
249
632224
2699
实际上,我想分享的是我们还是有
10:46
there are alternatives备择方案.
250
634923
1772
其他办法的。
10:48
The way we are doing things now is not the only way
251
636695
2499
我们现在的处理方式不是唯一的,
10:51
they can doneDONE, and certainly当然 not the best最好 way
252
639194
3037
也绝对不是最好的。
10:54
they can be doneDONE.
253
642231
2027
也绝对不是最好的。
10:56
When someone有人 tells告诉 you, "People don't care关心 about privacy隐私,"
254
644258
4171
当有人对你说,“大家不用关心隐私,”
11:00
consider考虑 whether是否 the game游戏 has been designed设计
255
648429
2642
想想是不是因为事情已经被扭曲到
11:03
and rigged非法操纵的 so that they cannot不能 care关心 about privacy隐私,
256
651071
2724
他们不能再关心个人隐私了,
11:05
and coming未来 to the realization实现 that these manipulations操作 occur发生
257
653795
3262
然后我们才意识到一切已被人操纵,
11:09
is already已经 halfway through通过 the process处理
258
657057
1607
已经逐渐侵入到
11:10
of being存在 able能够 to protect保护 yourself你自己.
259
658664
2258
自我保护的整个过程中。
11:12
When someone有人 tells告诉 you that privacy隐私 is incompatible不相容
260
660922
3710
当有人说隐私和大量信息带来的好处
11:16
with the benefits好处 of big data数据,
261
664632
1849
无法兼得时,
11:18
consider考虑 that in the last 20 years年份,
262
666481
2473
想想过去的20年里,
11:20
researchers研究人员 have created创建 technologies技术
263
668954
1917
研究人员已经发明了
11:22
to allow允许 virtually实质上 any electronic电子 transactions交易
264
670871
3318
理论上使任何电子转帐
11:26
to take place地点 in a more privacy-preserving隐私保护 manner方式.
265
674189
3749
更加安全保密的方式来进行的技术。
11:29
We can browse浏览 the Internet互联网 anonymously匿名.
266
677938
2555
我们可以匿名的浏览网页。
11:32
We can send发送 emails电子邮件 that can only be read
267
680493
2678
我们可以发送连美国国家安全局都不可以
11:35
by the intended recipient接受者, not even the NSANSA.
268
683171
3709
读取的个人电子邮件,
11:38
We can have even privacy-preserving隐私保护 data数据 mining矿业.
269
686880
2997
我们甚至可以有保护隐私的数据挖掘。
11:41
In other words, we can have the benefits好处 of big data数据
270
689877
3894
换句话说,我们可以在得到大量数据的同时
11:45
while protecting保护 privacy隐私.
271
693771
2132
仍能保护个人隐私。
11:47
Of course课程, these technologies技术 imply意味着 a shifting
272
695903
3791
当然,这些技术的应用意味着
11:51
of cost成本 and revenues收入
273
699694
1546
在数据拥有者们和
11:53
between之间 data数据 holders持有人 and data数据 subjects主题,
274
701240
2107
数据对象们之间将有花费和收入的变化,
11:55
which哪一个 is why, perhaps也许, you don't hear more about them.
275
703347
3453
也许这可能就是我们为什么没怎么听说过这些技术的原因。
11:58
Which哪一个 brings带来 me back to the Garden花园 of Eden伊甸园.
276
706800
3706
让我再回到伊甸园。
12:02
There is a second第二 privacy隐私 interpretation解释
277
710506
2780
关于伊甸园的故事
12:05
of the story故事 of the Garden花园 of Eden伊甸园
278
713286
1809
还有第二个关于隐私的解释
12:07
which哪一个 doesn't have to do with the issue问题
279
715095
2096
这跟亚当和夏娃
12:09
of Adam亚当 and Eve前夕 feeling感觉 naked
280
717191
2225
的赤裸和羞耻
12:11
and feeling感觉 ashamed羞愧.
281
719416
2381
没有任何关系。
12:13
You can find echoes回声 of this interpretation解释
282
721797
2781
大家可以在
12:16
in John约翰 Milton's弥尔顿 "Paradise天堂 Lost丢失."
283
724578
2782
约翰·弥尔顿的“失乐园”里看到类似的解释。
12:19
In the garden花园, Adam亚当 and Eve前夕 are materially重大 content内容.
284
727360
4197
在伊甸园里,亚当和夏娃是物质上的满足。
12:23
They're happy快乐. They are satisfied满意.
285
731557
2104
他们很开心,也很满足。
12:25
However然而, they also lack缺乏 knowledge知识
286
733661
2293
但是,他们没有知识
12:27
and self-awareness自我意识.
287
735954
1640
和自觉性。
12:29
The moment时刻 they eat the aptly恰当地 named命名
288
737594
3319
当他们吃到
12:32
fruit水果 of knowledge知识,
289
740913
1293
智慧之果时,
12:34
that's when they discover发现 themselves他们自己.
290
742206
2605
其实是他们发现自我的时刻。
12:36
They become成为 aware知道的. They achieve实现 autonomy自治.
291
744811
4031
他们变得自觉,实现了自主。
12:40
The price价钱 to pay工资, however然而, is leaving离开 the garden花园.
292
748842
3126
但是代价却是,离开伊甸园。
12:43
So privacy隐私, in a way, is both the means手段
293
751968
3881
那么,隐私,换句话说,就是
12:47
and the price价钱 to pay工资 for freedom自由.
294
755849
2962
为了得到自由必须付出的代价。
12:50
Again, marketers营销 tell us
295
758811
2770
再次,营销人员告诉我们
12:53
that big data数据 and social社会 media媒体
296
761581
3019
大量数据和社交网络
12:56
are not just a paradise天堂 of profit利润 for them,
297
764600
2979
并不仅仅是为他们谋福利的天堂,
12:59
but a Garden花园 of Eden伊甸园 for the rest休息 of us.
298
767579
2457
同时也是我们所有人的伊甸园。
13:02
We get free自由 content内容.
299
770036
1238
我们得到免费的信息。
13:03
We get to play Angry愤怒 Birds鸟类. We get targeted针对 apps应用.
300
771274
3123
我们可以玩愤怒的小鸟。我们得到适合自己的应用。
13:06
But in fact事实, in a few少数 years年份, organizations组织
301
774397
2897
但实际上,在几年内,各种机构
13:09
will know so much about us,
302
777294
1609
就会因为知道这么多关于我们的信息,
13:10
they will be able能够 to infer推断 our desires欲望
303
778903
2710
进而可以在我们知道自己想要做什么之前
13:13
before we even form形成 them, and perhaps也许
304
781613
2204
就可以诱导我们的想法,或许
13:15
buy购买 products制品 on our behalf代表
305
783817
2447
在我们知道自己是不是真的需要某个商品之前
13:18
before we even know we need them.
306
786264
2274
就以我们自己的名义把它买下来了。
13:20
Now there was one English英语 author作者
307
788538
3237
有一个英国作家
13:23
who anticipated预期 this kind of future未来
308
791775
3045
预测到了这种未来
13:26
where we would trade贸易 away
309
794820
1405
就是我们会用自己的自主
13:28
our autonomy自治 and freedom自由 for comfort安慰.
310
796225
3548
和自由来换来舒适安逸。
13:31
Even more so than George乔治 Orwell奥威尔,
311
799773
2161
甚至超过了乔治·奥威尔,
13:33
the author作者 is, of course课程, Aldous奥尔德斯 Huxley赫胥黎.
312
801934
2761
这个作家当然是赫胥黎。
13:36
In "Brave勇敢 New World世界," he imagines不可想象 a society社会
313
804695
2854
在“美丽新世界”里,他想象了一个社会:
13:39
where technologies技术 that we created创建
314
807549
2171
人们发明了原本是为了得到
13:41
originally本来 for freedom自由
315
809720
1859
自由的一种技术,
13:43
end结束 up coercing胁迫 us.
316
811579
2567
最终反被此技术所奴役。
13:46
However然而, in the book, he also offers报价 us a way out
317
814146
4791
然而,在这本书里,他同样给我们指出了一条
13:50
of that society社会, similar类似 to the path路径
318
818937
3438
突破这个社会的道路,
13:54
that Adam亚当 and Eve前夕 had to follow跟随 to leave离开 the garden花园.
319
822375
3955
跟亚当和夏娃不得不离开伊甸园的道路类似。
13:58
In the words of the Savage野蛮人,
320
826330
2147
用野人的话说,
14:00
regaining恢复 autonomy自治 and freedom自由 is possible可能,
321
828477
3069
重获自主和自由是可能的,
14:03
although虽然 the price价钱 to pay工资 is steep.
322
831546
2679
尽管代价惨重。
14:06
So I do believe that one of the defining确定 fights打架
323
834225
5715
因此我相信当今
14:11
of our times will be the fight斗争
324
839940
2563
具有决定性的战役之一
14:14
for the control控制 over personal个人 information信息,
325
842503
2387
就是控制个人信息之战,
14:16
the fight斗争 over whether是否 big data数据 will become成为 a force
326
844890
3507
决定大量数据是否会变成帮助获得自由
14:20
for freedom自由,
327
848397
1289
的武器,
14:21
rather than a force which哪一个 will hiddenlyhiddenly manipulate操作 us.
328
849686
4746
还是暗中操纵我们的工具。
14:26
Right now, many许多 of us
329
854432
2593
现在,我们中的大多数
14:29
do not even know that the fight斗争 is going on,
330
857025
2753
甚至不知道战斗已经打响了,
14:31
but it is, whether是否 you like it or not.
331
859778
2672
但这是真的,不管你喜欢不喜欢。
14:34
And at the risk风险 of playing播放 the serpent,
332
862450
2804
冒着打草惊蛇的危险,
14:37
I will tell you that the tools工具 for the fight斗争
333
865254
2897
我告诉大家战斗的武器就在这里,
14:40
are here, the awareness意识 of what is going on,
334
868151
3009
那就是意识到正在发生着什么,
14:43
and in your hands,
335
871160
1355
就在你手中,
14:44
just a few少数 clicks点击 away.
336
872515
3740
只需几次点击。
14:48
Thank you.
337
876255
1482
谢谢大家。
14:49
(Applause掌声)
338
877737
4477
(掌声)
Translated by xuan wang
Reviewed by Jing Peng

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com