ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Waarom privacy belangrijk is

Filmed:
1,423,103 views

De grens tussen openbaar en privé vervaagde in het afgelopen decennium, zowel online als in het echte leven. Alessandro Acquisti legt uit wat dit betekent en waarom het belangrijk is. In deze tot nadenken stemmende toespraak, deelt hij details van recent en lopend onderzoek -- inclusief een project dat aantoont hoe gemakkelijk het is om een foto van een onbekende na te bootsen op basis van hun gevoelige, persoonlijke informatie.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyverhaal
0
641
2354
Ik wil jullie graag een verhaal vertellen
00:14
connectingverbinden the notoriousberucht privacyprivacy incidentincident
1
2995
3176
dat het beruchte privacy-incident
00:18
involvingerbij betrekken AdamAdam and EveEve,
2
6171
2769
van Adam en Eva
00:20
and the remarkableopmerkelijk shiftverschuiving in the boundariesgrenzen
3
8940
3446
verbindt met de merkwaardige verschuiving
van de grenzen
00:24
betweentussen publicopenbaar and privateprivaat whichwelke has occurredheeft plaatsgevonden
4
12386
2686
tussen openbaar en privé
00:27
in the pastverleden 10 yearsjaar.
5
15072
1770
in de laatste 10 jaar.
00:28
You know the incidentincident.
6
16842
1298
Je kent het voorval.
00:30
AdamAdam and EveEve one day in the GardenTuin of EdenEden
7
18140
3330
Op een dag realiseren Adam en Eva zich
in het Hof van Eden
00:33
realizerealiseren they are nakednaakt.
8
21470
1843
dat ze naakt zijn.
00:35
They freakgek out.
9
23313
1500
Ze schrikken zich rot ...
00:36
And the restrust uit is historygeschiedenis.
10
24813
2757
en de rest is geschiedenis.
00:39
NowadaysTegenwoordig, AdamAdam and EveEve
11
27570
2188
Vandaag zouden Adam en Eva
00:41
would probablywaarschijnlijk acthandelen differentlyanders.
12
29758
2361
waarschijnlijk anders reageren.
00:44
[@AdamAdam Last niteNite was a blastontploffing! lovedgeliefde datdat appleappel LOLLOL]
13
32119
2268
[@Adam Gisteravond was geweldig!
heerlijk die appel LOL]
00:46
[@EveEve yepYep.. babeBabe, know what happenedgebeurd to my pantsBroek thotho?]
14
34387
1873
[@Eva yep.. schatje, maar weet je
waar mijn onderbroek is?]
00:48
We do revealonthullen so much more informationinformatie
15
36260
2636
We geven veel meer informatie
00:50
about ourselvesonszelf onlineonline than ever before,
16
38896
3334
over onszelf prijs op het internet dan ooit tevoren,
00:54
and so much informationinformatie about us
17
42230
1704
en er wordt heel veel informatie over ons
00:55
is beingwezen collectedverzamelde by organizationsorganisaties.
18
43934
2224
verzameld door organisaties.
00:58
Now there is much to gainkrijgen and benefitvoordeel
19
46158
3282
Er valt veel winst te halen
01:01
from this massivemassief analysisanalyse of personalpersoonlijk informationinformatie,
20
49440
2446
uit deze gigantische analyse
van persoonlijke informatie,
01:03
or biggroot datagegevens,
21
51886
1946
of grote hoeveelheden data,
01:05
but there are alsoook complexcomplex tradeoffsnadelen that come
22
53832
2638
maar er komen ook complexe afwegingen kijken
01:08
from givinggeven away our privacyprivacy.
23
56470
3098
bij het weggeven van onze privacy.
01:11
And my storyverhaal is about these tradeoffsnadelen.
24
59568
4023
Mijn verhaal gaat over die afwegingen.
01:15
We startbegin with an observationobservatie whichwelke, in my mindgeest,
25
63591
2584
We beginnen met een vaststelling
die voor mij
01:18
has becomeworden clearerduidelijker and clearerduidelijker in the pastverleden fewweinig yearsjaar,
26
66175
3327
steeds duidelijker werd in de afgelopen jaren:
01:21
that any personalpersoonlijk informationinformatie
27
69502
2097
alle persoonlijke informatie kan
01:23
can becomeworden sensitivegevoelig informationinformatie.
28
71599
2285
ook gevoelige informatie worden.
01:25
Back in the yearjaar 2000, about 100 billionmiljard photosfoto's
29
73884
4125
In het jaar 2000 werden ongeveer 100 miljard foto's
01:30
were shotschot worldwidewereldwijd,
30
78009
1912
genomen over de hele wereld,
01:31
but only a minusculeonderkast proportionproportie of them
31
79921
3065
maar slechts een minuscuul deel daarvan
01:34
were actuallywerkelijk uploadedgeüpload onlineonline.
32
82986
1883
werd daadwerkelijk online gezet.
01:36
In 2010, only on FacebookFacebook, in a singlesingle monthmaand,
33
84869
3361
In 2010 werden alleen op Facebook al,
in één maand,
01:40
2.5 billionmiljard photosfoto's were uploadedgeüpload,
34
88230
3270
2,5 miljard foto's geüpload,
01:43
mostmeest of them identifiedgeïdentificeerd.
35
91500
1882
waarvan de meeste geïdentificeerd waren.
01:45
In the samedezelfde spanspan of time,
36
93382
1880
In dezelfde periode
01:47
computers'computers abilityvermogen to recognizeherken people in photosfoto's
37
95262
4870
werd het vermogen van computers
voor gezichtsherkenning
01:52
improvedverbeterd by threedrie ordersorden of magnitudeomvang.
38
100132
3608
drie ordes van grootte beter.
01:55
What happensgebeurt when you combinecombineren
39
103740
1882
Wat gebeurt er zodra je de volgende
01:57
these technologiestechnologieën togethersamen:
40
105622
1501
technologieën combineert:
01:59
increasingtoenemend availabilitybeschikbaarheid of facialFacial datagegevens;
41
107123
2658
grotere beschikbaarheid van gezichtsdata,
02:01
improvingverbeteren facialFacial recognizingherkennen abilityvermogen by computerscomputers;
42
109781
3648
verbeterde gezichtsherkenning,
02:05
but alsoook cloudwolk computinggegevensverwerking,
43
113429
2182
én cloud computing,
02:07
whichwelke givesgeeft anyoneiedereen in this theatertheater
44
115611
1888
wat iedereen in deze zaal
02:09
the kindsoort of computationalcomputational powermacht
45
117499
1560
de rekenkracht geeft
02:11
whichwelke a fewweinig yearsjaar agogeleden was only the domaindomein
46
119059
1886
waarover een paar jaar geleden
02:12
of three-letterdrie letters agenciesagentschappen;
47
120945
1782
enkel agentschappen met drie letters beschikten,
02:14
and ubiquitousalomtegenwoordig computinggegevensverwerking,
48
122727
1378
en alomtegenwoordig computergebruik,
02:16
whichwelke allowstoestaat my phonetelefoon, whichwelke is not a supercomputersupercomputer,
49
124105
2892
wat mijn telefoon in staat stelt,
en dat is geen supercomputer,
02:18
to connectaansluiten to the InternetInternet
50
126997
1671
om verbinding te maken met het internet
02:20
and do there hundredshonderden of thousandsduizenden
51
128668
2334
en daar honderdduizenden
02:23
of facegezicht metricsstatistieken in a fewweinig secondsseconden?
52
131002
2639
gezichtsberekeningen te maken
in een paar seconden?
02:25
Well, we conjecturevermoeden that the resultresultaat
53
133641
2628
We vermoeden dat als gevolg
02:28
of this combinationcombinatie of technologiestechnologieën
54
136269
2064
van de combinatie van deze technologieën
02:30
will be a radicalradicaal changeverandering in our very notionsnoties
55
138333
2888
onze opvattingen over privacy en anonimiteit
radicaal zullen veranderen
02:33
of privacyprivacy and anonymityanonimiteit.
56
141221
2257
onze opvattingen over privacy en anonimiteit
radicaal zullen veranderen
02:35
To testtest that, we did an experimentexperiment
57
143478
1993
Als test voerden we een experiment uit
02:37
on CarnegieCarnegie MellonMellon UniversityUniversiteit campuscampus.
58
145471
2121
op de campus van Carnegie Mellon University.
02:39
We askedgevraagd studentsstudenten who were walkingwandelen by
59
147592
2099
We vroegen studenten
02:41
to participatedeelnemen in a studystudie,
60
149691
1779
om deel te nemen aan een onderzoek,
02:43
and we tooknam a shotschot with a webcamwebcam,
61
151470
2562
we namen hun foto met een webcam.
02:46
and we askedgevraagd them to fillvullen out a surveyenquête on a laptoplaptop.
62
154032
2782
Daarna moesten ze een vragenlijst invullen
op een laptop.
02:48
While they were fillingvulling out the surveyenquête,
63
156814
1979
Terwijl zij de vragenlijst invulden,
02:50
we uploadedgeüpload theirhun shotschot to a cloud-computingon-demand clusterTROS,
64
158793
2797
uploadden wij hun foto naar
een cloud computing wolk.
02:53
and we startedbegonnen usinggebruik makend van a facialFacial recognizerherkenning
65
161590
1727
We gebruikten een gezichtsherkenner
02:55
to matchbij elkaar passen that shotschot to a databasedatabank
66
163317
2405
om de foto te vergelijken
02:57
of some hundredshonderden of thousandsduizenden of imagesafbeeldingen
67
165722
2393
met honderdduizenden foto's
03:00
whichwelke we had downloadedgedownload from FacebookFacebook profilesprofielen.
68
168115
3596
die we hadden gedownload van Facebookprofielen.
03:03
By the time the subjectonderwerpen reachedbereikte the last pagepagina
69
171711
3259
Toen de deelnemer de laatste pagina
03:06
on the surveyenquête, the pagepagina had been dynamicallydynamisch updatedbijgewerkt
70
174970
3347
van de vragenlijst bereikte,
was de pagina dynamisch geüpdatet
03:10
with the 10 bestbeste matchingmatching photosfoto's
71
178317
2313
met de 10 best overeenstemmende foto's
03:12
whichwelke the recognizerherkenning had foundgevonden,
72
180630
2285
die de gezichtsherkenner had gevonden.
03:14
and we askedgevraagd the subjectsvakken to indicateaangeven
73
182915
1738
We vroegen de deelnemers
03:16
whetherof he or she foundgevonden themselveszich in the photofoto.
74
184653
4120
of ze zichzelf herkenden in één van de foto's.
03:20
Do you see the subjectonderwerpen?
75
188773
3699
Zie je de deelnemer?
03:24
Well, the computercomputer did, and in factfeit did so
76
192472
2845
De computer in ieder geval wel, en die deed dat zelfs
03:27
for one out of threedrie subjectsvakken.
77
195317
2149
in één op de drie gevallen.
03:29
So essentiallyin wezen, we can startbegin from an anonymousanoniem facegezicht,
78
197466
3184
We kunnen dus gewoon beginnen
met een anoniem gezicht,
03:32
offlineoffline or onlineonline, and we can use facialFacial recognitionerkenning
79
200650
3484
offline of online, en gezichtsherkenning gebruiken
03:36
to give a namenaam to that anonymousanoniem facegezicht
80
204134
2360
om een naam te plakken op dat anonieme gezicht
03:38
thanksbedankt to socialsociaal mediamedia datagegevens.
81
206494
2108
dankzij gegevens van sociale media.
03:40
But a fewweinig yearsjaar back, we did something elseanders.
82
208602
1872
Een paar jaar geleden deden we iets anders.
03:42
We startedbegonnen from socialsociaal mediamedia datagegevens,
83
210474
1823
We begonnen met data van sociale media,
03:44
we combinedgecombineerde it statisticallystatistisch with datagegevens
84
212297
3051
en combineerden die met statistisch data
03:47
from U.S. governmentregering socialsociaal securityveiligheid,
85
215348
2102
van de Amerikaanse overheid over sociale zekerheid,
03:49
and we endedbeëindigde up predictingvoorspellen socialsociaal securityveiligheid numbersgetallen,
86
217450
3324
en uiteindelijk konden we sofinummers voorspellen,
03:52
whichwelke in the UnitedVerenigd StatesStaten
87
220774
1512
wat in de Verenigde Staten
03:54
are extremelyuiterst sensitivegevoelig informationinformatie.
88
222286
2040
extreem gevoelige informatie is.
03:56
Do you see where I'm going with this?
89
224326
2093
Volgen jullie mij?
03:58
So if you combinecombineren the two studiesstudies togethersamen,
90
226419
2922
Als je de twee onderzoeken samenvoegt,
04:01
then the questionvraag becomeswordt,
91
229341
1512
dan wordt de vraag:
04:02
can you startbegin from a facegezicht and,
92
230853
2720
kun je met een foto van een gezicht,
04:05
usinggebruik makend van facialFacial recognitionerkenning, find a namenaam
93
233573
2311
met behulp van gezichtsherkenning een naam
04:07
and publiclyopenbaar availablebeschikbaar informationinformatie
94
235884
2669
en openbaar beschikbare informatie
04:10
about that namenaam and that personpersoon,
95
238553
1932
over die naam en die persoon vinden,
04:12
and from that publiclyopenbaar availablebeschikbaar informationinformatie
96
240485
2248
en uit die openbare informatie
04:14
inferafleiden non-publiclyniet-openbaar availablebeschikbaar informationinformatie,
97
242733
2042
afgeschermde informatie afleiden,
04:16
much more sensitivegevoelig onesdegenen
98
244775
1606
veel gevoeligere informatie,
04:18
whichwelke you linklink back to the facegezicht?
99
246381
1492
die je weer koppelt aan het gezicht?
04:19
And the answerantwoord is, yes, we can, and we did.
100
247873
1916
Het antwoord is ja, dat kunnen we,
en dat hebben we ook gedaan.
04:21
Of courseCursus, the accuracynauwkeurigheid keepshoudt gettingkrijgen worseerger.
101
249789
2568
Natuurlijk neemt de nauwkeurigheid steeds meer af.
04:24
[27% of subjects'onderwerpen first 5 SSNSSN digitscijfers identifiedgeïdentificeerd (with 4 attemptspogingen)]
102
252357
944
[27% van de eerste 5 cijfers van de sofinummers van de deelnemers geïdentificeerd (met 4 pogingen)]
04:25
But in factfeit, we even decidedbeslist to developontwikkelen an iPhoneiPhone appapp
103
253301
3827
We ontwikkelden zelfs een iPhone app
04:29
whichwelke usestoepassingen the phone'stelefoon internalintern cameracamera
104
257128
2715
die gebruikmaakt van de camera van de telefoon
04:31
to take a shotschot of a subjectonderwerpen
105
259843
1600
om een foto te nemen van een deelnemer,
04:33
and then uploaduploaden it to a cloudwolk
106
261443
1487
die uploadt naar een wolk,
04:34
and then do what I just describedbeschreven to you in realecht time:
107
262930
2662
en vervolgens doet wat ik jullie zojuist heb uitgelegd:
04:37
looking for a matchbij elkaar passen, findingbevinding publicopenbaar informationinformatie,
108
265592
2088
zoeken naar een overeenkomst,
openbare informatie opsporen,
04:39
tryingproberen to inferafleiden sensitivegevoelig informationinformatie,
109
267680
1730
gevoelige informatie afleiden,
04:41
and then sendingBezig met verzenden back to the phonetelefoon
110
269410
2591
en vervolgens terugsturen naar de telefoon,
04:44
so that it is overlaidoverlay on the facegezicht of the subjectonderwerpen,
111
272001
3609
en bij het gezicht voegen.
04:47
an examplevoorbeeld of augmentedaangevuld realityrealiteit,
112
275610
1901
Een voorbeeld van toegevoegde realiteit,
04:49
probablywaarschijnlijk a creepygriezelig examplevoorbeeld of augmentedaangevuld realityrealiteit.
113
277511
2451
een eng voorbeeld van toegevoegde realiteit.
04:51
In factfeit, we didn't developontwikkelen the appapp to make it availablebeschikbaar,
114
279962
3339
We hebben deze app niet ontwikkeld
om ze beschikbaar te maken,
04:55
just as a proofbewijs of conceptconcept.
115
283301
1922
maar alleen om te bewijzen dat het kan.
04:57
In factfeit, take these technologiestechnologieën
116
285223
2313
Stel dat je deze technologieën neemt
04:59
and pushDuwen them to theirhun logicallogisch extremeextreem.
117
287536
1837
en ze tot het uiterste drijft.
05:01
ImagineStel je voor a futuretoekomst in whichwelke strangersonbekenden around you
118
289373
2719
Stel je eens een toekomst voor waarin onbekenden
05:04
will look at you throughdoor theirhun GoogleGoogle GlassesBril
119
292092
2311
je aankijken door hun Google-bril
05:06
or, one day, theirhun contactcontact lenseslenzen,
120
294403
2307
of, ooit, hun contactlenzen,
05:08
and use sevenzeven or eightacht datagegevens pointspoints about you
121
296710
4020
en zeven of acht datapunten van jou gebruiken
05:12
to inferafleiden anything elseanders
122
300730
2582
om alles af te leiden
05:15
whichwelke maymei be knownbekend about you.
123
303312
2603
wat er bekend is over jou.
05:17
What will this futuretoekomst withoutzonder secretsgeheimen look like?
124
305915
4794
Hoe zal deze toekomst zonder geheimen eruit zien?
05:22
And should we carezorg?
125
310709
1964
Moeten we ons daarover zorgen maken?
05:24
We maymei like to believe
126
312673
1891
We geloven misschien graag
05:26
that the futuretoekomst with so much wealthrijkdom of datagegevens
127
314564
3040
dat de toekomst, met die overvloed aan data,
05:29
would be a futuretoekomst with no more biasesbiases,
128
317604
2514
een toekomst zonder vooroordelen zal zijn.
05:32
but in factfeit, havingmet so much informationinformatie
129
320118
3583
Beschikken over een grote hoeveelheid informatie,
05:35
doesn't mean that we will make decisionsbeslissingen
130
323701
2191
betekent niet dat we beslissingen gaan nemen
05:37
whichwelke are more objectivedoelstelling.
131
325892
1706
die objectiever zijn.
05:39
In anothereen ander experimentexperiment, we presentedgepresenteerd to our subjectsvakken
132
327598
2560
In een ander experiment
legden we onze deelnemers
05:42
informationinformatie about a potentialpotentieel jobbaan candidatekandidaat-lidstaten.
133
330158
2246
informatie voor over een sollicitant.
05:44
We includedingesloten in this informationinformatie some referencesreferenties
134
332404
3178
Deze informatie bevatte wat verwijzingen
05:47
to some funnygrappig, absolutelyAbsoluut legalwettelijk,
135
335582
2646
naar wat grappige, volledig juiste,
05:50
but perhapsmisschien slightlylicht embarrassingpijnlijk informationinformatie
136
338228
2465
maar wellicht lichtelijk gênante informatie
05:52
that the subjectonderwerpen had postedGeplaatst onlineonline.
137
340693
2020
die de deelnemer online had gedeeld.
05:54
Now interestinglybelangwekkend, amongtussen our subjectsvakken,
138
342713
2366
Het was interessant dat, van onze deelnemers,
05:57
some had postedGeplaatst comparablevergelijkbaar informationinformatie,
139
345079
3083
sommigen vergelijkbare informatie hadden gedeeld,
06:00
and some had not.
140
348162
2362
en sommigen niet.
06:02
WhichDie groupgroep do you think
141
350524
1949
Welke groep denk je,
06:04
was more likelywaarschijnlijk to judgerechter harshlyhard our subjectonderwerpen?
142
352473
4552
beoordeelde onze deelnemer strenger?
06:09
ParadoxicallyParadoxaal genoeg, it was the groupgroep
143
357025
1957
Paradoxaal genoeg was het de groep
06:10
who had postedGeplaatst similarsoortgelijk informationinformatie,
144
358982
1733
die vergelijkbare informatie had gedeeld,
06:12
an examplevoorbeeld of moralMoreel dissonancedissonantie.
145
360715
2942
een voorbeeld van morele dissonantie.
06:15
Now you maymei be thinkinghet denken,
146
363657
1750
Nu denk je misschien,
06:17
this does not applyvan toepassing zijn to me,
147
365407
1702
dit gaat niet op voor mij,
06:19
because I have nothing to hideverbergen.
148
367109
2162
want ik heb niets te verbergen.
06:21
But in factfeit, privacyprivacy is not about
149
369271
2482
Maar privacy gaat niet echt over
06:23
havingmet something negativenegatief to hideverbergen.
150
371753
3676
het verbergen van iets negatiefs.
06:27
ImagineStel je voor that you are the H.R. directorregisseur
151
375429
2354
Stel je eens voor dat jij de H.R. directeur bent
06:29
of a certainzeker organizationorganisatie, and you receivete ontvangensumsomés,
152
377783
2947
van een bepaalde organisatie, en je ontvangt cv's,
06:32
and you decidebesluiten to find more informationinformatie about the candidateskandidaten.
153
380730
2473
en je besluit meer informatie te zoeken
over de kandidaten.
06:35
ThereforeDaarom, you GoogleGoogle theirhun namesnamen
154
383203
2460
Om die reden google je hun namen,
06:37
and in a certainzeker universeuniversum,
155
385663
2240
en in een bepaalde werkelijkheid
06:39
you find this informationinformatie.
156
387903
2008
vind je déze informatie.
06:41
Or in a parallelparallel universeuniversum, you find this informationinformatie.
157
389911
4437
In een alternatieve werkelijkheid
vind je déze informatie.
06:46
Do you think that you would be equallyeven likelywaarschijnlijk
158
394348
2717
Denk je dat het je niet zou uitmaken
06:49
to call eithereen van beide candidatekandidaat-lidstaten for an interviewinterview?
159
397065
2803
welke kandidaat je uitnodigt
voor een sollicitatiegesprek?
06:51
If you think so, then you are not
160
399868
2282
Als je dat denkt, dan ben je niet
06:54
like the U.S. employerswerkgevers who are, in factfeit,
161
402150
2582
zoals Amerikaanse werkgevers,
06:56
partdeel of our experimentexperiment, meaningbetekenis we did exactlyprecies that.
162
404732
3307
die deel uitmaken van exact ditzelfde experiment.
07:00
We createdaangemaakt FacebookFacebook profilesprofielen, manipulatingmanipuleren traitseigenschappen,
163
408039
3182
We creëerden Facebookprofielen,
manipuleerden eigenschappen,
07:03
then we startedbegonnen sendingBezig met verzenden out résumsomés to companiesbedrijven in the U.S.,
164
411221
2851
waarna we cv's begonnen te verzenden
naar bedrijven in de V.S.,
07:06
and we detectedgedetecteerd, we monitoredgecontroleerd,
165
414072
1908
en we achterhaalden, we controleerden,
07:07
whetherof they were searchingzoeken for our candidateskandidaten,
166
415980
2393
of ze op zoek waren naar onze kandidaten,
07:10
and whetherof they were actingacteren on the informationinformatie
167
418373
1832
en of ze reageerden op de informatie
07:12
they foundgevonden on socialsociaal mediamedia. And they were.
168
420205
1938
die ze vonden in sociale media.
Dat deden ze.
07:14
DiscriminationDiscriminatie was happeninggebeurtenis throughdoor socialsociaal mediamedia
169
422143
2101
Ze discrimineerden op basis van sociale media
07:16
for equallyeven skilledgeschoold candidateskandidaten.
170
424244
3073
bij even bekwame kandidaten.
07:19
Now marketersmarketeers like us to believe
171
427317
4575
Marketeers doen ons graag geloven
07:23
that all informationinformatie about us will always
172
431892
2269
dat alle informatie over ons
07:26
be used in a mannermanier whichwelke is in our favorgunst.
173
434161
3273
altijd in ons voordeel gebruikt zal worden.
07:29
But think again. Why should that be always the casegeval?
174
437434
3715
Maar denk eens na:
waarom zou dat altijd het geval zijn?
07:33
In a moviefilm whichwelke camekwam out a fewweinig yearsjaar agogeleden,
175
441149
2664
'Minority Report', een film van een paar jaar
geleden, heeft een beroemde scène
07:35
"MinorityMinderheid ReportVerslag," a famousberoemd scenetafereel
176
443813
2553
'Minority Report', een film van een paar jaar
geleden, heeft een beroemde scène
07:38
had TomTom CruiseCruise walklopen in a mallwinkelcentrum
177
446366
2576
waarin Tom Cruise in een winkelcentrum loopt
07:40
and holographicholografische personalizedgepersonaliseerde advertisingreclame
178
448942
3776
en er holografische, gepersonaliseerde reclames
07:44
would appearverschijnen around him.
179
452718
1835
om hem heen verschijnen.
07:46
Now, that moviefilm is setreeks in 2054,
180
454553
3227
Die film speelde zich af in 2054,
07:49
about 40 yearsjaar from now,
181
457780
1642
binnen ongeveer 40 jaar dus,
07:51
and as excitingopwindend as that technologytechnologie lookslooks,
182
459422
2908
en hoe opwindend die technologie ook lijkt,
07:54
it alreadynu al vastlyenorm underestimatesonderschat
183
462330
2646
het onderschat al enorm
07:56
the amountbedrag of informationinformatie that organizationsorganisaties
184
464976
2140
hoeveel informatie organisaties
07:59
can gatherverzamelen about you, and how they can use it
185
467116
2483
over jou te weten komen,
en hoe ze het kunnen gebruiken
08:01
to influenceinvloed you in a way that you will not even detectopsporen.
186
469599
3398
om je te beïnvloeden op zó'n manier,
dat je het niet eens doorhebt.
08:04
So as an examplevoorbeeld, this is anothereen ander experimentexperiment
187
472997
2103
Ter illustratie nog een lopend,
08:07
actuallywerkelijk we are runninglopend, not yetnog completedvoltooid.
188
475100
2273
nog niet voltooid experiment.
08:09
ImagineStel je voor that an organizationorganisatie has accesstoegang
189
477373
2319
Stel je een organisatie voor die toegang heeft
08:11
to your listlijst of FacebookFacebook friendsvrienden,
190
479692
2056
tot je vriendenlijst op Facebook.
08:13
and throughdoor some kindsoort of algorithmalgoritme
191
481748
1772
Met een bepaald algoritme
08:15
they can detectopsporen the two friendsvrienden that you like the mostmeest.
192
483520
3734
kunnen ze achterhalen
wie je twee beste vrienden zijn.
08:19
And then they createcreëren, in realecht time,
193
487254
2280
Vervolgens creëren ze, in het echt,
08:21
a facialFacial compositesamengesteld of these two friendsvrienden.
194
489534
2842
een samenstelling van de gezichten van je vrienden.
08:24
Now studiesstudies priorvoorafgaand to oursDe onze have showngetoond that people
195
492376
3069
Eerder onderzoeken toonden aan dat mensen
08:27
don't recognizeherken any longerlanger even themselveszich
196
495445
2885
zichzelf dan niet meer herkennen
08:30
in facialFacial compositescomposieten, but they reactReageer
197
498330
2462
in de samenstelling, maar ze reageren er wel
08:32
to those compositescomposieten in a positivepositief mannermanier.
198
500792
2117
op een positieve manier op.
08:34
So nextvolgende time you are looking for a certainzeker productartikel,
199
502909
3415
Als je binnenkort op zoek bent
naar een bepaald product,
08:38
and there is an adadvertentie suggestingsuggereren you to buykopen it,
200
506324
2559
en reclame ziet die je aanmoedigt om het te kopen,
08:40
it will not be just a standardstandaard- spokespersonwoordvoerder.
201
508883
2907
dan zal dat niet een gemiddelde woordvoerder zijn,
08:43
It will be one of your friendsvrienden,
202
511790
2313
maar één van je vrienden,
08:46
and you will not even know that this is happeninggebeurtenis.
203
514103
3303
en je zal het niet eens doorhebben dat dat gebeurt.
08:49
Now the problemprobleem is that
204
517406
2413
Het probleem is dat
08:51
the currentactueel policyhet beleid mechanismsmechanismen we have
205
519819
2519
onze huidige beleidsmechanismen
08:54
to protectbeschermen ourselvesonszelf from the abusesmisbruik of personalpersoonlijk informationinformatie
206
522338
3438
om onszelf te beschermen tegen
misbruik van persoonlijke informatie,
08:57
are like bringingbrengen a knifemes to a gunfightvuurgevecht.
207
525776
2984
volstrekt nutteloos zijn.
09:00
One of these mechanismsmechanismen is transparencytransparantie,
208
528760
2913
Eén van deze mechanismen is transparantie:
09:03
tellingvertellen people what you are going to do with theirhun datagegevens.
209
531673
3200
aan mensen vertellen
wat je gaat doen met hun data.
09:06
And in principlebeginsel, that's a very good thing.
210
534873
2106
In principe is dat iets heel goeds.
09:08
It's necessarynoodzakelijk, but it is not sufficientvoldoende.
211
536979
3667
Het is noodzakelijk, maar het is niet voldoende.
09:12
TransparencyTransparantie can be misdirectedverkeerde richting.
212
540646
3698
Transparantie kan de verkeerde kant uitgaan.
09:16
You can tell people what you are going to do,
213
544344
2104
Je kunt mensen wel vertellen wat je gaat doen,
09:18
and then you still nudgeverschuiven them to discloseopenbaar maken
214
546448
2232
en ze toch porren willekeurige hoeveelheden
persoonlijke informatie prijs te geven.
09:20
arbitraryarbitrair amountshoeveelheden of personalpersoonlijk informationinformatie.
215
548680
2623
en ze toch porren willekeurige hoeveelheden
persoonlijke informatie prijs te geven.
09:23
So in yetnog anothereen ander experimentexperiment, this one with studentsstudenten,
216
551303
2886
In nog een ander experiment, ditmaal met studenten,
09:26
we askedgevraagd them to providevoorzien informationinformatie
217
554189
3058
vroegen we om informatie te geven
09:29
about theirhun campuscampus behaviorgedrag,
218
557247
1813
over hun gedrag op de campus,
09:31
includinginclusief prettymooi sensitivegevoelig questionsvragen, suchzodanig as this one.
219
559060
2940
inclusief vrij gevoelige vragen, zoals de volgende.
09:34
[Have you ever cheatedbedrogen in an examexamen?]
220
562000
621
[Spiekte je ooit op een examen?]
09:34
Now to one groupgroep of subjectsvakken, we told them,
221
562621
2300
De ene groep vertelden we:
09:36
"Only other studentsstudenten will see your answersantwoorden."
222
564921
2841
"Alleen medestudenten zullen
je antwoorden te zien krijgen."
09:39
To anothereen ander groupgroep of subjectsvakken, we told them,
223
567762
1579
Een andere groep vertelden we:
09:41
"StudentsStudenten and facultyfaculteit will see your answersantwoorden."
224
569341
3561
"Zowel studenten als de faculteit zullen
je antwoorden te zien krijgen."
09:44
TransparencyTransparantie. NotificationKennisgeving. And sure enoughgenoeg, this workedwerkte,
225
572902
2591
Transparantie. Bekendmaking.
En inderdaad, het werkte:
09:47
in the sensezin that the first groupgroep of subjectsvakken
226
575493
1407
de eerste deelnemersgroep
09:48
were much more likelywaarschijnlijk to discloseopenbaar maken than the secondtweede.
227
576900
2568
gaf veel sneller informatie prijs.
09:51
It makesmerken sensezin, right?
228
579468
1520
Dat is logisch, toch?
09:52
But then we addedtoegevoegd the misdirectionverkeerde instructie.
229
580988
1490
Maar toen voegden we de misleiding toe.
09:54
We repeatedherhaald the experimentexperiment with the samedezelfde two groupsgroepen,
230
582478
2760
We herhaalden het experiment
met dezelfde groepen,
09:57
this time addingtoe te voegen a delayvertraging
231
585238
2427
maar ditmaal met een vertraging
09:59
betweentussen the time we told subjectsvakken
232
587665
2935
tussen het moment dat we de deelnemers vertelden
10:02
how we would use theirhun datagegevens
233
590600
2080
hoe we hun data zouden gebruiken
10:04
and the time we actuallywerkelijk startedbegonnen answeringantwoordapparaat the questionsvragen.
234
592680
4388
en het moment waarop we daadwerkelijk
de vragen afnamen.
10:09
How long a delayvertraging do you think we had to addtoevoegen
235
597068
2561
Hoeveel vertraging denk je dat er nodig was
10:11
in orderbestellen to nullifyneutraliseren the inhibitoryremmende effecteffect
236
599629
4613
om het remmende effect teniet te doen
10:16
of knowingwetende that facultyfaculteit would see your answersantwoorden?
237
604242
3411
van de kennis dat de faculteit je antwoorden
te zien krijgt?
10:19
TenTien minutesnotulen?
238
607653
1780
Tien minuten?
10:21
FiveVijf minutesnotulen?
239
609433
1791
Vijf minuten?
10:23
One minuteminuut?
240
611224
1776
Eén minuut?
10:25
How about 15 secondsseconden?
241
613000
2049
Wat dacht je van 15 seconden?
10:27
FifteenVijftien secondsseconden were sufficientvoldoende to have the two groupsgroepen
242
615049
2668
Vijftien seconden was genoeg om de twee groepen
10:29
discloseopenbaar maken the samedezelfde amountbedrag of informationinformatie,
243
617717
1568
evenveel informatie te laten onthullen,
10:31
as if the secondtweede groupgroep now no longerlanger careszorgen
244
619285
2746
alsof het de tweede groep niet meer uitmaakte
10:34
for facultyfaculteit readinglezing theirhun answersantwoorden.
245
622031
2656
dat de faculteit hun antwoorden te lezen zou krijgen.
10:36
Now I have to admittoegeven that this talk so farver
246
624687
3336
Ik moet toegeven dat deze toespraak tot nu toe
10:40
maymei soundgeluid exceedinglybuitengewoon gloomysomber,
247
628023
2480
misschien buitengewoon somber klinkt,
10:42
but that is not my pointpunt.
248
630503
1721
maar dat is niet mijn punt.
10:44
In factfeit, I want to sharedelen with you the factfeit that
249
632224
2699
Ik wil dat jullie weten dat er alternatieven zijn.
10:46
there are alternativesalternatieven.
250
634923
1772
Ik wil dat jullie weten dat er alternatieven zijn.
10:48
The way we are doing things now is not the only way
251
636695
2499
De manier waarop we dingen nu doen,
is niet de enige mogelijke manier,
10:51
they can donegedaan, and certainlyzeker not the bestbeste way
252
639194
3037
en zeker niet de beste manier
10:54
they can be donegedaan.
253
642231
2027
waarop het kan gedaan worden.
10:56
When someoneiemand tellsvertelt you, "People don't carezorg about privacyprivacy,"
254
644258
4171
Als iemand tegen je zegt:
"Mensen geven niet om privacy,"
11:00
consideroverwegen whetherof the gamespel has been designedontworpen
255
648429
2642
ga dan na of het spelletje dusdanig ontworpen
11:03
and riggedopgetuigd so that they cannotkan niet carezorg about privacyprivacy,
256
651071
2724
en gemanipuleerd is,
dat ze niet om privacy kunnen geven.
11:05
and comingkomt eraan to the realizationrealisatie that these manipulationsmanipulaties occurvoorkomen
257
653795
3262
Als je tot het besef komt dat
deze manipulaties gebeuren,
11:09
is alreadynu al halfwayhalverwege throughdoor the processwerkwijze
258
657057
1607
ben je al halverwege het proces
11:10
of beingwezen ablein staat to protectbeschermen yourselfjezelf.
259
658664
2258
om jezelf te beschermen.
11:12
When someoneiemand tellsvertelt you that privacyprivacy is incompatibleincompatibele
260
660922
3710
Als iemand je vertelt dat privacy onverenigbaar is
11:16
with the benefitsvoordelen of biggroot datagegevens,
261
664632
1849
met de voordelen van grote hoeveelheden data,
11:18
consideroverwegen that in the last 20 yearsjaar,
262
666481
2473
bedenk dan dat onderzoekers in de laatste 20 jaar
11:20
researchersonderzoekers have createdaangemaakt technologiestechnologieën
263
668954
1917
technologieën hebben gecreëerd
11:22
to allowtoestaan virtuallyvirtueel any electronicelektronisch transactionstransacties
264
670871
3318
die het mogelijk maken dat vrijwel
elke elektronische transactie
11:26
to take placeplaats in a more privacy-preservingbehoud van de privacy mannermanier.
265
674189
3749
gebeurt op een
privacybeschermende manier.
11:29
We can browseBladeren the InternetInternet anonymouslyanoniem.
266
677938
2555
We kunnen anoniem surfen op het internet.
11:32
We can sendsturen emailse-mails that can only be readlezen
267
680493
2678
We kunnen e-mails versturen die alleen
gelezen kunnen worden
11:35
by the intendedvoorgenomen recipientontvanger, not even the NSANSA.
268
683171
3709
door de bedoelde ontvanger, niet eens de NSA.
11:38
We can have even privacy-preservingbehoud van de privacy datagegevens miningmijnbouw.
269
686880
2997
We kunnen zelfs op privacybeschermende wijze
doen aan datamining.
11:41
In other wordstekst, we can have the benefitsvoordelen of biggroot datagegevens
270
689877
3894
Met andere woorden, we kunnen profiteren
van grote hoeveelheden data,
11:45
while protectingbescherming privacyprivacy.
271
693771
2132
terwijl we onze privacy beschermen.
11:47
Of courseCursus, these technologiestechnologieën implyimpliceren a shiftingverplaatsing
272
695903
3791
Deze technologieën betekenen wel
een verschuiving
11:51
of costkosten and revenuesinkomsten
273
699694
1546
van kosten en opbrengsten
11:53
betweentussen datagegevens holdershouders and datagegevens subjectsvakken,
274
701240
2107
tussen gegevenshouders en de betrokkenen,
11:55
whichwelke is why, perhapsmisschien, you don't hearhoren more about them.
275
703347
3453
wat misschien de reden is dat
je niet erg veel over ze hoort.
11:58
WhichDie bringsbrengt me back to the GardenTuin of EdenEden.
276
706800
3706
Dat brengt me terug bij het Hof van Eden.
12:02
There is a secondtweede privacyprivacy interpretationinterpretatie
277
710506
2780
Er is nog een tweede interpretatie van de privacy
12:05
of the storyverhaal of the GardenTuin of EdenEden
278
713286
1809
in het verhaal van het Hof van Eden,
12:07
whichwelke doesn't have to do with the issuekwestie
279
715095
2096
en die heeft niets te maken met het feit dat
12:09
of AdamAdam and EveEve feelinggevoel nakednaakt
280
717191
2225
Adam en Eva zich naakt voelen
12:11
and feelinggevoel ashamedbeschaamd.
281
719416
2381
en zich schamen.
12:13
You can find echoesecho's of this interpretationinterpretatie
282
721797
2781
Je kunt de naklank van deze interpretatie vinden
12:16
in JohnJohn Milton'sMiltons "ParadiseParadise LostVerloren."
283
724578
2782
in John Milton's "Paradise Lost".
12:19
In the gardentuin-, AdamAdam and EveEve are materiallymaterieel contentinhoud.
284
727360
4197
In de tuin worden Adam en Eva
voorzien in al hun behoeftes.
12:23
They're happygelukkig. They are satisfiedtevreden.
285
731557
2104
Ze zijn blij. Ze zijn tevreden.
12:25
HoweverEchter, they alsoook lackgebrek knowledgekennis
286
733661
2293
Maar het ontbreekt ze aan kennis
12:27
and self-awarenesszelfbewustzijn.
287
735954
1640
en zelfbewustzijn.
12:29
The momentmoment they eateten the aptlytreffend namedgenaamd
288
737594
3319
Pas op het moment dat ze
de zo treffend genoemde
12:32
fruitfruit of knowledgekennis,
289
740913
1293
'vrucht van kennis' opeten,
12:34
that's when they discoverontdekken themselveszich.
290
742206
2605
ontdekken ze zichzelf.
12:36
They becomeworden awarebewust. They achievebereiken autonomyautonomie.
291
744811
4031
Ze worden bewust. Ze worden autonoom.
12:40
The priceprijs to paybetalen, howeverechter, is leavingverlaten the gardentuin-.
292
748842
3126
Daarvoor moeten ze echter wel de tuin verlaten.
12:43
So privacyprivacy, in a way, is bothbeide the meansmiddelen
293
751968
3881
Privacy is dus zowel het middel
12:47
and the priceprijs to paybetalen for freedomvrijheid.
294
755849
2962
als de prijs die we betalen voor vrijheid.
12:50
Again, marketersmarketeers tell us
295
758811
2770
Nogmaals, marketeers vertellen ons
12:53
that biggroot datagegevens and socialsociaal mediamedia
296
761581
3019
dat grote hoeveelheden data en sociale media
12:56
are not just a paradiseparadijs of profitwinst for them,
297
764600
2979
niet alleen een winstparadijs voor hen is,
12:59
but a GardenTuin of EdenEden for the restrust uit of us.
298
767579
2457
maar ook een Hof van Eden voor de rest van ons.
13:02
We get freegratis contentinhoud.
299
770036
1238
We krijgen gratis content.
13:03
We get to playspelen AngryBoos BirdsVogels. We get targeteddoelgerichte appsapps.
300
771274
3123
We kunnen Angry Birds spelen.
We krijgen doelgerichte apps.
13:06
But in factfeit, in a fewweinig yearsjaar, organizationsorganisaties
301
774397
2897
Maar in feite zullen organisaties over een paar jaar
13:09
will know so much about us,
302
777294
1609
zoveel over ons weten,
13:10
they will be ablein staat to inferafleiden our desiresverlangens
303
778903
2710
dat ze onze wensen zullen kunnen afleiden
13:13
before we even formformulier them, and perhapsmisschien
304
781613
2204
nog voor we ze hebben gevormd, en misschien
13:15
buykopen productsproducten on our behalfnamens
305
783817
2447
namens ons producten kopen,
13:18
before we even know we need them.
306
786264
2274
nog voordat we weten dat we ze nodig hebben.
13:20
Now there was one EnglishEngels authorauteur
307
788538
3237
Er was één Engelse auteur
13:23
who anticipatedverwacht this kindsoort of futuretoekomst
308
791775
3045
die anticipeerde op het soort toekomst
13:26
where we would tradehandel away
309
794820
1405
waarin we onze autonomie en vrijheid
13:28
our autonomyautonomie and freedomvrijheid for comfortcomfort.
310
796225
3548
zouden verhandelen voor comfort.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Meer nog dan George Orwell,
13:33
the authorauteur is, of courseCursus, AldousAldous HuxleyHuxley.
312
801934
2761
want ik heb het natuurlijk over Aldous Huxley.
13:36
In "BraveDappere NewNieuw WorldWereld," he imaginesverbeeldt a societymaatschappij
313
804695
2854
In "Brave New World"
beeldt hij zich een maatschappij in
13:39
where technologiestechnologieën that we createdaangemaakt
314
807549
2171
waarin technologieën die we oorspronkelijk
13:41
originallyoorspronkelijk for freedomvrijheid
315
809720
1859
creëerden voor vrijheid,
13:43
endeinde up coercingdwang us.
316
811579
2567
ons uiteindelijk gaan bedwingen.
13:46
HoweverEchter, in the bookboek, he alsoook offersaanbiedingen us a way out
317
814146
4791
Hij biedt ons in het boek ook een uitweg
13:50
of that societymaatschappij, similarsoortgelijk to the pathpad
318
818937
3438
van die maatschappij, vergelijkbaar met het pad
13:54
that AdamAdam and EveEve had to followvolgen to leavehet verlof the gardentuin-.
319
822375
3955
dat Adam en Eva moesten volgen
om het Hof te verlaten.
13:58
In the wordstekst of the SavageSavage,
320
826330
2147
In de woorden van de Savage,
14:00
regainingherwinnen autonomyautonomie and freedomvrijheid is possiblemogelijk,
321
828477
3069
het is mogelijk om autonomie en vrijheid
terug te krijgen,
14:03
althoughhoewel the priceprijs to paybetalen is steepsteil.
322
831546
2679
maar daar hangt een duur prijskaartje aan.
14:06
So I do believe that one of the definingdefiniëren fightsgevechten
323
834225
5715
Ik geloof dus dat één van de bepalende gevechten
14:11
of our timestijden will be the fightstrijd
324
839940
2563
van onze tijd, het gevecht
14:14
for the controlcontrole over personalpersoonlijk informationinformatie,
325
842503
2387
om de controle van persoonlijke informatie zal zijn,
14:16
the fightstrijd over whetherof biggroot datagegevens will becomeworden a forcedwingen
326
844890
3507
het gevecht dat bepaalt of
grote hoeveelheden data een kracht worden
14:20
for freedomvrijheid,
327
848397
1289
voor vrijheid,
14:21
ratherliever than a forcedwingen whichwelke will hiddenlyhiddenly manipulatemanipuleren us.
328
849686
4746
in plaats van een kracht die ons
ongemerkt manipuleert.
14:26
Right now, manyveel of us
329
854432
2593
Op dit moment weten velen van ons
14:29
do not even know that the fightstrijd is going on,
330
857025
2753
niet eens dat dit gevecht gaande is,
14:31
but it is, whetherof you like it or not.
331
859778
2672
maar dat is het wel, of je dat nou leuk vindt of niet.
14:34
And at the riskrisico of playingspelen the serpentslang,
332
862450
2804
Om te voorkomen dat wij de slang gaan spelen,
14:37
I will tell you that the toolsgereedschap for the fightstrijd
333
865254
2897
zal ik je vertellen dat de middelen voor dit gevecht
14:40
are here, the awarenessbewustzijn of what is going on,
334
868151
3009
in je hoofd zitten,
het besef van wat er gaande is,
14:43
and in your handshanden,
335
871160
1355
en in je handen,
14:44
just a fewweinig clicksclicks away.
336
872515
3740
want het scheelt slechts een paar klikken.
14:48
Thank you.
337
876255
1482
Dankjewel.
14:49
(ApplauseApplaus)
338
877737
4477
(Applaus)
Translated by Michael van Rhee
Reviewed by Christel Foncke

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com