ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com
TED2018

Kashmir Hill and Surya Mattu: What your smart devices know (and share) about you

Kashmir Hill och Surya Mattu: Vad dina smarta enheter vet (och delar) om dig

Filmed:
2,030,169 views

När väl dina smarta enheter kan prata med dig, vem mer pratar de med? Kashmir Hill och Surya Mattu ville ta reda på det, så de utrustade Hills lägenhet med arton olika internetuppkopplade enheter och byggde en speciell router för att ta reda på hur ofta enheterna kontaktade tillverkarnas servrar och vad de rapporterade in. Resultaten var överraskande - och inte så lite skrämmande. Lär dig mer om vad informationen från dina smarta enheter avslöjar om dina sömnvanor, tv-tittande och till och med din tandborstning, och hur teknikföretag kan använda informationen för att profilera dig. (Det här föredraget innehåller vuxenspråk.)
- Technology journalist
Kashmir Hill writes about privacy and technology. Full bio - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people." Full bio

Double-click the English transcript below to play the video.

Kashmir Hill: I present förra året,
00:12
KashmirKashmir HillHill: So for my
birthdayfödelsedag last yearår,
0
912
2135
gav min man mig en Amazon Echo.
00:15
my husbandMake got me an AmazonAmazon EchoECHO.
1
3071
1993
Jag blev faktiskt lite chockad,
00:17
I was kindsnäll of shockedchockade, actuallyfaktiskt,
2
5595
1540
00:19
because we bothbåde work
in privacysekretess and securitysäkerhet.
3
7159
3234
för vi jobbar båda
med integritet och säkerhet.
00:22
(LaughterSkratt)
4
10417
1336
(Skratt)
00:24
And this was a deviceanordning that would sitsitta
in the middlemitten of our home
5
12688
3389
Det här var en enhet som
skulle finnas mitt i vårt hem
00:28
with a microphonemikrofon on,
6
16101
1436
med en konstant påslagen mikrofon.
00:29
constantlyständigt listeninglyssnande.
7
17561
1649
00:31
We're not aloneensam, thoughdock.
8
19696
1254
Vi är dock inte ensamma.
00:32
AccordingEnligt to a surveyundersökning by NPRNPR
and EdisonEdison ResearchForskning,
9
20974
2881
Enligt en undersökning av
NPR och Edison Research,
00:35
one in sixsex AmericanAmerikansk adultsvuxna
now has a smartsmart speakerhögtalare,
10
23879
4079
har en av sex vuxna amerikaner
en smart högtalare,
00:39
whichsom meansbetyder that they have
a virtualvirtuell assistantassistent at home.
11
27982
2881
vilket betyder att de har en
virtuell assistent därhemma.
00:42
Like, that's wildvild.
12
30887
1198
Det är helt galet.
00:44
The futureframtida, or the futureframtida dystopiadystopi,
is getting here fastsnabb.
13
32109
4116
Framtiden, eller dystopin,
är snabbt på väg.
00:48
BeyondUtöver that, companiesföretag are offeringerbjudande us
all kindsslag of internet-connectedInternet-ansluten devicesenheter.
14
36778
4507
Därutöver, så erbjuder företag
olika typer av internetanslutna enheter.
Det finns smarta lampor, smarta lås,
smarta toaletter, smarta leksaker
00:53
There are smartsmart lightslampor, smartsmart lockslås,
smartsmart toiletstoaletter, smartsmart toysleksaker,
15
41309
4968
00:58
smartsmart sexsex toysleksaker.
16
46301
1311
och smarta sexleksaker.
Med smart menas att en enhet
kan ansluta till internet,
01:00
BeingAtt vara smartsmart meansbetyder the deviceanordning
can connectansluta to the internetinternet,
17
48323
2691
01:03
it can gathersamla datadata,
18
51038
1176
samla in data
01:04
and it can talk to its ownerägare.
19
52238
1902
och prata med sin ägare.
01:06
But onceen gång your appliancesapparater can talk to you,
20
54966
2714
När apparaterna väl kan prata med dig,
01:09
who elseannan are they going to be talkingtalande to?
21
57704
2145
vilka andra kommer de att prata med?
01:12
I wanted to find out,
22
60331
1365
Jag ville ta reda på det,
01:13
so I wentåkte all-inallt-i and turnedvände my
one-bedroomett sovrum apartmentlägenhet in SanSan FranciscoFrancisco
23
61720
3388
så jag gick all-in och gjorde om
min etta i San Francisco
01:17
into a smartsmart home.
24
65132
1349
till ett smart hem.
01:18
I even connectedansluten our bedsäng to the internetinternet.
25
66800
3091
Jag anslöt till och med
vår säng till internet.
01:22
As farlångt as I know, it was just
measuringmätning our sleepingsovande habitsvanor.
26
70505
3302
Så vitt jag vet, mätte den
enbart våra sömnvanor.
Jag kan säga att det enda som är värre
01:26
I can now tell you
that the only thing worsevärre
27
74490
2081
01:28
than getting a terriblefruktansvärd night'spå natten sleepsova
28
76595
1787
än en dålig natts sömn
är att din smarta säng
nästa morgon talar om för dig
01:30
is to have your smartsmart bedsäng
tell you the nextNästa day
29
78406
2417
01:32
that you "missedmissade your goalmål
and got a lowlåg sleepsova scoregöra."
30
80847
3056
att "du missade ditt mål
och fick låga sovpoäng."
01:35
(LaughterSkratt)
31
83927
1380
(Skratt)
01:37
It's like, "ThanksTack, smartsmart bedsäng.
32
85331
1437
Ok, "Tack, sängen.
01:38
As if I didn't alreadyredan
feel like shitSkit todayi dag."
33
86792
2516
Precis som om jag inte
redan mår skit idag."
01:41
(LaughterSkratt)
34
89332
1153
(Skratt)
01:42
All togethertillsammans, I installedinstallerat 18
internet-connectedInternet-ansluten devicesenheter in my home.
35
90509
4536
Totalt installerade jag arton
internetanslutna enheter i mitt hem.
01:47
I alsoockså installedinstallerat a SuryaSurya.
36
95069
2238
Jag installerade också Surya.
Surya Mattu: Hej, jag är Surya.
01:49
SuryaSurya MattuMattu: HiHej, I'm SuryaSurya.
37
97331
1381
01:50
(LaughterSkratt)
38
98736
1198
(Skratt)
01:51
I monitoredövervakas everything the smartsmart home did.
39
99958
2944
Jag övervakade allt
som ditt smarta hem gjorde.
01:54
I builtbyggd a specialsärskild routerRouter that let me look
at all the networknätverk activityaktivitet.
40
102926
3929
Jag byggde en speciell router
som visade all nätverksaktivitet.
01:58
You can think of my routerRouter
sortsortera of like a securitysäkerhet guardvakt,
41
106879
2930
Tänk er routern som
en sorts säkerhetsvakt
02:01
compulsivelytvångsmässigt loggingskogsavverkning
all the networknätverk packetspaket
42
109833
2133
som tvångsmässigt loggar
alla nätverkspaket
som skapas och lämnar det smarta hemmet.
02:03
as they enteredgick in i and left the smartsmart home.
43
111990
2047
02:06
KHKh: SuryaSurya and I are bothbåde journalistsjournalister,
he's not my husbandMake,
44
114061
2754
KH: Surya och jag är journalister.
Han är inte min man.
02:08
we just work togethertillsammans at GizmodoGizmodo.
45
116839
1676
Vi jobbar bara ihop på Gizmodo.
SM: Tack för förtydligandet.
02:10
SMSM: Thank you for clarifyingatt klargöra.
46
118539
1389
02:11
The devicesenheter KashmirKashmir boughtköpt --
47
119952
1402
Enheterna som Kashmir köpte -
02:13
we were interestedintresserad in understandingförståelse
48
121378
1692
vi ville förstå
vad de berättade för tillverkarna.
02:15
what they were sayingsäger
to theirderas manufacturerstillverkare.
49
123094
2111
Men vi ville också förstå
02:17
But we were alsoockså interestedintresserad
in understandingförståelse
50
125229
2062
vilken information de skickade
02:19
what the home'shemma digitaldigital
emissionsutsläpp look like
51
127315
2370
02:21
to the internetinternet serviceservice providerleverantör.
52
129709
2265
till leverantören av internettjänsten.
02:23
We were seeingseende what the ISPIsp could see,
but more importantlyviktigt,
53
131998
2842
Vi såg det ISP:n såg, men ännu viktigare,
02:26
what they could sellsälja.
54
134864
1181
vad de kunde sälja.
02:28
KHKh: We ransprang the experimentexperimentera for two monthsmånader.
55
136069
2143
KH: Vi gjorde experimentet i två månader.
02:30
In that two monthsmånader,
56
138236
1167
Under den tiden,
rådde det inte digital tystnad
ens i en timme -
02:31
there wasn'tvar inte a singleenda hourtimme
of digitaldigital silencetystnad in the househus --
57
139427
2877
inte ens när vi var bortresta en vecka.
02:34
not even when we wentåkte away for a weekvecka.
58
142328
1932
02:36
SMSM: Yeah, it's so truesann.
59
144284
1174
SM: Ja, det är sant.
Baserat på datan, visste jag
när ni vaknade och somnade.
02:37
BasedBaserat on the datadata, I knewvisste when
you guys wokevaknade up and wentåkte to bedsäng.
60
145482
3016
Jag visste till och med när
Kashmir borstade tänderna.
02:40
I even knewvisste when KashmirKashmir
brushedborstade her teethtänder.
61
148522
2039
02:42
I'm not going to out your brushingborstning habitsvanor,
62
150585
2024
Jag ska inte avslöja dina vanor,
02:44
but let's just say it was very clearklar to me
when you were workingarbetssätt from home.
63
152633
3629
men jag kan säga att jag visste
när du jobbade hemifrån.
02:48
KHKh: Uh, I think you just outedOuted them
to, like, a lot of people here.
64
156286
3212
KH: Oj, jag tror att du precis
avslöjade dem.
02:51
SMSM: Don't be embarrassedgenerad,
it's just metadatametadata.
65
159522
2346
SM: Bli inte generad,
det är bara metadata.
02:54
I knewvisste when you turnedvände on your TVTV
and how long you watchedbetraktade it for.
66
162472
3143
Jag visste när du slog på tv:n
och hur länge du tittade.
02:57
FunKul factfaktum about the HillHill householdhushåll:
67
165639
1629
Rolig fakta om familjen Hill:
02:59
they don't watch a lot of televisiontv,
68
167292
1794
de tittar sällan på tv,
men när de gör det, maratontittar de.
03:01
but when they do,
it's usuallyvanligtvis in bingebinge modeläge.
69
169110
2268
Favoritprogrammen är
"Difficult People" och "Party Down".
03:03
FavoriteFavorit showsvisar includeomfatta
"DifficultSvårt People" and "PartyPart Down."
70
171402
2779
KH: Ja,
jag älskade "Party Down".
03:06
KHKh: OK, you're right,
I lovedälskade "PartyPart Down."
71
174205
2039
Serien är jättebra,
du bör verkligen se den.
03:08
It's a great showshow,
and you should definitelydefinitivt watch it.
72
176268
2547
Men "Difficult People"
följdes bara av min man, Trevor.
03:10
But "DifficultSvårt People"
was all my husbandMake, TrevorTrevor.
73
178839
2444
03:13
And TrevorTrevor was actuallyfaktiskt a little upsetupprörd
that you knewvisste about his bingesBinges,
74
181307
3603
Trevor var faktiskt lite upprörd
över att du kände till hans vanor,
03:16
because even thoughdock he'dhan hade been the one
to connectansluta the TVTV to the routerRouter,
75
184934
3334
för även om det var han som
kopplat tv:n till routern,
03:20
he forgotglömde that the TVTV was watchingtittar på us.
76
188292
2447
glömde han att tv:n betraktade oss.
03:23
It's actuallyfaktiskt not the first time
that our TVTV has spiedspionerade on us.
77
191109
3293
Det är faktiskt inte första gången
som tv:n spionerat på oss.
03:26
The companyföretag that madegjord it, VIZIOVizio,
78
194426
1699
Bolaget som tillverkade den, VIZIO,
03:28
paidbetald a 2.2 million-dollarmiljoner dollar settlementlösning
to the governmentregering just last yearår,
79
196149
4333
betalade 2,2 miljoner dollar
i skadestånd till staten förra året,
03:32
because it had been collectingsamlar
second-by-secondsekund för sekund informationinformation
80
200506
3357
eftersom de samlat in realtidsdata
03:35
about what millionsmiljoner of people
were watchingtittar på on TVTV, includingInklusive us,
81
203887
3468
om vad miljoner människor,
inklusive vi, tittade på,
03:39
and then it was sellingförsäljning that informationinformation
to datadata brokersMäklare and advertisersannonsörer.
82
207379
3705
och sedan sålt informationen till
datamäklare och annonsörer.
03:43
SMSM: AhAh, classicklassisk surveillanceövervakning economyekonomi moveflytta.
83
211108
3222
SM: Ah, ett drag av klassisk
övervakningsekonomi.
Nästan alla Kashmirs enheter
kontaktade sina servrar dagligen.
03:46
The devicesenheter KashmirKashmir boughtköpt
almostnästan all pingedPingade theirderas serversservrar dailydagligen.
84
214775
3866
03:50
But do you know whichsom deviceanordning
was especiallyspeciellt chattypratsam?
85
218665
2396
Vet du vilken enhet som
var särskilt snackig?
03:53
The AmazonAmazon EchoECHO.
86
221085
1294
Amazon Echo.
03:54
It contactedkontaktade its serversservrar
everyvarje threetre minutesminuter,
87
222403
2428
Den kontaktade sina servrar
var tredje minut,
03:56
regardlessoavsett of whetherhuruvida
you were usinganvänder sig av it or not.
88
224855
2198
oavsett om du använde den eller inte.
03:59
KHKh: In generalallmän, it was disconcertingförbryllande
89
227077
2183
KH: Rent allmänt, så var det oroväckande
04:01
that all these devicesenheter were havinghar
ongoingpågående conversationskonversationer
90
229284
2984
att alla de här enheterna hade
en pågående kommunikation
04:04
that were invisibleosynlig to me.
91
232292
1626
som var osynlig för mig.
04:05
I mean, I would have had
no ideaaning, withoututan your routerRouter.
92
233942
2587
Jag skulle inte haft en aning
utan din router.
04:08
If you buyköpa a smartsmart deviceanordning,
you should probablyförmodligen know --
93
236553
3468
Om du köper en smart enhet
bör du vara medveten om
04:12
you're going to ownegen the deviceanordning,
94
240045
2111
att du äger enheten,
04:14
but in generalallmän, the companyföretag
is going to ownegen your datadata.
95
242180
3420
men i allmänhet,
kommer företaget äga din data.
Vet du, det kanske är självklart
04:17
And you know, I mean,
maybe that's to be expectedförväntat --
96
245624
2572
04:20
you buyköpa an internet-connectedInternet-ansluten deviceanordning,
it's going to use the internetinternet.
97
248220
3507
att om du köper en uppkopplad enhet,
kommer den att använda internet.
Men det är konstigt när sådana enheter
04:24
But it's strangekonstig to have these devicesenheter
98
252189
1842
04:26
movingrör på sig into the intimateintima spacerymden
that is the home
99
254055
2658
flyttar in i hemmets privata sfär
04:28
and allowingtillåta companiesföretag to trackspåra
our really basicgrundläggande behaviorbeteende there.
100
256737
3443
och tillåter företag att
spåra vad vi gör där.
04:32
SMSM: So truesann.
101
260204
1159
SM: Så sant.
Även till synes banal data
kan utvinnas av övervakningsekonomin.
04:33
Even the mostmest banal-seemingbanal-skenande datadata
can be minedminerade by the surveillanceövervakning economyekonomi.
102
261387
3539
04:36
For exampleexempel, who caresbekymmer
how oftenofta you brushborste your teethtänder?
103
264950
2575
Vem bryr sig t.ex. om
hur ofta du borstar tänderna?
04:39
Well, as it turnsvarv out, there's a dentaldental
insuranceförsäkring companyföretag calledkallad BeamBeam.
104
267549
3526
Det visar sig att det finns ett bolag,
Beam, som försäkrar tänder.
04:43
They'veDe har been monitoringövervakning theirderas customers'kundernas
smartsmart toothbrushesTandborstar sincesedan 2015 --
105
271099
3835
De har övervakat sina kunders
smarta tandborstar sedan 2015
04:46
for discountsrabatter on theirderas
premiumspremierna, of coursekurs.
106
274958
2579
för att ge rabatt på
försäkringarna, så klart.
04:49
KHKh: We know what
some of you are thinkingtänkande:
107
277561
2259
KH: Vi vet vad några av er tänker:
04:51
this is the contractavtal of the modernmodern worldvärld.
108
279844
2654
det här är det nya samhällskontraktet.
Du ger upp en del av ditt privatliv
04:54
You give up a little privacysekretess,
109
282522
1427
04:55
and you get some conveniencebekvämlighet
or some pricepris breaksraster in returnlämna tillbaka.
110
283973
3218
och får lite bekvämlighet
eller rabatter som tack.
Men det var inte min erfarenhet
av mitt smarta hem.
04:59
But that wasn'tvar inte my experienceerfarenhet
in my smartsmart home.
111
287514
2341
05:01
It wasn'tvar inte convenientbekväm, it was infuriatingupprörande.
112
289879
3674
Det var inte valuta för pengarna.
Det var fruktansvärt irriterande.
05:05
I'll admiterkänna, I love my smartsmart vacuumVakuum,
113
293577
2492
Visst, jag älskar min
smarta dammsugare,
05:08
but manymånga other things in the househus
drovekörde me insanesinnessjuk:
114
296093
2405
men mycket annat drev mig till vansinne:
05:10
we ransprang out of electricalelektrisk outletsförsäljningsställen,
115
298522
2396
vi hade inte tillräckligt med eluttag,
05:12
and I had to downloadladda ner
over a dozendussin appsappar to my phonetelefon
116
300942
3379
och jag var tvungen att installera
över ett dussin mobilappar
05:16
to controlkontrollera everything.
117
304345
1327
för att kontrollera allt.
05:17
And then everyvarje deviceanordning had its ownegen log-inLogga in,
118
305696
2089
Alla enheter hade egna login.
05:19
my toothbrushtandborste had a passwordlösenord ...
119
307809
2363
Min tandborste hade ett lösenord.
05:22
(LaughterSkratt)
120
310196
1737
(Skratt)
05:23
And smartsmart coffeekaffe, especiallyspeciellt,
was just a worldvärld of hellHelvete.
121
311957
4128
Särskilt den smarta kaffebryggaren
var ett helvete.
05:28
SMSM: Wait, really? Cloud-poweredMoln drivna
coffeekaffe wasn'tvar inte really workingarbetssätt for you?
122
316109
3928
SM: Verkligen? Molnbaserad
kaffebryggning fungerade inte för dig?
05:32
KHKh: I mean, maybe I'm naivenaiv,
but I thought it was going to be great.
123
320061
3238
KH: Jag är kanske naiv, som trodde
att det skulle vara smidigt.
05:35
I thought we'dvI hADE just wakevakna up in the morningmorgon-
and we'dvI hADE say, "AlexaAlexa, make us coffeekaffe."
124
323323
4019
Jag trodde att vi skulle vakna
och säga "Alexa, brygg kaffe."
05:39
But that's not how it wentåkte down.
125
327366
1873
Men så fungerade det inte.
05:41
We had to use this really particularsärskild,
brand-specificvarumärkesspecifika phrasefras to make it work.
126
329263
4651
Vi var tvungna att använda en
särskild fras för att det skulle fungera.
05:45
It was, "AlexaAlexa, askfråga the BehmorMer från Behmor
to runspringa quicksnabbt startStart."
127
333938
4608
Den löd, "Alexa, säg till Behmor
att köra snabbstart."
05:51
And this was just, like,
really hardhård to rememberkom ihåg
128
339222
3342
Den var väldigt svår att komma ihåg
05:54
first thing in the morningmorgon-,
129
342588
1334
direkt på morgonen,
05:55
before you have had your caffeinekoffein.
130
343946
1703
innan du fått i dig koffein.
05:57
(LaughterSkratt)
131
345673
1103
(Skratt)
Det var påfallande svårt att säga,
05:58
And apparentlyuppenbarligen, it was hardhård to say,
132
346800
1690
06:00
because the EchoECHO DotDot
that was right nextNästa to our bedsäng
133
348514
3063
för mikrofonen, som var
precis bredvid sängen
06:03
just couldn'tkunde inte understandförstå us.
134
351601
1611
kunde inte tyda oss.
06:05
So we would basicallyi grund och botten startStart everyvarje day
by screamingskrikande this phrasefras at the EchoECHO DotDot.
135
353704
4621
Vi började varje morgon med
att skrika frasen in i mikrofonen.
06:10
(LaughterSkratt)
136
358349
1173
(Skratt)
06:11
And TrevorTrevor hatedhatade this.
137
359546
1466
Trevor avskydde det.
06:13
He'dHan skulle be like, "Please, KashmirKashmir,
138
361339
1748
Han sade, "Snälla Kashmir,
06:15
just let me go to the kitchenkök and pushskjuta på
the buttonknapp to make the coffeekaffe runspringa."
139
363111
3669
låt mig bara gå ut i köket
och trycka på knappen."
06:19
And I'd be like, "No, you can't!
140
367379
2087
Jag sade, "Nej, det kan du inte!
06:21
We have to do it the smartsmart way!"
141
369490
2409
Vi måste göra det på det smarta viset!"
06:23
(LaughterSkratt)
142
371923
1916
(Skratt)
06:25
I'm happylycklig to reportrapportera that our marriageäktenskap
survivedöverlevde the experimentexperimentera,
143
373863
3043
Jag är glad att vårt äktenskap
överlevde experimentet,
men det var med nöd och näppe.
06:28
but just barelynätt och jämnt.
144
376930
1560
SM: Om du beslutar att
göra ditt hem smart,
06:30
SMSM: If you decidebesluta to make your home smartsmart,
145
378514
2047
06:32
hopefullyförhoppningsvis, you’llll find it
lessmindre infuriatingupprörande than KashmirKashmir did.
146
380585
2849
finner du det förhoppningsvis inte
lika irriterande som Kashmir.
06:35
But regardlessoavsett, the smartsmart things you buyköpa
147
383458
2087
Oavsett, de smarta enheter du köper
06:37
can and probablyförmodligen are used
to targetmål and profileprofil you.
148
385569
3095
kan och kommer förmodligen
användas för att profilera dig.
06:41
Just the numbersiffra of devicesenheter you have
can be used to predictförutspå
149
389141
3040
Enbart utifrån de enheter du har
kan företag förutsäga
06:44
how richrik or poorfattig you are.
150
392205
1422
hur rik eller fattig du är.
06:45
Facebook'sFacebooks madegjord this techtech,
and they'vede har alsoockså patentedpatenterad it.
151
393651
2767
Facebook skapade
patenterad teknik av det här.
06:48
KHKh: All the anxietyångest you currentlyför närvarande feel
everyvarje time you go onlineuppkopplad,
152
396442
3686
KH: Oron du känner
varje gång du är online,
06:52
about beingvarelse trackedspåras,
153
400152
1306
för att bli spårad,
06:53
is about to moveflytta into your livinglevande roomrum.
154
401482
2301
håller på att flytta in i ditt vardagsrum.
06:55
Or into your bedroomsovrum.
155
403807
1579
Eller in i ditt sovrum.
06:57
There's this sexsex toyleksak calledkallad the We-VibeVi-Vibe.
156
405950
2222
Det finns en sexleksak kallad We-Vibe.
07:00
You mightmakt wonderundra why
a sexsex toyleksak connectsansluter to the internetinternet,
157
408577
2667
Men varför ansluter
en sexleksak till internet?
07:03
but it's for two people
who are in a long-distancelång distans relationshiprelation,
158
411268
3436
Den är för par som har
långdistansförhållande,
07:06
so they can sharedela med sig theirderas love from afarfjärran.
159
414728
2920
så att de kan dela sin kärlek på avstånd.
07:10
Some hackershackare tooktog a closestänga look at this toyleksak
160
418259
2116
Några hackare tog en noggrann titt på den
07:12
and saw it was sendingsändning
a lot of informationinformation
161
420399
2075
och upptäckte att den sände en massa data
07:14
back to the companyföretag that madegjord it --
162
422498
2462
tillbaka till tillverkaren:
07:16
when it was used,
how long it was used for,
163
424984
2966
när den användes, hur länge den användes,
07:19
what the vibrationvibration settingsinställningar were,
how hotvarm the toyleksak got.
164
427974
3706
vilken vibrationsnivå som användes
och hur varm den blev.
07:23
It was all going into a databasedatabas.
165
431704
2189
All data sparades i en databas.
07:25
So I reachednådde out to the companyföretag,
166
433917
2749
Jag hörde av mig till företaget
och frågade, "Varför samlar ni in
sån här väldigt känslig data?"
07:28
and I said, "Why are you collectingsamlar
this really sensitivekänslig datadata?"
167
436690
3302
07:32
And they said, "Well, it's great
for marketmarknadsföra researchforskning."
168
440369
3386
De svarade, "Den är perfekt
för marknadsundersökningar."
07:36
But they were data-miningdatautvinning
theirderas customers'kundernas orgasmsorgasmer.
169
444592
2929
Men de samlade data kring
kundernas orgasmer,
07:39
And they weren'tinte tellingtalande them about it.
170
447545
1921
och de informerade inte om det.
07:41
I mean, even if
you're cavalierCavalier about privacysekretess,
171
449490
2222
Även om du inte bryr dig om
din integritet,
07:43
I hopehoppas that you would admiterkänna
that's a stepsteg too farlångt.
172
451736
2595
hoppas jag att du tycker
att det var ett övertramp.
07:46
SMSM: This is why I want
to keep my sexsex toysleksaker dumbdum.
173
454680
2508
SM: Det är därför jag vill ha
dumma sexleksaker.
07:49
KHKh: That's great.
174
457212
1166
KH: Det är bra.
07:50
We're all very gladglad to know that.
175
458402
1666
Det är vi glada att höra.
07:52
(LaughterSkratt)
176
460092
1448
(Skratt)
07:53
SMSM: A datadata pointpunkt I'm willingvillig to sharedela med sig.
177
461564
2034
SM: En bit data jag är villig att dela.
07:55
(LaughterSkratt)
178
463622
1723
(Skratt)
07:57
The devicesenheter KashmirKashmir boughtköpt
rangeräckvidd from usefulanvändbar to annoyingirriterande.
179
465369
2970
Enheterna Kashmir köpte gick från
användbara till irriterande.
08:00
But the thing they all had in commonallmänning
180
468363
1793
Deras gemensamma drag
08:02
was sharingdelning datadata with
the companiesföretag that madegjord them.
181
470180
2699
var att de delade data med
företagen som byggt dem.
Med e-posttjänstleverantörer
och sociala medier,
08:04
With emaile-post serviceservice providersleverantörer
and socialsocial mediamedia,
182
472903
2308
08:07
we'vevi har long been told that if it's freefri,
you're the productprodukt.
183
475235
2958
har vi länge hört att om de är gratis,
då är du produkten.
Men med sakernas internet,
verkar det som,
08:10
But with the internetinternet of things, it seemsverkar,
184
478217
2007
att även om du betalar,
så är du ändå produkten.
08:12
even if you paybetala, you're still the productprodukt.
185
480248
2008
Så du måste fråga dig själv:
08:14
So you really have to askfråga:
186
482280
1245
08:15
Who'sSom the truesann beneficiaryförmånstagare
of your smartsmart home,
187
483549
2185
Vem är den verkliga vinnaren,
08:17
you or the companyföretag miningbrytning you?
188
485758
1629
du eller de som använder din data?
08:19
KHKh: Look, we're a techtech savvykunniga crowdfolkmassan here.
189
487411
1952
KH: Här är vi, en teknikvan skara.
08:21
I think mostmest of us know
that these things connectansluta to the internetinternet
190
489387
3112
De flesta av oss vet att
de här enheterna är uppkopplade
och skickar data.
08:24
and sendskicka datadata out.
191
492523
1163
08:25
And fine, maybe you're OK with livinglevande
in that commercialkommersiell panopticonPanoptikon,
192
493710
4018
Visst, du är kanske bekväm med
att leva i ett kommersiellt fängelse,
08:29
but othersandra aren'tinte.
193
497752
1397
men andra är inte det.
08:31
We need the companiesföretag to rethinkompröva
the designdesign of these devicesenheter
194
499173
2841
Vi måste få företagen att
designa om de här enheterna
08:34
with our privacysekretess in mindsinne,
195
502038
1515
med fokus på integritet.
08:35
because we're not all willingvillig
to participatedelta in "marketmarknadsföra researchforskning,"
196
503577
3111
Alla är inte villiga att delta i
"marknadsundersökningar",
08:38
just because a deviceanordning we boughtköpt
has a Wi-FiWi-Fi connectionförbindelse.
197
506712
2893
bara för att enheten vi köpt
har en internetanslutning.
08:42
And I have to tell you,
198
510014
1198
Jag måste säga,
08:43
even when you're awaremedveten,
generallyallmänt, this is happeninghappening,
199
511236
2582
att även om du är medveten,
om att det händer,
08:45
it's really easylätt to forgetglömma that normalvanligt
householdhushåll itemsobjekt are spyingspioneri on you.
200
513842
4394
är det väldigt lätt att glömma att
vanliga hushållsmaskiner spionerar på dig.
08:50
It's easylätt to forgetglömma
these things are watchingtittar på you,
201
518664
2350
Det är lätt att glömma att de iakttar dig,
08:53
because they don't look like cameraskameror.
202
521038
2047
eftersom de inte ser ut som kameror.
08:55
They could look like ...
203
523109
1429
De kan se ut som ...
08:56
well, they could look like a dildoDildo.
204
524562
2544
hmm, som en dildo.
08:59
Thank you.
205
527780
1152
Tack så mycket.
09:00
(ApplauseApplåder)
206
528956
3686
(Applåder)
Translated by Anette Smedberg
Reviewed by Rebecka (Johansson) Swe

▲Back to top

ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com