ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com
TED2018

Kashmir Hill and Surya Mattu: What your smart devices know (and share) about you

Kashmir Hill et Surya Mattu: Ce que vos appareils intelligents savent (et partagent) sur vous

Filmed:
2,030,169 views

Votre appareil peut vous parler, mais à qui d'autre parle-t-il ? Kashmir Hill et Surya Mattu voulaient le savoir, ils ont donc rempli l'appartement de Kashmir avec 18 appareils connectés à internet et ont construit un routeur spécial afin de traquer à quelle fréquence ils contactaient leurs serveurs et ce qu'ils envoyaient. Les résultats furent surprenants, et plus que suspects. Apprenez-en plus à propos de ce que les données de vos appareils intelligents révèlent sur votre programme de sommeil, excès de télé ou même vos habitudes de brossage de dents, et voyez comment les compagnies de technologie peuvent utiliser ces données pour vous cibler et vous profiler. (Cette conférence contient du langage adulte.)
- Technology journalist
Kashmir Hill writes about privacy and technology. Full bio - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people." Full bio

Double-click the English transcript below to play the video.

00:12
KashmirKashmir HillHill: So for my
birthdayanniversaire last yearan,
0
912
2135
Kashmir Hill :
L'an dernier, pour mon anniversaire
00:15
my husbandmari got me an AmazonAmazon EchoECHO.
1
3071
1993
mon mari m'a offert un Amazon Echo.
00:17
I was kindgentil of shockedchoqué, actuallyréellement,
2
5595
1540
J'étais plutôt choquée, en fait,
00:19
because we bothtous les deux work
in privacyvie privée and securitySécurité.
3
7159
3234
car on travaille tous les deux
dans la sécurité informatique.
00:22
(LaughterRires)
4
10417
1336
(Rires)
00:24
And this was a devicedispositif that would sitasseoir
in the middlemilieu of our home
5
12688
3389
Or c'est un appareil qui trône
au milieu de la maison,
00:28
with a microphonemicrophone on,
6
16101
1436
le micro allumé,
00:29
constantlyconstamment listeningécoute.
7
17561
1649
constamment à l'écoute.
00:31
We're not aloneseul, thoughbien que.
8
19696
1254
Mais on n'est pas seuls.
00:32
AccordingSelon to a surveyenquête by NPRNPR
and EdisonEdison ResearchRecherche,
9
20974
2881
Selon un sondage de la NPR
et d'Edison Research,
00:35
one in sixsix AmericanAméricain adultsadultes
now has a smartintelligent speakerorateur,
10
23879
4079
un adulte américain sur six possède
un haut-parleur intelligent,
00:39
whichlequel meansveux dire that they have
a virtualvirtuel assistantAssistant at home.
11
27982
2881
ce qui signifie qu'ils ont
un assistant virtuel chez eux.
00:42
Like, that's wildsauvage.
12
30887
1198
C'est démentiel !
00:44
The futureavenir, or the futureavenir dystopiadystopia,
is gettingobtenir here fastvite.
13
32109
4116
L'avenir, ou la future dystopie,
commence aujourd'hui.
00:48
BeyondAu-delà de that, companiesentreprises are offeringoffre us
all kindssortes of internet-connectedconnecté à Internet devicesdispositifs.
14
36778
4507
Au-delà de ça, les sociétés offrent
toutes sortes d'appareils connectés.
00:53
There are smartintelligent lightslumières, smartintelligent locksserrures,
smartintelligent toiletstoilettes, smartintelligent toysjouets,
15
41309
4968
Tout est devenu intelligent : lampes,
cadenas, toilettes, jouets,
00:58
smartintelligent sexsexe toysjouets.
16
46301
1311
et sextoys intelligents.
01:00
BeingÉtant smartintelligent meansveux dire the devicedispositif
can connectrelier to the internetl'Internet,
17
48323
2691
« Intelligent » signifie que le terminal
est relié à Internet,
01:03
it can gatherrecueillir dataLes données,
18
51038
1176
qu'il collecte des données
et qu'il peut parler à son propriétaire.
01:04
and it can talk to its ownerpropriétaire.
19
52238
1902
01:06
But onceune fois que your appliancesappareils électroménagers can talk to you,
20
54966
2714
Mais une fois que vos dispositifs
peuvent vous parler,
01:09
who elseautre are they going to be talkingparlant to?
21
57704
2145
à qui d'autre vont-ils parler ?
01:12
I wanted to find out,
22
60331
1365
Je voulais le découvrir,
01:13
so I wentest allé all-inAll-in and turnedtourné my
one-bedroomune chambre à coucher apartmentappartement in SanSan FranciscoFrancisco
23
61720
3388
j'ai sauté le pas et transformé
mon studio de San Francisco
01:17
into a smartintelligent home.
24
65132
1349
en maison intelligente.
01:18
I even connectedconnecté our bedlit to the internetl'Internet.
25
66800
3091
J'ai même connecté notre lit à Internet.
01:22
As farloin as I know, it was just
measuringmesure our sleepingen train de dormir habitsdes habitudes.
26
70505
3302
À ma connaissance, il mesurait juste
nos habitudes de sommeil.
01:26
I can now tell you
that the only thing worsepire
27
74490
2081
Je peux vous assurer que la seule chose
pire que très mal dormir la nuit,
01:28
than gettingobtenir a terribleterrible night'snuit d’été sleepdormir
28
76595
1787
01:30
is to have your smartintelligent bedlit
tell you the nextprochain day
29
78406
2417
est un lit intelligent qui déclare
le lendemain
qu'on a « manqué son objectif
et obtenu un piètre score de sommeil ».
01:32
that you "missedmanqué your goalobjectif
and got a lowfaible sleepdormir scoreBut."
30
80847
3056
01:35
(LaughterRires)
31
83927
1380
(Rires)
« Ah ça, merci, lit intelligent.
01:37
It's like, "ThanksMerci, smartintelligent bedlit.
32
85331
1437
01:38
As if I didn't alreadydéjà
feel like shitmerde todayaujourd'hui."
33
86792
2516
Comme si je n'étais pas déjà
assez fatiguée. »
01:41
(LaughterRires)
34
89332
1153
(Rires)
01:42
All togetherensemble, I installedinstallée 18
internet-connectedconnecté à Internet devicesdispositifs in my home.
35
90509
4536
J'ai donc installé 18 systèmes
connectés chez moi.
01:47
I alsoaussi installedinstallée a SuryaSurya.
36
95069
2238
J'ai aussi installé un Surya.
Surya Mattu :
Salut, c'est moi Surya.
01:49
SuryaSurya MattuMattu: HiSalut, I'm SuryaSurya.
37
97331
1381
01:50
(LaughterRires)
38
98736
1198
(Rires)
J'ai surveillé tous les faits et gestes
de la maison intelligente.
01:51
I monitoredsurveillés everything the smartintelligent home did.
39
99958
2944
01:54
I builtconstruit a specialspécial routerrouteur that let me look
at all the networkréseau activityactivité.
40
102926
3929
J'ai créé un routeur spécial pour observer
toute l'activité du réseau.
01:58
You can think of my routerrouteur
sortTrier of like a securitySécurité guardgarde,
41
106879
2930
Mon routeur est une sorte
d'agent de sécurité
02:01
compulsivelycompulsivement loggingenregistrement
all the networkréseau packetsPaquets
42
109833
2133
qui enregistre tous les paquets du réseau
02:03
as they enteredentré and left the smartintelligent home.
43
111990
2047
quand ils entrent ou sortent de la maison.
KH : Surya et moi sommes journalistes,
ce n'est pas mon mari,
02:06
KHKH: SuryaSurya and I are bothtous les deux journalistsjournalistes,
he's not my husbandmari,
44
114061
2754
02:08
we just work togetherensemble at GizmodoGizmodo.
45
116839
1676
on travaille ensemble à Gizmodo.
02:10
SMSM: Thank you for clarifyingclarifiant.
46
118539
1389
SM : Merci pour la précision.
02:11
The devicesdispositifs KashmirKashmir boughtacheté --
47
119952
1402
Les appareils de Kashmir --
02:13
we were interestedintéressé in understandingcompréhension
48
121378
1692
nous voulions comprendre
02:15
what they were sayingen disant
to theirleur manufacturersfabricants.
49
123094
2111
ce qu'ils disaient à leurs fabricants.
02:17
But we were alsoaussi interestedintéressé
in understandingcompréhension
50
125229
2062
Nous voulions aussi comprendre
02:19
what the home'smaison digitalnumérique
emissionsles émissions look like
51
127315
2370
à quoi les envois de données ressemblaient
02:21
to the internetl'Internet serviceun service providerfournisseur de.
52
129709
2265
pour le fournisseur d'accès à Internet.
02:23
We were seeingvoyant what the ISPFOURNISSEUR DE SERVICES INTERNET could see,
but more importantlyimportant,
53
131998
2842
On voyait ce que le FAI voyait,
mais encore plus important,
02:26
what they could sellvendre.
54
134864
1181
ce qu'il pouvait vendre.
02:28
KHKH: We rancouru the experimentexpérience for two monthsmois.
55
136069
2143
KH : Notre expérience a duré deux mois.
02:30
In that two monthsmois,
56
138236
1167
Pendant ces deux mois,
il n'y a pas eu une seule heure
de silence numérique -
02:31
there wasn'tn'était pas a singleunique hourheure
of digitalnumérique silencesilence in the housemaison --
57
139427
2877
02:34
not even when we wentest allé away for a weekla semaine.
58
142328
1932
pas même quand on est parti une semaine.
02:36
SMSM: Yeah, it's so truevrai.
59
144284
1174
SM : Oui, c'est vrai.
Grâce aux données, je savais
quand vous vous leviez ou vous couchiez,
02:37
BasedSelon on the dataLes données, I knewa connu when
you guys wokeréveillé up and wentest allé to bedlit.
60
145482
3016
02:40
I even knewa connu when KashmirKashmir
brushedbrossé her teethles dents.
61
148522
2039
quand Kashmir se brossait les dents.
02:42
I'm not going to out your brushingbrossage habitsdes habitudes,
62
150585
2024
Motus sur tes habitudes de brossage,
02:44
but let's just say it was very clearclair to me
when you were workingtravail from home.
63
152633
3629
mais disons que je savais exactement
quand tu travaillais chez toi.
02:48
KHKH: Uh, I think you just outeddémasqué them
to, like, a lot of people here.
64
156286
3212
KH : Euh, je pense que tu viens
de les divulguer au monde entier.
SM : Ne sois pas gênée,
c'est juste une métadonnée.
02:51
SMSM: Don't be embarrassedembarrassé,
it's just metadatamétadonnées.
65
159522
2346
02:54
I knewa connu when you turnedtourné on your TVTV
and how long you watchedregardé it for.
66
162472
3143
Je savais quand tu allumais la télé
et pendant combien de temps.
02:57
Funamusement factfait about the HillHill householdMénage:
67
165639
1629
Anecdote sur le ménage des Hill :
02:59
they don't watch a lot of televisiontélévision,
68
167292
1794
ils regardent peu la télévision,
03:01
but when they do,
it's usuallyd'habitude in bingecrise de boulimie modemode.
69
169110
2268
mais quand ils le font, c'est énorme.
Leurs émissions favorites :
« Difficult People » et « Party Down ».
03:03
FavoriteFavori showsmontre includecomprendre
"DifficultDifficile People" and "PartyParti Down."
70
171402
2779
03:06
KHKH: OK, you're right,
I lovedaimé "PartyParti Down."
71
174205
2039
KH : Tu as raison, je l'ai adorée.
C'est une bonne émission,
tu devrais vraiment la regarder.
03:08
It's a great showmontrer,
and you should definitelyabsolument watch it.
72
176268
2547
03:10
But "DifficultDifficile People"
was all my husbandmari, TrevorTrevor.
73
178839
2444
Mais « Difficult People »,
c'était mon mari, Trevor.
03:13
And TrevorTrevor was actuallyréellement a little upsetdérangé
that you knewa connu about his bingescrises de boulimie,
74
181307
3603
Trevor était un peu contrarié
que tu connaisses ses excès,
03:16
because even thoughbien que he'dil aurait been the one
to connectrelier the TVTV to the routerrouteur,
75
184934
3334
car même s'il avait connecté
la télé au routeur lui-même,
03:20
he forgotoublié that the TVTV was watchingen train de regarder us.
76
188292
2447
il a oublié que la télé nous espionnait.
03:23
It's actuallyréellement not the first time
that our TVTV has spiedespionné on us.
77
191109
3293
Ce n'était pas la première fois
que notre télé nous espionnait.
03:26
The companycompagnie that madefabriqué it, VIZIOVIZIO,
78
194426
1699
L'entreprise qui l'a conçue, VIZIO,
03:28
paidpayé a 2.2 million-dollarmillion de dollars settlementrèglement
to the governmentgouvernement just last yearan,
79
196149
4333
a payé 2,2 millions de dollars
de dommages au gouvernement l'an dernier,
03:32
because it had been collectingrecueillir
second-by-secondseconde par seconde informationinformation
80
200506
3357
parce qu'elle collectait des informations
seconde par seconde
03:35
about what millionsdes millions of people
were watchingen train de regarder on TVTV, includingcomprenant us,
81
203887
3468
sur ce que les millions de gens
regardaient à la télé, dont nous,
03:39
and then it was sellingvente that informationinformation
to dataLes données brokerscourtiers en and advertisersannonceurs.
82
207379
3705
qu'elle revendait à des courtiers
en données et à des agents publicitaires.
03:43
SMSM: AhAh, classicclassique surveillancesurveillance economyéconomie movebouge toi.
83
211108
3222
SM : Ah, un classique
dans l'économie de la surveillance.
03:46
The devicesdispositifs KashmirKashmir boughtacheté
almostpresque all pingedping theirleur serversles serveurs dailydu quotidien.
84
214775
3866
La plupart des appareils se connectaient
à leur serveur une fois par jour.
03:50
But do you know whichlequel devicedispositif
was especiallynotamment chattybavard?
85
218665
2396
Mais devinez quel appareil
était le plus bavard !
03:53
The AmazonAmazon EchoECHO.
86
221085
1294
L'Amazon Echo.
Il se connectait à son serveur
toutes les trois minutes,
03:54
It contactedcontacté its serversles serveurs
everychaque threeTrois minutesminutes,
87
222403
2428
03:56
regardlessindépendamment of whetherqu'il s'agisse
you were usingen utilisant it or not.
88
224855
2198
même s'il n'était pas utilisé.
03:59
KHKH: In generalgénéral, it was disconcertingdéconcertant
89
227077
2183
KH : En gros, c'est déconcertant
04:01
that all these devicesdispositifs were havingayant
ongoingen cours conversationsconversations
90
229284
2984
que tous ces objets aient
des conversations continues
04:04
that were invisibleinvisible to me.
91
232292
1626
qui m'étaient invisibles.
04:05
I mean, I would have had
no ideaidée, withoutsans pour autant your routerrouteur.
92
233942
2587
Je ne l'aurais jamais su
sans ton routeur.
04:08
If you buyacheter a smartintelligent devicedispositif,
you should probablyProbablement know --
93
236553
3468
Quand vous achetez un appareil
intelligent, vous devriez savoir,
04:12
you're going to ownposséder the devicedispositif,
94
240045
2111
que vous posséderez le dispositif,
04:14
but in generalgénéral, the companycompagnie
is going to ownposséder your dataLes données.
95
242180
3420
mais que, de manière générale,
le fabricant possédera vos données.
04:17
And you know, I mean,
maybe that's to be expectedattendu --
96
245624
2572
Ça semble évident
et on doit s'y attendre --
04:20
you buyacheter an internet-connectedconnecté à Internet devicedispositif,
it's going to use the internetl'Internet.
97
248220
3507
quand on achète un appareil connecté,
il va utiliser Internet.
04:24
But it's strangeétrange to have these devicesdispositifs
98
252189
1842
Mais c'est étrange que ces appareils
04:26
movingen mouvement into the intimateintime spaceespace
that is the home
99
254055
2658
entrent dans l'espace intime
qu'est la maison
et permettent aux entreprises de suivre
notre comportement basique à la trace.
04:28
and allowingen permettant companiesentreprises to trackPiste
our really basicde base behaviorcomportement there.
100
256737
3443
04:32
SMSM: So truevrai.
101
260204
1159
SM : Tellement vrai.
04:33
Even the mostles plus banal-seemingbanal-semblant dataLes données
can be minedminé by the surveillancesurveillance economyéconomie.
102
261387
3539
Même des données banales sont exploitables
par l'économie de surveillance.
04:36
For exampleExemple, who caresse soucie
how oftensouvent you brushbrosse your teethles dents?
103
264950
2575
Qui s'intéresse à votre fréquence
de brossage de dents ?
04:39
Well, as it turnsse tourne out, there's a dentaldentaire
insuranceAssurance companycompagnie calledappelé BeamFaisceau.
104
267549
3526
Il se trouve qu'il y a une société
d'assurance dentaire appelée Beam.
04:43
They'veIls ont been monitoringsurveillance theirleur customers'des clients
smartintelligent toothbrushesbrosses à dents sincedepuis 2015 --
105
271099
3835
Ils ont surveillé les brosses à dents
intelligentes de leurs clients depuis 2015
04:46
for discountsrabais on theirleur
premiumsprimes, of coursecours.
106
274958
2579
pour offrir des remises
sur leurs primes, bien entendu.
04:49
KHKH: We know what
some of you are thinkingen pensant:
107
277561
2259
KH : On sait ce que certains
parmi vous pensent.
04:51
this is the contractContrat of the modernmoderne worldmonde.
108
279844
2654
C'est le contrat du monde moderne.
Vous abandonnez un peu d'intimité,
04:54
You give up a little privacyvie privée,
109
282522
1427
04:55
and you get some convenienceplus de commodité
or some priceprix breakspauses in returnrevenir.
110
283973
3218
et vous recevez des avantages
et des remises en échange.
04:59
But that wasn'tn'était pas my experienceexpérience
in my smartintelligent home.
111
287514
2341
Mais ce n'est pas ce qui s'est passé
dans mon foyer connecté.
05:01
It wasn'tn'était pas convenientpratique, it was infuriatingexaspérant.
112
289879
3674
Ce n'était pas pratique,
c'était révoltant.
05:05
I'll admitadmettre, I love my smartintelligent vacuumvide,
113
293577
2492
J'avoue adorer mon aspirateur intelligent,
05:08
but manybeaucoup other things in the housemaison
drovea conduit me insaneinsensé:
114
296093
2405
mais d'autres choses m'ont rendue folle :
05:10
we rancouru out of electricalélectrique outletspoints de vente,
115
298522
2396
on était à court de prises électriques,
05:12
and I had to downloadTélécharger
over a dozendouzaine appsapplications to my phonetéléphone
116
300942
3379
et j'ai dû télécharger plus d'une dizaine
d'applis sur mon téléphone
05:16
to controlcontrôle everything.
117
304345
1327
pour tout contrôler.
Chaque appareil
avait sa propre identification,
05:17
And then everychaque devicedispositif had its ownposséder log-inouverture de session,
118
305696
2089
05:19
my toothbrushbrosse à dents had a passwordmot de passe ...
119
307809
2363
même ma brosse à dents
avait un mot de passe...
05:22
(LaughterRires)
120
310196
1737
(Rires)
05:23
And smartintelligent coffeecafé, especiallynotamment,
was just a worldmonde of hellenfer.
121
311957
4128
Le café intelligent, en particulier,
c'était juste l'enfer sur Terre.
05:28
SMSM: Wait, really? Cloud-poweredNuage-powered
coffeecafé wasn'tn'était pas really workingtravail for you?
122
316109
3928
SM : Attends, quoi ? Le café qui coule
grâce au cloud ne te convenait pas ?
05:32
KHKH: I mean, maybe I'm naivenaïf,
but I thought it was going to be great.
123
320061
3238
KH : Je suis sans doute naïve,
mais je pensais que ce serait super.
05:35
I thought we'dmer just wakeréveiller up in the morningMatin
and we'dmer say, "AlexaAlexa, make us coffeecafé."
124
323323
4019
Je pensais qu'en me levant le matin,
je dirais : « Alexa, fais-nous du café. »
05:39
But that's not how it wentest allé down.
125
327366
1873
Mais ce n'était pas du tout ça.
05:41
We had to use this really particularparticulier,
brand-specificmarque spécifique phrasephrase to make it work.
126
329263
4651
On devait dire une phrase particulière,
spécifique à la marque pour que ça marche.
05:45
It was, "AlexaAlexa, askdemander the BehmorBehmor
to runcourir quickrapide startdébut."
127
333938
4608
C'était : « Alexa, demande à Behmor
de lancer une percolation rapide. »
05:51
And this was just, like,
really harddifficile to rememberrappelles toi
128
339222
3342
C'est vraiment très difficile
de s'en souvenir,
05:54
first thing in the morningMatin,
129
342588
1334
la première chose du matin,
05:55
before you have had your caffeinecaféine.
130
343946
1703
avant d'avoir eu ma caféine.
05:57
(LaughterRires)
131
345673
1103
(Rires)
05:58
And apparentlyApparemment, it was harddifficile to say,
132
346800
1690
Apparemment, c'était dur à dire,
06:00
because the EchoECHO DotDot
that was right nextprochain to our bedlit
133
348514
3063
car le point Echo à côté de notre lit
06:03
just couldn'tne pouvait pas understandcomprendre us.
134
351601
1611
n'arrivait pas à nous comprendre.
06:05
So we would basicallyen gros startdébut everychaque day
by screamingen hurlant this phrasephrase at the EchoECHO DotDot.
135
353704
4621
Donc, on commençait chaque jour
en hurlant cette phrase à Echo Dot.
06:10
(LaughterRires)
136
358349
1173
(Rires)
06:11
And TrevorTrevor hateddétesté this.
137
359546
1466
Trevor détestait ça.
06:13
He'dIl serait be like, "Please, KashmirKashmir,
138
361339
1748
Il me suppliait :
« Laisse-moi aller dans la cuisine pour
appuyer sur le bouton du percolateur. »
06:15
just let me go to the kitchencuisine and pushpousser
the buttonbouton to make the coffeecafé runcourir."
139
363111
3669
06:19
And I'd be like, "No, you can't!
140
367379
2087
Je répondais : « Non tu ne peux pas !
06:21
We have to do it the smartintelligent way!"
141
369490
2409
On doit faire ça intelligemment ! »
06:23
(LaughterRires)
142
371923
1916
(Rires)
06:25
I'm happycontent to reportrapport that our marriagemariage
survivedsurvécu the experimentexpérience,
143
373863
3043
Je suis heureuse que notre mariage
ait survécu à l'expérience
06:28
but just barelyà peine.
144
376930
1560
mais il s'en est fallu de peu.
06:30
SMSM: If you decidedécider to make your home smartintelligent,
145
378514
2047
SM : Si vous rendez
votre foyer intelligent,
06:32
hopefullyj'espère, you’llll find it
lessMoins infuriatingexaspérant than KashmirKashmir did.
146
380585
2849
avec un peu de chance,
vous trouverez ça moins frustrant.
06:35
But regardlessindépendamment, the smartintelligent things you buyacheter
147
383458
2087
De toute façon, les objets intelligents
06:37
can and probablyProbablement are used
to targetcible and profileVoir le profil you.
148
385569
3095
peuvent être et sont utilisés
pour vous cibler et vous profiler.
06:41
Just the numbernombre of devicesdispositifs you have
can be used to predictprédire
149
389141
3040
Le nombre d'appareils que vous
possédez peut être utilisé pour prédire
06:44
how richriches or poorpauvre you are.
150
392205
1422
si vous êtes riche ou pauvre.
06:45
Facebook'sDe Facebook madefabriqué this techtechnologie,
and they'veils ont alsoaussi patentedbreveté it.
151
393651
2767
Facebook a créé cette technologie,
et l'a brevetée.
06:48
KHKH: All the anxietyanxiété you currentlyactuellement feel
everychaque time you go onlineen ligne,
152
396442
3686
KH : Toute l'anxiété que vous ressentez
à chaque fois que vous êtes en ligne,
06:52
about beingétant trackedsuivi,
153
400152
1306
au sujet d'être espionné,
06:53
is about to movebouge toi into your livingvivant roomchambre.
154
401482
2301
est sur le point d'emménager
dans votre salon.
06:55
Or into your bedroomchambre.
155
403807
1579
Ou dans votre chambre.
06:57
There's this sexsexe toyjouet calledappelé the We-VibeWe-Vibe.
156
405950
2222
Il y a ce sextoy, nommé We-Vibe.
07:00
You mightpourrait wondermerveille why
a sexsexe toyjouet connectsse connecte to the internetl'Internet,
157
408577
2667
Vous vous demanderez pourquoi
ce sextoy est connecté ?
07:03
but it's for two people
who are in a long-distancelongue distance relationshiprelation,
158
411268
3436
C'est pour deux personnes
en relation longue-distance,
07:06
so they can sharepartager theirleur love from afarau loin.
159
414728
2920
afin qu'ils partagent leur amour, de loin.
07:10
Some hackerspirates tooka pris a closeFermer look at this toyjouet
160
418259
2116
Quelques hackers
ont scruté de près ce jouet
07:12
and saw it was sendingenvoi
a lot of informationinformation
161
420399
2075
et ont vu qu'il envoyait
beaucoup de données
07:14
back to the companycompagnie that madefabriqué it --
162
422498
2462
à la société qui le fabrique --
07:16
when it was used,
how long it was used for,
163
424984
2966
quand il est utilisé,
pour combien de temps,
07:19
what the vibrationvibration settingsParamètres were,
how hotchaud the toyjouet got.
164
427974
3706
quels sont les paramètres de vibration,
quelle chaleur le jouet endure.
07:23
It was all going into a databasebase de données.
165
431704
2189
Tout cela nourrit une base de données.
07:25
So I reachedatteint out to the companycompagnie,
166
433917
2749
Donc j'ai contacté l'entreprise,
07:28
and I said, "Why are you collectingrecueillir
this really sensitivesensible dataLes données?"
167
436690
3302
et demandé : « Pourquoi collectez-vous
ces données très sensibles ? »
07:32
And they said, "Well, it's great
for marketmarché researchrecherche."
168
440369
3386
Ils ont répondu : « C'est bon
pour les enquêtes de marché. »
07:36
But they were data-miningexploration de données
theirleur customers'des clients orgasmsorgasmes.
169
444592
2929
Mais ils enregistraient
les orgasmes de leurs clients.
07:39
And they weren'tn'étaient pas tellingrécit them about it.
170
447545
1921
Et ils ne leur disaient pas.
07:41
I mean, even if
you're cavaliercavalier about privacyvie privée,
171
449490
2222
Même si vous vous fichez de l'intimité,
07:43
I hopeespérer that you would admitadmettre
that's a stepétape too farloin.
172
451736
2595
j'espère que vous admettrez
que cela va trop loin.
07:46
SMSM: This is why I want
to keep my sexsexe toysjouets dumbstupide.
173
454680
2508
SM : C'est pourquoi je garde
mes sextoys stupides.
07:49
KHKH: That's great.
174
457212
1166
KH : C'est bien.
07:50
We're all very gladcontent de to know that.
175
458402
1666
Nous sommes ravis de le savoir.
07:52
(LaughterRires)
176
460092
1448
(Rires)
07:53
SMSM: A dataLes données pointpoint I'm willingprêt to sharepartager.
177
461564
2034
SM : Des données que je peux partager.
07:55
(LaughterRires)
178
463622
1723
(Rires)
Les appareils que Kashmir avait achetés
varient d'utiles à pénibles.
07:57
The devicesdispositifs KashmirKashmir boughtacheté
rangegamme from usefulutile to annoyingennuyeux.
179
465369
2970
08:00
But the thing they all had in commoncommun
180
468363
1793
Mais ce qu'ils avaient tous en commun,
08:02
was sharingpartage dataLes données with
the companiesentreprises that madefabriqué them.
181
470180
2699
c'est le partage de données
avec les fabricants.
Avec les fournisseurs d'email
et les réseaux sociaux,
08:04
With emailemail serviceun service providersfournisseurs de
and socialsocial mediamédias,
182
472903
2308
08:07
we'venous avons long been told that if it's freegratuit,
you're the productproduit.
183
475235
2958
on nous serine depuis longtemps
que si c'est gratuit, on est le produit.
08:10
But with the internetl'Internet of things, it seemssemble,
184
478217
2007
Avec les objets connectés,
08:12
even if you payPayer, you're still the productproduit.
185
480248
2008
même si on paie, on reste le produit.
08:14
So you really have to askdemander:
186
482280
1245
On doit donc se demander :
08:15
Who'sQui de the truevrai beneficiaryBénéficiaire
of your smartintelligent home,
187
483549
2185
qui est le vrai bénéficiaire
d'une smart-home,
vous ou ceux qui exploitent vos données ?
08:17
you or the companycompagnie miningexploitation minière you?
188
485758
1629
08:19
KHKH: Look, we're a techtechnologie savvysavvy crowdfoule here.
189
487411
1952
KH : Ici, le public est averti.
08:21
I think mostles plus of us know
that these things connectrelier to the internetl'Internet
190
489387
3112
Je pense que vous savez
que ces choses se connectent à Internet
08:24
and sendenvoyer dataLes données out.
191
492523
1163
et envoient des données.
08:25
And fine, maybe you're OK with livingvivant
in that commercialcommercial panopticonPanopticon,
192
493710
4018
Bien, peut-être être vivez-vous en paix
sous ce panoptique commercial,
08:29
but othersautres aren'tne sont pas.
193
497752
1397
mais d'autres, non.
Les entreprises doivent reconsidérer
l'architecture des appareils
08:31
We need the companiesentreprises to rethinkrepenser
the designconception of these devicesdispositifs
194
499173
2841
08:34
with our privacyvie privée in mindesprit,
195
502038
1515
avec notre intimité à l'esprit,
08:35
because we're not all willingprêt
to participateparticiper in "marketmarché researchrecherche,"
196
503577
3111
car on n'est pas tous prêts à participer
aux « enquêtes marché »
08:38
just because a devicedispositif we boughtacheté
has a Wi-FiUne connexion Wi-Fi connectionconnexion.
197
506712
2893
simplement parce qu'on a acheté
un terminal avec une connexion Wi-Fi.
08:42
And I have to tell you,
198
510014
1198
Je dois vous dire,
même si vous en êtes conscient
que ça arrive dans l'absolu,
08:43
even when you're awareconscient,
generallygénéralement, this is happeningévénement,
199
511236
2582
08:45
it's really easyfacile to forgetoublier that normalnormal
householdMénage itemsarticles are spyingespionnage on you.
200
513842
4394
c'est facile d'oublier que de simples
objets vous espionnent continuellement.
08:50
It's easyfacile to forgetoublier
these things are watchingen train de regarder you,
201
518664
2350
C'est facile d'oublier
qu'ils vous surveillent,
08:53
because they don't look like camerasappareils photo.
202
521038
2047
car ils ne ressemblent pas
à des caméras.
08:55
They could look like ...
203
523109
1429
Ils pourraient ressembler...
08:56
well, they could look like a dildogode.
204
524562
2544
bon, ils pourraient
ressembler à un godemiché.
08:59
Thank you.
205
527780
1152
Merci.
09:00
(ApplauseApplaudissements)
206
528956
3686
(Applaudissements)
Translated by Guillaume Rouy
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com