ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com
TEDSummit

Christopher Soghoian: Your smartphone is a civil rights issue

Christopher Soghoian: Votre smartphone est un problème de droits civils

Filmed:
1,581,538 views

Le smartphone que vous utilisez révèle plus que vos goûts personnels... Il pourrait aussi déterminer à quel point vous pouvez être pisté. Spécialiste de la protection de la vie privée et TED Fellow Christopher Soghoian explique en détail une différence flagrante entre le cryptage utilisé sur les appareils Apple et Android et nous exhorte à prêter de plus en plus attention à la fracture de la sécurité numérique. « Si les seules personnes pouvant se protéger du regard du gouvernement sont les riches et les puissants, c'est un problème, dit-il. Ce n'est pas seulement un problème de sécurité informatique, c'est un problème de droits civils. »
- Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights. Full bio

Double-click the English transcript below to play the video.

00:12
In the springprintemps of 2016,
0
499
2523
Au printemps 2016,
00:15
a legallégal battlebataille betweenentre Applepomme
and the FederalFédéral BureauBureau of InvestigationEnquête
1
3046
4404
une bataille juridique entre Apple
et le FBI
00:19
capturedcapturé the world'smonde attentionattention.
2
7474
1678
a attiré l'attention du monde.
00:21
Applepomme has builtconstruit securitySécurité featuresfonctionnalités
into its mobilemobile productsdes produits
3
9633
3339
Apple a incorporé à ses produits mobiles
des dispositifs de sécurité
00:24
whichlequel protectprotéger dataLes données on its devicesdispositifs
from everyonetoutes les personnes but the ownerpropriétaire.
4
12996
3833
qui protègent les données des appareils
de tous sauf du propriétaire.
00:28
That meansveux dire that criminalscriminels, hackerspirates
and yes, even governmentsGouvernements
5
16853
4645
Cela signifie que les criminels, pirates
et, oui, même les gouvernements
00:33
are all lockedfermé à clef out.
6
21522
1320
ne peuvent pas y accéder.
00:35
For Apple'sApple customersles clients,
this is a great thing.
7
23580
2199
Pour les clients d'Apple, c'est très bien.
00:38
But governmentsGouvernements are not so happycontent.
8
26581
2039
Mais les gouvernements
ne sont pas contents.
00:41
You see, Applepomme has madefabriqué
a consciousconscient decisiondécision
9
29152
2317
Apple a volontairement décidé
00:43
to get out of the surveillancesurveillance businessEntreprise.
10
31493
2560
de ne plus faire de surveillance.
00:46
Applepomme has trieda essayé to make surveillancesurveillance
as difficultdifficile as possiblepossible
11
34077
3211
Apple a tenté de rendre la surveillance
aussi difficile que possible
00:49
for governmentsGouvernements and any other actorsacteurs.
12
37312
2366
pour les gouvernements
et tout autre acteur.
00:53
There are really two
smartphonesmartphone operatingen fonctionnement systemssystèmes
13
41676
2330
Il y a deux systèmes
d'exploitation mobiles
sur le marché mondial
des téléphones portables :
00:56
in the globalglobal smartphonesmartphone marketmarché:
14
44030
1628
00:57
iOSiOS and AndroidAndroïde.
15
45682
1714
iOS et Android.
00:59
iOSiOS is madefabriqué by Applepomme.
AndroidAndroïde is madefabriqué by GoogleGoogle.
16
47749
3068
iOS est développé par Apple,
Android est développé par Google.
01:03
Applepomme has spentdépensé a lot of time and moneyargent
17
51446
3124
Apple a dépensé
beaucoup de temps et d'argent
01:06
to make sure that its productsdes produits
are as securegarantir as possiblepossible.
18
54594
3271
pour s'assurer que ses produits
soient aussi sécurisés que possible.
01:10
Applepomme encryptscrypte all dataLes données
storedstockés on iPhonesiPhones by defaultpar défaut,
19
58458
3434
Apple crypte toutes les données
stockées sur les iPhones par défaut
01:13
and texttexte messagesmessages sentenvoyé from one
Applepomme customerclient to anotherun autre Applepomme customerclient
20
61916
4006
et les messages envoyés
d'un client Apple à un autre
01:17
are encryptedcrypté by defaultpar défaut
21
65946
1702
sont cryptés par défaut
01:19
withoutsans pour autant the userutilisateur havingayant
to take any actionsactes.
22
67672
2517
sans que l'utilisateur n'ait à intervenir.
01:22
What this meansveux dire is that,
23
70769
1611
Ça signifie
01:24
if the policepolice seizesaisir an iPhoneiPhone
and it has a passwordmot de passe,
24
72404
3780
que si la police saisit un iPhone
protégé par un mot de passe,
01:28
they'llils vont have a difficultdifficile time
gettingobtenir any dataLes données off of it,
25
76724
3642
ils auront du mal
à en extraire des données
01:32
if they can do it at all.
26
80390
1412
voire ils n'y parviendront pas.
01:34
In contrastcontraste, the securitySécurité of AndroidAndroïde
just really isn't as good.
27
82374
4138
En revanche, la sécurité d'Android
n'est pas aussi bonne.
01:38
AndroidAndroïde phonesTéléphones, or at leastmoins
mostles plus of the AndroidAndroïde phonesTéléphones
28
86536
3046
La majorité des téléphones Android
01:41
that have been soldvendu to consumersles consommateurs,
29
89606
1606
vendus au grand public
01:43
do not encryptcrypter dataLes données storedstockés
on the devicedispositif by defaultpar défaut,
30
91236
2855
ne cryptent pas par défaut
les données stockées sur l'appareil
01:46
and the built-infonction intégrée texttexte messagingMessagerie appapplication
in AndroidAndroïde does not use encryptioncryptage.
31
94115
4986
et l'application de messages intégrée
à Android n'utilise pas de cryptage.
01:51
So if the policepolice seizesaisir an AndroidAndroïde phonetéléphone,
32
99555
2694
Donc si la police saisit
un téléphone Android,
01:54
chanceschances are, they'llils vont be ablecapable to get
all the dataLes données they want
33
102273
3357
Il y a de fortes chances
qu'ils parviennent à en extraire
01:57
off of that devicedispositif.
34
105654
1292
toutes les données qu'ils veulent.
01:59
Two smartphonessmartphones
35
107858
1686
Deux smartphones
02:01
from two of the biggestplus grand
companiesentreprises in the worldmonde;
36
109568
2333
des deux plus grosses
entreprises du monde :
02:04
one that protectsprotège dataLes données by defaultpar défaut,
37
112497
1785
l'un protège les données par défaut,
02:06
and one that doesn't.
38
114948
1274
l'autre pas.
02:08
Applepomme is a sellervendeur of luxuryluxe goodsdes biens.
39
116840
3142
Apple est un vendeur de produits de luxe.
02:12
It dominatesdomine the highhaute endfin of the marketmarché.
40
120006
2249
Il domine le marché haut de gamme.
02:14
And we would expectattendre a manufacturerfabricant
of luxuryluxe goodsdes biens to have productsdes produits
41
122710
4354
Nous attendons d'un fabriquant
de produits de luxe d'avoir des produits
02:19
that includecomprendre more featuresfonctionnalités.
42
127088
1957
qui incluent plus de fonctions.
02:21
But not everyonetoutes les personnes can affordoffrir an iPhoneiPhone.
43
129567
2407
Mais tout le monde
ne peut pas se payer un iPhone.
02:23
That's where AndroidAndroïde
really, really dominatesdomine:
44
131998
2587
C'est là qu'Android domine vraiment :
02:26
at the middlemilieu and lowfaible endfin of the marketmarché,
45
134609
2751
sur le moyen et bas de gamme,
02:29
smartphonessmartphones for the billionmilliard
and a halfmoitié people
46
137384
2626
des smartphones
pour le milliard et demi de personnes
02:32
who cannotne peux pas or will not spenddépenser
47
140034
2870
ne pouvant ou ne voulant dépenser
02:34
600 dollarsdollars on a phonetéléphone.
48
142928
2461
600$ pour un téléphone.
02:41
But the dominancedominance of AndroidAndroïde
has led to what I call
49
149275
5830
Mais la domination d'Android
a mené à ce que j'appelle
02:47
the "digitalnumérique securitySécurité dividediviser."
50
155129
2212
la « fracture de la sécurité numérique ».
02:49
That is, there is now increasinglyde plus en plus a gapécart
51
157365
2985
Ça veut dire qu'il y a un fossé
02:52
betweenentre the privacyvie privée
and securitySécurité of the richriches,
52
160374
4125
entre la confidentialité
et la sécurité des riches,
02:56
who can affordoffrir devicesdispositifs
that securegarantir theirleur dataLes données by defaultpar défaut,
53
164523
2770
qui peuvent se payer des appareils
sécurisant leurs données par défaut,
03:00
and of the poorpauvre,
54
168036
1252
et les pauvres,
03:01
whosedont devicesdispositifs do very little
to protectprotéger them by defaultpar défaut.
55
169851
4674
dont les appareils font très peu
par défaut pour les protéger.
03:07
So, think of the averagemoyenne Applepomme customerclient:
56
175667
3115
Pensez au client Apple moyen :
03:12
a bankerbanquier, a lawyeravocat,
a doctordocteur, a politicianhomme politique.
57
180013
4862
un banquier, un avocat,
un médecin, un politique.
03:17
These individualspersonnes now increasinglyde plus en plus have
smartphonessmartphones in theirleur pocketsles poches
58
185387
5254
De plus en plus, ces individus
ont dans leur poche un smartphone
03:22
that encryptcrypter theirleur callsappels,
theirleur texttexte messagesmessages,
59
190665
3473
qui crypte leurs appels, leurs messages,
03:26
all the dataLes données on the devicedispositif,
60
194162
1535
toutes les données sur l'appareil
03:27
withoutsans pour autant them doing really anything
to securegarantir theirleur informationinformation.
61
195721
4008
sans qu'ils ne fassent rien
pour sécuriser leurs informations.
03:32
In contrastcontraste, the poorpauvre
and the mostles plus vulnerablevulnérable in our societiessociétés
62
200904
4045
En revanche, les pauvres
et les plus vulnérables de nos sociétés
03:36
are usingen utilisant devicesdispositifs that leavelaisser them
completelycomplètement vulnerablevulnérable to surveillancesurveillance.
63
204973
5187
utilisent des appareils qui les laissent
totalement vulnérables à la surveillance.
03:43
In the UnitedUnie StatesÉtats, where I livevivre,
64
211065
1989
Aux États-Unis, où je vis,
03:45
African-AmericansLes Afro-américains are more likelyprobable
to be seenvu as suspiciousméfiant
65
213078
3949
les Afro-américains ont plus de risques
d'être vus comme suspects,
03:49
or more likelyprobable to be profiledprofilées,
66
217051
1851
d'être profilés
03:51
and are more likelyprobable to be targetedciblé
by the stateEtat with surveillancesurveillance.
67
219640
3665
ou d'être la cible
de la surveillance de l’État.
03:56
But African-AmericansLes Afro-américains
are alsoaussi disproportionatelymanière disproportionnée likelyprobable
68
224008
2789
Mais les Afro-américains
ont aussi plus de chances
03:58
to use AndroidAndroïde devicesdispositifs
that do nothing at all
69
226821
3096
d'utiliser des appareils Android
qui ne font rien du tout
04:01
to protectprotéger them from that surveillancesurveillance.
70
229941
2070
pour les protéger de cette surveillance.
04:04
This is a problemproblème.
71
232974
1324
C'est un problème.
04:07
We mustdoit rememberrappelles toi
that surveillancesurveillance is a tooloutil.
72
235536
2509
Nous devons nous rappeler
que la surveillance est un outil.
04:10
It's a tooloutil used by those in powerPuissance
73
238810
2648
C'est un outil utilisé
par ceux qui sont au pouvoir
04:13
againstcontre those who have no powerPuissance.
74
241934
2258
contre ceux qui n'ont aucun pouvoir.
04:17
And while I think it's absolutelyabsolument great
75
245173
4750
Et, alors que je pense que c'est génial
04:21
that companiesentreprises like Applepomme
are makingfabrication it easyfacile for people to encryptcrypter,
76
249947
3448
que des entreprises comme Apple
rendent le cryptage plus facile,
04:26
if the only people
who can protectprotéger themselvesse
77
254355
3815
si les seules personnes
pouvant se protéger
04:30
from the gazeregard of the governmentgouvernement
78
258194
1491
du regard du gouvernement
04:31
are the richriches and powerfulpuissant,
79
259709
1560
sont les riches et puissants,
04:33
that's a problemproblème.
80
261741
1187
c'est un problème.
04:35
And it's not just a privacyvie privée
or a cybersecuritycybersécurité problemproblème.
81
263549
3562
Ce n'est pas qu'un problème
de confidentialité
ou de sécurité informatique.
04:39
It's a civilcivil rightsdroits problemproblème.
82
267739
1544
C'est un problème de droits civils.
04:42
So the lackmanquer de of defaultpar défaut securitySécurité in AndroidAndroïde
83
270806
2867
Le manque de sécurité
par défaut chez Android
04:45
is not just a problemproblème
for the poorpauvre and vulnerablevulnérable usersutilisateurs
84
273697
5379
n'est pas qu'un problème
pour les utilisateurs pauvres, vulnérables
04:51
who are dependingen fonction, dépendemment on these devicesdispositifs.
85
279100
2218
qui dépendent de ces appareils.
04:53
This is actuallyréellement a problemproblème
for our democracyla démocratie.
86
281342
2260
C'est un problème pour notre démocratie.
04:56
I'll explainExplique what I mean.
87
284237
1468
Je vais l'expliquer.
04:58
ModernModerne socialsocial movementsmouvements
relycompter on technologyLa technologie --
88
286514
2875
Les mouvements sociaux modernes
dépendent de la technologie --
05:01
from BlackNoir LivesVit MatterQuestion to the ArabArabes SpringPrintemps
to OccupyOccuper WallMur StreetRue.
89
289413
5423
de Black Lives Matter au Printemps Arabe
en passant par Occupy Wall Street.
05:07
The organizersorganisateurs of these movementsmouvements
and the membersmembres of these movementsmouvements
90
295238
3975
Les organisateurs de ces mouvements
et les membres de ces mouvements
05:11
increasinglyde plus en plus communicatecommuniquer
and coordinatecoordonner with smartphonessmartphones.
91
299237
3940
communiquent et se coordonnent
de plus en plus avec des smartphones.
05:16
And so, naturallynaturellement governmentsGouvernements
that feel threatenedmenacé by these movementsmouvements
92
304446
3851
Et donc, naturellement les gouvernements
se sentant menacés par ses mouvements
05:20
will alsoaussi targetcible the organizersorganisateurs
and theirleur smartphonessmartphones.
93
308321
3656
prendront pour cibles les organisateurs
et leurs smartphones.
05:25
Now, it's quiteassez possiblepossible
94
313462
2074
Il est tout à fait possible
05:27
that a futureavenir MartinMartin LutherLuther KingKing
or a MandelaMandela or a GandhiGandhi
95
315560
4064
qu'un futur Martin Luther King
ou un Mandela ou un Gandhi
05:31
will have an iPhoneiPhone and be protectedprotégé
from governmentgouvernement surveillancesurveillance.
96
319648
3857
aura un iPhone et sera protégé
de la surveillance du gouvernement.
05:36
But chanceschances are,
97
324283
1547
Mais il y a de fortes chances
05:37
they'llils vont probablyProbablement have a cheappas cher,
$20 AndroidAndroïde phonetéléphone in theirleur pocketpoche.
98
325854
3714
qu'ils aient dans la poche
un téléphone Android bon marché.
05:42
And so if we do nothing
to addressadresse the digitalnumérique securitySécurité dividediviser,
99
330676
3821
Si nous ne faisons rien pour régler
cette fracture de la sécurité numérique,
05:46
if we do nothing to ensureassurer
that everyonetoutes les personnes in our societysociété
100
334521
3868
si nous ne faisons rien pour nous assurer
que tout le monde dans notre société
05:51
getsobtient the sameMême benefitsavantages of encryptioncryptage
101
339167
2285
profite autant du cryptage
05:53
and is equallyégalement ablecapable to protectprotéger themselvesse
from surveillancesurveillance by the stateEtat,
102
341476
3657
et soit autant capable de se protéger
de la surveillance de l’État,
05:57
not only will the poorpauvre and vulnerablevulnérable
be exposedexposé to surveillancesurveillance,
103
345157
4782
non seulement les pauvres et vulnérables
seront exposés à la surveillance
06:02
but futureavenir civilcivil rightsdroits
movementsmouvements maymai be crushedécrasé
104
350404
2941
mais les futurs mouvements
de droits civils pourraient être anéantis
06:05
before they ever reachatteindre
theirleur fullplein potentialpotentiel.
105
353369
2420
avant d'avoir atteint
leur plein potentiel.
06:07
Thank you.
106
355813
1167
Merci.
06:09
(ApplauseApplaudissements)
107
357004
3107
(Applaudissements)
06:15
HelenHelen WaltersWalters: ChrisChris, thank you so much.
108
363940
1926
Helen Walters : Chris, merci beaucoup.
06:17
I have a questionquestion for you.
109
365890
1872
J'ai une question pour vous.
06:19
We saw recentlyrécemment in the presspresse
110
367786
1853
Nous avons récemment vu dans la presse
06:21
that MarkMark ZuckerbergZuckerberg from FacebookFacebook
coverscouvre over his cameracaméra
111
369663
5504
que Mark Zuckerberg de Facebook
recouvre sa caméra
06:27
and does something
with his headphonecasque d’écoute micmicro jackjack.
112
375191
2974
et fait quelque chose
avec le micro de son casque.
06:30
So I wanted to askdemander you
a personalpersonnel questionquestion, whichlequel is:
113
378189
2545
Je voulais vous poser
une question personnelle :
06:32
Do you do that?
114
380758
1152
le faites-vous ?
06:33
And, on behalfnom of everyonetoutes les personnes
here, particularlyparticulièrement myselfmoi même,
115
381934
2579
Et, de la part des gens ici,
moi en particulier :
06:36
Should we be doing that?
116
384537
1325
devrions-nous le faire ?
06:37
Should we be coveringcouvrant these things?
117
385886
1768
Devrions couvrir ces choses ?
06:39
ChristopherChristopher SoghoianSoghoian: PuttingMettre a stickerautocollant --
actuallyréellement, I like Band-AidsPansements,
118
387678
4161
Christopher Soghoian : Mettre
un autocollant -- j'aime les pansements
06:43
because you can removeretirer them
and put them back on
119
391863
2265
car on peut les enlever et les remettre
06:46
whenevern'importe quand you want to make
a call or a SkypeSkype call.
120
394152
2312
quand on veut passer un appel
ou faire un Skype.
06:48
PuttingMettre a stickerautocollant over your webweb camcame
121
396488
1702
Mettre un autocollant sur votre webcam
06:50
is probablyProbablement the bestmeilleur thing
you can do for your privacyvie privée
122
398214
2676
est sans doute le mieux
à faire pour votre vie privée
06:52
in termstermes of bangcoup for buckBuck.
123
400914
1506
en termes de rapport qualité-prix.
06:54
There really is malwareMalware,
maliciousmalveillants softwareLogiciel out there
124
402444
3897
il y a vraiment un malware,
un logiciel malveillant,
06:58
that can take over your webweb camcame,
125
406365
1857
qui peut contrôler votre webcam,
même sans que le témoin lumineux s'allume.
07:00
even withoutsans pour autant the lightlumière turningtournant on.
126
408246
1870
07:02
This is used by criminalscriminels.
This is used by stalkersharceleurs.
127
410140
3169
C'est utilisé par les criminels
et les harceleurs.
07:05
You can buyacheter $19.99 "spyespion
on your ex-girlfriendex-petite amie" softwareLogiciel onlineen ligne.
128
413333
4938
Vous pouvez acheter en ligne, pour 20$,
un logiciel pour surveiller votre ex.
07:10
It's really terrifyingterrifiant.
129
418295
1151
C'est terrifiant.
07:11
And then, of coursecours,
it's used by governmentsGouvernements.
130
419470
2524
Bien-sûr, c'est utilisé
par les gouvernements.
07:14
And there's obviouslyévidemment
a sexualsexuel violencela violence componentcomposant to this,
131
422018
3221
Il a aussi évidemment
le facteur de violence sexuelle :
07:17
whichlequel is that this kindgentil of surveillancesurveillance
can be used mostles plus effectivelyefficacement
132
425263
3701
ce genre de surveillance
peut être efficacement utilisé
07:20
againstcontre womenfemmes and other people
who can be shamedhonte in our societysociété.
133
428988
6803
contre les femmes et autres personnes
de notre société pouvant être déshonorées.
07:28
Even if you think
you have nothing to hidecacher,
134
436417
2108
Même si vous pensez
ne rien avoir à cacher,
07:30
at the very leastmoins, if you have
childrenles enfants, teenagersadolescents in your livesvies,
135
438549
4558
au moins si vous avez des enfants,
des adolescents dans votre vie,
07:35
make sure you put a stickerautocollant
on theirleur cameracaméra and protectprotéger them.
136
443131
3010
mettez un autocollant
sur leur caméra, protégez-les.
07:38
HWHW: WowWow. Thank you so much.
CSCS: Thank you.
137
446165
1994
HW : Ooh. Merci beaucoup.
CS : Merci.
HW : Merci Chris.
07:40
HWHW: ThanksMerci, ChrisChris.
138
448183
1151
07:41
(ApplauseApplaudissements)
139
449358
2472
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Thomas P.

▲Back to top

ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com