ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com
TEDSummit

Christopher Soghoian: Your smartphone is a civil rights issue

Christopher Soghoian: El teléfono inteligente es un asunto de derechos civiles

Filmed:
1,581,538 views

El teléfono que utilizas refleja más que solo el gusto personal. Podría determinar también, cuán de cerca puedes ser rastreado. El experto en privacidad Christopher Soghoian detalla la evidente diferencia entre el cifrado utilizado en los dispositivos de Apple y Android y nos insta a prestar atención a la seguridad en una creciente brecha digital. "Si las únicas personas que pueden protegerse de la mirada del gobierno son los ricos y poderosos, eso es un problema", dice. "No es solo un problema de seguridad cibernética, es un problema de derechos civiles".
- Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights. Full bio

Double-click the English transcript below to play the video.

00:12
In the springprimavera of 2016,
0
499
2523
En la primavera de 2016,
00:15
a legallegal battlebatalla betweenEntre Applemanzana
and the FederalFederal BureauOficina of InvestigationInvestigación
1
3046
4404
una batalla legal entre Apple
y la Oficina Federal de Investigaciones
captó la atención del mundo.
00:19
capturedcapturado the world'smundo attentionatención.
2
7474
1678
Apple ha incorporado características
de seguridad en sus productos móviles
00:21
Applemanzana has builtconstruido securityseguridad featurescaracteristicas
into its mobilemóvil productsproductos
3
9633
3339
que protegen datos en los dispositivos
de todo el mundo, excepto del propietario.
00:24
whichcual protectproteger datadatos on its devicesdispositivos
from everyonetodo el mundo but the ownerpropietario.
4
12996
3833
00:28
That meansmedio that criminalscriminales, hackershackers
and yes, even governmentsgobiernos
5
16853
4645
Eso significa que los criminales,
hackers y, sí, incluso los gobiernos
están todos bloqueados.
00:33
are all lockedbloqueado out.
6
21522
1320
Para los clientes de Apple,
esto es algo genial.
00:35
For Apple'sApple customersclientes,
this is a great thing.
7
23580
2199
00:38
But governmentsgobiernos are not so happycontento.
8
26581
2039
Pero los gobiernos no están tan felices.
00:41
You see, Applemanzana has madehecho
a consciousconsciente decisiondecisión
9
29152
2317
Ya ven, Apple ha tomado
una decisión consciente
para salirse de la industria
de la vigilancia.
00:43
to get out of the surveillancevigilancia businessnegocio.
10
31493
2560
Apple ha tratado de hacer
la vigilancia lo más difícil posible
00:46
Applemanzana has triedintentó to make surveillancevigilancia
as difficultdifícil as possibleposible
11
34077
3211
00:49
for governmentsgobiernos and any other actorsactores.
12
37312
2366
para los gobiernos y otros actores.
En realidad, hay dos sistemas
operativos para smartphones
00:53
There are really two
smartphoneteléfono inteligente operatingoperando systemssistemas
13
41676
2330
en el mercado mundial de smartphones:
00:56
in the globalglobal smartphoneteléfono inteligente marketmercado:
14
44030
1628
iOS y Android.
00:57
iOSiOS and AndroidAndroide.
15
45682
1714
00:59
iOSiOS is madehecho by Applemanzana.
AndroidAndroide is madehecho by GoogleGoogle.
16
47749
3068
IOS es de Apple. Android de Google.
01:03
Applemanzana has spentgastado a lot of time and moneydinero
17
51446
3124
Apple ha invertido mucho tiempo y dinero
01:06
to make sure that its productsproductos
are as secureseguro as possibleposible.
18
54594
3271
para asegurarse de que sus productos
sean lo más seguros posibles.
01:10
Applemanzana encryptsencripta all datadatos
storedalmacenado on iPhonesiPhones by defaultdefecto,
19
58458
3434
Apple encripta todos los datos
almacenados en los iPhone por defecto,
y los mensajes de texto enviados desde un
cliente de Apple a otro cliente de Apple
01:13
and texttexto messagesmensajes sentexpedido from one
Applemanzana customercliente to anotherotro Applemanzana customercliente
20
61916
4006
01:17
are encryptedencriptado by defaultdefecto
21
65946
1702
se cifran de forma predeterminada
01:19
withoutsin the userusuario havingteniendo
to take any actionscomportamiento.
22
67672
2517
sin que el usuario tenga
que realizar ninguna acción.
01:22
What this meansmedio is that,
23
70769
1611
Esto significa que
01:24
if the policepolicía seizeaprovechar an iPhoneiPhone
and it has a passwordcontraseña,
24
72404
3780
si la policía se apodera de un iPhone
y tiene una contraseña,
01:28
they'llellos van a have a difficultdifícil time
gettingconsiguiendo any datadatos off of it,
25
76724
3642
le será difícil sacar datos de él,
01:32
if they can do it at all.
26
80390
1412
si es que pueden llegar a lograrlo.
01:34
In contrastcontraste, the securityseguridad of AndroidAndroide
just really isn't as good.
27
82374
4138
Por el contrario, la seguridad
de Android realmente no es tan buena.
Los teléfonos Android, o, al menos
la mayoría de los teléfonos Android
01:38
AndroidAndroide phonesteléfonos, or at leastmenos
mostmás of the AndroidAndroide phonesteléfonos
28
86536
3046
01:41
that have been soldvendido to consumersconsumidores,
29
89606
1606
vendidos a los consumidores,
01:43
do not encryptEncriptar datadatos storedalmacenado
on the devicedispositivo by defaultdefecto,
30
91236
2855
no cifran los datos almacenados
en el dispositivo por defecto.
01:46
and the built-inincorporado texttexto messagingmensajería appaplicación
in AndroidAndroide does not use encryptioncifrado.
31
94115
4986
Y la aplicación de mensajería de texto
integrado en Android no usa cifrado.
01:51
So if the policepolicía seizeaprovechar an AndroidAndroide phoneteléfono,
32
99555
2694
Así que si la policía se apodera
de un teléfono Android,
01:54
chancesposibilidades are, they'llellos van a be ablepoder to get
all the datadatos they want
33
102273
3357
lo más probable es que pueda
obtener todos los datos que desea
01:57
off of that devicedispositivo.
34
105654
1292
de ese dispositivo.
01:59
Two smartphonesteléfonos inteligentes
35
107858
1686
Dos teléfonos inteligentes
02:01
from two of the biggestmás grande
companiescompañías in the worldmundo;
36
109568
2333
de dos de las compañías
más grandes en el mundo;
02:04
one that protectsprotege datadatos by defaultdefecto,
37
112497
1785
una que protege los datos por defecto
02:06
and one that doesn't.
38
114948
1274
y una que no lo hace.
02:08
Applemanzana is a sellervendedor of luxurylujo goodsbienes.
39
116840
3142
Apple vende bienes de lujo.
Domina el extremo superior del mercado.
02:12
It dominatesdomina the highalto endfin of the marketmercado.
40
120006
2249
02:14
And we would expectesperar a manufacturerfabricante
of luxurylujo goodsbienes to have productsproductos
41
122710
4354
Y esperamos que un fabricante de
artículos de lujo tenga productos
que incluyen más funciones.
02:19
that includeincluir more featurescaracteristicas.
42
127088
1957
02:21
But not everyonetodo el mundo can affordpermitirse an iPhoneiPhone.
43
129567
2407
Pero no todo el mundo
puede permitirse un iPhone.
02:23
That's where AndroidAndroide
really, really dominatesdomina:
44
131998
2587
Ahí es donde Android domina de verdad:
02:26
at the middlemedio and lowbajo endfin of the marketmercado,
45
134609
2751
en el mercado medio y bajo del mercado,
02:29
smartphonesteléfonos inteligentes for the billionmil millones
and a halfmitad people
46
137384
2626
smartphones para 1500 millones de personas
02:32
who cannotno poder or will not spendgastar
47
140034
2870
que no pueden o no quieren gastar
02:34
600 dollarsdólares on a phoneteléfono.
48
142928
2461
USD 600 en un teléfono.
Pero el dominio de Android
ha dado lugar a lo que llamo
02:41
But the dominancedominio of AndroidAndroide
has led to what I call
49
149275
5830
la "brecha de seguridad digital".
02:47
the "digitaldigital securityseguridad dividedividir."
50
155129
2212
Es decir, ahora hay cada vez
más una brecha
02:49
That is, there is now increasinglycada vez más a gapbrecha
51
157365
2985
02:52
betweenEntre the privacyintimidad
and securityseguridad of the richRico,
52
160374
4125
entre la privacidad
y la seguridad de los ricos,
quienes pueden permitirse dispositivos
que cifran sus datos por defecto,
02:56
who can affordpermitirse devicesdispositivos
that secureseguro theirsu datadatos by defaultdefecto,
53
164523
2770
y de los pobres,
03:00
and of the poorpobre,
54
168036
1252
03:01
whosecuyo devicesdispositivos do very little
to protectproteger them by defaultdefecto.
55
169851
4674
cuyos dispositivos hacen muy poco
para protegerlos por defecto.
03:07
So, think of the averagepromedio Applemanzana customercliente:
56
175667
3115
Por lo tanto, piensen
en el cliente promedio de Apple:
03:12
a bankerbanquero, a lawyerabogado,
a doctordoctor, a politicianpolítico.
57
180013
4862
un banquero, un abogado,
un médico, un político.
03:17
These individualsindividuos now increasinglycada vez más have
smartphonesteléfonos inteligentes in theirsu pocketsbolsillos
58
185387
5254
Estos individuos tienen cada vez más
teléfonos en sus bolsillos
que cifran sus llamadas,
sus mensajes de texto,
03:22
that encryptEncriptar theirsu callsllamadas,
theirsu texttexto messagesmensajes,
59
190665
3473
todos los datos en el dispositivo,
03:26
all the datadatos on the devicedispositivo,
60
194162
1535
03:27
withoutsin them doing really anything
to secureseguro theirsu informationinformación.
61
195721
4008
sin que ellos hagan realmente nada
para asegurar su información.
03:32
In contrastcontraste, the poorpobre
and the mostmás vulnerablevulnerable in our societiessociedades
62
200904
4045
Por el contrario, los pobres y
los más vulnerables de nuestras sociedades
03:36
are usingutilizando devicesdispositivos that leavesalir them
completelycompletamente vulnerablevulnerable to surveillancevigilancia.
63
204973
5187
usan dispositivos que les dejan
completamente vulnerable a la vigilancia.
03:43
In the UnitedUnido StatesEstados, where I livevivir,
64
211065
1989
En EE.UU. donde vivo,
03:45
African-AmericansAfroamericano are more likelyprobable
to be seenvisto as suspicioussuspicaz
65
213078
3949
los afroestadounidenses son más propensos
a ser vistos como sospechosos
o más propensos
a tener perfiles estigmatizados,
03:49
or more likelyprobable to be profiledperfilado,
66
217051
1851
03:51
and are more likelyprobable to be targetedapuntado
by the stateestado with surveillancevigilancia.
67
219640
3665
y son más propensos a ser blanco
del estado de vigilancia.
03:56
But African-AmericansAfroamericano
are alsoademás disproportionatelydesproporcionadamente likelyprobable
68
224008
2789
Los afroestadounidenses usan también
de forma desproporcionada
03:58
to use AndroidAndroide devicesdispositivos
that do nothing at all
69
226821
3096
dispositivos Android que
no hacen nada en absoluto
04:01
to protectproteger them from that surveillancevigilancia.
70
229941
2070
para protegerlos de esa vigilancia.
04:04
This is a problemproblema.
71
232974
1324
Esto es un problema.
Hay que recordar que
la vigilancia es una herramienta.
04:07
We mustdebe rememberrecuerda
that surveillancevigilancia is a toolherramienta.
72
235536
2509
04:10
It's a toolherramienta used by those in powerpoder
73
238810
2648
Es una herramienta usada
por aquellos en el poder
contra los que no tienen poder.
04:13
againsten contra those who have no powerpoder.
74
241934
2258
04:17
And while I think it's absolutelyabsolutamente great
75
245173
4750
Y aunque creo que
es absolutamente genial
que empresas como Apple hagan
más fácil el cifrado para las personas,
04:21
that companiescompañías like Applemanzana
are makingfabricación it easyfácil for people to encryptEncriptar,
76
249947
3448
04:26
if the only people
who can protectproteger themselvessí mismos
77
254355
3815
si las únicas personas
que pueden autoprotegerse
de la mirada del gobierno
04:30
from the gazemirada of the governmentgobierno
78
258194
1491
04:31
are the richRico and powerfulpoderoso,
79
259709
1560
son los ricos y poderosos,
04:33
that's a problemproblema.
80
261741
1187
eso es un problema.
04:35
And it's not just a privacyintimidad
or a cybersecurityla seguridad cibernética problemproblema.
81
263549
3562
Y no es solo un problema de privacidad
o una seguridad cibernética.
Es un problema de derechos civiles.
04:39
It's a civilcivil rightsderechos problemproblema.
82
267739
1544
04:42
So the lackausencia of defaultdefecto securityseguridad in AndroidAndroide
83
270806
2867
Así, la falta de seguridad
por defecto en Android
04:45
is not just a problemproblema
for the poorpobre and vulnerablevulnerable usersusuarios
84
273697
5379
no es solo un problema para
los usuarios pobres y vulnerables
que dependen de estos dispositivos.
04:51
who are dependingdependiente on these devicesdispositivos.
85
279100
2218
Esto es realmente
un problema para nuestra democracia.
04:53
This is actuallyactualmente a problemproblema
for our democracydemocracia.
86
281342
2260
04:56
I'll explainexplique what I mean.
87
284237
1468
Explicaré qué quiero decir.
04:58
ModernModerno socialsocial movementsmovimientos
relyconfiar on technologytecnología --
88
286514
2875
Los movimientos sociales modernos
se basan en la tecnología:
Desde "Las vidas de los negros importan",
05:01
from BlackNegro LivesVive MatterImportar to the Arabárabe SpringPrimavera
to OccupyOcupar Wallpared StreetCalle.
89
289413
5423
la Primavera Árabe,
hasta "Toma Wall Street".
05:07
The organizersorganizadores of these movementsmovimientos
and the membersmiembros of these movementsmovimientos
90
295238
3975
Los organizadores y los miembros
de estos movimientos
05:11
increasinglycada vez más communicatecomunicar
and coordinatecoordinar with smartphonesteléfonos inteligentes.
91
299237
3940
cada vez más comunican y coordinan
sus acciones mediante teléfonos.
05:16
And so, naturallynaturalmente governmentsgobiernos
that feel threatenedamenazado by these movementsmovimientos
92
304446
3851
Y así, naturalmente, los gobiernos que
se sienten amenazados por esos movimientos
05:20
will alsoademás targetobjetivo the organizersorganizadores
and theirsu smartphonesteléfonos inteligentes.
93
308321
3656
también se dirigirán a los
organizadores y sus smartphones.
05:25
Now, it's quitebastante possibleposible
94
313462
2074
Es muy posible
que un futuro Martin Luther King
o Mandela o Gandhi
05:27
that a futurefuturo MartinMartín LutherLutero KingRey
or a MandelaMandela or a GandhiGandhi
95
315560
4064
05:31
will have an iPhoneiPhone and be protectedprotegido
from governmentgobierno surveillancevigilancia.
96
319648
3857
tenga un iPhone y estarán protegidos
de la vigilancia gubernamental.
05:36
But chancesposibilidades are,
97
324283
1547
Pero es probable que,
05:37
they'llellos van a probablyprobablemente have a cheapbarato,
$20 AndroidAndroide phoneteléfono in theirsu pocketbolsillo.
98
325854
3714
quizá tengan un dispositivo
barato, un Android de USD 20.
05:42
And so if we do nothing
to addressdirección the digitaldigital securityseguridad dividedividir,
99
330676
3821
Y si no hacemos nada para abordar
la brecha de seguridad digital,
si no hacemos nada para asegurar que
todo el mundo en nuestra sociedad
05:46
if we do nothing to ensureasegurar
that everyonetodo el mundo in our societysociedad
100
334521
3868
05:51
getsse pone the samemismo benefitsbeneficios of encryptioncifrado
101
339167
2285
obtiene los mismos beneficios de cifrado
05:53
and is equallyIgualmente ablepoder to protectproteger themselvessí mismos
from surveillancevigilancia by the stateestado,
102
341476
3657
y es igualmente capaz de protegerse
de la vigilancia por parte del Estado,
no solo los pobres y vulnerables
estarán expuestos a la vigilancia,
05:57
not only will the poorpobre and vulnerablevulnerable
be exposedexpuesto to surveillancevigilancia,
103
345157
4782
sino los futuros movimientos de
derechos civiles pueden ser aplastados
06:02
but futurefuturo civilcivil rightsderechos
movementsmovimientos maymayo be crushedaplastada
104
350404
2941
antes de que lleguen a su pleno potencial.
06:05
before they ever reachalcanzar
theirsu fullcompleto potentialpotencial.
105
353369
2420
06:07
Thank you.
106
355813
1167
Gracias.
06:09
(ApplauseAplausos)
107
357004
3107
(Aplausos)
06:15
HelenHelen WaltersWalters: ChrisChris, thank you so much.
108
363940
1926
Helen Walters: Chris, muchas gracias.
Tengo una pregunta.
06:17
I have a questionpregunta for you.
109
365890
1872
Vimos recientemente en la prensa
06:19
We saw recentlyrecientemente in the pressprensa
110
367786
1853
06:21
that Markmarca ZuckerbergZuckerberg from FacebookFacebook
coverscubiertas over his cameracámara
111
369663
5504
que Mark Zuckerberg de Facebook
tapa su cámara
y hace algo con
su micrófono y auriculares.
06:27
and does something
with his headphoneauricular micmicrófono jackJack.
112
375191
2974
06:30
So I wanted to askpedir you
a personalpersonal questionpregunta, whichcual is:
113
378189
2545
Así que quería hacerle
una pregunta personal:
06:32
Do you do that?
114
380758
1152
¿Tú lo haces?
06:33
And, on behalffavor of everyonetodo el mundo
here, particularlyparticularmente myselfmí mismo,
115
381934
2579
Y, en nombre de los aquí presentes,
y de mí misma,
06:36
Should we be doing that?
116
384537
1325
¿deberíamos hacer eso?
06:37
Should we be coveringcubierta these things?
117
385886
1768
¿Hay que estar cubriendo estas cosas?
06:39
ChristopherChristopher SoghoianSoghoian: PuttingPoniendo a stickerpegatina --
actuallyactualmente, I like Band-AidsCuritas,
118
387678
4161
Christopher Soghoian: Poner una pegatina
o incluso una tirita,
porque se pueden quitar
y poner de nuevo
06:43
because you can removeretirar them
and put them back on
119
391863
2265
cada vez que desee realizar
una llamada o una llamada de Skype.
06:46
whenevercuando you want to make
a call or a SkypeSkype call.
120
394152
2312
Poner una pegatina encima de su web cam
06:48
PuttingPoniendo a stickerpegatina over your webweb camleva
121
396488
1702
06:50
is probablyprobablemente the bestmejor thing
you can do for your privacyintimidad
122
398214
2676
es lo mejor que se puede
hacer para su privacidad
en términos de costo-beneficio.
06:52
in termscondiciones of bangexplosión for buckdólar.
123
400914
1506
06:54
There really is malwaremalware,
maliciousmalicioso softwaresoftware out there
124
402444
3897
Realmente hay malware,
software malicioso
que puede controlar su cámara web,
06:58
that can take over your webweb camleva,
125
406365
1857
07:00
even withoutsin the lightligero turningtorneado on.
126
408246
1870
incluso sin que se encienda la luz.
Esto lo usan los delincuentes.
Esto lo usan los acosadores.
07:02
This is used by criminalscriminales.
This is used by stalkersacosadores.
127
410140
3169
07:05
You can buycomprar $19.99 "spyespiar
on your ex-girlfriendex novia" softwaresoftware onlineen línea.
128
413333
4938
Uno puede comprar software por USD 19,99
para espiar a su exnovia en línea.
07:10
It's really terrifyingespantoso.
129
418295
1151
Es realmente aterrador.
07:11
And then, of coursecurso,
it's used by governmentsgobiernos.
130
419470
2524
Y, por supuesto,
es usado por los gobiernos.
07:14
And there's obviouslyobviamente
a sexualsexual violenceviolencia componentcomponente to this,
131
422018
3221
Y, obviamente, hay un componente
de violencia sexual en esto,
07:17
whichcual is that this kindtipo of surveillancevigilancia
can be used mostmás effectivelyeficazmente
132
425263
3701
y es que este tipo de vigilancia
se puede usar con mayor eficacia
07:20
againsten contra womenmujer and other people
who can be shamedavergonzado in our societysociedad.
133
428988
6803
contra las mujeres y otras personas
objeto de acoso en nuestra sociedad.
Incluso si uno piensa que
no tienen nada que ocultar,
07:28
Even if you think
you have nothing to hideesconder,
134
436417
2108
07:30
at the very leastmenos, if you have
childrenniños, teenagersadolescentes in your livesvive,
135
438549
4558
por lo menos, si uno tiene hijos,
adolescentes,
07:35
make sure you put a stickerpegatina
on theirsu cameracámara and protectproteger them.
136
443131
3010
asegúrense de poner una pegatina
en su cámara para protegerlos.
HW: Guau. Muchas gracias.
CS: Gracias.
07:38
HWHW: WowGuau. Thank you so much.
CSCS: Thank you.
137
446165
1994
07:40
HWHW: ThanksGracias, ChrisChris.
138
448183
1151
HW: Gracias, Chris.
07:41
(ApplauseAplausos)
139
449358
2472
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com