ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com
TEDSummit

Christopher Soghoian: Your smartphone is a civil rights issue

Christopher Soghoian: Smartfonunuz bir insan haqları məsələsidi

Filmed:
1,581,538 views

İstifadə etdiyiniz smartfon sizin şəxsi zövqünüzdən daha artığını göstərir...eyni zamanda nə qədər yaxından izlənə bildiyinizi də müəyyən edə bilir. Gizlilik eksperti və TED Üzvü Christopher Soghoian Apple'da və Android cihazlarında istifadə olunan şifrələmələr arasındakı ciddi fərqi izah edir və get-gedə böyüyən rəqəmsal təhlükəsizlik bölgüsünə diqqət etməyimizə çalışır. "Hökümətin hədəfindən qoruna bilən insanlar təkcə varlılar və güclü insanlardısa, bu təkcə kibertəhlükəsizlik problemi deyil -- insan haqları məsələsidi" deyir Chris.
- Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights. Full bio

Double-click the English transcript below to play the video.

00:12
In the spring of 2016,
0
499
2523
2016-cı ilin baharında
00:15
a legal battle between Apple
and the Federal Bureau of Investigation
1
3046
4404
Apple və Federal Tədqiqatlar Bürosu (FBI)
arasındakı məhkəmə davası
00:19
captured the world's attention.
2
7474
1678
bütün dünyanın diqqətini özünə çəkmişdi.
00:21
Apple has built security features
into its mobile products
3
9633
3339
Apple mobil cihazlarına içindəki
məlumatları sahibindən başqa
00:24
which protect data on its devices
from everyone but the owner.
4
12996
3833
hər kəsdən qoruyan təhlükəsizlik
özəllikləri gətirdi.
00:28
That means that criminals, hackers
and yes, even governments
5
16853
4645
Bu o deməkdi ki, cinayətkarlar, xakerlər,
və hətta hökümətlər belə
00:33
are all locked out.
6
21522
1320
bu şifrələr qarşısında əlacsız qalırlar.
00:35
For Apple's customers,
this is a great thing.
7
23580
2199
Apple müştəriləri üçün bu əla şeydir.
00:38
But governments are not so happy.
8
26581
2039
Amma hökümətlər elə də razı görsənmir.
00:41
You see, Apple has made
a conscious decision
9
29152
2317
Gördüyünüz kimi Apple şirkəti
bu izlənmələrdən
00:43
to get out of the surveillance business.
10
31493
2560
kənarda qalmaq üçün ağıılı qərar veribdi.
00:46
Apple has tried to make surveillance
as difficult as possible
11
34077
3211
Apple izlənməni hökümətlər və
istənilən başqa biri üçün
00:49
for governments and any other actors.
12
37312
2366
bacardığı qədər əlçatmaz etməyə çalışdı.
00:53
There are really two
smartphone operating systems
13
41676
2330
Qlobal smartfon bazarında
2 əsas smartfon işlətmə sistemi var:
00:56
in the global smartphone market:
14
44030
1628
00:57
iOS and Android.
15
45682
1714
iOS və Android.
00:59
iOS is made by Apple.
Android is made by Google.
16
47749
3068
iOS Apple tərəfindən düzəldilir,
Android isə Google tərəfindən.
01:03
Apple has spent a lot of time and money
17
51446
3124
Apple öz məhsullarının mümkün qədər
təhlükəsiz olduğundan
01:06
to make sure that its products
are as secure as possible.
18
54594
3271
əmin olmaq üçün çoxlu pul və
zaman sərf edib.
01:10
Apple encrypts all data
stored on iPhones by default,
19
58458
3434
Apple iPhone'larda olan bütün
informasiyaları avtomatik olaraq
01:13
and text messages sent from one
Apple customer to another Apple customer
20
61916
4006
şifrələyir, və bir Apple müştərisindən
digərinə göndərilmiş ismarıclar
01:17
are encrypted by default
21
65946
1702
istifadəçinin bir şey etməsinə
01:19
without the user having
to take any actions.
22
67672
2517
ehtiyac qalmadan öz-özünə şifrələnir.
01:22
What this means is that,
23
70769
1611
Bu o deməkdir ki,
01:24
if the police seize an iPhone
and it has a password,
24
72404
3780
əgər polis şifrəsi olan bir iPhone
ələ keçirirsə
01:28
they'll have a difficult time
getting any data off of it,
25
76724
3642
ondan hər hansı məlumatı çıxarmaqları
çox çətin məsələdi,
01:32
if they can do it at all.
26
80390
1412
onu da hələ bacarsalar.
01:34
In contrast, the security of Android
just really isn't as good.
27
82374
4138
Əksinə, Android qurğularının təhlükəsizlik
sistemi isə elə də yaxşı deyil.
01:38
Android phones, or at least
most of the Android phones
28
86536
3046
Android telefonları, ən azından alıcılara
satılmış
01:41
that have been sold to consumers,
29
89606
1606
Android'lərin əksəriyyəti
01:43
do not encrypt data stored
on the device by default,
30
91236
2855
yaddaşda saxlanılmış məlumatları öz-özünə
şifrələmir,
01:46
and the built-in text messaging app
in Android does not use encryption.
31
94115
4986
və telefonlardakı mesajlaşma proqramı da
şifrələmədən istifadə etmir.
01:51
So if the police seize an Android phone,
32
99555
2694
Deməli, əgər polis Android telefonu ələ
keçirsə
01:54
chances are, they'll be able to get
all the data they want
33
102273
3357
böyük ehtimalla, istədiyi bütün
informasiyaları o cihazdan
01:57
off of that device.
34
105654
1292
götürə biləcək.
01:59
Two smartphones
35
107858
1686
Dünyanın iki ən böyük şirkətindən
02:01
from two of the biggest
companies in the world;
36
109568
2333
iki smartfon;
02:04
one that protects data by default,
37
112497
1785
biri məlumatları avtomatik qoruyur,
02:06
and one that doesn't.
38
114948
1274
digəri isə yox.
02:08
Apple is a seller of luxury goods.
39
116840
3142
Apple dəbdəbəli məhsulların
satıcısıdı.
02:12
It dominates the high end of the market.
40
120006
2249
Bazarın yuxarı təbəqəsində hökmranlıq
edir.
02:14
And we would expect a manufacturer
of luxury goods to have products
41
122710
4354
Belə cihazlar satan istehsalçının
məhsullarında normal olaraq daha çox
02:19
that include more features.
42
127088
1957
funksiya olmağını gözləyərdik.
02:21
But not everyone can afford an iPhone.
43
129567
2407
Amma hər kəsin iPhone'a gücü
çatmır.
02:23
That's where Android
really, really dominates:
44
131998
2587
Bu hissədə Android həqiqətən də
hökmranlıq edir:
02:26
at the middle and low end of the market,
45
134609
2751
bazarın orta və aşağı təbəqəsində,
02:29
smartphones for the billion
and a half people
46
137384
2626
telefon üçün 600 dollar xərcləyə bilməyən
02:32
who cannot or will not spend
47
140034
2870
və ya xərcləməyən bir milyard yarım
02:34
600 dollars on a phone.
48
142928
2461
insan üçün smartfonlar.
02:41
But the dominance of Android
has led to what I call
49
149275
5830
Amma Android'in hökmranlığı
"rəqəmsal təhlükəsizlik bölgüsü"
02:47
the "digital security divide."
50
155129
2212
dediyim yerə gətirib çıxarıb.
02:49
That is, there is now increasingly a gap
51
157365
2985
Yəni ki, informasiyaları avtomatik qoruyan
cihazları ala bilən varlılar ilə,
02:52
between the privacy
and security of the rich,
52
160374
4125
cihazları informasiyaları öz-özünə
qorumaq baxımından çox az
02:56
who can afford devices
that secure their data by default,
53
164523
2770
iş görən kasıbların təhlükəsizliyi və
gizliliyi arasında
03:00
and of the poor,
54
168036
1252
böyüyən
03:01
whose devices do very little
to protect them by default.
55
169851
4674
bir fərq mövcuddur.
03:07
So, think of the average Apple customer:
56
175667
3115
Adi bir Apple müştərisi düşünün:
03:12
a banker, a lawyer,
a doctor, a politician.
57
180013
4862
bankir, hüquqşünas, həkim,
siyasətçi.
03:17
These individuals now increasingly have
smartphones in their pockets
58
185387
5254
Bu adamların indi, get-gedə daha da çox,
ciblərində onların zənglərini,
03:22
that encrypt their calls,
their text messages,
59
190665
3473
ismarıclarını, cihazdakı bütün
məlumatlarını
03:26
all the data on the device,
60
194162
1535
özləri heç bir şey etməmiş
03:27
without them doing really anything
to secure their information.
61
195721
4008
şifrələyən smartfonları var.
03:32
In contrast, the poor
and the most vulnerable in our societies
62
200904
4045
Bunun əksinə, kasıblar və cəmiyyətdəki
ən zəif təbəqələr
03:36
are using devices that leave them
completely vulnerable to surveillance.
63
204973
5187
onları üstün nəzarətə qarşı tamam məğlub
buraxacaq cihazlardan istifadə edirlər.
03:43
In the United States, where I live,
64
211065
1989
Birləşmiş Ştatlarda, yaşadığım yerdə,
03:45
African-Americans are more likely
to be seen as suspicious
65
213078
3949
Afrikan Amerikanlarının şübhəli, təhdid
kimi görünməkləri ehtimalı, və ya
03:49
or more likely to be profiled,
66
217051
1851
hökümət müşahidəsində hədəfə tuş
gəlməkləri
03:51
and are more likely to be targeted
by the state with surveillance.
67
219640
3665
ehtimalı daha çoxdu.
03:56
But African-Americans
are also disproportionately likely
68
224008
2789
Elə adətən bu Afrikan Amerikanlarıdır ki,
da onları
03:58
to use Android devices
that do nothing at all
69
226821
3096
bu nəzarətdən qorumaq üçün heç bir
şey etməyən
04:01
to protect them from that surveillance.
70
229941
2070
Android cihazlarını istifadə edirlər.
04:04
This is a problem.
71
232974
1324
Bu problemdir.
04:07
We must remember
that surveillance is a tool.
72
235536
2509
Bu nəzarətin bir alət olduğunu
unutmamalıyıq.
04:10
It's a tool used by those in power
73
238810
2648
Əlində güc olanların gücsüzlərə
qarşı istifadə etdiyi
04:13
against those who have no power.
74
241934
2258
bir alətdir bu.
04:17
And while I think it's absolutely great
75
245173
4750
Baxmayaraq ki, Apple kimi şirkətlərin
şifrələməni insanlar üçün asanlaşdırması
04:21
that companies like Apple
are making it easy for people to encrypt,
76
249947
3448
mənim fikrimcə çox əla bir şeydir,
04:26
if the only people
who can protect themselves
77
254355
3815
əgər özlərini hökümətin nəzərindən
qoruya bilən insanlar ancaq
04:30
from the gaze of the government
78
258194
1491
varlı və güclülərdirsə,
04:31
are the rich and powerful,
79
259709
1560
onda
04:33
that's a problem.
80
261741
1187
bu problemdir.
04:35
And it's not just a privacy
or a cybersecurity problem.
81
263549
3562
Və təkcə gizlilik və ya
kibertəhlükəsizlik problemi deyil.
04:39
It's a civil rights problem.
82
267739
1544
Bu vətəndaş haqları məsələsidi.
04:42
So the lack of default security in Android
83
270806
2867
Yəni ki, Android qurğularındakı bu
yetərsiz təhlükəsizlik
04:45
is not just a problem
for the poor and vulnerable users
84
273697
5379
təkcə bu cihazlardan asılı olan kasıb və
zəif təbəqə istifadəçiləri üçün
04:51
who are depending on these devices.
85
279100
2218
problem deyil.
04:53
This is actually a problem
for our democracy.
86
281342
2260
Bu əslində bizim demokratiya üçün
problemdir.
04:56
I'll explain what I mean.
87
284237
1468
İzah edəcəm nə demək istədiyimi.
04:58
Modern social movements
rely on technology --
88
286514
2875
Müasir sosial hərəkatlar texnologiyaya
etibar edirlər --
05:01
from Black Lives Matter to the Arab Spring
to Occupy Wall Street.
89
289413
5423
"Black Lives Matter"dən, Ərəb Baharı'dan
tutmuş "Occupy Wall Street"ə qədər.
05:07
The organizers of these movements
and the members of these movements
90
295238
3975
Bu hərəkatların təşkilatçıları və
iştirakçıları get-gedə daha da çox
05:11
increasingly communicate
and coordinate with smartphones.
91
299237
3940
smartfonlarla əlaqə qurur və bir araya
toplaşırlar.
05:16
And so, naturally governments
that feel threatened by these movements
92
304446
3851
Təbii olaraq bu hərəkatlardan çəkinən
hökümətlər də təşkilatçıları
05:20
will also target the organizers
and their smartphones.
93
308321
3656
və onların smartfonlarını hədəf altına
alacaqlar.
Tamamilə mümkündü ki, gələcək
Martin Luther King,
05:25
Now, it's quite possible
94
313462
2074
05:27
that a future Martin Luther King
or a Mandela or a Gandhi
95
315560
4064
Mandela və ya Gandhi'nin iPhone'u olacaq
və bununla hökümət nəzarətindən
05:31
will have an iPhone and be protected
from government surveillance.
96
319648
3857
qoruna biləcək.
05:36
But chances are,
97
324283
1547
Amma yəqin ki,
05:37
they'll probably have a cheap,
$20 Android phone in their pocket.
98
325854
3714
ciblərində ucuz 20 dollarlıq Android
telefonları olacaq. Elə buna görə
05:42
And so if we do nothing
to address the digital security divide,
99
330676
3821
əgər biz rəqəmsal təhlükəsizlik
bölgüsünü həll edəcək bir şey etməsək,
05:46
if we do nothing to ensure
that everyone in our society
100
334521
3868
cəmiyyətimizdəki hər kəsin şifrələmədən
eyni cür faydalandığından və özlərini
05:51
gets the same benefits of encryption
101
339167
2285
dövlətin nəzarətindən eyni qədər qoruya
05:53
and is equally able to protect themselves
from surveillance by the state,
102
341476
3657
bildiklərindən əmin olmaq üçün heç bir
şey etməsək,
05:57
not only will the poor and vulnerable
be exposed to surveillance,
103
345157
4782
təkcə kasıb və zəif təbəqələr dövlətin
hədəfinə tuş gəlməyəcək,
06:02
but future civil rights
movements may be crushed
104
350404
2941
həm də gələcək insan haqları hərəkatları
tam güclərini
06:05
before they ever reach
their full potential.
105
353369
2420
əldə etməmişdən öncə məhv edilə
bilərlər.
06:07
Thank you.
106
355813
1167
Təşəkkürlər.
06:09
(Applause)
107
357004
3107
(Alqış)
06:15
Helen Walters: Chris, thank you so much.
108
363940
1926
Helen Walters: Chris, çox sağol.
06:17
I have a question for you.
109
365890
1872
Sənə bir sualım var.
06:19
We saw recently in the press
110
367786
1853
Son zamanlar mətbuatda Facebook'dan
06:21
that Mark Zuckerberg from Facebook
covers over his camera
111
369663
5504
Mark Zuckerberg'in kamerasının üzərini
örtdüyünü və qulaqcığının mikrofon başlığı
06:27
and does something
with his headphone mic jack.
112
375191
2974
ilə nəsə etdiyini gördük.
06:30
So I wanted to ask you
a personal question, which is:
113
378189
2545
Mən də səndən bir şəxsi sual soruşmaq
istəyirdim,
06:32
Do you do that?
114
380758
1152
Sən də bunu edirsən?
06:33
And, on behalf of everyone
here, particularly myself,
115
381934
2579
Burdakı hər kəsin əvəzinə, xüsusilə
özümçün, soruşuram
06:36
Should we be doing that?
116
384537
1325
Bunu biz də etməliyikmi?
06:37
Should we be covering these things?
117
385886
1768
Biz də bu şeyləri örtməliyikmi?
06:39
Christopher Soghoian: Putting a sticker --
actually, I like Band-Aids,
118
387678
4161
Christopher Soghoian: yapışqan yapışdırmaq
-- əslində mən yara bandlarını xoşlayıram,
06:43
because you can remove them
and put them back on
119
391863
2265
çünki adi zəng və ya Skype zəngi etmək
istəyəndə
06:46
whenever you want to make
a call or a Skype call.
120
394152
2312
onları çıxarıb təzədən geriyə
taxa bilərsən.
06:48
Putting a sticker over your web cam
121
396488
1702
Web kameranızın üzərinə yapışqan
06:50
is probably the best thing
you can do for your privacy
122
398214
2676
vurmaq gizliliyiniz üçün edə biləcəyiniz,
yəqin ki
06:52
in terms of bang for buck.
123
400914
1506
ən yaxşı şeydi, etməyə dəyər.
06:54
There really is malware,
malicious software out there
124
402444
3897
Həqiqətən də web kameranızı ələ
keçirə biləcək pis məqsədli,
06:58
that can take over your web cam,
125
406365
1857
bədniyyətli proqramlar mövcuddur,
07:00
even without the light turning on.
126
408246
1870
hətta işığı sönülü olanda belə.
07:02
This is used by criminals.
This is used by stalkers.
127
410140
3169
Cinayətkarlar tərəfindən,sizi izləyənlər
tərəfindən istifadə olunur
07:05
You can buy $19.99 "spy
on your ex-girlfriend" software online.
128
413333
4938
"Köhnə sevgilini pusmaq" proqramını
təkcə 19.99 dollara onlayn almaq mümkündü.
07:10
It's really terrifying.
129
418295
1151
Bu həqiqətən dəhşətlidi.
07:11
And then, of course,
it's used by governments.
130
419470
2524
Və bu əlbəttə ki, hökümətlər
tərəfindən istifadə olunur.
07:14
And there's obviously
a sexual violence component to this,
131
422018
3221
Burda təbii ki, cinsi təcavüz məsələsi də
var,
07:17
which is that this kind of surveillance
can be used most effectively
132
425263
3701
ən çox da qadınlara və cəmiyyətimizdə
utandırıla bilən insanlara qarşı
07:20
against women and other people
who can be shamed in our society.
133
428988
6803
istifadə olunan növ müşahidə sistemidi.
Hətta düşünürsünüz ki, gizlətməyə bir
şeyiniz yoxdur,
07:28
Even if you think
you have nothing to hide,
134
436417
2108
07:30
at the very least, if you have
children, teenagers in your lives,
135
438549
4558
ən azından uşağınız varsa,
yeniyetmə gənclər varsa həyatınızda,
onların kameralarının üzərinə yapışqan
vurub onları qoruduğunuzdan əmin olun.
07:35
make sure you put a sticker
on their camera and protect them.
136
443131
3010
07:38
HW: Wow. Thank you so much.
CS: Thank you.
137
446165
1994
HW: Wow. Çox təşəkkürlər.
CS: Sağolun.
07:40
HW: Thanks, Chris.
138
448183
1151
HW: Təşəkkürlər, Chris.
07:41
(Applause)
139
449358
2472
(Alqış)
Tərcümə - Ceyhun Babaşov
Translated by Jeyhun Babashov
Reviewed by Bəhruz Aydınlı

▲Back to top

ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com