ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com
TED Salon Samsung

Finn Lützow-Holm Myrstad: How tech companies deceive you into giving up your data and privacy

Finn Lützow-Holm Myrstad: နည်းပညာကုမ္ပဏီတွေက သင့်ရဲ့ အချက်အလက်နဲ့သီးသန့်နေပိုင်ခွင့်ကို လက်လွှတ်လိုက်ရဖို့ ဘယ်လိုလိမ်ညာဆွဲဆောင်လဲ။

Filmed:
1,878,535 views

သင်သုံးတဲ့ အပ်ပလီကေးရှင်း(App)တစ်ခုအတွက် စည်းမျဥ်းသတ်မှတ်ချက်တွေကို တကယ်ဖတ်ကြည့်ခဲ့ဖူးလား။ Finn Myrstad နဲ့ နော်ဝေးစားသုံးသူကောင်စီမှာရှိတဲ့ သူ့အဖွဲ့ကတော့ ဖတ်ကြည့်ပြီးပါပြီ၊သူတို့အတွက်ကတော့ ပုံမှန်ဖုန်းတစ်လုံးမှာရှိတဲ့ အပ်ပလီကေးရှင်းတွေရဲ့ စည်းမျဥ်းတွေကို ဖတ်တာ တရက်ခွဲနီးပါးလောက် အချိန်ယူရပါတယ်။ နည်းပညာကုမ္ပဏီတွေက သုံးစွဲသူတွေကို လိမ်ညာတဲ့ ထိတ်လန့်စရာ နည်းတွေအကြောင်းပြောထားတဲ့ ဟောပြောပွဲမှာ Myrstad က ကုမ္ပဏီတွေကို ယူငင်သုံးစွဲခွင့်ပေးထားတဲ့ ကိုယ်ပိုင်အချက်အလက်တွေရဲ့ အတွင်းသဘောသဘာဝနဲ့ သူတို့တတွေ ကျွန်တော်တို့ရဲ့ အချက်အလက်တွေကို တစ်ခါမှ မတွေးနိုင်ခဲ့ဖူးတဲ့ အတိုင်းအတာနဲ့ သုံးနေကြလဲဆိုတာ မျှဝေထားပါတယ်။
- Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council. Full bio

Double-click the English transcript below to play the video.

00:13
Do you remember when you were a child,
0
1040
2416
ကလေးဘဝကို မှတ်မိသေးလား၊
00:15
you probably had a favorite toy
that was a constant companion,
1
3480
3576
ခင်ဗျားမှာ အမြဲတွဲဖော်
အရုပ်တစ်ရုပ် ရှိခဲ့ဖူးမယ်၊
00:19
like Christopher Robin
had Winnie the Pooh,
2
7080
2616
Christopher Robin မှာ
Winnie thePooh ရှိသလိုမျိူး
00:21
and your imagination
fueled endless adventures?
3
9720
2800
ခင်ဗျား စိတ်ကူးက မပြီးဆုံးတဲ့
စွန့်စားမှုတွေ ဖန်တီးခဲ့တယ်။
00:25
What could be more innocent than that?
4
13640
2400
ဘယ်အရာက အဲ့ဒါထက်ပို အပြစ်ကင်းနိုင်ပါ့မလဲ။
00:28
Well, let me introduce you
to my friend Cayla.
5
16800
4800
ကောင်းပြီ၊ကျွန်တော့်သူငယ်ချင်း
Cayla နဲ့ မိတ်ဆက်ပေးပါရစေ။
00:34
Cayla was voted toy of the year
in countries around the world.
6
22600
3456
Cayla က ကမ္ဘာနိုင်ငံတွေမှာ တစ်နှစ်တာ
အရုပ်အဖြစ် မဲပေးခံခဲ့ရတယ်။
00:38
She connects to the internet
and uses speech recognition technology
7
26080
3576
သူက အင်တာနက်နဲ့ ချိတ်၊
အသံခွဲခြမ်းစိတ်ဖြာနည်းပညာသုံးပြီး၊
00:41
to answer your child's questions,
8
29680
2136
ခင်ဗျား ကလေးရဲ့ မေးခွန်းတွေကို
00:43
respond just like a friend.
9
31840
1960
သူငယ်ချင်းတစ်ယောက်လို ဖြေပေးခဲ့တယ်။
00:46
But the power doesn't lie
with your child's imagination.
10
34920
3656
ဒါပေမဲ့ လုပ်ပိုင်ခွင့်က ခင်ဗျား ကလေးရဲ့
စိတ်ကူးနဲ့ ရှိမနေပါဘူး။
00:50
It actually lies with the company
harvesting masses of personal information
11
38600
4536
တကယ်ရှိနေတာက ခင်ဗျား မိသားစု အိမ်မှာ
လွတ်လွတ်လပ်လပ် စကားပြောနေတုန်း
00:55
while your family is innocently
chatting away in the safety of their home,
12
43160
5536
ကိုယ်ပိုင်အချက်အလက်အများကြီး
သိမ်းယူနေတဲ့ ကုမ္ပဏီဆီမှာပါ၊
01:00
a dangerously false sense of security.
13
48720
2480
ဒါဟာအန္တရာယ်ရှိတဲ့
လုံခြုံရေးထင်ယောင်မှားမှုတစ်ခုပါ။
01:04
This case sounded alarm bells for me,
14
52840
2656
အလုပ်က နိုင်ငံထဲက စားသုံးသူ
အခွင့်အရေးကာကွယ်ဖို့ဆိုတော့
01:07
as it is my job to protect
consumers' rights in my country.
15
55520
3200
ဒီကိစ္စက ကျွန်တော့်အတွက်
အချက်ပေးခေါင်းလောင်းထိုးစေခဲ့တယ်။
01:11
And with billions of devices such as cars,
16
59800
3496
ကား၊စွမ်းအင်တိုင်းစက်နဲ့
ဖုန်စုပ်စက် စတဲ့ ဘီလီယံချီတဲ့
01:15
energy meters and even vacuum cleaners
expected to come online by 2020,
17
63320
5096
စက်တွေ ၂၀၂၀မှာ အင်တာနက်နဲ့
ချိတ်ဆက်မယ်ဆိုတဲ့ ခန့်မှန်းချက်နဲ့ဆိုရင်၊
01:20
we thought this was a case
worth investigating further.
18
68440
3936
ဒီကိစ္စက ဆက်စုံစမ်းသင့်တဲ့ အရာအဖြစ်
ကျွန်တော်တို့ သတ်မှတ်ခဲ့ကြတယ်။
01:24
Because what was Cayla doing
19
72400
1896
သူသင်ယူနေတဲ့ စိတ်ဝင်စားစရာတွေနဲ့
01:26
with all the interesting things
she was learning?
20
74320
2536
Cayla ဘာတွေလုပ်နေမလဲ။
01:28
Did she have another friend she was
loyal to and shared her information with?
21
76880
3640
သူ့မှာ အချက်အလက်တွေမျှဝေနေတဲ့
သစ္စာရှိရတဲ့ တခြားသူငယ်ချင်းရှိနေနိုင်လား။
01:33
Yes, you guessed right. She did.
22
81640
2776
ဟုတ်တယ်၊ ခင်ဗျား မှန်းတာမှန်တယ်၊
သူ့မှာ ရှိနေတယ်။
01:36
In order to play with Cayla,
23
84440
2096
Cayla နဲ့ ဆော့ဖို့
01:38
you need to download an app
to access all her features.
24
86560
3000
သူ့လုပ်ဆောင်ချက်တွေကို သုံးဖို့
App တစ်ခုကို ဒေါင်းလုပ်ဆွဲရမယ်။
01:42
Parents must consent to the terms
being changed without notice.
25
90280
3840
အသိမပေးဘဲ ပြောင်းနေတဲ့ စည်းကမ်းချက်တွေကို
မိဘတွေက သဘောတူပေးရမယ်။
01:47
The recordings of the child,
her friends and family,
26
95280
3776
ကလေး၊ သူ့သူငယ်ချင်းတွေနဲ့ မိသားစုဝင်တွေရဲ့
ဖမ်းယူထားတဲ့အသံတွေက၊
01:51
can be used for targeted advertising.
27
99080
1960
ပစ်မှတ်ထားကြော်ငြာမှုအတွက်
သုံးနိုင်ပါတယ်။
01:54
And all this information can be shared
with unnamed third parties.
28
102080
4960
နောက်ပြီး အချက်အလက်အားလုံးဟာ
အမည်မသိဘေးလူတွေဆီ မျှဝေနိုင်ပါသေးတယ်။
01:59
Enough? Not quite.
29
107760
2120
ဒါတင်ပဲလား။ မဟုတ်သေးပါဘူး။
02:02
Anyone with a smartphone
can connect to Cayla
30
110880
4296
စမတ်ဖုန်းရှိတဲ့ မည်သူမဆိုက
အကွာအဝေးတစ်ခုကနေ
02:07
within a certain distance.
31
115200
1600
Cayla နဲ့ ချိတ်ဆက်နိုင်ပါတယ်။
02:09
When we confronted the company
that made and programmed Cayla,
32
117560
4576
ကျွန်တော်တို့ Cayla ဖန်တီးတဲ့ ကုမ္ပဏီနဲ့
ထိပ်တိုက်တွေ့တဲ့အခါမှာ၊
02:14
they issued a series of statements
33
122160
2256
သူတို့က လုံခြုရေးစနစ်ကို ဖောက်ဝင်ဖို့က
02:16
that one had to be an IT expert
in order to breach the security.
34
124440
4120
အိုင်တီကျွမ်းကျင်သူတစ်ယောက် ဖြစ်မှရမယ်လို့
ကြေညာချက်တွေ တသီတတန်း ထုတ်ခဲ့ပါတယ်။
02:22
Shall we fact-check that statement
and live hack Cayla together?
35
130039
3921
အဲဒီကြေညာချက်ကို ကျွန်တော်တို့တူတူ
စစ်ကြည့်၊ Cayla ကို ဖောက်ထွင်းကြည့်ရအောင်။
02:29
Here she is.
36
137920
1200
ဒီမှာ Cayla ပါ။
02:32
Cayla is equipped with a Bluetooth device
37
140200
3376
Cayla က်ထုတ်လွှင့်ပေးနိုင်တဲ့
02:35
which can transmit up to 60 feet,
38
143600
2216
ဘလူးတုကရိယာတစ်ခု တပ်ဆင်ထားပါတယ်၊
02:37
a bit less if there's a wall between.
39
145840
2616
ကြားမှာ နံရံခံနေရင်တော့
ပေ ၆၀ ထက် နည်းနည်းလျော့ပါမယ်။
02:40
That means I, or any stranger,
can connect to the doll
40
148480
5296
ဆိုလိုတာက ကျွန်တော် ဒါမှမဟုတ်
သူစိမ်းတစ်ယောက်က ခေလာနဲ့ သူငယ်ချင်းတွေ
02:45
while being outside the room
where Cayla and her friends are.
41
153800
3736
ရှိနေတဲ့ အခန်းအပြင်ကနေ သူ့ကို
ချိတ်ဆက်နိုင်တယ်ဆိုတာပါ။
02:49
And to illustrate this,
42
157560
2176
ဒါကို သရုပ်ပြဖို့အတွက်
ကျွန်တော် အခု
02:51
I'm going to turn Cayla on now.
43
159760
2136
အခု Cayla ကို ခလုတ်ဖွင့်လိုက်မယ်။
02:53
Let's see, one, two, three.
44
161920
1800
ကြည့်ကြရအောင်၊
၁ ၂ ၃
02:57
There. She's on. And I asked a colleague
45
165040
1976
ကျွန်တော့် လုပ်ဖော်ကိုင်ဖက်ကို အပြင်မှာ
02:59
to stand outside with his smartphone,
46
167040
2096
ဖုန်းနဲ့ ရပ်စောင့်ခိုင်းထားပါတယ်၊
03:01
and he's connected,
47
169160
1240
သူ Cayla နဲ့ ချိတ်ထားတယ်။
03:03
and to make this a bit creepier ...
48
171320
2096
နောက်၊ ပိုကြောက်ဖို့ကောင်းအောင်ပါ။
03:05
(Laughter)
49
173440
4056
(ရယ်သံများ)
03:09
let's see what kids could hear Cayla say
in the safety of their room.
50
177520
4920
ကလေးတွေ အခန်းထဲ ရှိနေတုန်းမှာ
ဘာတွေကြားရနိုင်မလဲ ကြည့်ရအောင်။
03:15
Man: Hi. My name is Cayla. What is yours?
51
183920
2896
ဟိုင်း၊ ငါ့နာမည် Cayla ပါ၊ မင်းနာမည်ကရော။
03:18
Finn Myrstad: Uh, Finn.
52
186840
1320
အာ၊ Finn ပါ။
03:20
Man: Is your mom close by?
53
188960
1296
ဘေးမှာ မင်းအမေ ရှိနေလား။
03:22
FM: Uh, no, she's in the store.
54
190280
1480
မရှိပါဘူး၊သူ စတိုးဆိုင်ထဲမှာ။
03:24
Man: Ah. Do you want
to come out and play with me?
55
192680
2376
မင်း အပြင်ထွက်ပြီး ငါနဲ့ ကစားချင်လား။
03:27
FM: That's a great idea.
56
195080
1480
အရမ်းကောင်းတဲ့ အကြံပဲ။
03:29
Man: Ah, great.
57
197720
1200
အာ၊ ကောင်းပြီ။
03:32
FM: I'm going to turn Cayla off now.
58
200480
2136
ကျွန်တော်အခု Cayla ကို ပြန်ပိတ်လိုက်ပါမယ်။
03:34
(Laughter)
59
202640
1200
(ရယ်သံများ)
03:39
We needed no password
60
207080
2736
ကျွန်တော်တို့ စကားဝှက်တွေ၊
03:41
or to circumvent any other
type of security to do this.
61
209840
3560
လုံခြုရေးအတားအဆီး တစ်ခုခုကို
ကျော်ဖြတ်ရတာတွေ ဘာမှမလိုခဲ့ပါဘူး။
03:46
We published a report
in 20 countries around the world,
62
214440
3816
ဒီလုံခြုရေးအားနည်းချက်နဲ့
တခြားပြဿနာတွေကို
03:50
exposing this significant security flaw
63
218280
2976
ဖော်ထုတ်ထားတဲ့ အစီရင်ခံစာတစ်ခုကို
နိုင်ငံ ၂၀ ကျော်မှာ
03:53
and many other problematic issues.
64
221280
1760
ကျွန်တော်တို့ ထုတ်ဝေခဲ့ပါတယ်။
03:56
So what happened?
65
224000
1240
အဲ့တော့ ဘာတွေဖြစ်ကြသလဲ။
03:57
Cayla was banned in Germany,
66
225840
1640
ဂျာမနီမှာ Cayla ပိတ်ပင်ခံခဲ့ရတယ်၊
04:00
taken off the shelves
by Amazon and Wal-Mart,
67
228480
3216
Amazon နဲ့ Wal-Mart တို့က
သူ့ကို ဆက်မရောင်းတော့ဘူး၊
04:03
and she's now peacefully resting
68
231720
3056
အခုဆို ခေလာဟာ ဘာလင်မြို့က
ဂျာမန်သူလျှိုပြတိုက်မှာ
04:06
at the German Spy Museum in Berlin.
69
234800
3456
ငြိမ်းချမ်းစွာ အနားယူနေပါပြီ။
04:10
(Laughter)
70
238280
2776
(ရယ်သံများ)
04:13
However, Cayla was also for sale
in stores around the world
71
241080
4296
သို့သော် ကျွန်တော်တို့ အစီရင်ခံစာ
ထုတ်ပြီး တစ်နှစ်ကျော်လောက်ထိကို
04:17
for more than a year
after we published our report.
72
245400
3576
ကမ္ဘာတလွှား စတိုးဆိုင်တွေမှာ
ခေလာ့ကို ဆက်ရောင်းချခဲ့ကြတယ်။
04:21
What we uncovered is that
there are few rules to protect us
73
249000
4256
ကျွန်တော်တို့ တွေ့ခဲ့ရတာက
ကျွန်တော်တို့ကို ကာကွယ်ပေးတဲ့
04:25
and the ones we have
are not being properly enforced.
74
253280
3360
ဥပဒေတွေနည်းနည်းပဲရှိတာရယ်၊
ရှိပြီးဥပဒေတွေက ကောင်းကောင်းမကြပ်မတ်တာပါ။
04:30
We need to get the security
and privacy of these devices right
75
258000
3856
ပစ္စည်းတွေစျေးကွက်မဝင်ခင် လုံခြုံဖို့နဲ့
တသီးတသန့်ဖြစ်ဖို့
04:33
before they enter the market,
76
261880
2856
ကျွန်တော်တို့လိုအပ်တယ်။
04:36
because what is the point
of locking a house with a key
77
264760
3976
အကြောင်းက ဘယ်သူမဆို
ချိတ်ဆက်ထားတဲ့ ကိရိယာတစ်ခုခုနဲ့
04:40
if anyone can enter it
through a connected device?
78
268760
2920
အိမ်ထဲဝင်လို့ရနေရင် အိမ်ကိုသော့ခတ်တာ
ဘာအဓိပ္ပာယ်ရှိဦးမလဲဗျ။
04:45
You may well think,
"This will not happen to me.
79
273640
3296
"ငါ့မှာတော့ ဒီကိစ္စမဖြစ်နိုင်ဘူး" လို့
ခင်ဗျားထင်နိုင်ပါတယ်။
04:48
I will just stay away
from these flawed devices."
80
276960
2600
ငါ လုံခြုမှုအားနည်းတဲ့ပစ္စည်းတွေနဲ့
ဝေးဝေးနေမယ်ပေါ့။
04:52
But that won't keep you safe,
81
280600
2056
ဒါပေမယ့်ဒီလိုလုပ်ခြင်းက
ဖြန့်ကျက်ချိတ်ဆက်တဲ့
04:54
because simply by
connecting to the internet,
82
282680
3176
အင်တာနက်ကြောင့်
ခင်ဗျားကိုလုံခြုံမသွားစေဘူး၊
04:57
you are put in an impossible
take-it-or-leave-it position.
83
285880
4576
ခင်ဗျားဟာ ရွေးမရတဲ့ ယူချင်ယူ၊မယူချင်နေ
အခြေအနေမှာ ရှိနေပြီးသားပါ။
05:02
Let me show you.
84
290480
1200
ကျွန်တော် ရှင်းပြပါရစေ။
05:04
Like most of you,
I have dozens of apps on my phone,
85
292400
3096
အများစုလိုပါပဲ၊
ကျွန်တော့်ဖုန်းမှာ ဒါဇင်နဲ့ချီတဲ့၊
05:07
and used properly,
they can make our lives easier,
86
295520
2856
မှန်မှန်သုံးရင် ကျွန်တော်တို့ဘဝတွေကို
ပိုလွယ်ကူ၊ပိုအဆင်ပြေ
05:10
more convenient and maybe even healthier.
87
298400
2440
ပိုတောင်ကျန်းမာစေနိုင်တဲ့
App တွေ ရှိပါတယ်။
05:13
But have we been lulled
into a false sense of security?
88
301960
3520
ဒါပေမယ့် လုံခြုံရေးထင်မှားမှုတစ်ခုဆီ
ကျွန်တော်တို့ ဆွဲနှစ်သိမ့်ခံနေရပြီလား။
05:18
It starts simply by ticking a box.
89
306600
2440
ဒါက လေးထောင့်တုံးတစ်ခုကို
အမှန်ခြစ်လိုက်တာက စပါတယ်။
05:21
Yes, we say,
90
309880
1776
ဟုတ်တယ်၊ကျွန်တော်တို့ပြောကြတယ်၊
05:23
I've read the terms.
91
311680
1440
ငါစည်းမျဥ်းတွေ ဖတ်ပြီးပြီပဲ။
05:27
But have you really read the terms?
92
315240
3040
တကယ်ကော စည်းမျဥ်းတွေကို ဖတ်ရဲ့လား။
05:31
Are you sure they didn't look too long
93
319200
2296
သူတို့ကို ဖတ်ဖို့အချိန်မကြာဘူး၊
05:33
and your phone was running out of battery,
94
321520
2056
ဖုန်းဘက်ထရီကုန်တော့မယ်၊
မင်းဖတ်ခဲ့တုန်းက
05:35
and the last time you tried
they were impossible to understand,
95
323600
3216
စာတွေက နားမလည်နိုင်ဘူး၊
မင်း ဝန်ဆောင်မှုကိုချက်ချင်း
05:38
and you needed to use the service now?
96
326840
1840
သုံးဖို့လိုတယ် ဆိုတာ သေချာပြီလား။
05:41
And now, the power
imbalance is established,
97
329840
3656
အခု ပါဝါချိန်ခွင်လျှာက မညီတော့ပါဘူး၊
05:45
because we have agreed
to our personal information
98
333520
3656
ဘာလို့ဆို မင်းကိုယ်ပိုင်အချက်အလက်တွေကို
မင်းဘယ်တုန်းကမှ မတွေးမိဖူးတဲ့
05:49
being gathered and used
on a scale we could never imagine.
99
337200
3120
အတိုင်းအတာနဲ့ စုယူဖို့၊သုံးဖို့
မင်းသဘောတူပြီးလိုက်လို့ပါ။
05:53
This is why my colleagues and I
decided to take a deeper look at this.
100
341640
3696
ဒါကြောင့် ကျွန်တော်နဲ့လုပ်ကိုင်ဖက်တွေ
ဒီကိစ္စကို သေချာလေ့လာဖို့ ဆုံးဖြတ်ပါတယ်။
05:57
We set out to read the terms
101
345360
3336
ပုံမှန်ဖုန်းတစ်လုံးမှာရှိတဲ့
ရေပန်းစားတဲ့ App တွေရဲ့
06:00
of popular apps on an average phone.
102
348720
2696
စည်းမျဉ်းတွေကိုဖတ်ဖို့
ကျွန်တော်တို့ စပြင်ခဲ့တယ်၊
06:03
And to show the world
how unrealistic it is
103
351440
3736
ပြီးတော့ စားသုံးသူတွေကို
စည်းမျဉ်းတွေတကယ်ဖတ်ဖို့
06:07
to expect consumers
to actually read the terms,
104
355200
3216
မျှော်လင့်တာက ဘယ်လောက်
သဘာဝမကျလဲ ကမ္ဘာကိုပြဖို့အတွက်
06:10
we printed them,
105
358440
1496
စည်းမျဉ်းတွေကို ပုံနှိပ်ခဲ့တယ်၊
06:11
more than 900 pages,
106
359960
1840
စာမျက်နှာ ၉၀၀ ကျော်ရှိပါတယ်၊
06:14
and sat down in our office
and read them out loud ourselves,
107
362800
3600
နောက် ရုံးခန်းထဲထိုင်ပြီး
စည်းမျဉ်းတွေ အော်ဖတ်တာကို
06:19
streaming the experiment
live on our websites.
108
367800
2536
ကျွန်တော်တို့ဝက်ဆိုက်မှာ
တိုက်ရိုက်လွှင့်ခဲ့တယ်၊
06:22
As you can see, it took quite a long time.
109
370360
2536
ခင်ဗျား မြင်သလိုပဲ၊တော်တော်ကိုကြာခဲ့ပါတယ်။
06:24
It took us 31 hours,
49 minutes and 11 seconds
110
372920
4416
ပုံမှန်ဖုန်းတစ်လုံးမှာရှိတဲ့ စည်းမျဉ်းတွေ
ဖတ်ဖို့ကို ၃၁ နာရီ၊
06:29
to read the terms on an average phone.
111
377360
2576
၄၉ မိနစ်နဲ့ ၁၁ စက္ကန့်
ကျွန်တော်တို့ အချိန်ယူရပါတယ်။
06:31
That is longer than a movie marathon
of the "Harry Potter" movies
112
379960
4376
ဒါက "Harry Potter" နဲ့
"Godfather" ရုပ်ရှင်တွေကို
06:36
and the "Godfather" movies combined.
113
384360
2496
တထိုင်တည်းအပြီး
ကြည့်တာထက် ပိုကြာပါတယ်။
06:38
(Laughter)
114
386880
1400
(ရယ်သံများ)
06:41
And reading is one thing.
115
389600
1936
ပြီးတော့ ဖတ်တာက တစ်ပိုင်း၊
06:43
Understanding is another story.
116
391560
1976
နားလည်တာက နောက်တစ်ပိုင်းပါ။
06:45
That would have taken us
much, much longer.
117
393560
3576
အဲ့ဒါက ဖတ်ဖို့ထက်
တော်ေတာ်ကိုပိုကြာမှာပါ။
06:49
And this is a real problem,
118
397160
1776
ပြီးတော့ အဲ့ဒါက
တကယ့်ပြဿနာပါ။
06:50
because companies have argued
for 20 to 30 years
119
398960
3216
အကြောင်းက သုံးစွဲသူတွေက
စည်းမျဥ်းတွေကို သဘောတူပြီးတဲ့
06:54
against regulating the internet better,
120
402200
3056
အကြောင်းပြချက်နဲ့ အင်တာနက်ကို
ပိုစည်းကမ်းတင်းကြပ်ဖို့ကို
06:57
because users have consented
to the terms and conditions.
121
405280
3160
ကုမ္ပဏီတွေက နှစ်၂၀၊၃၀လောက်
လက်မခံဘဲ ငြင်းခုံနေခဲ့ကြတယ်။
07:02
As we've shown with this experiment,
122
410520
1976
ချက်လက်စုံခွင့်ပြုမှု တစ်ခုရဖို့
07:04
achieving informed consent
is close to impossible.
123
412520
2880
မဖြစ်နိုင်တာ ကျွန်တော်တို့
ဒီစမ်းသပ်ချက်ကနေ ပြခဲ့ပါပြီ။
07:09
Do you think it's fair to put the burden
of responsibility on the consumer?
124
417080
3524
ခင်ဗျားကော စားသုံးသူအပေါ် တာဝန်ဝန်ထုပ်ကြီး
တင်ထားတာ မျှတတယ်ထင်သလား။
07:14
I don't.
125
422000
1736
ကျွန်တော်တော့ မထင်ဘူး။
07:15
I think we should demand
less take-it-or-leave-it
126
423760
3096
ကျွန်တော်တို့တွေ ယူချင်ယူ၊မယူချင်နေ
အခြေအနေ နည်းသွားဖို့နဲ့
07:18
and more understandable terms
before we agree to them.
127
426880
3176
သဘောမတူခင် ပိုနားလည်လွယ်တဲ့
စည်းမျဥ်းတွေကို တောင်းဆိုရပါမယ်။
07:22
(Applause)
128
430080
1536
(လက်ခုပ်သံများ)
07:23
Thank you.
129
431640
1200
ကျေးဇူးပါ။
07:28
Now, I would like to tell you
a story about love.
130
436200
4880
ကျွန်တော်အခု အချစ်အကြောင်း
အဖြစ်လေးတစ်ခု ပြောပြချင်ပါတယ်။
07:34
Some of the world's
most popular apps are dating apps,
131
442080
3536
ကမ္ဘာမှာ ရေပန်းအစားဆုံး App တွေက
ကြင်ဖက်ရှာ App တွေပါပဲ၊
07:37
an industry now worth more than,
or close to, three billion dollars a year.
132
445640
4640
ခုချိန်မှာ တစ်နှစ်ကို ၃ဘီလျံ ဒေါ်လာ
ကျော် / နီးပါးတန်ကြေးရှိတဲ့ လုပ်ငန်းပါ။
07:43
And of course, we're OK
sharing our intimate details
133
451160
4176
ပြီးတော့ ကျွန်တော်တို့က
ကိုယ့်အတွင်းရေးတွေ ကိုယ့်ကြင်ဖက်ကို
07:47
with our other half.
134
455360
1240
ပေးသိဖို့ လုံးဝအဆင်ပြေတယ်။
07:49
But who else is snooping,
135
457240
1976
ဒါပေမယ့် ကျွန်တော်တို့မျှဝေနေတုန်းမှာ
07:51
saving and sharing our information
136
459240
2936
တခြားဘယ်သူက ခိုးကြောင်ခိုးဝှက်နဲ့
ကျွန်တော်တို့ အချက်လက်တွေကို
07:54
while we are baring our souls?
137
462200
1640
သိမ်းဆည်းမျှဝေနေမလဲ။
07:56
My team and I decided to investigate this.
138
464520
2200
ကျွန်တော်နဲ့အဖွဲ့က
ဒါကိုစုံစမ်းဖို့ ဆုံးဖြတ်ခဲ့တယ်၊
08:00
And in order to understand
the issue from all angles
139
468920
3016
ဒီကိစ္စကို ဘက်ပေါင်းစုံကနေ
နားလည်နိုင်ဖို့နဲ့
08:03
and to truly do a thorough job,
140
471960
2240
အလုပ်ကိုစေ့စေ့စပ်စပ် လုပ်နိုင်ဖို့အတွက်
08:07
I realized I had to download
141
475400
1976
ကမ္ဘာမှာ ရေပန်းအစားဆုံး App တစ်ခုကို
08:09
one of the world's
most popular dating apps myself.
142
477400
3440
ကျွန်တော်ေဒါင်းလုပ်လုပ်ဖို့ လိုလာတာ
သဘောပေါက်မိပါတယ်။
08:14
So I went home to my wife ...
143
482440
2296
ဒါကြောင့် အခုမှလက်ထပ်ထားတဲ့
08:16
(Laughter)
144
484760
1936
(ရယ်သံများ)
08:18
who I had just married.
145
486720
1656
အိမ်က မိန်းမဆီပြန်ပြီး မေးခဲ့တယ်၊
08:20
"Is it OK if I establish a profile
on a very popular dating app
146
488400
4616
"အရမ်းရေပန်းစားတဲ့ ကြင်ဖက်ရှာ App တစ်ခုမှာ
သိပ္ပံနည်းကျရှာဖွေမှုအတွက်
08:25
for purely scientific purposes?"
147
493040
1896
ပရိုဖိုင်တစ်ခု ဖွင့်ရင် အိုကေမလား" ပေါ့
08:26
(Laughter)
148
494960
1856
(ရယ်သံများ)
08:28
This is what we found.
149
496840
1496
ကျွန်တော်တို့ ဒီလိုတွေ့ခဲ့တယ်။
08:30
Hidden behind the main menu
was a preticked box
150
498360
3976
အဓိကစာမျက်နှာနောက်မှာ ပုန်းကွယ်နေတာက
Facebook မှာရှိတဲ့ ကိုယ့်ပုံတွေ၊
08:34
that gave the dating company access
to all my personal pictures on Facebook,
151
502360
6056
ကျွန်တော်ဆို ပုံ၂ထောင်ကျော်၊
တချို့ပုံတွေဆို ကိုယ်ရေးကိုယ်တာဆန်တာတွေကို
08:40
in my case more than 2,000 of them,
152
508440
2856
ကြင်ဖက်ရှာကုမ္ပဏီကို ရယူခွင့်ပေးတယ်ဆိုတဲ့
08:43
and some were quite personal.
153
511320
2120
အမှန်ခြစ်ပြီးသား
လေးထောင့်တုံးတစ်ခုရှိပါတယ်။
08:46
And to make matters worse,
154
514400
2216
နောက် ပိုဆိုးတာက
စည်းမျဥ်းစည်းကမ်းတွေကို
08:48
when we read the terms and conditions,
155
516640
2056
ကျွန်တော်တို့ ဖတ်ကြည့်တော့
08:50
we discovered the following,
156
518720
1376
အခုလိုတွေ့ခဲ့ရပါတယ်၊
08:52
and I'm going to need to take out
my reading glasses for this one.
157
520120
3120
ဒါကိုဖတ်ဖို့ ကျွန်တော်
စာကြည့်မျက်မှန်ထုတ်ဖို့ လိုပါပြီ။
08:56
And I'm going to read it for you,
because this is complicated.
158
524400
2936
နောက် ဒါကအရမ်းရှုပ်ထွေးတဲ့အတွက်
ခင်ဗျားတို့အတွက် ဖတ်ပြပါမယ်။
08:59
All right.
159
527360
1200
ကောင်းပြီ။
09:01
"By posting content" --
160
529440
1536
"အကြောင်းအရာ တင်ခြင်းအားဖြင့်"
09:03
and content refers to your pictures, chat
161
531000
1976
အကြောင်းအရာက ခင်ဗျားပုံတွေ၊
စကားပြောတာတွ​ေ
09:05
and other interactions
in the dating service --
162
533000
2216
ကြင်ဖက်ရှာဝန်ဆောင်မှုက တုံ့ပြန်တာတွေပါတယ်။
09:07
"as a part of the service,
163
535240
1256
"ဝန်ဆောင်မှုပိုင်း အနေနဲ့၊
09:08
you automatically grant to the company,
164
536520
1976
ခင်ဗျားက ကုမ္ပဏီ၊နှီးနွယ်ကုမ္ပဏီ၊
09:10
its affiliates, licensees and successors
165
538520
2176
လိုင်စင်ရသူတွေနဲ့
ဆက်ခံသူတွေကို ယတိပြတ်၊
09:12
an irrevocable" -- which means
you can't change your mind --
166
540720
3616
အမြဲထာဝရ၊သီးသန့်မဟုတ်၊
လွှဲပြောင်းနိုင်၊လိုင်စင်ခွဲထုတ်ပေးနိုင်၊
09:16
"perpetual" -- which means forever --
167
544360
2776
ငွေချေပြီးသော၊ အကြောင်းအရာများကို
သုံးစွဲ၊ကူးယူ၊သိုလှောင်၊
09:19
"nonexclusive, transferrable,
sublicensable, fully paid-up,
168
547160
2896
ဖျော်ဖြေ၊ပြသ၊ကူးပွား၊
မှတ်တမ်းတင်၊ညှိုနှိုင်း၊ပြင်ဆင်၊
09:22
worldwide right and license
to use, copy, store, perform,
169
550080
2696
ထုတ်ဝေပိုင်ခွင့်နဲ့ အကြောင်းအရာ
ဆင့်ပွားများပြင်ဆင်ခွင့်
09:24
display, reproduce, record,
170
552800
1336
သို့မဟုတ်
09:26
play, adapt, modify
and distribute the content,
171
554160
2216
အခြားလက်ရာများသို့ ပေါင်းစပ်ခွင့်လိုင်စင်
09:28
prepare derivative works of the content,
172
556400
1936
အလိုအလျောက်ပေးကြောင်းနဲ့
09:30
or incorporate the content
into other works
173
558360
2016
ရှိပြီးနှင့် နောင်ဖြစ်တည်မီဒီယာများအား
09:32
and grant and authorize sublicenses
of the foregoing in any media
174
560400
3056
သုံးစွဲမှုလိုင်စင်ထုတ်ပေးခွင့်ပြုကြောင်း
09:35
now known or hereafter created."
175
563480
1560
သဘောတူပါသည်။"
09:40
That basically means
that all your dating history
176
568640
3816
ယေဘူဘျဆိုလိုတာက ခင်ဗျားရဲ့
ကြင်ဖက်ရှာမှတ်တမ်းအားလုံးနဲ့
09:44
and everything related to it
can be used for any purpose for all time.
177
572480
5080
၎င်းနဲ့သက်ဆိုင်သမျှက ဘယ်အချိန်မဆို
ရည်ရွယ်ချက်မျိုးစုံနဲ့ အသုံးခံရနိုင်ပါတယ်။
09:50
Just imagine your children
seeing your sassy dating photos
178
578520
4976
နောင်နှစ် ၂၀ သားဆက်ခြားကြော်ငြာတစ်ခုမှာ
ခင်ဗျားရဲ့ ဆွဲဆောင်မှုပြင်းပြင်းပုံတွေကို
09:55
in a birth control ad 20 years from now.
179
583520
2560
ခင်ဗျားကလေးတွေ ကြည့်နေမှာ
စိတ်ကူးကြည့်စမ်းပါ။
10:00
But seriously, though --
180
588400
1216
ဒါပေမဲ့ သေချာစဥ်းစားရရင်၊
10:01
(Laughter)
181
589640
1600
(ရယ်သံများ)
10:04
what might these commercial
practices mean to you?
182
592880
2360
ဒီစီးပွားရေးလုပ်ထုံးတွေက
ခင်ဗျားအတွက် ဘာဆိုလိုသလဲ။
10:08
For example, financial loss:
183
596320
2240
ဥပမာ၊ ငွေကြေးဆုံးရှုံးမှု၊
10:11
based on your web browsing history,
184
599480
1696
ခင်ဗျားဝက်ဆိုက်ကြည့်မှတ်တမ်းကို
10:13
algorithms might decide
whether you will get a mortgage or not.
185
601200
2960
အခြေခံပြီး စနစ်တွေက ခင်ဗျား
အပေါင်စာချုပ်လိုနေမလား ဆုံးဖြတ်မယ်။
10:16
Subconscious manipulation:
186
604840
1480
မသိစိတ်ကိုအသုံးချမှု၊
10:19
companies can analyze your emotions
based on your photos and chats,
187
607560
3696
ခင်ဗျားပုံတွေ၊စကားပြောထားတာတွေကနေ
စိတ်ခံစားမှုကို ကုမ္ပဏီတွေက လေ့လာမယ်၊
10:23
targeting you with ads
when you are at your most vulnerable.
188
611280
3256
ခင်ဗျားစိတ်အားအငယ်ဆုံးအချိန်မှာ
ကြော်ငြာတွေ ခင်ဗျားဆီဦးတည်လာမယ်။
10:26
Discrimination:
189
614560
1496
ခွဲခြားဆက်ဆံမှု၊
10:28
a fitness app can sell your data
to a health insurance company,
190
616080
3016
ကြံ့ခိုင်ရေး App တစ်ခုက
ကျန်းမာရေးအာမခံကုမ္ပဏီကို ဒေတာရောင်းမယ်၊
10:31
preventing you from getting
coverage in the future.
191
619120
3056
အနာဂတ်မှာ အာမခံအကျုံးဝင်မှု
မရအောင်လုပ်မယ်။
10:34
All of this is happening
in the world today.
192
622200
2520
ဒါတွေအားလုံးက ယနေ့ကမ္ဘာမှာ
ဖြစ်ပျက်နေတာတွေပါပဲ။
10:37
But of course, not all uses
of data are malign.
193
625800
3336
ဒါပေမဲ့ ဒေတာအသုံးပြုမှု အားလုံးက
မကောင်းတာ လုံးဝမဟုတ်ပါဘူး။
10:41
Some are just flawed or need more work,
194
629160
1976
တချို့က ပစ်ချက်ရှိပ​ြီး လုပ်ဖို့လိုတယ်။
10:43
and some are truly great.
195
631160
1520
တချို့ကတော့ တကယ်ကိုကောင်းပါတယ်။
10:47
And there is some good news as well.
196
635560
3696
ပြီးတော့ သတင်းကောင်းတွေလည်း ရှိပါတယ်။
10:51
The dating companies
changed their policies globally
197
639280
3296
ကျွန်တော်တို့ တိုင်ကြားချက်တင်ပြီးတဲ့အခါ
ကြင်ဖက်ရှာကုမ္ပဏီတွေက
10:54
after we filed a legal complaint.
198
642600
1680
သူတို့မူကို ကမ္ဘာနဲ့ချီ ပြင်ခဲ့တယ်။
10:57
But organizations such as mine
199
645720
2696
ဒါပေမဲ့ စားသုံးသူအခွင့်အရေး
အတွက် ကြိုးပမ်းတဲ့
11:00
that fight for consumers' rights
can't be everywhere.
200
648440
2976
ကျွန်တော်တို့လိုအဖွဲ့မျိူး
နေရာတိုင်းမှာ မရှိနိုင်ပါဘူး။
11:03
Nor can consumers fix this on their own,
201
651440
2536
စားသုံးသူတွေကလည်း
ကိုယ့်ဘာသာ မပြုပြင်နိုင်ပြန်ပါဘူး၊
11:06
because if we know
that something innocent we said
202
654000
3576
အကြောင်းက ကျွန်တော်တို့ပြောခဲ့တဲ့
အပြစ်မရှိတဲ့အရာတစ်ခုက နောင်မှာ
11:09
will come back to haunt us,
203
657600
1456
ပြန်ခြောက်လှန့်လာနိုင်ရင်၊
11:11
we will stop speaking.
204
659080
1896
ကျွန်တော်တို့ စကားဆက်မပြောရဲတော့ဘူး။
11:13
If we know that we are being
watched and monitored,
205
661000
3376
ကျွန်တော်တို့ စောင့်ကြည့်ခံနေရတာကို သိရင်၊
11:16
we will change our behavior.
206
664400
2096
ကျွန်တော်တို့ အမူအကျင့်တွေ
ပြောင်းလဲသွားမယ်။
11:18
And if we can't control who has our data
and how it is being used,
207
666520
3896
နောက် ဘယ်သူ့ဆီ ဒေတာရှိသလဲ၊
ဘယ်လိုသုံးသလဲ မထိန်းချုပ်နိုင်ရင်၊
11:22
we have lost the control of our lives.
208
670440
1840
ကျွန်တော်တို့ ဘဝ
ထိန်းချုပ်ခွင့်ဆုံးပြီ
11:26
The stories I have told you today
are not random examples.
209
674400
3496
ဒီနေ့ ကျွန်တော်ပြောတဲ့ ဖြစ်ရပ်တွေက
ကျပန်းဥပမာတွေ မဟုတ်ပါဘူး။
11:29
They are everywhere,
210
677920
1776
နေရာတိုင်းမှာ ဖြစ်နေပြီးတော့၊
11:31
and they are a sign
that things need to change.
211
679720
2856
ဒါဟာ ပြောင်းလဲဖို့လိုနေပြီ
ဆိုတာ ညွန်းဆိုနေပါတယ်။
11:34
And how can we achieve that change?
212
682600
2096
ပြောင်းလဲမှုကို ကျွန်တော်တို့
ဘယ်လိုရနိုင်လဲ။
11:36
Well, companies need to realize
that by prioritizing privacy and security,
213
684720
5576
ကိုယ်ရေးလုံခြံမှုကို အရေးပေးခြင်းအားဖြင့်
သုံးစွဲသူတွေရဲ့ ယုံကြည်မှုနဲ့
11:42
they can build trust
and loyalty to their users.
214
690320
2960
အမြဲသုံးစွဲမှုကိုရနိုင်တာ ကုမ္ပဏီတွေက
သဘောပေါက်ဖို့လိုမယ်။
11:46
Governments must create a safer internet
215
694520
3096
အစိုးရအနေနဲ့ ခေတ်မှီတဲ့ဥပဒေတွေနဲ့
စည်းကြပ်ကာကွယ်ပေးထားတဲ့
11:49
by ensuring enforcement
and up-to-date rules.
216
697640
2880
ပိုလုံခြုံတဲ့အင်တာနက်တစ်ခု ဖန်တီးပေးရမယ်။
11:53
And us, the citizens?
217
701400
2216
နောက်ပြီး ကျွန်တော်တို့
ပြည်သူတွေက ဘာလုပ်မလဲ။
11:55
We can use our voice
218
703640
1816
ကျွန်တော်တို့ အသံကို
နည်းပညာတွေက
11:57
to remind the world that technology
can only truly benefit society
219
705480
5096
လူ့အဖွဲ့အစည်းရဲ့ အခြေခံအခွင့်အရေးတွေကို
လေးစားမှသာ လူတွေကို အကျိုးပြုနိုင်မယ်ဆိုတာ
12:02
if it respects basic rights.
220
710600
2600
တစ်ကမ္ဘာလုံးကို သတိပေးနေဖို့ လိုပါတယ်။
12:05
Thank you so much.
221
713720
1576
ကျေးဇူး အများကြီး တင်ပါတယ်။
12:07
(Applause)
222
715320
4080
(လက်ခုပ်သံများ)
Translated by Thaw Tint Te Tun
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com