ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com
TED Salon Samsung

Finn Lützow-Holm Myrstad: How tech companies deceive you into giving up your data and privacy

フィン・リュツォー=ホルム・ミスタッド: テクノロジー企業があなたを欺いてデータとプライバシーを放棄させる手口

Filmed:
1,878,535 views

アプリの利用規約を実際に読んだことがありますか?ノルウェー消費者委員会のフィン・ミスタッドと彼のチームが実際に読破したところ、一般的なスマホに入っている全アプリの利用規約を読むのに約1日半かかりました。ミスタッドが、テクノロジー企業がユーザーを欺くために用いる驚くべき方法について話し、ユーザーの同意の下に企業が収集した個人情報に関する洞察や、企業が想像を超える規模で行っているデータ利用の手口を紹介します。
- Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council. Full bio

Double-click the English transcript below to play the video.

00:13
Do you remember思い出す when you were a child,
0
1040
2416
みなさんは 子どもの頃
00:15
you probably多分 had a favoriteお気に入り toyおもちゃ
that was a constant定数 companionコンパニオン,
1
3480
3576
ずっと一緒だった
大好きなオモチャを覚えてますか?
00:19
like Christopherクリストファー Robinロビン
had Winnieウィニー the Poohプー さん,
2
7080
2616
クリストファー・ロビンの
「くまのプーさん」みたいに
00:21
and your imagination想像力
fueled給油された endless無限 adventures冒険?
3
9720
2800
想像力がどんどん
湧き出るようなものです
00:25
What could be more innocent無実 than that?
4
13640
2400
これ以上無邪気なことが
ありますか?
00:28
Well, let me introduce紹介する you
to my friend友人 CaylaCayla.
5
16800
4800
ここで 「マイ・フレンド・ケイラ」を
紹介しましょう
00:34
CaylaCayla was voted投票された toyおもちゃ of the year
in countries around the world世界.
6
22600
3456
ケイラは各国で
その年のオモチャ賞に選ばれました
00:38
She connects接続する to the internetインターネット
and uses用途 speechスピーチ recognition認識 technology技術
7
26080
3576
ケイラはインターネットを介し
音声認識技術により
00:41
to answer回答 your child's子供の questions質問,
8
29680
2136
子どもの質問に答えます
00:43
respond応答する just like a friend友人.
9
31840
1960
まるで友達のように応答します
00:46
But the powerパワー doesn't lie嘘つき
with your child's子供の imagination想像力.
10
34920
3656
しかし その力は
子どもの想像力ではなく
00:50
It actually実際に lies with the company会社
harvesting収穫 masses大衆 of personal個人的 information情報
11
38600
4536
安全な家の中で
家族が何気なく話している間に
00:55
while your family家族 is innocently無邪気に
chattingおしゃべり away in the safety安全性 of their彼らの home,
12
43160
5536
企業が収集している
大量の個人情報にあるのです
「安全な家」というのは
恐ろしい錯覚です
01:00
a dangerously危険な false senseセンス of securityセキュリティ.
13
48720
2480
01:04
This case場合 sounded聞こえた alarm警報 bells for me,
14
52840
2656
私の仕事は 国内で
消費者の権利を守ることなので
01:07
as it is my jobジョブ to protect保護する
consumers'消費者の rights権利 in my country.
15
55520
3200
このケースに危機感を覚えました
01:11
And with billions何十億 of devicesデバイス suchそのような as cars,
16
59800
3496
2020年までには 車や電力メーター
さらには掃除機といった
01:15
energyエネルギー metersメートル and even vacuum真空 cleanersクリーナー
expected期待される to come onlineオンライン by 2020,
17
63320
5096
膨大な種類の機器に
通信機能が搭載されると予想されているので
01:20
we thought this was a case場合
worth価値 investigating調査中 furtherさらに.
18
68440
3936
さらに調べる価値があるケースだと
我々は思いました
01:24
Because what was CaylaCayla doing
19
72400
1896
ケイラはどんどん情報を吸収しながら
01:26
with all the interesting面白い things
she was learning学習?
20
74320
2536
それで何をしていたのでしょう?
01:28
Did she have another別の friend友人 she was
loyal忠実な to and shared共有 her information情報 with?
21
76880
3640
他に親友がいて
情報を共有していたのでしょうか?
01:33
Yes, you guessed推測された right. She did.
22
81640
2776
そうです
みなさんの予想どおりです
01:36
In order注文 to play遊びます with CaylaCayla,
23
84440
2096
ケイラと遊ぶためには
01:38
you need to downloadダウンロード an appアプリ
to accessアクセス all her features特徴.
24
86560
3000
機能を使うためのアプリを
ダウンロードする必要があります
01:42
Parents must必須 consent同意 to the terms条項
beingであること changedかわった withoutなし notice通知.
25
90280
3840
両親は通知なしに変更される規約に
同意しなければなりません
01:47
The recordings録音 of the child,
her friends友達 and family家族,
26
95280
3776
子どもや 友達や
家族の会話を録音したものは
01:51
can be used for targeted目標 advertising広告.
27
99080
1960
ターゲティング広告に
使われるかもしれません
01:54
And all this information情報 can be shared共有
with unnamed無名 third三番 partiesパーティー.
28
102080
4960
こういった情報がすべて
どこかの第三者に渡るかもしれないのです
01:59
Enough十分な? Not quiteかなり.
29
107760
2120
それだけ?
いいえ まだあります
02:02
Anyone誰でも with a smartphoneスマートフォン
can connect接続する to CaylaCayla
30
110880
4296
スマートフォンを持って
特定の距離内にいれば
02:07
within以内 a certainある distance距離.
31
115200
1600
誰でもケイラに接続できるのです
02:09
When we confronted直面した the company会社
that made and programmedプログラムされた CaylaCayla,
32
117560
4576
我々がケイラの製造元であり
プログラムもした企業を追及すると
02:14
they issued発行済み a seriesシリーズ of statementsステートメント
33
122160
2256
先方は一連の声明を出してきました
02:16
that one had to be an IT expert専門家
in order注文 to breach違反 the securityセキュリティ.
34
124440
4120
ケイラのセキュリティを破れるのは
IT専門家だけだと
02:22
Shallしなければならない we fact-check事実チェック that statementステートメント
and liveライブ hackハック CaylaCayla together一緒に?
35
130039
3921
その声明の事実確認として
ケイラを今ここでハックしましょうか?
02:29
Here she is.
36
137920
1200
これがケイラです
02:32
CaylaCayla is equipped装備 with a Bluetoothブルートゥース deviceデバイス
37
140200
3376
ケイラにはBluetoothの
デバイスが入ってます
02:35
whichどの can transmit送信する up to 60 feetフィート,
38
143600
2216
約18メートルまで通信可能ですが
02:37
a bitビット lessもっと少なく if there's a wall betweenの間に.
39
145840
2616
壁を挟むと
その距離は少し短くなります
02:40
That means手段 I, or any strangerストレンジャー,
can connect接続する to the doll人形
40
148480
5296
つまり 私や
どんな見知らぬ人であっても
02:45
while beingであること outside外側 the roomルーム
where CaylaCayla and her friends友達 are.
41
153800
3736
子どもと人形がいる部屋の
外から接続できるのです
02:49
And to illustrate説明する this,
42
157560
2176
どういうことかお見せするために
02:51
I'm going to turn順番 CaylaCayla on now.
43
159760
2136
今から ケイラの電源を入れます
02:53
Let's see, one, two, three.
44
161920
1800
ご覧ください
123
02:57
There. She's on. And I asked尋ねた a colleague同僚
45
165040
1976
電源が入りました
私の同僚が スマホを持って
外に立ってます
02:59
to standスタンド outside外側 with his smartphoneスマートフォン,
46
167040
2096
03:01
and he's connected接続された,
47
169160
1240
今 接続しました
03:03
and to make this a bitビット creepier彼氏 ...
48
171320
2096
この状況がもう少し
不気味になるように―
03:05
(Laughter笑い)
49
173440
4056
(笑)
03:09
let's see what kids子供たち could hear聞く CaylaCayla say
in the safety安全性 of their彼らの roomルーム.
50
177520
4920
「安全な」室内でケイラが子どもたちに
何と言うか聞いてみましょう
03:15
Man: Hiこんにちは. My name is CaylaCayla. What is yoursあなたの?
51
183920
2896
こんにちは 私はケイラ
あなたは?
03:18
Finnフィン MyrstadMyrstad: Uh, Finnフィン.
52
186840
1320
フィンだよ
03:20
Man: Is your momママ close閉じる by?
53
188960
1296
ママは近くにいる?
03:22
FMFM: Uh, no, she's in the store格納.
54
190280
1480
ううん ママはお店にいる
03:24
Man: Ahああ. Do you want
to come out and play遊びます with me?
55
192680
2376
じゃあ 外に出て
私と遊ばない?
03:27
FMFM: That's a great ideaアイディア.
56
195080
1480
いいね
03:29
Man: Ahああ, great.
57
197720
1200
そうだね
03:32
FMFM: I'm going to turn順番 CaylaCayla off now.
58
200480
2136
もうこれくらいにして
電源を落としましょう
03:34
(Laughter笑い)
59
202640
1200
(笑)
03:39
We needed必要な no passwordパスワード
60
207080
2736
パスワードも必要なければ
03:41
or to circumvent回避する any other
typeタイプ of securityセキュリティ to do this.
61
209840
3560
なんのセキュリティも
かいくぐらずにハックできました
03:46
We published出版された a report報告する
in 20 countries around the world世界,
62
214440
3816
我々は世界20か国に向け
報告書を出しました
03:50
exposing露出 this significant重要な securityセキュリティ flaw欠陥
63
218280
2976
この重要なセキュリティの欠陥も
03:53
and manyたくさんの other problematic問題がある issues問題.
64
221280
1760
他の問題となる論点も
暴露したのです
03:56
So what happened起こった?
65
224000
1240
すると 何が起こったか?
03:57
CaylaCayla was banned禁止された in Germanyドイツ,
66
225840
1640
ケイラはドイツで禁止され
04:00
taken撮影 off the shelves
by Amazonアマゾン and Wal-Martウォルマート,
67
228480
3216
AmazonとWal-Martから
商品が消え
04:03
and she's now peacefully平和的に resting休む
68
231720
3056
今では安らかに眠っています
04:06
at the Germanドイツ人 Spyスパイ Museum博物館 in Berlinベルリン.
69
234800
3456
ベルリンのドイツスパイ博物館で
04:10
(Laughter笑い)
70
238280
2776
(笑)
04:13
Howeverしかしながら, CaylaCayla was alsoまた、 for sale販売
in stores店舗 around the world世界
71
241080
4296
しかし報告書を出して
1年以上経っても
04:17
for more than a year
after we published出版された our report報告する.
72
245400
3576
ケイラは世界中の店舗で
売られていました
04:21
What we uncoveredカバーされていない is that
there are few少数 rulesルール to protect保護する us
73
249000
4256
我々が明らかにしたのは
自分たちを守るための規制は少なく
04:25
and the onesもの we have
are not beingであること properly正しく enforced施行された.
74
253280
3360
既存の規制は
適切に施行されていないということです
04:30
We need to get the securityセキュリティ
and privacyプライバシー of these devicesデバイス right
75
258000
3856
デバイスのセキュリティと
プライバシーの適正化が必要です
04:33
before they enter入る the market市場,
76
261880
2856
商品が市場に出る前に です
04:36
because what is the pointポイント
of lockingロック a house with a keyキー
77
264760
3976
通信機能のついたデバイスを通して
誰もが家に侵入できるとしたら
04:40
if anyone誰でも can enter入る it
throughを通して a connected接続された deviceデバイス?
78
268760
2920
家に鍵をかける意味がありますか?
04:45
You mayかもしれない well think,
"This will not happen起こる to me.
79
273640
3296
「そんなこと起きないよ
欠陥デバイスから距離を取ればいい」
と考えるかもしれません
04:48
I will just stay滞在 away
from these flawed欠陥がある devicesデバイス."
80
276960
2600
04:52
But that won't〜されません keep you safe安全,
81
280600
2056
でも それでは安全は保てません
04:54
because simply単に by
connecting接続する to the internetインターネット,
82
282680
3176
インターネットに接続しただけで
04:57
you are put in an impossible不可能
take-it-or-leave-itそれを取るか、それを残す positionポジション.
83
285880
4576
完全に不利な立場に
立たされてしまうからです
05:02
Let me showショー you.
84
290480
1200
お見せしましょう
05:04
Like most最も of you,
I have dozens数十 of appsアプリ on my phone電話,
85
292400
3096
みなさん同様 私もスマホに
多数のアプリを入れて
適切に使用しています
05:07
and used properly正しく,
they can make our lives人生 easierより簡単に,
86
295520
2856
生活が快適になり 便利になり
さらに健康にもなります
05:10
more convenient便利 and maybe even healthierより健康的.
87
298400
2440
しかし 誤った安心感を持つように
誘導されていませんか
05:13
But have we been lulled鈍い
into a false senseセンス of securityセキュリティ?
88
301960
3520
05:18
It starts開始する simply単に by tickingティッキング a boxボックス.
89
306600
2440
それは 単に
四角にチェックを入れるだけ
05:21
Yes, we say,
90
309880
1776
そして宣言します
05:23
I've read読む the terms条項.
91
311680
1440
「利用規約を読みました」と
05:27
But have you really read読む the terms条項?
92
315240
3040
でも 本当に読んだのですか?
05:31
Are you sure they didn't look too long
93
319200
2296
そこまで長い文面じゃない?
05:33
and your phone電話 was runningランニング out of battery電池,
94
321520
2056
スマホの電源が切れそうになってるし
05:35
and the last time you tried試した
they were impossible不可能 to understandわかる,
95
323600
3216
前回 読もうとしたときは理解不能だったし
すぐ サービスを使う必要があるって?
05:38
and you needed必要な to use the serviceサービス now?
96
326840
1840
05:41
And now, the powerパワー
imbalance不均衡 is established設立,
97
329840
3656
ここで 不平等な力関係が
成立してしまいました
05:45
because we have agreed同意した
to our personal個人的 information情報
98
333520
3656
想像を超えたスケールでの
05:49
beingであること gathered集まった and used
on a scale規模 we could never imagine想像する.
99
337200
3120
個人情報の収集と
使用に同意したからです
05:53
This is why my colleagues同僚 and I
decided決定しました to take a deeperもっと深く look at this.
100
341640
3696
そこで 同僚と この問題を
更に突き詰めてみることにしました
05:57
We setセット out to read読む the terms条項
101
345360
3336
一般的なスマホに入っている
人気アプリの利用規約を
06:00
of popular人気 appsアプリ on an average平均 phone電話.
102
348720
2696
読みつくすことにしたのです
06:03
And to showショー the world世界
how unrealistic非現実的 it is
103
351440
3736
消費者に実際に利用規約を
読むように要求することが
06:07
to expect期待する consumers消費者
to actually実際に read読む the terms条項,
104
355200
3216
どんなに非現実的なのかを
世間に知らしめるため
06:10
we printed印刷された them,
105
358440
1496
利用規約を印刷して—
06:11
more than 900 pagesページ,
106
359960
1840
900ページ以上ありました—
06:14
and sat座っている down in our office事務所
and read読む them out loud大声で ourselves自分自身,
107
362800
3600
オフィスに腰を据えて
自分たちで音読しました
06:19
streamingストリーミング the experiment実験
liveライブ on our websitesウェブサイト.
108
367800
2536
その実験を ウェブ上でライブ中継しました
06:22
As you can see, it took取った quiteかなり a long time.
109
370360
2536
ご覧のとおり
非常に長い時間がかかりました
06:24
It took取った us 31 hours時間,
49 minutes and 11 seconds
110
372920
4416
一般的なスマホ1台分の
利用規約を読むのに
06:29
to read読む the terms条項 on an average平均 phone電話.
111
377360
2576
31時間49分11秒かかりました
06:31
That is longerより長いです than a movie映画 marathonマラソン
of the "Harryハリー Potterポッター" movies映画
112
379960
4376
映画『ハリーポッター』と
『ゴッドファーザー』の全シリーズを
06:36
and the "Godfatherゴッドファーザー" movies映画 combined結合された.
113
384360
2496
ぶっ通しで観るよりも長いのです
06:38
(Laughter笑い)
114
386880
1400
(笑)
06:41
And reading読書 is one thing.
115
389600
1936
また 読むことと
06:43
Understanding理解 is another別の storyストーリー.
116
391560
1976
理解することは違います
06:45
That would have taken撮影 us
much, much longerより長いです.
117
393560
3576
理解しようとしたら
もっとずっと長い時間がかかったでしょう
06:49
And this is a realリアル problem問題,
118
397160
1776
これは厄介な問題です
06:50
because companies企業 have argued主張した
for 20 to 30 years
119
398960
3216
なぜなら 企業が
インターネット規制の改善に
06:54
againstに対して regulating規制する the internetインターネット better,
120
402200
3056
20年も30年も
反論してこれたのは
06:57
because usersユーザー have consented同意した
to the terms条項 and conditions条件.
121
405280
3160
ユーザーが利用規約に
同意していたからです
07:02
As we've私たちは shown示された with this experiment実験,
122
410520
1976
この実験が示したように
07:04
achieving達成する informed知らされた consent同意
is close閉じる to impossible不可能.
123
412520
2880
規約を十分に理解した上での同意など
ほぼ不可能です
07:09
Do you think it's fairフェア to put the burden重荷
of responsibility責任 on the consumer消費者?
124
417080
3524
消費者に その責任を負わせるのは
フェアだと思いますか?
07:14
I don't.
125
422000
1736
私は思いません
07:15
I think we should demandデマンド
lessもっと少なく take-it-or-leave-itそれを取るか、それを残す
126
423760
3096
我々は 同意する前に
この一方的なやり方を見直し
07:18
and more understandable理解できる terms条項
before we agree同意する to them.
127
426880
3176
理解しやすい利用規約を
要求するべきです
07:22
(Applause拍手)
128
430080
1536
(拍手)
07:23
Thank you.
129
431640
1200
ありがとう
07:28
Now, I would like to tell you
a storyストーリー about love.
130
436200
4880
ここからは
愛の物語について話しましょう
07:34
Some of the world's世界の
most最も popular人気 appsアプリ are datingデート appsアプリ,
131
442080
3536
デートアプリは世界で
最も人気なアプリです
07:37
an industry業界 now worth価値 more than,
or close閉じる to, three billion dollarsドル a year.
132
445640
4640
その産業は年間で
およそ30億ドルになります
07:43
And of courseコース, we're OK
sharing共有 our intimate親密な details詳細
133
451160
4176
もちろん とても個人的な情報でも
愛する相手になら
07:47
with our other halfハーフ.
134
455360
1240
伝えられます
07:49
But who elseelse is snoopingスヌーピング,
135
457240
1976
しかし それを打ち明けているときに
07:51
saving貯蓄 and sharing共有 our information情報
136
459240
2936
他人が その情報を盗み見て
保存したり
07:54
while we are baringバーリング our souls?
137
462200
1640
外部に漏らしたりしていたら?
07:56
My teamチーム and I decided決定しました to investigate調査する this.
138
464520
2200
我々は それを調査することに決めました
08:00
And in order注文 to understandわかる
the issue問題 from all anglesアングル
139
468920
3016
この問題を さまざまな角度から理解し
08:03
and to truly真に do a thorough完全な jobジョブ,
140
471960
2240
完璧な仕事をするには
08:07
I realized実現した I had to downloadダウンロード
141
475400
1976
世界で一番人気のデートアプリを
08:09
one of the world's世界の
most最も popular人気 datingデート appsアプリ myself私自身.
142
477400
3440
自分でもダウンロードせざるを
得ませんでした
08:14
So I went行った home to my wife ...
143
482440
2296
なので 家に帰り 恐る恐る妻に...
08:16
(Laughter笑い)
144
484760
1936
(笑)
08:18
who I had just married既婚.
145
486720
1656
新婚でしたが 聞きました
08:20
"Is it OK if I establish確立します a profileプロフィール
on a very popular人気 datingデート appアプリ
146
488400
4616
「純粋に科学的な目的なら
大人気のデートアプリに
プロフィールを乗せてもいい?」と
08:25
for purely純粋に scientific科学的 purposes目的?"
147
493040
1896
08:26
(Laughter笑い)
148
494960
1856
(笑)
08:28
This is what we found見つけた.
149
496840
1496
そこで 気づきました
08:30
Hidden隠された behind後ろに the mainメイン menuメニュー
was a pretickedpreticked boxボックス
150
498360
3976
メインメニューの隠れた場所に
すでにチェック入りの項目があったのです
08:34
that gave与えた the datingデート company会社 accessアクセス
to all my personal個人的 picturesピクチャー on Facebookフェイスブック,
151
502360
6056
Facebookに載せている個人的な写真に
その会社がアクセスできるというものです
08:40
in my case場合 more than 2,000 of them,
152
508440
2856
私の場合は 2000枚以上ありました
08:43
and some were quiteかなり personal個人的.
153
511320
2120
そのうちのいくつかは
とても個人的なものです
08:46
And to make matters問題 worse悪化する,
154
514400
2216
もっとひどいことに
08:48
when we read読む the terms条項 and conditions条件,
155
516640
2056
その利用規約を読んだとき
08:50
we discovered発見された the following以下,
156
518720
1376
発見したことがあります
08:52
and I'm going to need to take out
my reading読書 glasses眼鏡 for this one.
157
520120
3120
紹介するには眼鏡が必要です
08:56
And I'm going to read読む it for you,
because this is complicated複雑な.
158
524400
2936
読んでみますが
とても複雑なのです
08:59
All right.
159
527360
1200
では
09:01
"By posting転記 contentコンテンツ" --
160
529440
1536
「投稿したコンテンツは」
09:03
and contentコンテンツ refers言及する to your picturesピクチャー, chatチャット
161
531000
1976
コンテンツとは
デートアプリ内サービスの
09:05
and other interactionsインタラクション
in the datingデート serviceサービス --
162
533000
2216
写真や チャットや
その他 やりとりのことです
09:07
"as a part of the serviceサービス,
163
535240
1256
「サービスの一部として
09:08
you automatically自動的に grant付与 to the company会社,
164
536520
1976
自動的に当社 及び
09:10
its affiliates会社, licenseesライセンシー and successors後継者
165
538520
2176
当社関係者、被許諾者、継承者に
供与するものとし
09:12
an irrevocable取消不能" -- whichどの means手段
you can't change変化する your mindマインド --
166
540720
3616
取り消すことはできません」
つまり 気が変わってもダメってことです
09:16
"perpetual永遠の" -- whichどの means手段 forever永遠に --
167
544360
2776
「恒久的な」
つまり 永遠の
09:19
"nonexclusive非独占的, transferrable移転可能な,
sublicensable独占的, fully完全に paid-up払い出された,
168
547160
2896
「非独占的な、譲渡可能な、
サブライセンス可能な、無償の、
09:22
worldwide世界的に right and licenseライセンス
to use, copyコピー, store格納, perform実行する,
169
550080
2696
世界的な権利とライセンスにより
ユーザーはコンテンツの使用、
09:24
display表示, reproduce再現する, record記録,
170
552800
1336
コピー 、保存、実行、表示、
09:26
play遊びます, adapt適応する, modify変更する
and distribute分配します the contentコンテンツ,
171
554160
2216
複製、記録、再生、
翻案、変更、配布、
09:28
prepare準備する derivativeデリバティブ works作品 of the contentコンテンツ,
172
556400
1936
コンテンツ派生物の作成、
09:30
or incorporate組み込む the contentコンテンツ
into other works作品
173
558360
2016
または 他の作品への統合と
09:32
and grant付与 and authorize承認 sublicensessublicenses
of the foregoing上記 in any mediaメディア
174
560400
3056
既存の、または将来登場する
いかなるメディアでのサブライセンスを
09:35
now known既知の or hereafter以下 created作成した."
175
563480
1560
承諾し与えるものとします」
09:40
That basically基本的に means手段
that all your datingデート history歴史
176
568640
3816
要点を言うと
あなたの利用履歴と関連事項すべてが
09:44
and everything related関連する to it
can be used for any purpose目的 for all time.
177
572480
5080
いつでも いかなる目的にも
使用できるということです
09:50
Just imagine想像する your children子供
seeing見る your sassy生意気 datingデート photos写真
178
578520
4976
想像してみてください
プロフィールの「キメ顔」写真を
09:55
in a birth誕生 controlコントロール ad広告 20 years from now.
179
583520
2560
20年後 自分の子どもが
避妊の広告で見かけるところを
10:00
But seriously真剣に, thoughしかし --
180
588400
1216
でも 真面目な話―
10:01
(Laughter笑い)
181
589640
1600
(笑)
10:04
what mightかもしれない these commercial商業の
practices実践 mean to you?
182
592880
2360
そんな商習慣が あなたに
どう影響するのでしょう?
10:08
For example, financial金融 loss損失:
183
596320
2240
一つは 経済的な損失です
10:11
basedベース on your webウェブ browsingブラウジング history歴史,
184
599480
1696
ウェブ閲覧履歴に基づき
10:13
algorithmsアルゴリズム mightかもしれない decide決めます
whetherかどうか you will get a mortgageモーゲージ or not.
185
601200
2960
ローン審査の結果をアルゴリズムにより
決められてしまうかもしれません
10:16
Subconscious潜在 意識 manipulation操作:
186
604840
1480
他に 無意識の行動操作 ―
あなたの写真やチャットから
企業に感情を分析され
10:19
companies企業 can analyze分析する your emotions感情
basedベース on your photos写真 and chatsチャット,
187
607560
3696
10:23
targetingターゲティング you with ads広告
when you are at your most最も vulnerable脆弱な.
188
611280
3256
心が弱っているときに
広告で付け込まれるかもしれません
10:26
Discrimination差別:
189
614560
1496
差別も起こり得ます
10:28
a fitnessフィットネス appアプリ can sell売る your dataデータ
to a health健康 insurance保険 company会社,
190
616080
3016
フィットネスアプリのデータが
健康保険会社に売られて
10:31
preventing予防する you from getting取得
coverageカバレッジ in the future未来.
191
619120
3056
保険金が下りないといったことが
将来 あるかもしれません
10:34
All of this is happeningハプニング
in the world世界 today今日.
192
622200
2520
この全てが 今 世界で
起きていることです
10:37
But of courseコース, not all uses用途
of dataデータ are malign悪魔.
193
625800
3336
しかし もちろん データ利用の
すべてが有害なわけではありません
10:41
Some are just flawed欠陥がある or need more work,
194
629160
1976
単に欠点の改善が
必要なだけのものもあれば
10:43
and some are truly真に great.
195
631160
1520
本当に素晴らしいものもあります
10:47
And there is some good newsニュース as well.
196
635560
3696
そして いいニュースもあります
10:51
The datingデート companies企業
changedかわった their彼らの policiesポリシー globally世界的に
197
639280
3296
我々が告訴したことで
デートアプリ企業が
全世界的にポリシーを変更したのです
10:54
after we filed提出 a legal法的 complaint苦情.
198
642600
1680
10:57
But organizations組織 suchそのような as mine鉱山
199
645720
2696
しかし 我々のように
11:00
that fight戦い for consumers'消費者の rights権利
can't be everywhereどこにでも.
200
648440
2976
消費者の権利のために戦う組織は
そうそうありません
11:03
Nor can consumers消費者 fix修正する this on their彼らの own自分の,
201
651440
2536
消費者たちも みずから正せません
11:06
because if we know
that something innocent無実 we said
202
654000
3576
私たちが何気なく言ったことが
後で仇となって
帰ってくると知っていれば
11:09
will come back to haunt出没する us,
203
657600
1456
11:11
we will stop speaking話し中.
204
659080
1896
話すことを止めるでしょうし
11:13
If we know that we are beingであること
watched見た and monitored監視される,
205
661000
3376
誰かに見られ
監視されていると知ったら
11:16
we will change変化する our behavior動作.
206
664400
2096
行動を変えるでしょうから
11:18
And if we can't controlコントロール who has our dataデータ
and how it is beingであること used,
207
666520
3896
自分のデータを誰が手に入れ
どう使うのかを制御できないのなら
11:22
we have lost失われた the controlコントロール of our lives人生.
208
670440
1840
人生を制御する力を
失ってしまったことになります
11:26
The stories物語 I have told you today今日
are not randomランダム examples.
209
674400
3496
本日 私が話したことは
稀な事例ではありません
11:29
They are everywhereどこにでも,
210
677920
1776
どこにでもあります
11:31
and they are a sign符号
that things need to change変化する.
211
679720
2856
この事態を変える必要がある
というサインなのです
11:34
And how can we achieve達成する that change変化する?
212
682600
2096
どうやったら変えられるでしょうか?
11:36
Well, companies企業 need to realize実現する
that by prioritizing優先順位付け privacyプライバシー and securityセキュリティ,
213
684720
5576
企業はプライバシー保護と
セキュリティを優先することで
ユーザーからの信用と忠誠が得られると
認識する必要があります
11:42
they can buildビルドする trust信頼
and loyalty忠誠 to their彼らの usersユーザー.
214
690320
2960
11:46
Governments政府 must必須 create作成する a saferより安全な internetインターネット
215
694520
3096
政府は 取り締まりや
最新の規制整備を確実に行い
11:49
by ensuring確実に enforcement執行
and up-to-date最新の rulesルール.
216
697640
2880
安全なインターネットを
作らないといけません
11:53
And us, the citizens市民?
217
701400
2216
じゃあ 私たち市民は?
11:55
We can use our voice音声
218
703640
1816
声を上げて
11:57
to remind思い出させる the world世界 that technology技術
can only truly真に benefit利益 society社会
219
705480
5096
技術とは 基本的人権の尊重なしでは
真に社会に貢献しているとは言えないのだと
12:02
if it respects敬意 basic基本的な rights権利.
220
710600
2600
世界に思い出させるのです
12:05
Thank you so much.
221
713720
1576
ありがとうございました
12:07
(Applause拍手)
222
715320
4080
(拍手)
Translated by Tamami Inoue
Reviewed by Midori T

▲Back to top

ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com