ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com
TED Salon Samsung

Finn Lützow-Holm Myrstad: How tech companies deceive you into giving up your data and privacy

Finn Lützow-Holm Myrstad: Como as empresas de tecnologia nos enganam para abrirmos mão de nossos dados e de nossa privacidade

Filmed:
1,878,535 views

Você já leu realmente os termos e as condições dos aplicativos que utiliza? Finn Myrstad e a equipe dele da Norwegian Consumer Council leram e demoraram quase um dia e meio para ler os termos de todos os aplicativos instalados em um celular comum. Nesta palestra sobre as maneiras alarmantes pelas quais as empresas de tecnologia enganam os usuários, Myrstad compartilha percepções sobre as informações pessoais que concordamos em permitir que essas empresas reúnam e sobre a maneira pela qual nossos dados são utilizados em uma escala jamais imaginada.
- Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council. Full bio

Double-click the English transcript below to play the video.

00:13
Do you remember when you were a child,
0
1040
2416
Lembram-se de que, quando
vocês eram crianças,
deviam ter um brinquedo favorito
que sempre lhes fazia companhia,
00:15
you probably had a favorite toy
that was a constant companion,
1
3480
3576
como o Christopher Robin
que tinha o Ursinho Pooh,
00:19
like Christopher Robin
had Winnie the Pooh,
2
7080
2616
00:21
and your imagination
fueled endless adventures?
3
9720
2800
e uma imaginação que estimulava
aventuras infinitas?
00:25
What could be more innocent than that?
4
13640
2400
O que poderia ser
mais inocente do que isso?
00:28
Well, let me introduce you
to my friend Cayla.
5
16800
4800
Bem, vou lhes apresentar
minha amiga Cayla.
00:34
Cayla was voted toy of the year
in countries around the world.
6
22600
3456
Cayla foi eleita o brinquedo do ano
em países do mundo inteiro.
00:38
She connects to the internet
and uses speech recognition technology
7
26080
3576
Ela se conecta à internet e utiliza
tecnologia de reconhecimento de voz
00:41
to answer your child's questions,
8
29680
2136
para responder às perguntas das crianças
00:43
respond just like a friend.
9
31840
1960
e agir como se fosse uma amiga.
00:46
But the power doesn't lie
with your child's imagination.
10
34920
3656
Mas o poder não está
na imaginação das crianças.
00:50
It actually lies with the company
harvesting masses of personal information
11
38600
4536
Está na empresa que reúne uma grande
quantidade de informações pessoais
00:55
while your family is innocently
chatting away in the safety of their home,
12
43160
5536
enquanto sua família conversa
inocentemente na segurança do lar,
01:00
a dangerously false sense of security.
13
48720
2480
com uma perigosa e falsa
sensação de segurança.
01:04
This case sounded alarm bells for me,
14
52840
2656
Esse caso chamou minha atenção,
01:07
as it is my job to protect
consumers' rights in my country.
15
55520
3200
pois meu trabalho é proteger os direitos
do consumidor em meu país.
01:11
And with billions of devices such as cars,
16
59800
3496
Com bilhões de máquinas, como carros,
01:15
energy meters and even vacuum cleaners
expected to come online by 2020,
17
63320
5096
medidores de energia e até aspiradores
que estarão disponíveis on-line em 2020,
01:20
we thought this was a case
worth investigating further.
18
68440
3936
achamos que valeria a pena investigar
esse caso mais profundamente.
01:24
Because what was Cayla doing
19
72400
1896
O que Cayla estaria fazendo
com as informações interessantes
que estava aprendendo?
01:26
with all the interesting things
she was learning?
20
74320
2536
01:28
Did she have another friend she was
loyal to and shared her information with?
21
76880
3640
Havia outra amiga fiel com quem ela
compartilhava essas informações?
01:33
Yes, you guessed right. She did.
22
81640
2776
Sim, vocês adivinharam.
Havia.
01:36
In order to play with Cayla,
23
84440
2096
Para brincar com Cayla,
é preciso baixar um aplicativo
01:38
you need to download an app
to access all her features.
24
86560
3000
para acessar todas
as funcionalidades dela.
01:42
Parents must consent to the terms
being changed without notice.
25
90280
3840
Os pais têm que aceitar a alteração
dos termos de uso sem aviso prévio.
01:47
The recordings of the child,
her friends and family,
26
95280
3776
As gravações da criança,
dos amigos e familiares dela
podem ser utilizadas
para propagandas direcionadas.
01:51
can be used for targeted advertising.
27
99080
1960
01:54
And all this information can be shared
with unnamed third parties.
28
102080
4960
Toda essa informação
pode ser compartilhada
com terceiros desconhecidos.
01:59
Enough? Not quite.
29
107760
2120
É o bastante?
Não totalmente.
02:02
Anyone with a smartphone
can connect to Cayla
30
110880
4296
Qualquer um com um smartphone
pode se conectar a Cayla
a uma certa distância.
02:07
within a certain distance.
31
115200
1600
02:09
When we confronted the company
that made and programmed Cayla,
32
117560
4576
Quando confrontamos a empresa
que criou e programou Cayla,
02:14
they issued a series of statements
33
122160
2256
eles publicaram uma série de declarações
02:16
that one had to be an IT expert
in order to breach the security.
34
124440
4120
dizendo que apenas um especialista de TI
conseguiria violar a segurança.
02:22
Shall we fact-check that statement
and live hack Cayla together?
35
130039
3921
Vamos verificar essa declaração
e invadir Cayla juntos ao vivo?
02:29
Here she is.
36
137920
1200
Aqui está ela.
02:32
Cayla is equipped with a Bluetooth device
37
140200
3376
Cayla tem um dispositivo "bluetooth"
02:35
which can transmit up to 60 feet,
38
143600
2216
que transmite um sinal
em um raio de até 18 m,
02:37
a bit less if there's a wall between.
39
145840
2616
ou um pouco menos,
se houver uma parede no meio.
Ou seja, eu ou qualquer estranho
pode se conectar à boneca
02:40
That means I, or any stranger,
can connect to the doll
40
148480
5296
02:45
while being outside the room
where Cayla and her friends are.
41
153800
3736
mesmo estando fora do quarto
onde estão Cayla e as amigas dela.
02:49
And to illustrate this,
42
157560
2176
Para ilustrar isso,
02:51
I'm going to turn Cayla on now.
43
159760
2136
vou ligar Cayla agora.
02:53
Let's see, one, two, three.
44
161920
1800
Vejamos: um, dois, três.
02:57
There. She's on. And I asked a colleague
45
165040
1976
Pronto, está ligada.
Pedi a um colega para ficar lá fora
com o smartphone dele,
02:59
to stand outside with his smartphone,
46
167040
2096
03:01
and he's connected,
47
169160
1240
e ele já está conectado.
03:03
and to make this a bit creepier ...
48
171320
2096
Para tornar isto um pouco
mais assustador...
03:05
(Laughter)
49
173440
4056
(Risos)
vamos ver o que as crianças
03:09
let's see what kids could hear Cayla say
in the safety of their room.
50
177520
4920
poderiam ouvir Cayla dizer,
na segurança do quarto delas.
03:15
Man: Hi. My name is Cayla. What is yours?
51
183920
2896
Homem: Olá, meu nome é Cayla; e o seu?
03:18
Finn Myrstad: Uh, Finn.
52
186840
1320
Finn Myrstad: Finn.
03:20
Man: Is your mom close by?
53
188960
1296
Homem: Sua mãe está aí?
03:22
FM: Uh, no, she's in the store.
54
190280
1480
FM: Não, foi às compras.
03:24
Man: Ah. Do you want
to come out and play with me?
55
192680
2376
Homem: Quer vir aqui fora brincar comigo?
FM: É uma ótima ideia.
03:27
FM: That's a great idea.
56
195080
1480
03:29
Man: Ah, great.
57
197720
1200
Homem: Ah, ótimo.
03:32
FM: I'm going to turn Cayla off now.
58
200480
2136
FM: Vou desligar Cayla agora.
(Risos)
03:34
(Laughter)
59
202640
1200
03:39
We needed no password
60
207080
2736
Não precisamos de senha,
03:41
or to circumvent any other
type of security to do this.
61
209840
3560
nem passamos por qualquer
tipo de segurança para fazer isso.
03:46
We published a report
in 20 countries around the world,
62
214440
3816
Publicamos uma denúncia
em 20 países do mundo inteiro
03:50
exposing this significant security flaw
63
218280
2976
revelando essa significativa
falha de segurança
03:53
and many other problematic issues.
64
221280
1760
e muitos outros problemas.
03:56
So what happened?
65
224000
1240
E o que aconteceu?
03:57
Cayla was banned in Germany,
66
225840
1640
Cayla foi proibida na Alemanha,
04:00
taken off the shelves
by Amazon and Wal-Mart,
67
228480
3216
foi retirada da Amazon e do Wal-Mart
04:03
and she's now peacefully resting
68
231720
3056
e agora está descansando em paz
04:06
at the German Spy Museum in Berlin.
69
234800
3456
no German Spy Museum, em Berlim.
04:10
(Laughter)
70
238280
2776
(Risos)
04:13
However, Cayla was also for sale
in stores around the world
71
241080
4296
Mas Cayla também esteve à venda
em lojas do mundo inteiro
04:17
for more than a year
after we published our report.
72
245400
3576
durante mais de um ano
após publicarmos nossa denúncia.
04:21
What we uncovered is that
there are few rules to protect us
73
249000
4256
Descobrimos que há poucas
regras que nos protegem,
04:25
and the ones we have
are not being properly enforced.
74
253280
3360
e as que temos não estão sendo
devidamente aplicadas.
04:30
We need to get the security
and privacy of these devices right
75
258000
3856
Precisamos garantir a segurança
e privacidade desses aparelhos
04:33
before they enter the market,
76
261880
2856
antes que cheguem ao mercado,
04:36
because what is the point
of locking a house with a key
77
264760
3976
pois qual é o sentido de trancar
a porta de casa com uma chave
04:40
if anyone can enter it
through a connected device?
78
268760
2920
se qualquer um puder entrar
por meio de um dispositivo conectado?
04:45
You may well think,
"This will not happen to me.
79
273640
3296
Talvez vocês pensem:
"Isso não vai acontecer comigo.
04:48
I will just stay away
from these flawed devices."
80
276960
2600
Vou ficar longe desses aparelhos
com falhas de segurança".
04:52
But that won't keep you safe,
81
280600
2056
Mas isso não nos manterá seguros,
04:54
because simply by
connecting to the internet,
82
282680
3176
porque basta nos conectarmos à internet
04:57
you are put in an impossible
take-it-or-leave-it position.
83
285880
4576
para ficarmos em uma posição
impossível de "pegar ou largar".
05:02
Let me show you.
84
290480
1200
Vou lhes mostrar.
05:04
Like most of you,
I have dozens of apps on my phone,
85
292400
3096
Como muitos de vocês, tenho dezenas
de aplicativos em meu celular.
05:07
and used properly,
they can make our lives easier,
86
295520
2856
Quando utilizados devidamente,
facilitam muito nossa vida
e a tornam mais conveniente
e até mais saudável.
05:10
more convenient and maybe even healthier.
87
298400
2440
05:13
But have we been lulled
into a false sense of security?
88
301960
3520
Mas será que fomos acalmados
com uma falsa sensação de segurança?
05:18
It starts simply by ticking a box.
89
306600
2440
Começa simplesmente marcando uma opção.
05:21
Yes, we say,
90
309880
1776
Dizemos: "Sim, li as condições".
05:23
I've read the terms.
91
311680
1440
05:27
But have you really read the terms?
92
315240
3040
Mas será que lemos mesmo essas condições?
05:31
Are you sure they didn't look too long
93
319200
2296
Têm certeza de que não
pareciam longas demais,
05:33
and your phone was running out of battery,
94
321520
2056
que seu celular estava
ficando sem bateria
e, na última vez que tentamos,
era impossível entendê-las?
05:35
and the last time you tried
they were impossible to understand,
95
323600
3216
05:38
and you needed to use the service now?
96
326840
1840
E precisávamos utilizar o serviço
imediatamente?
05:41
And now, the power
imbalance is established,
97
329840
3656
Assim, foi estabelecido
o desequilíbrio de poder,
05:45
because we have agreed
to our personal information
98
333520
3656
pois concordamos que nossas
informações pessoais
05:49
being gathered and used
on a scale we could never imagine.
99
337200
3120
sejam reunidas e utilizadas
em uma escala jamais imaginada.
05:53
This is why my colleagues and I
decided to take a deeper look at this.
100
341640
3696
Foi por isso que meus colegas e eu
decidimos fazer uma análise mais profunda.
05:57
We set out to read the terms
101
345360
3336
Começamos a ler as condições
06:00
of popular apps on an average phone.
102
348720
2696
dos aplicativos populares
de um celular comum.
06:03
And to show the world
how unrealistic it is
103
351440
3736
Para mostrar ao mundo como é irreal
06:07
to expect consumers
to actually read the terms,
104
355200
3216
esperar que os usuários
leiam realmente as condições,
06:10
we printed them,
105
358440
1496
nós as imprimimos.
06:11
more than 900 pages,
106
359960
1840
São mais de 900 páginas.
06:14
and sat down in our office
and read them out loud ourselves,
107
362800
3600
Em nosso escritório,
nós as lemos em voz alta.
Transmitimos a experiência
ao vivo em nossos sites.
06:19
streaming the experiment
live on our websites.
108
367800
2536
06:22
As you can see, it took quite a long time.
109
370360
2536
Como podem ver, levou muito tempo.
06:24
It took us 31 hours,
49 minutes and 11 seconds
110
372920
4416
Levamos 31 horas, 49 minutos e 11 segundos
06:29
to read the terms on an average phone.
111
377360
2576
para ler as condições de um celular comum.
06:31
That is longer than a movie marathon
of the "Harry Potter" movies
112
379960
4376
Demorou mais do que uma maratona
de filmes do "Harry Potter"
06:36
and the "Godfather" movies combined.
113
384360
2496
e de "O Poderoso Chefão" juntos.
06:38
(Laughter)
114
386880
1400
(Risos)
06:41
And reading is one thing.
115
389600
1936
E ler é uma coisa.
06:43
Understanding is another story.
116
391560
1976
Entender é outra história.
Levaríamos muito mais tempo.
06:45
That would have taken us
much, much longer.
117
393560
3576
Esse é um problema real.
06:49
And this is a real problem,
118
397160
1776
06:50
because companies have argued
for 20 to 30 years
119
398960
3216
As empresas têm argumentado
por 20 a 30 anos
06:54
against regulating the internet better,
120
402200
3056
contra uma melhor
regulamentação da internet,
06:57
because users have consented
to the terms and conditions.
121
405280
3160
porque os usuários têm aceitado
os termos e as condições.
07:02
As we've shown with this experiment,
122
410520
1976
Como mostramos nesta experiência,
07:04
achieving informed consent
is close to impossible.
123
412520
2880
conseguir uma aceitação consciente
é quase impossível.
07:09
Do you think it's fair to put the burden
of responsibility on the consumer?
124
417080
3524
Vocês acham justo colocar o peso
da responsabilidade no usuário?
07:14
I don't.
125
422000
1736
Eu não acho.
07:15
I think we should demand
less take-it-or-leave-it
126
423760
3096
Acho que devíamos exigir
menos "pegar ou largar"
07:18
and more understandable terms
before we agree to them.
127
426880
3176
e mais condições compreensíveis
antes de concordarmos.
07:22
(Applause)
128
430080
1536
(Aplausos)
07:23
Thank you.
129
431640
1200
Obrigado.
07:28
Now, I would like to tell you
a story about love.
130
436200
4880
Agora, gostaria de contar
uma história sobre o amor.
07:34
Some of the world's
most popular apps are dating apps,
131
442080
3536
Alguns dos aplicativos mais populares
do mundo são os de encontros,
07:37
an industry now worth more than,
or close to, three billion dollars a year.
132
445640
4640
uma indústria que vale atualmente
algo em torno de US$ 3 bilhões por ano.
07:43
And of course, we're OK
sharing our intimate details
133
451160
4176
É claro que não temos problemas
em compartilhar detalhes íntimos
com nossa cara-metade.
07:47
with our other half.
134
455360
1240
07:49
But who else is snooping,
135
457240
1976
Mas quem mais está espionando,
07:51
saving and sharing our information
136
459240
2936
gravando e compartilhando
nossas informações
07:54
while we are baring our souls?
137
462200
1640
enquanto estamos revelando
nossa intimidade?
Minha equipe e eu decidimos investigar.
07:56
My team and I decided to investigate this.
138
464520
2200
08:00
And in order to understand
the issue from all angles
139
468920
3016
Para entender o problema
de todos os ângulos
08:03
and to truly do a thorough job,
140
471960
2240
e fazer realmente um trabalho minucioso,
08:07
I realized I had to download
141
475400
1976
percebi que eu mesmo precisava baixar
08:09
one of the world's
most popular dating apps myself.
142
477400
3440
um dos aplicativos de encontros
mais populares do mundo.
08:14
So I went home to my wife ...
143
482440
2296
Então, fui para casa
falar com minha esposa...
08:16
(Laughter)
144
484760
1936
(Risos)
08:18
who I had just married.
145
486720
1656
com quem eu acabara de me casar.
08:20
"Is it OK if I establish a profile
on a very popular dating app
146
488400
4616
"Tudo bem se eu criar um perfil
num aplicativo de encontros muito popular
08:25
for purely scientific purposes?"
147
493040
1896
para fins exclusivamente científicos?"
08:26
(Laughter)
148
494960
1856
(Risos)
08:28
This is what we found.
149
496840
1496
Eis o que encontramos.
08:30
Hidden behind the main menu
was a preticked box
150
498360
3976
Escondida atrás do menu principal
havia uma opção pré-selecionada
08:34
that gave the dating company access
to all my personal pictures on Facebook,
151
502360
6056
que dava à empresa de encontros
acesso a todas as minhas fotos
pessoais do Facebook.
08:40
in my case more than 2,000 of them,
152
508440
2856
No meu caso, eram mais de 2 mil fotos;
08:43
and some were quite personal.
153
511320
2120
algumas muito pessoais.
08:46
And to make matters worse,
154
514400
2216
Para piorar as coisas,
08:48
when we read the terms and conditions,
155
516640
2056
ao ler os termos e as condições,
08:50
we discovered the following,
156
518720
1376
descobrimos o seguinte.
Vou precisar de meus óculos para ler isto.
08:52
and I'm going to need to take out
my reading glasses for this one.
157
520120
3120
08:56
And I'm going to read it for you,
because this is complicated.
158
524400
2936
E vou ler, porque é complicado.
Está bem.
08:59
All right.
159
527360
1200
09:01
"By posting content" --
160
529440
1536
"Ao publicar o conteúdo...",
09:03
and content refers to your pictures, chat
161
531000
1976
o conteúdo refere-se a fotos, conversas
e outras interações no serviço,
09:05
and other interactions
in the dating service --
162
533000
2216
"como parte do serviço,
09:07
"as a part of the service,
163
535240
1256
você garante automaticamente à empresa,
associadas, licenciadas e sucessoras,
09:08
you automatically grant to the company,
164
536520
1976
09:10
its affiliates, licensees and successors
165
538520
2176
09:12
an irrevocable" -- which means
you can't change your mind --
166
540720
3616
de forma irrevogável...",
o que significa que não podemos
mudar de opinião,
09:16
"perpetual" -- which means forever --
167
544360
2776
"perpétua...",
ou seja, para sempre,
09:19
"nonexclusive, transferrable,
sublicensable, fully paid-up,
168
547160
2896
"o direito e a licença
não exclusiva, transferível, paga,
09:22
worldwide right and license
to use, copy, store, perform,
169
550080
2696
universal para usar, copiar, armazenar,
executar, exibir, reproduzir, gravar,
09:24
display, reproduce, record,
170
552800
1336
tocar, adaptar, modificar, distribuir
o conteúdo e preparar derivações dele,
09:26
play, adapt, modify
and distribute the content,
171
554160
2216
09:28
prepare derivative works of the content,
172
556400
1936
ou incorporá-lo a outros trabalhos,
09:30
or incorporate the content
into other works
173
558360
2016
permite e autoriza sublicenças
de precedentes em quaisquer mídia
09:32
and grant and authorize sublicenses
of the foregoing in any media
174
560400
3056
conhecida ou criada posteriormente".
09:35
now known or hereafter created."
175
563480
1560
09:40
That basically means
that all your dating history
176
568640
3816
Isso significa que todo
o histórico do encontro
09:44
and everything related to it
can be used for any purpose for all time.
177
572480
5080
e tudo relacionado a ele pode ser
utilizado para qualquer fim e para sempre.
09:50
Just imagine your children
seeing your sassy dating photos
178
578520
4976
Imaginem seus filhos vendo
suas fotos atrevidas de um encontro
09:55
in a birth control ad 20 years from now.
179
583520
2560
em um anúncio sobre controle
de natalidade daqui a 20 anos.
10:00
But seriously, though --
180
588400
1216
Mas, falando sério...
10:01
(Laughter)
181
589640
1600
(Risos)
10:04
what might these commercial
practices mean to you?
182
592880
2360
o que essas práticas comerciais
significam para vocês?
10:08
For example, financial loss:
183
596320
2240
Por exemplo, perda financeira:
10:11
based on your web browsing history,
184
599480
1696
com base no histórico de navegação,
os algoritmos podem decidir
se conseguiremos ou não um empréstimo.
10:13
algorithms might decide
whether you will get a mortgage or not.
185
601200
2960
10:16
Subconscious manipulation:
186
604840
1480
Manipulação subconsciente:
10:19
companies can analyze your emotions
based on your photos and chats,
187
607560
3696
as empresas podem analisar emoções,
a partir de nossas fotos e conversas,
e nos atacar com anúncios
quando estivermos mais vulneráveis.
10:23
targeting you with ads
when you are at your most vulnerable.
188
611280
3256
10:26
Discrimination:
189
614560
1496
Discriminação:
10:28
a fitness app can sell your data
to a health insurance company,
190
616080
3016
um aplicativo de "fitness" pode
vender dados a uma seguradora
10:31
preventing you from getting
coverage in the future.
191
619120
3056
impedindo-nos de conseguir
cobertura no futuro.
Tudo isso está acontecendo
no mundo atualmente.
10:34
All of this is happening
in the world today.
192
622200
2520
10:37
But of course, not all uses
of data are malign.
193
625800
3336
É claro que nem todos os usos
de dados são nocivos.
Alguns são falhos
ou requerem mais trabalho,
10:41
Some are just flawed or need more work,
194
629160
1976
10:43
and some are truly great.
195
631160
1520
e outros são realmente ótimos.
10:47
And there is some good news as well.
196
635560
3696
Mas também há boas notícias.
10:51
The dating companies
changed their policies globally
197
639280
3296
As empresas de encontros alteraram
as políticas de forma global
10:54
after we filed a legal complaint.
198
642600
1680
depois que registramos uma queixa legal.
10:57
But organizations such as mine
199
645720
2696
Mas empresas como a minha,
que lutam pelos direitos do consumidor,
não podem estar em toda a parte,
11:00
that fight for consumers' rights
can't be everywhere.
200
648440
2976
11:03
Nor can consumers fix this on their own,
201
651440
2536
nem os consumidores conseguem
corrigir isso sozinhos,
11:06
because if we know
that something innocent we said
202
654000
3576
porque, se soubermos que algo
que dissemos de maneira inocente
11:09
will come back to haunt us,
203
657600
1456
voltará para nos atormentar,
deixaremos de falar.
11:11
we will stop speaking.
204
659080
1896
11:13
If we know that we are being
watched and monitored,
205
661000
3376
Se soubermos que estamos
sendo vistos e controlados,
11:16
we will change our behavior.
206
664400
2096
mudaremos nosso comportamento.
11:18
And if we can't control who has our data
and how it is being used,
207
666520
3896
E, se não pudermos controlar
quem tem nossos dados
e como estão sendo utilizados,
11:22
we have lost the control of our lives.
208
670440
1840
teremos perdido o controle de nossa vida.
11:26
The stories I have told you today
are not random examples.
209
674400
3496
As histórias que contei hoje
não são exemplos aleatórios.
11:29
They are everywhere,
210
677920
1776
Estão por toda a parte
11:31
and they are a sign
that things need to change.
211
679720
2856
e são um sinal de que as coisas
precisam mudar.
Como podemos conseguir essa mudança?
11:34
And how can we achieve that change?
212
682600
2096
11:36
Well, companies need to realize
that by prioritizing privacy and security,
213
684720
5576
As empresas precisam perceber
que, ao priorizar a privacidade
e a segurança,
11:42
they can build trust
and loyalty to their users.
214
690320
2960
podem criar confiança
e lealdade para os usuários.
11:46
Governments must create a safer internet
215
694520
3096
Os governos precisam criar
uma internet mais segura
garantindo o cumprimento
e a atualização das regras.
11:49
by ensuring enforcement
and up-to-date rules.
216
697640
2880
E quanto a nós, cidadãos?
11:53
And us, the citizens?
217
701400
2216
11:55
We can use our voice
218
703640
1816
Podemos usar nossa voz
11:57
to remind the world that technology
can only truly benefit society
219
705480
5096
para lembrar ao mundo que a tecnologia
só poderá beneficiar
verdadeiramente a sociedade
se respeitar os direitos básicos.
12:02
if it respects basic rights.
220
710600
2600
12:05
Thank you so much.
221
713720
1576
Muito obrigado.
12:07
(Applause)
222
715320
4080
(Aplausos)
Translated by Maurício Kakuei Tanaka
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Finn Lützow-Holm Myrstad - Information security researcher
Finn Lützow-Holm Myrstad leads the development of better, more ethical digital policies and standards at the Norwegian Consumer Council.

Why you should listen

Using targeted research and global coalition building, Finn Lützow-Holm Myrstad and his team convince governments and companies to improve their policies. Myrstad is the EU Chair of the Transatlantic Consumer Dialogue's INFOSOC Committee, which gathers 75 organizations from both sides of the Atlantic. Myrstad shapes opinion through addresses to audiences such as the G20, European Parliament, SXSW, Princeton University and TED.

Some of their projects so far include privacy and security challenges posed by: internet-connected devicesuser terms in apps and tech companies use of dark patterns. Myrstad informs his digital work with his business and LSE degrees as well as his previous experience in politics, energy and the private sector. In 2018 he was named amongst Politico's top influencers in the "GDPR power matrix," and in 2017 he and his team won the European Excellence Awards for best Public Affairs campaign for the work on connected toys.

More profile about the speaker
Finn Lützow-Holm Myrstad | Speaker | TED.com