ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Quando a tecnologia puder ler mentes, como protegeremos nossa privacidade?

Filmed:
1,819,292 views

A tecnologia que pode decodificar sua atividade cerebral e revelar o que você está pensando e sentindo está chegando, diz a especialista em direito e ética Nita Farahany. O que isso significará para o nosso senso de privacidade já violado? Em uma palestra de advertência, Farahany alerta sobre uma sociedade em que as pessoas são presas por apenas pensar em cometer um crime (como em "Minority Report - A Nova Lei") e interesses privados vendem nossos dados cerebrais - e defende o direito à liberdade cognitiva que protege nossa liberdade de pensamento e autodeterminação.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the months following
the 2009 presidential election in Iran,
0
1096
4714
Nos meses seguintes
à eleição presidencial de 2009 no Irã,
00:17
protests erupted across the country.
1
5834
2894
protestos eclodiram em todo o país.
00:21
The Iranian government
violently suppressed
2
9685
2896
O governo iraniano reprimiu violentamente
00:24
what came to be known
as the Iranian Green Movement,
3
12605
3979
o que veio a ser conhecido
como o Movimento Verde Iraniano,
00:28
even blocking mobile signals
4
16608
2053
bloqueando até os sinais de celular
00:30
to cut off communication
between the protesters.
5
18685
2714
para cortar a comunicação
entre os manifestantes.
00:34
My parents, who emigrated
to the United States in the late 1960s,
6
22316
4669
Meus pais, que emigraram
para os EUA no final dos anos 1960,
00:39
spend substantial time there,
7
27009
1794
passaram um tempo considerável lá,
00:40
where all of my large,
extended family live.
8
28827
3153
onde toda minha imensa família vive.
00:44
When I would call my family in Tehran
9
32832
3129
Quando eu telefonava
para a minha família em Teerã,
00:47
during some of the most violent
crackdowns of the protest,
10
35985
3452
durante algumas das mais violentas
repressões ao protesto,
00:51
none of them dared discuss
with me what was happening.
11
39461
3252
ninguém ousava falar comigo
sobre o que estava acontecendo.
00:55
They or I knew to quickly steer
the conversation to other topics.
12
43196
3529
Sabíamos conduzir a conversa
rapidamente para outros tópicos.
00:59
All of us understood
what the consequences could be
13
47163
3380
Todos nós entendíamos
quais eram as consequências
01:02
of a perceived dissident action.
14
50567
2540
de uma ação dissidente percebida.
01:06
But I still wish I could have known
what they were thinking
15
54095
3469
Mas ainda assim eu gostaria de saber
o que eles estavam pensando
01:09
or what they were feeling.
16
57588
1418
ou o que estavam sentindo.
01:12
What if I could have?
17
60217
1393
E se eu pudesse saber?
01:14
Or more frighteningly,
18
62149
1151
Ou mais assustadoramente,
01:15
what if the Iranian government could have?
19
63324
2761
e se o governo iraniano pudesse saber?
01:18
Would they have arrested them
based on what their brains revealed?
20
66695
3244
Eles os teriam prendido com base
no que os cérebros deles revelassem?
01:22
That day may be closer than you think.
21
70933
2944
Esse dia pode estar mais perto
do que vocês pensam.
01:26
With our growing capabilities
in neuroscience, artificial intelligence
22
74527
3811
Com nossas crescentes capacidades
em neurociência, inteligência artificial
01:30
and machine learning,
23
78362
1703
e aprendizado de máquina,
01:32
we may soon know a lot more
of what's happening in the human brain.
24
80089
4075
em breve saberemos muito mais sobre
o que está acontecendo no cérebro humano.
01:37
As a bioethicist, a lawyer, a philosopher
25
85083
3310
Como bioeticista, advogada, filósofa
01:40
and an Iranian-American,
26
88417
1867
e iraniana-americana,
01:42
I'm deeply concerned
about what this means for our freedoms
27
90308
3787
estou profundamente preocupada com o que
isso significa para as nossas liberdades
01:46
and what kinds of protections we need.
28
94119
2171
e que tipo de proteções precisamos.
01:48
I believe we need
a right to cognitive liberty,
29
96993
3460
Acredito que precisamos
de um direito à liberdade cognitiva,
01:52
as a human right
that needs to be protected.
30
100477
2892
como um direito humano
que precisa ser protegido.
01:55
If not, our freedom of thought,
31
103772
2643
Senão, nossa liberdade de pensamento,
01:58
access and control over our own brains
32
106439
3024
acesso e controle sobre nossos cérebros,
02:01
and our mental privacy will be threatened.
33
109487
2841
e nossa privacidade mental será ameaçada.
02:05
Consider this:
34
113698
1158
Considerem isto:
uma pessoa comum tem milhares
de pensamentos todos os dias.
02:06
the average person thinks
thousands of thoughts each day.
35
114880
3314
02:10
As a thought takes form,
36
118697
1151
Ao pensarmos em algo,
02:11
like a math calculation
or a number, a word,
37
119872
5056
como um cálculo matemático,
um número ou uma palavra,
02:16
neurons are interacting in the brain,
38
124952
2885
neurônios interagem no cérebro,
02:19
creating a miniscule electrical discharge.
39
127861
3088
causando uma descarga elétrica minúscula.
02:23
When you have a dominant
mental state, like relaxation,
40
131713
3452
Quando temos um estado mental
dominante, como o relaxamento,
02:27
hundreds and thousands of neurons
are firing in the brain,
41
135189
4175
centenas e milhares de neurônios
disparam no cérebro,
02:31
creating concurrent electrical discharges
in characteristic patterns
42
139388
4218
criando descargas elétricas
concomitantes em padrões característicos
02:35
that can be measured
with electroencephalography, or EEG.
43
143630
4865
que podem ser medidos
com eletroencefalografia, ou EEG.
02:41
In fact, that's what
you're seeing right now.
44
149118
2160
Na verdade, é isso que estão vendo agora.
02:43
You're seeing my brain activity
that was recorded in real time
45
151956
3964
Estão vendo minha atividade cerebral
que foi gravada em tempo real
02:47
with a simple device
that was worn on my head.
46
155944
2735
com um dispositivo simples
que foi usado na minha cabeça.
02:51
What you're seeing is my brain activity
when I was relaxed and curious.
47
159669
5653
O que estão vendo é a minha atividade
cerebral quando estava relaxada e curiosa.
02:58
To share this information with you,
48
166097
1755
Para compartilhar essas informações,
usei um dos primeiros dispositivos
de EEG baseados no consumidor
02:59
I wore one of the early
consumer-based EEG devices
49
167876
3020
03:02
like this one,
50
170920
1211
como este,
03:04
which recorded the electrical
activity in my brain in real time.
51
172155
3988
que registrou a atividade elétrica
no meu cérebro em tempo real.
03:08
It's not unlike the fitness trackers
that some of you may be wearing
52
176849
3826
Não é diferente dos monitoramentos
de atividades que podem estar usando
03:12
to measure your heart rate
or the steps that you've taken,
53
180699
3586
para medir a frequência cardíaca
ou os passos que vocês deram,
03:16
or even your sleep activity.
54
184309
1587
até mesmo a atividade do sono.
03:19
It's hardly the most sophisticated
neuroimaging technique on the market.
55
187154
3824
Não é nem a técnica de neuroimagem
mais sofisticada do mercado.
03:23
But it's already the most portable
56
191597
2378
Mas já é a mais portátil
03:25
and the most likely to impact
our everyday lives.
57
193999
3152
e mais provável de impactar
nossa vida cotidiana.
03:29
This is extraordinary.
58
197915
1503
Isso é extraordinário.
03:31
Through a simple, wearable device,
59
199442
2505
Através de um dispositivo simples e usável
03:33
we can literally see
inside the human brain
60
201971
3548
podemos literalmente ver
dentro do cérebro humano
03:37
and learn aspects of our mental landscape
without ever uttering a word.
61
205543
6476
e descobrir aspectos do nosso ambiente
mental sem sequer proferir uma palavra.
03:44
While we can't reliably decode
complex thoughts just yet,
62
212829
3653
Embora não possamos decodificar de maneira
confiável pensamentos complexos,
03:48
we can already gauge a person's mood,
63
216506
2519
já podemos avaliar o humor de uma pessoa
03:51
and with the help
of artificial intelligence,
64
219049
2873
e, com a ajuda da inteligência artificial,
03:53
we can even decode
some single-digit numbers
65
221946
4341
podemos até decodificar
alguns números de um dígito,
03:58
or shapes or simple words
that a person is thinking
66
226311
4882
formas ou palavras simples
que uma pessoa está pensando,
04:03
or hearing, or seeing.
67
231217
2189
ouvindo ou vendo.
04:06
Despite some inherent limitations in EEG,
68
234345
3365
Apesar das limitações inerentes ao EEG,
04:09
I think it's safe to say
that with our advances in technology,
69
237734
4720
acho que é seguro dizer
que com nossos avanços em tecnologia,
04:14
more and more of what's happening
in the human brain
70
242478
3809
cada vez mais do que está
acontecendo no cérebro humano
04:18
can and will be decoded over time.
71
246311
2310
pode e será decodificado com o tempo.
04:21
Already, using one of these devices,
72
249362
2746
Usando um desses dispositivos,
04:24
an epileptic can know
they're going to have an epileptic seizure
73
252132
3255
um epiléptico já pode saber
que terá uma crise epiléptica
04:27
before it happens.
74
255411
1436
antes que isso aconteça.
04:28
A paraplegic can type on a computer
with their thoughts alone.
75
256871
4603
Um paraplégico pode digitar no computador
apenas com os pensamentos dele.
04:34
A US-based company has developed
a technology to embed these sensors
76
262485
4183
Uma empresa norte-americana desenvolveu
uma tecnologia para incorporar os sensores
04:38
into the headrest of automobilies
77
266692
2230
no encosto de cabeça dos automóveis
04:40
so they can track driver concentration,
78
268946
2505
para que possam monitorar
a concentração do motorista,
04:43
distraction and cognitive load
while driving.
79
271475
2667
a distração e a carga cognitiva
durante a condução.
04:46
Nissan, insurance companies
and AAA have all taken note.
80
274912
4058
A Associação Automobilística Americana,
seguradoras e a Nissan prestaram atenção.
04:51
You could even watch this
choose-your-own-adventure movie
81
279949
4508
Podemos até assistir a este filme
do tipo "Escolha Sua Aventura":
04:56
"The Moment," which, with an EEG headset,
82
284481
4240
"The Moment" que com um fone de ouvido EEG
05:00
changes the movie
based on your brain-based reactions,
83
288745
3926
muda o filme com base
nas reações cerebrais,
05:04
giving you a different ending
every time your attention wanes.
84
292695
4353
dando um final diferente toda vez
que nossa atenção diminui.
05:11
This may all sound great,
85
299154
2763
Isso tudo pode parecer ótimo
05:13
and as a bioethicist,
86
301941
2189
e, como bioeticista,
05:16
I am a huge proponent of empowering people
87
304154
3613
sou uma grande defensora
de capacitar as pessoas
05:19
to take charge of their own
health and well-being
88
307791
2616
para tomarem conta
da própria saúde e bem-estar,
05:22
by giving them access
to information about themselves,
89
310431
2918
dando-lhes acesso
a informações sobre si mesmos,
05:25
including this incredible
new brain-decoding technology.
90
313373
2976
incluindo esta incrível tecnologia
de decodificação do cérebro.
05:29
But I worry.
91
317878
1167
Mas eu me preocupo.
05:31
I worry that we will voluntarily
or involuntarily give up
92
319736
4760
Me preocupo que abriremos mão,
voluntariamente ou involuntariamente,
05:36
our last bastion of freedom,
our mental privacy.
93
324520
4118
de nosso último bastião de liberdade,
nossa privacidade mental.
05:41
That we will trade our brain activity
94
329302
2925
Que vamos trocar atividade cerebral
05:44
for rebates or discounts on insurance,
95
332251
3046
por abatimentos ou descontos em seguros,
05:48
or free access
to social-media accounts ...
96
336391
2603
livre acesso a contas de redes sociais
05:52
or even to keep our jobs.
97
340444
1848
ou até para manter nossos empregos.
05:54
In fact, in China,
98
342900
1913
De fato, na China,
05:58
the train drivers on
the Beijing-Shanghai high-speed rail,
99
346199
5897
os maquinistas do trem
de alta velocidade Pequim-Xangai,
06:04
the busiest of its kind in the world,
100
352120
2532
o mais movimentado do tipo no mundo,
06:06
are required to wear EEG devices
101
354676
2476
são obrigados a usar dispositivos de EEG
06:09
to monitor their brain activity
while driving.
102
357176
2427
para monitorar a atividade
cerebral durante a condução.
06:12
According to some news sources,
103
360157
2226
Segundo algumas fontes jornalísticas,
06:14
in government-run factories in China,
104
362407
2679
em fábricas administradas
pelo governo chinês,
06:17
the workers are required to wear
EEG sensors to monitor their productivity
105
365110
5364
trabalhadores são obrigados a usar sensor
de EEG para monitorar a produtividade
06:22
and their emotional state at work.
106
370498
2115
e o estado emocional deles no trabalho.
06:25
Workers are even sent home
107
373267
2310
Os funcionários são até mandados para casa
06:27
if their brains show less-than-stellar
concentration on their jobs,
108
375601
4054
se o cérebro deles mostrar concentração
menor do que excepcional no trabalho,
06:31
or emotional agitation.
109
379679
2122
ou agitação emocional.
06:35
It's not going to happen tomorrow,
110
383189
1745
Isso não vai acontecer amanhã,
06:36
but we're headed to a world
of brain transparency.
111
384958
3086
mas estamos caminhando para um mundo
de transparência cerebral.
06:40
And I don't think people understand
that that could change everything.
112
388537
3440
E não acho que as pessoas entendam
que isso poder mudar tudo.
06:44
Everything from our definitions
of data privacy to our laws,
113
392474
3675
Tudo, desde nossas definições
de privacidade de dados, nossas leis,
06:48
to our ideas about freedom.
114
396173
1800
até nossos conceitos de liberdade.
06:50
In fact, in my lab at Duke University,
115
398731
3077
Na verdade, no meu laboratório
da Duke University,
06:53
we recently conducted a nationwide study
in the United States
116
401832
3175
recentemente conduzimos um estudo
de âmbito nacional nos EUA
06:57
to see if people appreciated
117
405031
1959
para ver se as pessoas compreendiam
06:59
the sensitivity
of their brain information.
118
407014
2071
a vulnerabilidade da informação cerebral.
07:02
We asked people to rate
their perceived sensitivity
119
410356
3356
Pedimos às pessoas que classificassem
a vulnerabilidade percebida
07:05
of 33 different kinds of information,
120
413736
2231
em 33 tipos diferentes de informação,
07:07
from their social security numbers
121
415991
2220
desde o número do seguro social
07:10
to the content
of their phone conversations,
122
418235
2597
até o conteúdo de conversas telefônicas,
07:12
their relationship history,
123
420856
2193
históricos de relacionamento,
07:15
their emotions, their anxiety,
124
423073
1942
emoções, ansiedade,
07:17
the mental images in their mind
125
425039
1946
imagens mentais
07:19
and the thoughts in their mind.
126
427009
1538
e pensamentos.
07:21
Shockingly, people rated their social
security number as far more sensitive
127
429481
5229
Surpreendentemente, classificaram o número
do seguro social como mais vulnerável
07:26
than any other kind of information,
128
434734
2203
do que qualquer outro tipo de informação,
07:28
including their brain data.
129
436961
2435
incluindo seus dados cerebrais.
07:32
I think this is because
people don't yet understand
130
440380
3216
Eu acho que isso é porque
as pessoas ainda não entendem
07:35
or believe the implications
of this new brain-decoding technology.
131
443620
4063
ou acreditam nas implicações dessa nova
tecnologia de decodificação cerebral.
07:40
After all, if we can know
the inner workings of the human brain,
132
448629
3289
Afinal, se podemos conhecer
o funcionamento interno do cérebro humano,
07:43
our social security numbers
are the least of our worries.
133
451942
2706
nosso número de seguro social
é a menor das preocupações.
07:46
(Laughter)
134
454672
1285
(Risos)
07:47
Think about it.
135
455981
1167
Pensem nisso.
07:49
In a world of total brain transparency,
136
457172
2396
Num mundo de total transparência cerebral,
07:51
who would dare have
a politically dissident thought?
137
459592
2429
quem teria um pensamento
politicamente dissidente?
07:55
Or a creative one?
138
463279
1541
Ou um pensamento criativo?
07:57
I worry that people will self-censor
139
465503
3476
Me preocupo que as pessoas se autocensurem
08:01
in fear of being ostracized by society,
140
469003
3302
com medo de serem excluídas da sociedade,
08:04
or that people will lose their jobs
because of their waning attention
141
472329
3813
ou que percam o emprego
por causa da diminuição da atenção
08:08
or emotional instability,
142
476166
2150
ou instabilidade emocional,
08:10
or because they're contemplating
collective action against their employers.
143
478340
3550
ou porque elas estejam pensando
em ações coletivas contra os empregadores.
08:14
That coming out
will no longer be an option,
144
482478
3177
Que "se assumir" não seja mais uma opção,
08:17
because people's brains will long ago
have revealed their sexual orientation,
145
485679
5067
porque o cérebro já tenha revelado
há muito tempo a orientação sexual delas,
08:22
their political ideology
146
490770
1822
a ideologia política
08:24
or their religious preferences,
147
492616
2025
ou as preferências religiosas,
08:26
well before they were ready
to consciously share that information
148
494665
3080
bem antes de estarem prontas
para compartilhar essa informação
08:29
with other people.
149
497769
1253
com outras pessoas.
08:31
I worry about the ability of our laws
to keep up with technological change.
150
499565
4912
Preocupo-me com a capacidade das leis
de acompanharem as mudanças tecnológicas.
08:36
Take the First Amendment
of the US Constitution,
151
504986
2320
Tomemos a Primeira Emenda
da Constituição dos EUA,
que protege a liberdade de expressão.
08:39
which protects freedom of speech.
152
507330
1958
08:41
Does it also protect freedom of thought?
153
509312
1927
Protege também a liberdade de pensamento?
08:43
And if so, does that mean that we're free
to alter our thoughts however we want?
154
511944
4169
Se assim for, significa que estamos livres
pra mudar nosso pensamento como quisermos?
08:48
Or can the government or society tell us
what we can do with our own brains?
155
516137
4674
Ou o governo e a sociedade podem dizer
o que fazemos com nosso próprio cérebro?
08:53
Can the NSA spy on our brains
using these new mobile devices?
156
521591
3717
A NSA pode espionar nossos cérebros
usando esses novos dispositivos móveis?
08:58
Can the companies that collect
the brain data through their applications
157
526053
4119
As empresas que coletam
dados cerebrais através de aplicativos
podem vender esta informação a terceiros?
09:02
sell this information to third parties?
158
530196
2074
09:05
Right now, no laws prevent them
from doing so.
159
533174
3222
No momento, nenhuma lei
os impede de fazer isso.
09:09
It could be even more problematic
160
537203
2025
Pode ser ainda mais problemático
09:11
in countries that don't share
the same freedoms
161
539252
2519
em países que não compartilham
as mesmas liberdades
09:13
enjoyed by people in the United States.
162
541795
2103
desfrutadas pelas pessoas nos EUA.
09:16
What would've happened during
the Iranian Green Movement
163
544883
3787
O que teria acontecido durante
o Movimento Verde Iraniano
09:20
if the government had been
monitoring my family's brain activity,
164
548694
3901
se o governo estivesse monitorando
a atividade cerebral da minha família
09:24
and had believed them
to be sympathetic to the protesters?
165
552619
4007
e acreditasse que eles
apoiavam os manifestantes?
09:30
Is it so far-fetched to imagine a society
166
558091
3047
Será impossível imaginar uma sociedade
09:33
in which people are arrested
based on their thoughts
167
561162
2842
em que as pessoas são presas
com base nos pensamentos delas
09:36
of committing a crime,
168
564028
1167
de cometerem crimes,
09:37
like in the science-fiction
dystopian society in "Minority Report."
169
565219
4312
como na sociedade distópica de ficção
científica do filme "Minority Report"?
09:42
Already, in the United States, in Indiana,
170
570286
4323
Nos Estados Unidos, em Indiana,
09:46
an 18-year-old was charged
with attempting to intimidate his school
171
574633
4937
um jovem de 18 anos foi acusado
de tentar intimidar a escola dele
09:51
by posting a video of himself
shooting people in the hallways ...
172
579594
3309
postando um vídeo de si mesmo
atirando em pessoas nos corredores.
09:55
Except the people were zombies
173
583881
3007
Só que as pessoas eram zumbis
09:58
and the video was of him playing
an augmented-reality video game,
174
586912
5047
e o vídeo era dele jogando
um videogame de realidade aumentada,
10:03
all interpreted to be a mental projection
of his subjective intent.
175
591983
4772
tudo interpretado como uma projeção mental
da intenção subjetiva dele.
10:10
This is exactly why our brains
need special protection.
176
598456
4612
É exatamente por isso que nossos cérebros
precisam de proteção especial.
10:15
If our brains are just as subject
to data tracking and aggregation
177
603092
3556
Se nossos cérebros são tão sujeitos
ao rastreamento e agregação de dados
10:18
as our financial records and transactions,
178
606672
2532
quanto nossos registros
financeiros e transações,
10:21
if our brains can be hacked
and tracked like our online activities,
179
609228
4285
se podemos ser invadidos e rastreados
como nossas atividades on-line,
10:25
our mobile phones and applications,
180
613537
2361
telefones celulares e aplicativos,
10:27
then we're on the brink of a dangerous
threat to our collective humanity.
181
615922
4269
então estamos à beira de uma perigosa
ameaça à nossa humanidade coletiva.
Antes de entrarem em pânico,
10:33
Before you panic,
182
621406
1309
10:36
I believe that there are solutions
to these concerns,
183
624012
3144
acredito que existam soluções
para essas preocupações,
10:39
but we have to start by focusing
on the right things.
184
627180
2825
mas temos que começar
nos concentrando nas coisas certas.
10:42
When it comes to privacy
protections in general,
185
630580
2921
Quando se trata de proteções
de privacidade em geral,
10:45
I think we're fighting a losing battle
186
633525
1826
acho que estamos numa batalha perdida
10:47
by trying to restrict
the flow of information.
187
635375
2858
tentando limitar o fluxo de informações.
10:50
Instead, we should be focusing
on securing rights and remedies
188
638257
4057
Em vez disso, devemos nos concentrar
em garantir direitos e soluções
10:54
against the misuse of our information.
189
642338
2275
contra o uso indevido de informações.
10:57
If people had the right to decide
how their information was shared,
190
645291
3285
Se as pessoas puderem decidir
como as informações são compartilhadas,
11:00
and more importantly, have legal redress
191
648600
2921
e mais importante, tiverem reparação legal
11:03
if their information
was misused against them,
192
651545
2428
se a informação delas for mal utilizada;
11:05
say to discriminate against them
in an employment setting
193
653997
2786
por exemplo discriminando-as
num ambiente de trabalho,
11:08
or in health care or education,
194
656807
2785
em cuidados de saúde ou educação;
11:11
this would go a long way to build trust.
195
659616
2571
isso contribuiria muito
para a construção da confiança.
11:14
In fact, in some instances,
196
662843
1718
De fato, em alguns casos,
11:16
we want to be sharing more
of our personal information.
197
664585
3524
nós queremos compartilhar
mais informações pessoais.
11:20
Studying aggregated information
can tell us so much
198
668697
3047
Estudar informação agregada
pode nos dizer muito
11:23
about our health and our well-being,
199
671768
2747
sobre a nossa saúde e nosso bem-estar,
11:26
but to be able to safely share
our information,
200
674539
3313
mas para poder compartilhar
com segurança nossas informações,
11:29
we need special protections
for mental privacy.
201
677876
3223
precisamos de proteções especiais
para a privacidade mental.
11:33
This is why we need
a right to cognitive liberty.
202
681832
3147
É por isso que precisamos
do direito à liberdade cognitiva.
11:37
This right would secure for us
our freedom of thought and rumination,
203
685543
4079
Esse direito asseguraria nossa liberdade
de pensamento e reflexão,
11:41
our freedom of self-determination,
204
689646
2540
nossa liberdade de autodeterminação,
11:44
and it would insure that we have
the right to consent to or refuse
205
692210
4390
e asseguraria que teríamos
o direito de consentir ou recusar
11:48
access and alteration
of our brains by others.
206
696624
2857
o acesso e alteração
de nossos cérebros por outros.
11:51
This right could be recognized
207
699811
2112
Este direito pode ser reconhecido
11:53
as part of the Universal Declaration
of Human Rights,
208
701947
2883
como parte da Declaração Universal
dos Direitos Humanos,
11:56
which has established mechanisms
209
704854
2388
que estabeleceu mecanismos
11:59
for the enforcement
of these kinds of social rights.
210
707266
2856
para a aplicação desse tipo
de direitos sociais.
12:03
During the Iranian Green Movement,
211
711872
2070
Durante o Movimento Verde Iraniano,
12:05
the protesters used the internet
and good old-fashioned word of mouth
212
713966
5186
os manifestantes usaram a internet
e o bom e velho boca-a-boca
12:11
to coordinate their marches.
213
719176
1948
para coordenar as marchas.
12:14
And some of the most oppressive
restrictions in Iran
214
722238
2769
E algumas das restrições
mais opressivas no Irã
12:17
were lifted as a result.
215
725031
1877
surgiram como resultado.
12:20
But what if the Iranian government
had used brain surveillance
216
728047
4087
Mas e se o governo iraniano
tivesse usado a vigilância cerebral
12:24
to detect and prevent the protest?
217
732158
3061
para detectar e impedir o protesto?
12:28
Would the world have ever heard
the protesters' cries?
218
736847
3176
O mundo teria ouvido
os clamores dos manifestantes?
12:33
The time has come for us to call
for a cognitive liberty revolution.
219
741732
5121
Chegou a hora de convocarmos
uma revolução da liberdade cognitiva.
Para ter certeza de que desenvolvemos
a tecnologia com responsabilidade,
12:39
To make sure that we responsibly
advance technology
220
747559
3264
12:42
that could enable us to embrace the future
221
750847
2978
podendo nos permitir abraçar o futuro
12:45
while fiercely protecting all of us
from any person, company or government
222
753849
6717
protegendo ferozmente a todos nós
de qualquer pessoa, empresa ou governo
12:52
that attempts to unlawfully access
or alter our innermost lives.
223
760590
5040
que tente acessar ou alterar ilegalmente
nossa vida íntima.
12:58
Thank you.
224
766659
1174
Obrigada.
12:59
(Applause)
225
767857
3492
(Aplausos)
Translated by Carolina Aguirre
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com