ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Quando a tecnologia puder ler mentes, como vamos proteger a nossa privacidade?

Filmed:
1,819,292 views

Está próxima a tecnologia que pode descodificar a vossa atividade cerebral e revelar o que estão a pensar e a sentir, diz Nita Farahany, académica jurista e especialista em assuntos éticos. O que pode isto significar para o nosso já violado sentido de privacidade? Numa palestra de alerta, Farahany alerta para uma sociedade em que as pessoas são presas apenas por pensarem em praticar um crime (como em "Minority Report") e interesses privados vendem os nossos dados cerebrais — e refere a necessidade do direito à liberdade cognitiva que proteja a nossa liberdade de pensamento e autodeterminação.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsmeses followingSegue
the 2009 presidentialpresidencial electioneleição in IranIrã,
0
1096
4714
Nos meses depois da eleição
presidencial de 2009 no Irão,
00:17
protestsprotestos eruptedentrou em erupção acrossatravés the countrypaís.
1
5834
2894
surgiram protestos por todo o país.
O governo iraniano suprimiu violentamente
00:21
The IranianIraniano governmentgoverno
violentlyviolentamente suppressedsuprimida
2
9685
2896
o que veio a ser conhecido
como o Movimento Verde Iraniano,
00:24
what cameveio to be knownconhecido
as the IranianIraniano GreenVerde MovementMovimento,
3
12605
3979
00:28
even blockingbloqueio mobileMóvel signalssinais
4
16608
2053
chegando a bloquear os sinais de telemóvel
00:30
to cutcortar off communicationcomunicação
betweenentre the protestersmanifestantes.
5
18685
2714
para cortar a comunicação
entre os manifestantes.
00:34
My parentsparentes, who emigratedemigrou
to the UnitedUnidos StatesEstados-Membros in the lateatrasado 1960s,
6
22316
4669
Os meus pais, que emigraram
para os EUA no fim dos anos 60,
passaram lá um tempo substancial,
00:39
spendgastar substantialsubstancial time there,
7
27009
1794
00:40
where all of my largeampla,
extendedestendido familyfamília liveviver.
8
28827
3153
onde vive toda a minha grande família.
00:44
When I would call my familyfamília in TehranTeerão
9
32832
3129
Quando eu ligava
à minha família em Teerão
durante algumas das repressões
mais violentas dos protestos,
00:47
duringdurante some of the mosta maioria violentviolento
crackdownsrepressão of the protestprotesto,
10
35985
3452
00:51
noneNenhum of them daredousou discussdiscutir
with me what was happeningacontecendo.
11
39461
3252
nenhum deles ousava falar comigo
sobre o que estava a acontecer.
00:55
They or I knewsabia to quicklyrapidamente steerboi
the conversationconversação to other topicstópicos.
12
43196
3529
Eles ou eu sabíamos rapidamente
desviar a conversa para outros tópicos.
00:59
All of us understoodEntendido
what the consequencesconsequências could be
13
47163
3380
Todos nós percebíamos
quais poderiam ser as consequências
01:02
of a perceivedpercebida dissidentdissidente actionaçao.
14
50567
2540
de uma ação dissidente percetível.
01:06
But I still wishdesejo I could have knownconhecido
what they were thinkingpensando
15
54095
3469
Mas eu ainda desejo poder
ter sabido o que eles pensavam
01:09
or what they were feelingsentindo-me.
16
57588
1418
ou o que estavam a sentir.
01:12
What if I could have?
17
60217
1393
E se eu pudesse ter sabido?
01:14
Or more frighteninglyassustadoramente,
18
62149
1151
Ou mais assustador,
01:15
what if the IranianIraniano governmentgoverno could have?
19
63324
2761
e se o governo iraniano pudesse?
01:18
Would they have arrestedpreso them
basedSediada on what theirdeles brainscérebro revealedrevelado?
20
66695
3244
Tê-los-iam prendido com base
no que os cérebros deles revelavam?
01:22
That day maypode be closermais perto than you think.
21
70933
2944
Esse dia pode estar mais próximo
do que pensam.
01:26
With our growingcrescendo capabilitiescapacidades
in neuroscienceneurociência, artificialartificial intelligenceinteligência
22
74527
3811
Com as nossas capacidades
crescentes em neurociência,
em inteligência artificial
e em aprendizagem de máquinas,
01:30
and machinemáquina learningAprendendo,
23
78362
1703
01:32
we maypode soonem breve know a lot more
of what's happeningacontecendo in the humanhumano braincérebro.
24
80089
4075
podemos em breve saber muito mais
sobre o que acontece no cérebro humano.
01:37
As a bioethicistBioética, a lawyeradvogado, a philosopherfilósofo
25
85083
3310
Como especialista em bioética,
advogada, filósofa
01:40
and an Iranian-AmericanIraniano-americano,
26
88417
1867
e iraniana-americana,
01:42
I'm deeplyprofundamente concernedpreocupado
about what this meanssignifica for our freedomsliberdades
27
90308
3787
estou profundamente preocupada
com o que isso significa
para a nossa liberdade
01:46
and what kindstipos of protectionsproteções we need.
28
94119
2171
e que tipo de proteções precisamos.
01:48
I believe we need
a right to cognitivecognitivo libertyliberdade,
29
96993
3460
Acredito que precisamos
de um direito de liberdade cognitiva,
01:52
as a humanhumano right
that needsprecisa to be protectedprotegido.
30
100477
2892
como um direito humano
que precisa de ser protegido.
01:55
If not, our freedomliberdade of thought,
31
103772
2643
Se assim não for,
a liberdade de pensamento,
01:58
accessAcesso and controlao controle over our ownpróprio brainscérebro
32
106439
3024
do acesso e controlo do nosso cérebro
02:01
and our mentalmental privacyprivacidade will be threatenedameaçou.
33
109487
2841
e a nossa privacidade mental
será ameaçada.
02:05
ConsiderConsidere this:
34
113698
1158
Considerem isto:
02:06
the averagemédia personpessoa thinksacha
thousandsmilhares of thoughtspensamentos eachcada day.
35
114880
3314
uma pessoa comum tem
milhares de pensamentos todos os dias.
Assim que um pensamento ganha forma,
02:10
As a thought takes formFormato,
36
118697
1151
02:11
like a mathmatemática calculationCálculo
or a numbernúmero, a wordpalavra,
37
119872
5056
como um cálculo matemático
ou um número, uma palavra,
02:16
neuronsneurônios are interactinginteragindo in the braincérebro,
38
124952
2885
os neurónios estão a interagir no cérebro,
02:19
creatingcriando a minisculeminúsculo electricalelétrico dischargequitação.
39
127861
3088
a criar uma descarga elétrica minúscula.
02:23
When you have a dominantdominante
mentalmental stateEstado, like relaxationrelaxamento,
40
131713
3452
Quando temos um estado mental
dominante, como o relaxamento,
02:27
hundredscentenas and thousandsmilhares of neuronsneurônios
are firingfuzilamento in the braincérebro,
41
135189
4175
centenas e milhares de neurónios
estão a disparar no cérebro,
02:31
creatingcriando concurrentsimultâneos electricalelétrico dischargesdescargas
in characteristiccaracterística patternspadrões
42
139388
4218
criando descargas elétricas simultâneas
em padrões característicos
02:35
that can be measuredmedido
with electroencephalographyEletroencefalografia, or EEGEEG.
43
143630
4865
que podem ser medidos
com um eletroencefalograma, ou EEG.
02:41
In factfacto, that's what
you're seeingvendo right now.
44
149118
2160
Na verdade, é isso que estão a ver agora.
02:43
You're seeingvendo my braincérebro activityatividade
that was recordedgravado in realreal time
45
151956
3964
Estão a ver a minha atividade cerebral
que foi registada em tempo real
02:47
with a simplesimples devicedispositivo
that was wornusado on my headcabeça.
46
155944
2735
com um aparelho simples
que usei na minha cabeça.
02:51
What you're seeingvendo is my braincérebro activityatividade
when I was relaxedrelaxado and curiouscurioso.
47
159669
5653
O que estão a ver é a minha atividade
cerebral quando estava relaxada e curiosa.
Para partilhar esta informação com vocês,
02:58
To sharecompartilhar this informationem formação with you,
48
166097
1755
02:59
I woreusava one of the earlycedo
consumer-basedcom base no consumidor EEGEEG devicesdispositivos
49
167876
3020
usei um dos primeiros aparelhos
de EEG baseados no consumidor
03:02
like this one,
50
170920
1211
como este,
03:04
whichqual recordedgravado the electricalelétrico
activityatividade in my braincérebro in realreal time.
51
172155
3988
que registou a atividade elétrica
no meu cérebro em tempo real.
03:08
It's not unlikeao contrário the fitnessaptidão trackersrastreadores
that some of you maypode be wearingvestindo
52
176849
3826
Não é diferente dos aparelhos de "fitness"
que alguns de vocês podem estar a usar
03:12
to measurea medida your heartcoração ratetaxa
or the stepspassos that you've takenocupado,
53
180699
3586
para medir a vossa frequência cardíaca
ou os passos que deram,
03:16
or even your sleepdormir activityatividade.
54
184309
1587
ou até mesmo o vosso sono.
03:19
It's hardlydificilmente the mosta maioria sophisticatedsofisticado
neuroimagingneuro-imagem techniquetécnica on the marketmercado.
55
187154
3824
Não é a técnica de neuroimagem
mais sofisticada no mercado,
03:23
But it's already the mosta maioria portableportátil
56
191597
2378
mas já é a mais portátil
03:25
and the mosta maioria likelyprovável to impactimpacto
our everydaytodo dia livesvidas.
57
193999
3152
e a mais provável de criar impacto
no nosso dia a dia.
03:29
This is extraordinaryextraordinário.
58
197915
1503
Isto é extraordinário.
03:31
ThroughAtravés a simplesimples, wearablewearable devicedispositivo,
59
199442
2505
Através de um simples aparelho
fácil de usar,
03:33
we can literallyliteralmente see
insidedentro the humanhumano braincérebro
60
201971
3548
podemos literalmente ver
dentro do cérebro humano
03:37
and learnaprender aspectsaspectos of our mentalmental landscapepanorama
withoutsem ever utteringcolocação em circulação a wordpalavra.
61
205543
6476
e conhecer aspetos da nossa paisagem
mental sem sequer dizer uma palavra.
03:44
While we can't reliablyde forma confiável decodedecodificar
complexcomplexo thoughtspensamentos just yetainda,
62
212829
3653
Embora não possamos decifrar
pensamentos complexos, por enquanto,
03:48
we can already gaugecalibre a person'spessoas moodhumor,
63
216506
2519
já podemos avaliar o humor de uma pessoa,
03:51
and with the help
of artificialartificial intelligenceinteligência,
64
219049
2873
e com a ajuda da inteligência artificial,
03:53
we can even decodedecodificar
some single-digitsimples-dígito numbersnúmeros
65
221946
4341
podemos descodificar
alguns números de um só algarismo
03:58
or shapesformas or simplesimples wordspalavras
that a personpessoa is thinkingpensando
66
226311
4882
ou formas ou palavras simples
em que uma pessoa está a pensar
04:03
or hearingaudição, or seeingvendo.
67
231217
2189
a ouvir ou a ver.
04:06
DespiteApesar de some inherentinerente limitationslimitações in EEGEEG,
68
234345
3365
Apesar de algumas limitações
inerentes no EEG,
04:09
I think it's safeseguro to say
that with our advancesavanços in technologytecnologia,
69
237734
4720
acho que é seguro dizer que,
com os avanços na tecnologia,
04:14
more and more of what's happeningacontecendo
in the humanhumano braincérebro
70
242478
3809
cada vez mais coisas que estão
a acontecer no cérebro humano
04:18
can and will be decodeddecodificado over time.
71
246311
2310
vão ser descodificadas, com o tempo.
04:21
Already, usingusando one of these devicesdispositivos,
72
249362
2746
Usando um destes aparelhos,
04:24
an epilepticepiléptico can know
they're going to have an epilepticepiléptico seizureapreensão
73
252132
3255
um epilético já consegue saber
que vai ter um ataque epilético
04:27
before it happensacontece.
74
255411
1436
antes de ele acontecer.
04:28
A paraplegicparaplégico can typetipo on a computercomputador
with theirdeles thoughtspensamentos alonesozinho.
75
256871
4603
Um paraplégico consegue escrever
num computador só com o pensamento.
04:34
A US-basedBaseada nos Estados Unidos companyempresa has developeddesenvolvido
a technologytecnologia to embedEmbutir these sensorssensores
76
262485
4183
Uma companhia baseada nos EUA desenvolveu
uma tecnologia para embutir estes sensores
04:38
into the headrestCabeça of automobiliesos automobilies
77
266692
2230
no encosto de cabeça dos automóveis
04:40
so they can trackpista drivermotorista concentrationconcentração,
78
268946
2505
para poderem monitorizar
a atenção do condutor,
04:43
distractionDistração and cognitivecognitivo loadcarga
while drivingdirigindo.
79
271475
2667
a sua distração e carga cognitiva
enquanto ele conduz.
04:46
NissanNissan, insuranceseguro companiesempresas
and AAAAAA have all takenocupado noteNota.
80
274912
4058
A Nissan, as companhias de seguro
e a Associação Automobilística Americana
já tomaram notas.
04:51
You could even watch this
choose-your-own-adventureescolher-seu-próprio-aventura moviefilme
81
279949
4508
Podemos ver este filme
"escolhe-a-tua-aventura"
04:56
"The MomentMomento," whichqual, with an EEGEEG headsetfone de ouvido,
82
284481
4240
"The Moment", que,
com um aparelho de EEG,
05:00
changesalterar the moviefilme
basedSediada on your brain-basedbaseado no cérebro reactionsreações,
83
288745
3926
muda o filme com base
nas nossas reações cerebrais,
05:04
givingdando you a differentdiferente endingfinal
everycada time your attentionatenção wanesdiminui.
84
292695
4353
dando-nos um final diferente
cada vez que a nossa atenção diminui.
05:11
This maypode all soundsom great,
85
299154
2763
Isto pode parecer fantástico,
05:13
and as a bioethicistBioética,
86
301941
2189
e como especialista em bioética,
05:16
I am a hugeenorme proponentdefensor of empoweringcapacitação people
87
304154
3613
sou uma grande fã de dar poder às pessoas
05:19
to take chargecarregar of theirdeles ownpróprio
healthsaúde and well-beingbem-estar
88
307791
2616
para assumirem o controlo
da sua saúde e bem-estar
05:22
by givingdando them accessAcesso
to informationem formação about themselvessi mesmos,
89
310431
2918
dando-lhes acesso
a informações sobre elas mesmas,
05:25
includingIncluindo this incredibleincrível
newNovo brain-decodingdescodificação cerebral technologytecnologia.
90
313373
2976
incluindo estas novas tecnologias
incríveis de descodificação cerebral.
05:29
But I worrypreocupação.
91
317878
1167
Mas eu temo,
05:31
I worrypreocupação that we will voluntarilyvoluntariamente
or involuntarilyinvoluntariamente give up
92
319736
4760
temo que, voluntária ou
involuntariamente, vamos desistir
05:36
our last bastionbastião of freedomliberdade,
our mentalmental privacyprivacidade.
93
324520
4118
do nosso último bastião de liberdade,
a nossa privacidade mental.
05:41
That we will tradecomércio our braincérebro activityatividade
94
329302
2925
Que troquemos a nossa atividade cerebral
05:44
for rebatesdescontos or discountsdescontos on insuranceseguro,
95
332251
3046
por reduções ou descontos em seguros
05:48
or freelivre accessAcesso
to social-mediaSocial-Media accountscontas ...
96
336391
2603
ou acesso livre
a contas de redes sociais...
05:52
or even to keep our jobsempregos.
97
340444
1848
ou até para manter o nosso emprego.
05:54
In factfacto, in ChinaChina,
98
342900
1913
De facto, na China,
05:58
the traintrem driversdrivers on
the Beijing-ShanghaiPequim-Xangai high-speedalta velocidade railtrilho,
99
346199
5897
os maquinistas do comboio
de alta velocidade Pequim-Xangai,
06:04
the busiestmais movimentados of its kindtipo in the worldmundo,
100
352120
2532
o mais movimentado
deste género, no mundo,
06:06
are requiredrequeridos to wearvestem EEGEEG devicesdispositivos
101
354676
2476
são obrigados a usar aparelhos de EEG
06:09
to monitormonitor theirdeles braincérebro activityatividade
while drivingdirigindo.
102
357176
2427
para monitorizar a sua atividade cerebral
enquanto conduzem.
06:12
AccordingDe acordo com to some newsnotícia sourcesfontes,
103
360157
2226
Segundo algumas fontes de notícias,
06:14
in government-rungerência de governo factoriesfábricas in ChinaChina,
104
362407
2679
em fábricas do governo na China,
06:17
the workerstrabalhadores are requiredrequeridos to wearvestem
EEGEEG sensorssensores to monitormonitor theirdeles productivityprodutividade
105
365110
5364
os trabalhadores são obrigados
a usar sensores de EGG
para monitorizar a sua produtividade
06:22
and theirdeles emotionalemocional stateEstado at work.
106
370498
2115
e o estado emocional no trabalho.
06:25
WorkersTrabalhadores are even sentenviei home
107
373267
2310
Os trabalhadores até podem
ser mandados para casa
06:27
if theirdeles brainscérebro showexposição less-than-stellarmenos do que estelar
concentrationconcentração on theirdeles jobsempregos,
108
375601
4054
se o cérebro deles demonstrar
uma concentração imperfeita no trabalho
06:31
or emotionalemocional agitationagitação.
109
379679
2122
ou uma agitação emocional.
06:35
It's not going to happenacontecer tomorrowamanhã,
110
383189
1745
Não vai acontecer amanhã,
06:36
but we're headedencabeçou to a worldmundo
of braincérebro transparencytransparência.
111
384958
3086
mas estamos a caminhar para um mundo
de transparência cerebral.
06:40
And I don't think people understandCompreendo
that that could changemudança everything.
112
388537
3440
Eu acho que as pessoas não percebem
que isso pode mudar tudo.
06:44
Everything from our definitionsdefinições
of datadados privacyprivacidade to our lawsleis,
113
392474
3675
Tudo desde as nossas definições
de privacidade de dados às nossas leis,
06:48
to our ideasidéias about freedomliberdade.
114
396173
1800
até às nossas ideias sobre liberdade.
06:50
In factfacto, in my lablaboratório at DukeDuque UniversityUniversidade,
115
398731
3077
De facto, no meu laboratório
na Universidade de Duke,
06:53
we recentlyrecentemente conductedrealizado a nationwideem todo o país studyestude
in the UnitedUnidos StatesEstados-Membros
116
401832
3175
recentemente realizámos um estudo
a nível nacional nos EUA
06:57
to see if people appreciatedapreciada
117
405031
1959
para ver se as pessoas reconhecem
06:59
the sensitivitysensibilidade
of theirdeles braincérebro informationem formação.
118
407014
2071
a vulnerabilidade
das suas informações cerebrais
07:02
We askedperguntei people to ratetaxa
theirdeles perceivedpercebida sensitivitysensibilidade
119
410356
3356
Pedimos às pessoas para avaliarem
a sua vulnerabilidade percetível
07:05
of 33 differentdiferente kindstipos of informationem formação,
120
413736
2231
de 33 diferentes tipos de informações,
07:07
from theirdeles socialsocial securitysegurança numbersnúmeros
121
415991
2220
desde os seus números
da segurança social
07:10
to the contentconteúdo
of theirdeles phonetelefone conversationsconversas,
122
418235
2597
até ao conteúdo das conversas telefónicas,
07:12
theirdeles relationshiprelação historyhistória,
123
420856
2193
o seu histórico de relacionamentos,
07:15
theirdeles emotionsemoções, theirdeles anxietyansiedade,
124
423073
1942
as suas emoções, a sua ansiedade,
07:17
the mentalmental imagesimagens in theirdeles mindmente
125
425039
1946
as imagens mentais na sua mente
07:19
and the thoughtspensamentos in theirdeles mindmente.
126
427009
1538
e os pensamentos na sua mente.
07:21
ShockinglyChocante, people ratedavaliado theirdeles socialsocial
securitysegurança numbernúmero as farlonge more sensitivesensível
127
429481
5229
Surpreendentemente, as pessoas avaliaram
o seu número de segurança social
como mais vulnerável
do que qualquer outro tipo de informações
07:26
than any other kindtipo of informationem formação,
128
434734
2203
07:28
includingIncluindo theirdeles braincérebro datadados.
129
436961
2435
incluindo os seus dados cerebrais.
07:32
I think this is because
people don't yetainda understandCompreendo
130
440380
3216
Acho que isto é porque
as pessoas ainda não percebem
07:35
or believe the implicationsimplicações
of this newNovo brain-decodingdescodificação cerebral technologytecnologia.
131
443620
4063
ou não acreditam nas implicações
desta nova tecnologia
de descodificação cerebral.
Afinal, se podemos saber
o funcionamento interno do cérebro humano,
07:40
After all, if we can know
the innerinterior workingsfuncionamentos of the humanhumano braincérebro,
132
448629
3289
o nosso número de segurança social
é a menor das nossas preocupações.
07:43
our socialsocial securitysegurança numbersnúmeros
are the leastpelo menos of our worriespreocupações.
133
451942
2706
07:46
(LaughterRiso)
134
454672
1285
07:47
Think about it.
135
455981
1167
Pensem nisso.
07:49
In a worldmundo of totaltotal braincérebro transparencytransparência,
136
457172
2396
Num mundo de total transparência cerebral,
07:51
who would dareousar have
a politicallypoliticamente dissidentdissidente thought?
137
459592
2429
quem se atreveria a ter
um pensamento político dissidente?
07:55
Or a creativecriativo one?
138
463279
1541
Ou um pensamento criativo?
07:57
I worrypreocupação that people will self-censorauto-censor
139
465503
3476
Preocupa-me que as pessoas
se vão autocensurar
08:01
in fearmedo of beingser ostracizedcondenado ao ostracismo by societysociedade,
140
469003
3302
com medo de serem ostracizadas
pela sociedade,
08:04
or that people will loseperder theirdeles jobsempregos
because of theirdeles waningminguante attentionatenção
141
472329
3813
ou que as pessoas percam o seu emprego
por causa do seu défice de atenção
08:08
or emotionalemocional instabilityinstabilidade,
142
476166
2150
ou instabilidade emocional,
08:10
or because they're contemplatingcontemplando
collectivecoletivo actionaçao againstcontra theirdeles employersempregadores.
143
478340
3550
ou porque estão a contemplar ações
coletivas contra os seus empregadores.
08:14
That comingchegando out
will no longermais longo be an optionopção,
144
482478
3177
Se isso acontecer,
já não será uma opção,
08:17
because people'spovos brainscérebro will long agoatrás
have revealedrevelado theirdeles sexualsexual orientationorientação,
145
485679
5067
porque o cérebro duma pessoa
há muito teria revelado
a sua orientação sexual
ou ideologia política
08:22
theirdeles politicalpolítico ideologyideologia
146
490770
1822
08:24
or theirdeles religiousreligioso preferencespreferências,
147
492616
2025
ou preferência religiosa,
08:26
well before they were readypronto
to consciouslyconscientemente sharecompartilhar that informationem formação
148
494665
3080
muito antes de ela estar pronta
para partilhar essas informações
08:29
with other people.
149
497769
1253
com outras pessoas.
08:31
I worrypreocupação about the abilityhabilidade of our lawsleis
to keep up with technologicaltecnológica changemudança.
150
499565
4912
Preocupa-me a capacidade
de as nossas leis se manterem a par
da revolução tecnológica
08:36
Take the First AmendmentAlteração
of the US ConstitutionConstituição,
151
504986
2320
Pensem na Primeira Emenda
da Constituição dos EUA,
08:39
whichqual protectsprotege freedomliberdade of speechdiscurso.
152
507330
1958
que protege a liberdade de expressão.
08:41
Does it alsoAlém disso protectproteger freedomliberdade of thought?
153
509312
1927
Também protege a liberdade de pensamento?
Se sim, isso significa que estamos livres
08:43
And if so, does that mean that we're freelivre
to alterALTER our thoughtspensamentos howeverContudo we want?
154
511944
4169
para alterar os nossos pensamentos
como quisermos?
08:48
Or can the governmentgoverno or societysociedade tell us
what we can do with our ownpróprio brainscérebro?
155
516137
4674
Ou pode o governo ou a sociedade dizer-nos
o que podemos ou não fazer
com o nosso cérebro?
08:53
Can the NSANSA spyespião on our brainscérebro
usingusando these newNovo mobileMóvel devicesdispositivos?
156
521591
3717
Pode a NSA espiar o nosso cérebro
usando estes novos aparelhos?
08:58
Can the companiesempresas that collectrecolher
the braincérebro datadados throughatravés theirdeles applicationsaplicações
157
526053
4119
Podem as empresas que recolhem
dados cerebrais através de aplicações
09:02
sellvender this informationem formação to thirdterceiro partiesfestas?
158
530196
2074
vender essas informações a terceiros?
09:05
Right now, no lawsleis preventevita them
from doing so.
159
533174
3222
Agora mesmo, nenhuma lei
as impede de o fazerem.
09:09
It could be even more problematicproblemático
160
537203
2025
Pode ser ainda mais problemático
09:11
in countriespaíses that don't sharecompartilhar
the samemesmo freedomsliberdades
161
539252
2519
em países que não partilham
as mesmas liberdades
09:13
enjoyedgostei by people in the UnitedUnidos StatesEstados-Membros.
162
541795
2103
desfrutadas pelas pessoas
que vivem nos EUA.
09:16
What would'veteria happenedaconteceu duringdurante
the IranianIraniano GreenVerde MovementMovimento
163
544883
3787
O que teria acontecido durante
o Movimento Verde Iraniano
09:20
if the governmentgoverno had been
monitoringmonitoramento my family'sfamília braincérebro activityatividade,
164
548694
3901
se o governo tivesse estado a monitorizar
a atividade cerebral da minha família,
09:24
and had believedacreditava them
to be sympatheticsimpático to the protestersmanifestantes?
165
552619
4007
e tivesse achado que eles simpatizavam
com os protestantes?
09:30
Is it so far-fetchedexagerado to imagineImagine a societysociedade
166
558091
3047
Será rebuscado imaginar uma sociedade
09:33
in whichqual people are arrestedpreso
basedSediada on theirdeles thoughtspensamentos
167
561162
2842
na qual as pessoas são presas
por causa dos seus pensamentos
09:36
of committingcometendo a crimecrime,
168
564028
1167
de praticarem um crime,
09:37
like in the science-fictionficção científica
dystopiandistópico societysociedade in "MinorityMinoria ReportRelatório."
169
565219
4312
como na sociedade distópica
de ficção científica em "Minority Report"?
09:42
Already, in the UnitedUnidos StatesEstados-Membros, in IndianaIndiana,
170
570286
4323
Já, nos EUA, em Indiana,
09:46
an 18-year-old-ano de idade was chargedcarregada
with attemptingtentando to intimidateintimidar his schoolescola
171
574633
4937
um jovem de 18 anos foi acusado
da tentativa de intimidar a sua escola
09:51
by postingpostagem a videovídeo of himselfele mesmo
shootingtiroteio people in the hallwayscorredores ...
172
579594
3309
ao publicar um vídeo em que ele
disparava sobre pessoas nos corredores...
09:55
ExceptExceto the people were zombieszumbis
173
583881
3007
exceto que as pessoas eram "zombies"
09:58
and the videovídeo was of him playingjogando
an augmented-realityrealidade aumentada videovídeo gamejogos,
174
586912
5047
e o vídeo era ele a jogar um videojogo
de realidade aumentada,
10:03
all interpretedinterpretado to be a mentalmental projectionprojeção
of his subjectivesubjetivo intentintenção.
175
591983
4772
tudo interpretado como projeção mental
da sua intenção subjetiva.
10:10
This is exactlyexatamente why our brainscérebro
need specialespecial protectionprotecção.
176
598456
4612
Isto é exatamente o porquê de o nosso
cérebro precisar de proteção especial.
10:15
If our brainscérebro are just as subjectsujeito
to datadados trackingrastreamento and aggregationagregação
177
603092
3556
Se o nosso cérebro está sujeito
a processadores e agregação de dados
10:18
as our financialfinanceiro recordsregistros and transactionstransações,
178
606672
2532
como os nossos registos financeiros
e transações,
10:21
if our brainscérebro can be hackedhackeado
and trackedmonitorados like our onlineconectados activitiesactividades,
179
609228
4285
se o nosso cérebro pode ser
pirateado e rastreado
como a nossa atividade "online",
os nossos telemóveis e aplicações,
10:25
our mobileMóvel phonestelefones and applicationsaplicações,
180
613537
2361
10:27
then we're on the brinkbeira of a dangerousperigoso
threatameaça to our collectivecoletivo humanityhumanidade.
181
615922
4269
então estamos no limite de uma ameaça
perigosa à nossa humanidade coletiva.
10:33
Before you panicpânico,
182
621406
1309
Antes que entrem em pânico,
10:36
I believe that there are solutionssoluções
to these concernspreocupações,
183
624012
3144
acredito que existem soluções
para estas preocupações,
10:39
but we have to startcomeçar by focusingconcentrando
on the right things.
184
627180
2825
mas temos de começar
por nos focarmos nas coisas certas.
10:42
When it comesvem to privacyprivacidade
protectionsproteções in generalgeral,
185
630580
2921
No que diz respeito a proteções
de privacidade em geral,
acho que estamos a lutar
uma batalha já perdida
10:45
I think we're fightingcombate a losingperdendo battlebatalha
186
633525
1826
10:47
by tryingtentando to restrictrestringir
the flowfluxo of informationem formação.
187
635375
2858
ao tentar restringir
o circuito livre de informações.
10:50
InsteadEm vez disso, we should be focusingconcentrando
on securingsegurando rightsdireitos and remediesremédios
188
638257
4057
Ao invés, devíamos focar-nos
em garantir direitos e soluções
10:54
againstcontra the misuseuso indevido of our informationem formação.
189
642338
2275
contra o mau uso das nossas informações.
Se as pessoas têm o direito de decidir
como partilham as suas informações,
10:57
If people had the right to decidedecidir
how theirdeles informationem formação was sharedcompartilhado,
190
645291
3285
11:00
and more importantlyimportante, have legallegal redressreparação
191
648600
2921
e, mais importante,
têm direito a indemnização
11:03
if theirdeles informationem formação
was misusedutilização indevida againstcontra them,
192
651545
2428
se as suas informações
forem mal usadas contra elas,
11:05
say to discriminatediscriminar againstcontra them
in an employmentemprego settingconfiguração
193
653997
2786
por exemplo para as discriminar
no local de trabalho
11:08
or in healthsaúde careCuidado or educationEducação,
194
656807
2785
ou na saúde ou na educação,
11:11
this would go a long way to buildconstruir trustConfiar em.
195
659616
2571
isso levaria muito tempo
a construir a confiança.
11:14
In factfacto, in some instancesinstâncias,
196
662843
1718
Na verdade, em algumas situações,
11:16
we want to be sharingcompartilhando more
of our personalpessoal informationem formação.
197
664585
3524
queremos partilhar mais
das nossas informações pessoais.
11:20
StudyingEstudando aggregatedagregados informationem formação
can tell us so much
198
668697
3047
Estudar informação agregada
pode dizer-nos muito
11:23
about our healthsaúde and our well-beingbem-estar,
199
671768
2747
sobre a nossa saúde e bem-estar,
11:26
but to be ablecapaz to safelycom segurança sharecompartilhar
our informationem formação,
200
674539
3313
mas para partilharmos
de forma segura as nossas informações,
11:29
we need specialespecial protectionsproteções
for mentalmental privacyprivacidade.
201
677876
3223
precisamos de proteções especiais
para a privacidade mental.
11:33
This is why we need
a right to cognitivecognitivo libertyliberdade.
202
681832
3147
É por isso que precisamos
de um direito à liberdade cognitiva.
11:37
This right would secureSecure for us
our freedomliberdade of thought and ruminationruminação,
203
685543
4079
Este direito protegeria a nossa liberdade
de pensamento e reflexão,
11:41
our freedomliberdade of self-determinationautodeterminação,
204
689646
2540
a nossa liberdade de autodeterminação,
11:44
and it would insuresegurar a that we have
the right to consentconsentimento to or refuseme recuso
205
692210
4390
e garantiria que temos
o direito de consentir ou recusar
11:48
accessAcesso and alterationalteração
of our brainscérebro by othersoutras.
206
696624
2857
o acesso e a alteração
do nosso cérebro por outros.
11:51
This right could be recognizedreconhecido
207
699811
2112
Este direito poderia ser reconhecido
11:53
as partparte of the UniversalUniversal DeclarationDeclaração
of HumanHumana RightsDireitos,
208
701947
2883
como parte da Declaração Universal
dos Direitos Humanos,
11:56
whichqual has establishedestabelecido mechanismsmecanismos
209
704854
2388
que tem mecanismos estabelecidos
11:59
for the enforcementexecução
of these kindstipos of socialsocial rightsdireitos.
210
707266
2856
para impor este tipo de direitos sociais.
12:03
DuringDurante the IranianIraniano GreenVerde MovementMovimento,
211
711872
2070
Durante o Movimento Verde Iraniano,
12:05
the protestersmanifestantes used the internetInternet
and good old-fashionedà moda antiga wordpalavra of mouthboca
212
713966
5186
os protestantes usaram a Internet
e a velha moda da palavra boca-a-boca
12:11
to coordinatecoordenada theirdeles marchesmarchas.
213
719176
1948
para coordenar as marchas.
12:14
And some of the mosta maioria oppressiveopressivo
restrictionsrestrições in IranIrã
214
722238
2769
E algumas das restrições
mais opressivas no Irão
12:17
were liftedlevantado as a resultresultado.
215
725031
1877
foram levantadas em resultado disso.
12:20
But what if the IranianIraniano governmentgoverno
had used braincérebro surveillancevigilância
216
728047
4087
Mas e se o governo iraniano tivesse
usado vigilância cerebral
12:24
to detectdetectar and preventevita the protestprotesto?
217
732158
3061
para detetar e impedir os protestos?
12:28
Would the worldmundo have ever heardouviu
the protesters'manifestantes crieschora?
218
736847
3176
Teria o mundo ouvido
os gritos dos protestantes?
12:33
The time has come for us to call
for a cognitivecognitivo libertyliberdade revolutionrevolução.
219
741732
5121
Chegou a altura de começarmos
uma revolução de liberdade cognitiva.
12:39
To make sure that we responsiblycom responsabilidade
advanceavançar technologytecnologia
220
747559
3264
Para garantir que desenvolvemos
responsavelmente a tecnologia
12:42
that could enablehabilitar us to embraceabraço the futurefuturo
221
750847
2978
que nos pode permitir receber o futuro
12:45
while fiercelyferozmente protectingprotegendo all of us
from any personpessoa, companyempresa or governmentgoverno
222
753849
6717
enquanto nos protegemos intensamente
de qualquer pessoa, empresa ou governo
12:52
that attemptstentativas to unlawfullyilegalmente accessAcesso
or alterALTER our innermostinterno mais livesvidas.
223
760590
5040
que tente aceder ilegalmente
ou alterar a nossa vida interior.
12:58
Thank you.
224
766659
1174
Obrigada.
12:59
(ApplauseAplausos)
225
767857
3492
(Aplausos)
Translated by Andreia Martins
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com