ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Cuando la tecnología pueda leer la mente, ¿cómo proteger nuestra intimidad?

Filmed:
1,819,292 views

La tecnología puede decodificar su actividad cerebral y revelar lo que está pensando y poner nuestros sentimientos a la vista, afirma la académica legal y experta en ética Nita Farahany. ¿Qué significaría esto para nuestro ya violado sentido de la intimidad? En una conferencia de advertencia, Farahany nos advierte de una sociedad en la que la gente es arrestada solo por pensar en cometer un crimen (como en "Minority Report") y en la que los intereses privados venden nuestra información mental, y argumenta el derecho a la libertad cognitiva que protege nuestra libertad de pensamiento y autodeterminación.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsmeses followingsiguiendo
the 2009 presidentialpresidencial electionelección in IranCorrí,
0
1096
4714
En los meses siguientes a la elección
presidencial del 2009 en Irán,
00:17
protestsprotestas eruptedestalló acrossa través de the countrypaís.
1
5834
2894
las protestas estallaron por todo el país.
00:21
The Iranianiraní governmentgobierno
violentlyviolentamente suppressedsuprimido
2
9685
2896
El gobierno iraní reprimió violentamente
00:24
what camevino to be knownconocido
as the Iranianiraní GreenVerde MovementMovimiento,
3
12605
3979
lo que fue conocido
como el Movimiento Verde Iraní,
00:28
even blockingbloqueo mobilemóvil signalsseñales
4
16608
2053
bloqueando incluso las señales telefónicas
00:30
to cutcortar off communicationcomunicación
betweenEntre the protestersmanifestantes.
5
18685
2714
para cortar la comunicación
entre los manifestantes.
00:34
My parentspadres, who emigratedemigrado
to the UnitedUnido StatesEstados in the latetarde 1960s,
6
22316
4669
Mis padres, quienes emigraron
a los EE. UU. a finales de 1960,
00:39
spendgastar substantialsustancial time there,
7
27009
1794
pasaron un tiempo considerable allí,
00:40
where all of my largegrande,
extendedextendido familyfamilia livevivir.
8
28827
3153
donde vive mi gran y extensa familia.
00:44
When I would call my familyfamilia in TehranTeherán
9
32832
3129
Cuando llamaba a mi familia en Teherán
00:47
duringdurante some of the mostmás violentviolento
crackdownsmedidas represivas of the protestprotesta,
10
35985
3452
durante una de las represiones
más violenta a las protestas
00:51
noneninguna of them dareddesafiado discussdiscutir
with me what was happeningsucediendo.
11
39461
3252
ninguno de ellos se atrevió a hablar
conmigo sobre lo que estaba pasando.
00:55
They or I knewsabía to quicklycon rapidez steerdirigir
the conversationconversacion to other topicstemas.
12
43196
3529
Ellos y yo sabíamos cómo cambiar
rápidamente de tema de conversación.
00:59
All of us understoodentendido
what the consequencesConsecuencias could be
13
47163
3380
Todos nosotros comprendimos
qué consecuencias podrían derivar
01:02
of a perceivedpercibido dissidentdisidente actionacción.
14
50567
2540
de una acción disidente detectada.
Pero todavía sigo deseando haber podido
saber lo que ellos estaban pensando
01:06
But I still wishdeseo I could have knownconocido
what they were thinkingpensando
15
54095
3469
01:09
or what they were feelingsensación.
16
57588
1418
o lo que ellos estaban sintiendo.
01:12
What if I could have?
17
60217
1393
¿Y si hubiera podido?
01:14
Or more frighteninglypavorosamente,
18
62149
1151
O más terrible,
01:15
what if the Iranianiraní governmentgobierno could have?
19
63324
2761
¿y si el gobierno iraní hubiera podido?
01:18
Would they have arresteddetenido them
basedbasado on what theirsu brainssesos revealedrevelado?
20
66695
3244
¿Les hubieran arrestado
basándose en lo que pensaban?
01:22
That day maymayo be closercerca than you think.
21
70933
2944
Ese día puede estar
más cerca de lo que piensan.
Con nuestras crecientes capacidades
en neurociencia, inteligencia artificial
01:26
With our growingcreciente capabilitiescapacidades
in neuroscienceneurociencia, artificialartificial intelligenceinteligencia
22
74527
3811
01:30
and machinemáquina learningaprendizaje,
23
78362
1703
y aprendizaje automático,
01:32
we maymayo soonpronto know a lot more
of what's happeningsucediendo in the humanhumano braincerebro.
24
80089
4075
pronto tal vez podamos saber más
de lo que pasa en el cerebro humano.
01:37
As a bioethicistbioeticista, a lawyerabogado, a philosopherfilósofo
25
85083
3310
Como especialista
en bioética, abogada, filósofa
01:40
and an Iranian-AmericanIraní-americano,
26
88417
1867
y como iraní-estadounidense,
01:42
I'm deeplyprofundamente concernedpreocupado
about what this meansmedio for our freedomslibertades
27
90308
3787
estoy muy preocupada sobre lo que
esto significa para nuestras libertades
01:46
and what kindsclases of protectionsprotecciones we need.
28
94119
2171
y qué tipo de protecciones necesitamos.
01:48
I believe we need
a right to cognitivecognitivo libertylibertad,
29
96993
3460
Creo que necesitamos
un derecho a la libertad cognitiva,
01:52
as a humanhumano right
that needsnecesariamente to be protectedprotegido.
30
100477
2892
como un derecho humano
que necesita que lo protejan.
01:55
If not, our freedomlibertad of thought,
31
103772
2643
Si no, nuestra libertad de pensamiento,
01:58
accessacceso and controlcontrolar over our ownpropio brainssesos
32
106439
3024
acceso y control sobre nuestras mentes
02:01
and our mentalmental privacyintimidad will be threatenedamenazado.
33
109487
2841
y nuestra privacidad mental
estará amenazada.
02:05
ConsiderConsiderar this:
34
113698
1158
Consideren esto:
02:06
the averagepromedio personpersona thinkspiensa
thousandsmiles of thoughtspensamientos eachcada day.
35
114880
3314
la persona promedio tiene
miles de pensamientos cada día.
02:10
As a thought takes formformar,
36
118697
1151
Cuando un pensamiento se forma,
02:11
like a mathmates calculationcálculo
or a numbernúmero, a wordpalabra,
37
119872
5056
como un cálculo matemático
o un número, una palabra,
02:16
neuronsneuronas are interactinginteractuando in the braincerebro,
38
124952
2885
las neuronas están
interactuando en el cerebro,
02:19
creatingcreando a minisculeminúsculo electricaleléctrico dischargedescarga.
39
127861
3088
creando una minúscula descarga eléctrica.
02:23
When you have a dominantdominante
mentalmental stateestado, like relaxationrelajación,
40
131713
3452
Cuando tienes un estado mental
dominante, como la relajación,
02:27
hundredscientos and thousandsmiles of neuronsneuronas
are firingdisparo in the braincerebro,
41
135189
4175
cientos y miles de neuronas
están ardiendo en el cerebro,
02:31
creatingcreando concurrentconcurrente electricaleléctrico dischargesdescargas
in characteristiccaracterística patternspatrones
42
139388
4218
creando descargas eléctricas simultáneas
en unos patrones característicos
02:35
that can be measuredmesurado
with electroencephalographyelectroencefalografía, or EEGEEG.
43
143630
4865
que pueden medirse
con encefalogramas o EEG.
02:41
In facthecho, that's what
you're seeingviendo right now.
44
149118
2160
De hecho, esto es lo que ven ahora mismo.
02:43
You're seeingviendo my braincerebro activityactividad
that was recordedgrabado in realreal time
45
151956
3964
Están viendo mi actividad mental
que se grabó a tiempo real
02:47
with a simplesencillo devicedispositivo
that was wornpasado on my headcabeza.
46
155944
2735
con un simple dispositivo
que me pusieron en la cabeza.
02:51
What you're seeingviendo is my braincerebro activityactividad
when I was relaxedrelajado and curiouscurioso.
47
159669
5653
Lo que están viendo es mi actividad mental
cuando estaba relajada y curiosa.
Para compartir esta información con Uds.,
02:58
To sharecompartir this informationinformación with you,
48
166097
1755
02:59
I worellevaba one of the earlytemprano
consumer-basedbasado en el consumidor EEGEEG devicesdispositivos
49
167876
3020
llevé uno de estos dispositivos EEG
hechos para el consumidor
03:02
like this one,
50
170920
1211
como este,
03:04
whichcual recordedgrabado the electricaleléctrico
activityactividad in my braincerebro in realreal time.
51
172155
3988
el cuál grabó la actividad
eléctrica de mi cerebro en tiempo real.
03:08
It's not unlikediferente a the fitnessaptitud trackersrastreadores
that some of you maymayo be wearingvistiendo
52
176849
3826
No es tan diferente de los monitores
de actividad que tal vez lleven puestos
03:12
to measuremedida your heartcorazón ratetarifa
or the stepspasos that you've takentomado,
53
180699
3586
para medir su ritmo cardíaco
o los pasos que han dado,
03:16
or even your sleepdormir activityactividad.
54
184309
1587
o incluso sus periodos de sueño.
03:19
It's hardlyapenas the mostmás sophisticatedsofisticado
neuroimagingneuroimagen techniquetécnica on the marketmercado.
55
187154
3824
Es difícilmente la técnica de neuroimagen
más sofisticada en el mercado.
03:23
But it's alreadyya the mostmás portableportátil
56
191597
2378
Pero ya es casi la más compatible
03:25
and the mostmás likelyprobable to impactimpacto
our everydaycada día livesvive.
57
193999
3152
y la que probablemente tenga
más impacto en nuestras vidas cotidianas.
03:29
This is extraordinaryextraordinario.
58
197915
1503
Es extraordinario.
03:31
ThroughMediante a simplesencillo, wearableusable devicedispositivo,
59
199442
2505
A través de un simple
y vestible dispositivo
03:33
we can literallyliteralmente see
insidedentro the humanhumano braincerebro
60
201971
3548
podemos literalmente ver
lo que hay dentro del cerebro humano
03:37
and learnaprender aspectsaspectos of our mentalmental landscapepaisaje
withoutsin ever utteringprofiriendo a wordpalabra.
61
205543
6476
y aprender aspectos de nuestro paisaje
mental sin pronunciar una sola palabra.
Aunque aún no podemos descodificar de
manera fiable los pensamientos complejos,
03:44
While we can't reliablyseguramente decodedescodificar
complexcomplejo thoughtspensamientos just yettodavía,
62
212829
3653
03:48
we can alreadyya gaugecalibre a person'spersona moodestado animico,
63
216506
2519
ya podemos estimar
el humor de una persona,
03:51
and with the help
of artificialartificial intelligenceinteligencia,
64
219049
2873
y con ayuda de la inteligencia artificial,
03:53
we can even decodedescodificar
some single-digitUn digito numbersnúmeros
65
221946
4341
podemos incluso descodificar
algunos números de un solo dígito
03:58
or shapesformas or simplesencillo wordspalabras
that a personpersona is thinkingpensando
66
226311
4882
o formas o palabras simples
que la persona está pensando
04:03
or hearingaudición, or seeingviendo.
67
231217
2189
o escuchando, o viendo.
04:06
DespiteA pesar de some inherentinherente limitationslimitaciones in EEGEEG,
68
234345
3365
A pesar de algunas
limitaciones inherentes en EEG,
04:09
I think it's safeseguro to say
that with our advancesavances in technologytecnología,
69
237734
4720
creo que se puede afirmar que
con nuestros avances en tecnología,
04:14
more and more of what's happeningsucediendo
in the humanhumano braincerebro
70
242478
3809
más y más de lo que pasa
en el cerebro humano
04:18
can and will be decodeddescifrado over time.
71
246311
2310
puede y será descodificado con el tiempo.
04:21
AlreadyYa, usingutilizando one of these devicesdispositivos,
72
249362
2746
Ya, usando uno de estos dispositivos
una persona epiléptica puede saber
si va a sufrir una convulsión epiléptica
04:24
an epilepticepiléptico can know
they're going to have an epilepticepiléptico seizureincautación
73
252132
3255
04:27
before it happenssucede.
74
255411
1436
antes de que ocurra.
04:28
A paraplegicparapléjico can typetipo on a computercomputadora
with theirsu thoughtspensamientos alonesolo.
75
256871
4603
Una persona parapléjica sola
puede escribir sus pensamientos
en una computadora.
04:34
A US-basedEn Estados Unidos companyempresa has developeddesarrollado
a technologytecnología to embedempotrar these sensorssensores
76
262485
4183
Una compañía de EE. UU. ha inventado una
tecnología para incrustar estos sensores
04:38
into the headrestreposacabezas of automobiliesautomobilies
77
266692
2230
en el reposacabezas de los automóviles
para poder monitorizar
la concentración al volante,
04:40
so they can trackpista driverconductor concentrationconcentración,
78
268946
2505
04:43
distractiondistracción and cognitivecognitivo loadcarga
while drivingconducción.
79
271475
2667
la distracción y la carga cognitiva
mientras se está conduciendo.
04:46
NissanNissan, insuranceseguro companiescompañías
and AAAAAA have all takentomado noteNota.
80
274912
4058
Nissan, las compañías de seguros y
AAA han tomado nota.
04:51
You could even watch this
choose-your-own-adventureelige tu propia aventura moviepelícula
81
279949
4508
Pueden ver incluso esta película de
"elija su propia aventura"
04:56
"The MomentMomento," whichcual, with an EEGEEG headsetauriculares,
82
284481
4240
"The Moment", la que,
con unos auriculares EEG,
05:00
changescambios the moviepelícula
basedbasado on your brain-basedbasado en el cerebro reactionsreacciones,
83
288745
3926
cambia basándose
en las reacciones de su cerebro,
05:04
givingdando you a differentdiferente endingfinalizando
everycada time your attentionatención wanesmengua.
84
292695
4353
dándole un final diferente
cada vez que su atención mengua.
05:11
This maymayo all soundsonar great,
85
299154
2763
Esto puede sonar bien,
05:13
and as a bioethicistbioeticista,
86
301941
2189
y como una especialista en bioética,
05:16
I am a hugeenorme proponentproponente of empoweringempoderamiento people
87
304154
3613
soy una gran defensora de
autorizar a las personas
05:19
to take chargecargar of theirsu ownpropio
healthsalud and well-beingbienestar
88
307791
2616
a hacerse cargo de
su propia salud y bienestar
05:22
by givingdando them accessacceso
to informationinformación about themselvessí mismos,
89
310431
2918
dándoles acceso a información
sobre ellos mismos,
05:25
includingincluso this incredibleincreíble
newnuevo brain-decodingdescifrar el cerebro technologytecnología.
90
313373
2976
incluyendo esta tecnología nueva e
increíble de descodificación de cerebros.
05:29
But I worrypreocupación.
91
317878
1167
Pero me preocupo.
05:31
I worrypreocupación that we will voluntarilyvoluntariamente
or involuntarilyinvoluntariamente give up
92
319736
4760
Me preocupa que voluntariamente o
involuntariamente abandonemos
05:36
our last bastionbastión of freedomlibertad,
our mentalmental privacyintimidad.
93
324520
4118
nuestro último bastión de libertad,
nuestra intimidad mental.
05:41
That we will tradecomercio our braincerebro activityactividad
94
329302
2925
Que cambiemos nuestra actividad cerebral
05:44
for rebatesreembolsos or discountsdescuentos on insuranceseguro,
95
332251
3046
para que nuestro seguro
nos reembolse o nos descuente,
05:48
or freegratis accessacceso
to social-mediamedios sociales accountscuentas ...
96
336391
2603
o que haya acceso libre
a las cuentas de las redes sociales...
05:52
or even to keep our jobstrabajos.
97
340444
1848
O Incluso que se use
para nuestros trabajos.
05:54
In facthecho, in ChinaChina,
98
342900
1913
De hecho, en China,
05:58
the traintren driversconductores on
the Beijing-ShanghaiBeijing-Shanghái high-speedalta velocidad railcarril,
99
346199
5897
los conductores del tren
de alta velocidad de Beijing-Shanghái,
06:04
the busiestmás ocupado of its kindtipo in the worldmundo,
100
352120
2532
uno de los más concurridos del mundo,
06:06
are requirednecesario to wearvestir EEGEEG devicesdispositivos
101
354676
2476
se les demanda llevar dispositivos EEG
06:09
to monitormonitor theirsu braincerebro activityactividad
while drivingconducción.
102
357176
2427
para monitorizar su actividad
cerebral mientras conducen.
06:12
AccordingConforme to some newsNoticias sourcesfuentes,
103
360157
2226
De acuerdo con
algunas fuentes de noticias,
06:14
in government-rungobernado por el gobierno factoriessuerte in ChinaChina,
104
362407
2679
en las fábricas de China
controladas por el gobierno,
06:17
the workerstrabajadores are requirednecesario to wearvestir
EEGEEG sensorssensores to monitormonitor theirsu productivityproductividad
105
365110
5364
a los empleados se les pide que usen
sensores EEG para ver su productividad
06:22
and theirsu emotionalemocional stateestado at work.
106
370498
2115
y su estado emocional en el trabajo.
06:25
WorkersTrabajadores are even sentexpedido home
107
373267
2310
A los empleados incluso
se les manda a casa
06:27
if theirsu brainssesos showespectáculo less-than-stellarmenos que estelar
concentrationconcentración on theirsu jobstrabajos,
108
375601
4054
si sus cerebros muestras una concentración
menos que estelar en sus trabajos,
06:31
or emotionalemocional agitationagitación.
109
379679
2122
o si están mentalmente agitados.
06:35
It's not going to happenocurrir tomorrowmañana,
110
383189
1745
Esto no va a pasar mañana,
06:36
but we're headedcon membrete to a worldmundo
of braincerebro transparencytransparencia.
111
384958
3086
pero nos dirigimos a un mundo
de transparencia mental.
06:40
And I don't think people understandentender
that that could changecambio everything.
112
388537
3440
Y creo que la gente no entiende
que eso podría cambiar todo.
06:44
Everything from our definitionsdefiniciones
of datadatos privacyintimidad to our lawsleyes,
113
392474
3675
Todo desde nuestras definiciones de
intimidad de datos a nuestras leyes,
06:48
to our ideasideas about freedomlibertad.
114
396173
1800
y a nuestras ideas sobre la libertad.
06:50
In facthecho, in my lablaboratorio at DukeDuque UniversityUniversidad,
115
398731
3077
De hecho, en mi laboratorio
en la Universidad Duke,
06:53
we recentlyrecientemente conductedconducido a nationwidea escala nacional studyestudiar
in the UnitedUnido StatesEstados
116
401832
3175
hace poco llevamos a cabo un estudio
a nivel nacional en EE. UU.
06:57
to see if people appreciatedapreciado
117
405031
1959
para ver si la gente era consciente
06:59
the sensitivitysensibilidad
of theirsu braincerebro informationinformación.
118
407014
2071
de la sensibilidad
de su información cerebral.
07:02
We askedpreguntó people to ratetarifa
theirsu perceivedpercibido sensitivitysensibilidad
119
410356
3356
Preguntamos a la gente para evaluar
la sensibilidad que percibían
07:05
of 33 differentdiferente kindsclases of informationinformación,
120
413736
2231
de 33 tipos diferentes de información,
07:07
from theirsu socialsocial securityseguridad numbersnúmeros
121
415991
2220
desde sus números de la seguridad social
07:10
to the contentcontenido
of theirsu phoneteléfono conversationsconversaciones,
122
418235
2597
al contenido de sus
conversaciones telefónicas,
07:12
theirsu relationshiprelación historyhistoria,
123
420856
2193
la historia de su relación,
07:15
theirsu emotionsemociones, theirsu anxietyansiedad,
124
423073
1942
sus emociones, sus ansiedades,
07:17
the mentalmental imagesimágenes in theirsu mindmente
125
425039
1946
las imágenes mentales de sus mentes
07:19
and the thoughtspensamientos in theirsu mindmente.
126
427009
1538
y sus pensamientos.
07:21
ShockinglySorprendentemente, people ratedclasificado theirsu socialsocial
securityseguridad numbernúmero as farlejos more sensitivesensible
127
429481
5229
Asombrosamente, la gente evaluó como más
sensible su número de la seguridad social
07:26
than any other kindtipo of informationinformación,
128
434734
2203
que otro tipo de información,
07:28
includingincluso theirsu braincerebro datadatos.
129
436961
2435
incluyendo sus datos cerebrales.
07:32
I think this is because
people don't yettodavía understandentender
130
440380
3216
Creo que esto se debe a
que la gente no entiende todavía
07:35
or believe the implicationstrascendencia
of this newnuevo brain-decodingdescifrar el cerebro technologytecnología.
131
443620
4063
o no cree en las implicaciones de esta
tecnología que descodifica cerebros.
Después de todo, si podemos saber el
funcionamiento interno del cerebro humano,
07:40
After all, if we can know
the innerinterior workingsfuncionamiento of the humanhumano braincerebro,
132
448629
3289
nuestros números de la seguridad social
son lo último que debe preocuparnos.
07:43
our socialsocial securityseguridad numbersnúmeros
are the leastmenos of our worriespreocupaciones.
133
451942
2706
07:46
(LaughterRisa)
134
454672
1285
(Risas)
07:47
Think about it.
135
455981
1167
Piénsenlo.
07:49
In a worldmundo of totaltotal braincerebro transparencytransparencia,
136
457172
2396
En un mundo de total transparencia mental,
07:51
who would dareatrevimiento have
a politicallypolíticamente dissidentdisidente thought?
137
459592
2429
¿quién se atrevería a tener
un pensamiento político disidente?
07:55
Or a creativecreativo one?
138
463279
1541
¿O uno creativo?
07:57
I worrypreocupación that people will self-censorSelf-censor
139
465503
3476
Me preocupa que la gente se autocensuraría
08:01
in fearmiedo of beingsiendo ostracizedcondenado al ostracismo by societysociedad,
140
469003
3302
por el miedo a ser
excluidos por la sociedad,
08:04
or that people will loseperder theirsu jobstrabajos
because of theirsu waningmenguante attentionatención
141
472329
3813
o que la gente perdiera sus trabajos
porque su atención mengua
08:08
or emotionalemocional instabilityinestabilidad,
142
476166
2150
o su inestabilidad emocional,
08:10
or because they're contemplatingcontemplando
collectivecolectivo actionacción againsten contra theirsu employersempleadores.
143
478340
3550
o porque estén contemplando
una acción colectiva contra sus empresas.
08:14
That comingviniendo out
will no longermás be an optionopción,
144
482478
3177
Eso que viene no volverá a ser una opción,
08:17
because people'sla gente brainssesos will long agohace
have revealedrevelado theirsu sexualsexual orientationorientación,
145
485679
5067
porque los cerebros de la gente hará
tiempo que habrán revelado su sexualidad,
08:22
theirsu politicalpolítico ideologyideología
146
490770
1822
su ideología política
o sus preferencias religiosas,
08:24
or theirsu religiousreligioso preferencespreferencias,
147
492616
2025
mucho antes de que estén listos para
compartir esa información conscientemente
08:26
well before they were readyListo
to consciouslyconscientemente sharecompartir that informationinformación
148
494665
3080
08:29
with other people.
149
497769
1253
con otras personas.
08:31
I worrypreocupación about the abilitycapacidad of our lawsleyes
to keep up with technologicaltecnológico changecambio.
150
499565
4912
Me preocupa la habilidad de nuestras
leyes para seguir al cambio tecnológico.
Miren la primera Enmienda
de la Constitución de EE. UU.,
08:36
Take the First AmendmentEnmienda
of the US ConstitutionConstitución,
151
504986
2320
08:39
whichcual protectsprotege freedomlibertad of speechhabla.
152
507330
1958
la que protege la libertad de expresión.
08:41
Does it alsoademás protectproteger freedomlibertad of thought?
153
509312
1927
¿Protege también la libertad de pensar?
08:43
And if so, does that mean that we're freegratis
to alteralterar our thoughtspensamientos howeversin embargo we want?
154
511944
4169
Y si lo hace, ¿somos libres de cambiar
nuestros pensamientos cuando queramos?
08:48
Or can the governmentgobierno or societysociedad tell us
what we can do with our ownpropio brainssesos?
155
516137
4674
¿O puede decirnos el gobierno y la
sociedad qué hacer con nuestras mentes?
08:53
Can the NSANSA spyespiar on our brainssesos
usingutilizando these newnuevo mobilemóvil devicesdispositivos?
156
521591
3717
¿Puede la Seguridad Nacional espiar
nuestras mentes usando teléfonos móviles?
08:58
Can the companiescompañías that collectrecoger
the braincerebro datadatos throughmediante theirsu applicationsaplicaciones
157
526053
4119
¿Las compañías que recogen los datos
mentales a través de aplicaciones pueden
09:02
sellvender this informationinformación to thirdtercero partiesfiestas?
158
530196
2074
vender esa información a terceros?
09:05
Right now, no lawsleyes preventevitar them
from doing so.
159
533174
3222
Ahora mismo, ninguna ley
les prohíbe hacer eso.
09:09
It could be even more problematicproblemático
160
537203
2025
Puede ser incluso más problemático
09:11
in countriespaíses that don't sharecompartir
the samemismo freedomslibertades
161
539252
2519
en países que no comparten
las mismas libertades que
09:13
enjoyeddisfrutado by people in the UnitedUnido StatesEstados.
162
541795
2103
disfrutamos la gente en EE. UU.
09:16
What would'vehabría happenedsucedió duringdurante
the Iranianiraní GreenVerde MovementMovimiento
163
544883
3787
¿Qué hubiera pasado durante
el Movimiento Verde Iraní
09:20
if the governmentgobierno had been
monitoringsupervisión my family'sfamilia braincerebro activityactividad,
164
548694
3901
si el gobierno hubiera estado controlando
la actividad cerebral de mi familia,
09:24
and had believedcreído them
to be sympatheticsimpático to the protestersmanifestantes?
165
552619
4007
y si hubieran pensado que ellos
simpatizaban con los protestantes?
09:30
Is it so far-fetchedexagerado to imagineimagina a societysociedad
166
558091
3047
Es tan disparatado imaginar una sociedad
en la que la gente es arrestada
basándose en sus pensamientos
09:33
in whichcual people are arresteddetenido
basedbasado on theirsu thoughtspensamientos
167
561162
2842
09:36
of committingcometer a crimecrimen,
168
564028
1167
de cometer un crimen,
09:37
like in the science-fictionciencia ficción
dystopiandistópico societysociedad in "MinorityMinoría ReportInforme."
169
565219
4312
como en la sociedad de un mundo de
ciencia ficción en "Minority Report".
09:42
AlreadyYa, in the UnitedUnido StatesEstados, in IndianaIndiana,
170
570286
4323
Ya, en EE. UU., en Indiana,
09:46
an 18-year-old-edad was chargedcargado
with attemptingintentando to intimidateintimidar his schoolcolegio
171
574633
4937
un joven de 18 años fue detenido
por intentar amenazar a su universidad
09:51
by postingdestino a videovídeo of himselfél mismo
shootingdisparo people in the hallwayspasillos ...
172
579594
3309
publicando un vídeo suyo
disparando a la gente en los pasillos...
09:55
ExceptExcepto the people were zombieszombies
173
583881
3007
Excepto que la gente eran zombis
09:58
and the videovídeo was of him playingjugando
an augmented-realityrealidad aumentada videovídeo gamejuego,
174
586912
5047
y el vídeo era de él jugando
un videojuego de realidad aumentada,
10:03
all interpretedinterpretado to be a mentalmental projectionproyección
of his subjectivesubjetivo intentintención.
175
591983
4772
todo fue interpretado como
proyección mental de su intento subjetivo.
10:10
This is exactlyexactamente why our brainssesos
need specialespecial protectionproteccion.
176
598456
4612
Es por esto exactamente que nuestras
mentes necesitan una protección especial.
10:15
If our brainssesos are just as subjecttema
to datadatos trackingrastreo and aggregationagregación
177
603092
3556
Si nuestros cerebros son objeto
de seguimiento y acumulación de datos
10:18
as our financialfinanciero recordsarchivos and transactionsactas,
178
606672
2532
como nuestros estados
financieros y transacciones,
10:21
if our brainssesos can be hackedpirateado
and trackedrastreado like our onlineen línea activitiesocupaciones,
179
609228
4285
si se puede hackearlos y monitorizarlos
como nuestra actividad en línea,
10:25
our mobilemóvil phonesteléfonos and applicationsaplicaciones,
180
613537
2361
nuestros teléfonos móviles y aplicaciones,
10:27
then we're on the brinkborde of a dangerouspeligroso
threatamenaza to our collectivecolectivo humanityhumanidad.
181
615922
4269
estamos al borde de una amenaza peligrosa
para nuestra humanidad colectiva.
10:33
Before you panicpánico,
182
621406
1309
Antes de que entren en pánico,
10:36
I believe that there are solutionssoluciones
to these concernspreocupaciones,
183
624012
3144
creo que hay soluciones
a estas preocupaciones,
pero tenemos que empezar por
centrarnos en las cosas correctas.
10:39
but we have to startcomienzo by focusingenfoque
on the right things.
184
627180
2825
10:42
When it comesproviene to privacyintimidad
protectionsprotecciones in generalgeneral,
185
630580
2921
Cuando se trata de la
protección de la intimidad en general,
creo que luchamos una batalla perdida
10:45
I think we're fightinglucha a losingperdiendo battlebatalla
186
633525
1826
10:47
by tryingmolesto to restrictrestringir
the flowfluir of informationinformación.
187
635375
2858
al intentar restringir
el movimiento de información.
10:50
InsteadEn lugar, we should be focusingenfoque
on securingasegurando rightsderechos and remediesremedios
188
638257
4057
En vez de eso, debemos centrarnos
en asegurar los derechos y remedios
10:54
againsten contra the misusemal uso of our informationinformación.
189
642338
2275
contra el uso incorrecto
de nuestra información.
Si la gente tiene derecho a decidir
cómo se comparte su información,
10:57
If people had the right to decidedecidir
how theirsu informationinformación was sharedcompartido,
190
645291
3285
11:00
and more importantlyen tono rimbombante, have legallegal redresscompensación
191
648600
2921
y más importante,
tiene una reparación legal
si su información se ha usado
incorrectamente en su contra,
11:03
if theirsu informationinformación
was misusedmal usado againsten contra them,
192
651545
2428
11:05
say to discriminatediscriminar againsten contra them
in an employmentempleo settingajuste
193
653997
2786
digamos para discriminarlos
en un marco laboral
11:08
or in healthsalud carecuidado or educationeducación,
194
656807
2785
o en una atención sanitaria
o en educación,
11:11
this would go a long way to buildconstruir trustconfianza.
195
659616
2571
esto ayudaría mucho a generar confianza.
11:14
In facthecho, in some instancesinstancias,
196
662843
1718
De hecho, en algunas ocasiones,
11:16
we want to be sharingcompartiendo more
of our personalpersonal informationinformación.
197
664585
3524
queremos compartir más
nuestra información personal.
11:20
StudyingEstudiando aggregatedagregado informationinformación
can tell us so much
198
668697
3047
Los estudios confirman que
la información puede decirnos mucho
11:23
about our healthsalud and our well-beingbienestar,
199
671768
2747
sobre nuestra salud y nuestro bienestar,
11:26
but to be ablepoder to safelysin peligro sharecompartir
our informationinformación,
200
674539
3313
pero para ser capaces de compartir
nuestra información con seguridad,
11:29
we need specialespecial protectionsprotecciones
for mentalmental privacyintimidad.
201
677876
3223
necesitamos protecciones
especiales para la intimidad mental.
11:33
This is why we need
a right to cognitivecognitivo libertylibertad.
202
681832
3147
Es por eso que necesitamos
el derecho a la libertad cognitiva.
11:37
This right would secureseguro for us
our freedomlibertad of thought and ruminationrumia,
203
685543
4079
Este derecho nos aseguraría nuestra
libertad de pensamiento y reflexión,
11:41
our freedomlibertad of self-determinationautodeterminación,
204
689646
2540
nuestra libertad de autodeterminación,
11:44
and it would insureasegurar that we have
the right to consentconsentimiento to or refusedesperdicios
205
692210
4390
y nos aseguraría el tener
el derecho a acceder o rechazar
11:48
accessacceso and alterationmodificación
of our brainssesos by othersotros.
206
696624
2857
el acceso y la alteración
de nuestras mentes debido a otros.
11:51
This right could be recognizedReconocido
207
699811
2112
Este derecho podría ser reconocido
11:53
as partparte of the UniversalUniversal DeclarationDeclaración
of HumanHumano RightsDerechos,
208
701947
2883
como parte de la Declaración
Universal de los Derechos Humanos,
11:56
whichcual has establishedestablecido mechanismsmecanismos
209
704854
2388
la que establece mecanismos
11:59
for the enforcementaplicación
of these kindsclases of socialsocial rightsderechos.
210
707266
2856
para la aplicación
de este tipo de derechos sociales.
12:03
DuringDurante the Iranianiraní GreenVerde MovementMovimiento,
211
711872
2070
Durante el Movimiento Verde Iraní,
12:05
the protestersmanifestantes used the internetInternet
and good old-fashionedpasado de moda wordpalabra of mouthboca
212
713966
5186
los protestantes usaron internet
y corrieron la voz a la vieja usanza
12:11
to coordinatecoordinar theirsu marchesmarchas.
213
719176
1948
para coordinar sus manifestaciones.
12:14
And some of the mostmás oppressiveopresivo
restrictionsrestricciones in IranCorrí
214
722238
2769
Y algunas de las restricciones
más opresivas en Irán
12:17
were liftedlevantado as a resultresultado.
215
725031
1877
surgieron como resultado de ello.
12:20
But what if the Iranianiraní governmentgobierno
had used braincerebro surveillancevigilancia
216
728047
4087
¿Pero y qué más da si el gobierno
Iraní vigiló las mentes de la gente
12:24
to detectdetectar and preventevitar the protestprotesta?
217
732158
3061
para detectar y evitar las protestas?
12:28
Would the worldmundo have ever heardoído
the protesters'manifestantes criesllantos?
218
736847
3176
¿Se habría enterado el mundo alguna
vez de los gritos de los protestantes?
12:33
The time has come for us to call
for a cognitivecognitivo libertylibertad revolutionrevolución.
219
741732
5121
Ha llegado la hora de
una revolución de la libertad cognitiva.
12:39
To make sure that we responsiblyresponsablemente
advanceavanzar technologytecnología
220
747559
3264
Debemos asegurarnos de que
la tecnología avanza de forma responsable
12:42
that could enablehabilitar us to embraceabrazo the futurefuturo
221
750847
2978
de manera que
nos permita abrazar el futuro
12:45
while fiercelyferozmente protectingprotector all of us
from any personpersona, companyempresa or governmentgobierno
222
753849
6717
mientras nos protege ferozmente
de cualquier persona, empresa o gobierno
12:52
that attemptsintentos to unlawfullyilegalmente accessacceso
or alteralterar our innermostinterior livesvive.
223
760590
5040
que intente acceder o alterar
ilegalmente nuestras vidas más íntimas.
12:58
Thank you.
224
766659
1174
Gracias.
12:59
(ApplauseAplausos)
225
767857
3492
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com