ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Alors que la technologie peut déjà lire nos pensées, comment allons-nous protéger notre vie privée mentale ?

Filmed:
1,819,292 views

Nita Farahany, juriste et éthicienne, nous indique qu'une technologie capable de décoder l'activité de notre cerveau et de révéler nos pensées et nos sentiments est en train d'émerger. Qu'est-ce que cela signifie pour le respect de notre vie privé déjà maintes fois mis à mal ? Nita Farahany nous met en garde contre une société dans laquelle les gens sont arrêtés pour avoir simplement imaginé commettre un crime (comme dans « Rapport Minoritaire »), et dans laquelle des intérêts privés peuvent vendre nos données cérébrales. Elle insiste sur la nécessité et le bien-fondé d'un Droit à la Liberté cognitive qui protège notre liberté de penser et de disposer de nous-mêmes.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsmois followingSuivant
the 2009 presidentialprésidentiel electionélection in IranIran,
0
1096
4714
Dans les mois qui ont suivi l'élection
présidentielle de 2009 en Iran,
00:17
protestsprotestations eruptedéruption acrossà travers the countryPays.
1
5834
2894
des manifestations ont éclaté
dans tout le pays.
00:21
The IranianIranien governmentgouvernement
violentlyviolemment suppressedsupprimée
2
9685
2896
Le gouvernement iranien
a violemment réprimé
00:24
what camevenu to be knownconnu
as the IranianIranien GreenVert MovementMouvement,
3
12605
3979
ce qui allait devenir
le Mouvement Vert Iranien.
00:28
even blockingblocage mobilemobile signalssignaux
4
16608
2053
Ils ont même bloqué
les signaux des portables
00:30
to cutCouper off communicationla communication
betweenentre the protestersmanifestants.
5
18685
2714
afin de couper toute communication
entre les manifestants.
00:34
My parentsParents, who emigratedémigré
to the UnitedUnie StatesÉtats in the lateen retard 1960s,
6
22316
4669
Mes parents, émigrés aux États-Unis
à la fin des années 1960,
00:39
spenddépenser substantialsubstantiel time there,
7
27009
1794
ont passé beaucoup de temps en Iran,
00:40
where all of my largegrand,
extendedélargi familyfamille livevivre.
8
28827
3153
et c'est là où réside toute
ma famille au sens large.
00:44
When I would call my familyfamille in TehranTéhéran
9
32832
3129
Lorsque j'appelais ma famille à Téhéran,
00:47
duringpendant some of the mostles plus violentviolent
crackdownsrépression of the protestprotestation,
10
35985
3452
lors de la répression la plus
violente de la protestation,
00:51
noneaucun of them daredosé discussdiscuter
with me what was happeningévénement.
11
39461
3252
aucun d'eux n'osait discuter
de ce qui se passait.
00:55
They or I knewa connu to quicklyrapidement steerSteer
the conversationconversation to other topicsles sujets.
12
43196
3529
Que ce soit eux ou moi, nous savions
comment vite changer de conversation.
00:59
All of us understoodcompris
what the consequencesconséquences could be
13
47163
3380
Nous avions tous compris quelles
pourraient être les conséquences
01:02
of a perceivedperçue dissidentdissident actionaction.
14
50567
2540
d'une action perçue comme dissidente.
01:06
But I still wishsouhait I could have knownconnu
what they were thinkingen pensant
15
54095
3469
Mais j'aurais quand même souhaité
savoir ce qu'ils pensaient
01:09
or what they were feelingsentiment.
16
57588
1418
ou ce qu'ils ressentaient.
01:12
What if I could have?
17
60217
1393
Et si j'avais pu ?
01:14
Or more frighteninglyterriblement,
18
62149
1151
Ou, plus effrayant, et si
le gouvernement iranien avait pu ?
01:15
what if the IranianIranien governmentgouvernement could have?
19
63324
2761
01:18
Would they have arrestedarrêté them
basedbasé on what theirleur brainscerveaux revealeda révélé?
20
66695
3244
Les auraient-ils arrêtés en se basant
sur ce que leur cerveau avait révélé ?
01:22
That day maymai be closerplus proche than you think.
21
70933
2944
Ce jour est peut-être plus proche
que vous ne le pensez.
01:26
With our growingcroissance capabilitiescapacités
in neuroscienceneuroscience, artificialartificiel intelligenceintelligence
22
74527
3811
Grace à nos progrès croissants
en neuroscience,
en intelligence artificielle
et en apprentissage machine,
01:30
and machinemachine learningapprentissage,
23
78362
1703
01:32
we maymai soonbientôt know a lot more
of what's happeningévénement in the humanHumain braincerveau.
24
80089
4075
nous allons bientôt
en savoir beaucoup plus
sur ce qui se passe
dans le cerveau humain.
01:37
As a bioethicistbioéthicien, a lawyeravocat, a philosopherphilosophe
25
85083
3310
En tant que bioéthicienne,
avocat, philosophe,
01:40
and an Iranian-AmericanIrano-américaine,
26
88417
1867
et américano-iranienne,
01:42
I'm deeplyprofondément concernedconcerné
about what this meansveux dire for our freedomslibertés
27
90308
3787
je suis profondément préoccupée
par ce que cela signifie pour nos libertés
01:46
and what kindssortes of protectionsprotections we need.
28
94119
2171
et quels sont les types de protection
dont nous avons besoin.
01:48
I believe we need
a right to cognitivecognitif libertyliberté,
29
96993
3460
Je crois que nous avons besoin
d'un droit à la liberté cognitive,
01:52
as a humanHumain right
that needsBesoins to be protectedprotégé.
30
100477
2892
considéré comme un droit humain
qui doit être protégé.
01:55
If not, our freedomliberté of thought,
31
103772
2643
Sinon, notre liberté de penser,
01:58
accessaccès and controlcontrôle over our ownposséder brainscerveaux
32
106439
3024
l'accès et le contrôle
sur nos propres cerveaux,
02:01
and our mentalmental privacyvie privée will be threatenedmenacé.
33
109487
2841
et notre vie privée mentale,
seront menacés.
02:05
ConsiderEnvisager de this:
34
113698
1158
Considèrez ceci : une personne ordinaire
a des milliers de pensées chaque jour.
02:06
the averagemoyenne personla personne thinkspense
thousandsmilliers of thoughtspensées eachchaque day.
35
114880
3314
02:10
As a thought takes formforme,
36
118697
1151
Quand une pensée se forme,
comme un calcul mathématique,
02:11
like a mathmath calculationcalcul
or a numbernombre, a wordmot,
37
119872
5056
un nombre, ou un mot,
02:16
neuronsneurones are interactinginteragir in the braincerveau,
38
124952
2885
les neurones interagissent
dans le cerveau,
02:19
creatingcréer a minisculeminuscule electricalélectrique dischargedécharge.
39
127861
3088
et créent de minuscules
décharges électriques.
02:23
When you have a dominantdominant
mentalmental stateEtat, like relaxationrelaxation,
40
131713
3452
Lorsque vous êtes dominé
par un état mental, comme la relaxation,
02:27
hundredsdes centaines and thousandsmilliers of neuronsneurones
are firingmise à feu in the braincerveau,
41
135189
4175
des centaines de milliers de neurones
s'activent dans le cerveau,
02:31
creatingcréer concurrentsimultanés electricalélectrique dischargesles rejets de
in characteristiccaractéristiques patternsmodèles
42
139388
4218
créant des décharges
électriques simultanées
qui suivent des schémas caractéristiques,
02:35
that can be measuredmesuré
with electroencephalographyélectroencéphalographie, or EEGEEG.
43
143630
4865
et qui peuvent être mesurées à l'aide
d'un électroencéphalogramme ou EEG.
02:41
In factfait, that's what
you're seeingvoyant right now.
44
149118
2160
En fait, c'est ce que
vous voyez en ce moment.
02:43
You're seeingvoyant my braincerveau activityactivité
that was recordedenregistré in realréal time
45
151956
3964
Vous voyez mon activité cérébrale
enregistrée en temps réel,
02:47
with a simplesimple devicedispositif
that was wornportés on my headtête.
46
155944
2735
avec un simple appareil
que je portais sur la tête.
02:51
What you're seeingvoyant is my braincerveau activityactivité
when I was relaxedassouplies and curiouscurieuse.
47
159669
5653
Ce que vous voyez,
c'est mon activité cérébrale
quand j'étais détendue et curieuse.
02:58
To sharepartager this informationinformation with you,
48
166097
1755
Pour pouvoir partager
cette information avec vous,
02:59
I woreportait one of the earlyde bonne heure
consumer-basedaxée sur le consommateur EEGEEG devicesdispositifs
49
167876
3020
j'ai porté l'un des premiers EEG destinés
aux consommateurs, comme celui-ci,
03:02
like this one,
50
170920
1211
03:04
whichlequel recordedenregistré the electricalélectrique
activityactivité in my braincerveau in realréal time.
51
172155
3988
qui enregistrait l'activité électrique
dans mon cerveau en temps réel,
03:08
It's not unlikecontrairement à the fitnessremise en forme trackerstrackers
that some of you maymai be wearingportant
52
176849
3826
un peu comme les traqueurs d'activité,
portés peut-être par certains ici,
03:12
to measuremesure your heartcœur ratetaux
or the stepspas that you've takenpris,
53
180699
3586
qui mesurent votre fréquence cardiaque,
ou le nombre de vos pas,
03:16
or even your sleepdormir activityactivité.
54
184309
1587
ou même votre activité
durant le sommeil.
03:19
It's hardlyà peine the mostles plus sophisticatedsophistiqué
neuroimagingneuro-imagerie techniquetechnique on the marketmarché.
55
187154
3824
Ce n'est pas la technique de neuroimagerie
la plus sophistiquée du marché,
03:23
But it's alreadydéjà the mostles plus portableportable
56
191597
2378
mais c'est, d'ors et déjà,
la plus portable
03:25
and the mostles plus likelyprobable to impactimpact
our everydaytous les jours livesvies.
57
193999
3152
et la plus susceptible d'affecter
notre vie quotidienne.
03:29
This is extraordinaryextraordinaire.
58
197915
1503
C'est extraordinaire !
03:31
ThroughPar le biais a simplesimple, wearableWearable devicedispositif,
59
199442
2505
Grâce à un simple appareil portable,
03:33
we can literallyLittéralement see
insideà l'intérieur the humanHumain braincerveau
60
201971
3548
nous pouvons littéralement « voir »
à l'intérieur du cerveau humain
03:37
and learnapprendre aspectsaspects of our mentalmental landscapepaysage
withoutsans pour autant ever utteringmise en circulation a wordmot.
61
205543
6476
et connaître les aspects
de notre paysage mental
sans jamais dire un mot.
03:44
While we can't reliablyfiable decodedécoder
complexcomplexe thoughtspensées just yetencore,
62
212829
3653
Même si nous ne pouvons pas correctement
décoder des pensées complexes,
03:48
we can alreadydéjà gaugejauge a person'spersonne moodambiance,
63
216506
2519
nous pouvons déjà évaluer
l'humeur d'une personne
03:51
and with the help
of artificialartificiel intelligenceintelligence,
64
219049
2873
et, grâce à l'intelligence artificielle,
03:53
we can even decodedécoder
some single-digità un seul chiffre numbersNombres
65
221946
4341
nous pouvons même reconnaître
certains nombres à un seul chiffre,
03:58
or shapesformes or simplesimple wordsmots
that a personla personne is thinkingen pensant
66
226311
4882
certaines formes ou mots simples
qu'une personne est en train
de penser, d'entendre, ou de voir.
04:03
or hearingaudition, or seeingvoyant.
67
231217
2189
04:06
DespiteMalgré some inherentinhérent limitationslimites in EEGEEG,
68
234345
3365
Malgré certaines limitations
inhérentes à l'EEG,
04:09
I think it's safesûr to say
that with our advancesavances in technologyLa technologie,
69
237734
4720
je pense qu'on peut raisonnablement dire
que grâce à nos progrès technologiques,
04:14
more and more of what's happeningévénement
in the humanHumain braincerveau
70
242478
3809
de plus en plus de ce qui se passe
dans le cerveau humain
04:18
can and will be decodeddécodé over time.
71
246311
2310
peut et sera décodé avec le temps.
04:21
AlreadyDéjà, usingen utilisant one of these devicesdispositifs,
72
249362
2746
Actuellement, en utilisant
un de ces appareils,
04:24
an epilepticépileptique can know
they're going to have an epilepticépileptique seizuresaisie
73
252132
3255
un épileptique peut anticiper une crise
épileptique avant qu'elle ne se produise ;
04:27
before it happensarrive.
74
255411
1436
04:28
A paraplegicparaplégique can typetype on a computerordinateur
with theirleur thoughtspensées aloneseul.
75
256871
4603
un paraplégique peut
se servir d'un ordinateur
en utilisant seulement ses pensées.
04:34
A US-basedBasé aux États-Unis companycompagnie has developeddéveloppé
a technologyLa technologie to embedintégrer these sensorscapteurs
76
262485
4183
Une société basée aux États-Unis
a développé une technologie
qui intègre ces capteurs
dans l’appuie-tête des automobiles
04:38
into the headrestappui-tête of automobiliesles automobilies
77
266692
2230
04:40
so they can trackPiste driverchauffeur concentrationconcentration,
78
268946
2505
et permet de surveiller
la concentration du conducteur,
04:43
distractiondistraction and cognitivecognitif loadcharge
while drivingau volant.
79
271475
2667
sa distraction et sa charge cognitive,
pendant qu'il conduit.
04:46
NissanNissan, insuranceAssurance companiesentreprises
and AAAAAA have all takenpris noteRemarque.
80
274912
4058
Nissan, des compagnies d'assurance
et AAA ont tous pris acte.
04:51
You could even watch this
choose-your-own-adventureChoisissez-votre-propre-aventure moviefilm
81
279949
4508
Vous pouvez même regarder un film
« Choisis-ton-aventure »,
04:56
"The MomentInstant," whichlequel, with an EEGEEG headsetcasque,
82
284481
4240
tel que « The Moment »,
avec un casque EEG,
05:00
changeschangements the moviefilm
basedbasé on your brain-basedaxée sur le cerveau reactionsréactions,
83
288745
3926
qui modifie le film en fonction
de vos réactions cérébrales,
05:04
givingdonnant you a differentdifférent endingfin
everychaque time your attentionattention waneswanes.
84
292695
4353
et vous donne une fin différente
chaque fois que votre attention faiblit.
05:11
This maymai all sounddu son great,
85
299154
2763
Tout cela peut sembler formidable
05:13
and as a bioethicistbioéthicien,
86
301941
2189
et, en tant que bioéthicien,
05:16
I am a hugeénorme proponentpromoteur of empoweringautonomiser people
87
304154
3613
j'encourage ardemment
les gens à se responsabiliser,
05:19
to take chargecharge of theirleur ownposséder
healthsanté and well-beingbien-être
88
307791
2616
à prendre en charge
leur santé et leur bien-être
05:22
by givingdonnant them accessaccès
to informationinformation about themselvesse,
89
310431
2918
en leur donnant accès
à des informations sur eux-mêmes,
05:25
includingcomprenant this incredibleincroyable
newNouveau brain-decodingdécodage cérébral technologyLa technologie.
90
313373
2976
y compris cette incroyable technologie
de décodage de l'activité cérébrale.
05:29
But I worryinquiéter.
91
317878
1167
Mais, je m'inquiète.
05:31
I worryinquiéter that we will voluntarilyvolontairement
or involuntarilyinvolontairement give up
92
319736
4760
Je crains que nous ne renoncions,
volontairement ou involontairement,
05:36
our last bastionBastion of freedomliberté,
our mentalmental privacyvie privée.
93
324520
4118
à notre dernier bastion de liberté :
notre vie privée mentale ;
05:41
That we will tradeCommerce our braincerveau activityactivité
94
329302
2925
que nous ne vendions
notre activité cérébrale
05:44
for rebatesremises or discountsrabais on insuranceAssurance,
95
332251
3046
pour un rabais ou des réductions
sur les assurances,
ou pour un accès gratuit
à des réseaux sociaux internet,
05:48
or freegratuit accessaccès
to social-mediamédias sociaux accountscomptes ...
96
336391
2603
05:52
or even to keep our jobsemplois.
97
340444
1848
ou même pour préserver notre emploi.
05:54
In factfait, in ChinaLa Chine,
98
342900
1913
En fait, en Chine,
05:58
the traintrain driverspilotes on
the Beijing-ShanghaiBeijing-Shanghai high-speedhaute vitesse railrail,
99
346199
5897
les conducteurs de train,
sur le TGV Beijing-Shanghai,
06:04
the busiestplus fréquentés of its kindgentil in the worldmonde,
100
352120
2532
le plus occupé de son genre dans le monde,
06:06
are requiredChamps obligatoires to wearporter EEGEEG devicesdispositifs
101
354676
2476
sont tenus de porter des appareils EEG
06:09
to monitormoniteur theirleur braincerveau activityactivité
while drivingau volant.
102
357176
2427
pour surveiller leur activité
cérébrale pendant qu'ils conduisent.
06:12
AccordingSelon to some newsnouvelles sourcessources,
103
360157
2226
Selon certaines sources d'actualités,
06:14
in government-rungérés par le gouvernement factoriesdes usines in ChinaLa Chine,
104
362407
2679
dans certaines usines
gouvernementales en Chine,
06:17
the workersouvriers are requiredChamps obligatoires to wearporter
EEGEEG sensorscapteurs to monitormoniteur theirleur productivityproductivité
105
365110
5364
les travailleurs doivent
porter des capteurs EEG
pour observer leur productivité
et leur état émotionnel au travail.
06:22
and theirleur emotionalémotif stateEtat at work.
106
370498
2115
06:25
WorkersTravailleurs are even sentenvoyé home
107
373267
2310
Les travailleurs sont
même renvoyés chez eux
06:27
if theirleur brainscerveaux showmontrer less-than-stellarmoins-que-stellaire
concentrationconcentration on theirleur jobsemplois,
108
375601
4054
si leur cerveau montre une concentration
médiocre sur leur travail
06:31
or emotionalémotif agitationagitation.
109
379679
2122
ou de l'agitation émotionnelle.
06:35
It's not going to happense produire tomorrowdemain,
110
383189
1745
Cela ne va pas arriver demain,
06:36
but we're headedà tête to a worldmonde
of braincerveau transparencytransparence.
111
384958
3086
mais nous nous dirigeons
vers un monde de transparence cérébrale.
06:40
And I don't think people understandcomprendre
that that could changechangement everything.
112
388537
3440
Et je ne pense pas que les gens
comprennent que cela peut tout changer,
06:44
Everything from our definitionsdéfinitions
of dataLes données privacyvie privée to our lawslois,
113
392474
3675
de notre définition
de la confidentialité des données,
à nos lois, en passant
par nos idées sur la liberté.
06:48
to our ideasidées about freedomliberté.
114
396173
1800
06:50
In factfait, in my lablaboratoire at DukeDuc UniversityUniversité,
115
398731
3077
En fait, dans mon laboratoire
à l'Université Duke,
06:53
we recentlyrécemment conductedconduit a nationwideà l'échelle nationale studyétude
in the UnitedUnie StatesÉtats
116
401832
3175
Nous avons récemment mené
une étude nationale, aux États-Unis,
06:57
to see if people appreciatedapprécié
117
405031
1959
pour savoir si les gens appréciaient
06:59
the sensitivitysensibilité
of theirleur braincerveau informationinformation.
118
407014
2071
la nature délicate de leurs
informations cérébrales.
07:02
We askeda demandé people to ratetaux
theirleur perceivedperçue sensitivitysensibilité
119
410356
3356
Nous leur avons demandé
d'évaluer leur sensibilité
07:05
of 33 differentdifférent kindssortes of informationinformation,
120
413736
2231
concernant 33 types
différents d'information,
07:07
from theirleur socialsocial securitySécurité numbersNombres
121
415991
2220
de leur numéro de sécurité sociale
07:10
to the contentcontenu
of theirleur phonetéléphone conversationsconversations,
122
418235
2597
au contenu de leurs
conversations téléphoniques,
07:12
theirleur relationshiprelation historyhistoire,
123
420856
2193
à l’histoire de leurs relations,
07:15
theirleur emotionsémotions, theirleur anxietyanxiété,
124
423073
1942
à leurs émotions, leur anxiété,
07:17
the mentalmental imagesimages in theirleur mindesprit
125
425039
1946
leurs images mentales
et les pensées dans leur esprit.
07:19
and the thoughtspensées in theirleur mindesprit.
126
427009
1538
07:21
ShockinglyScandaleusement, people ratedévalué theirleur socialsocial
securitySécurité numbernombre as farloin more sensitivesensible
127
429481
5229
Étonnamment, les gens ont jugé
leur numéro de sécurité sociale
beaucoup plus sensible
que tout autre type d’information,
07:26
than any other kindgentil of informationinformation,
128
434734
2203
07:28
includingcomprenant theirleur braincerveau dataLes données.
129
436961
2435
y compris leurs données cérébrales.
07:32
I think this is because
people don't yetencore understandcomprendre
130
440380
3216
Je pense que c'est parce que les gens
ne comprennent pas encore
ou ne croient pas aux implications
07:35
or believe the implicationsimplications
of this newNouveau brain-decodingdécodage cérébral technologyLa technologie.
131
443620
4063
de cette nouvelle technologie
de décodage des ondes cérébrales.
07:40
After all, if we can know
the innerinterne workingsfonctionnements of the humanHumain braincerveau,
132
448629
3289
En effet, si nous avons accès aux rouages
internes du cerveau humain,
07:43
our socialsocial securitySécurité numbersNombres
are the leastmoins of our worriesdes soucis.
133
451942
2706
nos numéros de sécurité sociale
sont le moindre de nos soucis.
07:46
(LaughterRires)
134
454672
1285
(Rires)
07:47
Think about it.
135
455981
1167
Pensez-y.
07:49
In a worldmonde of totaltotal braincerveau transparencytransparence,
136
457172
2396
Dans un monde de transparence
totale du cerveau,
07:51
who would dareoser have
a politicallypolitiquement dissidentdissident thought?
137
459592
2429
qui oserait avoir une pensée
politique dissidente ?
07:55
Or a creativeCréatif one?
138
463279
1541
Ou une pensée créative ?
07:57
I worryinquiéter that people will self-censorAuto-censeur
139
465503
3476
Je crains que les gens ne s'autocensurent,
08:01
in fearpeur of beingétant ostracizedostracisme by societysociété,
140
469003
3302
de peur d'être mis au ban de la société,
08:04
or that people will loseperdre theirleur jobsemplois
because of theirleur waningen déclin attentionattention
141
472329
3813
ou que les gens ne perdent leur emploi
à cause de leur attention déclinante
ou de leur instabilité émotionnelle,
08:08
or emotionalémotif instabilityinstabilité,
142
476166
2150
08:10
or because they're contemplatingcontemplant
collectivecollectif actionaction againstcontre theirleur employersemployeurs.
143
478340
3550
ou parce qu'ils envisagent une action
collective contre leurs employeurs.
08:14
That comingvenir out
will no longerplus long be an optionoption,
144
482478
3177
Sortir de la norme ne sera plus possible,
08:17
because people'sles gens brainscerveaux will long agodepuis
have revealeda révélé theirleur sexualsexuel orientationorientation,
145
485679
5067
parce que le cerveau des gens aura révélé
depuis longtemps leur orientation sexuelle,
08:22
theirleur politicalpolitique ideologyidéologie
146
490770
1822
leur idéologie politique,
ou leurs préférences religieuses,
08:24
or theirleur religiousreligieux preferencespréférences,
147
492616
2025
08:26
well before they were readyprêt
to consciouslyconsciemment sharepartager that informationinformation
148
494665
3080
bien avant qu'ils ne soient prêts
à partager consciemment
cette information avec les autres.
08:29
with other people.
149
497769
1253
08:31
I worryinquiéter about the abilitycapacité of our lawslois
to keep up with technologicaltechnologique changechangement.
150
499565
4912
Je m'inquiète de la capacité de nos lois
à suivre l'évolution technologique.
Prenez le Premier amendement
de la Constitution américaine,
08:36
Take the First AmendmentAmendement
of the US ConstitutionConstitution,
151
504986
2320
08:39
whichlequel protectsprotège freedomliberté of speechdiscours.
152
507330
1958
qui protège la liberté d'expression.
08:41
Does it alsoaussi protectprotéger freedomliberté of thought?
153
509312
1927
Protège-t-il également
la liberté de pensée ?
08:43
And if so, does that mean that we're freegratuit
to altermodifier our thoughtspensées howevertoutefois we want?
154
511944
4169
Si oui, sommes-nous libres de transformer
nos pensées comme bon nous semble ?
08:48
Or can the governmentgouvernement or societysociété tell us
what we can do with our ownposséder brainscerveaux?
155
516137
4674
Ou bien le gouvernement
ou la société peuvent-ils dicter
ce que nous pouvons
faire de nos cerveaux ?
08:53
Can the NSANSA spyespion on our brainscerveaux
usingen utilisant these newNouveau mobilemobile devicesdispositifs?
156
521591
3717
La NSA peut-elle espionner nos cerveaux
avec ces nouveaux appareils mobiles ?
08:58
Can the companiesentreprises that collectcollecte
the braincerveau dataLes données throughpar theirleur applicationsapplications
157
526053
4119
Les entreprises qui collectent les données
cérébrales via leurs applications
09:02
sellvendre this informationinformation to thirdtroisième partiesdes soirées?
158
530196
2074
peuvent-elles vendre
ces informations à des tiers ?
09:05
Right now, no lawslois preventprévenir them
from doing so.
159
533174
3222
À l'heure actuelle, aucune loi
ne les empêche de le faire.
09:09
It could be even more problematicproblématique
160
537203
2025
C'est encore plus
problématique dans des pays
09:11
in countriesdes pays that don't sharepartager
the sameMême freedomslibertés
161
539252
2519
qui ne partagent pas les mêmes libertés
dont jouissent les citoyens américains.
09:13
enjoyedapprécié by people in the UnitedUnie StatesÉtats.
162
541795
2103
09:16
What would'veaurais happenedarrivé duringpendant
the IranianIranien GreenVert MovementMouvement
163
544883
3787
Que se serait-il passé
durant le Mouvement Vert Iranien,
09:20
if the governmentgouvernement had been
monitoringsurveillance my family'sla famille braincerveau activityactivité,
164
548694
3901
si le gouvernement avait surveillé
les activités cérébrales de ma famille
09:24
and had believeda cru them
to be sympatheticsympathique to the protestersmanifestants?
165
552619
4007
et l'avait considérée
favorable aux manifestants ?
09:30
Is it so far-fetchedfarfelu to imagineimaginer a societysociété
166
558091
3047
Est-il si exagéré d'imaginer une société
dans laquelle des gens sont arrêtés
pour avoir pensé commettre un crime,
09:33
in whichlequel people are arrestedarrêté
basedbasé on theirleur thoughtspensées
167
561162
2842
09:36
of committingcommettre a crimela criminalité,
168
564028
1167
09:37
like in the science-fictionscience fiction
dystopiandystopique societysociété in "MinorityMinorité ReportRapport."
169
565219
4312
comme dans la société
dystopique de science-fiction
de « Rapport Minoritaire » ?
09:42
AlreadyDéjà, in the UnitedUnie StatesÉtats, in IndianaIndiana,
170
570286
4323
Déjà, aux États-Unis, dans l'Indiana,
09:46
an 18-year-old-Age was chargedaccusé
with attemptingtenter to intimidateintimider his schoolécole
171
574633
4937
un adolescent de 18 ans a été accusé
d'avoir tenté d'intimider son école
09:51
by postingaffectation a videovidéo of himselflui-même
shootingtournage people in the hallwayscouloirs ...
172
579594
3309
en publiant une vidéo de lui en train
de tirer sur des gens dans les couloirs...
09:55
ExceptSauf the people were zombiesdes morts-vivants
173
583881
3007
Sauf que les gens étaient des zombies
09:58
and the videovidéo was of him playingen jouant
an augmented-realityréalité augmentée videovidéo gameJeu,
174
586912
5047
et que la vidéo le figurait jouant
à un jeu vidéo en réalité augmentée,
le tout ayant été interprété
10:03
all interpretedinterprété to be a mentalmental projectionprojection
of his subjectivesubjectif intentintention.
175
591983
4772
comme étant une projection mentale
de son intention subjective.
10:10
This is exactlyexactement why our brainscerveaux
need specialspécial protectionprotection.
176
598456
4612
C'est justement pour ça que notre cerveau
a besoin d'une protection spéciale.
10:15
If our brainscerveaux are just as subjectassujettir
to dataLes données trackingsuivi and aggregationagrégation
177
603092
3556
Si nos cerveaux sont sujets au même suivi
et à la même agrégation de données
10:18
as our financialfinancier recordsEnregistrements and transactionstransactions,
178
606672
2532
que nos données
et transactions financières,
10:21
if our brainscerveaux can be hackedpiraté
and trackedsuivi like our onlineen ligne activitiesActivités,
179
609228
4285
si nos cerveaux peuvent
être piratés et surveillés
comme nos activités en ligne,
nos téléphones et applications portables,
10:25
our mobilemobile phonesTéléphones and applicationsapplications,
180
613537
2361
10:27
then we're on the brinkbord of a dangerousdangereux
threatmenace to our collectivecollectif humanityhumanité.
181
615922
4269
nous sommes au bord d'une grave
menace pour toute l'humanité.
10:33
Before you panicpanique,
182
621406
1309
Pas de panique,
10:36
I believe that there are solutionssolutions
to these concernspréoccupations,
183
624012
3144
je pense qu'il existe
des solutions à ces problèmes,
10:39
but we have to startdébut by focusingse concentrer
on the right things.
184
627180
2825
mais d'abord, nous devons nous
concentrer sur les choses importantes.
10:42
When it comesvient to privacyvie privée
protectionsprotections in generalgénéral,
185
630580
2921
En ce qui concerne la protection
de la vie privée en général,
10:45
I think we're fightingcombat a losingperdant battlebataille
186
633525
1826
nous menons une bataille perdue
10:47
by tryingen essayant to restrictrestreindre
the flowcouler of informationinformation.
187
635375
2858
en essayant de limiter
le flux d'informations.
10:50
InsteadAu lieu de cela, we should be focusingse concentrer
on securingsécuriser rightsdroits and remediesvoies de recours
188
638257
4057
Nous devrions plutôt nous concentrer
sur la garantie des droits et recours
10:54
againstcontre the misusemauvaise utilisation of our informationinformation.
189
642338
2275
contre l'utilisation abusive
de nos informations.
10:57
If people had the right to decidedécider
how theirleur informationinformation was sharedpartagé,
190
645291
3285
Si les gens pouvaient décider de la façon
dont leurs informations sont partagées,
11:00
and more importantlyimportant, have legallégal redressréparation
191
648600
2921
et, plus important encore,
avoir un recours légal
11:03
if theirleur informationinformation
was misusedutilisées à mauvais escient againstcontre them,
192
651545
2428
en cas d'utilisation abusive
de leurs informations,
11:05
say to discriminateune discrimination againstcontre them
in an employmentemploi settingréglage
193
653997
2786
par exemple, en cas de discrimination
dans un contexte de travail,
de santé ou d'éducation,
11:08
or in healthsanté carese soucier or educationéducation,
194
656807
2785
11:11
this would go a long way to buildconstruire trustconfiance.
195
659616
2571
cela contribuerait grandement
à créer de la confiance.
11:14
In factfait, in some instancesinstances,
196
662843
1718
En fait, dans certains cas,
11:16
we want to be sharingpartage more
of our personalpersonnel informationinformation.
197
664585
3524
nous souhaitons partager davantage
nos renseignements personnels.
11:20
StudyingÉtudier aggregatedagrégées informationinformation
can tell us so much
198
668697
3047
L'étude des informations globales
peut nous en dire tant
sur notre santé et notre bien-être !
11:23
about our healthsanté and our well-beingbien-être,
199
671768
2747
11:26
but to be ablecapable to safelyen toute sécurité sharepartager
our informationinformation,
200
674539
3313
Mais pour pouvoir partager
nos informations en toute sécurité,
11:29
we need specialspécial protectionsprotections
for mentalmental privacyvie privée.
201
677876
3223
nous avons besoin d'une protection
spéciale de la vie privée mentale.
11:33
This is why we need
a right to cognitivecognitif libertyliberté.
202
681832
3147
Voilà pourquoi nous avons besoin
d'un Droit à la Liberté Cognitive.
11:37
This right would securegarantir for us
our freedomliberté of thought and ruminationrumination,
203
685543
4079
Ce droit protègerait notre liberté
de penser et de ruminer,
11:41
our freedomliberté of self-determinationautodétermination,
204
689646
2540
notre liberté de disposer de nous-mêmes,
11:44
and it would insures’assurer that we have
the right to consentconsentement to or refuserefuser
205
692210
4390
et il garantirait notre droit
de consentir ou refuser
11:48
accessaccès and alterationaltération
of our brainscerveaux by othersautres.
206
696624
2857
l'accès et l'altération
de notre cerveau par d'autres.
11:51
This right could be recognizedreconnu
207
699811
2112
Ce droit pourrait être reconnu
11:53
as partpartie of the UniversalUniversal DeclarationDéclaration
of HumanHumaine RightsDroits,
208
701947
2883
dans le cadre de la Déclaration
Universelle des Droits de l'Homme,
11:56
whichlequel has establishedétabli mechanismsmécanismes
209
704854
2388
qui a mis en place des mécanismes
11:59
for the enforcementmise en vigueur
of these kindssortes of socialsocial rightsdroits.
210
707266
2856
permettant de faire respecter
ce type de droits sociaux.
12:03
DuringAu cours de the IranianIranien GreenVert MovementMouvement,
211
711872
2070
Au cours du Mouvement Vert Iranien,
12:05
the protestersmanifestants used the internetl'Internet
and good old-fashionedancienne wordmot of mouthbouche
212
713966
5186
les manifestants ont utilisé Internet
et le bon vieux bouche-à-oreille
12:11
to coordinatecoordonner theirleur marchesmarches.
213
719176
1948
pour coordonner leurs marches.
12:14
And some of the mostles plus oppressiveoppressif
restrictionsrestrictions in IranIran
214
722238
2769
Et certaines des restrictions
les plus oppressives en Iran
12:17
were liftedlevé as a resultrésultat.
215
725031
1877
ont été retirées en conséquence.
12:20
But what if the IranianIranien governmentgouvernement
had used braincerveau surveillancesurveillance
216
728047
4087
Que se serait-il passé
si le gouvernement iranien
avait utilisé la surveillance
de l'activité cérébrale
12:24
to detectdétecter and preventprévenir the protestprotestation?
217
732158
3061
pour détecter et empêcher
la manifestation ?
12:28
Would the worldmonde have ever heardentendu
the protesters'manifestants criesCris?
218
736847
3176
Le monde aurait-il jamais entendu
les appels des manifestants ?
12:33
The time has come for us to call
for a cognitivecognitif libertyliberté revolutionrévolution.
219
741732
5121
Le temps est venu pour nous d'appeler
à une révolution de la liberté cognitive,
12:39
To make sure that we responsiblyresponsable
advanceavance technologyLa technologie
220
747559
3264
pour veiller à ce que nous
développions de façon responsable
une technologie qui nous
permette d'embrasser l'avenir
12:42
that could enableactiver us to embraceembrasse the futureavenir
221
750847
2978
12:45
while fiercelyférocement protectingprotéger all of us
from any personla personne, companycompagnie or governmentgouvernement
222
753849
6717
tout en nous protégeant tous
farouchement
contre toute personne,
entreprise ou gouvernement
12:52
that attemptstentatives to unlawfullyIllégalement accessaccès
or altermodifier our innermostplus profond livesvies.
223
760590
5040
qui tente d'accéder illégalement
ou de modifier notre vie intérieure.
12:58
Thank you.
224
766659
1174
Merci.
12:59
(ApplauseApplaudissements)
225
767857
3492
(Applaudissements)
Translated by Jacqueline Altagracia
Reviewed by Hélène VERNET

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com