ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Khi công nghệ có thể đọc được suy nghĩ, ta sẽ bảo vệ sự riêng tư như thế nào?

Filmed:
1,819,292 views

"Công nghệ có thể giải mã hoạt động của não bộ và tiết lộ những suy nghĩ hay cảm xúc của bạn", nhà nghiên cứu pháp lý và nhà đạo đức học Nita Farahany phát biểu. Điều đó có ảnh hưởng gì đối với sự riêng tư vốn đã bị xâm phạm của ta? Trong một cuộc nói chuyện, Farahany cảnh báo về một xã hội nơi người ta bị bắt chỉ vì suy nghĩ về việc phạm tội (như trong bộ phim "Minority Report") và việc bán dữ liệu não nhằm chuộc lợi -- và đặt vấn đề về quyền tự do trong nhận thức để bảo vệ sự tự do tư tưởng và tự do ra quyết định của mỗi người.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthstháng followingtiếp theo
the 2009 presidentialTổng thống electioncuộc bầu cử in IranIran,
0
1096
4714
Sau đợt bầu cử tổng thống
năm 2009 ở Iran,
00:17
protestsphản đối eruptedbùng nổ acrossbăng qua the countryQuốc gia.
1
5834
2894
biểu tình nổ ra khắp nơi
trên cả nước.
00:21
The IranianIran governmentchính quyền
violentlykhốc liệt suppressedbị đàn áp
2
9685
2896
Chính quyền Iran
đã đàn áp quyết liệt
00:24
what cameđã đến to be knownnổi tiếng
as the IranianIran GreenMàu xanh lá cây MovementPhong trào,
3
12605
3979
thứ mà sau này gọi là
Phong trào Xanh của Iran,
hay thậm chí, cắt sóng điện thoại
00:28
even blockingchặn mobiledi động signalstín hiệu
4
16608
2053
00:30
to cutcắt tỉa off communicationgiao tiếp
betweengiữa the protestersngười biểu tình.
5
18685
2714
để cắt đứt liên lạc
giữa những người biểu tình.
00:34
My parentscha mẹ, who emigrateddi cư
to the UnitedVương StatesTiểu bang in the latemuộn 1960s,
6
22316
4669
Cha mẹ tôi, di cư tới Hoa Kỳ
cuối những năm 60s,
đã dành thời gian đáng kể ở đó,
00:39
spendtiêu substantialđáng kể time there,
7
27009
1794
00:40
where all of my largelớn,
extendedmở rộng familygia đình livetrực tiếp.
8
28827
3153
và đại gia đình của tôi cũng ở đó.
00:44
When I would call my familygia đình in TehranTehran
9
32832
3129
Khi gọi cho gia đình mình ở Tehran,
giữa lúc các cuộc biểu tình
bị đàn áp quyết liệt,
00:47
duringsuốt trong some of the mostphần lớn violenthung bạo
crackdownscrackdowns of the protestkháng nghị,
10
35985
3452
00:51
nonekhông ai of them dareddám discussbàn luận
with me what was happeningxảy ra.
11
39461
3252
không ai dám bàn luận với tôi
chuyện gì đang xảy ra.
Hai bên đều chuyển chủ đề ngay lập tức.
00:55
They or I knewbiết to quicklyMau steerchỉ đạo
the conversationcuộc hội thoại to other topicschủ đề.
12
43196
3529
00:59
All of us understoodhiểu
what the consequenceshậu quả could be
13
47163
3380
Tất cả chúng tôi đều hiểu hậu quả
sẽ tàn khốc thế nào
01:02
of a perceivedcảm nhận dissidentbất đồng chính kiến actionhoạt động.
14
50567
2540
nếu phản đối chính quyền.
01:06
But I still wishmuốn I could have knownnổi tiếng
what they were thinkingSuy nghĩ
15
54095
3469
Nhưng tôi vẫn ước mình có thể biết
những gì họ đang nghĩ
01:09
or what they were feelingcảm giác.
16
57588
1418
hay cảm giác của họ.
01:12
What if I could have?
17
60217
1393
Giả như tôi có thể?
01:14
Or more frighteninglyfrighteningly,
18
62149
1151
Hay tệ hơn,
01:15
what if the IranianIran governmentchính quyền could have?
19
63324
2761
sẽ ra sao nếu chính quyền Iran có thể?
01:18
Would they have arrestedbị bắt them
baseddựa trên on what theirhọ brainsnão revealedtiết lộ?
20
66695
3244
Liệu họ sẽ bắt gia đình tôi
dựa trên tín hiệu não?
01:22
That day mayTháng Năm be closergần hơn than you think.
21
70933
2944
Ngày đó gần hơn bạn nghĩ.
01:26
With our growingphát triển capabilitieskhả năng
in neurosciencethần kinh học, artificialnhân tạo intelligenceSự thông minh
22
74527
3811
Với sự phát triển của khoa học thần kinh,
trí thông minh nhân tạo
và công nghệ Máy học,
01:30
and machinemáy móc learninghọc tập,
23
78362
1703
01:32
we mayTháng Năm soonSớm know a lot more
of what's happeningxảy ra in the humanNhân loại brainóc.
24
80089
4075
ta sẽ sớm biết nhiều hơn
về những gì xảy ra trong bộ não.
Là một nhà đạo đức sinh học,
luật sư, nhà triết học,
01:37
As a bioethicistbioethicist, a lawyerluật sư, a philosophernhà triết học
25
85083
3310
và một người Mỹ gốc Iran,
01:40
and an Iranian-AmericanNgười Mỹ gốc Iran,
26
88417
1867
01:42
I'm deeplysâu sắc concernedliên quan
about what this meanscó nghĩa for our freedomstự do
27
90308
3787
tôi rất quan ngại về tự do của ta
và cách để bảo vệ tự do đó.
01:46
and what kindscác loại of protectionsbảo vệ we need.
28
94119
2171
01:48
I believe we need
a right to cognitivenhận thức libertytự do,
29
96993
3460
Tôi tin rằng chúng ta cần
quyền tự do trong nhận thức,
như là một quyền con người
cần được bảo vệ.
01:52
as a humanNhân loại right
that needsnhu cầu to be protectedbảo vệ.
30
100477
2892
01:55
If not, our freedomsự tự do of thought,
31
103772
2643
Nếu không có tự do tư tưởng,
01:58
accesstruy cập and controlđiều khiển over our ownsở hữu brainsnão
32
106439
3024
ai đó sẽ truy cập và điều khiển
bộ não của chính chúng ta
02:01
and our mentaltâm thần privacysự riêng tư will be threatenedbị đe dọa.
33
109487
2841
và rồi sự riêng tư sẽ bị đe dọa.
Hãy cùng xem xét vấn đề:
02:05
ConsiderXem xét this:
34
113698
1158
02:06
the averageTrung bình cộng personngười thinksnghĩ
thousandshàng nghìn of thoughtssuy nghĩ eachmỗi day.
35
114880
3314
trung bình một người
có cả ngàn suy nghĩ mỗi ngày.
Khi một ý nghĩ hình thành,
02:10
As a thought takes formhình thức,
36
118697
1151
02:11
like a mathmôn Toán calculationphép tính
or a numbercon số, a wordtừ,
37
119872
5056
như việc tính toán,
hay một con số, một chữ cái,
các nơ-ron tương tác với não bộ,
02:16
neuronstế bào thần kinh are interactingtương tác in the brainóc,
38
124952
2885
02:19
creatingtạo a minisculerất nhỏ electricalđiện dischargexả.
39
127861
3088
tạo ra một sự phóng điện nhỏ.
02:23
When you have a dominantcó ưu thế
mentaltâm thần statetiểu bang, like relaxationthư giãn,
40
131713
3452
Khi bạn đang ở một trạng thái,
thư giãn chẳng hạn,
02:27
hundredshàng trăm and thousandshàng nghìn of neuronstế bào thần kinh
are firingbắn in the brainóc,
41
135189
4175
có cả trăm ngàn tế bào thần kinh
hoạt động trong não,
tạo ra những phóng điện
theo những dạng rất đặc trưng
02:31
creatingtạo concurrentđồng thời electricalđiện dischargesthải
in characteristicđặc trưng patternsmẫu
42
139388
4218
02:35
that can be measuredđã đo
with electroencephalographyđiện não đồ, or EEGEEG.
43
143630
4865
có thể được đo bằng điện não đồ - EEG.
Bạn sẽ thấy chúng ngay bây giờ.
02:41
In factthực tế, that's what
you're seeingthấy right now.
44
149118
2160
02:43
You're seeingthấy my brainóc activityHoạt động
that was recordedghi lại in realthực time
45
151956
3964
Đây là hoạt động não bộ của tôi
được ghi lại trong thời gian thực
với một thiết bị đơn giản
đeo lên đầu.
02:47
with a simpleđơn giản devicethiết bị
that was wornmòn on my headcái đầu.
46
155944
2735
02:51
What you're seeingthấy is my brainóc activityHoạt động
when I was relaxedthoải mái and curiousHiếu kỳ.
47
159669
5653
Những gì bạn thấy là hoạt động của não
khi tôi thư giãn và tò mò.
Để chia sẻ thông tin này,
02:58
To sharechia sẻ this informationthông tin with you,
48
166097
1755
02:59
I woređeo one of the earlysớm
consumer-basedDựa trên người tiêu dùng EEGEEG devicesthiết bị
49
167876
3020
tôi đã đeo một thiết bị
đo điện não đồ người dùng
03:02
like this one,
50
170920
1211
như thế này,
03:04
which recordedghi lại the electricalđiện
activityHoạt động in my brainóc in realthực time.
51
172155
3988
nó ghi lại xung điện của não
trong thời gian thực.
Nó cũng không khác gì
các thiết bị đeo theo dõi sức khỏe
03:08
It's not unlikekhông giống the fitnessthể dục trackersMáy theo dỏi
that some of you mayTháng Năm be wearingđeo
52
176849
3826
để đo nhịp tim hay số bước chân
03:12
to measuređo your hearttim ratetỷ lệ
or the stepscác bước that you've takenLấy,
53
180699
3586
hay thậm chí là giấc ngủ.
03:16
or even your sleepngủ activityHoạt động.
54
184309
1587
Đó không phải thiết bị
mô phỏng não tinh vi nhất trên thị trường.
03:19
It's hardlykhó khăn the mostphần lớn sophisticatedtinh vi
neuroimagingneuroimaging techniquekỹ thuật on the marketthị trường.
55
187154
3824
Nhưng là thiết bị di động nhất
03:23
But it's alreadyđã the mostphần lớn portablexách tay
56
191597
2378
03:25
and the mostphần lớn likelycó khả năng to impactva chạm
our everydaymỗi ngày livescuộc sống.
57
193999
3152
và có lẽ là có ảnh hưởng nhất
đến cuộc sống hằng ngày của ta.
Thật phi thường.
03:29
This is extraordinarybất thường.
58
197915
1503
03:31
ThroughThông qua a simpleđơn giản, wearableWearable devicethiết bị,
59
199442
2505
Thông qua một thiết bị đeo đơn giản,
03:33
we can literallynghĩa đen see
insidephía trong the humanNhân loại brainóc
60
201971
3548
ta có thể nhìn thấu bộ não con người
03:37
and learnhọc hỏi aspectscác khía cạnh of our mentaltâm thần landscapephong cảnh
withoutkhông có ever utteringthốt ra a wordtừ.
61
205543
6476
và tìm hiểu về các khía cạnh tâm lý
mà không cần nói nên lời.
Dù chưa thể giải mã
chính xác những suy nghĩ phức tạp,
03:44
While we can't reliablyđáng tin cậy decodegiải mã
complexphức tạp thoughtssuy nghĩ just yetchưa,
62
212829
3653
ta đã có thể phán đoán
tâm trạng của một người,
03:48
we can alreadyđã gaugekhổ a person'sngười moodkhí sắc,
63
216506
2519
03:51
and with the help
of artificialnhân tạo intelligenceSự thông minh,
64
219049
2873
và với sự giúp đỡ
của trí tuệ nhân tạo,
03:53
we can even decodegiải mã
some single-digitchữ đơn numberssố
65
221946
4341
ta thậm chí có thể
giải mã một vài chữ số,
03:58
or shapeshình dạng or simpleđơn giản wordstừ ngữ
that a personngười is thinkingSuy nghĩ
66
226311
4882
hình dạng hay từ ngữ đơn giản
mà một người đang nghĩ đến,
04:03
or hearingthính giác, or seeingthấy.
67
231217
2189
nghe thấy hay nhìn thấy.
Dù EEG vẫn còn những hạn chế,
04:06
DespiteMặc dù some inherentvốn có limitationshạn chế in EEGEEG,
68
234345
3365
04:09
I think it's safean toàn to say
that with our advancesnhững tiến bộ in technologyCông nghệ,
69
237734
4720
tôi nghĩ vẫn đủ để dự báo rằng
với những bước tiến của công nghệ,
04:14
more and more of what's happeningxảy ra
in the humanNhân loại brainóc
70
242478
3809
ngày càng nhiều những gì
xảy ra bên trong bộ não
04:18
can and will be decodedgiải mã over time.
71
246311
2310
có thể và sẽ được giải mã theo thời gian.
04:21
AlreadyĐã, usingsử dụng one of these devicesthiết bị,
72
249362
2746
Từng dùng một thiết bị như thế,
04:24
an epilepticđộng kinh can know
they're going to have an epilepticđộng kinh seizurebắt giữ
73
252132
3255
một bệnh nhân động kinh
có thể biết về thời điểm xảy ra cơn đau
04:27
before it happensxảy ra.
74
255411
1436
trước khi nó diễn ra.
04:28
A paraplegicparaplegic can typekiểu on a computermáy vi tính
with theirhọ thoughtssuy nghĩ alonemột mình.
75
256871
4603
Một người liệt hai chân có thể
gõ máy tính mà chỉ dùng suy nghĩ.
Một công ty có trụ sở ở Mỹ đã phát triển
một công nghệ gắn các cảm biến
04:34
A US-basedUS-based companyCông ty has developedđã phát triển
a technologyCông nghệ to embednhúng these sensorscảm biến
76
262485
4183
vào gối dựa đầu trên ghế xe hơi
04:38
into the headresttựa of automobiliesautomobilies
77
266692
2230
04:40
so they can tracktheo dõi driverngười lái xe concentrationsự tập trung,
78
268946
2505
để theo dõi mức độ tập trung,
04:43
distractionphân tâm and cognitivenhận thức loadtải trọng
while drivingđiều khiển.
79
271475
2667
mất tập trung của lái xe
và nhận thức trong khi lái.
04:46
NissanNissan, insurancebảo hiểm companiescác công ty
and AAAAAA have all takenLấy notechú thích.
80
274912
4058
Nissan, các công ty bảo hiểm
và AAA đều đã lưu ý đến công nghệ này.
04:51
You could even watch this
choose-your-own-adventurelựa chọn của bạn-sở hữu-phiêu lưu moviebộ phim
81
279949
4508
Bạn thậm chí có thể xem
bộ phim phiêu lưu do chính bạn chọn
"The Moment", với tai nghe EEG,
04:56
"The MomentThời điểm này," which, with an EEGEEG headsettai nghe,
82
284481
4240
và thay đổi bộ phim dựa trên
chính những phản ứng từ não,
05:00
changesthay đổi the moviebộ phim
baseddựa trên on your brain-basedDựa não reactionsphản ứng,
83
288745
3926
05:04
givingtặng you a differentkhác nhau endingkết thúc
everymỗi time your attentionchú ý waneswanes.
84
292695
4353
mang đến một kết thúc khác
mỗi khi bạn mất hứng thú.
Nghe có vẻ rất tuyệt,
05:11
This mayTháng Năm all soundâm thanh great,
85
299154
2763
05:13
and as a bioethicistbioethicist,
86
301941
2189
và là một nhà đạo đức sinh học,
05:16
I am a hugekhổng lồ proponentđề xuất of empoweringtrao quyền people
87
304154
3613
tôi đề xuất việc trao cho mọi người
quyền chịu trách nhiệm về sức khỏe
và hạnh phúc của chính họ
05:19
to take chargesạc điện of theirhọ ownsở hữu
healthSức khỏe and well-beinghạnh phúc
88
307791
2616
05:22
by givingtặng them accesstruy cập
to informationthông tin about themselvesbản thân họ,
89
310431
2918
bằng cách gửi cho họ
thông tin về bản thân,
05:25
includingkể cả this incredibleđáng kinh ngạc
newMới brain-decodingBrain-giải mã technologyCông nghệ.
90
313373
2976
bao gồm cả công nghệ
giải mã bộ não mới lạ này.
Nhưng tôi lo lắng
05:29
But I worrylo.
91
317878
1167
05:31
I worrylo that we will voluntarilytự nguyện
or involuntarilykhông tự nguyện give up
92
319736
4760
rằng chúng ta
sẽ cố tình hoặc vô tình từ bỏ
05:36
our last bastionBastion of freedomsự tự do,
our mentaltâm thần privacysự riêng tư.
93
324520
4118
bức tường tự do cuối cùng,
sự riêng tư tinh thần của chính mình.
05:41
That we will tradebuôn bán our brainóc activityHoạt động
94
329302
2925
Tức là ta sẽ đánh đổi
hoạt động của bộ não
05:44
for rebatesgiảm giá or discountsgiảm giá on insurancebảo hiểm,
95
332251
3046
để được giảm giá bảo hiểm,
hoặc để truy cập miễn phí
các tài khoản mạng xã hội ...
05:48
or freemiễn phí accesstruy cập
to social-mediaxã hội truyền thông accountstài khoản ...
96
336391
2603
05:52
or even to keep our jobscông việc.
97
340444
1848
hoặc thậm chí, để giữ công việc.
05:54
In factthực tế, in ChinaTrung Quốc,
98
342900
1913
Sự thật là, ở Trung Quốc,
05:58
the trainxe lửa driverstrình điều khiển on
the Beijing-ShanghaiBắc Kinh-Thượng Hải high-speedtốc độ cao railđường sắt,
99
346199
5897
những người lái tàu trên
trục đường sắt cao tốc Bắc Kinh-Thượng Hải
- những người lái tàu
bận rộn nhất trên thế giới -
06:04
the busiestbận rộn of its kindloại in the worldthế giới,
100
352120
2532
06:06
are requiredcần thiết to wearmặc EEGEEG devicesthiết bị
101
354676
2476
được yêu cầu đeo thiết bị EEG
06:09
to monitorgiám sát theirhọ brainóc activityHoạt động
while drivingđiều khiển.
102
357176
2427
để theo dõi hoạt động não
trong khi làm việc.
06:12
AccordingTheo to some newsTin tức sourcesnguồn,
103
360157
2226
Theo một vài nguồn tin,
06:14
in government-runchính phủ-chạy factoriesnhà máy in ChinaTrung Quốc,
104
362407
2679
trong những nhà máy công
ở Trung Quốc,
06:17
the workerscông nhân are requiredcần thiết to wearmặc
EEGEEG sensorscảm biến to monitorgiám sát theirhọ productivitynăng suất
105
365110
5364
công nhân được yêu cầu đeo
các cảm biến EEG để theo dõi năng suất
06:22
and theirhọ emotionalđa cảm statetiểu bang at work.
106
370498
2115
cũng như trạng thái cảm xúc
khi làm việc.
06:25
WorkersNgười lao động are even sentgởi home
107
373267
2310
Công nhân thậm chí bị đuổi
06:27
if theirhọ brainsnão showchỉ less-than-stellarít hơn sao
concentrationsự tập trung on theirhọ jobscông việc,
108
375601
4054
nếu bộ não của họ thể hiện
ít sự tập trung hơn yêu cầu,
06:31
or emotionalđa cảm agitationkích động.
109
379679
2122
hoặc cảm xúc bối rối, lo âu.
Điều đó sẽ không xảy ra vào ngày mai,
06:35
It's not going to happenxảy ra tomorrowNgày mai,
110
383189
1745
06:36
but we're headedđứng đầu to a worldthế giới
of brainóc transparencyminh bạch.
111
384958
3086
nhưng chúng ta đang tiến đến
một thế giới nhìn thấu suy nghĩ.
06:40
And I don't think people understandhiểu không
that that could changethay đổi everything.
112
388537
3440
Và tôi không nghĩ mọi người hiểu rằng
điều đó có thể thay đổi tất cả.
06:44
Everything from our definitionscác định nghĩa
of datadữ liệu privacysự riêng tư to our lawspháp luật,
113
392474
3675
Tất cả từ định nghĩa
về dữ liệu cá nhân cho tới luật pháp,
06:48
to our ideasý tưởng about freedomsự tự do.
114
396173
1800
và quan niệm về tự do.
06:50
In factthực tế, in my labphòng thí nghiệm at DukeCông tước UniversityTrường đại học,
115
398731
3077
Thực tế, tại phòng thí nghiệm
ở đại học Duke,
gần đây, chúng tôi thực hiện
một nghiên cứu trên phạm vi toàn quốc
06:53
we recentlygần đây conductedtiến hành a nationwidetoàn quốc studyhọc
in the UnitedVương StatesTiểu bang
116
401832
3175
06:57
to see if people appreciatedđánh giá cao
117
405031
1959
để xem mọi người có đánh giá đúng
06:59
the sensitivityđộ nhạy
of theirhọ brainóc informationthông tin.
118
407014
2071
mức độ nhạy cảm
của thông tin não hay không.
07:02
We askedyêu cầu people to ratetỷ lệ
theirhọ perceivedcảm nhận sensitivityđộ nhạy
119
410356
3356
Chúng tôi yêu cầu họ
đánh giá mức độ nhạy cảm
07:05
of 33 differentkhác nhau kindscác loại of informationthông tin,
120
413736
2231
với 33 loại thông tin khác nhau,
07:07
from theirhọ socialxã hội securityBảo vệ numberssố
121
415991
2220
từ số an sinh xã hội
07:10
to the contentNội dung
of theirhọ phoneđiện thoại conversationscuộc trò chuyện,
122
418235
2597
cho tới nội dung
các cuộc nói chuyện điện thoại,
07:12
theirhọ relationshipmối quan hệ historylịch sử,
123
420856
2193
các mối quan hệ trong quá khứ,
những cảm xúc, sự lo âu,
07:15
theirhọ emotionscảm xúc, theirhọ anxietylo âu,
124
423073
1942
07:17
the mentaltâm thần imageshình ảnh in theirhọ mindlí trí
125
425039
1946
những hình ảnh tưởng tượng
07:19
and the thoughtssuy nghĩ in theirhọ mindlí trí.
126
427009
1538
và những suy nghĩ trong tâm trí.
07:21
ShockinglyShockingly, people ratedđánh giá theirhọ socialxã hội
securityBảo vệ numbercon số as farxa more sensitivenhạy cảm
127
429481
5229
Đáng ngạc nhiên là, người ta đánh giá
số an sinh xã hội nhạy cảm hơn
bất kỳ loại thông tin nào khác,
07:26
than any other kindloại of informationthông tin,
128
434734
2203
07:28
includingkể cả theirhọ brainóc datadữ liệu.
129
436961
2435
bao gồm cả dữ liệu từ não.
Tôi nghĩ lý do là bởi
họ chưa hiểu
07:32
I think this is because
people don't yetchưa understandhiểu không
130
440380
3216
07:35
or believe the implicationshàm ý
of this newMới brain-decodingBrain-giải mã technologyCông nghệ.
131
443620
4063
hoặc chưa tin vào khả năng
của công nghệ giải mã bộ não mới lạ này.
Xét cho cùng, nếu ta có thể biết
hoạt động bên trong của não người,
07:40
After all, if we can know
the innerbên trong workingscông việc of the humanNhân loại brainóc,
132
448629
3289
thì số an sinh xã hội
là vấn đề ít phải lo lắng nhất.
07:43
our socialxã hội securityBảo vệ numberssố
are the leastít nhất of our worrieslo lắng.
133
451942
2706
(Cười)
07:46
(LaughterTiếng cười)
134
454672
1285
07:47
Think about it.
135
455981
1167
Hãy nghĩ về điều đó.
07:49
In a worldthế giới of totaltoàn bộ brainóc transparencyminh bạch,
136
457172
2396
Trong một thế giới ở đó
có thể nhìn thấu mọi suy nghĩ,
07:51
who would daredám have
a politicallychính trị dissidentbất đồng chính kiến thought?
137
459592
2429
ai dám nghĩ đến
quan điểm bất đồng chính trị?
07:55
Or a creativesáng tạo one?
138
463279
1541
Hay một ý tưởng sáng tạo?
07:57
I worrylo that people will self-censortự kiểm duyệt
139
465503
3476
Tôi lo lắng rằng người ta
sẽ tự kiểm duyệt suy nghĩ
08:01
in fearnỗi sợ of beingđang ostracizedđày by societyxã hội,
140
469003
3302
vì sợ bị xã hội tẩy chay,
08:04
or that people will losethua theirhọ jobscông việc
because of theirhọ waningwaning attentionchú ý
141
472329
3813
người ta sẽ mất việc
chỉ bởi một thoáng mất tập trung,
hoặc cảm xúc bất ổn,
08:08
or emotionalđa cảm instabilitysự bất ổn,
142
476166
2150
08:10
or because they're contemplatingsuy niệm
collectivetập thể actionhoạt động againstchống lại theirhọ employerssử dụng lao động.
143
478340
3550
hoặc bởi họ đang âm mưu
chống lại cấp trên.
Điều đó đang dần lộ ra
và chúng ta sẽ không có lựa chọn,
08:14
That comingđang đến out
will no longerlâu hơn be an optionTùy chọn,
144
482478
3177
08:17
because people'sngười brainsnão will long agotrước
have revealedtiết lộ theirhọ sexualtình dục orientationđịnh hướng,
145
485679
5067
bởi bộ não của mọi người từ lâu
đã tiết lộ xu hướng tình dục,
tư tưởng chính trị
08:22
theirhọ politicalchính trị ideologytư tưởng
146
490770
1822
08:24
or theirhọ religiousTôn giáo preferencessở thích,
147
492616
2025
hay quan điểm tôn giáo của một người,
08:26
well before they were readysẳn sàng
to consciouslycó ý thức sharechia sẻ that informationthông tin
148
494665
3080
trước khi họ sẵn sàng chia sẻ
những thông tin đó
08:29
with other people.
149
497769
1253
một cách có ý thức
với người khác.
08:31
I worrylo about the abilitycó khả năng of our lawspháp luật
to keep up with technologicaltínhór แทน użyciu แห่ง แทน แทน แทน ustaw changethay đổi.
150
499565
4912
Tôi lo lắng về khả năng pháp luật
có theo kịp sự thay đổi của công nghệ.
Bản sửa đổi Hiến pháp Hoa Kỳ lần đầu tiên,
08:36
Take the First AmendmentSửa đổi
of the US ConstitutionHiến pháp,
151
504986
2320
trong đó bảo về quyền tự do ngôn luận.
08:39
which protectsbảo vệ freedomsự tự do of speechphát biểu.
152
507330
1958
Liệu nó cũng bảo vệ quyền tự do tư tưởng?
08:41
Does it alsocũng thế protectbảo vệ freedomsự tự do of thought?
153
509312
1927
08:43
And if so, does that mean that we're freemiễn phí
to alterthay đổi our thoughtssuy nghĩ howeverTuy nhiên we want?
154
511944
4169
Và nếu vậy, liệu ta có thể tự do
thay đổi suy nghĩ theo ý muốn?
08:48
Or can the governmentchính quyền or societyxã hội tell us
what we can do with our ownsở hữu brainsnão?
155
516137
4674
Hay chính phủ và xã hội sẽ áp đặt
việc ta có thể làm
với bộ não của chính mình?
08:53
Can the NSANSA spygián điệp on our brainsnão
usingsử dụng these newMới mobiledi động devicesthiết bị?
156
521591
3717
Liệu NSA có thể theo dõi bộ não
bằng cách dùng thiết bị di động mới này?
08:58
Can the companiescác công ty that collectsưu tầm
the brainóc datadữ liệu throughxuyên qua theirhọ applicationscác ứng dụng
157
526053
4119
Liệu các công ty thu thập dữ liệu não
thông qua các ứng dụng
có thể bán những thông tin này
cho bên thứ ba?
09:02
sellbán this informationthông tin to thirdthứ ba partiescác bên?
158
530196
2074
09:05
Right now, no lawspháp luật preventngăn chặn them
from doing so.
159
533174
3222
Hiện giờ, chưa có điều luật nào
ngăn họ làm vậy.
Mọi chuyện thậm chí sẽ còn tệ hơn
09:09
It could be even more problematiccó vấn đề
160
537203
2025
09:11
in countriesquốc gia that don't sharechia sẻ
the sametương tự freedomstự do
161
539252
2519
ở các quốc gia không có
những quyền tự do
như người dân Hoa Kỳ.
09:13
enjoyedrất thích by people in the UnitedVương StatesTiểu bang.
162
541795
2103
09:16
What would'venào đã happenedđã xảy ra duringsuốt trong
the IranianIran GreenMàu xanh lá cây MovementPhong trào
163
544883
3787
Điều gì sẽ xảy ra trong
Phong trào Xanh của Iran
09:20
if the governmentchính quyền had been
monitoringgiám sát my family'scủa gia đình brainóc activityHoạt động,
164
548694
3901
nếu chính phủ theo dõi
hoạt động não của gia đình tôi,
09:24
and had believedtin them
to be sympatheticthông cảm to the protestersngười biểu tình?
165
552619
4007
và tin rằng chúng tôi
theo phe của người biểu tình?
Còn quá xa vời
để tưởng tượng về một xã hội
09:30
Is it so far-fetchedxa vời to imaginetưởng tượng a societyxã hội
166
558091
3047
09:33
in which people are arrestedbị bắt
baseddựa trên on theirhọ thoughtssuy nghĩ
167
561162
2842
nơi người ta bị bắt
chỉ vì những suy nghĩ
09:36
of committingcam kết a crimetội ác,
168
564028
1167
về việc phạm tội,
09:37
like in the science-fictionKhoa học-viễn tưởng
dystopiandystopian societyxã hội in "MinorityDân tộc thiểu số ReportBáo cáo."
169
565219
4312
giống như trong bộ phim
viễn tưởng "Minority Report."
09:42
AlreadyĐã, in the UnitedVương StatesTiểu bang, in IndianaIndiana,
170
570286
4323
Tại Indiana, Hoa Kỳ,
09:46
an 18-year-old-tuổi was chargedtính phí
with attemptingcố gắng to intimidatedọa nạt his schooltrường học
171
574633
4937
một thanh niên 18 tuổi đã bị buộc tội
cố ý đe dọa trường học
09:51
by postingđăng a videovideo of himselfbản thân anh ấy
shootingchụp people in the hallwayshành lang ...
172
579594
3309
khi đăng tải một video trong đó
cậu đang bắn người trên hành lang.
09:55
ExceptNgoại trừ the people were zombieszombie
173
583881
3007
Những người đó là thây ma
09:58
and the videovideo was of him playingđang chơi
an augmented-realitytăng cường-thực tế videovideo gametrò chơi,
174
586912
5047
và đoạn video là cậu ta chơi
một trò chơi thực tế tăng cường,
10:03
all interpreteddiễn giải to be a mentaltâm thần projectionchiếu
of his subjectivechủ quan intentý định.
175
591983
4772
tất cả được hiểu như một ý định
đã được lên kế hoạch.
10:10
This is exactlychính xác why our brainsnão
need specialđặc biệt protectionsự bảo vệ.
176
598456
4612
Đây chính xác là lý do bộ não chúng ta
cần được bảo vệ đặc biệt.
Nếu đó chỉ là đối tượng
theo dõi và tổng hợp dữ liệu
10:15
If our brainsnão are just as subjectmôn học
to datadữ liệu trackingtheo dõi and aggregationtập hợp
177
603092
3556
10:18
as our financialtài chính recordsHồ sơ and transactionsgiao dịch,
178
606672
2532
như những hồ sơ
và giao dịch tài chính,
10:21
if our brainsnão can be hackedtấn công
and trackedtheo dõi like our onlineTrực tuyến activitieshoạt động,
179
609228
4285
nếu bộ não có thể bị xâm nhập
và theo dõi như các hoạt động trực tuyến,
điện thoại di động và các ứng dụng,
10:25
our mobiledi động phonesđiện thoại and applicationscác ứng dụng,
180
613537
2361
10:27
then we're on the brinkbờ sông of a dangerousnguy hiểm
threatmối đe dọa to our collectivetập thể humanitynhân loại.
181
615922
4269
thì ta đang đứng trước một mối de dọa
đối với toàn thể nhân loại.
Khoan hãy hoảng sợ,
10:33
Before you panichoảng loạn,
182
621406
1309
tôi tin rằng có giải pháp
cho những mối lo ngại này,
10:36
I believe that there are solutionscác giải pháp
to these concernslo ngại,
183
624012
3144
10:39
but we have to startkhởi đầu by focusingtập trung
on the right things.
184
627180
2825
nhưng phải bắt đầu
bằng cách tập trung vào đúng thứ.
10:42
When it comesđến to privacysự riêng tư
protectionsbảo vệ in generalchung,
185
630580
2921
Nhắc đến việc bảo vệ
quyền riêng tư nói chung,
tôi nghĩ chúng ta
đang đấu tranh vô vọng
10:45
I think we're fightingtrận đánh a losingmất battlechiến đấu
186
633525
1826
10:47
by tryingcố gắng to restrictgiới hạn
the flowlưu lượng of informationthông tin.
187
635375
2858
khi cố giới hạn luồng thông tin.
Thay vào đó, nên tập trung
bảo vệ các quyền và biện pháp
10:50
InsteadThay vào đó, we should be focusingtập trung
on securingđảm bảo rightsquyền and remediesbiện pháp khắc phục
188
638257
4057
chống lại việc lạm dụng thông tin cá nhân.
10:54
againstchống lại the misuselạm dụng of our informationthông tin.
189
642338
2275
Nếu mọi người có quyền quyết định
cách mà họ chia sẻ thông tin cá nhân,
10:57
If people had the right to decidequyết định
how theirhọ informationthông tin was sharedchia sẻ,
190
645291
3285
11:00
and more importantlyquan trọng, have legalhợp pháp redresskhắc phục tình trạng
191
648600
2921
và quan trọng hơn,
có quyền sửa đổi hợp pháp,
11:03
if theirhọ informationthông tin
was misusedlạm dụng againstchống lại them,
192
651545
2428
nếu thông tin của họ
bị lạm dụng để chống lại họ,
ví dụ như để phân biệt đối xử
trong môi trường làm việc
11:05
say to discriminatephân biệt đối xử againstchống lại them
in an employmentviệc làm settingcài đặt
193
653997
2786
hoặc trong chăm sóc sức khỏe
hay giáo dục,
11:08
or in healthSức khỏe carequan tâm or educationgiáo dục,
194
656807
2785
11:11
this would go a long way to buildxây dựng trustLòng tin.
195
659616
2571
sẽ còn cần
một chặng đường dài để tạo lòng tin.
Thực tế, trong một vài trường hợp,
11:14
In factthực tế, in some instancestrường hợp,
196
662843
1718
11:16
we want to be sharingchia sẻ more
of our personalcá nhân informationthông tin.
197
664585
3524
chúng ta muốn chia sẻ
nhiều thông tin cá nhân hơn.
Nghiên cứu về thông tin được tổng hợp
có thể cho ta biết rất nhiều
11:20
StudyingHọc tập aggregatedTổng hợp informationthông tin
can tell us so much
198
668697
3047
11:23
about our healthSức khỏe and our well-beinghạnh phúc,
199
671768
2747
về sức khỏe cũng như mức độ hạnh phúc,
11:26
but to be ablecó thể to safelymột cách an toàn sharechia sẻ
our informationthông tin,
200
674539
3313
nhưng để có thể chia sẻ thông tin
một cách an toàn,
11:29
we need specialđặc biệt protectionsbảo vệ
for mentaltâm thần privacysự riêng tư.
201
677876
3223
chúng ta cần sự bảo vệ đặc biệt
dành cho sự riêng tư tinh thần.
Đó là lý do ta cần
quyền tự do trong nhận thức.
11:33
This is why we need
a right to cognitivenhận thức libertytự do.
202
681832
3147
11:37
This right would securean toàn for us
our freedomsự tự do of thought and ruminationsự nhai lại,
203
685543
4079
Quyền này sẽ bảo đảm cho ta
sự tự do trong tư tưởng và suy nghĩ,
tự do đưa ra quyết định,
11:41
our freedomsự tự do of self-determinationtự quyết,
204
689646
2540
11:44
and it would insurebảo đảm that we have
the right to consentbằng lòng to or refusetừ chối
205
692210
4390
và đảm bảo rằng chúng ta
có quyền đồng ý hoặc từ chối
việc người khác truy cập
và sửa đổi bộ não của mình.
11:48
accesstruy cập and alterationthay đổi
of our brainsnão by othersKhác.
206
696624
2857
Quyền này có thể được công nhận
11:51
This right could be recognizedđược công nhận
207
699811
2112
11:53
as partphần of the UniversalUniversal DeclarationTuyên bố
of HumanCon người RightsQuyền lợi,
208
701947
2883
là một phần của
Tuyên ngôn Quốc tế Nhân quyền,
bản tuyên ngôn đã thiết lập các cơ chế
11:56
which has establishedthành lập mechanismscơ chế
209
704854
2388
11:59
for the enforcementthực thi
of these kindscác loại of socialxã hội rightsquyền.
210
707266
2856
để thực thi các loại quyền xã hội như vậy.
Trong Phong trào Xanh của Iran,
12:03
DuringTrong thời gian the IranianIran GreenMàu xanh lá cây MovementPhong trào,
211
711872
2070
12:05
the protestersngười biểu tình used the internetInternet
and good old-fashionedkiểu cũ wordtừ of mouthmiệng
212
713966
5186
người biểu tình đã sử dụng internet
và truyền miệng
để kêu gọi tham gia diễu hành.
12:11
to coordinatephối hợp theirhọ marchestheo mùa.
213
719176
1948
Và một số rào cản
gây căng thẳng ở Iran
12:14
And some of the mostphần lớn oppressiveáp bức
restrictionshạn chế in IranIran
214
722238
2769
12:17
were liftednâng lên as a resultkết quả.
215
725031
1877
đã được gỡ bỏ như một hệ quả.
12:20
But what if the IranianIran governmentchính quyền
had used brainóc surveillancegiám sát
216
728047
4087
Nhưng điều gì sẽ xảy ra
nếu chính phủ Iran
giám sát bộ não của người dân
12:24
to detectphát hiện and preventngăn chặn the protestkháng nghị?
217
732158
3061
để phát hiện và ngăn chặn cuộc biểu tình?
Liệu thế giới có nghe thấy
tiếng khóc của họ?
12:28
Would the worldthế giới have ever heardnghe
the protesters'người biểu tình crieskhóc?
218
736847
3176
Đã đến lúc phải kêu gọi
một cuộc cách mạng về tự do nhận thức.
12:33
The time has come for us to call
for a cognitivenhận thức libertytự do revolutionCuộc cách mạng.
219
741732
5121
Để đảm bảo chúng ta phát triển công nghệ
một cách có trách nhiệm,
12:39
To make sure that we responsiblycó trách nhiệm
advancenâng cao technologyCông nghệ
220
747559
3264
cho phép chúng ta nắm lấy tương lai,
12:42
that could enablecho phép us to embraceôm hôn the futureTương lai
221
750847
2978
12:45
while fiercelyquyết liệt protectingbảo vệ all of us
from any personngười, companyCông ty or governmentchính quyền
222
753849
6717
đồng thời, bảo vệ tất cả
khỏi những cá nhân, công ty hay chính phủ
cố ý truy cập hoặc thay đổi bất hợp pháp
cuộc sống nội tại của chúng ta.
12:52
that attemptscố gắng to unlawfullybất hợp pháp accesstruy cập
or alterthay đổi our innermostinnermost livescuộc sống.
223
760590
5040
Xin cảm ơn.
12:58
Thank you.
224
766659
1174
(Vỗ tay)
12:59
(ApplauseVỗ tay)
225
767857
3492
Translated by Hiếu Trần
Reviewed by Nhu PHAM

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com