ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mitchell: Cách tạo nên AI giúp đỡ loài người

Filmed:
1,154,210 views

Với tư cách là chuyên gia nghiên cứu tại Google, Margaret Mitchell tham gia vào việc phát triển một hệ thống máy tính có khả năng thể hiện những điều chúng thấy và hiểu. Bà giúp chúng ta làm rõ những ngờ vực và góc tối ta còn chưa biết về Trí tuệ nhân tạo (AI), đồng thời nhấn mạnh giá trị của loại công nghệ này tới tương lai con người. Bà cho rằng: "Những gì ta thấy ngày hôm nay chỉ là một góc nhỏ của cuộc cách mạng Trí tuệ nhân tạo", hay "Nếu ta muốn AI tiến hoá theo hướng trợ giúp con người, ta cần định nghĩa rõ ràng những mục tiêu và chiến lược cần làm, ngay bây giờ".
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpinggiúp computersmáy vi tính
communicategiao tiếp about the worldthế giới around us.
0
1381
4015
Tôi đang làm việc để giúp máy tính
có thể "giao tiếp" với thế giới.
00:17
There are a lot of wayscách to do this,
1
5754
1793
Có rất nhiều phương pháp
để làm điều đó,
00:19
and I like to focustiêu điểm on helpinggiúp computersmáy vi tính
2
7571
2592
tôi muốn tập trung
vào khía cạnh khiến máy tính
00:22
to talk about what they see
and understandhiểu không.
3
10187
2874
có thể diễn đạt điều
mà chúng đang thấy và hiểu.
00:25
GivenĐưa ra a scenebối cảnh like this,
4
13514
1571
Với một bức ảnh thế này,
một thuật toán nhận diện hình ảnh hiện đại
00:27
a modernhiện đại computer-visionmáy tính-tầm nhìn algorithmthuật toán
5
15109
1905
00:29
can tell you that there's a womanđàn bà
and there's a dogchó.
6
17038
3095
có khả năng nhận biết đâu là cô gái
và đâu là chú chó.
00:32
It can tell you that the womanđàn bà is smilingmỉm cười.
7
20157
2706
Nó sẽ cho bạn biết
rằng cô gái đang cười.
00:34
It mightcó thể even be ablecó thể to tell you
that the dogchó is incrediblyvô cùng cuteDễ thương.
8
22887
3873
Thậm chí nó còn nói với bạn
rằng chú chó đó cực kỳ dễ thương.
00:38
I work on this problemvấn đề
9
26784
1349
Trong quá trình làm việc,
00:40
thinkingSuy nghĩ about how humanscon người
understandhiểu không and processquá trình the worldthế giới.
10
28157
4212
tôi suy nghĩ nhiều về cách con người
nhận thức thế giới xung quanh.
00:45
The thoughtssuy nghĩ, memorieskỷ niệm and storiesnhững câu chuyện
11
33577
2952
Những suy nghĩ, ký ức, hay kỷ niệm
00:48
that a scenebối cảnh like this
mightcó thể evokegợi lên for humanscon người.
12
36553
2818
đều được con người gọi đến khi cần thiết.
00:51
All the interconnectionskết nối
of relatedliên quan situationstình huống.
13
39395
4285
Tất cả các mối liên hệ
với các tình huống cụ thể có liên quan.
00:55
Maybe you've seenđã xem
a dogchó like this one before,
14
43704
3126
Có thể bạn đã từng thấy chú chó này rồi,
00:58
or you've spentđã bỏ ra time
runningđang chạy on a beachbờ biển like this one,
15
46854
2969
hoặc bạn đã từng chạy bộ
dọc bờ biển giống thế này,
01:01
and that furtherthêm nữa evokesgợi lên thoughtssuy nghĩ
and memorieskỷ niệm of a pastquá khứ vacationkỳ nghỉ,
16
49847
4778
và điều đó gợi nhớ cho bạn những suy nghĩ
và ký ức của kỳ nghỉ trước đây,
01:06
pastquá khứ timeslần to the beachbờ biển,
17
54649
1920
những lần ra biển,
01:08
timeslần spentđã bỏ ra runningđang chạy around
with other dogschó.
18
56593
2603
những lần chạy bộ
cùng chú chó cưng của mình.
01:11
One of my guidinghướng dẫn principlesnguyên lý
is that by helpinggiúp computersmáy vi tính to understandhiểu không
19
59688
5207
Một trong các mục tiêu tôi luôn hướng tới
là giúp máy tính hiểu được
01:16
what it's like to have these experienceskinh nghiệm,
20
64919
2896
"cảm giác" khi trải qua
những điều như vậy,
01:19
to understandhiểu không what we sharechia sẻ
and believe and feel,
21
67839
5176
hiểu được cách chúng ta chia sẻ,
tin tưởng, cảm nhận lẫn nhau,
01:26
then we're in a great positionChức vụ
to startkhởi đầu evolvingphát triển computermáy vi tính technologyCông nghệ
22
74094
4310
điều đó giúp công nghệ máy tính
tiến hoá mạnh mẽ
01:30
in a way that's complementarybổ túc
with our ownsở hữu experienceskinh nghiệm.
23
78428
4587
tới mức chúng có thể hỗ trợ
cho những trải nghiệm của chúng ta.
01:35
So, diggingđào more deeplysâu sắc into this,
24
83539
3387
Tìm hiểu sâu hơn về vấn đề này,
01:38
a fewvài yearsnăm agotrước I beganbắt đầu workingđang làm việc on helpinggiúp
computersmáy vi tính to generatetạo ra human-likegiống người storiesnhững câu chuyện
25
86950
5905
vài năm trước, tôi bắt đầu giúp máy tính
tạo ra các câu chuyện "như người kể"
01:44
from sequencestrình tự of imageshình ảnh.
26
92879
1666
từ một chuỗi những bức ảnh.
01:47
So, one day,
27
95427
1904
Một ngày kia,
01:49
I was workingđang làm việc with my computermáy vi tính to askhỏi it
what it thought about a tripchuyến đi to AustraliaÚc.
28
97355
4622
tôi đang cố gắng "hỏi" chiếc máy của mình
về cảm xúc của nó khi được tới Úc.
01:54
It tooklấy a look at the picturesnhững bức ảnh,
and it saw a koalaKoala.
29
102768
2920
Nó nhìn vào một bức ảnh,
trong đó có một chú gấu koala.
01:58
It didn't know what the koalaKoala was,
30
106236
1643
Nó không biết gì về loài gấu đó,
01:59
but it said it thought
it was an interesting-lookingthú vị, tìm kiếm creaturesinh vật.
31
107903
2999
nhưng nó cho rằng đó là một sinh vật
có ngoại hình khá hay ho.
02:04
Then I sharedchia sẻ with it a sequencetrình tự of imageshình ảnh
about a housenhà ở burningđốt down.
32
112053
4004
Sau đó, tôi cho nó xem một loạt ảnh
về một căn nhà đang đổ sập trong đám cháy.
02:09
It tooklấy a look at the imageshình ảnh and it said,
33
117704
3285
Nó nhìn vào những bức ảnh đó và nói,
02:13
"This is an amazingkinh ngạc viewlượt xem!
This is spectacularđẹp mắt!"
34
121013
3500
"Một quang cảnh tuyệt vời
ngoài sức tưởng tượng!"
02:17
It sentgởi chillsớn lạnh down my spinexương sống.
35
125450
2095
Điều đó làm tôi rợn người.
02:20
It saw a horriblekinh khủng, life-changingthay đổi cuộc sống
and life-destroyingphá hủy cuộc sống eventbiến cố
36
128983
4572
Nó đang thấy một sự kiện khủng khiếp,
khiến mạng sống con người bị đe doạ,
02:25
and thought it was something positivetích cực.
37
133579
2382
nhưng vẫn nghĩ đó là điều tốt đẹp.
02:27
I realizedthực hiện that it recognizedđược công nhận
the contrasttương phản,
38
135985
3441
Tôi nhận ra rằng nó đã để ý
tới sự tương phản màu sắc,
02:31
the redsmàu đỏ, the yellowsmàu vàng,
39
139450
2699
các gam màu đỏ và vàng,
02:34
and thought it was something
worthgiá trị remarkingRemarking on positivelytích cực.
40
142173
3078
và khiến nó cho rằng
đó là một sự kiện tốt đẹp.
02:37
And partphần of why it was doing this
41
145928
1615
Một phần lý do nó nghĩ như vậy
02:39
was because mostphần lớn
of the imageshình ảnh I had givenđược it
42
147577
2945
vì hầu hết những bức ảnh tôi cho nó xem
02:42
were positivetích cực imageshình ảnh.
43
150546
1840
đều nói lên sự tốt đẹp.
02:44
That's because people
tendcó xu hướng to sharechia sẻ positivetích cực imageshình ảnh
44
152903
3658
Lý do vì hầu hết mọi người
đều chia sẽ những tấm ảnh tốt đẹp
02:48
when they talk about theirhọ experienceskinh nghiệm.
45
156585
2190
khi họ nói về trải nghiệm của chính mình.
02:51
When was the last time
you saw a selfieselfie at a funeraltang lễ?
46
159267
2541
Bạn có nhớ lần cuối bạn thấy
ai đó "selfie" tại đám tang?
02:55
I realizedthực hiện that,
as I workedđã làm việc on improvingnâng cao AIAI
47
163434
3095
Tôi nhận ra điều đó
khi cố gắng cải thiện AI
02:58
taskbài tập by taskbài tập, datasetsố liệu by datasetsố liệu,
48
166553
3714
từng chút một, trong mỗi công việc,
với các bộ dữ liệu khác nhau,
03:02
that I was creatingtạo massiveto lớn gapskhoảng trống,
49
170291
2897
tôi đang tạo ra những lỗ hổng lớn,
03:05
holeslỗ hổng and blindmù quáng spotsđiểm
in what it could understandhiểu không.
50
173212
3999
những "điểm mù" làm hạn chế
những điều AI có thể hiểu được.
03:10
And while doing so,
51
178307
1334
Khi làm vậy,
03:11
I was encodingmã hóa all kindscác loại of biasessự thiên vị.
52
179665
2483
tôi đã khiến AI suy nghĩ
theo lối mòn (bias).
03:15
BiasesThành kiến that reflectphản chiếu a limitedgiới hạn viewpointquan điểm,
53
183029
3318
Điều đó phản ánh một điểm nhìn hạn hẹp,
03:18
limitedgiới hạn to a singleĐộc thân datasetsố liệu --
54
186371
2261
do chỉ được huấn luyện
với một bộ dữ liệu duy nhất.
03:21
biasessự thiên vị that can reflectphản chiếu
humanNhân loại biasessự thiên vị foundtìm in the datadữ liệu,
55
189283
3858
Lối mòn của dữ liệu cũng phản ánh
lối mòn trong suy nghĩ con người,
03:25
suchnhư là as prejudiceảnh hưởng and stereotypingrập khuôn.
56
193165
3104
biểu hiện qua thành kiến và sự đánh đồng.
03:29
I thought back to the evolutionsự phát triển
of the technologyCông nghệ
57
197554
3057
Tôi nghĩ lại về cách công nghệ
thay đổi và tiến hoá,
03:32
that broughtđưa me to where I was that day --
58
200635
2502
điều đó giúp tôi đứng ở đây hôm nay --
03:35
how the first colormàu imageshình ảnh
59
203966
2233
những bức ảnh màu đầu tiên
03:38
were calibratedhiệu chuẩn againstchống lại
a whitetrắng woman'sngười phụ nữ skinda,
60
206223
3048
phản ứng rất tốt với màu da
của người da trắng,
03:41
meaningÝ nghĩa that colormàu photographynhiếp ảnh
was biasedcó thành kiến againstchống lại blackđen faceskhuôn mặt.
61
209665
4145
có nghĩa rằng ảnh màu đã vô tình
"chống lại" người da đen.
03:46
And that sametương tự biassự thiên vị, that sametương tự blindmù quáng spotnơi
62
214514
2925
Điểm nhìn hạn hẹp
dẫn đến "điểm mù" đó
03:49
continuedtiếp tục well into the '90s.
63
217463
1867
vẫn tiếp tục cho đến những năm 1990.
03:51
And the sametương tự blindmù quáng spotnơi
continuestiếp tục even todayhôm nay
64
219701
3154
Một điểm mù tương tự
vẫn kéo dài cho đến ngày nay
03:54
in how well we can recognizenhìn nhận
differentkhác nhau people'sngười faceskhuôn mặt
65
222879
3698
về khả năng nhận diện
những khuôn mặt khác nhau
03:58
in facialda mặt recognitionsự công nhận technologyCông nghệ.
66
226601
2200
trong công nghệ nhận dạng khuôn mặt.
04:01
I thoughTuy nhiên about the statetiểu bang of the artnghệ thuật
in researchnghiên cứu todayhôm nay,
67
229323
3143
Tôi nghĩ tới những nghiên cứu
mới nhất hiện nay,
04:04
where we tendcó xu hướng to limitgiới hạn our thinkingSuy nghĩ
to one datasetsố liệu and one problemvấn đề.
68
232490
4514
khi ta bó hẹp suy nghĩ của mình
trong một bộ dữ liệu và một vấn đề.
04:09
And that in doing so, we were creatingtạo
more blindmù quáng spotsđiểm and biasessự thiên vị
69
237688
4881
Bằng việc làm như vậy, ta đã tạo ra thêm
nhiều điểm mù và lối mòn,
04:14
that the AIAI could furtherthêm nữa amplifykhuyếch đại.
70
242593
2277
điều đó được AI nhân thêm bội phần.
Khi đó, tôi nhận ra
ta cần suy nghĩ sâu hơn
04:17
I realizedthực hiện then
that we had to think deeplysâu sắc
71
245712
2079
04:19
about how the technologyCông nghệ we work on todayhôm nay
looksnhìn in fivesố năm yearsnăm, in 10 yearsnăm.
72
247815
5519
về bộ mặt của những công nghệ hiện nay
trong năm hay mười năm nữa.
04:25
HumansCon người evolvephát triển slowlychậm rãi,
with time to correctchính xác for issuesvấn đề
73
253990
3142
Con người tiến hoá rất chậm,
theo thời gian, họ trở nên thích nghi hơn
04:29
in the interactionsự tương tác of humanscon người
and theirhọ environmentmôi trường.
74
257156
3534
khi tương tác với người khác
và với môi trường.
04:33
In contrasttương phản, artificialnhân tạo intelligenceSự thông minh
is evolvingphát triển at an incrediblyvô cùng fastNhanh ratetỷ lệ.
75
261276
5429
Ngược lại, AI tiến hoá
với tốc độ không tưởng.
04:39
And that meanscó nghĩa that it really mattersvấn đề
76
267013
1773
Điều đó thực sự quan trọng
04:40
that we think about this
carefullycẩn thận right now --
77
268810
2317
nếu chúng ta nghĩ kỹ --
04:44
that we reflectphản chiếu on our ownsở hữu blindmù quáng spotsđiểm,
78
272180
3008
chúng chính là những "điểm mù" của ta,
04:47
our ownsở hữu biasessự thiên vị,
79
275212
2317
những lối mòn cũ kỹ của ta,
04:49
and think about how that's informingthông báo
the technologyCông nghệ we're creatingtạo
80
277553
3857
hãy nghĩ đến tầm ảnh hưởng của nó
đến thứ công nghệ ta đang tạo ra hôm nay,
04:53
and discussbàn luận what the technologyCông nghệ of todayhôm nay
will mean for tomorrowNgày mai.
81
281434
3902
và bàn đến ý nghĩa của chúng
đối với tương lai ta sau này.
04:58
CEOsCEO and scientistscác nhà khoa học have weighedcân nặng in
on what they think
82
286593
3191
Các giám đốc điều hành và nhà khoa học
đã cho biết những gì họ nghĩ
05:01
the artificialnhân tạo intelligenceSự thông minh technologyCông nghệ
of the futureTương lai will be.
83
289808
3325
về cách mà công nghệ AI
hoạt động trong tương lai.
05:05
StephenStephen HawkingHawking warnscảnh báo that
84
293157
1618
Stephen Hawking đã cảnh báo rằng
05:06
"ArtificialNhân tạo intelligenceSự thông minh
could endkết thúc mankindnhân loại."
85
294799
3007
"Trí tuệ nhân tạo có thể là
điểm kết thúc của loài người."
Elon Musk cảnh báo đó là mối nguy hại
liên quan đến sự tồn vong
05:10
ElonElon MuskXạ hương warnscảnh báo
that it's an existentialhiện hữu riskrủi ro
86
298307
2683
05:13
and one of the greatestvĩ đại nhất risksrủi ro
that we faceđối mặt as a civilizationnền văn minh.
87
301014
3574
và là một trong những hiểm hoạ lớn nhất
nền văn minh này phải đối mặt.
05:17
BillHóa đơn GatesCổng has madethực hiện the pointđiểm,
88
305665
1452
Bill Gates thì cho rằng,
05:19
"I don't understandhiểu không
why people aren'tkhông phải more concernedliên quan."
89
307141
3185
"Tôi không hiểu nổi
vì sao người ta chẳng lo lắng gì cả."
05:23
But these viewslượt xem --
90
311412
1318
Nhưng các quan điểm này --
05:25
they're partphần of the storycâu chuyện.
91
313618
1734
chúng là một phần
của bức tranh lớn hơn.
05:28
The mathmôn Toán, the modelsmô hình,
92
316079
2420
Những mô hình toán học,
05:30
the basiccăn bản buildingTòa nhà blockskhối
of artificialnhân tạo intelligenceSự thông minh
93
318523
3070
những viên gạch nền tảng
của trí tuệ nhân tạo
05:33
are something that we call accesstruy cập
and all work with.
94
321617
3135
đều là những thứ chúng tôi
thường xuyên làm việc cùng.
05:36
We have open-sourcemã nguồn mở toolscông cụ
for machinemáy móc learninghọc tập and intelligenceSự thông minh
95
324776
3785
Ta có những nền tảng mã nguồn mở
dành riêng cho Học máy hoặc AI
05:40
that we can contributeGóp phần to.
96
328585
1734
mà ai cũng có thể đóng góp vào.
05:42
And beyondvượt ra ngoài that,
we can sharechia sẻ our experiencekinh nghiệm.
97
330919
3340
Xa hơn nữa, thông qua đó,
ta có thể chia sẻ trải nghiệm của mình.
05:46
We can sharechia sẻ our experienceskinh nghiệm
with technologyCông nghệ and how it concernslo ngại us
98
334760
3468
Ta có thể chia sẻ những điều
mà công nghệ khiến ta bận tâm
05:50
and how it exciteshứng thú us.
99
338252
1467
và cách chúng làm ta thích thú.
05:52
We can discussbàn luận what we love.
100
340251
1867
Ta có thể nói về thứ ta yêu quý.
05:55
We can communicategiao tiếp with foresighttầm nhìn xa
101
343244
2031
Ta có thể đưa ra những dự đoán
05:57
about the aspectscác khía cạnh of technologyCông nghệ
that could be more beneficialmang lại lợi ích
102
345299
4857
về những khía cạnh công nghệ
giúp ích con người
06:02
or could be more problematiccó vấn đề over time.
103
350180
2600
hoặc những vấn đề cần giải quyết.
06:05
If we all focustiêu điểm on openingkhai mạc up
the discussionthảo luận on AIAI
104
353799
4143
Nếu chúng ta đều cởi mở
trong vấn đề chia sẻ về AI
06:09
with foresighttầm nhìn xa towardsvề hướng the futureTương lai,
105
357966
1809
với tầm nhìn tương lai rõ ràng,
06:13
this will help createtạo nên a generalchung
conversationcuộc hội thoại and awarenessnhận thức
106
361093
4270
điều đó sẽ chúng ta tạo nên
một nền tảng kiến thức
06:17
about what AIAI is now,
107
365387
2513
về bản chất của AI hiện nay,
06:21
what it can becometrở nên
108
369212
2001
sự phát triển của nó trong tương lai,
06:23
and all the things that we need to do
109
371237
1785
và những điều ta phải làm
06:25
in ordergọi món to enablecho phép that outcomekết quả
that besttốt suitsphù hợp với us.
110
373046
3753
để đảm bảo một kết quả
tốt nhất cho chúng ta.
06:29
We alreadyđã see and know this
in the technologyCông nghệ that we use todayhôm nay.
111
377490
3674
Ta đã biết rõ những điều đó
qua việc sử dụng các công nghệ ngày nay.
06:33
We use smartthông minh phonesđiện thoại
and digitalkỹ thuật số assistantstrợ lý and RoombasRoombas.
112
381767
3880
Ta dùng điện thoại thông minh, trợ lý ảo
và những con robot biết dọn phòng.
06:38
Are they eviltà ác?
113
386457
1150
Điều đó có xấu xa không?
06:40
Maybe sometimesđôi khi.
114
388268
1547
Cũng tuỳ lúc.
06:42
Are they beneficialmang lại lợi ích?
115
390664
1333
Chúng có ích cho ta không?
06:45
Yes, they're that, too.
116
393005
1533
Cũng tuỳ lúc thôi.
06:48
And they're not all the sametương tự.
117
396236
1761
Và không phải trường hợp nào
cũng như nhau.
06:50
And there you alreadyđã see
a lightánh sáng shiningsáng on what the futureTương lai holdsgiữ.
118
398489
3540
Khi đó, bạn đã thấy những tia sáng
từ tương lai tới.
06:54
The futureTương lai continuestiếp tục on
from what we buildxây dựng and createtạo nên right now.
119
402942
3619
Tương lai sẽ tiếp diễn từ những điều
chúng ta đang xây dựng hôm nay.
06:59
We setbộ into motionchuyển động that dominoDomino effecthiệu ứng
120
407165
2642
Giống như hiệu ứng domino,
07:01
that carvescarves out AI'sCủa AI evolutionarytiến hóa pathcon đường.
121
409831
2600
ta vẽ nên lộ trình phát triển
và tiến hoá của AI.
07:05
In our time right now,
we shapehình dạng the AIAI of tomorrowNgày mai.
122
413173
2871
Những gì ta làm bây giờ
sẽ quyết định AI tương lai.
07:08
TechnologyCông nghệ that immersesimmerses us
in augmentedtăng cường realitiesthực tế
123
416566
3699
Những công nghệ giúp ta
được sống trong thực tế tăng cường,
07:12
bringingđưa to life pastquá khứ worldsthế giới.
124
420289
2566
đem tới cho chúng ta sự sống từ xa xưa.
07:15
TechnologyCông nghệ that helpsgiúp people
to sharechia sẻ theirhọ experienceskinh nghiệm
125
423844
4312
Công nghệ giúp con người
chia sẻ những trải nghiệm của mình
07:20
when they have difficultykhó khăn communicatinggiao tiếp.
126
428180
2262
khi họ gặp khó khăn trong việc giao tiếp.
07:23
TechnologyCông nghệ builtđược xây dựng on understandinghiểu biết
the streamingphát trực tuyến visualtrực quan worldsthế giới
127
431323
4532
Hay công nghệ chuyên về thu thập
và xử lý thế giới hình ảnh,
07:27
used as technologyCông nghệ for self-drivingtự lái carsxe hơi.
128
435879
3079
được dùng trong các sản phẩm
như xe tự lái.
07:32
TechnologyCông nghệ builtđược xây dựng on understandinghiểu biết imageshình ảnh
and generatingtạo ra languagengôn ngữ,
129
440490
3413
Công nghệ chuyên về xử lý hình ảnh
và sinh ra ngôn ngữ,
07:35
evolvingphát triển into technologyCông nghệ that helpsgiúp people
who are visuallytrực quan impairedbị khiếm khuyết
130
443927
4063
được phát triển để hỗ trợ
những người gặp vấn đề về thị lực,
07:40
be better ablecó thể to accesstruy cập the visualtrực quan worldthế giới.
131
448014
2800
hỗ trợ họ hiểu rõ hơn
về những hình ảnh quanh mình.
07:42
And we alsocũng thế see how technologyCông nghệ
can leadchì to problemscác vấn đề.
132
450838
3261
Và ta cũng thấy được rằng
công nghệ tạo ra những vấn đề mới.
Ngày nay, ta có những công nghệ
07:46
We have technologyCông nghệ todayhôm nay
133
454885
1428
07:48
that analyzesphân tích physicalvật lý
characteristicsđặc điểm we're bornsinh ra with --
134
456337
3835
phân tích chính xác
ngoại hình của con người,
07:52
suchnhư là as the colormàu of our skinda
or the look of our faceđối mặt --
135
460196
3272
ví dụ như màu da
hay các đường nét trên khuôn mặt,
07:55
in ordergọi món to determinemục đích whetherliệu or not
we mightcó thể be criminalstội phạm or terroristskẻ khủng bố.
136
463492
3804
nhằm dự đoán liệu ta có nguy cơ trở thành
tội phạm hoặc khủng bố được không.
07:59
We have technologyCông nghệ
that crunchescrunches throughxuyên qua our datadữ liệu,
137
467688
2905
Ta có những công nghệ
xử lý dữ liệu cá nhân của người khác,
thậm chí chúng kiểm tra dữ liệu
về giới tính và chủng tộc,
08:02
even datadữ liệu relatingliên quan
to our gendergiới tính or our racecuộc đua,
138
470617
2896
08:05
in ordergọi món to determinemục đích whetherliệu or not
we mightcó thể get a loantiền vay.
139
473537
2865
nhằm quyết định xem
liệu ta có được vay tiền hay không.
08:09
All that we see now
140
477494
1579
Mọi thứ ta thấy bây giờ
08:11
is a snapshotảnh chụp nhanh in the evolutionsự phát triển
of artificialnhân tạo intelligenceSự thông minh.
141
479097
3617
chỉ là một mảnh ghép nhỏ
trong sự tiến hoá của AI.
08:15
Because where we are right now,
142
483763
1778
Bởi vì hiện tại ta đang sống
08:17
is withinbên trong a momentchốc lát of that evolutionsự phát triển.
143
485565
2238
vẫn nằm trong quá trình tiến hoá đó.
08:20
That meanscó nghĩa that what we do now
will affectcó ảnh hưởng đến what happensxảy ra down the linehàng
144
488690
3802
Điều đó có nghĩa những điều ta làm bây giờ
sẽ ảnh hưởng sâu rộng đến hiện tại
08:24
and in the futureTương lai.
145
492516
1200
và đến tương lai.
08:26
If we want AIAI to evolvephát triển
in a way that helpsgiúp humanscon người,
146
494063
3951
Nếu ta muốn AI tiến hoá
theo hướng hỗ trợ loài người,
08:30
then we need to defineđịnh nghĩa
the goalsnhững mục tiêu and strategieschiến lược
147
498038
2801
ta cần định nghĩa rõ ràng
mục tiêu và các phương pháp cụ thể
08:32
that enablecho phép that pathcon đường now.
148
500863
1733
để vạch ra con đường đó.
08:35
What I'd like to see is something
that fitsphù hợp well with humanscon người,
149
503680
3738
Tôi muốn thấy một thứ
phù hợp nhất với con người,
08:39
with our culturenền văn hóa and with the environmentmôi trường.
150
507442
2800
với văn hoá của chúng ta
và với môi trường.
08:43
TechnologyCông nghệ that aidsAIDS and assistshỗ trợ
those of us with neurologicalthần kinh conditionsđiều kiện
151
511435
4484
Công nghệ cần hỗ trợ những người
gặp vấn đề về thần kinh
08:47
or other disabilitiesKhuyết tật
152
515943
1721
hay bất cứ khuyết tật nào khác
08:49
in ordergọi món to make life
equallybằng nhau challengingthách thức for everyonetất cả mọi người.
153
517688
3216
nhằm tạo ra một cuộc sống bình đẳng
cho tất cả mọi người.
08:54
TechnologyCông nghệ that workscông trinh
154
522097
1421
Công nghệ cần được áp dụng
08:55
regardlessbất kể of your demographicsnhân khẩu học
or the colormàu of your skinda.
155
523542
3933
bất kể ngoại hình
hay màu da của bạn thế nào.
09:00
And so todayhôm nay, what I focustiêu điểm on
is the technologyCông nghệ for tomorrowNgày mai
156
528383
4742
Điều tôi muốn tập trung đến
là về công nghệ cho ngày mai
09:05
and for 10 yearsnăm from now.
157
533149
1733
và cho mười năm nữa.
09:08
AIAI can turnxoay out in manynhiều differentkhác nhau wayscách.
158
536530
2634
AI sẽ biến thể theo nhiều cách khác nhau.
Nhưng trong tình huống này,
09:11
But in this casetrường hợp,
159
539688
1225
09:12
it isn't a self-drivingtự lái carxe hơi
withoutkhông có any destinationNơi Đến.
160
540937
3328
nó không chỉ là một chiếc xe tự lái
mà không biết điểm đích.
09:16
This is the carxe hơi that we are drivingđiều khiển.
161
544884
2400
Nó giống như chiếc xe
ta đang lái hằng ngày.
09:19
We choosechọn when to speedtốc độ up
and when to slowchậm down.
162
547953
3595
Ta sẽ quyết định lúc nào
nên tăng tốc và giảm tốc.
09:23
We choosechọn if we need to make a turnxoay.
163
551572
2400
Ta quyết định lúc nào nên rẽ.
09:26
We choosechọn what the AIAI
of the futureTương lai will be.
164
554868
3000
Ta quyết định số phận của AI tương lai.
09:31
There's a vastrộng lớn playingđang chơi fieldcánh đồng
165
559186
1337
Có vô vàn bộ mặt
09:32
of all the things that artificialnhân tạo
intelligenceSự thông minh can becometrở nên.
166
560547
2965
mà trí tuệ nhân tạo có thể biến thành.
09:36
It will becometrở nên manynhiều things.
167
564064
1800
Chúng sẽ có mặt trong nhiều thứ.
09:39
And it's up to us now,
168
567694
1732
Điều đó phụ thuộc vào chúng ta,
09:41
in ordergọi món to figurenhân vật out
what we need to put in placeđịa điểm
169
569450
3061
ta cần tìm hiểu những gì
cần thực hiện ngay hôm nay
09:44
to make sure the outcomeskết quả
of artificialnhân tạo intelligenceSự thông minh
170
572535
3807
để tìm đường đi đúng đắn
cho trí tuệ nhân tạo,
09:48
are the onesnhững người that will be
better for all of us.
171
576366
3066
một con đường đi
giúp tất cả chúng ta tốt hơn.
09:51
Thank you.
172
579456
1150
Cám ơn.
09:52
(ApplauseVỗ tay)
173
580630
2187
(Vỗ tay)
Translated by Lam Nguyen
Reviewed by Lan Dang

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com