ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: Sự ra đời của robot cá nhân

Filmed:
1,201,057 views

Khi còn là một nghiên cứu sinh, Cynthia Breazeal đã tự hỏi tại sao chúng ta đã sử dụng robot trên sao Hỏa, nhưng không phải trong phòng khách của mình. Cô nhận ra chìa khóa của vấn đề là phải đào tạo robot để tương tác được với con người. Bây giờ cô tưởng tượng ra và tạo ra robot để dạy, học tập - và vui chơi. Hãy chú ý đến những cảnh quay demo tuyệt vời của một trò chơi tương tác mới cho trẻ em.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sincekể từ I was a little girlcon gái
0
0
3000
Từ khi tôi còn là một cô bé
00:18
seeingthấy "StarNgôi sao WarsCuộc chiến tranh" for the first time,
1
3000
2000
khi xem phim "Chiến tranh giữa các vì sao" (Star Wars) lần đầu tiên,
00:20
I've been fascinatedquyến rũ by this ideaý kiến
2
5000
2000
tôi đã bị cuốn hút bởi ý tưởng
00:22
of personalcá nhân robotsrobot.
3
7000
2000
về robot cá nhân.
00:24
And as a little girlcon gái,
4
9000
2000
Khi còn là một cô bé,
00:26
I lovedyêu the ideaý kiến of a robotrobot that interactedtương tác with us
5
11000
2000
tôi đã rất thích cái ý tưởng về một con robot có thể giao lưu với chúng ta
00:28
much more like a helpfulHữu ích, trustedđáng tin cậy sidekickSidekick --
6
13000
3000
như một người bạn hữu ích và đáng tin cậy --
00:31
something that would delightHân hoan us, enrichlàm phong phú thêm our livescuộc sống
7
16000
2000
đem lại niềm vui và làm giàu cuộc sống của chúng ta
00:33
and help us savetiết kiệm a galaxyThiên hà or two.
8
18000
3000
và giúp chúng ta cứu một vài dải thiên hà.
00:37
I knewbiết robotsrobot like that didn't really existhiện hữu,
9
22000
3000
Vâng, tôi biết là robot như vậy thật sự không tồn tại,
00:40
but I knewbiết I wanted to buildxây dựng them.
10
25000
2000
nhưng tôi biết tôi muốn tạo nên chúng.
00:42
So 20 yearsnăm passvượt qua --
11
27000
2000
Và 20 năm đã trôi qua,
00:44
I am now a graduatetốt nghiệp studentsinh viên at MITMIT
12
29000
2000
bây giờ tôi đã là một nghiên cứu sinh tại trường MIT
00:46
studyinghọc tập artificialnhân tạo intelligenceSự thông minh,
13
31000
2000
tôi nghiên cứu trí tuệ nhân tạo,
00:48
the yearnăm is 1997,
14
33000
2000
vào năm 1997,
00:50
and NASANASA has just landedhạ cánh the first robotrobot on MarsSao Hỏa.
15
35000
3000
NASA vừa đưa lên sao Hỏa con robot đầu tiên.
00:53
But robotsrobot are still not in our home, ironicallytrớ trêu thay.
16
38000
3000
Nhưng trớ trêu thay, chúng ta vẫn chưa có robot ở trong nhà.
00:56
And I remembernhớ lại thinkingSuy nghĩ about
17
41000
2000
Tôi còn nhớ
00:58
all the reasonslý do why that was the casetrường hợp.
18
43000
2000
tôi đã suy nghĩ mãi về những lý do cho việc này.
01:00
But one really strucktấn công me.
19
45000
2000
Và một lý do làm tôi giật mình.
01:02
RoboticsRobot had really been about interactingtương tác with things,
20
47000
3000
Từ xưa đến nay người máy luôn được tạo ra để giao lưu với đồ vật,
01:05
not with people --
21
50000
2000
không phải với con người --
01:07
certainlychắc chắn not in a socialxã hội way that would be naturaltự nhiên for us
22
52000
2000
và tất nhiên là không phải giao tiếp theo chuẩn mực bình thường của xã hội loài người
01:09
and would really help people acceptChấp nhận robotsrobot
23
54000
2000
và không phải theo cái cách mà sẽ giúp mọi người chấp nhận robot
01:11
into our dailyhằng ngày livescuộc sống.
24
56000
2000
trong cuộc sống hàng ngày.
01:13
For me, that was the whitetrắng spacekhông gian; that's what robotsrobot could not do yetchưa.
25
58000
3000
Đối với tôi, điều này là một lỗ hổng, là điều mà robot chưa thể làm được.
01:16
And so that yearnăm, I startedbắt đầu to buildxây dựng this robotrobot, KismetKismet,
26
61000
3000
Và thế là năm đó, tôi bắt tay vào việc xây dựng con robot này, Kismet,
01:19
the world'scủa thế giới first socialxã hội robotrobot.
27
64000
3000
con robot mang tính xã hội đầu tiên trên thế giới.
01:22
ThreeBa yearsnăm latermột lát sau --
28
67000
2000
3 năm sau,
01:24
a lot of programminglập trình,
29
69000
2000
sau vô số các lập trình,
01:26
workingđang làm việc with other graduatetốt nghiệp studentssinh viên in the labphòng thí nghiệm --
30
71000
2000
sau vô số những giờ làm việc với những nghiên cứu sinh khác tai phòng thí nghiệm
01:28
KismetKismet was readysẳn sàng to startkhởi đầu interactingtương tác with people.
31
73000
2000
Kismet cuối cùng cũng sẵn sàng để giao tiếp với con người.
01:30
(VideoVideo) ScientistNhà khoa học: I want to showchỉ you something.
32
75000
2000
(Video) Nhà khoa học: Tôi muốn cho bạn xem một thứ.
01:32
KismetKismet: (NonsenseVô nghĩa)
33
77000
2000
Kismet: (nói linh tinh không có nghĩa)
01:34
ScientistNhà khoa học: This is a watch that my girlfriendbạn gái gaveđưa ra me.
34
79000
3000
Nhà khoa học: Đây là cái đồng hồ mà bạn gái tôi đã tặng tôi.
01:37
KismetKismet: (NonsenseVô nghĩa)
35
82000
2000
Kismet: (nói linh tinh không có nghĩa)
01:39
ScientistNhà khoa học: Yeah, look, it's got a little bluemàu xanh da trời lightánh sáng in it too.
36
84000
2000
Nhà khoa học: Ừ! Nhìn này! Nó có một chút màu xanh này!
01:41
I almosthầu hết lostmất đi it this weektuần.
37
86000
3000
Tuần rồi, suýt nữa là tôi đánh mất nó đấy.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedtương tác with people
38
89000
3000
Cynthia Breazeal: Kismet giao lưu với con người
01:47
like kindloại of a non-verbalkhông lời childđứa trẻ or pre-verbaltrước lời nói childđứa trẻ,
39
92000
3000
như một đứa trẻ chưa biết hoặc sắp biết nói,
01:50
which I assumegiả định was fittinglắp because it was really the first of its kindloại.
40
95000
3000
mà cũng có lý thôi vì nó là con robot đầu tiên của thể loại này
01:53
It didn't speaknói languagengôn ngữ, but it didn't mattervấn đề.
41
98000
2000
Nó không nói một thứ tiếng nào hết. Nhưng điều đấy không quan trọng.
01:55
This little robotrobot was somehowbằng cách nào đó ablecó thể
42
100000
2000
Con robot nhỏ bé này đã có thể
01:57
to tap into something deeplysâu sắc socialxã hội withinbên trong us --
43
102000
3000
chạm đến điều gì đó mang đậm tính xã hội trong mỗi chúng ta.
02:00
and with that, the promiselời hứa of an entirelyhoàn toàn newMới way
44
105000
2000
Điều này mở ra hy vọng cho một phương cách hoàn toàn mới
02:02
we could interacttương tác with robotsrobot.
45
107000
2000
để chúng ta có thể giao tiếp với robot.
02:04
So over the pastquá khứ severalmột số yearsnăm
46
109000
2000
Vì vậy, vài năm trở lại đây
02:06
I've been continuingtiếp tục to explorekhám phá this interpersonalgiao tiếp dimensionkích thước of robotsrobot,
47
111000
2000
tôi tiếp tục tìm hiểu về lĩnh vực giao tiếp giữa các cá nhân với nhau cho robot,
02:08
now at the mediaphương tiện truyền thông labphòng thí nghiệm
48
113000
2000
bây giờ ở phòng thí nghiệm về các phương tiện truyền thông
02:10
with my ownsở hữu teamđội of incrediblyvô cùng talentedcó tài studentssinh viên.
49
115000
2000
với một nhóm sinh viên rất tài năng.
02:12
And one of my favoriteyêu thích robotsrobot is LeonardoLeonardo.
50
117000
3000
Một trong những người máy tôi thích nhất là Leonardo.
02:15
We developedđã phát triển LeonardoLeonardo in collaborationhợp tác with StanStan WinstonWinston StudioStudio.
51
120000
3000
Chúng tôi đã hợp tác với Stan Winston Studio để tạo ra Leonardo
02:18
And so I want to showchỉ you a specialđặc biệt momentchốc lát for me of LeoLeo.
52
123000
3000
Và tôi muốn cho các bạn xem một khoảnh khắc của Leo mà tôi thấy rất đặc biệt.
02:21
This is MattMatt BerlinBéc-lin interactingtương tác with LeoLeo,
53
126000
2000
Matt Berlin đang giao tiếp với Leo.
02:23
introducinggiới thiệu LeoLeo to a newMới objectvật.
54
128000
2000
anh ấy đang giới thiệu Leo cho một đối tượng mới.
02:25
And because it's newMới, LeoLeo doesn't really know what to make of it.
55
130000
3000
Vì nó mới, nên Leo chẳng biết phản ứng thế nào với nó.
02:28
But sortsắp xếp of like us, he can actuallythực ra learnhọc hỏi about it
56
133000
2000
Nhưng mà như con người, Leo có thể học cách phản ứng
02:30
from watchingxem Matt'sMatt's reactionphản ứng.
57
135000
3000
trong khi theo dõi Matt Berlin.
02:33
(VideoVideo) MattMatt BerlinBéc-lin: HelloXin chào, LeoLeo.
58
138000
2000
(Video) Matt Berlin: Xin chào, Leo!
02:38
LeoLeo, this is CookieCookie MonsterQuái vật.
59
143000
3000
Leo ơi, đây là "Cookie Monster".
02:44
Can you find CookieCookie MonsterQuái vật?
60
149000
3000
Leo có thể tìm thấy "Cookie Monster" không?
02:52
LeoLeo, CookieCookie MonsterQuái vật is very badxấu.
61
157000
3000
Leo ơi, "Cookie Monster" là kẻ xấu.
02:56
He's very badxấu, LeoLeo.
62
161000
2000
Hắn rất xấu, Leo ạ.
03:00
CookieCookie MonsterQuái vật is very, very badxấu.
63
165000
3000
"Cookie Monster" rất độc ác.
03:07
He's a scaryđáng sợ monsterquái vật.
64
172000
2000
Nó là một con quái vật đáng sợ.
03:09
He wants to get your cookiescookie.
65
174000
2000
Và nó muốn ăn bánh của Leo.
03:12
(LaughterTiếng cười)
66
177000
2000
(cười)
03:14
CBCB: All right, so LeoLeo and CookieCookie
67
179000
3000
(CB): Vâng, Leo và "Cookie Monster"
03:17
mightcó thể have gottennhận off to a little bitbit of a roughthô startkhởi đầu,
68
182000
2000
có vẻ khởi đầu không suôn sẻ cho lắm,
03:19
but they get alongdọc theo great now.
69
184000
3000
nhưng mà hai đứa bây giờ đã thích nhau hơn nhiều.
03:22
So what I've learnedđã học
70
187000
2000
Và tôi đã học được
03:24
throughxuyên qua buildingTòa nhà these systemshệ thống
71
189000
2000
sau khi xây dựng những hệ thống này
03:26
is that robotsrobot are actuallythực ra
72
191000
2000
rằng robot thật ra
03:28
a really intriguingintriguing socialxã hội technologyCông nghệ,
73
193000
2000
là một công nghệ xã hội rất đáng kinh ngạc.
03:30
where it's actuallythực ra theirhọ abilitycó khả năng
74
195000
2000
Thật ra robot có khả năng
03:32
to pushđẩy our socialxã hội buttonsnút
75
197000
2000
bật lên công tác xã hội của chúng ta
03:34
and to interacttương tác with us like a partnercộng sự
76
199000
2000
và giao tiếp với chúng ta như một đối tác
03:36
that is a corecốt lõi partphần of theirhọ functionalitychức năng.
77
201000
3000
đấy chính là điểm hữu dụng của robot.
03:39
And with that shiftsự thay đổi in thinkingSuy nghĩ, we can now startkhởi đầu to imaginetưởng tượng
78
204000
2000
Với cách suy nghĩ mới mẻ đấy, chúng ta có thể tưởng tượng ra
03:41
newMới questionscâu hỏi, newMới possibilitieskhả năng for robotsrobot
79
206000
3000
những câu hỏi, những khả năng mới cho robot
03:44
that we mightcó thể not have thought about otherwisenếu không thì.
80
209000
3000
mà trước đây chúng ta chưa từng nghĩ đến.
03:47
But what do I mean when I say "pushđẩy our socialxã hội buttonsnút?"
81
212000
2000
Vậy ý tôi là gì khi tôi nói "bật lên cái công tác xã hội"?
03:49
Well, one of the things that we'vechúng tôi đã learnedđã học
82
214000
2000
Vâng, một trong những điều tôi đã học được là
03:51
is that, if we designthiết kế these robotsrobot to communicategiao tiếp with us
83
216000
2000
nếu chúng ta chế tạo nên robot để giao tiếp với chúng ta
03:53
usingsử dụng the sametương tự bodythân hình languagengôn ngữ,
84
218000
2000
và sử dụng cùng một thứ ngôn ngữ hình thể,
03:55
the sametương tự sortsắp xếp of non-verbalkhông lời cuestín hiệu that people use --
85
220000
2000
và cùng một kiểu cử chỉ --
03:57
like NexiNexi, our humanoidHumanoid robotrobot, is doing here --
86
222000
3000
giống như Nexi, robot hình người ở đây --
04:00
what we find is that people respondtrả lời to robotsrobot
87
225000
2000
chúng tôi thấy cách con người phản ứng với robot
04:02
a lot like they respondtrả lời to people.
88
227000
2000
rất giống cách con người phản ứng với con người.
04:04
People use these cuestín hiệu to determinemục đích things like how persuasivethuyết phục someonengười nào is,
89
229000
3000
Con người dựa vào những cử chỉ để đo tính thuyết phục,
04:07
how likablesự, how engaginghấp dẫn,
90
232000
2000
để xem ai đó có dễ gần không, có thu hút không,
04:09
how trustworthyđáng tin cậy.
91
234000
2000
có đáng tin cậy không.
04:11
It turnslượt out it's the sametương tự for robotsrobot.
92
236000
2000
Và robot cũng hoạt động như vây.
04:13
It's turningquay out now
93
238000
2000
Chúng tôi nhận thấy
04:15
that robotsrobot are actuallythực ra becomingtrở thành a really interestinghấp dẫn newMới scientificthuộc về khoa học tooldụng cụ
94
240000
3000
rằng robot thực chất đang dần trở thành một công cụ rất hay cho khoa học
04:18
to understandhiểu không humanNhân loại behaviorhành vi.
95
243000
2000
để nghiên cứu hành vi của con người.
04:20
To answercâu trả lời questionscâu hỏi like, how is it that, from a briefngắn gọn encountergặp gỡ,
96
245000
3000
Để trả lời những câu hỏi như, làm thế nào, mà sau một lần gặp gỡ ngắn ngủi,
04:23
we're ablecó thể to make an estimateước tính of how trustworthyđáng tin cậy anotherkhác personngười is?
97
248000
3000
chúng ta đều có thể ước tính được độ đáng tin cậy của người kia.
04:26
Mimicry'sMimicry của believedtin to playchơi a rolevai trò, but how?
98
251000
3000
Có thể là nhờ sự bắt chước, nhưng mà như thế nào?
04:29
Is it the mimickingbắt chước of particularcụ thể gesturescử chỉ that mattersvấn đề?
99
254000
3000
Có phải là sự bắt chước của một số cử chỉ nhất định mang tính quyết định không?
04:32
It turnslượt out it's really hardcứng
100
257000
2000
Thật ra rất khó nói
04:34
to learnhọc hỏi this or understandhiểu không this from watchingxem people
101
259000
2000
vì chúng ta không thể biết và hiểu điều này chỉ qua quan sát con người
04:36
because when we interacttương tác we do all of these cuestín hiệu automaticallytự động.
102
261000
3000
vì khi giao tiếp, chúng ta ứng xử một cách vô thức.
04:39
We can't carefullycẩn thận controlđiều khiển them because they're subconscioustiềm thức for us.
103
264000
2000
Chúng ta không thể kiểm soát bản thân vì nó nằm trong tiềm thức.
04:41
But with the robotrobot, you can.
104
266000
2000
Nhưng mà với robot thì chúng ta có thể.
04:43
And so in this videovideo here --
105
268000
2000
Và trong đoạn phim này --
04:45
this is a videovideo takenLấy from DavidDavid DeSteno'sDeSteno của labphòng thí nghiệm at NortheasternĐông bắc UniversityTrường đại học.
106
270000
3000
video clip này được quay ở phòng thí nghiệm của giáo sư David DeSteno tại trường Đại học Northeastern.
04:48
He's a psychologistnhà tâm lý học we'vechúng tôi đã been collaboratingcộng tác with.
107
273000
2000
Anh ấy là một nhà tâm lý học mà chúng tôi đang hợp tác cùng.
04:50
There's actuallythực ra a scientistnhà khoa học carefullycẩn thận controllingkiểm soát Nexi'sCủa Nexi cuestín hiệu
108
275000
3000
Trên thực tế, một nhà khoa học đang kiểm soát một cách chặt chẽ những ứng xử của Nexi
04:53
to be ablecó thể to studyhọc this questioncâu hỏi.
109
278000
3000
để nghiên cứu được vấn đề này.
04:56
And the bottomđáy linehàng is -- the reasonlý do why this workscông trinh is
110
281000
2000
Và điểm mấu chốt là -- lí do điều này thực hiện được là --
04:58
because it turnslượt out people just behavehành xử like people
111
283000
2000
chúng tôi nhận thấy rằng con người vẫn xử sự như một con người
05:00
even when interactingtương tác with a robotrobot.
112
285000
3000
kể cả khi chúng ta đang giao tiếp với robot.
05:03
So givenđược that keyChìa khóa insightcái nhìn sâu sắc,
113
288000
2000
Dựa vào phát hiện quan trọng đó,
05:05
we can now startkhởi đầu to imaginetưởng tượng
114
290000
2000
chúng ta có thể bắt đầu tưởng tượng
05:07
newMới kindscác loại of applicationscác ứng dụng for robotsrobot.
115
292000
3000
một loại ứng dụng mới cho robot
05:10
For instanceví dụ, if robotsrobot do respondtrả lời to our non-verbalkhông lời cuestín hiệu,
116
295000
3000
Ví dụ như là nếu robot phản ứng với tín hiệu không lời của chúng ta,
05:13
maybe they would be a coolmát mẻ, newMới communicationgiao tiếp technologyCông nghệ.
117
298000
4000
thì chúng sẽ có một công nghệ liên lạc rất mới mẻ và hay ho.
05:17
So imaginetưởng tượng this:
118
302000
2000
Các bạn hãy tưởng tượng:
05:19
What about a robotrobot accessoryphụ kiện for your cellphoneđiện thoại di động?
119
304000
2000
Nếu bạn có một con robot làm phụ kiện cho điện thoại di động
05:21
You call your friendngười bạn, she putsđặt her handsetđiện thoại di động in a robotrobot,
120
306000
2000
Bạn gọi cho một người bạn, và cô ấy sẽ gắn cái điện thoại vào robot,
05:23
and, bambam! You're a MeBotMeBot --
121
308000
2000
và, tèn ten! Bạn trở thành MeBot --
05:25
you can make eyemắt contacttiếp xúc, you can talk with your friendsbạn bè,
122
310000
3000
bạn có thể trao đổi bằng mắt, bạn có thể nói chuyện với bạn bè,
05:28
you can movedi chuyển around, you can gesturecử chỉ --
123
313000
2000
bạn có thể đi lại, có thể làm các động tác --
05:30
maybe the nextkế tiếp besttốt thing to really beingđang there, or is it?
124
315000
3000
chẳng khác gì bạn đang có mặt thực sự ở đó, phải không?
05:33
To explorekhám phá this questioncâu hỏi,
125
318000
2000
Để tìm hiểu câu hỏi này
05:35
my studentsinh viên, SiggySiggy AdalgeirssonAdalgeirsson, did a studyhọc
126
320000
3000
học trò của tôi, Siggy Adalgeirsson, đã làm một cuộc điều tra
05:38
where we broughtđưa humanNhân loại participantsngười tham gia, people, into our labphòng thí nghiệm
127
323000
3000
trong đó chúng tôi mời những người tham gia vào phòng thí nghiệm
05:41
to do a collaborativehợp tác taskbài tập
128
326000
2000
và đề nghị họ cùng hợp tác làm một việc gì đó
05:43
with a remotexa collaboratorcộng tác viên.
129
328000
2000
với một cộng tác viên từ xa.
05:45
The taskbài tập involvedcó tính liên quan things
130
330000
2000
Công việc bao gồm những việc như là
05:47
like looking at a setbộ of objectscác đối tượng on the tablebàn,
131
332000
2000
nhìn một số đồ vật để trên bàn
05:49
discussingthảo luận them in termsđiều kiện of theirhọ importancetầm quan trọng and relevancesự liên quan to performingbiểu diễn a certainchắc chắn taskbài tập --
132
334000
3000
và bàn xem chúng có quan trọng và phù hợp để thực hiện một công việc nào đó không --
05:52
this endedđã kết thúc up beingđang a survivalSự sống còn taskbài tập --
133
337000
2000
công việc cuối cùng trở thành việc cần làm để sống sót--
05:54
and then ratingđánh giá them in termsđiều kiện
134
339000
2000
và chúng tôi đề nghị họ đánh giá
05:56
of how valuablequý giá and importantquan trọng they thought they were.
135
341000
2000
xem những độ vật này quan trọng và có giá trị đến mức nào.
05:58
The remotexa collaboratorcộng tác viên was an experimenterngười thử nghiệm from our groupnhóm
136
343000
3000
Cộng tác viên từ xa là một nhà thí nghiệm của nhóm chúng tôi
06:01
who used one of threesố ba differentkhác nhau technologiescông nghệ
137
346000
2000
họ dùng 1 trong 3 công nghệ khác nhau
06:03
to interacttương tác with the participantsngười tham gia.
138
348000
2000
để giao tiếp với những người tham gia bài thí nghiệm.
06:05
The first was just the screenmàn.
139
350000
2000
Người thứ nhất chỉ dùng màn hình
06:07
This is just like videovideo conferencingHội nghị truyền hình todayhôm nay.
140
352000
3000
giống như là nói chuyện qua video như chúng ta có hiện nay.
06:10
The nextkế tiếp was to addthêm vào mobilitytính di động -- so, have the screenmàn on a mobiledi động basecăn cứ.
141
355000
3000
Người tiếp theo, để tăng thêm sự chuyển động, dùng màn hình được đặt trên một chân đế di chuyển được.
06:13
This is like, if you're familiarquen with any of the telepresencetelepresence robotsrobot todayhôm nay --
142
358000
3000
Trường hợp này cũng giống như khái niệm "hội họp từ xa" --
06:16
this is mirroringphản ánh that situationtình hình.
143
361000
3000
đã trở nên quen thuộc với nhiều người.
06:19
And then the fullyđầy đủ expressivebiểu cảm MeBotMeBot.
144
364000
2000
Và cuối cùng là MeBot với khả năng biểu cảm một cách đầy đủ.
06:21
So after the interactionsự tương tác,
145
366000
2000
Sau buổi giao lưu,
06:23
we askedyêu cầu people to ratetỷ lệ theirhọ qualityphẩm chất of interactionsự tương tác
146
368000
3000
chúng tôi nhờ những người tham gia cho điểm về chất lượng của cuộc nói chuyện
06:26
with the technologyCông nghệ, with a remotexa collaboratorcộng tác viên
147
371000
2000
với công nghệ, với cộng tác viên từ xa
06:28
throughxuyên qua this technologyCông nghệ, in a numbercon số of differentkhác nhau wayscách.
148
373000
3000
thông qua công nghệ này bằng nhiều hình thức khác nhau.
06:31
We lookednhìn at psychologicaltâm lý involvementsự tham gia --
149
376000
2000
Chúng tôi đánh giá sự cuốn hút về tâm lý --
06:33
how much empathyđồng cảm did you feel for the other personngười?
150
378000
2000
Bạn đồng cảm như thế nào đối với người kia?
06:35
We lookednhìn at overalltổng thể engagementhôn ước.
151
380000
2000
Chúng tôi đánh giá sự tham gia nói chung.
06:37
We lookednhìn at theirhọ desirekhao khát to cooperatehợp tác.
152
382000
2000
Chúng tôi đánh giá sự ham muốn cho việc hợp tác của những người tham gia.
06:39
And this is what we see when they use just the screenmàn.
153
384000
3000
Và đây là nhưng gì chúng tôi nhìn thấy khi chỉ dùng đến màn hình
06:42
It turnslượt out, when you addthêm vào mobilitytính di động -- the abilitycó khả năng to rollcuộn around the tablebàn --
154
387000
3000
Hóa ra khi bạn chuyển động thêm -- khả năng đi vòng vòng quanh bàn--
06:45
you get a little more of a boosttăng.
155
390000
2000
bạn có thêm một chút động lực.
06:47
And you get even more of a boosttăng when you addthêm vào the fullđầy expressionbiểu hiện.
156
392000
3000
Và bạn có thêm động lực khi bạn bổ sung sự biểu cảm.
06:50
So it seemsdường như like this physicalvật lý, socialxã hội embodimentsự hiện thân
157
395000
2000
Có vẻ sự thể hiện xã hội vật lý
06:52
actuallythực ra really makeslàm cho a differenceSự khác biệt.
158
397000
2000
thật ra làm nên một sự thay đổi đáng kể.
06:54
Now let's try to put this into a little bitbit of contextbối cảnh.
159
399000
3000
Bây giờ chúng ta thử đặt tình huống này vào chút ít khung cảnh.
06:57
TodayHôm nay we know that familiescác gia đình are livingsống furtherthêm nữa and furtherthêm nữa apartxa nhau,
160
402000
3000
Hiện nay, chúng ta đều biết rằng các gia đình đang ngày càng sống tách biệt nhau,
07:00
and that definitelychắc chắn takes a tollsố điện thoại on familygia đình relationshipscác mối quan hệ
161
405000
2000
và điều này chắc chắn gióng chuông cảnh báo về mối quan hệ gia đình
07:02
and familygia đình bondstrái phiếu over distancekhoảng cách.
162
407000
2000
và sự gắn bó giữa các thành viên gia đình qua khoảng cách không gian.
07:04
For me, I have threesố ba youngtrẻ boyscon trai,
163
409000
2000
Giống như tôi, tôi có ba cậu con trai
07:06
and I want them to have a really good relationshipmối quan hệ
164
411000
2000
và tôi muốn chúng nó có một quan hệ tốt
07:08
with theirhọ grandparentsông bà.
165
413000
2000
với ông bà chúng.
07:10
But my parentscha mẹ livetrực tiếp thousandshàng nghìn of milesdặm away,
166
415000
2000
Nhưng bố mẹ tôi lại sống rất xa chúng tôi,
07:12
so they just don't get to see eachmỗi other that oftenthường xuyên.
167
417000
2000
nên tôi không thể cho 3 đứa gặp ông bà thường xuyên được.
07:14
We try SkypeSkype, we try phoneđiện thoại callscuộc gọi,
168
419000
2000
Chúng tôi thử dùng Skype, nói chuyện điện thoại,
07:16
but my boyscon trai are little -- they don't really want to talk;
169
421000
2000
nhưng mà 3 thằng đều rất nhỏ, chúng nó đâu có thích nói chuyện,
07:18
they want to playchơi.
170
423000
2000
chúng nó chỉ thích chơi thôi.
07:20
So I love the ideaý kiến of thinkingSuy nghĩ about robotsrobot
171
425000
2000
Chúng nó rất thích ý tưởng về robot
07:22
as a newMới kindloại of distance-playkhoảng cách-play technologyCông nghệ.
172
427000
3000
như là loại hình công nghệ vui chơi từ xa mới.
07:25
I imaginetưởng tượng a time not too farxa from now --
173
430000
3000
Vì thế tôi tưởng tượng là, trong một tương lai gần
07:28
my mommẹ can go to her computermáy vi tính,
174
433000
2000
mẹ tôi có thể ngồi trước máy tính,
07:30
openmở up a browsertrình duyệt and jackjack into a little robotrobot.
175
435000
2000
mở ra một trình duyệt và cắm vào robot nhỏ.
07:32
And as grandma-botBà-bot,
176
437000
3000
Và thông qua robot-bà ngoại,
07:35
she can now playchơi, really playchơi,
177
440000
2000
bà có thể chơi, thật sự chơi
07:37
with my sonscon trai, with her grandsonscháu trai,
178
442000
2000
với những đứa cháu của bà,
07:39
in the realthực worldthế giới with his realthực toysđồ chơi.
179
444000
3000
trong thế giới thật, với những đồ chơi thật của chúng nó.
07:42
I could imaginetưởng tượng grandmothers beingđang ablecó thể to do social-playsxã hội-kịch
180
447000
2000
Tôi có thể hình dung các bà có thể chơi trò chơi xã hội
07:44
with theirhọ granddaughtersGrete, with theirhọ friendsbạn bè,
181
449000
2000
với đám cháu gái và bạn bè của chúng,
07:46
and to be ablecó thể to sharechia sẻ all kindscác loại of other activitieshoạt động around the housenhà ở,
182
451000
2000
và có thể chia sẻ tất cả các hoạt động khác nhau quanh nhà,
07:48
like sharingchia sẻ a bedtimetrước khi đi ngủ storycâu chuyện.
183
453000
2000
giống như kể chuyện đêm khuya.
07:50
And throughxuyên qua this technologyCông nghệ,
184
455000
2000
Và thông qua công nghệ này,
07:52
beingđang ablecó thể to be an activeđang hoạt động participantngười tham gia
185
457000
2000
ông bà có thể tham gia một cách chủ động
07:54
in theirhọ grandchildren'scháu của livescuộc sống
186
459000
2000
vào cuộc sống của những đứa cháu họ.
07:56
in a way that's not possiblekhả thi todayhôm nay.
187
461000
2000
theo cách dường như không thể hiện nay.
07:58
Let's think about some other domainstên miền,
188
463000
2000
Hãy nghĩ về một số lĩnh vực khác,
08:00
like maybe healthSức khỏe.
189
465000
2000
chẳng hạn như sức khỏe.
08:02
So in the UnitedVương StatesTiểu bang todayhôm nay,
190
467000
2000
Tại Hoa Kỳ ngày nay,
08:04
over 65 percentphần trăm of people are eitherhoặc overweightthừa cân or obesebéo phì,
191
469000
3000
hơn 65% dân số thừa cân hoặc béo phì,
08:07
and now it's a biglớn problemvấn đề with our childrenbọn trẻ as well.
192
472000
2000
và hiện giờ cũng là vấn đề lớn với con cái chúng ta.
08:09
And we know that as you get olderlớn hơn in life,
193
474000
2000
Và chúng ta biết rằng chúng ta sẽ dần dần già đi,
08:11
if you're obesebéo phì when you're youngertrẻ hơn, that can leadchì to chronicmãn tính diseasesbệnh tật
194
476000
3000
nếu như bạn bị bệnh béo phì khi bạn trẻ, sẽ dẫn đến các căn bệnh mãn tính
08:14
that not only reducegiảm your qualityphẩm chất of life,
195
479000
2000
và sẽ không chỉ làm giảm chất lượng cuộc sống,
08:16
but are a tremendousto lớn economicthuộc kinh tế burdengánh nặng on our healthSức khỏe carequan tâm systemhệ thống.
196
481000
3000
mà còn là gánh nặng kinh tế to lớn cho hệ thống chăm sóc sức khỏe của chúng ta.
08:19
But if robotsrobot can be engaginghấp dẫn,
197
484000
2000
Nếu robot có thể tham gia
08:21
if we like to cooperatehợp tác with robotsrobot,
198
486000
2000
nếu chúng ta thích hợp tác với robot
08:23
if robotsrobot are persuasivethuyết phục,
199
488000
2000
nếu robot có sức thuyết phục
08:25
maybe a robotrobot can help you
200
490000
2000
có lẽ robot có thể giúp đỡ bạn
08:27
maintainduy trì a dietchế độ ăn and exercisetập thể dục programchương trình,
201
492000
2000
duy trì chương trình tập luyện và ăn kiêng,
08:29
maybe they can help you managequản lý your weightcân nặng.
202
494000
3000
chúng có thể giúp bạn kiểm soát cân nặng.
08:32
SortSắp xếp of like a digitalkỹ thuật số JiminyJiminy --
203
497000
2000
Đại loại như Jiminy kỹ thuật số --
08:34
as in the well-knownnổi tiếng fairynàng tiên talecâu chuyện --
204
499000
2000
trong câu chuyện cổ tích nổi tiếng --
08:36
a kindloại of friendlythân thiện, supportivehỗ trợ presencesự hiện diện that's always there
205
501000
2000
một kiểu hiện diện hỗ trợ thân thiện luôn luôn sẵn sàng
08:38
to be ablecó thể to help you make the right decisionphán quyết
206
503000
2000
để có thể giúp bạn đưa ra quyết định đúng đắn
08:40
in the right way at the right time
207
505000
2000
đúng cách, đúng lúc,
08:42
to help you formhình thức healthykhỏe mạnh habitsthói quen.
208
507000
2000
giúp bạn hình thành thói quen lành mạnh.
08:44
So we actuallythực ra exploredkhám phá this ideaý kiến in our labphòng thí nghiệm.
209
509000
2000
Chúng tôi thực sự nghiên cứu ý tưởng này trong phòng thí nghiệm.
08:46
This is a robotrobot, AutomCông.
210
511000
2000
Và đây là người máy Autom.
08:48
CoryCory KiddKidd developedđã phát triển this robotrobot for his doctoraltiến sĩ work.
211
513000
3000
Cory Kidd tạo ra robot này trong công trình tiến sỹ của anh ta.
08:51
And it was designedthiết kế to be a robotrobot diet-and-exercisechế độ ăn uống và tập thể dục coachhuấn luyện viên.
212
516000
3000
Và đã tạo ra một người máy huấn luyện viên thể dục và ăn kiêng.
08:54
It had a couplevợ chồng of simpleđơn giản non-verbalkhông lời skillskỹ năng it could do.
213
519000
2000
Nó có thể thực hiện một vài kỹ năng không lời đơn giản.
08:56
It could make eyemắt contacttiếp xúc with you.
214
521000
2000
Có thể ra hiệu bằng mắt với bạn.
08:58
It could sharechia sẻ informationthông tin looking down at a screenmàn.
215
523000
2000
Có thể chia sẻ thông tin bằng nhìn xuống màn hình.
09:00
You'dBạn sẽ use a screenmàn interfacegiao diện to enterđi vào informationthông tin,
216
525000
2000
Bạn sẽ sử dụng giao diện màn hình để điền thông tin
09:02
like how manynhiều caloriescalo you ateăn that day,
217
527000
2000
như là bao nhiêu calo bạn đã ăn trong ngày
09:04
how much exercisetập thể dục you got.
218
529000
2000
bạn tập thể dục nhiều như thế nào.
09:06
And then it could help tracktheo dõi that for you.
219
531000
2000
Và sau đó, nó có thể giúp theo dõi hộ bạn.
09:08
And the robotrobot spokenói with a syntheticsợi tổng hợp voicetiếng nói
220
533000
2000
Và robot nói chuyện với một giọng nói nhận tạo
09:10
to engagethuê you in a coachinghuấn luyện dialogueđối thoại
221
535000
2000
để bạn tham gia vào một cuộc đối thoại huấn luyện
09:12
modeledcó mô hình hóa after trainersgiảng viên
222
537000
2000
được mô phỏng theo các luấn luyện viên thật
09:14
and patientsbệnh nhân and so forthra.
223
539000
2000
và các bệnh nhân, vân vân.
09:16
And it would buildxây dựng a workingđang làm việc allianceLiên minh with you
224
541000
2000
Và nó sẽ xây dựng mối liên minh công việc với bạn
09:18
throughxuyên qua that dialogueđối thoại.
225
543000
2000
thông qua hội thoại đó.
09:20
It could help you setbộ goalsnhững mục tiêu and tracktheo dõi your progresstiến độ,
226
545000
2000
Nó có thể giúp bạn đặt mục tiêu và theo dõi sự tiến bộ của bạn,
09:22
and it would help motivateđộng viên you.
227
547000
2000
và nó sẽ khuyến khích bạn.
09:24
So an interestinghấp dẫn questioncâu hỏi is,
228
549000
2000
Và một câu hỏi thú vị là,
09:26
does the socialxã hội embodimentsự hiện thân really mattervấn đề? Does it mattervấn đề that it's a robotrobot?
229
551000
3000
liệu sự liên hệ xã hội có thực sự quan trọng? Liệu có vấn đề gì nếu đó chỉ là robot?
09:29
Is it really just the qualityphẩm chất of advicekhuyên bảo and informationthông tin that mattersvấn đề?
230
554000
3000
Hay chỉ có chất lượng lời khuyên và thông tin mới là vấn đề?
09:32
To explorekhám phá that questioncâu hỏi,
231
557000
2000
Để trả lời câu hỏi này
09:34
we did a studyhọc in the BostonBoston areakhu vực
232
559000
2000
chúng tôi đã thực hiện một nghiên cứu ở khu vực Boston
09:36
where we put one of threesố ba interventionscan thiệp in people'sngười homesnhà
233
561000
3000
nơi chúng tôi đặt ba biện pháp can thiệp trong nhà người dân
09:39
for a periodgiai đoạn of severalmột số weekstuần.
234
564000
2000
trong vài tuần.
09:41
One casetrường hợp was the robotrobot you saw there, AutomCông.
235
566000
3000
Một trường hợp là robot Autom như ở đây.
09:44
AnotherKhác was a computermáy vi tính that ranchạy the sametương tự touch-screenmàn hình cảm ứng interfacegiao diện,
236
569000
3000
Một trường hợp khác là máy tính chạy cùng một giao diện màn hình cảm ứng,
09:47
ranchạy exactlychính xác the sametương tự dialoguesđối thoại.
237
572000
2000
đưa ra cùng một nội dung hội thoại, không khác chữ nào.
09:49
The qualityphẩm chất of advicekhuyên bảo was identicalgiống nhau.
238
574000
2000
Chất lượng các lời tư vấn giống y như nhau.
09:51
And the thirdthứ ba was just a pencây bút and papergiấy logđăng nhập,
239
576000
2000
Và trường hợp thứ ba chỉ là bút và thời khóa biểu trên giấy,
09:53
because that's the standardTiêu chuẩn interventioncan thiệp you typicallythường get
240
578000
2000
bởi vì đó là sự can thiệp chuẩn mực/truyền thống mà bạn thường có
09:55
when you startkhởi đầu a diet-and-exercisechế độ ăn uống và tập thể dục programchương trình.
241
580000
3000
khi bạn bắt đầu một chương trình ăn kiêng và luyện tập.
09:58
So one of the things we really wanted to look at
242
583000
3000
Một trong những thứ mà chúng tôi muốn xem xét
10:01
was not how much weightcân nặng people lostmất đi,
243
586000
3000
không phải là người ta giảm bao nhiêu cân,
10:04
but really how long they interactedtương tác with the robotrobot.
244
589000
3000
mà là người ta giao tiếp với robot bao lâu.
10:07
Because the challengethử thách is not losingmất weightcân nặng, it's actuallythực ra keepingduy trì it off.
245
592000
3000
Bởi vì thách thức không phải là giảm cân, mà thực chất là giữ cho không bị tăng cân.
10:10
And the longerlâu hơn you could interacttương tác with one of these interventionscan thiệp,
246
595000
3000
Bạn giao tiếp càng lâu với một trong những sự can thiệp này,
10:13
well that's indicativechỉ định, potentiallycó khả năng, of longer-termdài hạn successsự thành công.
247
598000
3000
thì nó thực sự là thành công lâu dài, hiển nhiên, chắc chắn.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Điều đầu tiên tôi muốn đánh giá là bao lâu,
10:18
how long did people interacttương tác with these systemshệ thống.
249
603000
2000
người ta giao tiếp bao lâu với những hệ thống này.
10:20
It turnslượt out that people interactedtương tác with the robotrobot
250
605000
2000
Hóa ra người ta giao tiếp với robot
10:22
significantlyđáng kể more,
251
607000
2000
nhiều hơn một cách đáng kể,
10:24
even thoughTuy nhiên the qualityphẩm chất of the advicekhuyên bảo was identicalgiống nhau to the computermáy vi tính.
252
609000
3000
thậm chí cả khi chất lượng tư vấn trên máy tính hoàn toàn tương tự.
10:28
When it askedyêu cầu people to ratetỷ lệ it on termsđiều kiện of the qualityphẩm chất of the workingđang làm việc allianceLiên minh,
253
613000
3000
Khi người ta được yêu cầu đánh giá về chất lượng của liên minh công việc,
10:31
people ratedđánh giá the robotrobot highercao hơn
254
616000
2000
người ta đánh giá robot cao hơn
10:33
and they trustedđáng tin cậy the robotrobot more.
255
618000
2000
và họ tin tưởng robot nhiều hơn.
10:35
(LaughterTiếng cười)
256
620000
2000
(cười)
10:37
And when you look at emotionalđa cảm engagementhôn ước,
257
622000
2000
Khi bạn nhìn vào mối dây liên kết tình cảm,
10:39
it was completelyhoàn toàn differentkhác nhau.
258
624000
2000
nó hoàn toàn khác biệt.
10:41
People would nameTên the robotsrobot.
259
626000
2000
Người ta đặt tên cho người máy.
10:43
They would dresstrang phục the robotsrobot.
260
628000
2000
Người ta mặc quần áo cho người máy.
10:45
(LaughterTiếng cười)
261
630000
2000
(cười)
10:47
And even when we would come up to pickchọn up the robotsrobot at the endkết thúc of the studyhọc,
262
632000
3000
và thậm chí khi chúng tôi đến lấy robot khi kết thúc nghiên cứu,
10:50
they would come out to the carxe hơi and say good-byetạm biệt to the robotsrobot.
263
635000
2000
họ đi ra xe và chào tạm biệt robot.
10:52
They didn't do this with a computermáy vi tính.
264
637000
2000
Họ không làm thế với cái máy tính.
10:54
The last thing I want to talk about todayhôm nay
265
639000
2000
Điều cuối tôi muốn nói ngày hôm nay
10:56
is the futureTương lai of children'strẻ em mediaphương tiện truyền thông.
266
641000
2000
là tương lai của phương tiện truyền thông của trẻ em.
10:58
We know that kidstrẻ em spendtiêu a lot of time behindphía sau screensmàn hình todayhôm nay,
267
643000
3000
Chúng ta biết rằng trẻ em ngày nay dành rất nhiều thời gian trước màn hình máy tính,
11:01
whetherliệu it's televisiontivi or computermáy vi tính gamesTrò chơi or whatnotwhatnot.
268
646000
3000
đó có thể là trò chơi TV hay trò chơi máy tính hoặc là không gì cả.
11:04
My sonscon trai, they love the screenmàn. They love the screenmàn.
269
649000
3000
Các con trai tôi, chúng yêu màn hình. Chúng yêu màn hình.
11:07
But I want them to playchơi; as a mommẹ, I want them to playchơi,
270
652000
3000
Nhưng tôi muốn chúng chơi, là một người mẹ, tôi muốn chúng chơi
11:10
like, real-worldthế giới thực playchơi.
271
655000
2000
giống như thế giới trò chơi thực.
11:12
And so I have a newMới projectdự án in my groupnhóm I wanted to presenthiện tại to you todayhôm nay
272
657000
3000
Và tôi có một dự án mới trong nhóm mà tôi muốn trình bày tới các bạn hôm nay
11:15
calledgọi là PlaytimeThời gian chơi ComputingMáy tính
273
660000
2000
gọi là Playtime Computing (Giờ ra chơi được lập trình)
11:17
that's really tryingcố gắng to think about how we can take
274
662000
2000
hãy thử tưởng tượng
11:19
what's so engaginghấp dẫn about digitalkỹ thuật số mediaphương tiện truyền thông
275
664000
2000
những đặc điểm hấp dẫn của phương tiện truyền thông kỹ thuật số
11:21
and literallynghĩa đen bringmang đến it off the screenmàn
276
666000
2000
và thực sự đem chúng ra khỏi màn hình,
11:23
into the realthực worldthế giới of the childđứa trẻ,
277
668000
2000
đem chúng vào thế giới thực của trẻ,
11:25
where it can take on manynhiều of the propertiestính chất of real-worldthế giới thực playchơi.
278
670000
3000
nơi mà chúng có thể đảm nhận nhiều vai trò của trò chơi trong thế giới thực.
11:29
So here'sđây là the first explorationthăm dò of this ideaý kiến,
279
674000
4000
Đây là khám phá đầu tiên của sáng kiến này,
11:33
where charactersnhân vật can be physicalvật lý or virtualảo,
280
678000
3000
nơi mà nhân vật có thể là thực hoặc ảo,
11:36
and where the digitalkỹ thuật số contentNội dung
281
681000
2000
và nơi nội dung kỹ thuật số
11:38
can literallynghĩa đen come off the screenmàn
282
683000
2000
có thể thực sự rời khỏi màn hình
11:40
into the worldthế giới and back.
283
685000
2000
đi vào thế giới thực rồi quay trở lại.
11:42
I like to think of this
284
687000
2000
Tôi thích nghĩ về điều này
11:44
as the AtariAtari PongPong
285
689000
2000
như là trò Atari Pong
11:46
of this blended-realitythực tế pha trộn playchơi.
286
691000
2000
giữa hai thế giới thực và ảo.
11:48
But we can pushđẩy this ideaý kiến furtherthêm nữa.
287
693000
2000
Nhưng chúng ta có thể thúc đẩy sáng kiến này xa hơn.
11:50
What if --
288
695000
2000
Liệu điều gì xảy ra --
11:52
(GameTrò chơi) NathanNathan: Here it comesđến. YayYay!
289
697000
3000
(Trò chơi) Nathan: Đến rồi đây. Yay!
11:55
CBCB: -- the charactertính cách itselfchinh no could come into your worldthế giới?
290
700000
3000
CB: -- nếu nhân vật tự mình đi vào thế giới của bạn?
11:58
It turnslượt out that kidstrẻ em love it
291
703000
2000
Lũ trẻ thực sự thích thú
12:00
when the charactertính cách becomestrở thành realthực and entersđi vào into theirhọ worldthế giới.
292
705000
3000
khi nhân vật trở thành thực và đi vào thế giới của chúng.
12:03
And when it's in theirhọ worldthế giới,
293
708000
2000
Và khi ở trong thế giới của chúng,
12:05
they can relateliên hệ to it and playchơi with it in a way
294
710000
2000
chúng có thể kết nối và chơi với nó theo cách
12:07
that's fundamentallyvề cơ bản differentkhác nhau from how they playchơi with it on the screenmàn.
295
712000
2000
hoàn toàn khác biệt với cách mà chúng chơi trên màn hình.
12:09
AnotherKhác importantquan trọng ideaý kiến is this notionkhái niệm
296
714000
2000
Một ý tưởng quan trọng khác là khái niệm này
12:11
of persistencesự kiên trì of charactertính cách acrossbăng qua realitiesthực tế.
297
716000
3000
về sự nhất quán của nhân vật khi chuyển hóa giữa các hiện thực.
12:14
So changesthay đổi that childrenbọn trẻ make in the realthực worldthế giới
298
719000
2000
Những thay đổi mà trẻ em làm trong thế giới thực
12:16
need to translatedịch to the virtualảo worldthế giới.
299
721000
2000
cần được chuyển vào thế giới ảo.
12:18
So here, NathanNathan has changedđã thay đổi the letterlá thư A to the numbercon số 2.
300
723000
3000
Vì thế, Nathan đã thay đổi chữ A thành số 2.
12:21
You can imaginetưởng tượng maybe these symbolský hiệu
301
726000
2000
Bạn có thể tưởng tượng là các biểu tượng này
12:23
give the charactersnhân vật specialđặc biệt powersquyền lực when it goesđi into the virtualảo worldthế giới.
302
728000
3000
cho nhân vật những năng lượng đặc biệt khi chúng đi vào thế giới ảo.
12:26
So they are now sendinggửi the charactertính cách back into that worldthế giới.
303
731000
3000
Vì thế chúng đưa nhân vật trở về thế giới ảo.
12:29
And now it's got numbercon số powerquyền lực.
304
734000
3000
Và bây giờ nó đã có "năng lượng số", thay vì "năng lượng chữ".
12:32
And then finallycuối cùng, what I've been tryingcố gắng to do here
305
737000
2000
Cuối cùng, điều tôi cố gắng làm ở đây
12:34
is createtạo nên a really immersivenhập vai experiencekinh nghiệm for kidstrẻ em,
306
739000
3000
là tạo ra một trải nghiệm nhập vai thực sự cho trẻ em,
12:37
where they really feel like they are partphần of that storycâu chuyện,
307
742000
3000
nơi mà chúng cảm thấy như được trở thành một phần của câu chuyện đó,
12:40
a partphần of that experiencekinh nghiệm.
308
745000
2000
một phần của trải nghiệm đó.
12:42
And I really want to sparktia lửa theirhọ imaginationstrí tưởng tượng
309
747000
2000
Và tôi muốn thắp sáng trí tưởng tượng của chúng
12:44
the way minetôi was sparkedbốc cháy as a little girlcon gái watchingxem "StarNgôi sao WarsCuộc chiến tranh."
310
749000
3000
như trí tưởng tượng của tôi lúc bé đã từng được khai sáng khi xem "Chiến tranh giữa các vì sao"
12:47
But I want to do more than that.
311
752000
2000
Nhưng tôi muốn làm nhiều hơn thế.
12:49
I actuallythực ra want them to createtạo nên those experienceskinh nghiệm.
312
754000
3000
Tôi thực sự muốn chúng tạo ra những trải nghiệm này.
12:52
I want them to be ablecó thể to literallynghĩa đen buildxây dựng theirhọ imaginationtrí tưởng tượng
313
757000
2000
Tôi muốn chúng phát triển trí tưởng tượng của chúng một cách đúng nghĩa
12:54
into these experienceskinh nghiệm and make them theirhọ ownsở hữu.
314
759000
2000
theo cách trải nghiệm riêng của chúng.
12:56
So we'vechúng tôi đã been exploringkhám phá a lot of ideasý tưởng
315
761000
2000
Vì thế chúng tôi đang nghiên cứu phát triển nhiều ý tưởng
12:58
in telepresencetelepresence and mixedpha trộn realitythực tế
316
763000
2000
về "hội họp từ xa" (telepresence) và "hiện thực hỗn hợp" (mixed reality)
13:00
to literallynghĩa đen allowcho phép kidstrẻ em to projectdự án theirhọ ideasý tưởng into this spacekhông gian
317
765000
3000
mà thực sự cho phép lũ trẻ đưa ra dự án ý tưởng vào không gian này
13:03
where other kidstrẻ em can interacttương tác with them
318
768000
2000
nơi mà những đứa trẻ khác có thể giao tiếp với chúng
13:05
and buildxây dựng upontrên them.
319
770000
2000
xây dựng dựa trên chúng.
13:07
I really want to come up with newMới wayscách of children'strẻ em mediaphương tiện truyền thông
320
772000
3000
Tôi thực sự muốn đến với những cách thức mới của phương tiện truyền thông của trẻ em
13:10
that fosternuôi dưỡng creativitysáng tạo and learninghọc tập and innovationđổi mới.
321
775000
3000
mà nuôi dưỡng tính sáng tạo, sự ham hỏi và sự đổi mới.
13:13
I think that's very, very importantquan trọng.
322
778000
3000
Điều này rất quan trọng.
13:16
So this is a newMới projectdự án.
323
781000
2000
Đây là dự án mới.
13:18
We'veChúng tôi đã invitedđược mời a lot of kidstrẻ em into this spacekhông gian,
324
783000
2000
Chúng tôi mời nhiều trẻ em tham gia vào không gian này,
13:20
and they think it's prettyđẹp coolmát mẻ.
325
785000
3000
và bọn chúng cho rằng khá thú vị.
13:23
But I can tell you, the thing that they love the mostphần lớn
326
788000
2000
Nhưng tôi cho rằng, điều mà chúng thích nhất
13:25
is the robotrobot.
327
790000
2000
là robot.
13:27
What they carequan tâm about is the robotrobot.
328
792000
3000
Điều chúng quan tâm đến là robot.
13:30
RobotsRobot touchchạm something deeplysâu sắc humanNhân loại withinbên trong us.
329
795000
3000
Robot đã chạm vào cái gì đó mang tính nhân bản sâu sắc trong mỗi chúng ta.
13:33
And so whetherliệu they're helpinggiúp us
330
798000
2000
Và nếu chúng giúp đỡ chúng ta
13:35
to becometrở nên creativesáng tạo and innovativesáng tạo,
331
800000
2000
trở nên sáng tạo và đổi mới,
13:37
or whetherliệu they're helpinggiúp us
332
802000
2000
hay chúng đang giúp đỡ ta
13:39
to feel more deeplysâu sắc connectedkết nối despitemặc dù distancekhoảng cách,
333
804000
2000
cảm nhận sâu sắc hơn mối liên hệ bất kể khoảng cách,
13:41
or whetherliệu they are our trustedđáng tin cậy sidekickSidekick
334
806000
2000
hoặc chúng trở thành bạn tri kỷ đáng tin cậy của chúng ta
13:43
who'sai helpinggiúp us attainđạt được our personalcá nhân goalsnhững mục tiêu
335
808000
2000
người giúp đỡ chúng ta đạt được mục tiêu cá nhân
13:45
in becomingtrở thành our highestcao nhất and besttốt selvesbản thân,
336
810000
2000
để trở thành những "cái tôi" vĩ đại và tốt nhất,
13:47
for me, robotsrobot are all about people.
337
812000
3000
đối với tôi, robot là để phục vụ cho con người.
13:50
Thank you.
338
815000
2000
Cám ơn
13:52
(ApplauseVỗ tay)
339
817000
5000
(Vỗ tay)
Translated by Jade Le
Reviewed by Huyen Bui

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com