ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: A ascensão dos robôs pessoais

Filmed:
1,201,057 views

Quando era estudante universitária, Cynthia Breazeal se perguntava porque estávamos usando robôs em Marte, mas não em nossas salas de estar. A chave, ela descobriu: treinar robôs a interagir com pessoas. Agora ela sonha acordada e constrói robôs que ensinam, aprendem – e brincam. Veja uma demonstração incrível de um novo jogo interativo para crianças.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever since I was a little girl
0
0
3000
Desde que eu era uma menininha
00:18
seeing "Star Wars" for the first time,
1
3000
2000
assistindo "Guerra nas Estrelas" pela primeira vez,
00:20
I've been fascinated by this idea
2
5000
2000
eu fiquei fascinada com a ideia
00:22
of personal robots.
3
7000
2000
de robôs pessoais.
00:24
And as a little girl,
4
9000
2000
E quando era uma menininha,
00:26
I loved the idea of a robot that interacted with us
5
11000
2000
eu adorava a ideia de um robô que interagia conosco
00:28
much more like a helpful, trusted sidekick --
6
13000
3000
mais como um parceiro útil e confiável –
00:31
something that would delight us, enrich our lives
7
16000
2000
algo que iria nos alegrar, enriquecer nossas vidas
00:33
and help us save a galaxy or two.
8
18000
3000
e nos ajudar a salvar uma galáxia ou duas.
00:37
I knew robots like that didn't really exist,
9
22000
3000
Então eu sabia que robôs não existiam de verdade,
00:40
but I knew I wanted to build them.
10
25000
2000
mas sabia que eu queria contrui-los.
00:42
So 20 years pass --
11
27000
2000
Então 20 anos se passaram –
00:44
I am now a graduate student at MIT
12
29000
2000
eu sou agora uma pós graduanda no MIT
00:46
studying artificial intelligence,
13
31000
2000
estudando inteligência artificial,
00:48
the year is 1997,
14
33000
2000
o ano é 1997,
00:50
and NASA has just landed the first robot on Mars.
15
35000
3000
e a NASA acabou de pousar o primeiro robô em Marte.
00:53
But robots are still not in our home, ironically.
16
38000
3000
Mas os robôs ainda não estão em nossas casas, ironicamente.
00:56
And I remember thinking about
17
41000
2000
E eu lembro de pensar sobre
00:58
all the reasons why that was the case.
18
43000
2000
todas as razões porque isso acontece.
01:00
But one really struck me.
19
45000
2000
Mas uma me chamou a atenção.
01:02
Robotics had really been about interacting with things,
20
47000
3000
A robótica era realmente sobre interagir com coisas,
01:05
not with people --
21
50000
2000
não com pessoas –
01:07
certainly not in a social way that would be natural for us
22
52000
2000
certamente não de uma forma social que seria natural para nós
01:09
and would really help people accept robots
23
54000
2000
e realmente ajudaria as pessoas a aceitarem robôs
01:11
into our daily lives.
24
56000
2000
em nosso cotidiano.
01:13
For me, that was the white space; that's what robots could not do yet.
25
58000
3000
Para mim, isso era o espaço branco, é o que os robôs não podiam fazer ainda.
01:16
And so that year, I started to build this robot, Kismet,
26
61000
3000
Então, naquele ano, eu comecei a construir esse robô, Kismet,
01:19
the world's first social robot.
27
64000
3000
o primeiro robô social.
01:22
Three years later --
28
67000
2000
Então três anos depois –
01:24
a lot of programming,
29
69000
2000
um monte de programação,
01:26
working with other graduate students in the lab --
30
71000
2000
trabalhando com outros pós graduandos no laboratório –
01:28
Kismet was ready to start interacting with people.
31
73000
2000
Kismet estava pronto para começar a interagir com as pessoas.
01:30
(Video) Scientist: I want to show you something.
32
75000
2000
(Video) Cientista: Eu quero mostrar algo a você.
01:32
Kismet: (Nonsense)
33
77000
2000
Kismet: (Sem sentido).
01:34
Scientist: This is a watch that my girlfriend gave me.
34
79000
3000
Cientista: Isso é um relógio que minha namorada me deu.
01:37
Kismet: (Nonsense)
35
82000
2000
Kismet: (Sem sentido).
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
84000
2000
Cientista: É, olha, ele tem uma luzinha azul também.
01:41
I almost lost it this week.
37
86000
3000
Eu quase o perdi essa semana.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
89000
3000
Cynthia Breazeal: Então o Kismet interagia com as pessoas
01:47
like kind of a non-verbal child or pre-verbal child,
39
92000
3000
como uma criança não-verbal ou pré-verbal,
01:50
which I assume was fitting because it was really the first of its kind.
40
95000
3000
que eu assumo que era conveniente pois era o primeiro do seu tipo.
01:53
It didn't speak language, but it didn't matter.
41
98000
2000
Ele não expressava linguagem, mas não importava.
01:55
This little robot was somehow able
42
100000
2000
Esse robozinho era de alguma forma capaz
01:57
to tap into something deeply social within us --
43
102000
3000
de acessar algo profundamente social em nós.
02:00
and with that, the promise of an entirely new way
44
105000
2000
E com isso, a promessa de uma maneira totalmente nova
02:02
we could interact with robots.
45
107000
2000
de podermos interagir com robôs.
02:04
So over the past several years
46
109000
2000
Então ao longo dos últimos anos
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
111000
2000
eu estive continuando a explorar essa dimensão interpessoal dos robôs,
02:08
now at the media lab
48
113000
2000
agora no laboratório de mídia
02:10
with my own team of incredibly talented students.
49
115000
2000
com minha própria equipe de estudantes super talentosos.
02:12
And one of my favorite robots is Leonardo.
50
117000
3000
E um dos meus robôs favoritos é o Leonardo.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
120000
3000
Nós desenvolvemos o Leonardo em colaboração com o Stan Winston Studio.
02:18
And so I want to show you a special moment for me of Leo.
52
123000
3000
E quero mostrar a vocês um momento especial do Leo para mim.
02:21
This is Matt Berlin interacting with Leo,
53
126000
2000
Esse é Matt Berlin interagindo com o Leo,
02:23
introducing Leo to a new object.
54
128000
2000
apresentando um novo objeto ao Leo.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
130000
3000
E por ser novo, Leo não sabe o que fazer com ele.
02:28
But sort of like us, he can actually learn about it
56
133000
2000
Mas um pouco como nós, ele pode meio que aprender sobre ele
02:30
from watching Matt's reaction.
57
135000
3000
ao ver a reação do Matt.
02:33
(Video) Matt Berlin: Hello, Leo.
58
138000
2000
(Video) Matt Berlin: Oi, Leo.
02:38
Leo, this is Cookie Monster.
59
143000
3000
Leo, esse é o Monstro do Biscoito.
02:44
Can you find Cookie Monster?
60
149000
3000
Você pode achar o Monstro do Biscoito?
02:52
Leo, Cookie Monster is very bad.
61
157000
3000
Leo, o Monstro do Biscoito é muito mau.
02:56
He's very bad, Leo.
62
161000
2000
Ele é muito mau, Leo.
03:00
Cookie Monster is very, very bad.
63
165000
3000
O Monstro do Biscoito é muito, muito mau.
03:07
He's a scary monster.
64
172000
2000
Ele é um monstro assustador.
03:09
He wants to get your cookies.
65
174000
2000
Ele quer pegar seus biscoitos.
03:12
(Laughter)
66
177000
2000
(Risos)
03:14
CB: All right, so Leo and Cookie
67
179000
3000
CB: Muito bem, então o Leo e o Monstro
03:17
might have gotten off to a little bit of a rough start,
68
182000
2000
podem ter tido um começo meio difícil,
03:19
but they get along great now.
69
184000
3000
mas eles se dão muito bem agora.
03:22
So what I've learned
70
187000
2000
Então, o que aprendi
03:24
through building these systems
71
189000
2000
por meio da construção desses sistemas
03:26
is that robots are actually
72
191000
2000
é que os robôs são realmente
03:28
a really intriguing social technology,
73
193000
2000
uma tecnologia social realmente intrigante.
03:30
where it's actually their ability
74
195000
2000
Onde realmente está sua habilidade
03:32
to push our social buttons
75
197000
2000
de apertar nossos botões sociais
03:34
and to interact with us like a partner
76
199000
2000
e interagir conosco como um parceiro
03:36
that is a core part of their functionality.
77
201000
3000
que é uma peça central de sua funcionalidade.
03:39
And with that shift in thinking, we can now start to imagine
78
204000
2000
E com essa mudança de pensamento, nós podemos agora começar a imaginar
03:41
new questions, new possibilities for robots
79
206000
3000
novas questões, novas possibilidades de robôs
03:44
that we might not have thought about otherwise.
80
209000
3000
que podemos não ter pensado de outra forma.
03:47
But what do I mean when I say "push our social buttons?"
81
212000
2000
Mas o que quero dizer quando digo "apertar nossos botões sociais"?
03:49
Well, one of the things that we've learned
82
214000
2000
Bem, uma das coisas que aprendemos
03:51
is that, if we design these robots to communicate with us
83
216000
2000
é que, se nós desenhamos esses robôs para se comunicar conosco
03:53
using the same body language,
84
218000
2000
usando a mesma linguagem corporal,
03:55
the same sort of non-verbal cues that people use --
85
220000
2000
meio que as mesmas dicas não-verbais que as pessoas usam –
03:57
like Nexi, our humanoid robot, is doing here --
86
222000
3000
como o Nexi, nosso robô humanóide, está fazendo aqui –
04:00
what we find is that people respond to robots
87
225000
2000
o que nós descobrimos é que as pessoas respondem aos robôs
04:02
a lot like they respond to people.
88
227000
2000
de um jeito muito similar como responderiam a pessoas.
04:04
People use these cues to determine things like how persuasive someone is,
89
229000
3000
As pessoas usam essas dicas para determinar o quanto alguém é persuasivo,
04:07
how likable, how engaging,
90
232000
2000
o quanto é agradável, o quanto é simpático,
04:09
how trustworthy.
91
234000
2000
o quanto é confiável.
04:11
It turns out it's the same for robots.
92
236000
2000
Acontece que é o mesmo com os robôs.
04:13
It's turning out now
93
238000
2000
Agora estamos descobrindo
04:15
that robots are actually becoming a really interesting new scientific tool
94
240000
3000
que robôs estão se tornando uma nova ferramenta científica interessante
04:18
to understand human behavior.
95
243000
2000
para compreender o comportamento humano.
04:20
To answer questions like, how is it that, from a brief encounter,
96
245000
3000
Para responder questões do tipo, como é isso que de um encontro breve,
04:23
we're able to make an estimate of how trustworthy another person is?
97
248000
3000
nós podemos fazer uma estimativa de quanto a outra pessoa é confiável?
04:26
Mimicry's believed to play a role, but how?
98
251000
3000
Acredita-se que a imitação exerce um papel, mas como?
04:29
Is it the mimicking of particular gestures that matters?
99
254000
3000
É a imitação de gestos específicos que importa?
04:32
It turns out it's really hard
100
257000
2000
Acontece que é muito difícil
04:34
to learn this or understand this from watching people
101
259000
2000
aprender ou entender isso observando pessoas
04:36
because when we interact we do all of these cues automatically.
102
261000
3000
pois quando interagimos nós fazemos todas essas dicas automaticamente.
04:39
We can't carefully control them because they're subconscious for us.
103
264000
2000
Nós não podemos controlá-las porque elas são subconscientes para nós.
04:41
But with the robot, you can.
104
266000
2000
Mas com o robô você pode.
04:43
And so in this video here --
105
268000
2000
E nesse vídeo aqui –
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
270000
3000
esse é um vídeo feito no laboratório de David DeSteno na Northeastern University.
04:48
He's a psychologist we've been collaborating with.
107
273000
2000
Ele é um psicólogo com quem estamos colaborando.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
275000
3000
Há realmente um cientista controlando cuidadosamente as dicas do Nexi
04:53
to be able to study this question.
109
278000
3000
para poder estudar essa questão.
04:56
And the bottom line is -- the reason why this works is
110
281000
2000
E a conclusão – a razão porque isso funciona –
04:58
because it turns out people just behave like people
111
283000
2000
é porque as pessoas se comportam como pessoas
05:00
even when interacting with a robot.
112
285000
3000
mesmo quando interagem com um robô.
05:03
So given that key insight,
113
288000
2000
Então dado esse pensamento chave,
05:05
we can now start to imagine
114
290000
2000
nós podemos agora começar a imaginar
05:07
new kinds of applications for robots.
115
292000
3000
novos tipos de aplicações para robôs.
05:10
For instance, if robots do respond to our non-verbal cues,
116
295000
3000
Por exemplo, se os robôs respondem para nossas dicas não-verbais,
05:13
maybe they would be a cool, new communication technology.
117
298000
4000
talvez eles possam ser uma nova tecnologia de comunicação interessante.
05:17
So imagine this:
118
302000
2000
Então imaginem isso:
05:19
What about a robot accessory for your cellphone?
119
304000
2000
Que tal um robô acessório para seu celular?
05:21
You call your friend, she puts her handset in a robot,
120
306000
2000
Você chama sua amiga, ela coloca seu fone num robô
05:23
and, bam! You're a MeBot --
121
308000
2000
e, pronto! Você é um MeBot –
05:25
you can make eye contact, you can talk with your friends,
122
310000
3000
você pode fazer contato visual, você pode conversar com seus amigos,
05:28
you can move around, you can gesture --
123
313000
2000
você pode se mover, você pode gesticular –
05:30
maybe the next best thing to really being there, or is it?
124
315000
3000
talvez melhor do que isso seria realmente estar ali, não é?
05:33
To explore this question,
125
318000
2000
Para explorar essa questão
05:35
my student, Siggy Adalgeirsson, did a study
126
320000
3000
meu aluno, Siggy Adalgeirsson, fez um estudo
05:38
where we brought human participants, people, into our lab
127
323000
3000
onde trouxemos participantes humanos, pessoas, para nosso laboratório
05:41
to do a collaborative task
128
326000
2000
para fazer uma tarefa colaborativa
05:43
with a remote collaborator.
129
328000
2000
com um colaborador remoto.
05:45
The task involved things
130
330000
2000
A tarefa envolvia coisas
05:47
like looking at a set of objects on the table,
131
332000
2000
como olhar para uma série de objetos sobre a mesa,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
334000
3000
discuti-los em termos de sua importância e relevância para executar uma certa tarefa –
05:52
this ended up being a survival task --
133
337000
2000
isso acabou sendo uma tarefa de sobrevivência –
05:54
and then rating them in terms
134
339000
2000
e depois classificá-los em termos
05:56
of how valuable and important they thought they were.
135
341000
2000
de quanto eles pensavam que eram valiosos e importantes.
05:58
The remote collaborator was an experimenter from our group
136
343000
3000
O colaborador remoto era um experimentador de nosso grupo
06:01
who used one of three different technologies
137
346000
2000
que usou uma das três tecnologias diferentes
06:03
to interact with the participants.
138
348000
2000
para interagir com os participantes.
06:05
The first was just the screen.
139
350000
2000
A primeira era apenas a tela.
06:07
This is just like video conferencing today.
140
352000
3000
Então é como a videoconferência atual.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
355000
3000
A próxima era para adicionar mobilidade, então temos a tela numa base móvel.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
358000
3000
Isso é como, se você está habituado com esses robôs telepresença de hoje –
06:16
this is mirroring that situation.
143
361000
3000
isso é o espelhamento dessa situação.
06:19
And then the fully expressive MeBot.
144
364000
2000
E depois o MeBot totalmente expressivo.
06:21
So after the interaction,
145
366000
2000
Então depois da interação,
06:23
we asked people to rate their quality of interaction
146
368000
3000
nós pedimos às pessoas para qualificar sua interação
06:26
with the technology, with a remote collaborator
147
371000
2000
com a tecnologia, com um colaborador remoto,
06:28
through this technology, in a number of different ways.
148
373000
3000
através dessa tecnologia em diferentes formas.
06:31
We looked at psychological involvement --
149
376000
2000
Nós observamos o envolvimento psicológico –
06:33
how much empathy did you feel for the other person?
150
378000
2000
o quanto de empatia você sentiu para com a outra pessoa?
06:35
We looked at overall engagement.
151
380000
2000
Nós observamos o envolvimento geral.
06:37
We looked at their desire to cooperate.
152
382000
2000
Nós observamos seu desejo de cooperar.
06:39
And this is what we see when they use just the screen.
153
384000
3000
E isso é que nós vemos quando eles usam apenas a tela.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
387000
3000
Acontece que quando você junta mobilidade – a habilidade de girar na mesa –
06:45
you get a little more of a boost.
155
390000
2000
você tem um pequeno aumento.
06:47
And you get even more of a boost when you add the full expression.
156
392000
3000
E você consegue um aumento ainda maior quando junta a expressão completa.
06:50
So it seems like this physical, social embodiment
157
395000
2000
Então parece que essa incorporação física social
06:52
actually really makes a difference.
158
397000
2000
realmente faz a diferença.
06:54
Now let's try to put this into a little bit of context.
159
399000
3000
Agora vamos tentar colocar isso em nosso contexto.
06:57
Today we know that families are living further and further apart,
160
402000
3000
Hoje sabemos que as famílias estão vivendo cada vez mais distantes,
07:00
and that definitely takes a toll on family relationships
161
405000
2000
e que isso cria obstáculos para as relações familiares
07:02
and family bonds over distance.
162
407000
2000
e laços familiares à distância.
07:04
For me, I have three young boys,
163
409000
2000
Para mim, eu tenho três filhos,
07:06
and I want them to have a really good relationship
164
411000
2000
e eu quero que eles tenham uma boa relação
07:08
with their grandparents.
165
413000
2000
com seus avôs.
07:10
But my parents live thousands of miles away,
166
415000
2000
Mas meus pais vivem a milhares de quilômetros,
07:12
so they just don't get to see each other that often.
167
417000
2000
então eles não se encontram com frequência.
07:14
We try Skype, we try phone calls,
168
419000
2000
Nós tentamos o Skype, tentamos chamadas de telefone,
07:16
but my boys are little -- they don't really want to talk;
169
421000
2000
mas meus filhos – eles não querem conversar,
07:18
they want to play.
170
423000
2000
eles querem brincar.
07:20
So I love the idea of thinking about robots
171
425000
2000
Eles adoram a ideia de pensar sobre robôs
07:22
as a new kind of distance-play technology.
172
427000
3000
como um novo tipo de tecnologia de brincar à distância.
07:25
I imagine a time not too far from now --
173
430000
3000
Assim imagino uma época não muito longe da atual –
07:28
my mom can go to her computer,
174
433000
2000
minha mãe pode ir a seu computador,
07:30
open up a browser and jack into a little robot.
175
435000
2000
abrir um navegador e se instalar num pequeno robô.
07:32
And as grandma-bot,
176
437000
3000
Como uma vovó-bô,
07:35
she can now play, really play,
177
440000
2000
ela pode agora brincar, realmente brincar,
07:37
with my sons, with her grandsons,
178
442000
2000
com meus filhos, com seus netos,
07:39
in the real world with his real toys.
179
444000
3000
no mundo real com seus brinquedos reais.
07:42
I could imagine grandmothers being able to do social-plays
180
447000
2000
Eu posso imaginar vovós sendo capazes de brincar em grupo
07:44
with their granddaughters, with their friends,
181
449000
2000
com sua netas, com seus amigos,
07:46
and to be able to share all kinds of other activities around the house,
182
451000
2000
e capazes de compartilhar todos os tipos de atividades dentro de casa,
07:48
like sharing a bedtime story.
183
453000
2000
como contar uma estória para dormir.
07:50
And through this technology,
184
455000
2000
E através dessa tecnologia,
07:52
being able to be an active participant
185
457000
2000
ser capaz de ser um participante ativo
07:54
in their grandchildren's lives
186
459000
2000
nas vidas de seus netos
07:56
in a way that's not possible today.
187
461000
2000
de um jeito que não é possível hoje.
07:58
Let's think about some other domains,
188
463000
2000
Vamos pensar sobre outros domínios,
08:00
like maybe health.
189
465000
2000
como talvez a saúde.
08:02
So in the United States today,
190
467000
2000
Nos Estados Unidos de hoje,
08:04
over 65 percent of people are either overweight or obese,
191
469000
3000
mais de 65 por cento das pessoas estão ou com sobrepeso ou obesas,
08:07
and now it's a big problem with our children as well.
192
472000
2000
e agora isso é um grande problema de nossas crianças também.
08:09
And we know that as you get older in life,
193
474000
2000
E sabemos que quando você cresce,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
476000
3000
se você é obeso quando é jovem, isso pode levar a doenças crônicas
08:14
that not only reduce your quality of life,
195
479000
2000
que não só reduzem sua qualidade de vida,
08:16
but are a tremendous economic burden on our health care system.
196
481000
3000
mas são um obstáculo econômico para nosso sistema de saúde.
08:19
But if robots can be engaging,
197
484000
2000
Mas, se os robôs podem ser envolventes,
08:21
if we like to cooperate with robots,
198
486000
2000
se nós gostamos de cooperar com robôs,
08:23
if robots are persuasive,
199
488000
2000
se os robôs são persuasivos,
08:25
maybe a robot can help you
200
490000
2000
talvez um robô possa ajudar você
08:27
maintain a diet and exercise program,
201
492000
2000
a manter um programa de dieta e exercício,
08:29
maybe they can help you manage your weight.
202
494000
3000
talvez eles possam ajudar você a administrar seu peso.
08:32
Sort of like a digital Jiminy --
203
497000
2000
Então meio como um Grilo Falante digital –
08:34
as in the well-known fairy tale --
204
499000
2000
como o famoso conto-de-fada –
08:36
a kind of friendly, supportive presence that's always there
205
501000
2000
um tipo de presença amigável e solidária que está sempre lá
08:38
to be able to help you make the right decision
206
503000
2000
para poder ajudá-lo a fazer a decisão certa
08:40
in the right way at the right time
207
505000
2000
da forma certa, na hora certa,
08:42
to help you form healthy habits.
208
507000
2000
para ajudar você a formar hábitos saudáveis.
08:44
So we actually explored this idea in our lab.
209
509000
2000
Então nós exploramos essa ideia em nosso laboratório.
08:46
This is a robot, Autom.
210
511000
2000
Esse é um robô, Autom.
08:48
Cory Kidd developed this robot for his doctoral work.
211
513000
3000
Cory Kidd desenvolveu esse robô para seu trabalho de doutorado.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
516000
3000
E ele foi desenhado para ser um robô instrutor de dieta e exercício.
08:54
It had a couple of simple non-verbal skills it could do.
213
519000
2000
Ele tinha algumas habilidades não-verbais simples.
08:56
It could make eye contact with you.
214
521000
2000
Ele podia fazer contato visual com você.
08:58
It could share information looking down at a screen.
215
523000
2000
Ele podia compartilhar informações ao olhar uma tela.
09:00
You'd use a screen interface to enter information,
216
525000
2000
Você usa uma interface na tela para colocar informações,
09:02
like how many calories you ate that day,
217
527000
2000
como quantas calorias você comeu no dia,
09:04
how much exercise you got.
218
529000
2000
quantos exercícios fez.
09:06
And then it could help track that for you.
219
531000
2000
E depois ele podia ajudar a acompanhar isso para você.
09:08
And the robot spoke with a synthetic voice
220
533000
2000
E o robô falava com uma voz sintética
09:10
to engage you in a coaching dialogue
221
535000
2000
para envolver você num diálogo de orientação
09:12
modeled after trainers
222
537000
2000
modelado por treinadores
09:14
and patients and so forth.
223
539000
2000
e pacientes e daí por diante.
09:16
And it would build a working alliance with you
224
541000
2000
E ele podia construir uma aliança construtiva com você
09:18
through that dialogue.
225
543000
2000
através desse diálogo.
09:20
It could help you set goals and track your progress,
226
545000
2000
Ele podia ajudá-lo a atingir objetivos e acompanhar seu progresso,
09:22
and it would help motivate you.
227
547000
2000
e isso ajudaria a motivá-lo.
09:24
So an interesting question is,
228
549000
2000
Então uma questão interessante é:
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
551000
3000
A incorporação social realmente importa? Importa que seja um robô?
09:29
Is it really just the quality of advice and information that matters?
230
554000
3000
Importa apenas a qualidade de orientação e informação?
09:32
To explore that question,
231
557000
2000
Para resolver essa questão,
09:34
we did a study in the Boston area
232
559000
2000
fizemos um estudo na área de Boston
09:36
where we put one of three interventions in people's homes
233
561000
3000
onde colocamos três intervenções nos lares das pessoas
09:39
for a period of several weeks.
234
564000
2000
por um período de várias semanas.
09:41
One case was the robot you saw there, Autom.
235
566000
3000
Um caso foi o robô que vocês viram lá, Autom.
09:44
Another was a computer that ran the same touch-screen interface,
236
569000
3000
Outro foi um computador que executava a mesma interface de toque na tela,
09:47
ran exactly the same dialogues.
237
572000
2000
executava os mesmos diálogos.
09:49
The quality of advice was identical.
238
574000
2000
A qualidade de orientação foi idêntica.
09:51
And the third was just a pen and paper log,
239
576000
2000
E o terceiro foi apenas uma caneta e um diário de papel,
09:53
because that's the standard intervention you typically get
240
578000
2000
porque essa é a intervenção padrão que você tem
09:55
when you start a diet-and-exercise program.
241
580000
3000
quando começa um programa de dieta e exercício.
09:58
So one of the things we really wanted to look at
242
583000
3000
Uma das coisas que realmente queríamos observar
10:01
was not how much weight people lost,
243
586000
3000
não era quanto peso as pessoas perdiam,
10:04
but really how long they interacted with the robot.
244
589000
3000
mas quanto tempo elas interagiam com o robô.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
592000
3000
Porque o desafio não é perder peso, é continuar a fazer isso.
10:10
And the longer you could interact with one of these interventions,
246
595000
3000
E quanto mais você podia interagir com uma dessas intervenções,
10:13
well that's indicative, potentially, of longer-term success.
247
598000
3000
isso é um indicativo, potencialmente, de sucesso a longo prazo.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Então a primeira coisa que quis observar é
10:18
how long did people interact with these systems.
249
603000
2000
quanto tempo as pessoas interagiam com esses sistemas.
10:20
It turns out that people interacted with the robot
250
605000
2000
Acontece que as pessoas interagiam significativamente
10:22
significantly more,
251
607000
2000
mais com o robô,
10:24
even though the quality of the advice was identical to the computer.
252
609000
3000
ainda que a qualidade de orientação fosse idêntica a do computador.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
613000
3000
Quando era perguntado às pessoas para classificar a qualidade da aliança de trabalho,
10:31
people rated the robot higher
254
616000
2000
as pessoas classificavam melhor o robô
10:33
and they trusted the robot more.
255
618000
2000
e elas confiavam mais no robô.
10:35
(Laughter)
256
620000
2000
(Risos)
10:37
And when you look at emotional engagement,
257
622000
2000
E quando você observa o envolvimento emocional,
10:39
it was completely different.
258
624000
2000
ele era completamente diferente.
10:41
People would name the robots.
259
626000
2000
As pessoas davam nomes aos robôs.
10:43
They would dress the robots.
260
628000
2000
Elas vestiam os robôs.
10:45
(Laughter)
261
630000
2000
(Risos)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
632000
3000
E mesmo quando nós vínhamos para pegar os robôs no fim do estudo,
10:50
they would come out to the car and say good-bye to the robots.
263
635000
2000
elas saiam do carro e diziam adeus aos robôs.
10:52
They didn't do this with a computer.
264
637000
2000
Eles não faziam isso com um computador.
10:54
The last thing I want to talk about today
265
639000
2000
A última coisa que quero falar hoje
10:56
is the future of children's media.
266
641000
2000
é o futuro da mídia infantil.
10:58
We know that kids spend a lot of time behind screens today,
267
643000
3000
Sabemos que as crianças gastam muito tempo na frente das telas hoje,
11:01
whether it's television or computer games or whatnot.
268
646000
3000
seja de uma televisão ou de um jogo de computador.
11:04
My sons, they love the screen. They love the screen.
269
649000
3000
Meus filhos, eles amam a tela. Eles adoram a tela.
11:07
But I want them to play; as a mom, I want them to play,
270
652000
3000
Mas eu quero que eles brinquem. Como mãe quero que eles brinquem
11:10
like, real-world play.
271
655000
2000
numa brincadeira do mundo real.
11:12
And so I have a new project in my group I wanted to present to you today
272
657000
3000
Então eu tenho um novo projeto no meu grupo que quero apresentar a vocês hoje
11:15
called Playtime Computing
273
660000
2000
chamado Playtime Computing
11:17
that's really trying to think about how we can take
274
662000
2000
que é pensar realmente
11:19
what's so engaging about digital media
275
664000
2000
sobre o que é tão envolvente na mídia digital
11:21
and literally bring it off the screen
276
666000
2000
e trazer isso literalmente para fora da tela,
11:23
into the real world of the child,
277
668000
2000
para o mundo real da criança,
11:25
where it can take on many of the properties of real-world play.
278
670000
3000
onde pode assumir muitas das propriedades da brincadeira reais.
11:29
So here's the first exploration of this idea,
279
674000
4000
Então aqui é a primeira exploração dessa ideia,
11:33
where characters can be physical or virtual,
280
678000
3000
onde os personagens podem ser físicos ou virtuais,
11:36
and where the digital content
281
681000
2000
e onde o conteúdo dgital
11:38
can literally come off the screen
282
683000
2000
pode sair da tela literalmente,
11:40
into the world and back.
283
685000
2000
para o mundo real e voltar.
11:42
I like to think of this
284
687000
2000
Eu gosto de pensar nisso
11:44
as the Atari Pong
285
689000
2000
como o Pong do Atari
11:46
of this blended-reality play.
286
691000
2000
dessa brincadeira de realidade misturada.
11:48
But we can push this idea further.
287
693000
2000
Mas nós podemos avançar mais essa ideia.
11:50
What if --
288
695000
2000
E se –
11:52
(Game) Nathan: Here it comes. Yay!
289
697000
3000
(Jogo) Nathan: Aí vai. Uau!
11:55
CB: -- the character itself could come into your world?
290
700000
3000
– o próprio personagem pudesse entrar no seu mundo?
11:58
It turns out that kids love it
291
703000
2000
Acontece que as crianças adoram isso
12:00
when the character becomes real and enters into their world.
292
705000
3000
quando o personagem se torna real e entra no mundo delas.
12:03
And when it's in their world,
293
708000
2000
E quando ele está no seu mundo,
12:05
they can relate to it and play with it in a way
294
710000
2000
elas podem se envolver com isso e brincar num jeito
12:07
that's fundamentally different from how they play with it on the screen.
295
712000
2000
que é fundamentalmente diferente de como elas brincavam com isso na tela.
12:09
Another important idea is this notion
296
714000
2000
Outra ideia importante é a noção
12:11
of persistence of character across realities.
297
716000
3000
da persistência do personagem entre as realidades.
12:14
So changes that children make in the real world
298
719000
2000
Então as transformações que as crianças passam no mundo real
12:16
need to translate to the virtual world.
299
721000
2000
precisam ser traduzidas no mundo virtual.
12:18
So here, Nathan has changed the letter A to the number 2.
300
723000
3000
Então aqui, o Nathan mudou a letra A para o número 2.
12:21
You can imagine maybe these symbols
301
726000
2000
Você pode imaginar que talvez esses símbolos
12:23
give the characters special powers when it goes into the virtual world.
302
728000
3000
dão ao personagem poderes especiais quando ele vai para o mundo virtual.
12:26
So they are now sending the character back into that world.
303
731000
3000
Então elas estão agora enviando o personagem de volta para aquele mundo.
12:29
And now it's got number power.
304
734000
3000
E agora ele tem o poder do número.
12:32
And then finally, what I've been trying to do here
305
737000
2000
E finalmente, o que estive tentando fazer aqui
12:34
is create a really immersive experience for kids,
306
739000
3000
é criar uma experiência realmente envolvente para crianças,
12:37
where they really feel like they are part of that story,
307
742000
3000
onde elas podem realmente sentir como parte dessa estória,
12:40
a part of that experience.
308
745000
2000
um parte dessa experiência.
12:42
And I really want to spark their imaginations
309
747000
2000
E eu realmente quero despertar suas imaginações
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
749000
3000
da forma que a minha foi quando era criança assistindo "Guerras nas Estrelas".
12:47
But I want to do more than that.
311
752000
2000
Mas eu quero fazer mais do que isso.
12:49
I actually want them to create those experiences.
312
754000
3000
Na verdade eu quero que elas criem essas experiências.
12:52
I want them to be able to literally build their imagination
313
757000
2000
Eu quero que elas sejam capazes de construir literalmente sua imaginação
12:54
into these experiences and make them their own.
314
759000
2000
dentro dessas experiências e fazê-las suas próprias.
12:56
So we've been exploring a lot of ideas
315
761000
2000
Então estivemos explorando um monte de ideias
12:58
in telepresence and mixed reality
316
763000
2000
com a telepresença e realidade mista
13:00
to literally allow kids to project their ideas into this space
317
765000
3000
para permitir que as crianças projetem suas ideias dentro desse espaço
13:03
where other kids can interact with them
318
768000
2000
onde outras crianças podem interagir com elas
13:05
and build upon them.
319
770000
2000
e construir sobre elas.
13:07
I really want to come up with new ways of children's media
320
772000
3000
Eu realmente quero mostrar novos caminhos da mídia infantil
13:10
that foster creativity and learning and innovation.
321
775000
3000
que congregam criatividade e aprendizagem e inovação.
13:13
I think that's very, very important.
322
778000
3000
Eu acho que isso é muito importante.
13:16
So this is a new project.
323
781000
2000
Então, esse é um novo projeto.
13:18
We've invited a lot of kids into this space,
324
783000
2000
Nós convidamos um monte de crianças para esse espaço,
13:20
and they think it's pretty cool.
325
785000
3000
elas acham que ele é bem legal.
13:23
But I can tell you, the thing that they love the most
326
788000
2000
Mas posso garantir, a coisa que elas mais gostam
13:25
is the robot.
327
790000
2000
é o robô.
13:27
What they care about is the robot.
328
792000
3000
O que elas adoram é o robô.
13:30
Robots touch something deeply human within us.
329
795000
3000
Os robôs tocam algo profundamente humanos em nós.
13:33
And so whether they're helping us
330
798000
2000
E se eles nos ajudam
13:35
to become creative and innovative,
331
800000
2000
a nos tornar criativos e inovadores,
13:37
or whether they're helping us
332
802000
2000
ou se eles nos ajudam
13:39
to feel more deeply connected despite distance,
333
804000
2000
a nos sentir mais conectados apesar da distância,
13:41
or whether they are our trusted sidekick
334
806000
2000
ou se eles são nossos parceiros confiáveis
13:43
who's helping us attain our personal goals
335
808000
2000
que nos ajudam a alcançar nossos objetivos pessoais
13:45
in becoming our highest and best selves,
336
810000
2000
em nos tornar o melhor de nós mesmos,
13:47
for me, robots are all about people.
337
812000
3000
para mim, os robôs são tudo sobre pessoas.
13:50
Thank you.
338
815000
2000
Obrigada.
13:52
(Applause)
339
817000
5000
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com