ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: O desenvolvimento de robôs pessoais

Filmed:
1,201,057 views

Quando era estudante universitária, Cynthia Breazeal questionava o facto de se utilizarem robôs em Marte mas não na nossa sala de estar. E descobriu a resposta: treinar robôs a interagir com as pessoas. Actualmente, Cynthia sonha e constrói robôs que ensinam, aprendem e brincam. Vejam uma extraordinária demonstração de um novo jogo interativo para crianças.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceDesde a I was a little girlmenina
0
0
3000
Desde pequena
00:18
seeingvendo "StarEstrela WarsGuerras" for the first time,
1
3000
2000
e desde que vi a "Guerra das Estrelas"
pela primeira vez,
00:20
I've been fascinatedfascinado by this ideaidéia
2
5000
2000
que fiquei fascinada
com a ideia de robôs pessoais.
00:22
of personalpessoal robotsrobôs.
3
7000
2000
00:24
And as a little girlmenina,
4
9000
2000
E enquanto criança
adorava a ideia de um robô
que interagisse connosco
00:26
I lovedAmado the ideaidéia of a robotrobô that interactedinteragiu with us
5
11000
2000
00:28
much more like a helpfulútil, trustedconfiável sidekickajudante --
6
13000
3000
como um parceiro útil e de confiança,
uma coisa que nos agradasse
e que enriquecesse a nossa vida
00:31
something that would delightdeleite us, enrichenriquecer our livesvidas
7
16000
2000
00:33
and help us saveSalve  a galaxygaláxia or two.
8
18000
3000
e que nos ajudasse a salvar
uma ou duas galáxias.
00:37
I knewsabia robotsrobôs like that didn't really existexistir,
9
22000
3000
Eu sabia que esses robôs não existiam
00:40
but I knewsabia I wanted to buildconstruir them.
10
25000
2000
mas sabia que queria construí-los.
00:42
So 20 yearsanos passpassar --
11
27000
2000
Passados 20 anos,
00:44
I am now a graduategraduado studentaluna at MITMIT
12
29000
2000
sou estudante de pós-graduação no MIT
00:46
studyingestudando artificialartificial intelligenceinteligência,
13
31000
2000
a estudar inteligência artificial.
00:48
the yearano is 1997,
14
33000
2000
O ano é o de 1997,
00:50
and NASANASA has just landeddesembarcou the first robotrobô on MarsMarte.
15
35000
3000
e a NASA acabava de colocar
o primeiro robô em Marte.
00:53
But robotsrobôs are still not in our home, ironicallyironicamente.
16
38000
3000
Mas os robôs ainda não estavam
nas nossas casas, ironicamente.
00:56
And I rememberlembrar thinkingpensando about
17
41000
2000
E recordo-me de pensar
em todas as razões para tal acontecer.
00:58
all the reasonsrazões why that was the casecaso.
18
43000
2000
01:00
But one really struckatingiu me.
19
45000
2000
Mas houve uma que me chamou a atenção.
01:02
RoboticsRobótica had really been about interactinginteragindo with things,
20
47000
3000
A robótica relacionava-se
com a interacção com as coisas
01:05
not with people --
21
50000
2000
mas não com as pessoas.
Certamente não da forma social
que para nós seria natural
01:07
certainlyCertamente not in a socialsocial way that would be naturalnatural for us
22
52000
2000
01:09
and would really help people acceptaceitar robotsrobôs
23
54000
2000
e que ajudaria as pessoas
a aceitar os robôs
01:11
into our dailydiariamente livesvidas.
24
56000
2000
na sua vida quotidiana.
01:13
For me, that was the whitebranco spaceespaço; that's what robotsrobôs could not do yetainda.
25
58000
3000
Para mim, era esse o espaço em branco,
que os robôs ainda não sabiam fazer.
01:16
And so that yearano, I startedcomeçado to buildconstruir this robotrobô, KismetKismet,
26
61000
3000
Nesse mesmo ano,
comecei a construir este robô, o Kismet,
01:19
the world'sos mundos first socialsocial robotrobô.
27
64000
3000
o primeiro robô social do mundo
01:22
ThreeTrês yearsanos latermais tarde --
28
67000
2000
Ao fim de três anos,
de muita programação,
01:24
a lot of programmingprogramação,
29
69000
2000
01:26
workingtrabalhando with other graduategraduado studentsalunos in the lablaboratório --
30
71000
2000
a trabalhar com outros estudantes
no laboratório,
01:28
KismetKismet was readypronto to startcomeçar interactinginteragindo with people.
31
73000
2000
o Kismet podia começar
a interagir com pessoas.
01:30
(VideoVídeo) ScientistCientista: I want to showexposição you something.
32
75000
2000
(Vídeo) Cientista:
Eu quero mostrar-te uma coisa.
01:32
KismetKismet: (NonsenseAbsurdo)
33
77000
2000
01:34
ScientistCientista: This is a watch that my girlfriendamiga gavedeu me.
34
79000
3000
Isto é um relógio
que a minha namorada me deu.
01:37
KismetKismet: (NonsenseAbsurdo)
35
82000
2000
01:39
ScientistCientista: Yeah, look, it's got a little blueazul lightluz in it too.
36
84000
2000
Sim, olha, também tem
uma luzinha azul lá dentro.
01:41
I almostquase lostperdido it this weeksemana.
37
86000
3000
Esta semana quase que o perdi.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedinteragiu with people
38
89000
3000
Cynthia Breazel:
O Kismet interagia com pessoas
01:47
like kindtipo of a non-verbalnão-verbal childcriança or pre-verbalpré-verbal childcriança,
39
92000
3000
como uma criança não-verbal ou pré-verbal,
01:50
whichqual I assumeassumir was fittingapropriado because it was really the first of its kindtipo.
40
95000
3000
que eu presumo que seja adequado
porque era o primeiro da espécie.
01:53
It didn't speakfalar languagelíngua, but it didn't matterimportam.
41
98000
2000
Não falava uma língua,
mas isso não importava.
01:55
This little robotrobô was somehowde alguma forma ablecapaz
42
100000
2000
Este pequeno robô era capaz de atingir
01:57
to taptoque into something deeplyprofundamente socialsocial withindentro us --
43
102000
3000
uma coisa profundamente social
dentro de nós.
02:00
and with that, the promisepromessa of an entirelyinteiramente newNovo way
44
105000
2000
Era a promessa
duma forma totalmente nova
02:02
we could interactinteragir with robotsrobôs.
45
107000
2000
de podermos interagir com robôs.
02:04
So over the pastpassado severalde várias yearsanos
46
109000
2000
Ao longo dos últimos anos
continuei a explorar
esta dimensão interpessoal dos robôs,
02:06
I've been continuingcontinuando to exploreexplorar this interpersonalinterpessoais dimensiondimensão of robotsrobôs,
47
111000
2000
02:08
now at the mediameios de comunicação lablaboratório
48
113000
2000
agora no Media Lab
02:10
with my ownpróprio teamequipe of incrediblyincrivelmente talentedtalentoso studentsalunos.
49
115000
2000
com a minha equipa de estudantes
incrivelmente talentosos.
02:12
And one of my favoritefavorito robotsrobôs is LeonardoLeonardo.
50
117000
3000
Um dos meus robôs preferidos é o Leonardo.
02:15
We developeddesenvolvido LeonardoLeonardo in collaborationcolaboração with StanStan WinstonWinston StudioStudio.
51
120000
3000
Criámos o Leonardo em colaboração
com o Stan Winston Studio.
02:18
And so I want to showexposição you a specialespecial momentmomento for me of LeoLeo.
52
123000
3000
Quero mostrar-vos um momento
do Leo, especial para mim .
02:21
This is MattMatt BerlinBerlim interactinginteragindo with LeoLeo,
53
126000
2000
Este é o Matt Berlin a interagir com o Leo,
02:23
introducingintroduzindo LeoLeo to a newNovo objectobjeto.
54
128000
2000
a apresentar ao Leo um novo objecto.
02:25
And because it's newNovo, LeoLeo doesn't really know what to make of it.
55
130000
3000
Como é novo, o Leo não sabe
o que fazer com ele.
02:28
But sortordenar of like us, he can actuallyna realidade learnaprender about it
56
133000
2000
Mas mais ou menos como nós,
ele pode aprender
02:30
from watchingassistindo Matt'sMatt. reactionreação.
57
135000
3000
através da reacção do Matt.
02:33
(VideoVídeo) MattMatt BerlinBerlim: HelloOlá, LeoLeo.
58
138000
2000
(Vídeo) Matt Berlin: Olá, Leo.
02:38
LeoLeo, this is CookieCookie MonsterMonstro.
59
143000
3000
Leo, este é o Monstro das Bolachas.
02:44
Can you find CookieCookie MonsterMonstro?
60
149000
3000
Consegues encontrar
o Monstro das Bolachas?
02:52
LeoLeo, CookieCookie MonsterMonstro is very badmau.
61
157000
3000
Leo, o Monstro das Bolachas é muito mau.
02:56
He's very badmau, LeoLeo.
62
161000
2000
Ele é muito mau, Leo.
03:00
CookieCookie MonsterMonstro is very, very badmau.
63
165000
3000
O Monstro das Bolachas é muito, muito mau.
03:07
He's a scaryassustador monstermonstro.
64
172000
2000
É um monstro assustador.
03:09
He wants to get your cookiescookies.
65
174000
2000
Ele quer roubar as tuas bolachas.
03:12
(LaughterRiso)
66
177000
2000
(Risos)
03:14
CBCB: All right, so LeoLeo and CookieCookie
67
179000
3000
CB: O Leo e o Monstro das Bolachas
03:17
mightpoderia have gottenobtido off to a little bitpouco of a roughrude startcomeçar,
68
182000
2000
podem ter tido um início um pouco difícil,
03:19
but they get alongao longo great now.
69
184000
3000
mas agora dão-se bem.
03:22
So what I've learnedaprendido
70
187000
2000
O que eu aprendi
ao construir estes sistemas
03:24
throughatravés buildingconstrução these systemssistemas
71
189000
2000
03:26
is that robotsrobôs are actuallyna realidade
72
191000
2000
foi que os robôs são uma tecnologia social
verdadeiramente intrigante.
03:28
a really intriguingintrigante socialsocial technologytecnologia,
73
193000
2000
03:30
where it's actuallyna realidade theirdeles abilityhabilidade
74
195000
2000
Onde está a capacidade
03:32
to pushempurrar our socialsocial buttonsbotões
75
197000
2000
de carregar nos nossos botões sociais
03:34
and to interactinteragir with us like a partnerparceiro
76
199000
2000
e de interagir connosco como um colega
03:36
that is a coretestemunho partparte of theirdeles functionalityfuncionalidade.
77
201000
3000
essa é a parte central
da sua funcionalidade.
03:39
And with that shiftmudança in thinkingpensando, we can now startcomeçar to imagineImagine
78
204000
2000
Com essa mudança de pensamento,
é possível agora imaginar
03:41
newNovo questionsquestões, newNovo possibilitiespossibilidades for robotsrobôs
79
206000
3000
novas questões, novas possibilidades
para os robôs.
03:44
that we mightpoderia not have thought about otherwisede outra forma.
80
209000
3000
que, de outro modo, não teríamos pensado.
03:47
But what do I mean when I say "pushempurrar our socialsocial buttonsbotões?"
81
212000
2000
O que é que quero dizer com
"carregar nos botões sociais"?
03:49
Well, one of the things that we'venós temos learnedaprendido
82
214000
2000
Aprendemos que,
se concebermos estes robôs
03:51
is that, if we designdesenhar these robotsrobôs to communicatecomunicar with us
83
216000
2000
para comunicar connosco
03:53
usingusando the samemesmo bodycorpo languagelíngua,
84
218000
2000
usando a mesma linguagem corporal,
03:55
the samemesmo sortordenar of non-verbalnão-verbal cuessugestões that people use --
85
220000
2000
os mesmos sinais não-verbais
que as pessoas usam,
03:57
like NexiNexi, our humanoidhumanoide robotrobô, is doing here --
86
222000
3000
como o Nexi, este robô humanóide
está a fazer aqui,
04:00
what we find is that people respondresponder to robotsrobôs
87
225000
2000
descobrimos que as pessoas
respondem aos robôs
04:02
a lot like they respondresponder to people.
88
227000
2000
de forma semelhante
à que respondem a pessoas.
04:04
People use these cuessugestões to determinedeterminar things like how persuasivepersuasivo someonealguém is,
89
229000
3000
As pessoas utilizam estes sinais
para saber quão persuasivo alguém é,
04:07
how likablesimpático, how engagingnoivando,
90
232000
2000
quão simpático, quão cativante,
04:09
how trustworthydigno de confiança.
91
234000
2000
quão digno de confiança.
04:11
It turnsgira out it's the samemesmo for robotsrobôs.
92
236000
2000
Acontece que é o mesmo para os robôs.
04:13
It's turninggiro out now
93
238000
2000
Estamos a descobrir agora
que os robôs estão a tornar-se
uma ferramenta científica interessante
04:15
that robotsrobôs are actuallyna realidade becomingtornando-se a really interestinginteressante newNovo scientificcientífico toolferramenta
94
240000
3000
04:18
to understandCompreendo humanhumano behaviorcomportamento.
95
243000
2000
para compreender o comportamento humano.
04:20
To answerresponda questionsquestões like, how is it that, from a briefbreve encounterencontro,
96
245000
3000
Para responder a perguntas, tipo:
Como é que, num breve encontro,
04:23
we're ablecapaz to make an estimateestimativa of how trustworthydigno de confiança anotheroutro personpessoa is?
97
248000
3000
conseguimos calcular quão digna
de confiança é uma pessoa?
04:26
Mimicry'sDo mimetismo believedacreditava to playToque a roleFunção, but how?
98
251000
3000
Acreditamos que a imitação
exerce um papel, mas como?
04:29
Is it the mimickingimitando of particularespecial gesturesgestos that mattersimporta?
99
254000
3000
A imitação de determinados
gestos é importante?
04:32
It turnsgira out it's really hardDifícil
100
257000
2000
É muito difícil aprender
ou compreender isto observando as pessoas
04:34
to learnaprender this or understandCompreendo this from watchingassistindo people
101
259000
2000
04:36
because when we interactinteragir we do all of these cuessugestões automaticallyautomaticamente.
102
261000
3000
pois quando interagimos, fazemos
todos estes sinais automaticamente.
04:39
We can't carefullycuidadosamente controlao controle them because they're subconscioussubconsciente for us.
103
264000
2000
Não podemos controlá-los.
Fazem parte do nosso subconsciente.
04:41
But with the robotrobô, you can.
104
266000
2000
Mas com o robô é possível.
04:43
And so in this videovídeo here --
105
268000
2000
Este vídeo foi feito no laboratório
de David Steno na Northeasterm University.
04:45
this is a videovídeo takenocupado from DavidDavid DeSteno'sDeSteno do lablaboratório at NortheasternDo nordeste UniversityUniversidade.
106
270000
3000
04:48
He's a psychologistpsicólogo we'venós temos been collaboratingcolaborando with.
107
273000
2000
É um psicólogo com quem
temos estado a colaborar.
04:50
There's actuallyna realidade a scientistcientista carefullycuidadosamente controllingcontrolando Nexi'sA NEXI cuessugestões
108
275000
3000
No vídeo vemos um cientista a controlar
atentamente os sinais do Nexi
04:53
to be ablecapaz to studyestude this questionquestão.
109
278000
3000
para conseguir estudar esta questão.
04:56
And the bottominferior linelinha is -- the reasonrazão why this workstrabalho is
110
281000
2000
A conclusão é que isto funciona
04:58
because it turnsgira out people just behavecomporte-se like people
111
283000
2000
porque as pessoas comportam-se
apenas como pessoas
05:00
even when interactinginteragindo with a robotrobô.
112
285000
3000
mesmo quando interagem com um robô.
05:03
So givendado that keychave insightdiscernimento,
113
288000
2000
Assim, através desta ideia chave,
05:05
we can now startcomeçar to imagineImagine
114
290000
2000
é possível começar a imaginar
novos tipos de aplicações para robôs.
05:07
newNovo kindstipos of applicationsaplicações for robotsrobôs.
115
292000
3000
05:10
For instanceinstância, if robotsrobôs do respondresponder to our non-verbalnão-verbal cuessugestões,
116
295000
3000
Por exemplo, se os robôs respondem
aos nossos sinais não-verbais,
05:13
maybe they would be a coollegal, newNovo communicationcomunicação technologytecnologia.
117
298000
4000
talvez possam ser uma nova
e engraçada tecnologia de comunicação.
05:17
So imagineImagine this:
118
302000
2000
Imaginemos isto:
05:19
What about a robotrobô accessoryacessório for your cellphonecelular?
119
304000
2000
Que tal um acessório robô
para o telemóvel?
05:21
You call your friendamigos, she putscoloca her handsetmonofone in a robotrobô,
120
306000
2000
Uma pessoa telefona a uma amiga,
ela coloca o auricular num robô,
05:23
and, bambam! You're a MeBotMeBot --
121
308000
2000
e, surpresa! Essa pessoa é o MeBot.
05:25
you can make eyeolho contactcontato, you can talk with your friendsamigos,
122
310000
3000
Podemos fazer contacto visual,
falar com os amigos,
05:28
you can movemover around, you can gesturegesto --
123
313000
2000
andar de um lado para o outro,
fazer gestos.
05:30
maybe the nextPróximo bestmelhor thing to really beingser there, or is it?
124
315000
3000
Melhor só mesmo estando lá, não é verdade?
05:33
To exploreexplorar this questionquestão,
125
318000
2000
Para explorar esta questão
05:35
my studentaluna, SiggySiggy AdalgeirssonAdalgeirsson, did a studyestude
126
320000
3000
um aluno meu, Siggy Adalgeirsson,
realizou um estudo
05:38
where we broughttrouxe humanhumano participantsparticipantes, people, into our lablaboratório
127
323000
3000
para o qual trouxemos pessoas
para o nosso laboratório
05:41
to do a collaborativecolaborativo tasktarefa
128
326000
2000
para levar a cabo uma tarefa colaborativa
05:43
with a remotecontrolo remoto collaboratorcolaborador.
129
328000
2000
com um colaborador à distância.
05:45
The tasktarefa involvedenvolvido things
130
330000
2000
A tarefa incluía coisas como
olhar para uma série
de objectos numa mesa,
05:47
like looking at a setconjunto of objectsobjetos on the tablemesa,
131
332000
2000
analisá-los em termos
de importância e relevância
05:49
discussingdiscutindo them in termstermos of theirdeles importanceimportância and relevancerelevância to performingrealizando a certaincerto tasktarefa --
132
334000
3000
para realizar uma determinada tarefa
05:52
this endedterminou up beingser a survivalsobrevivência tasktarefa --
133
337000
2000
— esta era uma tarefa de sobrevivência -
05:54
and then ratingclassificação them in termstermos
134
339000
2000
e posteriormente classificá-los
05:56
of how valuablevalioso and importantimportante they thought they were.
135
341000
2000
Segundo o valor
e a importância que lhe davam.
05:58
The remotecontrolo remoto collaboratorcolaborador was an experimenterexperimentador from our groupgrupo
136
343000
3000
O colaborador à distância
era um experimentador do grupo.
06:01
who used one of threetrês differentdiferente technologiestecnologias
137
346000
2000
Utilizámos uma
de três tecnologias diferentes
06:03
to interactinteragir with the participantsparticipantes.
138
348000
2000
para interagir com os participantes.
06:05
The first was just the screentela.
139
350000
2000
A primeira foi apenas o ecrã,
tal como uma videoconferência actual.
06:07
This is just like videovídeo conferencingConferência todayhoje.
140
352000
3000
06:10
The nextPróximo was to addadicionar mobilitymobilidade -- so, have the screentela on a mobileMóvel basebase.
141
355000
3000
Na seguinte, adicionou-se mobilidade,
temos um ecrã numa base móvel.
06:13
This is like, if you're familiarfamiliar with any of the telepresencetelepresença robotsrobôs todayhoje --
142
358000
3000
Se conhecem algum dos robôs
tele-presenciais actuais,
06:16
this is mirroringespelhamento that situationsituação.
143
361000
3000
isto espelha essa situação.
06:19
And then the fullytotalmente expressiveexpressiva MeBotMeBot.
144
364000
2000
Depois o Mebot completamente expressivo.
06:21
So after the interactioninteração,
145
366000
2000
Após a interacção,
06:23
we askedperguntei people to ratetaxa theirdeles qualityqualidade of interactioninteração
146
368000
3000
pedimos às pessoas para classificarem
a sua qualidade de interacção
06:26
with the technologytecnologia, with a remotecontrolo remoto collaboratorcolaborador
147
371000
2000
com a tecnologia,
com o colaborador à distância,
06:28
throughatravés this technologytecnologia, in a numbernúmero of differentdiferente waysmaneiras.
148
373000
3000
através desta tecnologia
de várias maneiras distintas.
06:31
We lookedolhou at psychologicalpsicológico involvementenvolvimento --
149
376000
2000
Observámos o envolvimento psicológico:
06:33
how much empathyempatia did you feel for the other personpessoa?
150
378000
2000
Qual o grau de empatia
que sentiu pela outra pessoa?
06:35
We lookedolhou at overallNo geral engagementnoivado.
151
380000
2000
Observámos o envolvimento em geral.
06:37
We lookedolhou at theirdeles desiredesejo to cooperatecooperar.
152
382000
2000
Observámos a vontade de colaborar.
06:39
And this is what we see when they use just the screentela.
153
384000
3000
E isto é o que se vê
quando utilizam apenas o ecrã.
06:42
It turnsgira out, when you addadicionar mobilitymobilidade -- the abilityhabilidade to rolllista around the tablemesa --
154
387000
3000
Quando se acrescenta mobilidade,
a capacidade de girar na mesa,
06:45
you get a little more of a boostimpulso.
155
390000
2000
obtém-se um pouco mais de estímulo.
06:47
And you get even more of a boostimpulso when you addadicionar the fullcheio expressionexpressão.
156
392000
3000
Obtém-se ainda maior estímulo
se acrescentarmos a expressividade completa.
06:50
So it seemsparece like this physicalfisica, socialsocial embodimentpersonagem
157
395000
2000
Parece que esta personificação
física social
06:52
actuallyna realidade really makesfaz com que a differencediferença.
158
397000
2000
faz, de facto, a diferença.
06:54
Now let's try to put this into a little bitpouco of contextcontexto.
159
399000
3000
Tentemos contextualizar isto um pouco.
06:57
TodayHoje we know that familiesfamílias are livingvivo furthermais distante and furthermais distante apartseparados,
160
402000
3000
Sabemos que, hoje em dia, as famílias
vivem casa vez mais separadas.
07:00
and that definitelydefinitivamente takes a tollPedágio on familyfamília relationshipsrelacionamentos
161
405000
2000
Isso tem um custo nas relações familiares
07:02
and familyfamília bondstítulos over distancedistância.
162
407000
2000
e nos laços familiares à distância.
07:04
For me, I have threetrês youngjovem boysRapazes,
163
409000
2000
No meu caso, eu tenho três rapazes,
07:06
and I want them to have a really good relationshiprelação
164
411000
2000
e quero que eles tenham
uma boa relação com os avós.
07:08
with theirdeles grandparentsavós.
165
413000
2000
07:10
But my parentsparentes liveviver thousandsmilhares of milesmilhas away,
166
415000
2000
Mas os meus pais moram
a quilómetros de distância,
07:12
so they just don't get to see eachcada other that oftenfrequentemente.
167
417000
2000
e eles não se vêem muitas vezes.
07:14
We try SkypeSkype, we try phonetelefone callschamadas,
168
419000
2000
Usamos o Skype, telefonamos,
07:16
but my boysRapazes are little -- they don't really want to talk;
169
421000
2000
mas os meus filhos não querem falar,
só querem brincar.
07:18
they want to playToque.
170
423000
2000
07:20
So I love the ideaidéia of thinkingpensando about robotsrobôs
171
425000
2000
Portanto adorei a ideia de robôs
07:22
as a newNovo kindtipo of distance-playdistância-jogo technologytecnologia.
172
427000
3000
como um novo tipo de tecnologia
de diversão à distância.
07:25
I imagineImagine a time not too farlonge from now --
173
430000
3000
Eu imagino, numa época não muito distante,
07:28
my mommamãe can go to her computercomputador,
174
433000
2000
a minha mãe ir ao computador,
07:30
openaberto up a browserNavegador and jackJack into a little robotrobô.
175
435000
2000
abrir um browser
e ligar-se a um pequeno robô.
07:32
And as grandma-botavó-bot,
176
437000
3000
E como uma avó-bô,
ela pode brincar de verdade,
07:35
she can now playToque, really playToque,
177
440000
2000
07:37
with my sonsfilhos, with her grandsonsnetos,
178
442000
2000
com os meus filhos, com os netos,
07:39
in the realreal worldmundo with his realreal toysbrinquedos.
179
444000
3000
no mundo real com brinquedos reais.
07:42
I could imagineImagine grandmothersavós beingser ablecapaz to do social-playssocial-peças
180
447000
2000
Consigo imaginar as avós a divertir-se
07:44
with theirdeles granddaughtersnetas, with theirdeles friendsamigos,
181
449000
2000
com as netas, com as amigas,
07:46
and to be ablecapaz to sharecompartilhar all kindstipos of other activitiesactividades around the housecasa,
182
451000
2000
e a partilhar uma série
de outras actividades pela casa,
07:48
like sharingcompartilhando a bedtimehora de dormir storyhistória.
183
453000
2000
como partilhar
uma história para adormecer.
07:50
And throughatravés this technologytecnologia,
184
455000
2000
Através desta tecnologia,
07:52
beingser ablecapaz to be an activeativo participantparticipante
185
457000
2000
têm a capacidade de desempenhar
um papel activo na vida dos netos
07:54
in theirdeles grandchildren'snetos livesvidas
186
459000
2000
07:56
in a way that's not possiblepossível todayhoje.
187
461000
2000
duma forma que hoje não é possível.
07:58
Let's think about some other domainsdomínios,
188
463000
2000
Consideremos outras áreas,
como a saúde.
08:00
like maybe healthsaúde.
189
465000
2000
08:02
So in the UnitedUnidos StatesEstados-Membros todayhoje,
190
467000
2000
Nos Estados Unidos actualmente,
08:04
over 65 percentpor cento of people are eitherou overweightexcesso de peso or obeseobeso,
191
469000
3000
mais de 65% das pessoas
têm excesso de peso ou são obesas.
08:07
and now it's a biggrande problemproblema with our childrencrianças as well.
192
472000
2000
Hoje é um problema
que também afecta as nossas crianças.
08:09
And we know that as you get olderMais velho in life,
193
474000
2000
Sabe-se que, à medida que envelhece,
08:11
if you're obeseobeso when you're youngermais jovem, that can leadconduzir to chroniccrônica diseasesdoenças
194
476000
3000
uma pessoa, obesa em jovem,
vem a sofrer doenças crónicas mais tarde.
08:14
that not only reducereduzir your qualityqualidade of life,
195
479000
2000
Isso diminui a qualidade de vida
08:16
but are a tremendoustremendo economiceconômico burdencarga on our healthsaúde careCuidado systemsistema.
196
481000
3000
e é uma enorme carga económica
no sistema de saúde.
08:19
But if robotsrobôs can be engagingnoivando,
197
484000
2000
Se os robôs cativarem,
08:21
if we like to cooperatecooperar with robotsrobôs,
198
486000
2000
se gostarmos de colaborar com os robôs,
08:23
if robotsrobôs are persuasivepersuasivo,
199
488000
2000
se os robôs forem persuasivos,
08:25
maybe a robotrobô can help you
200
490000
2000
talvez um robô possam ajudar-nos
08:27
maintainmanter a dietdieta and exerciseexercício programprograma,
201
492000
2000
a manter uma dieta
e um programa de exercício físico,
08:29
maybe they can help you managegerir your weightpeso.
202
494000
3000
talvez eles ajudem a controlar o peso.
08:32
SortTipo of like a digitaldigital JiminyKatiane --
203
497000
2000
Uma espécie de grilo falante digital
08:34
as in the well-knownbem conhecido fairyfada taleconto --
204
499000
2000
— como o célebre conto de fadas —
uma presença amigável e solidária
que está sempre presente,
08:36
a kindtipo of friendlyamigáveis, supportivede suporte presencepresença that's always there
205
501000
2000
08:38
to be ablecapaz to help you make the right decisiondecisão
206
503000
2000
que ajuda a tomar a decisão certa,
08:40
in the right way at the right time
207
505000
2000
da forma certa, na altura certa,
08:42
to help you formFormato healthysaudável habitshábitos.
208
507000
2000
para ajudar a criar hábitos saudáveis.
08:44
So we actuallyna realidade exploredexploradas this ideaidéia in our lablaboratório.
209
509000
2000
Explorámos esta ideia
no nosso laboratório.
08:46
This is a robotrobô, AutomAutom.
210
511000
2000
Este é um robô, o Autom.
08:48
CoryCory KiddKidd developeddesenvolvido this robotrobô for his doctoraldoutorado work.
211
513000
3000
Cory Kidd desenvolveu este robô
para o seu doutoramento.
08:51
And it was designedprojetado to be a robotrobô diet-and-exercisedieta e exercício coachtreinador.
212
516000
3000
Concebeu-o para ser um conselheiro
na alimentação e no exercício.
08:54
It had a couplecasal of simplesimples non-verbalnão-verbal skillsHabilidades it could do.
213
519000
2000
O robô realizava umas habilidades
não-verbais simples.
08:56
It could make eyeolho contactcontato with you.
214
521000
2000
Estabelecia contacto visual connosco.
08:58
It could sharecompartilhar informationem formação looking down at a screentela.
215
523000
2000
Partilhava informação
a olhar para um ecrã.
09:00
You'dVocê faria use a screentela interfaceinterface to enterentrar informationem formação,
216
525000
2000
Usámos um interface no ecrã
para introduzir informação:
09:02
like how manymuitos caloriescalorias you atecomeu that day,
217
527000
2000
a quantidade de calorias
ingeridas nesse dia,
09:04
how much exerciseexercício you got.
218
529000
2000
a quantidade de exercício realizado.
09:06
And then it could help trackpista that for you.
219
531000
2000
E assim ele podia acompanhar-nos.
09:08
And the robotrobô spokefalou with a syntheticsintético voicevoz
220
533000
2000
O robô falava com uma voz sintética
09:10
to engagese empenhar you in a coachingCoaching dialoguediálogo
221
535000
2000
para estabelecer um diálogo de orientação
09:12
modeledmodelado after trainersformadores
222
537000
2000
modelado a partir
de treinadores, pacientes, etc.,
09:14
and patientspacientes and so forthadiante.
223
539000
2000
09:16
And it would buildconstruir a workingtrabalhando allianceAliança with you
224
541000
2000
E construía uma aliança
de trabalho com a pessoa
09:18
throughatravés that dialoguediálogo.
225
543000
2000
através desse diálogo.
09:20
It could help you setconjunto goalsmetas and trackpista your progressprogresso,
226
545000
2000
Ajudava a definir objectivos
e a acompanhar o progresso,
09:22
and it would help motivatemotivar you.
227
547000
2000
e ajudava a motivar.
09:24
So an interestinginteressante questionquestão is,
228
549000
2000
Uma questão interessante é:
09:26
does the socialsocial embodimentpersonagem really matterimportam? Does it matterimportam that it's a robotrobô?
229
551000
3000
Será que a personificação
social é importante?
Importa que seja um robô?
09:29
Is it really just the qualityqualidade of adviceconselho and informationem formação that mattersimporta?
230
554000
3000
Será que só interessa a qualidade
da informação e dos conselhos?
09:32
To exploreexplorar that questionquestão,
231
557000
2000
Para resolver esta questão
09:34
we did a studyestude in the BostonBoston areaárea
232
559000
2000
fizemos um estudo na zona de Boston
09:36
where we put one of threetrês interventionsintervenções in people'spovos homescasas
233
561000
3000
em que colocámos uma de três intervenções
nas casas das pessoas
09:39
for a periodperíodo of severalde várias weekssemanas.
234
564000
2000
por um período de várias semanas.
09:41
One casecaso was the robotrobô you saw there, AutomAutom.
235
566000
3000
Um dos casos foi o robô
que vimos ali, o Autom.
09:44
AnotherOutro was a computercomputador that rancorreu the samemesmo touch-screentela de toque interfaceinterface,
236
569000
3000
Outro foi um computador que executou
o mesmo interface de ecrã táctil,
09:47
rancorreu exactlyexatamente the samemesmo dialoguesdiálogos.
237
572000
2000
exactamente com os mesmos diálogos.
09:49
The qualityqualidade of adviceconselho was identicalidêntico.
238
574000
2000
A qualidade da orientação foi idêntica.
09:51
And the thirdterceiro was just a pencaneta and paperpapel logregistro,
239
576000
2000
O terceiro foi uma caneta
e um bloco de notas,
09:53
because that's the standardpadrão interventionintervenção you typicallytipicamente get
240
578000
2000
porque é a intervenção padrão
que utilizamos
09:55
when you startcomeçar a diet-and-exercisedieta e exercício programprograma.
241
580000
3000
quando iniciámos uma dieta
e um programa de exercício físico.
09:58
So one of the things we really wanted to look at
242
583000
3000
Uma das coisas que queríamos observar
10:01
was not how much weightpeso people lostperdido,
243
586000
3000
não era a quantidade de peso
que as pessoas tinham perdido,
10:04
but really how long they interactedinteragiu with the robotrobô.
244
589000
3000
mas sim quanto tempo
tinham interagido com o robô,
10:07
Because the challengedesafio is not losingperdendo weightpeso, it's actuallyna realidade keepingguardando it off.
245
592000
3000
visto que o desafio não era perder peso,
mas evitar que se ganhasse.
10:10
And the longermais longo you could interactinteragir with one of these interventionsintervenções,
246
595000
3000
Quanto mais tempo se interagisse
com uma destas intervenções,
10:13
well that's indicativeindicativo, potentiallypotencialmente, of longer-termlongo prazo successsucesso.
247
598000
3000
mais provável era o êxito a longo prazo.
10:16
So the first thing I want to look at is how long,
248
601000
2000
A primeira coisa que quero observar
é quanto tempo as pessoas
interagiram com estes sistemas.
10:18
how long did people interactinteragir with these systemssistemas.
249
603000
2000
10:20
It turnsgira out that people interactedinteragiu with the robotrobô
250
605000
2000
Observou-se que as pessoas
interagem com o robô
10:22
significantlysignificativamente more,
251
607000
2000
significativamente mais,
10:24
even thoughApesar the qualityqualidade of the adviceconselho was identicalidêntico to the computercomputador.
252
609000
3000
apesar de a qualidade da orientação
ser idêntica à do computador.
Quando pedimos às pessoas para avaliarem
em termos da qualidade da colaboração,
10:28
When it askedperguntei people to ratetaxa it on termstermos of the qualityqualidade of the workingtrabalhando allianceAliança,
253
613000
3000
10:31
people ratedavaliado the robotrobô highersuperior
254
616000
2000
o robô obteve a classificação mais elevada,
10:33
and they trustedconfiável the robotrobô more.
255
618000
2000
e confiavam mais no robô.
10:35
(LaughterRiso)
256
620000
2000
(Risos)
E quando se observa
o envolvimento emocional,
10:37
And when you look at emotionalemocional engagementnoivado,
257
622000
2000
10:39
it was completelycompletamente differentdiferente.
258
624000
2000
os resultados são completamente diferentes.
10:41
People would namenome the robotsrobôs.
259
626000
2000
As pessoas dão um nome ao robô,
10:43
They would dressvestir the robotsrobôs.
260
628000
2000
vestem o robô.
10:45
(LaughterRiso)
261
630000
2000
(Risos)
10:47
And even when we would come up to pickescolher up the robotsrobôs at the endfim of the studyestude,
262
632000
3000
E quando íamos buscar os robôs
no fim do estudo,
as pessoas acompanhavam-nos
ao carro e diziam adeus aos robôs.
10:50
they would come out to the carcarro and say good-byeAdeus to the robotsrobôs.
263
635000
2000
10:52
They didn't do this with a computercomputador.
264
637000
2000
Não faziam isto com um computador.
10:54
The last thing I want to talk about todayhoje
265
639000
2000
A última questão que quero abordar hoje,
10:56
is the futurefuturo of children'scrianças mediameios de comunicação.
266
641000
2000
é o futuro dos media para as crianças.
10:58
We know that kidsfilhos spendgastar a lot of time behindatrás screenstelas todayhoje,
267
643000
3000
Actualmente, as crianças
passam muito tempo em frente a um ecrã,
11:01
whetherse it's televisiontelevisão or computercomputador gamesjogos or whatnotoutros enfeites.
268
646000
3000
seja o da televisão
ou dos jogos de computador.
11:04
My sonsfilhos, they love the screentela. They love the screentela.
269
649000
3000
Os meus filhos, adoram o ecrã.
11:07
But I want them to playToque; as a mommamãe, I want them to playToque,
270
652000
3000
Mas, enquanto mãe,
eu quero que eles brinquem
11:10
like, real-worldmundo real playToque.
271
655000
2000
jogos do mundo real.
11:12
And so I have a newNovo projectprojeto in my groupgrupo I wanted to presentpresente to you todayhoje
272
657000
3000
Tenho um novo projecto no meu grupo
que vos quero apresentar hoje
11:15
calledchamado PlaytimeHora de brincar ComputingComputação
273
660000
2000
intitulado "Playtime Computing"
11:17
that's really tryingtentando to think about how we can take
274
662000
2000
que explora o porquê de
os media digitais serem tão cativantes,
11:19
what's so engagingnoivando about digitaldigital mediameios de comunicação
275
664000
2000
11:21
and literallyliteralmente bringtrazer it off the screentela
276
666000
2000
e levá-los para fora do ecrã,
11:23
into the realreal worldmundo of the childcriança,
277
668000
2000
para o mundo real da criança,
11:25
where it can take on manymuitos of the propertiespropriedades of real-worldmundo real playToque.
278
670000
3000
onde possa adoptar muitas das propriedades
do mundo real da diversão.
11:29
So here'saqui está the first explorationexploração of this ideaidéia,
279
674000
4000
Eis a primeira exploração desta ideia.
11:33
where characterspersonagens can be physicalfisica or virtualvirtual,
280
678000
3000
As personagens podem
ser físicas ou virtuais,
11:36
and where the digitaldigital contentconteúdo
281
681000
2000
o conteúdo digital sai,
literalmente, do ecrã,
11:38
can literallyliteralmente come off the screentela
282
683000
2000
11:40
into the worldmundo and back.
283
685000
2000
para o mundo real e regressa.
11:42
I like to think of this
284
687000
2000
Gosto de pensar que é o Atari Pong
11:44
as the AtariAtari PongPong
285
689000
2000
desta diversão de realidade híbrida.
11:46
of this blended-realityrealidade misturada playToque.
286
691000
2000
11:48
But we can pushempurrar this ideaidéia furthermais distante.
287
693000
2000
Mas esta ideia
pode ser explorada muito mais.
11:50
What if --
288
695000
2000
(Jogo) Nathan: Ele vem aí! Boa!
11:52
(GameJogo) NathanNathan: Here it comesvem. YayYay!
289
697000
3000
11:55
CBCB: -- the characterpersonagem itselfem si could come into your worldmundo?
290
700000
3000
CB: E se a personagem
pudesse entrar no mundo?
11:58
It turnsgira out that kidsfilhos love it
291
703000
2000
As crianças adoram
quando a personagem se torna real
12:00
when the characterpersonagem becomestorna-se realreal and entersentra into theirdeles worldmundo.
292
705000
3000
e entra no mundo delas.
12:03
And when it's in theirdeles worldmundo,
293
708000
2000
Quando isso acontece,
podem comunicar e brincar com ela
12:05
they can relaterelacionar to it and playToque with it in a way
294
710000
2000
duma forma totalmente diferente
da que costumam brincar no ecrã.
12:07
that's fundamentallyfundamentalmente differentdiferente from how they playToque with it on the screentela.
295
712000
2000
12:09
AnotherOutro importantimportante ideaidéia is this notionnoção
296
714000
2000
Outra ideia importante
é a noção de permanência
12:11
of persistencepersistência of characterpersonagem acrossatravés realitiesrealidades.
297
716000
3000
da personagem entre as realidades.
12:14
So changesalterar that childrencrianças make in the realreal worldmundo
298
719000
2000
Assim, as alterações
que as crianças fazem no mundo real
12:16
need to translatetraduzir to the virtualvirtual worldmundo.
299
721000
2000
devem ser transportadas
para o mundo virtual.
12:18
So here, NathanNathan has changedmudou the lettercarta A to the numbernúmero 2.
300
723000
3000
Aqui, o Nathan mudou a letra A
para o número 2.
12:21
You can imagineImagine maybe these symbolssímbolos
301
726000
2000
Imagina-se que estes símbolos
12:23
give the characterspersonagens specialespecial powerspoderes when it goesvai into the virtualvirtual worldmundo.
302
728000
3000
dão à personagem poderes especiais
quando ela entra no mundo virtual.
12:26
So they are now sendingenviando the characterpersonagem back into that worldmundo.
303
731000
3000
Agora a personagem
está a ser reenviada para esse mundo.
12:29
And now it's got numbernúmero powerpoder.
304
734000
3000
E agora tem poder de número.
12:32
And then finallyfinalmente, what I've been tryingtentando to do here
305
737000
2000
E, finalmente, tenho estado a tentar criar
12:34
is createcrio a really immersiveimersiva experienceexperiência for kidsfilhos,
306
739000
3000
uma experiência realmente imersiva
para as crianças,
12:37
where they really feel like they are partparte of that storyhistória,
307
742000
3000
em que eles possam sentir
que fazem parte dessa história,
12:40
a partparte of that experienceexperiência.
308
745000
2000
que fazem parte dessa experiência.
12:42
And I really want to sparkfaísca theirdeles imaginationsimaginações
309
747000
2000
Quero despertar a sua imaginação
12:44
the way minemeu was sparkedprovocou as a little girlmenina watchingassistindo "StarEstrela WarsGuerras."
310
749000
3000
da mesma forma que
"A Guerra das Estrelas" despertou a minha.
12:47
But I want to do more than that.
311
752000
2000
Mas quero fazer mais do que isso.
12:49
I actuallyna realidade want them to createcrio those experiencesexperiências.
312
754000
3000
Quero que eles criem estas experiências.
12:52
I want them to be ablecapaz to literallyliteralmente buildconstruir theirdeles imaginationimaginação
313
757000
2000
Quero que eles construam,
literalmente, a sua imaginação
12:54
into these experiencesexperiências and make them theirdeles ownpróprio.
314
759000
2000
com estas experiências e que as integrem.
12:56
So we'venós temos been exploringexplorando a lot of ideasidéias
315
761000
2000
Temos explorado uma série de ideias
12:58
in telepresencetelepresença and mixedmisturado realityrealidade
316
763000
2000
em telepresença e realidade híbrida
13:00
to literallyliteralmente allowpermitir kidsfilhos to projectprojeto theirdeles ideasidéias into this spaceespaço
317
765000
3000
para que as crianças possam
projectem as suas ideias neste espaço
13:03
where other kidsfilhos can interactinteragir with them
318
768000
2000
onde outras crianças
possam interagir com elas
13:05
and buildconstruir uponsobre them.
319
770000
2000
e construir com base nelas.
13:07
I really want to come up with newNovo waysmaneiras of children'scrianças mediameios de comunicação
320
772000
3000
Eu quero arranjar
novos meios para as crianças
13:10
that fosterpromover a creativitycriatividade and learningAprendendo and innovationinovação.
321
775000
3000
que fomentem a criatividade,
a aprendizagem e a inovação.
13:13
I think that's very, very importantimportante.
322
778000
3000
Creio que isso seja muito importante.
13:16
So this is a newNovo projectprojeto.
323
781000
2000
Este é um projecto novo.
13:18
We'veTemos invitedconvidamos a lot of kidsfilhos into this spaceespaço,
324
783000
2000
Convidámos muitas crianças
a entrar neste espaço,
13:20
and they think it's prettybonita coollegal.
325
785000
3000
e elas consideram-no "muito fixe".
13:23
But I can tell you, the thing that they love the mosta maioria
326
788000
2000
Mas posso dizer que
o que gostam mais é do robô.
13:25
is the robotrobô.
327
790000
2000
13:27
What they careCuidado about is the robotrobô.
328
792000
3000
O que lhes importa é o robô.
13:30
RobotsRobôs touchtocar something deeplyprofundamente humanhumano withindentro us.
329
795000
3000
Os robôs tocam em algo
profundamente humano em nós.
13:33
And so whetherse they're helpingajudando us
330
798000
2000
Quer nos ajudem
a sermos criativos e inovadores,
13:35
to becometornar-se creativecriativo and innovativeInovativa,
331
800000
2000
13:37
or whetherse they're helpingajudando us
332
802000
2000
quer nos ajudem a sentirmo-nos
mais ligados, apesar da distância,
13:39
to feel more deeplyprofundamente connectedconectado despiteapesar de distancedistância,
333
804000
2000
13:41
or whetherse they are our trustedconfiável sidekickajudante
334
806000
2000
quer sejam o nosso parceiro de confiança,
13:43
who'squem é helpingajudando us attainatingir our personalpessoal goalsmetas
335
808000
2000
que nos ajudem a atingir
os nossos objectivos pessoais
13:45
in becomingtornando-se our highestmais alto and bestmelhor selveseus,
336
810000
2000
para nos tornarmos
no melhor de nós próprios,
13:47
for me, robotsrobôs are all about people.
337
812000
3000
para mim, falar de robôs
é falar de pessoas.
13:50
Thank you.
338
815000
2000
Obrigada.
13:52
(ApplauseAplausos)
339
817000
5000
(Aplausos)
Translated by Cátia Costa
Reviewed by Rafael Eufrasio

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com