ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: l'émergence des robots personnels

Filmed:
1,201,057 views

Quand elle était étudiante en licence, Cynthia Breazeal se demandait pourquoi nous utilisions des robots sur Mars, mais pas dans nos salons. Elle s'est rendu compte que la clé était d'entraîner les robots à interagir avec les gens. Maintenant elle rêve et elle construit des robots qui enseignent, apprennent - et jouent.Regardez une démonstration étonnante d'un nouveau jeu interactif pour enfants.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sincedepuis I was a little girlfille
0
0
3000
Depuis mon enfance
00:18
seeingvoyant "StarStar WarsGuerres" for the first time,
1
3000
2000
quand j'ai vu "La guerre des étoiles" pour la première fois,
00:20
I've been fascinatedfasciné by this ideaidée
2
5000
2000
je suis fascinée par l'idée
00:22
of personalpersonnel robotsdes robots.
3
7000
2000
des robots personnels.
00:24
And as a little girlfille,
4
9000
2000
Et quand j'étais petite,
00:26
I lovedaimé the ideaidée of a robotrobot that interactedinteragi with us
5
11000
2000
j'adorais l'idée d'un robot qui interagirait avec nous
00:28
much more like a helpfulutile, trustedde confiance sidekickSidekick --
6
13000
3000
un peu comme un comparse serviable et fiable --
00:31
something that would delightdélice us, enrichenrichir our livesvies
7
16000
2000
quelque chose qui nous ravirait, qui enrichirait nos vies
00:33
and help us saveenregistrer a galaxygalaxie or two.
8
18000
3000
et nous aiderait à sauver une galaxie ou deux.
00:37
I knewa connu robotsdes robots like that didn't really existexister,
9
22000
3000
Je savais que de tels robots n'existaient pas vraiment,
00:40
but I knewa connu I wanted to buildconstruire them.
10
25000
2000
mais je savais que je voulais en construire.
00:42
So 20 yearsannées passpasser --
11
27000
2000
20 années s"écoulent --
00:44
I am now a graduatediplômé studentétudiant at MITMIT
12
29000
2000
je suis maintenant étudiante en troisième cycle au MIT
00:46
studyingen train d'étudier artificialartificiel intelligenceintelligence,
13
31000
2000
j'étudie l'intelligence artificielle,
00:48
the yearan is 1997,
14
33000
2000
nous sommes en 1997,
00:50
and NASANASA has just landeda atterri the first robotrobot on MarsMars.
15
35000
3000
et la NASA vient de faire atterrir le premier robot sur Mars.
00:53
But robotsdes robots are still not in our home, ironicallyironiquement.
16
38000
3000
Mais, paradoxalement, les robots ne sont toujours pas présents dans nos foyers.
00:56
And I rememberrappelles toi thinkingen pensant about
17
41000
2000
Et je me rappelle avoir réfléchi
00:58
all the reasonsles raisons why that was the caseCas.
18
43000
2000
à toutes les raisons possibles pour cela.
01:00
But one really struckfrappé me.
19
45000
2000
Mais il y en a une qui m'a vraiment frappé.
01:02
RoboticsRobotique had really been about interactinginteragir with things,
20
47000
3000
La robotique avait vraiment étudié l'interaction avec les objets,
01:05
not with people --
21
50000
2000
pas avec les gens --
01:07
certainlycertainement not in a socialsocial way that would be naturalNaturel for us
22
52000
2000
et certainement pas avec la sociabilité qui serait naturelle pour nous
01:09
and would really help people acceptAcceptez robotsdes robots
23
54000
2000
et aiderait vraiment les gens à accepter les robots
01:11
into our dailydu quotidien livesvies.
24
56000
2000
dans nos vies quotidiennes.
01:13
For me, that was the whiteblanc spaceespace; that's what robotsdes robots could not do yetencore.
25
58000
3000
Pour moi, c'était la Terrae Incognitae, c'est ce que les robots ne pouvaient pas encore faire.
01:16
And so that yearan, I startedcommencé to buildconstruire this robotrobot, KismetKismet,
26
61000
3000
Et donc cette année-là, j'ai commencé a construire ce robot, Kismet,
01:19
the world'smonde first socialsocial robotrobot.
27
64000
3000
le premier robot sociable au monde.
01:22
ThreeTrois yearsannées laterplus tard --
28
67000
2000
Et trois ans plus tard --
01:24
a lot of programmingla programmation,
29
69000
2000
beaucoup de programmation,
01:26
workingtravail with other graduatediplômé studentsélèves in the lablaboratoire --
30
71000
2000
en travaillant avec d'autres étudiants au laboratoire --
01:28
KismetKismet was readyprêt to startdébut interactinginteragir with people.
31
73000
2000
Kismet était prêt à commencer à interagir avec des gens.
01:30
(VideoVidéo) ScientistScientifique: I want to showmontrer you something.
32
75000
2000
(Vidéo) Savant : je veux te montrer quelque chose.
01:32
KismetKismet: (NonsenseNon-sens)
33
77000
2000
Kismet: Ga ga ga...
01:34
ScientistScientifique: This is a watch that my girlfriendpetite amie gavea donné me.
34
79000
3000
Savant : c'est une montre que ma copine m'a offerte.
01:37
KismetKismet: (NonsenseNon-sens)
35
82000
2000
Kismet: Ga ga ga...
01:39
ScientistScientifique: Yeah, look, it's got a little bluebleu lightlumière in it too.
36
84000
2000
Savant : oui, regarde, il y a aussi une petite lumière bleue à l'intérieur.
01:41
I almostpresque lostperdu it this weekla semaine.
37
86000
3000
J'ai failli la perdre cette semaine.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedinteragi with people
38
89000
3000
Cynthia Breazeal: Kismet interagissait avec les gens
01:47
like kindgentil of a non-verbalnon verbal childenfant or pre-verbalverbal préalable childenfant,
39
92000
3000
comme un enfant qui ne parle pas ou qui est sur le point de parler,
01:50
whichlequel I assumeassumer was fittingraccord because it was really the first of its kindgentil.
40
95000
3000
ce qui je suppose cadrait tout à fait, parce qu'il était vraiment le premier de son espèce.
01:53
It didn't speakparler languagela langue, but it didn't mattermatière.
41
98000
2000
Il ne parlait aucune langue, mais ça n'avait pas d'importance.
01:55
This little robotrobot was somehowen quelque sorte ablecapable
42
100000
2000
Ce petit robot était capable, d'une façon ou d'une autre,
01:57
to taprobinet into something deeplyprofondément socialsocial withindans us --
43
102000
3000
de résonner avec quelque chose de profondément sociable en nous.
02:00
and with that, the promisepromettre of an entirelyentièrement newNouveau way
44
105000
2000
Et avec ça, augurait d'une façon entièrement nouvelle
02:02
we could interactinteragir with robotsdes robots.
45
107000
2000
dont nous pourrions interagir avec les robots.
02:04
So over the pastpassé severalnombreuses yearsannées
46
109000
2000
Ces quelques dernières années,
02:06
I've been continuingcontinuer to exploreexplorer this interpersonalinterpersonnelles dimensiondimension of robotsdes robots,
47
111000
2000
j'ai continué d'explorer cette dimension interpersonnelle des robots,
02:08
now at the mediamédias lablaboratoire
48
113000
2000
désormais au laboratoire média,
02:10
with my ownposséder teaméquipe of incrediblyincroyablement talentedtalentueux studentsélèves.
49
115000
2000
avec ma propre équipe d'étudiants incroyablement talentueux.
02:12
And one of my favoritepréféré robotsdes robots is LeonardoLeonardo.
50
117000
3000
L'un de mes robot favori est Leonardo.
02:15
We developeddéveloppé LeonardoLeonardo in collaborationcollaboration with StanStan WinstonWinston StudioStudio.
51
120000
3000
Nous avons développé Leonardo en collaboration avec les Studios Stan Winston.
02:18
And so I want to showmontrer you a specialspécial momentmoment for me of LeoLeo.
52
123000
3000
Et je veux vous montrer un moment de Leo important à mes yeux.
02:21
This is MattMatt BerlinBerlin interactinginteragir with LeoLeo,
53
126000
2000
Voici Matt Berlin qui interagit avec Leo,
02:23
introducingintroduire LeoLeo to a newNouveau objectobjet.
54
128000
2000
en présentant à Leo un nouvel objet.
02:25
And because it's newNouveau, LeoLeo doesn't really know what to make of it.
55
130000
3000
Et parce qu'il est nouveau, Léo ne sais pas vraiment quoi en penser.
02:28
But sortTrier of like us, he can actuallyréellement learnapprendre about it
56
133000
2000
Mais, un peu comme nous, il peut apprendre des choses à son sujet
02:30
from watchingen train de regarder Matt'sDe Matt reactionréaction.
57
135000
3000
en observant la réaction de Matt.
02:33
(VideoVidéo) MattMatt BerlinBerlin: HelloSalut, LeoLeo.
58
138000
2000
(Vidéo) Matt Berlin : Salut Leo.
02:38
LeoLeo, this is CookieCookie MonsterMonstre.
59
143000
3000
Leo, voici Cookie Monster.
02:44
Can you find CookieCookie MonsterMonstre?
60
149000
3000
Peux-tu trouver Cookie Monster?
02:52
LeoLeo, CookieCookie MonsterMonstre is very badmal.
61
157000
3000
Leo, Cookie Monster est très méchant.
02:56
He's very badmal, LeoLeo.
62
161000
2000
Il est très méchant, Leo.
03:00
CookieCookie MonsterMonstre is very, very badmal.
63
165000
3000
Cookie Monster est très, très méchant.
03:07
He's a scaryeffrayant monstermonstre.
64
172000
2000
C'est un monstre effrayant.
03:09
He wants to get your cookiesCookies.
65
174000
2000
Il veut te prendre tes cookies.
03:12
(LaughterRires)
66
177000
2000
(Rires)
03:14
CBCB: All right, so LeoLeo and CookieCookie
67
179000
3000
CB : Bien, alors, Leo et Cookie
03:17
mightpourrait have gottenobtenu off to a little bitbit of a roughrugueux startdébut,
68
182000
2000
ont peut-être eu des débuts difficiles,
03:19
but they get alongle long de great now.
69
184000
3000
mais ils s'entendent très bien maintenant.
03:22
So what I've learnedappris
70
187000
2000
Ce que j'ai donc appris
03:24
throughpar buildingbâtiment these systemssystèmes
71
189000
2000
en construisant ces systèmes
03:26
is that robotsdes robots are actuallyréellement
72
191000
2000
c'est que les robots sont en fait
03:28
a really intriguingintrigant socialsocial technologyLa technologie,
73
193000
2000
une technologie sociale vraiment intrigante.
03:30
where it's actuallyréellement theirleur abilitycapacité
74
195000
2000
C'est en fait leur capacité
03:32
to pushpousser our socialsocial buttonsboutons
75
197000
2000
à déclencher nos réflexes sociaux
03:34
and to interactinteragir with us like a partnerpartenaire
76
199000
2000
et à interagir avec nous comme un partenaire
03:36
that is a corecoeur partpartie of theirleur functionalityfonctionnalité.
77
201000
3000
qui est le cœur de leur fonctionnalité.
03:39
And with that shiftdécalage in thinkingen pensant, we can now startdébut to imagineimaginer
78
204000
2000
Et avec cette façon totalement différente de penser, nous pouvons maintenant commencer à imaginer
03:41
newNouveau questionsdes questions, newNouveau possibilitiespossibilités for robotsdes robots
79
206000
3000
de nouvelles questions, de nouvelles possibilités pour les robots
03:44
that we mightpourrait not have thought about otherwiseautrement.
80
209000
3000
que nous n'aurions pas pu envisager autrement.
03:47
But what do I mean when I say "pushpousser our socialsocial buttonsboutons?"
81
212000
2000
Mais qu'est-ce que j'entends par "déclencher nos réflexes sociaux " ?
03:49
Well, one of the things that we'venous avons learnedappris
82
214000
2000
Et bien, l'une des choses que j'ai apprises
03:51
is that, if we designconception these robotsdes robots to communicatecommuniquer with us
83
216000
2000
c'est que, si nous concevons ces robots pour communiquer avec nous
03:53
usingen utilisant the sameMême bodycorps languagela langue,
84
218000
2000
en utilisant le même langage corporel,
03:55
the sameMême sortTrier of non-verbalnon verbal cuesindices that people use --
85
220000
2000
la même sorte de signaux non verbaux que les gens emploient --
03:57
like NexiNexi, our humanoidHumanoïde robotrobot, is doing here --
86
222000
3000
comme Nexi, notre robot humanoïde le fait ici --
04:00
what we find is that people respondrépondre to robotsdes robots
87
225000
2000
ce que nous découvrons, c'est que les gens réagissent aux robots
04:02
a lot like they respondrépondre to people.
88
227000
2000
d'une façon très similaire à celle avec laquelle ils réagissent aux gens.
04:04
People use these cuesindices to determinedéterminer things like how persuasivepersuasive someoneQuelqu'un is,
89
229000
3000
Les gens emploient ces signaux pour déterminer certaines choses comme : cette personne est-elle convaincante ?
04:07
how likablesympathique, how engagingengageant,
90
232000
2000
Est-elle aimable ? Est-elle attrayante ?
04:09
how trustworthydigne de confiance.
91
234000
2000
Peut-on lui faire confiance ?
04:11
It turnsse tourne out it's the sameMême for robotsdes robots.
92
236000
2000
Il s'avère que c'est la même chose pour les robots.
04:13
It's turningtournant out now
93
238000
2000
Il s'avère maintenant
04:15
that robotsdes robots are actuallyréellement becomingdevenir a really interestingintéressant newNouveau scientificscientifique tooloutil
94
240000
3000
que les robots deviennent un nouvel outil scientifique vraiment intéressant
04:18
to understandcomprendre humanHumain behaviorcomportement.
95
243000
2000
pour comprendre le comportement humain.
04:20
To answerrépondre questionsdes questions like, how is it that, from a briefbref encounterrencontre,
96
245000
3000
Pour répondre à des questions comme : comment se fait-il qu'à partir d'une brève rencontre,
04:23
we're ablecapable to make an estimateestimation of how trustworthydigne de confiance anotherun autre personla personne is?
97
248000
3000
nous puissions évaluer à quel point nous pouvons nous fier à une autre personne ?
04:26
Mimicry'sDu mimétisme believeda cru to playjouer a rolerôle, but how?
98
251000
3000
On pense que le mimétisme joue un rôle, mais de quelle façon ?
04:29
Is it the mimickingmimer of particularparticulier gesturesgestes that mattersimporte?
99
254000
3000
Est-ce l'imitation de certains gestes particuliers qui compte ?
04:32
It turnsse tourne out it's really harddifficile
100
257000
2000
Il s'avère que c'est très difficile
04:34
to learnapprendre this or understandcomprendre this from watchingen train de regarder people
101
259000
2000
d'apprendre ou de comprendre ça en observant des gens
04:36
because when we interactinteragir we do all of these cuesindices automaticallyautomatiquement.
102
261000
3000
parce que quand nous interagissons, nous envoyons tous ces signaux automatiquement.
04:39
We can't carefullysoigneusement controlcontrôle them because they're subconscioussubconscient for us.
103
264000
2000
Nous ne pouvons pas les contrôler avec précision parce que nous n'en sommes pas conscients.
04:41
But with the robotrobot, you can.
104
266000
2000
Mais avec le robot on peut le faire.
04:43
And so in this videovidéo here --
105
268000
2000
Alors dans cette vidéo ici --
04:45
this is a videovidéo takenpris from DavidDavid DeSteno'sDeSteno de lablaboratoire at NortheasternNord-est UniversityUniversité.
106
270000
3000
c'est une vidéo prise au laboratoire de David DeSteno, à l'Université Northeastern de Boston.
04:48
He's a psychologistpsychologue we'venous avons been collaboratingen collaboration with.
107
273000
2000
C'est un psychologue avec qui nous collaborons.
04:50
There's actuallyréellement a scientistscientifique carefullysoigneusement controllingcontrôler Nexi'sDe nexi cuesindices
108
275000
3000
Il y a en fait un scientifique qui contrôle soigneusement les signaux de Nexi
04:53
to be ablecapable to studyétude this questionquestion.
109
278000
3000
pour être en mesure d'étudier cette question.
04:56
And the bottombas lineligne is -- the reasonraison why this workstravaux is
110
281000
2000
Et en résumé -- la raison pour laquelle ça marche --
04:58
because it turnsse tourne out people just behavese comporter like people
111
283000
2000
c'est parce qu'il s'avère que les gens se comportent comme des gens,
05:00
even when interactinginteragir with a robotrobot.
112
285000
3000
même quand ils interagissent avec un robot.
05:03
So givendonné that keyclé insightperspicacité,
113
288000
2000
Et une fois que l'on a compris ce point crucial,
05:05
we can now startdébut to imagineimaginer
114
290000
2000
on peut commencer à imaginer
05:07
newNouveau kindssortes of applicationsapplications for robotsdes robots.
115
292000
3000
de nouveaux genres d'utilisations pour les robots.
05:10
For instanceexemple, if robotsdes robots do respondrépondre to our non-verbalnon verbal cuesindices,
116
295000
3000
Par exemple, si les robots réagissent vraiment à nos signaux non verbaux,
05:13
maybe they would be a coolcool, newNouveau communicationla communication technologyLa technologie.
117
298000
4000
ils pourraient devenir une nouvelle technologie de communication sympa.
05:17
So imagineimaginer this:
118
302000
2000
Alors imaginez ça :
05:19
What about a robotrobot accessoryaccessoire for your cellphonetéléphone portable?
119
304000
2000
Que diriez-vous d'un accessoire robot pour votre téléphone mobile ?
05:21
You call your friendami, she putsmet her handsetcombiné in a robotrobot,
120
306000
2000
Vous appelez votre amie, elle met le combiné dans un robot,
05:23
and, bambam! You're a MeBotMeBot --
121
308000
2000
et vlan ! vous êtes un MeBot --
05:25
you can make eyeœil contactcontact, you can talk with your friendscopains,
122
310000
3000
vous pouvez vous regarder les yeux dans les yeux, vous pouvez parler avec vos amis,
05:28
you can movebouge toi around, you can gesturegeste --
123
313000
2000
vous pouvez bouger, vous pouvez faire des gestes --
05:30
maybe the nextprochain bestmeilleur thing to really beingétant there, or is it?
124
315000
3000
c'est peut-être ce qu'il y a de mieux juste après être vraiment là en personne, non ?
05:33
To exploreexplorer this questionquestion,
125
318000
2000
Pour étudier cette question
05:35
my studentétudiant, SiggySiggy AdalgeirssonAdalgeirsson, did a studyétude
126
320000
3000
mon étudiant, Siggy Adalgeirsson, a fait une étude
05:38
where we broughtapporté humanHumain participantsparticipants, people, into our lablaboratoire
127
323000
3000
dans laquelle nous avons amené des participants humains, des gens, dans notre laboratoire
05:41
to do a collaborativecollaboratif tasktâche
128
326000
2000
pour effectuer un travail de collaboration
05:43
with a remoteéloigné collaboratorcollaborateur.
129
328000
2000
avec un collaborateur distant.
05:45
The tasktâche involvedimpliqué things
130
330000
2000
Le travail comprenait des tâches comme
05:47
like looking at a setensemble of objectsobjets on the tabletable,
131
332000
2000
regarder un ensemble d'objets sur une table,
05:49
discussingdiscuter them in termstermes of theirleur importanceimportance and relevancepertinence to performingeffectuer a certaincertain tasktâche --
132
334000
3000
discuter de leur importance et de leur utilité pour effectuer une certaine tâche,
05:52
this endedterminé up beingétant a survivalsurvie tasktâche --
133
337000
2000
et cela finissait par devenir une mission de survie --
05:54
and then ratingcote them in termstermes
134
339000
2000
et puis de les classer
05:56
of how valuablede valeur and importantimportant they thought they were.
135
341000
2000
en fonction de l'importance et de la valeur qu'ils leur attribuaient.
05:58
The remoteéloigné collaboratorcollaborateur was an experimenterexpérimentateur from our groupgroupe
136
343000
3000
Le collaborateur distant était un expérimentateur de notre groupe
06:01
who used one of threeTrois differentdifférent technologiesles technologies
137
346000
2000
et il untilisait l'une de ces trois technologie
06:03
to interactinteragir with the participantsparticipants.
138
348000
2000
pour interagir avec les participants.
06:05
The first was just the screenécran.
139
350000
2000
La première, c'était simplement l'écran.
06:07
This is just like videovidéo conferencingConferencing todayaujourd'hui.
140
352000
3000
Ce n'était rien de plus que la visioconférence d'aujourd'hui.
06:10
The nextprochain was to addajouter mobilitymobilité -- so, have the screenécran on a mobilemobile basebase.
141
355000
3000
La suivante, c'était d'ajouter la mobilité, et donc de mettre l'écran sur une base mobile.
06:13
This is like, if you're familiarfamilier with any of the telepresencetéléprésence robotsdes robots todayaujourd'hui --
142
358000
3000
C'est comme, si vous êtes familier avec des robots de téléprésence aujourd'hui --
06:16
this is mirroringmise en miroir that situationsituation.
143
361000
3000
cela reflète cette situation.
06:19
And then the fullypleinement expressiveexpressive MeBotMeBot.
144
364000
2000
Et ensuite il y avait le MeBot pleinement expressif.
06:21
So after the interactioninteraction,
145
366000
2000
Après l'interaction,
06:23
we askeda demandé people to ratetaux theirleur qualityqualité of interactioninteraction
146
368000
3000
nous avons demandé aux gens de donner une note à la qualité de leur interaction
06:26
with the technologyLa technologie, with a remoteéloigné collaboratorcollaborateur
147
371000
2000
avec la technologie, avec le collaborateur distant,
06:28
throughpar this technologyLa technologie, in a numbernombre of differentdifférent waysfaçons.
148
373000
3000
au travers de cette technologie d'un certain nombre de différentes façons.
06:31
We lookedregardé at psychologicalpsychologique involvementparticipation --
149
376000
2000
Nous avons examiné l'implication psychologique --
06:33
how much empathyempathie did you feel for the other personla personne?
150
378000
2000
quel degré d'empathie avez-vous ressenti pour l'autre personne ?
06:35
We lookedregardé at overallglobal engagementengagement.
151
380000
2000
Nous avons examiné l'implication globale.
06:37
We lookedregardé at theirleur desireenvie to cooperatecoopérer.
152
382000
2000
Nous avons examiné leur désir de coopérer.
06:39
And this is what we see when they use just the screenécran.
153
384000
3000
Et voici ce que nous voyons quand nous utilisons seulement l'écran.
06:42
It turnsse tourne out, when you addajouter mobilitymobilité -- the abilitycapacité to rollrouleau around the tabletable --
154
387000
3000
Il s'avère que quand on ajoute la mobilité -- la capacité de rouler sur toute la table --
06:45
you get a little more of a boostcoup de pouce.
155
390000
2000
on obtient un petit peu plus d'implication.
06:47
And you get even more of a boostcoup de pouce when you addajouter the fullplein expressionexpression.
156
392000
3000
Et on est encore plus impliqué quand on ajoute la totalité de l'expressivité.
06:50
So it seemssemble like this physicalphysique, socialsocial embodimentréalisation
157
395000
2000
Il semble donc que cette incarnation physique de la relation sociale
06:52
actuallyréellement really makesfait du a differencedifférence.
158
397000
2000
fasse vraiment la différence.
06:54
Now let's try to put this into a little bitbit of contextle contexte.
159
399000
3000
A présent, essayons de mettre ceci en perspective.
06:57
TodayAujourd'hui we know that familiesdes familles are livingvivant furtherplus loin and furtherplus loin apartune part,
160
402000
3000
Aujourd'hui nous savons que des familles vivent séparées par des distances de plus en plus grandes,
07:00
and that definitelyabsolument takes a tollpéage on familyfamille relationshipsdes relations
161
405000
2000
et que cela se ressent vraiment dans les relations familiales
07:02
and familyfamille bondsobligations over distancedistance.
162
407000
2000
et les liens familiaux à distance.
07:04
For me, I have threeTrois youngJeune boysgarçons,
163
409000
2000
Pour ma part, j'ai trois jeunes garçons
07:06
and I want them to have a really good relationshiprelation
164
411000
2000
et je veux qu'ils aient une vraiment bonne relation
07:08
with theirleur grandparentsgrands-parents.
165
413000
2000
avec leurs grands-parents.
07:10
But my parentsParents livevivre thousandsmilliers of milesmiles away,
166
415000
2000
Mais mes parents vivent à des milliers de kilomètres,
07:12
so they just don't get to see eachchaque other that oftensouvent.
167
417000
2000
et ne voient donc pas très souvent leurs petits-enfants.
07:14
We try SkypeSkype, we try phonetéléphone callsappels,
168
419000
2000
Nous essayons Skype, nous essayons le téléphone,
07:16
but my boysgarçons are little -- they don't really want to talk;
169
421000
2000
mais mes garçons sont petits -- et ne veulent pas vraiment discuter,
07:18
they want to playjouer.
170
423000
2000
ils veulent jouer.
07:20
So I love the ideaidée of thinkingen pensant about robotsdes robots
171
425000
2000
Alors j'aime beaucoup l'idée de considérer les robots
07:22
as a newNouveau kindgentil of distance-playdistance-play technologyLa technologie.
172
427000
3000
comme une nouvelle sorte de technique de jeu à distance.
07:25
I imagineimaginer a time not too farloin from now --
173
430000
3000
J'imagine un moment, dans un futur pas trop lointain --
07:28
my mommaman can go to her computerordinateur,
174
433000
2000
ma mère peut aller sur son ordinateur,
07:30
openouvrir up a browserNavigateur and jackjack into a little robotrobot.
175
435000
2000
ouvrir un navigateur et se brancher sur un petit robot.
07:32
And as grandma-botgrand-mère-bot,
176
437000
3000
Et en tant que mamie-bot,
07:35
she can now playjouer, really playjouer,
177
440000
2000
elle peut maintenant jouer, vraiment jouer,
07:37
with my sonsfils, with her grandsonspetits-fils,
178
442000
2000
avec mes fils, avec ses petits-fils,
07:39
in the realréal worldmonde with his realréal toysjouets.
179
444000
3000
dans le monde réel, avec leurs vrais jouets.
07:42
I could imagineimaginer grandmothersgrands-mères beingétant ablecapable to do social-playssocial-joue
180
447000
2000
Je peux imaginer des grand-mères en mesure de jouer à des jeux de société
07:44
with theirleur granddaughterspetites-filles, with theirleur friendscopains,
181
449000
2000
avec leurs petites-filles, avec leurs amies,
07:46
and to be ablecapable to sharepartager all kindssortes of other activitiesActivités around the housemaison,
182
451000
2000
et de partager toutes sortes d'autres activités dans la maison,
07:48
like sharingpartage a bedtimeheure du coucher storyrécit.
183
453000
2000
comme de partager une histoire pour s'endormir.
07:50
And throughpar this technologyLa technologie,
184
455000
2000
Et par le biais de cette technologie
07:52
beingétant ablecapable to be an activeactif participantparticipant
185
457000
2000
être capable de participer activement
07:54
in theirleur grandchildren'spetits-enfants livesvies
186
459000
2000
à la vie de leurs petits-enfants
07:56
in a way that's not possiblepossible todayaujourd'hui.
187
461000
2000
d'une manière qui n'est pas possible aujourd'hui.
07:58
Let's think about some other domainsdomaines,
188
463000
2000
Réfléchissons à d'autres domaines,
08:00
like maybe healthsanté.
189
465000
2000
comme peut-être la santé.
08:02
So in the UnitedUnie StatesÉtats todayaujourd'hui,
190
467000
2000
Aux États-Unis, aujourd'hui,
08:04
over 65 percentpour cent of people are eithernon plus overweightsurcharge pondérale or obeseobèse,
191
469000
3000
plus de 65 % des gens sont soit trop gros, soit obèses,
08:07
and now it's a biggros problemproblème with our childrenles enfants as well.
192
472000
2000
et c'est maintenant un gros problème avec nos enfants également.
08:09
And we know that as you get olderplus âgée in life,
193
474000
2000
Et nous savons que lorsqu'on vieillit,
08:11
if you're obeseobèse when you're youngerplus jeune, that can leadconduire to chronicchronique diseasesmaladies
194
476000
3000
si on est obèse dès sa jeunesse, cela peut conduire à des maladies chroniques
08:14
that not only reduceréduire your qualityqualité of life,
195
479000
2000
qui non seulement réduisent votre qualité de vie,
08:16
but are a tremendousénorme economicéconomique burdencharge on our healthsanté carese soucier systemsystème.
196
481000
3000
mais sont un fardeau économique énorme pour notre système de santé.
08:19
But if robotsdes robots can be engagingengageant,
197
484000
2000
Mais si les robots peuvent être attirants,
08:21
if we like to cooperatecoopérer with robotsdes robots,
198
486000
2000
si nous aimons coopérer avec les robots,
08:23
if robotsdes robots are persuasivepersuasive,
199
488000
2000
si les robots sont persuasifs,
08:25
maybe a robotrobot can help you
200
490000
2000
peut-être qu'un robot peut vous aider
08:27
maintainmaintenir a dietrégime and exerciseexercice programprogramme,
201
492000
2000
à faire un régime et un programme d'exercices physiques,
08:29
maybe they can help you managegérer your weightpoids.
202
494000
3000
il peut vous aider à contrôler votre poids.
08:32
SortTri of like a digitalnumérique JiminyJiminy --
203
497000
2000
Un peu comme un Jiminy numérique --
08:34
as in the well-knownbien connu fairyFée taleconte --
204
499000
2000
comme dans le célèbre conte de fées --
08:36
a kindgentil of friendlyamical, supportivefavorable presenceprésence that's always there
205
501000
2000
une sorte de soutien amical qui est toujours présent
08:38
to be ablecapable to help you make the right decisiondécision
206
503000
2000
afin de vous aider à prendre la bonne décision,
08:40
in the right way at the right time
207
505000
2000
de la bonne manière, au bon moment,
08:42
to help you formforme healthyen bonne santé habitsdes habitudes.
208
507000
2000
pour vous aider à adopter des habitudes saines.
08:44
So we actuallyréellement exploredexplorés this ideaidée in our lablaboratoire.
209
509000
2000
Nous avons donc étudié cette idée dans notre laboratoire.
08:46
This is a robotrobot, AutomAutom.
210
511000
2000
Voici notre robot, Autom.
08:48
CoryCory KiddKidd developeddéveloppé this robotrobot for his doctoralau doctorat work.
211
513000
3000
Cory Kidd a développé ce robot dans le cadre de son doctorat.
08:51
And it was designedconçu to be a robotrobot diet-and-exerciseexercice et régime alimentaire coachautocar.
212
516000
3000
Et il a été conçu pour être un robot coach pour le régime et l'exercice physique.
08:54
It had a couplecouple of simplesimple non-verbalnon verbal skillscompétences it could do.
213
519000
2000
Il avait deux ou trois capacités non verbales simples.
08:56
It could make eyeœil contactcontact with you.
214
521000
2000
Il pouvait vous regarder dans les yeux.
08:58
It could sharepartager informationinformation looking down at a screenécran.
215
523000
2000
Il pouvait partager des informations en regardant un écran.
09:00
You'dVous le feriez use a screenécran interfaceinterface to enterentrer informationinformation,
216
525000
2000
Vous utilisiez une interface d'écran pour entrer les informations,
09:02
like how manybeaucoup caloriescalories you atea mangé that day,
217
527000
2000
telles que la quantité de calories que vous aviez avalé ce jour-là,
09:04
how much exerciseexercice you got.
218
529000
2000
combien d'exercices physiques vous aviez effectué.
09:06
And then it could help trackPiste that for you.
219
531000
2000
Et puis il pouvait garder trace de tout ça pour vous.
09:08
And the robotrobot spokeparlait with a syntheticsynthétique voicevoix
220
533000
2000
Et le robot parlait avec une voix synthétique
09:10
to engageengager you in a coachingCoaching dialoguedialogue
221
535000
2000
pour engager un dialogue avec vous, vous coacher,
09:12
modeledmodélisé after trainersformateurs
222
537000
2000
sur le modèle des entraîneurs
09:14
and patientsles patients and so forthavant.
223
539000
2000
avec leurs patients, etc.
09:16
And it would buildconstruire a workingtravail allianceAlliance with you
224
541000
2000
Et il établirait avec vous un partenariat
09:18
throughpar that dialoguedialogue.
225
543000
2000
par le biais de ce dialogue.
09:20
It could help you setensemble goalsbuts and trackPiste your progressle progrès,
226
545000
2000
Il pourrait vous aider à vous fixer des objectifs et suivre vos progrès,
09:22
and it would help motivatemotiver you.
227
547000
2000
et il vous aiderait à vous motiver.
09:24
So an interestingintéressant questionquestion is,
228
549000
2000
Et donc une question intéressante
09:26
does the socialsocial embodimentréalisation really mattermatière? Does it mattermatière that it's a robotrobot?
229
551000
3000
est de savoir si cette incarnation de la relation sociale a vraiment de l'importance. Est-ce important que ce soit un robot ?
09:29
Is it really just the qualityqualité of adviceConseil and informationinformation that mattersimporte?
230
554000
3000
Est-ce seulement la qualité des conseils et des informations qui compte ?
09:32
To exploreexplorer that questionquestion,
231
557000
2000
Pour résoudre cette question,
09:34
we did a studyétude in the BostonBoston arearégion
232
559000
2000
nous avons fait une étude dans la région de Boston,
09:36
where we put one of threeTrois interventionsinterventions in people'sles gens homesmaisons
233
561000
3000
où nous sommes intervenus chez des gens de l'une de ces trois façons,
09:39
for a periodpériode of severalnombreuses weekssemaines.
234
564000
2000
pendant une période de plusieurs semaines.
09:41
One caseCas was the robotrobot you saw there, AutomAutom.
235
566000
3000
Dans un cas, c'était le robot que vous avez vu, Autom.
09:44
AnotherUn autre was a computerordinateur that rancouru the sameMême touch-screenécran tactile interfaceinterface,
236
569000
3000
Dans l'autre, c'était un ordinateur qui utilisait la même interface tactile,
09:47
rancouru exactlyexactement the sameMême dialoguesDialogues.
237
572000
2000
et établissait exactement les mêmes dialogues.
09:49
The qualityqualité of adviceConseil was identicalidentique.
238
574000
2000
La qualité des conseils était identique.
09:51
And the thirdtroisième was just a penstylo and paperpapier logbûche,
239
576000
2000
Dans le troisième cas, c'était juste un stylo et un carnet de bord,
09:53
because that's the standardla norme interventionintervention you typicallytypiquement get
240
578000
2000
parce que c'est le matériel standard que vous obtenez d'habitude
09:55
when you startdébut a diet-and-exerciseexercice et régime alimentaire programprogramme.
241
580000
3000
quand vous commencez un programme de régime et d'exercices physiques.
09:58
So one of the things we really wanted to look at
242
583000
3000
L'une des choses que nous voulions vraiment examiner
10:01
was not how much weightpoids people lostperdu,
243
586000
3000
était non pas combien de poids les gens avaient perdu,
10:04
but really how long they interactedinteragi with the robotrobot.
244
589000
3000
mais pendant combien de temps ils avaient interagi avec le robot.
10:07
Because the challengedéfi is not losingperdant weightpoids, it's actuallyréellement keepingen gardant it off.
245
592000
3000
Parce que la difficulté n'est pas de perdre du poids, en fait, c'est de ne pas le reprendre.
10:10
And the longerplus long you could interactinteragir with one of these interventionsinterventions,
246
595000
3000
Et plus longtemps vous interagissez avec l'un de ces matériels,
10:13
well that's indicativeIndicatif, potentiallypotentiellement, of longer-termà plus long terme successSuccès.
247
598000
3000
et plus c'est un indicateur potentiel de réussite à long terme.
10:16
So the first thing I want to look at is how long,
248
601000
2000
La première chose que je voulais voir, c'était combien de temps
10:18
how long did people interactinteragir with these systemssystèmes.
249
603000
2000
les gens ont interagi avec ces systèmes.
10:20
It turnsse tourne out that people interactedinteragi with the robotrobot
250
605000
2000
Il s'avère que les gens ont interagi avec le robot
10:22
significantlysignificativement more,
251
607000
2000
sensiblement plus
10:24
even thoughbien que the qualityqualité of the adviceConseil was identicalidentique to the computerordinateur.
252
609000
3000
alors même que la qualité des conseils était identique à ceux de l'ordinateur.
10:28
When it askeda demandé people to ratetaux it on termstermes of the qualityqualité of the workingtravail allianceAlliance,
253
613000
3000
Quand on a demandé aux gens de noter la qualité du partenariat,
10:31
people ratedévalué the robotrobot higherplus haute
254
616000
2000
les gens ont mieux noté le robot
10:33
and they trustedde confiance the robotrobot more.
255
618000
2000
et ils ont accordé plus de confiance au robot.
10:35
(LaughterRires)
256
620000
2000
(Rires)
10:37
And when you look at emotionalémotif engagementengagement,
257
622000
2000
Et quand vous examinez l'implication émotionnelle,
10:39
it was completelycomplètement differentdifférent.
258
624000
2000
c'était tout autre chose.
10:41
People would nameprénom the robotsdes robots.
259
626000
2000
Les gens ont donné des noms aux robots.
10:43
They would dressrobe the robotsdes robots.
260
628000
2000
Ils ont habillé les robots.
10:45
(LaughterRires)
261
630000
2000
(Rires)
10:47
And even when we would come up to pickchoisir up the robotsdes robots at the endfin of the studyétude,
262
632000
3000
Et même, quand nous sommes venus reprendre les robots à la fin de l'étude,
10:50
they would come out to the carvoiture and say good-byeGood-Bye to the robotsdes robots.
263
635000
2000
ils nous ont accompagné jusqu'à la voiture pour dire au revoir aux robots.
10:52
They didn't do this with a computerordinateur.
264
637000
2000
Ils n'ont pas fait ça avec l'ordinateur.
10:54
The last thing I want to talk about todayaujourd'hui
265
639000
2000
La dernière chose dont je veux parler aujourd'hui
10:56
is the futureavenir of children'senfants mediamédias.
266
641000
2000
c'est l'avenir des médias pour enfants.
10:58
We know that kidsdes gamins spenddépenser a lot of time behindderrière screensécrans todayaujourd'hui,
267
643000
3000
Nous savons que les enfants passent beaucoup de temps devant des écrans aujourd'hui,
11:01
whetherqu'il s'agisse it's televisiontélévision or computerordinateur gamesJeux or whatnotainsi de suite.
268
646000
3000
que ce soit la télévision, ou les jeux vidéo, ou autre chose.
11:04
My sonsfils, they love the screenécran. They love the screenécran.
269
649000
3000
Mes fils, ils adorent les écrans. Ils adorent les écrans.
11:07
But I want them to playjouer; as a mommaman, I want them to playjouer,
270
652000
3000
Mais je veux qu'ils jouent ; en tant que maman, je veux qu'ils jouent
11:10
like, real-worldmonde réel playjouer.
271
655000
2000
à des jeux du monde réel.
11:12
And so I have a newNouveau projectprojet in my groupgroupe I wanted to presentprésent to you todayaujourd'hui
272
657000
3000
Et donc, j'ai un nouveau projet, avec mon groupe, que je voulais vous présenter aujourd'hui
11:15
calledappelé PlaytimePlaytime ComputingInformatique
273
660000
2000
et qui s'appelle Playtime Computing
11:17
that's really tryingen essayant to think about how we can take
274
662000
2000
et où il s 'agit vraiment de réfléchir
11:19
what's so engagingengageant about digitalnumérique mediamédias
275
664000
2000
sur ce qui est si attirant dans les médias numériques
11:21
and literallyLittéralement bringapporter it off the screenécran
276
666000
2000
et littéralement le faire sortir de l'écran,
11:23
into the realréal worldmonde of the childenfant,
277
668000
2000
pour entrer dans le monde réel de l'enfant,
11:25
where it can take on manybeaucoup of the propertiesPropriétés of real-worldmonde réel playjouer.
278
670000
3000
où il peut prendre beaucoup des propriétés des jeux du monde réel.
11:29
So here'svoici the first explorationexploration of this ideaidée,
279
674000
4000
Voici le premier développement de cette idée,
11:33
where characterspersonnages can be physicalphysique or virtualvirtuel,
280
678000
3000
où les personnages peuvent être physiques ou virtuels,
11:36
and where the digitalnumérique contentcontenu
281
681000
2000
et où le contenu numérique
11:38
can literallyLittéralement come off the screenécran
282
683000
2000
peut littéralement sortir de l'écran,
11:40
into the worldmonde and back.
283
685000
2000
pour entrer dans le monde et puis y retourner.
11:42
I like to think of this
284
687000
2000
J'aime à penser que ce sera
11:44
as the AtariAtari PongPong
285
689000
2000
comme le Ping-Pong d'Atari
11:46
of this blended-realityréalité mixte playjouer.
286
691000
2000
pour l'avenir de ces jeux de réalité hybride.
11:48
But we can pushpousser this ideaidée furtherplus loin.
287
693000
2000
Mais nous pouvons pousser l'idée plus loin.
11:50
What if --
288
695000
2000
Et si --
11:52
(GameJeu) NathanNathan: Here it comesvient. YayYay!
289
697000
3000
(Jeu) Nathan : Il arrive. Ouais !
11:55
CBCB: -- the characterpersonnage itselfse could come into your worldmonde?
290
700000
3000
CB: -- le personnage lui même pourrait entrer dans ton monde ?
11:58
It turnsse tourne out that kidsdes gamins love it
291
703000
2000
Il s'avère que les enfants adorent ça
12:00
when the characterpersonnage becomesdevient realréal and entersentre dans into theirleur worldmonde.
292
705000
3000
quand le personnage devient réel et qu'il entre dans leur monde.
12:03
And when it's in theirleur worldmonde,
293
708000
2000
Et quand il est dans leur monde,
12:05
they can relaterapporter to it and playjouer with it in a way
294
710000
2000
ils entrent en relation avec lui et jouent avec lui d'une manière
12:07
that's fundamentallyfondamentalement differentdifférent from how they playjouer with it on the screenécran.
295
712000
2000
qui est fondamentalement différente de celle dont ils jouent avec lui sur l'écran.
12:09
AnotherUn autre importantimportant ideaidée is this notionnotion
296
714000
2000
Une autre idée importante est la notion
12:11
of persistencepersistance of characterpersonnage acrossà travers realitiesréalités.
297
716000
3000
de persistance du personnage d'une réalité à l'autre.
12:14
So changeschangements that childrenles enfants make in the realréal worldmonde
298
719000
2000
Les changements que les enfants font dans le monde réel
12:16
need to translateTraduire to the virtualvirtuel worldmonde.
299
721000
2000
doivent se traduire dans le monde virtuel.
12:18
So here, NathanNathan has changedmodifié the letterlettre A to the numbernombre 2.
300
723000
3000
Ici, Nathan a remplacé la lettre A par le chiffre 2.
12:21
You can imagineimaginer maybe these symbolssymboles
301
726000
2000
Vous pouvez imaginer que ces symboles
12:23
give the characterspersonnages specialspécial powerspouvoirs when it goesva into the virtualvirtuel worldmonde.
302
728000
3000
donnent peut-être des pouvoirs spéciaux au personnage quand il retourne dans le monde virtuel.
12:26
So they are now sendingenvoi the characterpersonnage back into that worldmonde.
303
731000
3000
Ils renvoient maintenant le personnage dans le monde virtuel.
12:29
And now it's got numbernombre powerPuissance.
304
734000
3000
Et maintenant il a le chiffre de pouvoir.
12:32
And then finallyenfin, what I've been tryingen essayant to do here
305
737000
2000
Et finalement, ce que j'ai essayé de faire ici,
12:34
is createcréer a really immersiveimmersive experienceexpérience for kidsdes gamins,
306
739000
3000
c'est de créer une véritable expérience d'immersion pour les enfants,
12:37
where they really feel like they are partpartie of that storyrécit,
307
742000
3000
où ils ont vraiment l'impression de faire partie de l'histoire,
12:40
a partpartie of that experienceexpérience.
308
745000
2000
partie de cette expérience.
12:42
And I really want to sparkétincelle theirleur imaginationsimaginations
309
747000
2000
Et je veux vraiment déclencher leurs imaginations
12:44
the way minemien was sparkeddéclenché as a little girlfille watchingen train de regarder "StarStar WarsGuerres."
310
749000
3000
comme la mienne a été déclenchée quand j'étais une petite fille et que je regardais "La guerre des Étoiles".
12:47
But I want to do more than that.
311
752000
2000
Mais je veux faire plus que ça.
12:49
I actuallyréellement want them to createcréer those experiencesexpériences.
312
754000
3000
Je veux en fait qu'ils créent eux-mêmes ces expériences.
12:52
I want them to be ablecapable to literallyLittéralement buildconstruire theirleur imaginationimagination
313
757000
2000
Je veux qu'ils soient capables de littéralement construire leur imagination
12:54
into these experiencesexpériences and make them theirleur ownposséder.
314
759000
2000
dans ces expériences, et qu'ils se les approprient.
12:56
So we'venous avons been exploringexplorant a lot of ideasidées
315
761000
2000
Nous avons donc étudié beaucoup d'idées
12:58
in telepresencetéléprésence and mixedmixte realityréalité
316
763000
2000
dans les domaines de la téléprésence et de la réalité hybride
13:00
to literallyLittéralement allowpermettre kidsdes gamins to projectprojet theirleur ideasidées into this spaceespace
317
765000
3000
pour permettre littéralement aux enfants de projeter leurs idées dans cet espace
13:03
where other kidsdes gamins can interactinteragir with them
318
768000
2000
où d'autres enfants peuvent interagir avec eux
13:05
and buildconstruire uponsur them.
319
770000
2000
et construire avec eux.
13:07
I really want to come up with newNouveau waysfaçons of children'senfants mediamédias
320
772000
3000
Je veux vraiment trouver de nouvelles formes de média pour enfants
13:10
that fosterfavoriser la creativityla créativité and learningapprentissage and innovationinnovation.
321
775000
3000
qui nourrissent la créativité, l'apprentissage et l'innovation.
13:13
I think that's very, very importantimportant.
322
778000
3000
Je pense que c'est très, très important.
13:16
So this is a newNouveau projectprojet.
323
781000
2000
Voilà un nouveau projet.
13:18
We'veNous avons invitedinvité a lot of kidsdes gamins into this spaceespace,
324
783000
2000
Nous avons invité beaucoup d'enfants dans cet espace,
13:20
and they think it's prettyjoli coolcool.
325
785000
3000
et ils trouvent ça plutôt sympa.
13:23
But I can tell you, the thing that they love the mostles plus
326
788000
2000
Mais je peux vous dire, la chose qu'ils préfèrent,
13:25
is the robotrobot.
327
790000
2000
c'est le robot.
13:27
What they carese soucier about is the robotrobot.
328
792000
3000
Ce qui les intéresse, c'est le robot.
13:30
RobotsRobots touchtoucher something deeplyprofondément humanHumain withindans us.
329
795000
3000
Les robots touchent quelque chose de profondément humain en nous.
13:33
And so whetherqu'il s'agisse they're helpingportion us
330
798000
2000
Et donc, qu'ils nous aident
13:35
to becomedevenir creativeCréatif and innovativeinnovant,
331
800000
2000
à devenir créatifs et innovants,
13:37
or whetherqu'il s'agisse they're helpingportion us
332
802000
2000
ou qu'ils nous aident
13:39
to feel more deeplyprofondément connectedconnecté despitemalgré distancedistance,
333
804000
2000
à nous sentir plus profondément connectés malgré la distance,
13:41
or whetherqu'il s'agisse they are our trustedde confiance sidekickSidekick
334
806000
2000
ou qu'ils soient nos comparses fidèles
13:43
who'squi est helpingportion us attainatteindre our personalpersonnel goalsbuts
335
808000
2000
qui nous aident à atteindre nos objectifs personnels,
13:45
in becomingdevenir our highestle plus élevé and bestmeilleur selvesSelves,
336
810000
2000
à devenir ce que nous pouvons être de mieux,
13:47
for me, robotsdes robots are all about people.
337
812000
3000
pour moi, les robots, ce n'est que de l'humain.
13:50
Thank you.
338
815000
2000
Merci
13:52
(ApplauseApplaudissements)
339
817000
5000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Patrick Brault

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com