ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: Der Aufstieg der persönlichen Roboter

Filmed:
1,201,057 views

Als Studentin im Aufbaustudium wunderte sich Cynthia Breazeal, warum wir Roboter zwar auf dem Mars verwenden, nicht aber in unserem Wohnzimmer. Der Angelpunkt: Robotern beizubringen, dass sie mit Menschen interagieren. Nun erdenkt und erbaut sie Roboter, die lehren, lernen – und spielen. Zu sehen gibt es unglaubliche Demo-Aufnahmen eines neuen interaktiven Games für Kinder.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceschon seit I was a little girlMädchen
0
0
3000
Schon als ich noch ein kleines Mädchen war
00:18
seeingSehen "StarSterne WarsKriege" for the first time,
1
3000
2000
und zum ersten Mal „Star Wars“ sah,
00:20
I've been fascinatedfasziniert by this ideaIdee
2
5000
2000
war ich von einer Idee fasziniert,
00:22
of personalpersönlich robotsRoboter.
3
7000
2000
nämlich von den persönlichen Robotern.
00:24
And as a little girlMädchen,
4
9000
2000
Und als ein kleines Mädchen
00:26
I lovedliebte the ideaIdee of a robotRoboter that interactedinteragierte with us
5
11000
2000
gefiel mir die Idee eines Roboters, der mit uns interagieren würde,
00:28
much more like a helpfulhilfreich, trustedVertrauenswürdige sidekickSidekick --
6
13000
3000
vielmehr wie ein hilfreicher, vertrauter Kumpel –
00:31
something that would delightFreude us, enrichbereichern our livesLeben
7
16000
2000
etwas, das uns entzücken würde, unser Leben bereichern würde
00:33
and help us savesparen a galaxyGalaxis or two.
8
18000
3000
und uns dabei helfen würde, die eine oder andere Galaxie zu retten.
00:37
I knewwusste robotsRoboter like that didn't really existexistieren,
9
22000
3000
Ich wusste also, dass solche Roboter nicht wirklich existierten,
00:40
but I knewwusste I wanted to buildbauen them.
10
25000
2000
aber ich wusste, dass ich sie bauen wollte.
00:42
So 20 yearsJahre passbestehen --
11
27000
2000
Und so vergehen 20 Jahre –
00:44
I am now a graduateAbsolvent studentSchüler at MITMIT
12
29000
2000
ich bin nun Studentin im Aufbaustudium am MIT,
00:46
studyingstudieren artificialkünstlich intelligenceIntelligenz,
13
31000
2000
studiere künstliche Intelligenz,
00:48
the yearJahr is 1997,
14
33000
2000
wir schreiben das Jahr 1997
00:50
and NASANASA has just landedgelandet the first robotRoboter on MarsMars.
15
35000
3000
und die Nasa hat gerade den ersten Roboter auf den Mars gebracht.
00:53
But robotsRoboter are still not in our home, ironicallyironisch.
16
38000
3000
Aber ironischerweise gibt es in unserem Zuhause immer noch keine Roboter.
00:56
And I remembermerken thinkingDenken about
17
41000
2000
Und ich erinnere mich daran, über all die Gründe
00:58
all the reasonsGründe dafür why that was the caseFall.
18
43000
2000
nachgedacht zu haben, warum das der Fall war.
01:00
But one really struckgeschlagen me.
19
45000
2000
Aber einer davon ist mir sofort aufgefallen.
01:02
RoboticsRobotik had really been about interactinginteragierend with things,
20
47000
3000
Bei der Robotertechnik war es immer darum gegangen, mit Dingen zu interagieren,
01:05
not with people --
21
50000
2000
nicht mit Menschen –
01:07
certainlybestimmt not in a socialSozial way that would be naturalnatürlich for us
22
52000
2000
mit Sicherheit nicht auf eine soziale Art, die natürlich für uns wäre
01:09
and would really help people acceptakzeptieren robotsRoboter
23
54000
2000
und den Menschen wirklich dabei helfen würde, Roboter zu akzeptieren
01:11
into our dailyTäglich livesLeben.
24
56000
2000
als Bestandteil unseres täglichen Lebens.
01:13
For me, that was the whiteWeiß spacePlatz; that's what robotsRoboter could not do yetnoch.
25
58000
3000
Für mich war das der Leerraum, das war es, was Roboter noch nicht tun konnten.
01:16
And so that yearJahr, I startedhat angefangen to buildbauen this robotRoboter, KismetKismet,
26
61000
3000
In diesem Jahr also begann ich diesen Roboter zu bauen, Kismet,
01:19
the world'sWelt first socialSozial robotRoboter.
27
64000
3000
den ersten sozialen Roboter der Welt
01:22
ThreeDrei yearsJahre laterspäter --
28
67000
2000
Drei Jahre später also –
01:24
a lot of programmingProgrammierung,
29
69000
2000
nach viel Programmierarbeit,
01:26
workingArbeiten with other graduateAbsolvent studentsStudenten in the labLabor --
30
71000
2000
während der ich mit anderen Studenden im Labor zusammenarbeitete –
01:28
KismetKismet was readybereit to startAnfang interactinginteragierend with people.
31
73000
2000
war Kismet dazu bereit, mit Menschen zu interagieren.
01:30
(VideoVideo) ScientistWissenschaftler: I want to showShow you something.
32
75000
2000
(Video) Wissenschaftler: Ich möchte dir etwas zeigen.
01:32
KismetKismet: (NonsenseUnsinn)
33
77000
2000
Kismet: (Unsinn).
01:34
ScientistWissenschaftler: This is a watch that my girlfriendFreundin gavegab me.
34
79000
3000
Wissenschaftler: Das ist die Uhr, die meine Freundin mir geschenkt hat.
01:37
KismetKismet: (NonsenseUnsinn)
35
82000
2000
Kismet: (Unsinn).
01:39
ScientistWissenschaftler: Yeah, look, it's got a little blueblau lightLicht in it too.
36
84000
2000
Wissenschaftler: Hier, sieh mal, da leuchtet auch ein kleines blaues Licht.
01:41
I almostfast losthat verloren it this weekWoche.
37
86000
3000
Ich habe sie diese Woche beinahe verloren.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedinteragierte with people
38
89000
3000
Cynthia Breazeal: Kismet interagierte also mit Menschen,
01:47
like kindArt of a non-verbalnonverbal childKind or pre-verbalPre-verbale childKind,
39
92000
3000
wie ein Kind ohne Worte, oder bevor es Worte lernt
01:50
whichwelche I assumeannehmen was fittingpassend zu because it was really the first of its kindArt.
40
95000
3000
und ich denke, dass das gut passte, denn er war wirklich der erste seiner Art.
01:53
It didn't speaksprechen languageSprache, but it didn't matterAngelegenheit.
41
98000
2000
Er beherrschte keine Sprache, aber das machte nichts.
01:55
This little robotRoboter was somehowirgendwie ablefähig
42
100000
2000
Irgendwie gelang es diesem kleinen Roboter
01:57
to taptippen into something deeplytief socialSozial withininnerhalb us --
43
102000
3000
Eine tief in uns verwurzelte, soziale Ebene anzuzapfen.
02:00
and with that, the promiseversprechen of an entirelyvollständig newneu way
44
105000
2000
Und damit das Versprechen einer ganz neuen Art und Weise,
02:02
we could interactinteragieren with robotsRoboter.
45
107000
2000
wie wir mit Robotern interagieren könnten.
02:04
So over the pastVergangenheit severalmehrere yearsJahre
46
109000
2000
Während der letzten sieben Jahre
02:06
I've been continuingauch weiterhin to exploreerforschen this interpersonalzwischenmenschlichen dimensionDimension of robotsRoboter,
47
111000
2000
fuhr ich damit fort, diese zwischenmenschliche Dimension der Roboter zu erforschen,
02:08
now at the mediaMedien labLabor
48
113000
2000
nun im Media Lab
02:10
with my ownbesitzen teamMannschaft of incrediblyunglaublich talentedtalentiert studentsStudenten.
49
115000
2000
mit meinem eigenen Team unglaublich talentierter Studenten.
02:12
And one of my favoriteFavorit robotsRoboter is LeonardoLeonardo.
50
117000
3000
Und einer meiner liebsten Roboter ist Leonardo.
02:15
We developedentwickelt LeonardoLeonardo in collaborationZusammenarbeit with StanStan WinstonWinston StudioStudio.
51
120000
3000
Wir haben Leonardo in Zusammenarbeit mit dem Stan Winston Studio entwickelt.
02:18
And so I want to showShow you a specialbesondere momentMoment for me of LeoLeo.
52
123000
3000
Und ich möchte Ihnen einen für mich ganz besonderen Moment von Leo zeigen.
02:21
This is MattMatt BerlinBerlin interactinginteragierend with LeoLeo,
53
126000
2000
Das ist Matt Berlin, der mit Leo interagiert,
02:23
introducingeinführen LeoLeo to a newneu objectObjekt.
54
128000
2000
Leo mit einem neuen Objekt vertraut macht.
02:25
And because it's newneu, LeoLeo doesn't really know what to make of it.
55
130000
3000
Und weil es neu ist, weiß Leo noch nichts Rechtes damit anzufangen.
02:28
But sortSortieren of like us, he can actuallytatsächlich learnlernen about it
56
133000
2000
Aber so wie wir, kann er in gewisser Weise etwas darüber lernen,
02:30
from watchingAufpassen Matt'sMatts reactionReaktion.
57
135000
3000
indem er Matts Reaktion beobachtet.
02:33
(VideoVideo) MattMatt BerlinBerlin: HelloHallo, LeoLeo.
58
138000
2000
(Video) Matt Berlin: Hallo Leo.
02:38
LeoLeo, this is CookieCookie MonsterMonster.
59
143000
3000
Leo, das ist das Krümelmonster.
02:44
Can you find CookieCookie MonsterMonster?
60
149000
3000
Kannst du das Krümelmonster finden?
02:52
LeoLeo, CookieCookie MonsterMonster is very badschlecht.
61
157000
3000
Leo, das Krümelmonster ist ganz böse.
02:56
He's very badschlecht, LeoLeo.
62
161000
2000
Es ist ganz böse, Leo.
03:00
CookieCookie MonsterMonster is very, very badschlecht.
63
165000
3000
Das Krümelmonster ist ganz, ganz böse.
03:07
He's a scaryunheimlich monsterMonster-.
64
172000
2000
Es ist ein gruseliges Monster.
03:09
He wants to get your cookiesCookies.
65
174000
2000
Es will deine Kekse stibitzen.
03:12
(LaughterLachen)
66
177000
2000
(Gelächter)
03:14
CBCB: All right, so LeoLeo and CookieCookie
67
179000
3000
CB: In Ordnung, also Leo und Krümelmonster
03:17
mightMacht have gottenbekommen off to a little bitBit of a roughrau startAnfang,
68
182000
2000
hatten wahrscheinlich einen schweren Start,
03:19
but they get alongeine lange great now.
69
184000
3000
aber mittlerweile verstehen sie sich bestens.
03:22
So what I've learnedgelernt
70
187000
2000
Was ich also gelernt habe,
03:24
throughdurch buildingGebäude these systemsSysteme
71
189000
2000
indem ich diese Systeme konstruiert habe,
03:26
is that robotsRoboter are actuallytatsächlich
72
191000
2000
ist, dass Roboter tatsächlich
03:28
a really intriguingfaszinierend socialSozial technologyTechnologie,
73
193000
2000
eine wirklich verblüffende soziale Technologie sind.
03:30
where it's actuallytatsächlich theirihr abilityFähigkeit
74
195000
2000
Dass sie tatsächlich die Fähigkeit besitzen,
03:32
to pushdrücken our socialSozial buttonsKnöpfe
75
197000
2000
uns auf einer sozialen Ebene anzusprechen
03:34
and to interactinteragieren with us like a partnerPartner
76
199000
2000
und mit uns wie ein Partner zu interagieren;
03:36
that is a coreAder partTeil of theirihr functionalityFunktionalität.
77
201000
3000
all das ist Kernbestandteil ihrer Funktionalität.
03:39
And with that shiftVerschiebung in thinkingDenken, we can now startAnfang to imaginevorstellen
78
204000
2000
Und mit dieser Veränderung unserer Denkweise können wir nun damit beginnen,
03:41
newneu questionsFragen, newneu possibilitiesMöglichkeiten for robotsRoboter
79
206000
3000
uns neue Fragen und neue Möglichkeiten für Roboter vorzustellen,
03:44
that we mightMacht not have thought about otherwiseAndernfalls.
80
209000
3000
über die wir sonst nicht nachgedacht hätten.
03:47
But what do I mean when I say "pushdrücken our socialSozial buttonsKnöpfe?"
81
212000
2000
Aber was meine ich damit, wenn ich sage, dass sie „uns auf einer sozialen Ebene ansprechen“?
03:49
Well, one of the things that we'vewir haben learnedgelernt
82
214000
2000
Nun, eines der Dinge, die wir gelernt haben
03:51
is that, if we designEntwurf these robotsRoboter to communicatekommunizieren with us
83
216000
2000
ist, dass wenn wir diese Roboter so designen, dass sie mit uns kommunizieren,
03:53
usingmit the samegleich bodyKörper languageSprache,
84
218000
2000
indem sie dieselbe Körpersprache verwenden,
03:55
the samegleich sortSortieren of non-verbalnonverbal cuesHinweise that people use --
85
220000
2000
dieselbe Art von nonverbalen Zeichen, die Menschen verwenden –
03:57
like NexiNexi, our humanoidHumanoid robotRoboter, is doing here --
86
222000
3000
wie es unser humanoider Roboter Nexi hier zeigt –
04:00
what we find is that people respondreagieren to robotsRoboter
87
225000
2000
dass wir dann sehen, dass die Menschen ähnlich auf Roboter reagieren,
04:02
a lot like they respondreagieren to people.
88
227000
2000
wie sie auf andere Menschen reagieren.
04:04
People use these cuesHinweise to determinebestimmen things like how persuasiveüberzeugende someonejemand is,
89
229000
3000
Menschen verwenden diese Zeichen, um beispielsweise zu bestimmen, wie überzeugend jemand ist,
04:07
how likablesympathische, how engagingansprechend,
90
232000
2000
wie sympathisch, wie einnehmend,
04:09
how trustworthyvertrauenswürdige.
91
234000
2000
wie vertrauenswürdig.
04:11
It turnswendet sich out it's the samegleich for robotsRoboter.
92
236000
2000
Es hat sich herausgestellt, dass das auch für Roboter gilt.
04:13
It's turningDrehen out now
93
238000
2000
Es stellt sich jetzt heraus,
04:15
that robotsRoboter are actuallytatsächlich becomingWerden a really interestinginteressant newneu scientificwissenschaftlich toolWerkzeug
94
240000
3000
dass Roboter in der Tat zu einem wirklich interessanten neuen wissenschaftlichen Werkzeug werden,
04:18
to understandverstehen humanMensch behaviorVerhalten.
95
243000
2000
um menschliches Verhalten zu verstehen.
04:20
To answerAntworten questionsFragen like, how is it that, from a briefkurz encounterBegegnung,
96
245000
3000
Um Fragen zu beantworten, bespielsweise wie es sein kann, dass wir auf Basis einer kurzen Begegnung
04:23
we're ablefähig to make an estimateschätzen of how trustworthyvertrauenswürdige anotherein anderer personPerson is?
97
248000
3000
in der Lage dazu sind, einzuschätzen, wie vertrauenswürdig eine andere Person ist?
04:26
Mimicry'sDie Mimikry believedglaubte to playspielen a roleRolle, but how?
98
251000
3000
Wir glauben, dass Mimikry dabei eine Rolle spielt, aber in welcher Form?
04:29
Is it the mimickingNachahmung of particularinsbesondere gesturesGesten that mattersAngelegenheiten?
99
254000
3000
Ist es das Nachahmen bestimmter Gesten, das den Ausschlag gibt?
04:32
It turnswendet sich out it's really hardhart
100
257000
2000
Es stellt sich heraus, dass es wirklich schwer ist,
04:34
to learnlernen this or understandverstehen this from watchingAufpassen people
101
259000
2000
das zu erlernen oder zu verstehen, wenn man Menschen beobachtet,
04:36
because when we interactinteragieren we do all of these cuesHinweise automaticallyautomatisch.
102
261000
3000
denn wenn wir interagieren, dann verwenden wir all diese Zeichen automatisch.
04:39
We can't carefullyvorsichtig controlsteuern them because they're subconsciousUnterbewusstsein for us.
103
264000
2000
Wir können sie nicht zuverlässig kontrolleren, denn sie geschehen unbewusst für uns.
04:41
But with the robotRoboter, you can.
104
266000
2000
Aber mit einem Roboter ist das möglich.
04:43
And so in this videoVideo here --
105
268000
2000
In diesem Video hier also –
04:45
this is a videoVideo takengenommen from DavidDavid DeSteno'sDeSteno der labLabor at NortheasternNordosten UniversityUniversität.
106
270000
3000
dieses Video wurde in David DeStenos Labor an der Northeastern University aufgenommen.
04:48
He's a psychologistPsychologe we'vewir haben been collaboratingZusammenarbeit with.
107
273000
2000
Er ist ein Psychologe, mit dem wir zusammengearbeitet haben.
04:50
There's actuallytatsächlich a scientistWissenschaftler carefullyvorsichtig controllingControlling Nexi'sNexi cuesHinweise
108
275000
3000
Es gibt hier einen Wissenschaftler, der Nexis Zeichensprache sorgfältig kontrolliert,
04:53
to be ablefähig to studyStudie this questionFrage.
109
278000
3000
um diese Problematik untersuchen zu können.
04:56
And the bottomBoden lineLinie is -- the reasonGrund why this worksWerke is
110
281000
2000
Und das Resultat lautet – der Grund, warum das funktioniert, ist –
04:58
because it turnswendet sich out people just behavesich verhalten like people
111
283000
2000
weil es sich herausstellt, dass Menschen sich einfach wie Menschne verhalten,
05:00
even when interactinginteragierend with a robotRoboter.
112
285000
3000
auch wenn sie mit einem Roboter interagieren.
05:03
So givengegeben that keySchlüssel insightEinblick,
113
288000
2000
Mit dieser Ausschlag gebenden Einsicht
05:05
we can now startAnfang to imaginevorstellen
114
290000
2000
können wir jetzt damit beginnen,
05:07
newneu kindsArten of applicationsAnwendungen for robotsRoboter.
115
292000
3000
uns neue Arten von Anwendungsgebieten für Roboter vorzustellen.
05:10
For instanceBeispiel, if robotsRoboter do respondreagieren to our non-verbalnonverbal cuesHinweise,
116
295000
3000
Zum Beispiel, wenn Roboter auf unsere nonverbalen Zeichen reagieren,
05:13
maybe they would be a coolcool, newneu communicationKommunikation technologyTechnologie.
117
298000
4000
dann wären sie vielleicht eine coole, neue Kommunikationstechnologie.
05:17
So imaginevorstellen this:
118
302000
2000
Stellen Sie sich also vor:
05:19
What about a robotRoboter accessoryZubehör for your cellphoneHandy?
119
304000
2000
Wie wäre es mit einem Roboter-Accessoire für Ihr Handy?
05:21
You call your friendFreund, she putslegt her handsetMobilteil in a robotRoboter,
120
306000
2000
Sie rufen Ihre Freundin an, sie platziert ihren Hörer in einem Roboter
05:23
and, bamBam! You're a MeBotMeBot --
121
308000
2000
und zack!, sind Sie ein MeBot –
05:25
you can make eyeAuge contactKontakt, you can talk with your friendsFreunde,
122
310000
3000
Sie können Augenkontakt aufnehmen, Sie können mit Ihren Freunden sprechen
05:28
you can moveBewegung around, you can gestureGeste --
123
313000
2000
Sie können sich bewegen, Sie können gestikulieren –
05:30
maybe the nextNächster bestBeste thing to really beingSein there, or is it?
124
315000
3000
vielleicht das Zweitbeste nach tatsächlicher Anwesenheit, oder?
05:33
To exploreerforschen this questionFrage,
125
318000
2000
Um diese Problematik zu erforschen
05:35
my studentSchüler, SiggySiggy AdalgeirssonAdalgeirsson, did a studyStudie
126
320000
3000
hat mein Student Siggy Adalgeirsson eine Studie angefertigt,
05:38
where we broughtgebracht humanMensch participantsTeilnehmer, people, into our labLabor
127
323000
3000
in der wir menschliche Teilnehmer, Leute, in unser Labor brachten,
05:41
to do a collaborativekollaborativ taskAufgabe
128
326000
2000
um eine gemeinschaftliche Aufgabe zu erledigen
05:43
with a remoteentfernt collaboratorMitarbeiter.
129
328000
2000
mit einem Remote-Projektmitarbeiter.
05:45
The taskAufgabe involvedbeteiligt things
130
330000
2000
Die Aufgabe beinhaltete Punkte
05:47
like looking at a setSet of objectsObjekte on the tableTabelle,
131
332000
2000
wie die Betrachtung einer Reihe an Gegenständen auf dem Tisch,
05:49
discussingdiskutieren them in termsBegriffe of theirihr importanceBedeutung and relevanceRelevanz to performingAufführung a certainsicher taskAufgabe --
132
334000
3000
über die im Hinblick auf ihre Wichtigkeit und Relevanz zum Ausführen einer bestimmten Aufgabe diskutiert wurde –
05:52
this endedendete up beingSein a survivalÜberleben taskAufgabe --
133
337000
2000
schlussendlich wurde das zu einer Überlebensaufgabe –
05:54
and then ratingBewertung them in termsBegriffe
134
339000
2000
und die sie dann bewerten sollten im Hinblick darauf,
05:56
of how valuablewertvoll and importantwichtig they thought they were.
135
341000
2000
wie wertvoll und wichtig sie ihrer Meinung nach waren.
05:58
The remoteentfernt collaboratorMitarbeiter was an experimenterExperimentator from our groupGruppe
136
343000
3000
Der Remote-Projektmitarbeiter war ein Experimentator aus unserer Gruppe,
06:01
who used one of threedrei differentanders technologiesTechnologien
137
346000
2000
in der sie drei eine von drei verschiedenen Technologien verwendeten,
06:03
to interactinteragieren with the participantsTeilnehmer.
138
348000
2000
um mit den Teilnehmern zu interagieren.
06:05
The first was just the screenBildschirm.
139
350000
2000
Die erste war einfach nur der Bildschirm.
06:07
This is just like videoVideo conferencingConferencing todayheute.
140
352000
3000
Ganz so wie die heutigen Videokonferenzen.
06:10
The nextNächster was to addhinzufügen mobilityMobilität -- so, have the screenBildschirm on a mobileMobile baseBase.
141
355000
3000
Im zweiten Schritt wurde Mobilität hinzugefügt, dabei befand sich der Bildschirm auf einer beweglichen Basis.
06:13
This is like, if you're familiarfamiliär with any of the telepresenceTelepresence robotsRoboter todayheute --
142
358000
3000
Das ist so wie diese Telepräsenz-Roboter heute, wenn Sie die kennen –
06:16
this is mirroringSpiegelung that situationLage.
143
361000
3000
damit wurde so eine Situation widergespiegelt.
06:19
And then the fullyvöllig expressiveexpressive MeBotMeBot.
144
364000
2000
Und dann der vollständig ausdrucksfähige MeBot.
06:21
So after the interactionInteraktion,
145
366000
2000
Nach diesem Experiment
06:23
we askedaufgefordert people to ratePreis theirihr qualityQualität of interactionInteraktion
146
368000
3000
baten wir die Menschen, ihre Qualität der Interaktion zu bewerten
06:26
with the technologyTechnologie, with a remoteentfernt collaboratorMitarbeiter
147
371000
2000
mit der Technologie, mit einem Remote-Projektmitarbeiter,
06:28
throughdurch this technologyTechnologie, in a numberNummer of differentanders waysWege.
148
373000
3000
über diese Technologie auf verschiedene Arten.
06:31
We lookedsah at psychologicalpsychologische involvementBeteiligung --
149
376000
2000
Wir haben uns die psychologische Einbindung angesehen –
06:33
how much empathyEmpathie did you feel for the other personPerson?
150
378000
2000
wie viel Empathie haben Sie für die andere Person gefühlt?
06:35
We lookedsah at overallinsgesamt engagementEngagement.
151
380000
2000
Wir haben uns das allgemeine Engagement angesehen.
06:37
We lookedsah at theirihr desireVerlangen to cooperatekooperieren.
152
382000
2000
Wir haben uns ihren Willen zu kooperieren angesehen.
06:39
And this is what we see when they use just the screenBildschirm.
153
384000
3000
So sieht das aus, wenn sie nur den Bildschirm verwenden.
06:42
It turnswendet sich out, when you addhinzufügen mobilityMobilität -- the abilityFähigkeit to rollrollen around the tableTabelle --
154
387000
3000
Es stellt sich heraus, dass wenn man Mobilität hinzufügt – die Fähigkeit, um den Tisch herum zu rollen –
06:45
you get a little more of a boostBoost.
155
390000
2000
dass man dann einen etwas höheren Anstieg sieht.
06:47
And you get even more of a boostBoost when you addhinzufügen the fullvoll expressionAusdruck.
156
392000
3000
Und man sieht sogar noch einen höheren Anstieg, wenn man die volle Ausdrucksstärke hinzufügt.
06:50
So it seemsscheint like this physicalphysisch, socialSozial embodimentAusführungsform
157
395000
2000
Es scheint also, dass diese physische soziale Verkörperung
06:52
actuallytatsächlich really makesmacht a differenceUnterschied.
158
397000
2000
tatsächlich wirklich einen Unterschied macht.
06:54
Now let's try to put this into a little bitBit of contextKontext.
159
399000
3000
Versuchen wir nun also, das in einen gewissen Kontext einzubinden.
06:57
TodayHeute we know that familiesFamilien are livingLeben furtherdes Weiteren and furtherdes Weiteren apartein Teil,
160
402000
3000
Heute wissen wir, dass Familien immer weiter von einander entfernt leben
07:00
and that definitelybestimmt takes a tollMaut on familyFamilie relationshipsBeziehungen
161
405000
2000
und das fordert definitiv seinen Tribut in Bezug auf die Beziehungen innerhalb der Familie
07:02
and familyFamilie bondsFesseln over distanceEntfernung.
162
407000
2000
und die Zusammengehörigkeit der Familie über Distanz.
07:04
For me, I have threedrei youngjung boysJungen,
163
409000
2000
Was mich angeht, ich habe drei Jungs
07:06
and I want them to have a really good relationshipBeziehung
164
411000
2000
und ich möchte, dass sie ein wirklich gutes Verhältnis
07:08
with theirihr grandparentsGroßeltern.
165
413000
2000
zu ihren Großeltern haben.
07:10
But my parentsEltern liveLeben thousandsTausende of milesMeilen away,
166
415000
2000
Aber meine Eltern leben Tausende von Meilen entfernt,
07:12
so they just don't get to see eachjede einzelne other that oftenhäufig.
167
417000
2000
also sehen sie einander einfach nicht so oft.
07:14
We try SkypeSkype, we try phoneTelefon callsAnrufe,
168
419000
2000
Wir probieren es mit Skype, wir probieren es mit Telefonaten,
07:16
but my boysJungen are little -- they don't really want to talk;
169
421000
2000
aber meine Jungs sind ein bisschen – sie wollen nicht wirklich reden,
07:18
they want to playspielen.
170
423000
2000
sie wollen spielen.
07:20
So I love the ideaIdee of thinkingDenken about robotsRoboter
171
425000
2000
Sie mögen diesen Gedanken, dass Roboter
07:22
as a newneu kindArt of distance-playDistanz-Spiel technologyTechnologie.
172
427000
3000
eine neue Art von Spieletechnologie auf Distanz sind.
07:25
I imaginevorstellen a time not too farweit from now --
173
430000
3000
Ich stelle mir also einen Moment vor, gar nicht so weit in der Zukunft –
07:28
my momMama can go to her computerComputer,
174
433000
2000
meine Mutter kann an ihren Computer gehen,
07:30
openöffnen up a browserBrowser and jackJack into a little robotRoboter.
175
435000
2000
einen Browser öffnen und sich in einen kleinen Roboter einklinken.
07:32
And as grandma-botOma-bot,
176
437000
3000
Und als Oma-Bot
07:35
she can now playspielen, really playspielen,
177
440000
2000
kann sie jetzt spielen, wirklich spielen
07:37
with my sonsSöhne, with her grandsonsEnkel,
178
442000
2000
mit meinen Söhnen, mit ihren Enkelsöhnen,
07:39
in the realecht worldWelt with his realecht toysSpielzeug.
179
444000
3000
in der realen Welt mit echtem Spielzeug.
07:42
I could imaginevorstellen grandmothersGroßmütter beingSein ablefähig to do social-playssoziale-Stücke
180
447000
2000
Ich kann mir vorstellen, dass Großmütter soziale Aktivitäten unternehmen können
07:44
with theirihr granddaughtersEnkelinnen, with theirihr friendsFreunde,
181
449000
2000
mit ihren Enkeltöchtern, mit deren Freunden
07:46
and to be ablefähig to shareAktie all kindsArten of other activitiesAktivitäten around the houseHaus,
182
451000
2000
und alle möglichen Aktivitäten im Haus gemeinsam erleben können,
07:48
like sharingTeilen a bedtimevor dem Schlafengehen storyGeschichte.
183
453000
2000
so als würde man eine Gutenachtgeschichte gemeinsam lesen.
07:50
And throughdurch this technologyTechnologie,
184
455000
2000
Und mit dieser Technologie
07:52
beingSein ablefähig to be an activeaktiv participantTeilnehmer
185
457000
2000
können sie so zum aktiven Teilnehmer
07:54
in theirihr grandchildren'sEnkelkinder livesLeben
186
459000
2000
im Leben ihrer Enkelkinder werden,
07:56
in a way that's not possiblemöglich todayheute.
187
461000
2000
auf eine Weise, wie es heute nicht möglich ist.
07:58
Let's think about some other domainsDomänen,
188
463000
2000
Denken wir einmal an ein paar andere Gebiete,
08:00
like maybe healthGesundheit.
189
465000
2000
Gesundheit zum Beispiel.
08:02
So in the UnitedVereinigte StatesStaaten todayheute,
190
467000
2000
In den Vereinigten Staaten sind heute
08:04
over 65 percentProzent of people are eitherentweder overweightÜbergewicht or obesefettleibig,
191
469000
3000
über 65 Prozent der Menschen entweder übergewichtig oder fettleibig
08:07
and now it's a biggroß problemProblem with our childrenKinder as well.
192
472000
2000
und das ist jetzt auch ein großes Problem bei unseren Kindern.
08:09
And we know that as you get olderälter in life,
193
474000
2000
Und wir wissen, dass mit zunehmendem Alter
08:11
if you're obesefettleibig when you're youngerjünger, that can leadführen to chronicchronische diseasesKrankheiten
194
476000
3000
die Tatsache, dass man als junger Mensch fettleibig war, zu chronischen Krankheiten führen kann,
08:14
that not only reducereduzieren your qualityQualität of life,
195
479000
2000
die nicht nur die Lebensqualität verringern,
08:16
but are a tremendousenorm economicWirtschaftlich burdenBelastung on our healthGesundheit carePflege systemSystem.
196
481000
3000
sondern auch eine unvorstellbare wirtschaftliche Belastung unseres Gesundheitssystems darstellen.
08:19
But if robotsRoboter can be engagingansprechend,
197
484000
2000
Aber wenn Roboter zum Mitmachen anregen,
08:21
if we like to cooperatekooperieren with robotsRoboter,
198
486000
2000
wenn wir gern mit Robotern zusammenarbeiten,
08:23
if robotsRoboter are persuasiveüberzeugende,
199
488000
2000
wenn Roboter überzeugend sind,
08:25
maybe a robotRoboter can help you
200
490000
2000
dann kann ein Roboter einem vielleicht dabei helfen,
08:27
maintainpflegen a dietDiät and exerciseÜbung programProgramm,
201
492000
2000
eine Diät und ein Sportprogramm aufrechtzuerhalten,
08:29
maybe they can help you manageverwalten your weightGewicht.
202
494000
3000
vielleicht kann er einem dabei helfen, sein Gewicht zu managen.
08:32
SortArt of like a digitaldigital JiminyJiminy --
203
497000
2000
So in etwa wie ein digitaler Jiminy Grille –
08:34
as in the well-knownbekannte fairyFee taleGeschichte --
204
499000
2000
aus dem allseits bekannten Märchen –
08:36
a kindArt of friendlyfreundlich, supportiveunterstützend presenceGegenwart that's always there
205
501000
2000
eine Art freundlicher Unterstützer, der stets da ist,
08:38
to be ablefähig to help you make the right decisionEntscheidung
206
503000
2000
um einem dabei zu helfen, die richtige Entscheidung zu treffen,
08:40
in the right way at the right time
207
505000
2000
auf die richtige Art, zur richtigen Zeit,
08:42
to help you formbilden healthygesund habitsGewohnheiten.
208
507000
2000
um einem dabei zu helfen, sich gesunde Gewohnheiten zuzulegen.
08:44
So we actuallytatsächlich explorederforschten this ideaIdee in our labLabor.
209
509000
2000
Wir haben diese Idee dann tatsächlich in unserem Labor erforscht.
08:46
This is a robotRoboter, AutomAutom.
210
511000
2000
Das ist ein Roboter namens Autom.
08:48
CoryCory KiddKidd developedentwickelt this robotRoboter for his doctoralPromotion work.
211
513000
3000
Cory Kidd hat diesen Roboter für seine Doktorarbeit entwickelt.
08:51
And it was designedentworfen to be a robotRoboter diet-and-exerciseDiät und Übung coachTrainer.
212
516000
3000
Und er war als Roboter-Coach für Diät und Sport erschaffen worden.
08:54
It had a couplePaar of simpleeinfach non-verbalnonverbal skillsFähigkeiten it could do.
213
519000
2000
Er hatte ein paar einfache, nonverbale Fähigkeiten, die er ausführen konnte.
08:56
It could make eyeAuge contactKontakt with you.
214
521000
2000
Er konnte Augenkontakt mit einem aufnehmen.
08:58
It could shareAktie informationInformation looking down at a screenBildschirm.
215
523000
2000
Er konnte Informationen mitteilen, indem er auf einen Bildschirm sah.
09:00
You'dSie würde use a screenBildschirm interfaceSchnittstelle to entereingeben informationInformation,
216
525000
2000
Man konnte ein Bildschirm-Interface verwenden, um Informationen einzugeben,
09:02
like how manyviele caloriesKalorien you ate that day,
217
527000
2000
wie viele Kalorien man beispielsweise an diesem Tag gegessen hatte,
09:04
how much exerciseÜbung you got.
218
529000
2000
wie viel Sport man getrieben hatte.
09:06
And then it could help trackSpur that for you.
219
531000
2000
Und dann konnte er einem dabei helfen, das für einen nachzuverfolgen.
09:08
And the robotRoboter spokeSpeiche with a syntheticSynthetik voiceStimme
220
533000
2000
Der Roboter sprach mit einer künstlichen Stimme,
09:10
to engageengagieren you in a coachingCoaching dialogueDialog
221
535000
2000
um einen in ein Beratungsgespräch zu verwickeln,
09:12
modeledmodelliert after trainersTrainer
222
537000
2000
entwickelt auf Basis von Trainern
09:14
and patientsPatienten and so forthher.
223
539000
2000
und Patienten undsoweiter.
09:16
And it would buildbauen a workingArbeiten allianceAllianz with you
224
541000
2000
Und er konnte eine stabile Verbindung mit einemeingehen
09:18
throughdurch that dialogueDialog.
225
543000
2000
über diesen Dialog.
09:20
It could help you setSet goalsTore and trackSpur your progressFortschritt,
226
545000
2000
Er konnte einem dabei Helfen, Ziele zu setzen und den Fortschritt nachzuverfolgen
09:22
and it would help motivatemotivieren you.
227
547000
2000
und würde dabei helfen, einen zu motivieren.
09:24
So an interestinginteressant questionFrage is,
228
549000
2000
Eine interessante Frage ist also,
09:26
does the socialSozial embodimentAusführungsform really matterAngelegenheit? Does it matterAngelegenheit that it's a robotRoboter?
229
551000
3000
ob die soziale Verkörperung wirklich von Bedeutung ist. Ist es von Bedeutung, dass es sich um einen Roboter handelt?
09:29
Is it really just the qualityQualität of adviceRat and informationInformation that mattersAngelegenheiten?
230
554000
3000
Ist es wirklich nur die Qualität der Beratung und Information, die von Bedeutung ist?
09:32
To exploreerforschen that questionFrage,
231
557000
2000
Um diese Frage zu beantworten,
09:34
we did a studyStudie in the BostonBoston areaBereich
232
559000
2000
haben wir eine Studie in Boston durchgeführt,
09:36
where we put one of threedrei interventionsEingriffe in people'sMenschen homesHäuser
233
561000
3000
bei der wir eine von drei Vermittlungstechniken in den Wohnräumen der Menschen
09:39
for a periodPeriode of severalmehrere weeksWochen.
234
564000
2000
über einen Zeitraum von mehreren Wochen installierten.
09:41
One caseFall was the robotRoboter you saw there, AutomAutom.
235
566000
3000
Einerseits handelte es sich dabei um den Roboter Autom, den sie hier gesehen haben.
09:44
AnotherEin weiterer was a computerComputer that ranlief the samegleich touch-screenTouch-screen interfaceSchnittstelle,
236
569000
3000
Andererseits gab es einen Computer, der dasselbe Touchscreen-Interface hatte
09:47
ranlief exactlygenau the samegleich dialoguesDialoge.
237
572000
2000
und bei dem genau dieselben Dialoge abliefen.
09:49
The qualityQualität of adviceRat was identicalidentisch.
238
574000
2000
Die Qualität der Beratung war identisch.
09:51
And the thirddritte was just a penStift and paperPapier- logLog,
239
576000
2000
Und die dritte Möglichkeit war ein einfaches Tagebuch mit Zettel und Stift,
09:53
because that's the standardStandard interventionIntervention you typicallytypischerweise get
240
578000
2000
denn das ist die Standard-Methode, die man normalerweise verwendet,
09:55
when you startAnfang a diet-and-exerciseDiät und Übung programProgramm.
241
580000
3000
wenn man ein Diät- und Sportprogramm beginnt.
09:58
So one of the things we really wanted to look at
242
583000
3000
Eine der Sachen, die wir uns wirklich ansehen wollten,
10:01
was not how much weightGewicht people losthat verloren,
243
586000
3000
war nicht, wie viel Gewicht die Menschen verlieren würden,
10:04
but really how long they interactedinteragierte with the robotRoboter.
244
589000
3000
sondern wie lange sie mit dem Roboter interagieren würden.
10:07
Because the challengeHerausforderung is not losingverlieren weightGewicht, it's actuallytatsächlich keepinghalten it off.
245
592000
3000
Denn die Herausforderung besteht nicht darin, Gewicht zu verlieren, sondern eher darin, diesen Status dann zu halten.
10:10
And the longerlänger you could interactinteragieren with one of these interventionsEingriffe,
246
595000
3000
Und je nachdem, ob man sich länger mit einem dieser Vermittler beschäftigen konnte,
10:13
well that's indicativeindikativ, potentiallymöglicherweise, of longer-termlängerfristige successErfolg.
247
598000
3000
war das ein potenzielles Indiz für einen Langzeiterfolg.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Die erste Sache, die ich untersuchen wollte, war wie lange
10:18
how long did people interactinteragieren with these systemsSysteme.
249
603000
2000
die Menschen mit diesen Systemen interagierten.
10:20
It turnswendet sich out that people interactedinteragierte with the robotRoboter
250
605000
2000
Es stellte sich heraus, dass die Leute mit dem Roboter
10:22
significantlybedeutend more,
251
607000
2000
deutlich länger agierten,
10:24
even thoughobwohl the qualityQualität of the adviceRat was identicalidentisch to the computerComputer.
252
609000
3000
obwohl die Qualität der Beratung identisch mit der des Computers war.
10:28
When it askedaufgefordert people to ratePreis it on termsBegriffe of the qualityQualität of the workingArbeiten allianceAllianz,
253
613000
3000
Als es die Menschen bat, es im Hinblick auf die Qualität der stabilen Verbindung,
10:31
people ratedbewertet the robotRoboter higherhöher
254
616000
2000
dann wurde der Roboter besser bewertet
10:33
and they trustedVertrauenswürdige the robotRoboter more.
255
618000
2000
und sie vertrautem dem Roboter mehr.
10:35
(LaughterLachen)
256
620000
2000
(Gelächter)
10:37
And when you look at emotionalemotional engagementEngagement,
257
622000
2000
Und wenn man sich die emotionale Bindung ansieht,
10:39
it was completelyvollständig differentanders.
258
624000
2000
war es komplett anders.
10:41
People would nameName the robotsRoboter.
259
626000
2000
Die Menschen gaben den Robotern Namen.
10:43
They would dressKleid the robotsRoboter.
260
628000
2000
Sie haben sie angekleidet.
10:45
(LaughterLachen)
261
630000
2000
(Gelächter)
10:47
And even when we would come up to pickwähle up the robotsRoboter at the endEnde of the studyStudie,
262
632000
3000
Und als wir kamen, um die Roboter am Ender der Studie abzuholen,
10:50
they would come out to the carAuto and say good-byeGood-Bye to the robotsRoboter.
263
635000
2000
kamen sie sogar mit zum Auto und verabschiedeten sich von den Robotern
10:52
They didn't do this with a computerComputer.
264
637000
2000
Mit einem Computer haben sie das nicht gemacht.
10:54
The last thing I want to talk about todayheute
265
639000
2000
Die letzte Sache, über die ich heute sprechen möchte,
10:56
is the futureZukunft of children'sKinder- mediaMedien.
266
641000
2000
ist die Zukunft der Medien für Kinder.
10:58
We know that kidsKinder spendverbringen a lot of time behindhinter screensBildschirme todayheute,
267
643000
3000
Wir wissen, dass Kinder heutzutage eine Menge Zeit vor Bildschirmen verbringen,
11:01
whetherob it's televisionFernsehen or computerComputer gamesSpiele or whatnotDingsbums.
268
646000
3000
ob das nun der Fernseher, oder ein Computerspiel, oder was auch immer sonst ist.
11:04
My sonsSöhne, they love the screenBildschirm. They love the screenBildschirm.
269
649000
3000
Meine Söhne lieben den Bildschirm. Sie lieben den Bildschirm.
11:07
But I want them to playspielen; as a momMama, I want them to playspielen,
270
652000
3000
Aber ich möchte, dass sie spielen; als ihre Mutter möchte ich, dass sie spielen,
11:10
like, real-worldechte Welt playspielen.
271
655000
2000
in der realen Welt spielen.
11:12
And so I have a newneu projectProjekt in my groupGruppe I wanted to presentGeschenk to you todayheute
272
657000
3000
Und deshalb gibt es in meiner Gruppe ein neues Projekt, das ich Ihnen heute präsentieren möchte,
11:15
callednamens PlaytimeSpielzeit ComputingComputing
273
660000
2000
es heißt Playtime Computing,
11:17
that's really tryingversuchen to think about how we can take
274
662000
2000
bei dem es darum geht, zu versuchen darüber nachzudenken,
11:19
what's so engagingansprechend about digitaldigital mediaMedien
275
664000
2000
was an digitalen Medien so vereinnahmend ist
11:21
and literallybuchstäblich bringbringen it off the screenBildschirm
276
666000
2000
und es sprichwörtlich vom Bildschirm wegzunehmen,
11:23
into the realecht worldWelt of the childKind,
277
668000
2000
in die reale Welt des Kindes zu integrieren,
11:25
where it can take on manyviele of the propertiesEigenschaften of real-worldechte Welt playspielen.
278
670000
3000
wo es viele Eigenschaften des Spielens in der echten Welt übernehmen kann.
11:29
So here'shier ist the first explorationErkundung of this ideaIdee,
279
674000
4000
Hier sehen wir also die erste Herangehensweise an diese Idee,
11:33
where charactersFiguren can be physicalphysisch or virtualvirtuell,
280
678000
3000
bei der Charaktere physisch oder virtuell anwesend sein können
11:36
and where the digitaldigital contentInhalt
281
681000
2000
und bei der digitale Inhalte
11:38
can literallybuchstäblich come off the screenBildschirm
282
683000
2000
sprichwörtlich aus dem Bildschirm herauskommen,
11:40
into the worldWelt and back.
283
685000
2000
in die reale Welt und wieder zurück.
11:42
I like to think of this
284
687000
2000
Ich sehe das gern
11:44
as the AtariAtari PongPong
285
689000
2000
wie das Pong von Atari
11:46
of this blended-realitygemischt-Realität playspielen.
286
691000
2000
dieses Spiels mit überschneidenden Realitäten.
11:48
But we can pushdrücken this ideaIdee furtherdes Weiteren.
287
693000
2000
Aber wir können diese Idee noch weiter vorantreiben
11:50
What if --
288
695000
2000
Was wäre, wenn –
11:52
(GameSpiel) NathanNathan: Here it comeskommt. YayYay!
289
697000
3000
(Spiel) Nathan: Da kommt er. Juhu!
11:55
CBCB: -- the characterCharakter itselfselbst could come into your worldWelt?
290
700000
3000
CB: – der Charakter selbst in unsere Welt kommen könnte?
11:58
It turnswendet sich out that kidsKinder love it
291
703000
2000
Es stellt sich heraus, dass Kinder es lieben
12:00
when the characterCharakter becomeswird realecht and enterstritt ein into theirihr worldWelt.
292
705000
3000
wenn ein Charakter real wird und ihre Welt betritt.
12:03
And when it's in theirihr worldWelt,
293
708000
2000
Und wenn er in ihrer Welt ist,
12:05
they can relatesich beziehen to it and playspielen with it in a way
294
710000
2000
dann können sie eine Beziehung mit ihm aufbauen und mit ihm ganz anders spielen,
12:07
that's fundamentallygrundlegend differentanders from how they playspielen with it on the screenBildschirm.
295
712000
2000
als sie mit ihm auf dem Bildschirm spielen würden.
12:09
AnotherEin weiterer importantwichtig ideaIdee is this notionBegriff
296
714000
2000
Eine andere wichtige Idee ist diese Vorstellung
12:11
of persistenceAusdauer of characterCharakter acrossüber realitiesRealitäten.
297
716000
3000
der realitätsübergreifenden Persistenz des Charakters.
12:14
So changesÄnderungen that childrenKinder make in the realecht worldWelt
298
719000
2000
Also müssen Änderungen, welche die Kinder in der realen Welt vornehmen,
12:16
need to translateÜbersetzen to the virtualvirtuell worldWelt.
299
721000
2000
in die virtuelle Welt übersetzt werden.
12:18
So here, NathanNathan has changedgeändert the letterBrief A to the numberNummer 2.
300
723000
3000
Hier also ändert Nathan den Buchstaben A in die Ziffer 2.
12:21
You can imaginevorstellen maybe these symbolsSymbole
301
726000
2000
Man kann sich vorstellen, dass diese Symbole
12:23
give the charactersFiguren specialbesondere powersKräfte when it goesgeht into the virtualvirtuell worldWelt.
302
728000
3000
den Charakteren besondere Fähigkeiten in der virtuellen Welt geben.
12:26
So they are now sendingSenden the characterCharakter back into that worldWelt.
303
731000
3000
Jetzt schicken sie also den Charakter zurück in diese Welt.
12:29
And now it's got numberNummer powerLeistung.
304
734000
3000
Und jetzt hat er die besondere Fähigkeit dieser Ziffer.
12:32
And then finallyendlich, what I've been tryingversuchen to do here
305
737000
2000
Was ich hier schlussendlich versucht habe zu tun,
12:34
is createerstellen a really immersiveimmersive experienceErfahrung for kidsKinder,
306
739000
3000
das ist die Erschaffung einer wirklich einbindenden Erfahrung für Kinder,
12:37
where they really feel like they are partTeil of that storyGeschichte,
307
742000
3000
bei der sie sich wirklich wie ein Teil der Geschichte fühlen können,
12:40
a partTeil of that experienceErfahrung.
308
745000
2000
ein Teil dieser Erfahrung.
12:42
And I really want to sparkFunke theirihr imaginationsPhantasien
309
747000
2000
Und ich möchte dabei ihre Fantasie so anregen,
12:44
the way mineBergwerk was sparkedentfacht as a little girlMädchen watchingAufpassen "StarSterne WarsKriege."
310
749000
3000
so wie meine als kleines Mädchen angeregt wurde, als ich „Star Wars“ sah.
12:47
But I want to do more than that.
311
752000
2000
Aber ich möchte mehr tun als das.
12:49
I actuallytatsächlich want them to createerstellen those experiencesErfahrungen.
312
754000
3000
Ich möchte, dass sie ihre Erfahrungen selbst erschaffen.
12:52
I want them to be ablefähig to literallybuchstäblich buildbauen theirihr imaginationPhantasie
313
757000
2000
Ich möchte, dass sie sprichwörtlich dazu in der Lage sind, ihrer Fantasie freien Lauf zu lassen
12:54
into these experiencesErfahrungen and make them theirihr ownbesitzen.
314
759000
2000
in diesen Erfahrungen und sie so zu ihren eigenen zu machen.
12:56
So we'vewir haben been exploringErkundung a lot of ideasIdeen
315
761000
2000
Wir haben verschiedene Ideen dazu erforscht,
12:58
in telepresenceTelepresence and mixedgemischt realityWirklichkeit
316
763000
2000
mit Telepräsenz und in einander greifenden Realitäten,
13:00
to literallybuchstäblich allowzulassen kidsKinder to projectProjekt theirihr ideasIdeen into this spacePlatz
317
765000
3000
um Kindern sprichwörtlich zu erlauben, ihre Ideen in diesen Raum zu projektieren,
13:03
where other kidsKinder can interactinteragieren with them
318
768000
2000
in dem andere Kinder mit ihnen interagieren können
13:05
and buildbauen uponauf them.
319
770000
2000
und darauf aufbauen können.
13:07
I really want to come up with newneu waysWege of children'sKinder- mediaMedien
320
772000
3000
Ich möchte wirklich neue Wege erschließen mit Medien für Kinder,
13:10
that fosterfördern creativityKreativität and learningLernen and innovationInnovation.
321
775000
3000
die Kreativität, Lernprozesse und Innovation fördern.
13:13
I think that's very, very importantwichtig.
322
778000
3000
Ich denke, dass das sehr, sehr wichtig ist.
13:16
So this is a newneu projectProjekt.
323
781000
2000
Das ist also ein neues Projekt
13:18
We'veWir haben invitedeingeladen a lot of kidsKinder into this spacePlatz,
324
783000
2000
Wir haben viele Kinder in diesen Raum eingeladen
13:20
and they think it's prettyziemlich coolcool.
325
785000
3000
und sie denken, dass das ziemlich cool ist.
13:23
But I can tell you, the thing that they love the mostdie meisten
326
788000
2000
Aber ich kann Ihnen sagen, dass das, was sie am besten fanden,
13:25
is the robotRoboter.
327
790000
2000
der Roboter war.
13:27
What they carePflege about is the robotRoboter.
328
792000
3000
Es ist der Roboter, für den sie sich interessieren.
13:30
RobotsRoboter touchberühren something deeplytief humanMensch withininnerhalb us.
329
795000
3000
Roboter berühren etwas zutiefst Menschliches in uns.
13:33
And so whetherob they're helpingPortion us
330
798000
2000
Ob sie uns dabei helfen,
13:35
to becomewerden creativekreativ and innovativeinnovativ,
331
800000
2000
kreativ und innovativ zu sein,
13:37
or whetherob they're helpingPortion us
332
802000
2000
oder ob sie uns dabei helfen,
13:39
to feel more deeplytief connectedin Verbindung gebracht despiteTrotz distanceEntfernung,
333
804000
2000
dass wir uns trotz Distanz stärker verbunden fühlen,
13:41
or whetherob they are our trustedVertrauenswürdige sidekickSidekick
334
806000
2000
oder ob sie unser vertrauter Kumpel sind,
13:43
who'swer ist helpingPortion us attainzu erreichen our personalpersönlich goalsTore
335
808000
2000
der uns dabei hilft, unsere persönlichen Ziele zu erreichen,
13:45
in becomingWerden our highesthöchste and bestBeste selvesselbst,
336
810000
2000
das Beste aus unserem Selbst zu machen;
13:47
for me, robotsRoboter are all about people.
337
812000
3000
für mich geht es bei Robotern vor allem um Menschen.
13:50
Thank you.
338
815000
2000
Vielen Dank.
13:52
(ApplauseApplaus)
339
817000
5000
(Applaus)
Reviewed by Lex Asobo

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com