ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

Leila Takayama: Robot olmak nasıl bir şey?

Filmed:
1,183,118 views

Halihazırda robotlarla yaşıyoruz: Bulaşık makinesi ve termostat gibi aletler hayatımıza o kadar dahil olmuş durumda ki onları robot olarak adlandırmak aklımızdan bile geçmiyor. Sosyal bilimci Leila Takayama insan-robot etkileşimlerini tasarlarken karşılaştıkları özgün sorunları ve robotik özellikleri deneyimlemenin kendimizi anlamada nasıl rol oynadığını bizlerle paylaşıyor.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chanceşans
to make a first impressionizlenim,
0
760
2656
İlk izlenim oluşturmak için
sadece bir şansınız vardır
00:15
and that's truedoğru if you're a robotrobot
as well as if you're a personkişi.
1
3440
3176
ve bu insansanız da
robotsanız da böyledir.
00:18
The first time that I metmet
one of these robotsrobotlar
2
6640
3016
Bu robotlardan biriyle ilk tanışmam
00:21
was at a placeyer
calleddenilen WillowWillow GarageGaraj in 2008.
3
9680
2896
2008'de Willow Garage
adlı bir mekandaydı.
00:24
When I wentgitti to visitziyaret etmek there,
my hostevsahibi walkedyürüdü me into the buildingbina
4
12600
3016
Oraya ziyarete gittiğimde
ev sahibiyle binaya girdik
00:27
and we metmet this little guy.
5
15640
1576
ve bu küçük adamla tanıştım.
00:29
He was rollingyuvarlanan into the hallwaykoridor,
6
17240
1656
Koridorda dolanıyordu,
00:30
camegeldi up to me, satoturdu there,
7
18920
1816
yanıma geldi, oturdu
00:32
staredbaktı blanklyboş boş pastgeçmiş me,
8
20760
2256
ve boş boş arkama baktı,
00:35
did nothing for a while,
9
23040
1656
bir süre hiçbir şey yapmadı,
00:36
rapidlyhızla spunbükülmüş his headkafa around 180 degreesderece
10
24720
1936
hızlıca başını 180 derece döndürdü
00:38
and then ranran away.
11
26680
1536
ve sonra kaçtı.
00:40
And that was not a great first impressionizlenim.
12
28240
2176
Bu iyi bir ilk izlenim değildi.
00:42
The thing that I learnedbilgili
about robotsrobotlar that day
13
30440
2176
O gün robotlarla ilgili öğrendiğim şey,
00:44
is that they kindtür of do theironların ownkendi thing,
14
32640
2176
kendilerine has davranışları olduğu
00:46
and they're not totallybütünüyle awarefarkında of us.
15
34840
2136
ve tam olarak farkımızda olmadıkları.
00:49
And I think as we're experimentingdeneme
with these possiblemümkün robotrobot futuresvadeli işlem,
16
37000
3239
Bence, muhtemel
robot özelliklerini denerken
00:52
we actuallyaslında endson up learningöğrenme
a lot more about ourselveskendimizi
17
40263
2673
bu makinelerin
karşıtı olan kendimiz hakkında
00:54
as opposedkarşıt to just these machinesmakineler.
18
42960
1656
çok fazla şey öğreniyoruz.
00:56
And what I learnedbilgili that day
19
44640
1336
O gün öğrendiğim şeyse,
00:58
was that I had prettygüzel highyüksek
expectationsbeklentileri for this little dudedostum.
20
46000
3416
küçük dostumuzdan
çok fazla beklentim olduğuydu.
01:01
He was not only supposedsözde to be ableyapabilmek
to navigategezinmek the physicalfiziksel worldDünya,
21
49440
3176
Sadece fiziksel dünyayı değil,
01:04
but alsoAyrıca be ableyapabilmek
to navigategezinmek my socialsosyal worldDünya --
22
52640
2656
benim sosyal dünyamı da saptamalıydı --
01:07
he's in my spaceuzay; it's a personalkişisel robotrobot.
23
55320
2176
benim alanımda; o kişisel bir robot.
01:09
wWhywWhy didn't it understandanlama me?
24
57520
2016
Neden beni anlamadı?
01:11
My hostevsahibi explainedaçıkladı to me,
25
59560
1256
Ev sahibi: "Robot A noktasından
B noktasına gitmeye çalışıyor,
01:12
"Well, the robotrobot is tryingçalışıyor
to get from pointpuan A to pointpuan B,
26
60840
3176
sen de onun yolundaki bir engeldin
01:16
and you were an obstacleengel in his way,
27
64040
1776
ve nereye gideceğini bulması,
01:17
so he had to replanyeniden planlamak his pathyol,
28
65840
2016
rotasını tekrar planlaması,
sonra oraya
başka bir yoldan gitmesi gerek."
01:19
figureşekil out where to go,
29
67880
1256
01:21
and then get there some other way,"
30
69160
1696
diye açıkladı.
01:22
whichhangi was actuallyaslında
not a very efficientverimli thing to do.
31
70880
2456
Aslında bu pek etkili
bir davranış değildi.
01:25
If that robotrobot had figuredanladım out
that I was a personkişi, not a chairsandalye,
32
73360
3256
Eğer o robot, bir sandalye değil de
insan olduğumun
ve bir yere ulaşmaya çalıştığında
01:28
and that I was willingistekli
to get out of its way
33
76640
2096
yolundan çekilmeye
istekli olduğumun farkına varsaydı,
01:30
if it was tryingçalışıyor to get somewherebir yerde,
34
78760
1656
eğer insan olduğumu
ve sandalye, duvar gibi şeylerden
01:32
then it actuallyaslında
would have been more efficientverimli
35
80440
2216
01:34
at gettingalma its job donetamam
36
82680
1256
farklı kabiliyetlerim olduğunu
01:35
if it had botheredrahatsız
to noticeihbar that I was a humaninsan
37
83960
2216
fark etme zahmetine girseydi,
01:38
and that I have differentfarklı affordancesaffordances
than things like chairssandalye and wallsduvarlar do.
38
86200
3576
işini yerine getirmede daha etkili olurdu.
01:41
You know, we tendeğiliminde to think of these robotsrobotlar
as beingolmak from outerdış spaceuzay
39
89800
3216
Robotları uzaydan gelme,
geleceğe ait, bilim kurguya ait gibi
düşünme eğilimimiz var.
01:45
and from the futuregelecek
and from scienceBilim fictionkurgu,
40
93040
2136
01:47
and while that could be truedoğru,
41
95200
1416
Bu doğru olabilirken
sizinle robotların bugün burada olduğunu,
01:48
I'd actuallyaslında like to arguetartışmak
that robotsrobotlar are here todaybugün,
42
96640
2656
aramızda yaşadıklarını
ve çalıştıklarını konuşmak istiyorum.
01:51
and they livecanlı and work
amongstarasında us right now.
43
99320
2776
01:54
These are two robotsrobotlar that livecanlı in my home.
44
102120
2856
Evimde yaşayan iki robot var.
01:57
They vacuumvakum the floorskatlar
and they cutkesim the grassçimen
45
105000
2496
Her gün
evi süpürüp çimenleri biçiyorlar.
01:59
everyher singletek day,
46
107520
1216
02:00
whichhangi is more than I would do
if I actuallyaslında had time to do these tasksgörevler,
47
108760
3376
Doğrusu bu, eğer vaktim olsa
benim yapacağımdan daha fazlası
02:04
and they probablymuhtemelen
do it better than I would, too.
48
112160
2336
ve muhtemelen benden daha iyi yapıyorlar.
02:06
This one actuallyaslında takes carebakım of my kittypisi.
49
114520
2496
Bu aslında kedimle ilgileniyor.
02:09
EveryHer singletek time
he useskullanımları the boxkutu, it cleanstemizler it,
50
117040
2576
Her kabı kullandığında temizliyor,
02:11
whichhangi is not something I'm willingistekli to do,
51
119640
1976
ki bu yapmaya can attığım bir şey değil
ve onun hayatını da
en az benimki kadar kolaylaştırıyor.
02:13
and it actuallyaslında makesmarkaları
his life better as well as mineMayın.
52
121640
2576
02:16
And while we call these robotrobot productsÜrünler --
53
124240
2416
Bu robotları
"robot elektrikli süpürge,
02:18
it's a "robotrobot vacuumvakum cleanertemizleyici,
it's a robotrobot lawnmowerÇim biçme makinesi,
54
126680
2696
robot çim biçme makinesi,
robot kedi kumluğu"
02:21
it's a robotrobot littlerdaha küçük boxkutu,"
55
129400
1495
diye adlandırırken
02:22
I think there's actuallyaslında a bunchDemet
of other robotsrobotlar hidinggizleme in plainsade sightgörme
56
130919
4137
bence gözümüzün önünde saklanan
02:27
that have just becomeolmak so darniğne ile örerek onarmak usefulişe yarar
57
135080
1856
çok kullanışlı ve çok sıradan
02:28
and so darniğne ile örerek onarmak mundanedünyevi
58
136960
1456
bir sürü robot var.
Onlara "bulaşık makinesi" gibi
isimler takmışız, değil mi?
02:30
that we call them things
like, "dishwasherBulaşık makinesi," right?
59
138440
2496
02:32
They get newyeni namesisimler.
60
140960
1216
Yeni isimleri var.
02:34
They don't get calleddenilen robotrobot anymoreartık
61
142200
1696
Robot olarak adlandırılmıyorlar
çünkü hayatımızda
bir amaca hizmet ediyorlar.
02:35
because they actuallyaslında
serveservis a purposeamaç in our liveshayatları.
62
143920
2416
Aynı termostat gibi, değil mi?
02:38
SimilarlyBenzer şekilde, a thermostattermostat, right?
63
146360
1496
02:39
I know my roboticsRobotik friendsarkadaşlar out there
64
147880
1776
Bunu duyan robot arkadaşlarım
muhtemelen onu bir robot olarak
adlandırdığım için tüyleri ürperdi
02:41
are probablymuhtemelen cringingyalaka
at me callingçağrı this a robotrobot,
65
149680
2336
02:44
but it has a goalhedef.
66
152040
1256
ama onun da bir amacı var.
02:45
Its goalhedef is to make my houseev
66 degreesderece FahrenheitFahrenheit,
67
153320
2896
Amacı evimi 18 derecede tutmak
02:48
and it sensesduyular the worldDünya.
68
156240
1256
ve dünyayı hissedebiliyor.
02:49
It knowsbilir it's a little bitbit coldsoğuk,
69
157520
1576
Birazcık soğuk olduğunu bilebiliyor,
02:51
it makesmarkaları a planplan and then
it actseylemler on the physicalfiziksel worldDünya.
70
159120
2616
bir plan yapıp sonra hayata geçirebiliyor.
Bu robot bilim.
02:53
It's roboticsRobotik.
71
161760
1256
Robot Rosie gibi görünmese de
02:55
Even if it mightbelki not
look like RosieRosie the RobotRobot,
72
163040
2576
02:57
it's doing something
that's really usefulişe yarar in my life
73
165640
2936
hayatımda çok faydalı bir iş yapıyor,
03:00
so I don't have to take carebakım
74
168600
1376
böylece ısıyı kendim ayarlamakla
03:02
of turningdöndürme the temperaturesıcaklık
up and down myselfkendim.
75
170000
2576
uğraşmak zorunda kalmıyorum.
03:04
And I think these systemssistemler
livecanlı and work amongstarasında us now,
76
172600
3816
Bence bu sistemler
aramızda yaşıyor ve çalışıyor.
03:08
and not only are these systemssistemler
livingyaşam amongstarasında us
77
176440
2336
Ve sadece aramızda yaşamakla kalmıyorlar,
03:10
but you are probablymuhtemelen
a robotrobot operatorOperatör, too.
78
178800
2656
muhtemelen siz de
bir robot kullanıcısısınız.
03:13
When you drivesürücü your cararaba,
79
181480
1256
Arabanızı kullanırken
03:14
it feelshissediyor like you are operatingişletme machinerymakinalar.
80
182760
2216
bir makineyi kullandığınızı
hissediyorsunuz.
03:17
You are alsoAyrıca going
from pointpuan A to pointpuan B,
81
185000
2816
Ayrıca A noktasından
B noktasına gidiyorsunuz
ama muhtemelen arabanızın
hidrolik direksiyonu,
03:19
but your cararaba probablymuhtemelen has powergüç steeringyönetim,
82
187840
2216
03:22
it probablymuhtemelen has automaticOtomatik brakingfrenleme systemssistemler,
83
190080
2696
otomatik fren sistemi,
03:24
it mightbelki have an automaticOtomatik transmissiontransmisyon
and maybe even adaptiveadaptif cruiseCruise controlkontrol.
84
192800
3736
otomatik vitesi hatta uyarlanabilir
seyir kontrolü bile olabilir.
03:28
And while it mightbelki not be
a fullytamamen autonomousözerk cararaba,
85
196560
2936
Tamamen otonom olmasa bile
03:31
it has bitsbit of autonomyözerklik,
86
199520
1296
otonom parçaları var,
03:32
and they're so usefulişe yarar
87
200840
1336
faydalılar
ve daha güvenli
sürüş yapmamızı sağlıyorlar
03:34
and they make us drivesürücü saferdaha güvenli,
88
202200
1816
03:36
and we just sortçeşit of feel
like they're invisible-in-usegörünmez kullanımda, right?
89
204040
3656
ama kullanırken görünmezlermiş gibi
hissediyoruz, değil mi?
03:39
So when you're drivingsürme your cararaba,
90
207720
1576
Arabanızı sürerken
03:41
you should just feel like
you're going from one placeyer to anotherbir diğeri.
91
209320
3096
bir yerden başka bir yere
gidiyormuş gibi hissetmelisiniz.
İdare etmeniz, kullanmanız ve kontrolleri
kullanmayı öğrenmeniz gereken
03:44
It doesn't feel like it's this bigbüyük thing
that you have to dealanlaştık mı with and operateişletmek
92
212440
3736
koca şey gibi hissettirmiyor
03:48
and use these controlskontroller
93
216200
1256
03:49
because we spentharcanmış so long
learningöğrenme how to drivesürücü
94
217480
2176
çünkü nasıl sürüleceğini öğrenmek için
o kadar çok zaman harcıyoruz ki
03:51
that they'veonlar ettik becomeolmak
extensionsuzantıları of ourselveskendimizi.
95
219680
2696
bir uzvumuz haline geliyorlar.
03:54
When you parkpark that cararaba
in that tightsıkı little garagegaraj spaceuzay,
96
222400
2696
Arabanı küçücük dar
garaj alanına park ederken
03:57
you know where your cornersköşeleri are.
97
225120
1576
köşelerinin farkında oluyorsun.
03:58
And when you drivesürücü a rentalKiralama cararaba
that maybe you haven'tyok driventahrik before,
98
226720
3256
Daha önce sürmediğin
bir kiralık aracı sürerken
yeni robot bedenine alışman
biraz zaman alıyor.
04:02
it takes some time
to get used to your newyeni robotrobot bodyvücut.
99
230000
3056
Bu diğer robot türlerini kullanan
insanlar için de geçerli,
04:05
And this is alsoAyrıca truedoğru for people
who operateişletmek other typestürleri of robotsrobotlar,
100
233080
3976
sizlerle bununla ilgili birkaç
hikaye paylaşmak istiyorum.
04:09
so I'd like to sharepay with you
a fewaz storieshikayeleri about that.
101
237080
2600
04:12
Dealingİlgili with the problemsorun
of remoteuzak collaborationişbirliği.
102
240240
2336
Uzaktan kumanda işbirliği ile uğraşmak.
04:14
So, at WillowWillow GarageGaraj
I had a coworkeriş arkadaşı namedadlı DallasDallas,
103
242600
2576
Willow Garage' da Dallas adında
bir iş arkadaşım vardı
04:17
and DallasDallas lookedbaktı like this.
104
245200
1576
ve böyle görünüyordu.
04:18
He workedişlenmiş from his home in IndianaIndiana
in our companyşirket in CaliforniaCalifornia.
105
246800
4056
Indiana'daki evinden California'daki
şirketimiz için çalışıyordu.
Toplantılarımızın çoğunda
masanın üstündeki kutudaki bir sesti,
04:22
He was a voiceses in a boxkutu
on the tabletablo in mostçoğu of our meetingstoplantılar,
106
250880
2936
04:25
whichhangi was kindtür of OK
exceptdışında that, you know,
107
253840
2215
aslında bilirsiniz
eğer hararetli bir tartışma yapıyorsak
04:28
if we had a really heatedısıtmalı debatetartışma
and we didn't like what he was sayingsöz,
108
256079
3377
ve söylediklerini duymak istemezsek
yüzüne kapatabilirdik,
bunun dışında pek de önemli değildi.
04:31
we mightbelki just hangasmak up on him.
109
259480
1416
04:32
(LaughterKahkaha)
110
260920
1015
(Gülüşmeler)
04:33
Then we mightbelki have a meetingtoplantı
after that meetingtoplantı
111
261959
2217
O toplantıdan sonra
başka bir toplantı daha yapabilir
04:36
and actuallyaslında make the decisionskararlar
in the hallwaykoridor afterwardssonradan
112
264200
2696
ve kararları daha sonra koridorda
o bizimle değilken alabilirdik.
04:38
when he wasn'tdeğildi there anymoreartık.
113
266920
1416
04:40
So that wasn'tdeğildi so great for him.
114
268360
1576
Bu onun için pek de iyi değildi.
04:41
And as a roboticsRobotik companyşirket at WillowWillow,
115
269960
1736
Robotik bir şirket olarak Willow'da
04:43
we had some extraekstra
robotrobot bodyvücut partsparçalar layingdöşeme around,
116
271720
2336
etrafta bulunan
fazladan robot parçalarımız var,
04:46
so DallasDallas and his buddyarkadaş CurtCurt
put togetherbirlikte this thing,
117
274080
2496
Dallas ve arkadaşı Curt bunu kurmuşlar.
04:48
whichhangi looksgörünüyor kindtür of
like SkypeSkype on a stickÇubuk on wheelstekerlekler,
118
276600
2936
Tekerlekleri olan bir çubuklu
Skype'a benziyor
04:51
whichhangi seemsgörünüyor like a techyasabi, sillysaçma toyoyuncak,
119
279560
1736
teknolojik gülünç bir şey
04:53
but really it's probablymuhtemelen
one of the mostçoğu powerfulgüçlü toolsaraçlar
120
281320
2776
ama muhtemelen gördüğüm
uzaktan kumandalı işbirliği için
04:56
that I've seengörüldü ever madeyapılmış
for remoteuzak collaborationişbirliği.
121
284120
2480
yapılan araçlar arasından en etkilisi.
04:59
So now, if I didn't answerCevap
Dallas'Dallas emailE-posta questionsoru,
122
287160
3496
Şimdi Dallas'ın e-mailini cevaplamasam
05:02
he could literallyharfi harfine rollrulo into my officeofis,
123
290680
2216
tam anlamıyla ofisime girebilir,
05:04
blockblok my doorwaykapı
and asksormak me the questionsoru again --
124
292920
2576
yolumu tıkayıp soruyu
ben cevaplayana kadar--
05:07
(LaughterKahkaha)
125
295520
1016
(Gülüşmeler)
05:08
untila kadar I answeredcevap it.
126
296560
1216
tekrar sorabilir.
05:09
And I'm not going to turndönüş him off, right?
That's kindtür of rudekaba.
127
297800
2976
Onu kapatacak değilim, değil mi?
Bu biraz kabalık olur.
05:12
Not only was it good
for these one-on-oneteke tek communicationsiletişim,
128
300800
2696
Bu sadece birebir iletişim için değil
ayrıca şirketin tüm elemanlarıyla
yapılan toplantılar için de güzel.
05:15
but alsoAyrıca for just showinggösterme up
at the companyşirket all-handsAll-eller meetingtoplantı.
129
303520
2936
05:18
GettingBaşlarken your buttpopo in that chairsandalye
130
306480
1696
Koltuğa oturup
05:20
and showinggösterme people that you're presentmevcut
and committedtaahhüt to your projectproje
131
308200
3216
insanlara orada olduğunu
ve projene düşkün olduğunu göstermek
çok önemli
05:23
is a bigbüyük dealanlaştık mı
132
311440
1256
ve uzaktan kumandalı işbirliğine
bir ton yardımı dokunabilir.
05:24
and can help remoteuzak collaborationişbirliği a tonton.
133
312720
2176
05:26
We saw this over the perioddönem
of monthsay and then yearsyıl,
134
314920
2856
Bunu aylar ve yıllar zarfında gördük,
sadece bizim şirketimizde değil
diğer şirketlerde de.
05:29
not only at our companyşirket
but at othersdiğerleri, too.
135
317800
2160
05:32
The besten iyi thing that can happenolmak
with these systemssistemler
136
320720
2336
Bu sistemlerin en güzel yanıysa
gerçekten oradaymışsın gibi
hissetirmeye başlaması.
05:35
is that it startsbaşlar to feel
like you're just there.
137
323080
2336
05:37
It's just you, it's just your bodyvücut,
138
325440
1696
Sadece sensin, senin bedenin
05:39
and so people actuallyaslında startbaşlama
to give these things personalkişisel spaceuzay.
139
327160
3096
ve insanlar gerçekten bunlara
kişisel alan vermeye başladı.
05:42
So when you're havingsahip olan a stand-upayağa kalk meetingtoplantı,
140
330280
1976
Ayakta yapılan bir toplantıdaysan
insanlar gerçekten oradaymışsın gibi
05:44
people will standdurmak around the spaceuzay
141
332280
1656
05:45
just as they would
if you were there in personkişi.
142
333960
2216
etrafında dikilmeye başlayacak.
05:48
That's great untila kadar
there's breakdownsarıza and it's not.
143
336200
2576
Arızalar olana kadar bu harika,
olduğunda pek değil.
İnsanlar robotları
ilk gördüğünde şöyleler:
05:50
People, when they first see these robotsrobotlar,
144
338800
1976
05:52
are like, "WowVay canına, where'snerede the componentsbileşenler?
There mustşart be a camerakamera over there,"
145
340800
3576
"Vay, bileşenleri nerede?
Oralarda bir kamera olmalı."
ve sonra yüzünüzü dürtmeye başlıyorlar.
05:56
and they startbaşlama pokingalay your faceyüz.
146
344400
1576
"Çok kısık konuşuyorsun,
sesini biraz yükselteceğim"
05:58
"You're talkingkonuşma too softlyusulca,
I'm going to turndönüş up your volumehacim,"
147
346000
2936
Bu iş arkadaşının yanına gelip
06:00
whichhangi is like havingsahip olan a coworkeriş arkadaşı
walkyürümek up to you and say,
148
348960
2616
"Çok kısık konuşuyorsun,
sesini açacağım" demesi gibi.
06:03
"You're speakingkonuşuyorum too softlyusulca,
I'm going to turndönüş up your faceyüz."
149
351600
2896
Bu garip ve uygunsuz
06:06
That's awkwardgarip and not OK,
150
354520
1256
06:07
and so we endson up havingsahip olan to buildinşa etmek
these newyeni socialsosyal normsnormlar
151
355800
2616
bundan dolayı bu sistemler
etrafındayken uyguladığımız
06:10
around usingkullanma these systemssistemler.
152
358440
2216
yeni sosyal normal oluşturduk.
06:12
SimilarlyBenzer şekilde, as you startbaşlama
feelingduygu like it's your bodyvücut,
153
360680
3416
Senin bedenin gibi
hissetmeye başladığın zaman,
06:16
you startbaşlama noticingfark things like,
"Oh, my robotrobot is kindtür of shortkısa."
154
364120
3696
"Robotum biraz kısa sanki" gibi
şeyler fark etmeye başlıyorsun.
06:19
DallasDallas would say things to me --
he was six-foot1.80 boyunda talluzun boylu --
155
367840
2656
Dallas'ı - boyu 182 cm -
robot vasıtasıyla onu kokteyl partilerine
ve benzer etkinliklere götürürdük,
06:22
and we would take him viaüzerinden robotrobot
to cocktailkokteyl partiespartiler and things like that,
156
370520
3456
06:26
as you do,
157
374000
1216
sizin de yaptığınız gibi
06:27
and the robotrobot was about five-foot-tallBeş boylu,
whichhangi is closekapat to my heightyükseklik.
158
375240
3336
ve robot yaklaşık 152 cm
boylarındaydı ki bu da benim boyuma yakın.
06:30
And he would tell me,
159
378600
1216
Bana derdi ki
06:31
"You know, people are not
really looking at me.
160
379840
2536
"İnsanlar bana gerçekten bakmıyor.
06:34
I feel like I'm just looking
at this seadeniz of shouldersomuzlar,
161
382400
2696
Sanki omuzlardan oluşan
bir denize bakıyor gibiyim
bu sadece... daha uzun
bir robota ihtiyacımız var."
06:37
and it's just -- we need a tallerdaha uzun robotrobot."
162
385120
1976
06:39
And I told him,
163
387120
1256
Ona dedim ki:
06:40
"UmUm, no.
164
388400
1296
"Hayır.
06:41
You get to walkyürümek in my shoesayakkabı for todaybugün.
165
389720
1936
Bugünlük kendini benim yerime koyacaksın.
06:43
You get to see what it's like
to be on the shorterdaha kısa endson of the spectrumspektrum."
166
391680
3536
Kısa tarafta olmanın nasıl
olduğunu gör bakalım."
06:47
And he actuallyaslında endedbitti up buildingbina
a lot of empathyempati for that experiencedeneyim,
167
395240
3376
Gerçekten de büyük bir empati
kazanmasıyla sonuçlandı
06:50
whichhangi was kindtür of great.
168
398640
1256
ki bu da harikaydı.
06:51
So when he'diçin ona come visitziyaret etmek in personkişi,
169
399920
1656
Şahsen ziyarete geldiğinde
06:53
he no longeruzun stooddurdu over me
as he was talkingkonuşma to me,
170
401600
2416
benimle konuşurken
başımda dikilmemeye,
oturup göz teması kurarak
konuşmaya dikkat etti.
06:56
he would sitoturmak down
and talk to me eyegöz to eyegöz,
171
404040
2096
06:58
whichhangi was kindtür of a beautifulgüzel thing.
172
406160
1736
Güzel bir şeydi.
06:59
So we actuallyaslında decidedkarar
to look at this in the laboratorylaboratuvar
173
407920
2656
Bunu laboratuvarda incelemeye
ve robot boyunun
07:02
and see what othersdiğerleri kindsçeşit of differencesfarklar
things like robotrobot heightyükseklik would make.
174
410600
3656
başka ne gibi değişiklikler yapacağını
görmeye karar verdik.
07:06
And so halfyarım of the people in our studyders çalışma
used a shorterdaha kısa robotrobot,
175
414280
2856
Araştırmamızdaki insanların
yarısı daha kısa robotlar,
07:09
halfyarım of the people in our studyders çalışma
used a tallerdaha uzun robotrobot
176
417160
2416
diğer yarısıysa
daha uzun robotlar kullandı
07:11
and we actuallyaslında foundbulunan
that the exactkesin sameaynı personkişi
177
419600
2256
ve aynı bedene sahip aynı kişinin
07:13
who has the exactkesin sameaynı bodyvücut
and saysdiyor the exactkesin sameaynı things as someonebirisi,
178
421880
3336
daha uzun bir robot kullandığında
07:17
is more persuasiveikna edici
and perceivedalgılanan as beingolmak more credibleinandırıcı
179
425240
2616
söyledikleri daha ikna edici
07:19
if they're in a tallerdaha uzun robotrobot formform.
180
427880
1656
ve güvenilir algılanıyor.
07:21
It makesmarkaları no rationalakılcı senseduyu,
181
429560
1816
Hiç mantıklı gelmiyor
ama bu yüzden psikolojiyi araştırıyoruz.
07:23
but that's why we studyders çalışma psychologyPsikoloji.
182
431400
1696
07:25
And really, you know,
the way that CliffUçurum NassNass would put this
183
433120
2856
Cliff Nass bunu;
çok eski beyinlerimiz olmasına rağmen
07:28
is that we're havingsahip olan to dealanlaştık mı
with these newyeni technologiesteknolojiler
184
436000
3016
yeni teknolojiyle uğraşmak
zorundayız diyerek açıklıyor.
07:31
despiterağmen the factgerçek
that we have very oldeski brainsbeyin.
185
439040
2736
07:33
Humanİnsan psychologyPsikoloji is not changingdeğiştirme
at the sameaynı speedhız that techteknoloji is
186
441800
2976
İnsan psikolojisi
teknoloji hızında değişmiyor
07:36
and so we're always playingoynama catch-upyakalamak,
187
444800
1816
bu yüzden hep yakalamaca oynuyoruz,
07:38
tryingçalışıyor to make senseduyu of this worldDünya
188
446640
1656
otonom şeylerin etrafta dolaştığı
07:40
where these autonomousözerk things
are runningkoşu around.
189
448320
2336
dünyayı anlamlandırmaya çalışıyoruz.
07:42
UsuallyGenellikle, things that talk are people,
not machinesmakineler, right?
190
450680
2736
Genelde konuşanlar insandır
makineler değildir.
07:45
And so we breathenefes almak a lot of meaninganlam
into things like just heightyükseklik of a machinemakine,
191
453440
4576
Yani bir makinenin yüksekliği gibi
şeylere çok fazla anlam yüklüyoruz,
07:50
not a personkişi,
192
458040
1256
kişiye değil
07:51
and attributenitelik that
to the personkişi usingkullanma the systemsistem.
193
459320
2360
ve bunu sistemi
kullanan kişiye atfediyoruz.
07:55
You know, this, I think,
is really importantönemli
194
463120
2216
Robotları düşündüğüzde
07:57
when you're thinkingdüşünme about roboticsRobotik.
195
465360
1736
bence bu gerçekten önemli.
07:59
It's not so much about reinventingyeniden icat humansinsanlar,
196
467120
2096
Bu insanları yeniden keşfetmekten ziyade
08:01
it's more about figuringendam out
how we extenduzatmak ourselveskendimizi, right?
197
469240
3136
kendimizi nasıl
genişlettiğimizle ilgili, değil mi?
08:04
And we endson up usingkullanma things
in waysyolları that are sortçeşit of surprisingşaşırtıcı.
198
472400
2976
Bir şeyleri şaşırtıcı yöntemlerle
kullanır halde buluyoruz.
08:07
So these guys can't playoyun poolhavuz
because the robotsrobotlar don't have armssilâh,
199
475400
4256
Bu adamlar bilardo oynayamaz
çünkü robotların kolu yok
08:11
but they can hecklesıkıştırmak the guys
who are playingoynama poolhavuz
200
479680
2336
ama bilardo oynayanlara sataşabilirler
08:14
and that can be an importantönemli thing
for teamtakım bondingbağ,
201
482040
3176
ve bu da takım kaynaşması için önemli
08:17
whichhangi is kindtür of neattemiz.
202
485240
1296
ve sağlam bir yöntem.
08:18
People who get really good
at operatingişletme these systemssistemler
203
486560
2496
Bu sistemleri kullanmada
ustalaşan insanlar
gecenin bir yarısında
çöp kutularını itekleyerek
08:21
will even do things
like make up newyeni gamesoyunlar,
204
489080
2056
08:23
like robotrobot soccerFutbol
in the middleorta of the night,
205
491160
2136
robot futbolu oynamak gibi
08:25
pushingitme the trashçöp canskutular around.
206
493320
1456
yeni oyunlar üretebilir.
08:26
But not everyone'sherkesin var good.
207
494800
1576
Herkes usta değil.
Birçok insan bu sistemleri
kullanırken sorun yaşıyor.
08:28
A lot of people have troublesorun
operatingişletme these systemssistemler.
208
496400
2496
08:30
This is actuallyaslında a guy
who loggedoturum into the robotrobot
209
498920
2256
Robota bağlanan bir adam vardı
08:33
and his eyeballgöz küresi was turneddönük
90 degreesderece to the left.
210
501200
2376
ve gözü 90 derece sola dönüktü.
08:35
He didn't know that,
211
503600
1256
Bunu bilmiyordu
08:36
so he endedbitti up just bashingdayak
around the officeofis,
212
504880
2176
ve ofisin içinde çarpıp durdu,
08:39
runningkoşu into people'sinsanların desksçalışma masaları,
gettingalma superSüper embarrassedmahçup,
213
507080
2616
insanların masalarına çarpıp,
aşırı utanıp
08:41
laughinggülme about it --
his volumehacim was way too highyüksek.
214
509720
2336
buna gülen -
sesi de fazla yüksekti.
08:44
And this guy here
in the imagegörüntü is tellingsöylüyorum me,
215
512080
2136
Bu görüntüdeki adam bana:
"Ses kısma düğmesine
ihtiyacımız var." diyor.
08:46
"We need a robotrobot mutesessiz buttondüğme."
216
514240
2096
08:48
And by that what he really meantdemek
was we don't want it to be so disruptiveyıkıcı.
217
516360
3496
Bundan kastı bu kadar karmaşaya
sebep olmasını istemediğiydi.
08:51
So as a roboticsRobotik companyşirket,
218
519880
1616
Robotik şirketi olarak
08:53
we addedkatma some obstacleengel
avoidancekaçınma to the systemsistem.
219
521520
2456
sisteme bazı
engel kaldırıcılar ekledik.
08:56
It got a little laserlazer rangemenzil finderBulucu
that could see the obstaclesengeller,
220
524000
3056
Engelleri görebilen lazer bir
uzaklık ölçer ekledik.
08:59
and if I as a robotrobot operatorOperatör
try to say, runkoş into a chairsandalye,
221
527080
3136
Robot kullanıcısı olarak söylemeye
çalıştığım eğer bir sandalyeyle
karşılaşırsam bana izin vermez,
etrafından bir rota çizer
09:02
it wouldn'tolmaz let me,
it would just planplan a pathyol around,
222
530240
2496
09:04
whichhangi seemsgörünüyor like a good ideaFikir.
223
532760
1856
bu da iyi bir fikir gibi gözüküyor.
09:06
People did hitvurmak fewerDaha az obstaclesengeller
usingkullanma that systemsistem, obviouslybelli ki,
224
534640
3176
Apaçık, insanlar bu sistemle
daha az engele çarptılar
09:09
but actuallyaslında, for some of the people,
225
537840
2096
ama bazı insanlar için
09:11
it tookaldı them a lot longeruzun
to get throughvasitasiyla our obstacleengel coursekurs,
226
539960
2856
engel kursunu geçmek daha uzun sürdü
09:14
and we wanted to know why.
227
542840
1560
ve sebebini bilmek istediler.
09:17
It turnsdönüşler out that there's
this importantönemli humaninsan dimensionboyut --
228
545080
3056
Ortaya, önemli bir
insan boyutu olduğu çıktı.
09:20
a personalitykişilik dimensionboyut
calleddenilen locusodağı of controlkontrol,
229
548160
2296
Kontrol odağı denilen bir kişilik boyutu
09:22
and people who have
a stronggüçlü internal locusodağı of controlkontrol,
230
550480
3136
ve güçlü bir içsel kontrol odağa
sahip insanların
09:25
they need to be the mastersyüksek lisans
of theironların ownkendi destinyKader --
231
553640
3056
kendi kaderlerinin efendisi
olmaya ihtiyaçları var.
09:28
really don't like givingvererek up controlkontrol
to an autonomousözerk systemsistem --
232
556720
3096
Otonom bir sisteme kontrolü kaptırmayı
öylesine istemiyorlar ki
otonomiyle mücadele ediyorlar:
09:31
so much so that they will
fightkavga the autonomyözerklik;
233
559840
2136
09:34
"If I want to hitvurmak that chairsandalye,
I'm going to hitvurmak that chairsandalye."
234
562000
3096
"Eğer sandalyeye
çarpmak istersem, çarpacağım."
09:37
And so they would actuallyaslında sufferacı çekmek
from havingsahip olan that autonomousözerk assistanceyardım,
235
565120
3616
Sonunda o otonom sistem desteğine
sahip olmaktan çekiyorlar.
09:40
whichhangi is an importantönemli thing for us to know
236
568760
2576
Bunu bilmemiz,
09:43
as we're buildingbina increasinglygiderek
autonomousözerk, say, carsarabalar, right?
237
571360
3296
artarak otonomlaşan
arabaları üretirken önemli.
09:46
How are differentfarklı people going
to grapplekıskaç with that losskayıp of controlkontrol?
238
574680
3360
Farklı insanlar kontrol kaybıyla
nasıl baş edecek?
09:50
It's going to be differentfarklı
dependingbağlı on humaninsan dimensionsboyutlar.
239
578880
2696
İnsan boyutlarına bağlı olarak
farklılık gösterecek.
09:53
We can't treattedavi etmek humansinsanlar
as if we're just one monolithicyekpare thing.
240
581600
3496
İnsanlara monolitik bir şeymiş
muamelesinde bulunamayız.
09:57
We varyfarklılık göstermek by personalitykişilik, by culturekültür,
241
585120
2416
Kişilik, kültür hatta
anlık duygu durumuna göre
09:59
we even varyfarklılık göstermek by emotionalduygusal statebelirtmek, bildirmek
momentan to momentan,
242
587560
2456
farklılık gösteriyoruz
10:02
and beingolmak ableyapabilmek to designdizayn these systemssistemler,
243
590040
1976
ve bu insan-robot iletişimi istemlerini
10:04
these human-robotinsan-robot interactionetkileşim systemssistemler,
244
592040
2296
tasarlayabilmek için
10:06
we need to take into accounthesap
the humaninsan dimensionsboyutlar,
245
594360
2736
insan boyutlarını da hesaba katmalıyız
10:09
not just the technologicalteknolojik onesolanlar.
246
597120
1720
sadece teknolojik boyutları değil.
10:11
AlongBoyunca with a senseduyu of controlkontrol
alsoAyrıca comesgeliyor a senseduyu of responsibilitysorumluluk.
247
599640
4296
Kontrol etme hissi, sorumluluk
hissini beraberinde getiriyor.
10:15
And if you were a robotrobot operatorOperatör
usingkullanma one of these systemssistemler,
248
603960
2856
Eğer bir robot kullanıcısı olsaydınız
10:18
this is what the interfacearayüzey
would look like.
249
606840
2056
karşılaşacağınız arayüz
böyle gözükürdü.
10:20
It looksgörünüyor a little bitbit like a videovideo gameoyun,
250
608920
1936
Biraz video oyunu gibi gözüküyor.
10:22
whichhangi can be good because
that's very familiartanıdık to people,
251
610880
2976
İnsanlar aşina oldukları
için bu iyi bir şey
ama aynı zamanda kötü de olabilir
10:25
but it can alsoAyrıca be badkötü
252
613880
1216
çünkü insanlara video
oyunundaymış gibi hissettiriyor.
10:27
because it makesmarkaları people feel
like it's a videovideo gameoyun.
253
615120
2456
10:29
We had a bunchDemet of kidsçocuklar
over at StanfordStanford playoyun with the systemsistem
254
617600
2856
Standford'da bir grup çocuğu
sistemle oynattık
ve robotu Menlo Park'daki
ofisimiz etrafında sürdürdük,
10:32
and drivesürücü the robotrobot
around our officeofis in MenloMenlo ParkPark,
255
620480
2456
çocuklar şöyle şeyler
söylemeye başladılar:
10:34
and the kidsçocuklar startedbaşladı sayingsöz things like,
256
622960
1936
10:36
"10 pointsmakas if you hitvurmak that guy over there.
20 pointsmakas for that one."
257
624920
3176
"Oradaki adama vurursan 10 puan.
Şuradaki 20."
10:40
And they would
chaseChase them down the hallwaykoridor.
258
628120
2016
Onları koridor boyunca kovaladılar.
10:42
(LaughterKahkaha)
259
630160
1016
(Gülüşmeler)
10:43
I told them, "UmUm, those are realgerçek people.
260
631200
1936
Onlara: "Bunlar gerçek insan.
10:45
They're actuallyaslında going to bleedtaşma payı
and feel painAğrı if you hitvurmak them."
261
633160
3296
Onlara vurursanız gerçekten kanayıp
acı hissedecekler."
10:48
And they'dgittiklerini be like, "OK, got it."
262
636480
1616
"Tamam, anlaşıldı" dediler.
10:50
But fivebeş minutesdakika latersonra,
they would be like,
263
638120
2056
Beş dakika sonra tekrar:
10:52
"20 pointsmakas for that guy over there,
he just looksgörünüyor like he needsihtiyaçlar to get hitvurmak."
264
640200
3616
"Oradaki adam için 20 puan,
vurulmaya ihtiyacı var gibi gözüküyor."
10:55
It's a little bitbit
like "Ender'sEnder's GameOyunu," right?
265
643840
2136
Biraz Uzay Oyunları gibi değil mi?
10:58
There is a realgerçek worldDünya on that other sideyan
266
646000
1936
Öteki tarafta bir gerçek dünya var
10:59
and I think it's our responsibilitysorumluluk
as people designingtasarım these interfacesarayüzleri
267
647960
3416
ve bu arayüzleri
tasarlayan insanlar olarak
artarak otonomlaşan bu şeyleri kullanırken
11:03
to help people rememberhatırlamak
268
651400
1256
insanlara eylemlerinin
gerçek sonuçları olduğunu
11:04
that there's realgerçek consequencessonuçları
to theironların actionseylemler
269
652680
2256
11:06
and to feel a senseduyu of responsibilitysorumluluk
270
654960
2296
hatırlamalarında yardımcı olmak
11:09
when they're operatingişletme
these increasinglygiderek autonomousözerk things.
271
657280
3280
ve sorumluluk hissi yaratmak
bizim görevimiz.
11:13
These are kindtür of a great exampleörnek
272
661840
2296
Bunlar bir olası robotik geleceği
deneyimlemek için
11:16
of experimentingdeneme with one
possiblemümkün roboticrobotik futuregelecek,
273
664160
3256
harika örnekler.
11:19
and I think it's prettygüzel coolgüzel
that we can extenduzatmak ourselveskendimizi
274
667440
3856
Bence kendimizi genişletebilirken
makinelerin içine genişleme
yolları hakkında öğrenirken
11:23
and learnöğrenmek about the waysyolları
that we extenduzatmak ourselveskendimizi
275
671320
2336
11:25
into these machinesmakineler
276
673680
1216
aynı zamanda
11:26
while at the sameaynı time
beingolmak ableyapabilmek to expressekspres our humanityinsanlık
277
674920
2696
insanlığımızı ve kişiliğimizi
ifade edebilmemiz
11:29
and our personalitykişilik.
278
677640
1216
muhteşem bir şey.
Diğerleri için; kısa, uzun, hızlı, yavaş
11:30
We alsoAyrıca buildinşa etmek empathyempati for othersdiğerleri
279
678880
1576
11:32
in termsşartlar of beingolmak
shorterdaha kısa, tallerdaha uzun, fasterDaha hızlı, slowerYavaş,
280
680480
3216
hatta kolsuz olma açısından
11:35
and maybe even armlesskolsuz,
281
683720
1416
empati ediniyoruz.
11:37
whichhangi is kindtür of neattemiz.
282
685160
1336
Sağlam bir yöntem.
11:38
We alsoAyrıca buildinşa etmek empathyempati
for the robotsrobotlar themselveskendilerini.
283
686520
2536
Ayrıca robotlar için de empati ediniyoruz.
11:41
This is one of my favoritesevdiğim robotsrobotlar.
284
689080
1656
Bu benim favori robotlarımdan biri.
11:42
It's calleddenilen the TweenbotTweenbot.
285
690760
1456
Adı Tweenbot.
11:44
And this guy has a little flagbayrak that saysdiyor,
286
692240
1976
Bu küçük adamın:
"Manhattan'daki bu yere
11:46
"I'm tryingçalışıyor to get
to this intersectionkesişim in ManhattanManhattan,"
287
694240
2576
gitmeye çalışıyorum"
diyen bir bayrağı var.
11:48
and it's cuteşirin and rollsRulo
forwardileri, that's it.
288
696840
2776
Sevimli ve ileri gidiyor, hepsi bu.
11:51
It doesn't know how to buildinşa etmek a mapharita,
it doesn't know how to see the worldDünya,
289
699640
3456
Bir harita çıkarmayı bilmiyor,
dünyayı görmeyi bilmiyor,
11:55
it just askssorar for help.
290
703120
1256
sadece yardım istiyor.
11:56
The niceGüzel thing about people
291
704400
1336
İnsanlarla ilgili güzel olan şey;
11:57
is that it can actuallyaslında dependbağımlı
uponüzerine the kindnessnezaket of strangersyabancı insanlar.
292
705760
3096
yabancıların iyiliklerine
güvenebilirsiniz.
12:00
It did make it acrosskarşısında the parkpark
to the other sideyan of ManhattanManhattan --
293
708880
3896
Sadece insanların onu alıp
doğru yöne çevirmesiyle
Manhattan'daki parkın
diğer tarafına gitmeyi başardı
12:04
whichhangi is prettygüzel great --
294
712800
1256
12:06
just because people would pickalmak it up
and pointpuan it in the right directionyön.
295
714080
3456
- bu oldukça güzel.
12:09
(LaughterKahkaha)
296
717560
936
(Gülüşmeler)
12:10
And that's great, right?
297
718520
1256
Harika, değil mi?
12:11
We're tryingçalışıyor to buildinşa etmek
this human-robotinsan-robot worldDünya
298
719800
2696
Birlikte var olabildiğimiz
ve iş birliği yapabildiğimiz
12:14
in whichhangi we can coexistbir arada
and collaborateişbirliği yapmak with one anotherbir diğeri,
299
722520
3416
tamamen otonom ya da
tamamen bireysel olmadığımız
12:17
and we don't need to be fullytamamen autonomousözerk
and just do things on our ownkendi.
300
725960
3376
bu insan- robot dünyayı
kurmaya çalışıyoruz.
Aslında bir şeyleri birlikte yapıyoruz.
12:21
We actuallyaslında do things togetherbirlikte.
301
729360
1496
12:22
And to make that happenolmak,
302
730880
1256
Bunu gerçekleştirmek içinse
12:24
we actuallyaslında need help from people
like the artistssanatçılar and the designerstasarımcılar,
303
732160
3256
sanatçılara, tasarımcılara,
siyasete yön verenlere
12:27
the policypolitika makersvericiler, the legalyasal scholarsbilim adamları,
304
735440
1856
hukukçulara, psikologlara, sosyologlara
12:29
psychologistspsikologlar, sociologistssosyologlar,
anthropologistsantropologlar --
305
737320
2216
ve antropologlara ihtiyacımız var.
Stu Card'ın yapmanız gerek
dediği şeyi yapacaksak;
12:31
we need more perspectivesbakış açıları in the roomoda
306
739560
1816
12:33
if we're going to do the thing
that StuStu CardKartı saysdiyor we should do,
307
741400
2976
yaşamak istediğimiz
geleceği keşfedeceksek
12:36
whichhangi is inventicat etmek the futuregelecek
that we actuallyaslında want to livecanlı in.
308
744400
3936
odada daha fazla
bakış açısına ihtiyacımız var.
12:40
And I think we can continuedevam et to experimentdeney
309
748360
2656
Bence bu farklı robotik özellikleri
12:43
with these differentfarklı
roboticrobotik futuresvadeli işlem togetherbirlikte,
310
751040
2176
birlikte deneyimlemeye devam edebiliriz
12:45
and in doing so, we will endson up
learningöğrenme a lot more about ourselveskendimizi.
311
753240
4680
ve bunu yaparken de kendimiz hakkında
çok daha fazla şey öğrenebiliriz.
12:50
Thank you.
312
758720
1216
Teşekkürler.
12:51
(ApplauseAlkış)
313
759960
2440
(Alkış)
Translated by Saliha Karatepeli
Reviewed by Nihal Aksakal

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com