ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

レイラ・タカヤマ: ロボットの気持ちを考えるー人間とロボットの共存社会を目指して

Filmed:
1,183,118 views

私たち人間は既にロボットに囲まれて生活しています。食洗機や自動温度調節器などの機械は私たちの生活に完全に調和していて、もはやそれらをロボットと呼ぶ必要さえ感じません。この先、ロボットがさらに普及する未来はどうなるでしょう? 社会科学者のレイラ・タカヤマは人間とロボットのユニークな共存社会を設計しつつ、ロボットの将来を研究することは実は私たち人間をより深く理解することに繋がると提言します。
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chanceチャンス
to make a first impression印象,
0
760
2656
ロボットにも 人間にも言えることですが
00:15
and that's true真実 if you're a robotロボット
as well as if you're a person.
1
3440
3176
第一印象は 相手に一度限りしか
与えることができません
00:18
The first time that I met会った
one of these robotsロボット
2
6640
3016
私がこんなロボットと
初めて出会ったのは2008年ー
00:21
was at a place場所
calledと呼ばれる Willow Garageガレージ in 2008.
3
9680
2896
ウィロー・ガレージという所でした
00:24
When I went行った to visit訪問 there,
my hostホスト walked歩いた me into the building建物
4
12600
3016
受け入れ担当者に導かれて建物に入ると
00:27
and we met会った this little guy.
5
15640
1576
この小さな物体に出くわしたのです
00:29
He was rolling圧延 into the hallway廊下,
6
17240
1656
彼は廊下を移動していましたが
00:30
came来た up to me, sat座っている there,
7
18920
1816
私に近づくと そこで立ち止まって
00:32
stared見つめた blanklyぼんやり past過去 me,
8
20760
2256
ぼんやりと私の方を見ていました
00:35
did nothing for a while,
9
23040
1656
しばらくじっとしていましたが
00:36
rapidly急速に spun紡ぐ his head around 180 degrees
10
24720
1936
急にくるりと向きを変えると
00:38
and then ran走った away.
11
26680
1536
走り去って行きました
00:40
And that was not a great first impression印象.
12
28240
2176
あまり良い第一印象ではありませんでした
00:42
The thing that I learned学んだ
about robotsロボット that day
13
30440
2176
あの日 私がロボットについて学んだのは
00:44
is that they kind種類 of do their彼らの own自分の thing,
14
32640
2176
彼らはある程度の自律行動が
できるけれども
00:46
and they're not totally完全に aware承知して of us.
15
34840
2136
人間をまったく認識できない
ということでした
00:49
And I think as we're experimenting実験する
with these possible可能 robotロボット futures先物,
16
37000
3239
私たちが将来のロボットを見据えて
実験する中で学ぶことも
00:52
we actually実際に end終わり up learning学習
a lot more about ourselves自分自身
17
40263
2673
結局のところ ロボット本体よりも
人間についての方が多いと思います
00:54
as opposed反対 to just these machines機械.
18
42960
1656
00:56
And what I learned学んだ that day
19
44640
1336
あの日私はこの小さな機械に
00:58
was that I had prettyかなり high高い
expectations期待 for this little dudeおい.
20
46000
3416
かなり高い期待を抱いていたのでした
01:01
He was not only supposed想定される to be ableできる
to navigateナビゲートする the physical物理的 world世界,
21
49440
3176
彼は物理世界の自律移動だけでなく
01:04
but alsoまた、 be ableできる
to navigateナビゲートする my socialソーシャル world世界 --
22
52640
2656
私の社会性にも対応できると
思っていました
01:07
he's in my spaceスペース; it's a personal個人的 robotロボット.
23
55320
2176
私のスペースに入ってくる
パーソナルロボットなのです
01:09
wWhywWhy didn't it understandわかる me?
24
57520
2016
どうして私を理解できないのでしょう?
01:11
My hostホスト explained説明した to me,
25
59560
1256
担当者がこう説明しましたー
01:12
"Well, the robotロボット is trying試す
to get from pointポイント A to pointポイント B,
26
60840
3176
「つまり あのロボットは
A地点からB地点へ行く途中で
01:16
and you were an obstacle障害 in his way,
27
64040
1776
あなたが障害物になったのだ
01:17
so he had to replanリプラン his pathパス,
28
65840
2016
だから経路を考え直し
01:19
figure数字 out where to go,
29
67880
1256
どちらに進むべきか判断し
01:21
and then get there some other way,"
30
69160
1696
別の経路を選んだのだ」
01:22
whichどの was actually実際に
not a very efficient効率的な thing to do.
31
70880
2456
そういうやり方は
あまり効率的とは言えません
01:25
If that robotロボット had figured思った out
that I was a person, not a chair椅子,
32
73360
3256
私が椅子ではなく人間で
どこかに向かっているロボットには
喜んで道を譲るものだと
01:28
and that I was willing喜んで
to get out of its way
33
76640
2096
01:30
if it was trying試す to get somewhereどこかで,
34
78760
1656
ロボット自身が気づいたなら
01:32
then it actually実際に
would have been more efficient効率的な
35
80440
2216
その任務を果たす効率的な方法は
01:34
at getting取得 its jobジョブ done完了
36
82680
1256
あえて 私が人間だと認識し
01:35
if it had bothered悩まされる
to notice通知 that I was a human人間
37
83960
2216
01:38
and that I have different異なる affordancesアフォーダンス
than things like chairs椅子 and walls do.
38
86200
3576
椅子や壁とは違う扱い方をすることなのです
01:41
You know, we tend傾向がある to think of these robotsロボット
as beingであること from outerアウター spaceスペース
39
89800
3216
私たちはロボットのことを
宇宙や未来やSF小説からやって来ると
01:45
and from the future未来
and from science科学 fictionフィクション,
40
93040
2136
とかく考えがちです
01:47
and while that could be true真実,
41
95200
1416
そういう面もありますが
01:48
I'd actually実際に like to argue主張する
that robotsロボット are here today今日,
42
96640
2656
ロボットはもうすでに実在していて
01:51
and they liveライブ and work
amongst間に us right now.
43
99320
2776
今まさに我々と共に活動しているという
お話をします
01:54
These are two robotsロボット that liveライブ in my home.
44
102120
2856
この2台のロボットは私の家にいて
01:57
They vacuum真空 the floors
and they cutカット the grass
45
105000
2496
掃除機をかけたり庭の芝刈りを
01:59
everyすべて singleシングル day,
46
107520
1216
毎日行います
02:00
whichどの is more than I would do
if I actually実際に had time to do these tasksタスク,
47
108760
3376
時間があっても
私はそんなに多くはやりませんし
02:04
and they probably多分
do it better than I would, too.
48
112160
2336
仕上がりも私より上手です
02:06
This one actually実際に takes careお手入れ of my kitty子猫.
49
114520
2496
このロボットは子猫の世話をします
02:09
Everyすべて singleシングル time
he uses用途 the boxボックス, it cleansきれいにする it,
50
117040
2576
子猫がトイレを使うたびに
毎回 掃除します
02:11
whichどの is not something I'm willing喜んで to do,
51
119640
1976
それは 私が喜んですることではないので
02:13
and it actually実際に makes作る
his life better as well as mine鉱山.
52
121640
2576
子猫だけでなく私の生活も向上しています
02:16
And while we call these robotロボット products製品 --
53
124240
2416
こういう「ロボット」を冠した製品―
02:18
it's a "robotロボット vacuum真空 cleanerクリーナー,
it's a robotロボット lawnmower芝刈り機,
54
126680
2696
“ロボット掃除機”
“ロボット芝刈機”
02:21
it's a robotロボット littlerリットラー boxボックス,"
55
129400
1495
“猫用ロボットトイレ”
だけでなく
02:22
I think there's actually実際に a bunch
of other robotsロボット hiding隠蔽 in plainプレーン sight視力
56
130919
4137
他にも色々なロボットが
目立たずに活躍しています
02:27
that have just become〜になる so darn駄目 useful有用
57
135080
1856
非常に役立つけれど
02:28
and so darn駄目 mundane世俗
58
136960
1456
ありきたりのやつは
02:30
that we call them things
like, "dishwasher食器洗い機," right?
59
138440
2496
食洗機なんて呼ばれています
02:32
They get new新しい names名前.
60
140960
1216
新しい名前も与えられ
02:34
They don't get calledと呼ばれる robotロボット anymoreもう
61
142200
1696
ロボットと呼ばれないのは
02:35
because they actually実際に
serveサーブ a purpose目的 in our lives人生.
62
143920
2416
暮らしに役立つ存在になっているからです
02:38
Similarly同様に, a thermostatサーモスタット, right?
63
146360
1496
自動温度調節器もそうです
02:39
I know my roboticsロボット工学 friends友達 out there
64
147880
1776
私がこれをロボットと呼ぶと
02:41
are probably多分 cringingたじたじ
at me calling呼び出し this a robotロボット,
65
149680
2336
その筋の人は恐らく
いやな顔をするでしょうが
02:44
but it has a goalゴール.
66
152040
1256
目的が与えられた機器です
02:45
Its goalゴール is to make my house
66 degrees Fahrenheit華氏,
67
153320
2896
私の家の中を19℃に保つという目的のため
02:48
and it senses感覚 the world世界.
68
156240
1256
周囲の世界を計測しています
02:49
It knows知っている it's a little bitビット coldコールド,
69
157520
1576
少し気温が下がると
02:51
it makes作る a plan計画 and then
it acts行為 on the physical物理的 world世界.
70
159120
2616
計画を立て 物理世界に働きかけます
02:53
It's roboticsロボット工学.
71
161760
1256
まさにロボット工学です
02:55
Even if it mightかもしれない not
look like Rosieロージー the Robotロボット,
72
163040
2576
「ロボットのロージー」のキャラとは
似ていなくても
02:57
it's doing something
that's really useful有用 in my life
73
165640
2936
私の生活に非常に役立っています
03:00
so I don't have to take careお手入れ
74
168600
1376
わざわざ自分で室内温度を
03:02
of turning旋回 the temperature温度
up and down myself私自身.
75
170000
2576
上げ下げする必要がありませんから
03:04
And I think these systemsシステム
liveライブ and work amongst間に us now,
76
172600
3816
このようなシステムは
今や私たちの生活の一部です
03:08
and not only are these systemsシステム
living生活 amongst間に us
77
176440
2336
こんなシステムが暮らしに
入り込んでいるだけでなく
03:10
but you are probably多分
a robotロボット operatorオペレーター, too.
78
178800
2656
みなさんはおそらく
ロボットの操縦もしています
03:13
When you driveドライブ your car,
79
181480
1256
車を運転しているときに
03:14
it feels感じる like you are operatingオペレーティング machinery機械.
80
182760
2216
機械を操縦しているような感じですね
03:17
You are alsoまた、 going
from pointポイント A to pointポイント B,
81
185000
2816
A地点からB地点に行こうとするだけですが
03:19
but your car probably多分 has powerパワー steering操舵,
82
187840
2216
車にはパワーステアリングや
03:22
it probably多分 has automatic自動 braking制動 systemsシステム,
83
190080
2696
自動ブレーキ
03:24
it mightかもしれない have an automatic自動 transmission送信
and maybe even adaptiveアダプティブ cruiseクルーズ controlコントロール.
84
192800
3736
オートマや適応走行制御システムが
装備されています
03:28
And while it mightかもしれない not be
a fully完全に autonomous自律的 car,
85
196560
2936
完全自律走行車ではないかも知れませんが
03:31
it has bitsビット of autonomy自律性,
86
199520
1296
ある程度の自律性を有して
03:32
and they're so useful有用
87
200840
1336
とても役立っています
03:34
and they make us driveドライブ saferより安全な,
88
202200
1816
運転を安全にする機能ですが
03:36
and we just sortソート of feel
like they're invisible-in-use使用中の目に見えない, right?
89
204040
3656
使っていても 空気のような存在ですよね
03:39
So when you're driving運転 your car,
90
207720
1576
車を運転するときには
03:41
you should just feel like
you're going from one place場所 to another別の.
91
209320
3096
別の場所への移動だけを考えればよいのです
自分で判断して操作しなければいけない
厄介な仕事だと感じることがないのは
03:44
It doesn't feel like it's this big大きい thing
that you have to deal対処 with and operate操作する
92
212440
3736
03:48
and use these controlsコントロール
93
216200
1256
運転の仕方を長い時間をかけて身につけ
03:49
because we spent過ごした so long
learning学習 how to driveドライブ
94
217480
2176
03:51
that they've彼らは become〜になる
extensions拡張 of ourselves自分自身.
95
219680
2696
拡張された自分自身と感じられるほどに
なっているからです
03:54
When you parkパーク that car
in that tightタイト little garageガレージ spaceスペース,
96
222400
2696
車庫の狭く限られたスペースに
駐車するときでも
車体の端がどこにあるかわかりますよね
03:57
you know where your cornersコーナー are.
97
225120
1576
レンタカーを借りた時
初めて運転する車種ならば
03:58
And when you driveドライブ a rentalレンタル car
that maybe you haven't持っていない driven駆動される before,
98
226720
3256
04:02
it takes some time
to get used to your new新しい robotロボット body.
99
230000
3056
新しいロボットの機体に慣れるまで
少し時間がかかりますね
04:05
And this is alsoまた、 true真実 for people
who operate操作する other typesタイプ of robotsロボット,
100
233080
3976
別の種類のロボットを操作する人にも
同じことがいえるのです
04:09
so I'd like to shareシェア with you
a few少数 stories物語 about that.
101
237080
2600
それについて
少しお話をしたいと思います
04:12
Dealing対処 with the problem問題
of remote遠隔の collaborationコラボレーション.
102
240240
2336
まずは遠隔共同作業という課題を
どう扱うかです
04:14
So, at Willow Garageガレージ
I had a coworker同僚 named名前 Dallasダラス,
103
242600
2576
ウィロー・ガレージには
ダラスという同僚がいて
04:17
and Dallasダラス looked見た like this.
104
245200
1576
こんな感じです
04:18
He worked働いた from his home in Indianaインディアナ州
in our company会社 in Californiaカリフォルニア.
105
246800
4056
会社はカリフォルニアにありますが
彼はインディアナにある自宅から働いています
04:22
He was a voice音声 in a boxボックス
on the table in most最も of our meetings会議,
106
250880
2936
彼が卓上にある音声機材で
会議に参加するのは
04:25
whichどの was kind種類 of OK
exceptを除いて that, you know,
107
253840
2215
概ね問題はありませんが ただ
04:28
if we had a really heated加熱された debateディベート
and we didn't like what he was saying言って,
108
256079
3377
議論が白熱して
ダラスの意見が気に入らないときには
途中で回線を切ってしまうこともあります
(笑)
04:31
we mightかもしれない just hangハング up on him.
109
259480
1416
04:32
(Laughter笑い)
110
260920
1015
04:33
Then we mightかもしれない have a meeting会議
after that meeting会議
111
261959
2217
あるいは 会議を繰り返すようなときには
04:36
and actually実際に make the decisions決定
in the hallway廊下 afterwardsその後
112
264200
2696
意思決定は
実は後で廊下で行われたりするのですが
04:38
when he wasn'tなかった there anymoreもう.
113
266920
1416
ダラスはそこにいないのです
04:40
So that wasn'tなかった so great for him.
114
268360
1576
彼にとっては面白くありません
04:41
And as a roboticsロボット工学 company会社 at Willow,
115
269960
1736
私たちの会社には
04:43
we had some extra余分な
robotロボット body parts部品 laying敷設 around,
116
271720
2336
いくつかロボットの部品の余りがあり
04:46
so Dallasダラス and his buddyバディ Curtカート
put together一緒に this thing,
117
274080
2496
ダラスと友人のカートは部品を組み合わせ
04:48
whichどの looks外見 kind種類 of
like SkypeSkype on a stickスティック on wheels車輪,
118
276600
2936
棒にスカイプ画面と車輪を取り付けました
04:51
whichどの seems思われる like a techyテッキー, silly愚かな toyおもちゃ,
119
279560
1736
技術オタクの
ふざけたおもちゃみたいですが
04:53
but really it's probably多分
one of the most最も powerful強力な toolsツール
120
281320
2776
恐らく今までに見た遠隔共同作業用の
ツールの中で
04:56
that I've seen見た ever made
for remote遠隔の collaborationコラボレーション.
121
284120
2480
最も強力なものです
04:59
So now, if I didn't answer回答
Dallas'ダラス emailEメール question質問,
122
287160
3496
それからというもの
ダラスからのメールに返信しないと
05:02
he could literally文字通り rollロール into my office事務所,
123
290680
2216
彼は私のオフィスに 文字通り転がり込んで
05:04
blockブロック my doorway戸口
and ask尋ねる me the question質問 again --
124
292920
2576
入口に立ちふさがり 返答を求め続けます
05:07
(Laughter笑い)
125
295520
1016
(笑)
05:08
until〜まで I answered答えた it.
126
296560
1216
こちらが回答するまでです
05:09
And I'm not going to turn順番 him off, right?
That's kind種類 of rude失礼.
127
297800
2976
電源を切ることはできないですよね
失礼だから
05:12
Not only was it good
for these one-on-one一対一 communicationsコミュニケーション,
128
300800
2696
こういう1対1の
コミュニケーションだけでなく
05:15
but alsoまた、 for just showing表示 up
at the company会社 all-handsオールハンズ meeting会議.
129
303520
2936
全社会議に参加するのにも使えます
05:18
Getting取得 your buttバット in that chair椅子
130
306480
1696
自宅オフィスの席に陣取りながらも
05:20
and showing表示 people that you're presentプレゼント
and committedコミットした to your projectプロジェクト
131
308200
3216
見える形で全社会議に参加して
プロジェクトへの貢献を示すのは
05:23
is a big大きい deal対処
132
311440
1256
とても大切なことで
05:24
and can help remote遠隔の collaborationコラボレーション a tonトン.
133
312720
2176
遠隔共同作業の効率も上がります
05:26
We saw this over the period期間
of months数ヶ月 and then years,
134
314920
2856
遠隔参加は何カ月もそして何年も継続し
05:29
not only at our company会社
but at othersその他, too.
135
317800
2160
他の会社でも目にするようになりました
05:32
The bestベスト thing that can happen起こる
with these systemsシステム
136
320720
2336
このようなシステムの最大の長所は
05:35
is that it starts開始する to feel
like you're just there.
137
323080
2336
同じ空間を共有していると
感じ始めることです
05:37
It's just you, it's just your body,
138
325440
1696
それはその人―
その人の体であり
05:39
and so people actually実際に start開始
to give these things personal個人的 spaceスペース.
139
327160
3096
その人のためのスペースも
用意されるようになります
05:42
So when you're having持つ a stand-up立ち上がる meeting会議,
140
330280
1976
スタンドアップ・ミーティングでは
05:44
people will standスタンド around the spaceスペース
141
332280
1656
あたかも その人がその場にいるように
05:45
just as they would
if you were there in person.
142
333960
2216
参加者はそのロボットの周りに集まります
05:48
That's great until〜まで
there's breakdowns故障 and it's not.
143
336200
2576
いいことだけでなく
うまく行かない面もあります
05:50
People, when they first see these robotsロボット,
144
338800
1976
初めてこのロボットに出会った人は
05:52
are like, "Wowワオ, where'sどこですか the componentsコンポーネント?
There must必須 be a cameraカメラ over there,"
145
340800
3576
「わぁ!どうなっているの?
ここにカメラがあるに違いない」と
05:56
and they start開始 poking突き刺す your face.
146
344400
1576
顔のあたりをつつき始めます
05:58
"You're talking話す too softlyやわらかく,
I'm going to turn順番 up your volumeボリューム,"
147
346000
2936
「声が小さすぎるよ
ボリュームを上げよう」
06:00
whichどの is like having持つ a coworker同僚
walk歩く up to you and say,
148
348960
2616
これは同僚が近づいてきて
こう言うようなもの
「声が小さすぎるわ
顔を上向きにするわよ」
06:03
"You're speaking話し中 too softlyやわらかく,
I'm going to turn順番 up your face."
149
351600
2896
06:06
That's awkward厄介な and not OK,
150
354520
1256
これはマズイですね
06:07
and so we end終わり up having持つ to buildビルドする
these new新しい socialソーシャル norms規範
151
355800
2616
そこでこういったシステムに関して
06:10
around usingを使用して these systemsシステム.
152
358440
2216
新しい社会規範を作り上げないと
いけなくなりました
06:12
Similarly同様に, as you start開始
feeling感じ like it's your body,
153
360680
3416
また 本人がロボットを
自分の本体と感じ始めると同時に
06:16
you start開始 noticing気づく things like,
"Oh, my robotロボット is kind種類 of shortショート."
154
364120
3696
こんなことに気づくのです
「あれ ロボット版の自分は背が低いな」と
06:19
Dallasダラス would say things to me --
he was six-foot6フィート tall背の高い --
155
367840
2656
ダラスも私にそう言いました
彼は180センチだったからです
06:22
and we would take him via経由 robotロボット
to cocktailカクテル partiesパーティー and things like that,
156
370520
3456
ですからロボットを介して
カクテル・パーティーに連れて行くと
06:26
as you do,
157
374000
1216
こんな感じです
06:27
and the robotロボット was about five-foot-tall5 フィート,
whichどの is close閉じる to my height高さ.
158
375240
3336
ロボットは150センチほどで私と同じ位です
06:30
And he would tell me,
159
378600
1216
ダラスはこう言いました
06:31
"You know, people are not
really looking at me.
160
379840
2536
「どうやら みんな僕の顔を見ていないな
06:34
I feel like I'm just looking
at this sea of shoulders,
161
382400
2696
肩また肩の並びしか見えないんだ
06:37
and it's just -- we need a taller背の高い robotロボット."
162
385120
1976
長身ロボットが欲しいな」
06:39
And I told him,
163
387120
1256
でも私の答えはこうでした
06:40
"Umええと, no.
164
388400
1296
「いいえ 要らないわ
06:41
You get to walk歩く in my shoes for today今日.
165
389720
1936
今日 私の立場がわかったでしょ
06:43
You get to see what it's like
to be on the shorter短い end終わり of the spectrumスペクトラム."
166
391680
3536
背が低い人たちの視界で見ているだけよ」
06:47
And he actually実際に ended終了しました up building建物
a lot of empathy共感 for that experience経験,
167
395240
3376
そして彼自身その経験を通して
気遣いもできるようになりました
06:50
whichどの was kind種類 of great.
168
398640
1256
ありがたいことです
06:51
So when he'd彼は come visit訪問 in person,
169
399920
1656
ダラス本人が会社を訪れた時も
06:53
he no longerより長いです stood立っていた over me
as he was talking話す to me,
170
401600
2416
彼はもはや私を見下ろすことはなく
椅子に腰掛けて
06:56
he would sit座る down
and talk to me eye to eye,
171
404040
2096
同じ目線で話してくれるようになりました
06:58
whichどの was kind種類 of a beautiful綺麗な thing.
172
406160
1736
素敵ですよね
06:59
So we actually実際に decided決定しました
to look at this in the laboratory研究室
173
407920
2656
そこで私たちは ロボットの
背の高さみたいなことで
07:02
and see what othersその他 kinds種類 of differences相違
things like robotロボット height高さ would make.
174
410600
3656
どのような違いが生まれるのか
実験することにしました
07:06
And so halfハーフ of the people in our study調査
used a shorter短い robotロボット,
175
414280
2856
私たちの研究では
半数の人は背の低いロボットを使用し
07:09
halfハーフ of the people in our study調査
used a taller背の高い robotロボット
176
417160
2416
半数の人は背の高いロボットを
使用しました
07:11
and we actually実際に found見つけた
that the exact正確 same同じ person
177
419600
2256
そして同一人物が
07:13
who has the exact正確 same同じ body
and says言う the exact正確 same同じ things as someone誰か,
178
421880
3336
同じ身体を画面に映して
同じ事を誰かに言ったときに
07:17
is more persuasive説得力のある
and perceived知覚される as beingであること more credible信頼できる
179
425240
2616
背の高いロボットを使った方が
説得力があり
07:19
if they're in a taller背の高い robotロボット form.
180
427880
1656
信頼感を与えることが判明しました
07:21
It makes作る no rationalラショナル senseセンス,
181
429560
1816
合理的な意味づけはできませんが
07:23
but that's why we study調査 psychology心理学.
182
431400
1696
だからこそ心理学があるわけです
07:25
And really, you know,
the way that Cliff Nassナス would put this
183
433120
2856
クリフ・ナス教授だったら
こんな言い方をしたことでしょう
07:28
is that we're having持つ to deal対処
with these new新しい technologiesテクノロジー
184
436000
3016
私たちはこういう新しい技術に対して
07:31
despite何と the fact事実
that we have very old古い brains頭脳.
185
439040
2736
昔からの古い頭脳で対応しなければなりません
07:33
Human人間 psychology心理学 is not changing変化
at the same同じ speed速度 that techハイテク is
186
441800
2976
人間の心理は技術のような
速さでは変わりませんが
07:36
and so we're always playing遊ぶ catch-up追いつく,
187
444800
1816
自律型機器が動き回る世界を
07:38
trying試す to make senseセンス of this world世界
188
446640
1656
きちんと理解するためには
07:40
where these autonomous自律的 things
are runningランニング around.
189
448320
2336
追いつかないといけないことだらけです
07:42
Usually通常, things that talk are people,
not machines機械, right?
190
450680
2736
大概 人は話しますが機械は話しません
07:45
And so we breathe呼吸する a lot of meaning意味
into things like just height高さ of a machine機械,
191
453440
4576
人ではなく ただの機械の背丈に
多くの意味を与えてしまい
その意味付けをシステムの利用者にも
あてはめてしまうのです
07:50
not a person,
192
458040
1256
07:51
and attribute属性 that
to the person usingを使用して the systemシステム.
193
459320
2360
07:55
You know, this, I think,
is really important重要
194
463120
2216
ロボット工学を考えるときに
07:57
when you're thinking考え about roboticsロボット工学.
195
465360
1736
重要なのは
07:59
It's not so much about reinventing改革 humans人間,
196
467120
2096
人間を再発明するようなことを
考えるのではなく
08:01
it's more about figuring想像する out
how we extend拡張する ourselves自分自身, right?
197
469240
3136
私たち人間がどれだけ可能性を広げられるか
見極めていくことでないでしょうか?
08:04
And we end終わり up usingを使用して things
in ways方法 that are sortソート of surprising驚くべき.
198
472400
2976
結局 こういうものを使っているうちに
驚くような事態も生じました
08:07
So these guys can't play遊びます poolプール
because the robotsロボット don't have arms武器,
199
475400
4256
このロボットには腕がないので
ビリヤードができませんでしたが
08:11
but they can heckleヘッケル the guys
who are playing遊ぶ poolプール
200
479680
2336
ビリヤードをする人をヤジることはでき
08:14
and that can be an important重要 thing
for teamチーム bondingボンディング,
201
482040
3176
それはチームが団結するために重要なことで
08:17
whichどの is kind種類 of neatきちんとした.
202
485240
1296
素晴らしいことでした
08:18
People who get really good
at operatingオペレーティング these systemsシステム
203
486560
2496
ロボットのシステム操作が得意な人は
08:21
will even do things
like make up new新しい gamesゲーム,
204
489080
2056
新しい遊びを考えたりしました
深夜にゴミ箱を押して廻って
ロボット・サッカーをするのです
08:23
like robotロボット soccerサッカー
in the middle中間 of the night,
205
491160
2136
08:25
pushing押して the trashごみ cans around.
206
493320
1456
08:26
But not everyone's誰もが good.
207
494800
1576
しかし 誰もが
操作が得意な訳ではなく
システム操作に苦労する人も多いのです
08:28
A lot of people have troubleトラブル
operatingオペレーティング these systemsシステム.
208
496400
2496
08:30
This is actually実際に a guy
who logged記録された into the robotロボット
209
498920
2256
ある人はロボットにログインした時
08:33
and his eyeball眼球 was turned回した
90 degrees to the left.
210
501200
2376
視野が90度左にずれていましたが
08:35
He didn't know that,
211
503600
1256
それに気づかず
08:36
so he ended終了しました up just bashingバッシング
around the office事務所,
212
504880
2176
移動する度にあちこちぶつかり
08:39
runningランニング into people's人々の desksデスク,
getting取得 superスーパー embarrassed恥ずかしい,
213
507080
2616
人の机に突っ込んだりと
非常に恥ずかしい目にあい
08:41
laughing笑い about it --
his volumeボリューム was way too high高い.
214
509720
2336
それを笑っていました
その声も大きすぎでした
08:44
And this guy here
in the image画像 is telling伝える me,
215
512080
2136
それでこの画面の人はこう言いました
08:46
"We need a robotロボット muteミュート buttonボタン."
216
514240
2096
「ロボットに消音ボタンを取り付けよう」
08:48
And by that what he really meant意味した
was we don't want it to be so disruptive破壊的な.
217
516360
3496
つまり 周りの人を邪魔しない為の機能です
08:51
So as a roboticsロボット工学 company会社,
218
519880
1616
私たちはロボットの会社として
08:53
we added追加された some obstacle障害
avoidance回避 to the systemシステム.
219
521520
2456
システムに障害物回避機能を取り付けました
08:56
It got a little laserレーザ range範囲 finderファインダ
that could see the obstacles障害,
220
524000
3056
レーザー測距システムを導入し
障害物が分かるようにしたのです
08:59
and if I as a robotロボット operatorオペレーター
try to say, run走る into a chair椅子,
221
527080
3136
例えば私がロボットを操縦していて
椅子にぶつりそうになっても
09:02
it wouldn'tしないだろう let me,
it would just plan計画 a pathパス around,
222
530240
2496
ロボットは衝突を避け
回避経路を探すのです
09:04
whichどの seems思われる like a good ideaアイディア.
223
532760
1856
良い考えに思えます
09:06
People did hitヒット fewer少ない obstacles障害
usingを使用して that systemシステム, obviously明らかに,
224
534640
3176
このシステムを使えば
明らかに 障害に衝突しなくなります
09:09
but actually実際に, for some of the people,
225
537840
2096
しかし その一方で何人かは
09:11
it took取った them a lot longerより長いです
to get throughを通して our obstacle障害 courseコース,
226
539960
2856
障害コースを通過するのに
ずっと長い時間がかかる人もいました
09:14
and we wanted to know why.
227
542840
1560
その理由を調べたところ
09:17
It turnsターン out that there's
this important重要 human人間 dimension寸法 --
228
545080
3056
それは人間の重要な側面である
09:20
a personality dimension寸法
calledと呼ばれる locus軌跡 of controlコントロール,
229
548160
2296
「統制の所在」と言われる
人格側面が関与していて
09:22
and people who have
a strong強い internal内部 locus軌跡 of controlコントロール,
230
550480
3136
内的統制の強い人は
09:25
they need to be the mastersマスター
of their彼らの own自分の destiny運命 --
231
553640
3056
自分の力で目的地まで行こうとします
09:28
really don't like giving与える up controlコントロール
to an autonomous自律的 systemシステム --
232
556720
3096
主導権を自律システムに譲ろうとせず
09:31
so much so that they will
fight戦い the autonomy自律性;
233
559840
2136
自律システムと戦わんとする勢いでした
09:34
"If I want to hitヒット that chair椅子,
I'm going to hitヒット that chair椅子."
234
562000
3096
「僕が椅子にぶつかりたいときは
ぶつからないと」という具合です
09:37
And so they would actually実際に suffer苦しむ
from having持つ that autonomous自律的 assistance支援,
235
565120
3616
そういう人は自律型システムの支援のせいで
かえって苦戦するのです
09:40
whichどの is an important重要 thing for us to know
236
568760
2576
こういうことを知るのは大事です
09:43
as we're building建物 increasinglyますます
autonomous自律的, say, cars, right?
237
571360
3296
自律性をさらに高めて 自動車などを
作ろうとしている時代なのですから
09:46
How are different異なる people going
to grappleグラップル with that loss損失 of controlコントロール?
238
574680
3360
制御を委ねるという課題に
多様な人々がどう対処していくのでしょうか?
09:50
It's going to be different異なる
depending依存する on human人間 dimensionsディメンション.
239
578880
2696
それぞれの人間的側面によって異なります
09:53
We can't treat治療する humans人間
as if we're just one monolithicモノリシック thing.
240
581600
3496
私たちは人間を一枚岩のように
扱うことはできません
09:57
We vary変化する by personality, by culture文化,
241
585120
2416
その人の人格や文化や
09:59
we even vary変化する by emotional感情の state状態
moment瞬間 to moment瞬間,
242
587560
2456
刻々と変わる情動状態も異なるため
10:02
and beingであること ableできる to design設計 these systemsシステム,
243
590040
1976
こういうシステム―
10:04
these human-robotヒューマンロボット interactionインタラクション systemsシステム,
244
592040
2296
HRIシステムをデザインするには
10:06
we need to take into accountアカウント
the human人間 dimensionsディメンション,
245
594360
2736
技術の側面だけでなく
10:09
not just the technological技術的 onesもの.
246
597120
1720
人間の側面を考慮する必要があります
10:11
Alongに沿って with a senseセンス of controlコントロール
alsoまた、 comes来る a senseセンス of responsibility責任.
247
599640
4296
コントロール感と共に
責任感も問題となります
10:15
And if you were a robotロボット operatorオペレーター
usingを使用して one of these systemsシステム,
248
603960
2856
この制御システムを使って
ロボットを操作するときの
10:18
this is what the interfaceインタフェース
would look like.
249
606840
2056
インターフェースはこうなっています
10:20
It looks外見 a little bitビット like a videoビデオ gameゲーム,
250
608920
1936
まるでビデオゲームのようで
10:22
whichどの can be good because
that's very familiar身近な to people,
251
610880
2976
誰にとっても馴染み深いという利点とともに
10:25
but it can alsoまた、 be bad悪い
252
613880
1216
ビデオゲームだと錯覚してしまうという
欠点があります
10:27
because it makes作る people feel
like it's a videoビデオ gameゲーム.
253
615120
2456
10:29
We had a bunch of kids子供たち
over at Stanfordスタンフォード play遊びます with the systemシステム
254
617600
2856
スタンフォード大学には
システムを操作する大勢の学生がいて
メンロパークの事務所の周辺で
ロボットを操縦しながら
10:32
and driveドライブ the robotロボット
around our office事務所 in Menloメンロ Parkパーク,
255
620480
2456
こんなことを言うのです
10:34
and the kids子供たち started開始した saying言って things like,
256
622960
1936
「向こうの男にぶつけたら10点
あいつに当てたら20点」
10:36
"10 pointsポイント if you hitヒット that guy over there.
20 pointsポイント for that one."
257
624920
3176
そして人々を廊下で追いかけたりします
10:40
And they would
chase追跡 them down the hallway廊下.
258
628120
2016
10:42
(Laughter笑い)
259
630160
1016
(笑)
10:43
I told them, "Umええと, those are realリアル people.
260
631200
1936
私が「えっと あの人たちは
生身の人間だから
10:45
They're actually実際に going to bleed出血
and feel pain痛み if you hitヒット them."
261
633160
3296
もしぶつけたら
出血して痛いと思うわ」と言うと
10:48
And they'd彼らは be like, "OK, got it."
262
636480
1616
納得したような返事をしますが
10:50
But five minutes later後で,
they would be like,
263
638120
2056
5分後には
こんな話をしています
「向こうにいるあの男に当てたら20点
あの人 ぶつけてほしいんじゃないかな」
10:52
"20 pointsポイント for that guy over there,
he just looks外見 like he needsニーズ to get hitヒット."
264
640200
3616
10:55
It's a little bitビット
like "Ender'sエンダー Gameゲーム," right?
265
643840
2136
『エンダーのゲーム』みたいですね
10:58
There is a realリアル world世界 on that other side
266
646000
1936
向こう側も現実世界であり
10:59
and I think it's our responsibility責任
as people designing設計 these interfacesインタフェース
267
647960
3416
こういうインターフェースを
設計する側としては
11:03
to help people remember思い出す
268
651400
1256
利用者に
11:04
that there's realリアル consequences結果
to their彼らの actions行動
269
652680
2256
行動には現実の結果が伴うということと
11:06
and to feel a senseセンス of responsibility責任
270
654960
2296
ますます自律的になる
機械を操縦するときは
11:09
when they're operatingオペレーティング
these increasinglyますます autonomous自律的 things.
271
657280
3280
責任感を持つよう促す
必要があると思います
11:13
These are kind種類 of a great example
272
661840
2296
ここまでの内容は
ロボットと共に迎える未来を
11:16
of experimenting実験する with one
possible可能 roboticロボット future未来,
273
664160
3256
想定した実験の好例と言えるでしょう
11:19
and I think it's prettyかなり coolクール
that we can extend拡張する ourselves自分自身
274
667440
3856
我々が自己を拡張できることや
11:23
and learn学ぶ about the ways方法
that we extend拡張する ourselves自分自身
275
671320
2336
こういう機械を用いて
自己を拡張する方法を学び
11:25
into these machines機械
276
673680
1216
11:26
while at the same同じ time
beingであること ableできる to express表現する our humanity人類
277
674920
2696
その時同時に 自分たちの
人間性や個性を表現できるのは
11:29
and our personality.
278
677640
1216
素晴らしいことです
11:30
We alsoまた、 buildビルドする empathy共感 for othersその他
279
678880
1576
また「背が低い」「高い」
「足が速い」「遅い」とか
11:32
in terms条項 of beingであること
shorter短い, taller背の高い, fasterもっと早く, slowerもっとゆっくり,
280
680480
3216
それに「腕がない」など
相手の状況に
11:35
and maybe even armless無防備,
281
683720
1416
共感することを学べたのも
11:37
whichどの is kind種類 of neatきちんとした.
282
685160
1336
素敵なことです
11:38
We alsoまた、 buildビルドする empathy共感
for the robotsロボット themselves自分自身.
283
686520
2536
私たち人間はロボット本体にも共感します
11:41
This is one of my favoriteお気に入り robotsロボット.
284
689080
1656
これは私のお気に入りのロボットで
11:42
It's calledと呼ばれる the TweenbotTweenbot.
285
690760
1456
トゥイーンボットといいます
11:44
And this guy has a little flagフラグ that says言う,
286
692240
1976
このロボットには小さな旗がついていて
11:46
"I'm trying試す to get
to this intersection交差点 in Manhattanマンハッタン,"
287
694240
2576
「僕はマンハッタンの交差点に
行きたいんだ」
11:48
and it's cute可愛い and rollsロールズ
forward前進, that's it.
288
696840
2776
そう書いてあり
前にだけ進む 可愛いロボットです
11:51
It doesn't know how to buildビルドする a map地図,
it doesn't know how to see the world世界,
289
699640
3456
このロボットはマップ構築の仕方も
世界を認識する方法も知らないので
人々の助けが必要です
11:55
it just asks尋ねる for help.
290
703120
1256
11:56
The niceいい thing about people
291
704400
1336
実はロボットも
11:57
is that it can actually実際に depend依存する
upon〜に the kindness親切 of strangers見知らぬ人.
292
705760
3096
見知らぬ人の善意に頼ることができるのです
12:00
It did make it across横断する the parkパーク
to the other side of Manhattanマンハッタン --
293
708880
3896
公園を横切り
マンハッタンの向こう側まで行けたのは―
12:04
whichどの is prettyかなり great --
294
712800
1256
すごいことでしょ―
12:06
just because people would pickピック it up
and pointポイント it in the right direction方向.
295
714080
3456
みんなが正しい向きに
直してくれるお陰です
(笑)
12:09
(Laughter笑い)
296
717560
936
すごいと思いませんか?
12:10
And that's great, right?
297
718520
1256
12:11
We're trying試す to buildビルドする
this human-robotヒューマンロボット world世界
298
719800
2696
私たちは人間とロボットが共存し
12:14
in whichどの we can coexist共存する
and collaborate協力する with one another別の,
299
722520
3416
お互いが協力できる社会を
実現しようとしています
完全に自律にする必要も
物事を人間だけで行う必要もありません
12:17
and we don't need to be fully完全に autonomous自律的
and just do things on our own自分の.
300
725960
3376
人間とロボットとで一緒にやるのです
12:21
We actually実際に do things together一緒に.
301
729360
1496
12:22
And to make that happen起こる,
302
730880
1256
実現には
芸術家やデザイナー 政策立案者や法学者
12:24
we actually実際に need help from people
like the artistsアーティスト and the designersデザイナー,
303
732160
3256
12:27
the policyポリシー makersメーカー, the legal法的 scholars学者,
304
735440
1856
心理学者 社会学者ー
12:29
psychologists心理学者, sociologists社会学者,
anthropologists人類学者 --
305
737320
2216
そして人類学者の力が必要です
スチュアート・カードの言う
私たちがすべきこと―
12:31
we need more perspectives視点 in the roomルーム
306
739560
1816
12:33
if we're going to do the thing
that Stuスチュ Cardカード says言う we should do,
307
741400
2976
すなわち私たちが望む世界を
築き上げていくためには
12:36
whichどの is invent発明する the future未来
that we actually実際に want to liveライブ in.
308
744400
3936
もっと多様な見方を結集することが必要です
12:40
And I think we can continue持続する to experiment実験
309
748360
2656
さまざまなロボットの未来に向けた研究を
12:43
with these different異なる
roboticロボット futures先物 together一緒に,
310
751040
2176
今後も共に重ねていくことで
12:45
and in doing so, we will end終わり up
learning学習 a lot more about ourselves自分自身.
311
753240
4680
私たち自身を
深く理解することができるでしょう
12:50
Thank you.
312
758720
1216
ありがとうございました
12:51
(Applause拍手)
313
759960
2440
(拍手)
Translated by Yoshika Taso
Reviewed by Natsuhiko Mizutani

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com