ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

ケイト・ダーリング: なぜ人はロボットと感情的繋がりを持つのか

Filmed:
2,403,010 views

感情を持つロボットはまだまだできそうにありませんが、人間は既にロボットに対して感情を抱いており、そのような本能的感覚は様々な結果を引き起こしうると、ロボット倫理学者のケイト・ダーリングは言います。生物学的に人間はロボットに意思や生命を見るようできていて、それが人間自身のより深い理解に繋がりうることを学びましょう。
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 years ago,
0
1047
2508
10年くらい前のことですが
赤ちゃん恐竜ロボットを
逆さに持ってみてと友達に言ったんです
00:15
when I asked尋ねた a friend友人 to holdホールド
a baby赤ちゃん dinosaur恐竜 robotロボット upside逆さま down.
1
3579
3944
00:21
It was this toyおもちゃ calledと呼ばれる a Pleoプレオ
that I had ordered順序付けられました,
2
9889
3446
「プレオ」というオモチャを手に入れ
はしゃいでいました
00:25
and I was really excited興奮した about it
because I've always loved愛された robotsロボット.
3
13359
4401
ロボットは昔から
大好きでしたので
00:29
And this one has really coolクール
technicalテクニカル features特徴.
4
17784
2279
このロボットには
いろいろすごい機能があり
00:32
It had motorsモーター and touchタッチ sensorsセンサ
5
20087
2119
モーターや 接触センサーや
00:34
and it had an infrared赤外線 cameraカメラ.
6
22230
2244
赤外線カメラなんかに加え
00:36
And one of the things it had
was a tilt傾ける sensorセンサー,
7
24498
2763
傾斜センサーが入っていて
00:39
so it knew知っていた what direction方向 it was facing直面する.
8
27285
2318
体の向きが
分かるようになっていました
00:42
And when you held開催 it upside逆さま down,
9
30095
2134
そして逆さにしてやると
00:44
it would start開始 to cry泣く.
10
32253
1572
泣き出すんです
00:46
And I thought this was superスーパー coolクール,
so I was showing表示 it off to my friend友人,
11
34527
3496
これはすごいと感心し
友達にも見せてやろうと思ったわけです
00:50
and I said, "Oh, holdホールド it up by the tail.
See what it does."
12
38047
2805
「ちょっと これの尻尾を持ってみて
どうなるか」
00:55
So we're watching見ている
the theatrics劇場 of this robotロボット
13
43268
3625
そして このロボットが
もがき泣く姿を見ていましたが
00:58
struggle闘争 and cry泣く out.
14
46917
2199
01:02
And after a few少数 seconds,
15
50767
2047
少しして
なんか嫌な気がしてきて
01:04
it starts開始する to bother気にする me a little,
16
52838
1972
01:07
and I said, "OK, that's enough十分な now.
17
55744
3424
「ねえ もういいでしょう
下に置いてあげて」と言い
01:11
Let's put him back down."
18
59930
2305
ロボットが泣き止むように
撫でてやりました
01:14
And then I petペット the robotロボット
to make it stop crying泣く.
19
62259
2555
01:18
And that was kind種類 of
a weird奇妙な experience経験 for me.
20
66973
2452
私にとって 奇妙な体験でした
01:22
For one thing, I wasn'tなかった the most最も
maternal母性 person at the time.
21
70084
4569
当時の私は そんなに母性的な
人間ではありませんでしたから
01:26
Althoughしかし、 since以来 then I've become〜になる
a mother, nine9人 months数ヶ月 ago,
22
74677
2731
でも9ヶ月前に
私も母親になって
01:29
and I've learned学んだ that babies赤ちゃん alsoまた、 squirm酔う
when you holdホールド them upside逆さま down.
23
77432
3433
逆さに持つと 赤ん坊も
もがきまわるのが分かりました
01:32
(Laughter笑い)
24
80889
1563
(笑)
01:35
But my response応答 to this robotロボット
was alsoまた、 interesting面白い
25
83023
2358
このロボットに対する
自分の反応が興味深かったのは
01:37
because I knew知っていた exactly正確に
how this machine機械 worked働いた,
26
85405
4101
その機械的な仕組みは
理解していたのに
優しくしてあげなきゃと
感じたからです
01:41
and yetまだ I still feltフェルト
compelled強制された to be kind種類 to it.
27
89530
3262
01:46
And that observation観察 sparked発砲した a curiosity好奇心
28
94450
2707
その時の観察が
この10年追い続けてきた
好奇心に火を付けたのです
01:49
that I've spent過ごした the past過去 decade10年 pursuing追求.
29
97181
2832
なぜ自分はこのロボットを
いたわったのか?
01:52
Why did I comfort快適 this robotロボット?
30
100911
1793
01:56
And one of the things I discovered発見された
was that my treatment処理 of this machine機械
31
104228
3579
ひとつ分かったのは
このロボットへの対応というのは
01:59
was more than just an awkward厄介な moment瞬間
in my living生活 roomルーム,
32
107831
3701
うちの居間で起きた
気まずい瞬間にとどまるものではなく
02:03
that in a world世界 where we're increasinglyますます
integrating統合する robotsロボット into our lives人生,
33
111556
5420
生活の中にロボットがますます
組み込まれつつある世の中で
このような感覚は 様々な結果を
もたらしうるということでした
02:09
an instinct本能 like that
mightかもしれない actually実際に have consequences結果,
34
117000
3126
私だけじゃないことが
分かったんです
02:13
because the first thing that I discovered発見された
is that it's not just me.
35
121452
3749
02:19
In 2007, the Washingtonワシントン Post役職
reported報告 that the Unitedユナイテッド States military軍事
36
127249
4802
2007年にワシントンポスト紙が
米軍の実験している
地雷処理ロボットについて報じました
02:24
was testingテスト this robotロボット
that defused衰弱した land土地 mines鉱山.
37
132075
3230
02:27
And the way it worked働いた
was it was shaped形をした like a stickスティック insect昆虫
38
135329
2912
それはナナフシみたいな
姿をしていて
02:30
and it would walk歩く
around a minefield地雷 on its legs,
39
138265
2651
脚を使って地雷原を歩き回り
02:32
and everyすべて time it stepped足踏みした on a mine鉱山,
one of the legs would blowブロー up,
40
140940
3206
地雷を踏むごとに
脚の1つが吹き飛ばされますが
歩き続けて地雷を爆発させていく
というものでした
02:36
and it would continue持続する on the other legs
to blowブロー up more mines鉱山.
41
144170
3057
02:39
And the colonel大佐 who was in charge電荷
of this testingテスト exercise運動
42
147251
3786
責任者だった大佐は
実験を中止させました
02:43
ends終わり up calling呼び出し it off,
43
151061
2118
02:45
because, he says言う, it's too inhumane非人道的な
44
153203
2435
傷ついたロボットが地雷原を
這い回るのを見ているのは非人間的だからと
02:47
to watch this damaged損傷した robotロボット
dragドラッグ itself自体 along一緒に the minefield地雷.
45
155662
4516
02:54
Now, what would cause原因
a hardened硬化した military軍事 officer役員
46
162978
3897
筋金入りの軍人や
私みたいな人間に
02:58
and someone誰か like myself私自身
47
166899
2043
そういう反応をさせたものは
何だったのか?
03:00
to have this response応答 to robotsロボット?
48
168966
1857
03:03
Well, of courseコース, we're primed下塗りされた
by science科学 fictionフィクション and popポップ culture文化
49
171537
3310
SFや大衆文化によって
こういったものを擬人化することに
馴れているというのもありますが
03:06
to really want to personify擬人化する these things,
50
174871
2579
03:09
but it goes行く a little bitビット deeperもっと深く than that.
51
177474
2789
これはもっと根が深いもので
03:12
It turnsターン out that we're biologically生物学的に
hardwiredハードワイヤード to projectプロジェクト intent意図 and life
52
180287
5309
生物学的に私達は
自律的に動くものに対し
03:17
onto〜に any movement移動 in our physical物理的 spaceスペース
that seems思われる autonomous自律的 to us.
53
185620
4766
意思や生命を見ようと
するようにできているんです
03:23
So people will treat治療する all sortsソート
of robotsロボット like they're alive生きている.
54
191214
3465
人がロボットを生き物のように
扱うのはそのためです
03:26
These bomb-disposal爆弾処理 units単位 get names名前.
55
194703
2683
こういう爆発物処理ロボットに
名前が付けられ
03:29
They get medalsメダル of honor名誉.
56
197410
1682
勲章が授与され
03:31
They've彼らは had funerals葬儀 for them
with gun salutes敬礼.
57
199116
2325
礼砲付きの葬礼が
行われたりします
03:34
And research研究 showsショー that we do this
even with very simple単純 household家庭 robotsロボット,
58
202380
3833
相手が単純な家庭用ロボットでも
人はそう反応することが分かっています
03:38
like the Roombaルームバ vacuum真空 cleanerクリーナー.
59
206237
2135
掃除ロボットの
ルンバでさえも
03:40
(Laughter笑い)
60
208396
1291
(笑)
ただの円盤形をしていて
床の上を動き回って掃除をしますが
03:41
It's just a discディスク that roamsローミング
around your floor to cleanクリーン it,
61
209711
3089
03:44
but just the fact事実 it's moving動く
around on its own自分の
62
212824
2306
自分で動き回る
というところが
03:47
will cause原因 people to name the Roombaルームバ
63
215154
2167
持ち主に名前を付けさせたり
03:49
and feel bad悪い for the Roombaルームバ
when it gets取得 stuck立ち往生 under the couchソファー.
64
217345
3182
ソファの下に引っかかっているのを
可愛そうと思わせたりするんです
03:52
(Laughter笑い)
65
220551
1865
(笑)
そういう反応を引き起こすべく
ロボットをデザインすることもできます
03:54
And we can design設計 robotsロボット
specifically具体的に to evoke喚起する this response応答,
66
222440
3340
03:57
usingを使用して eyes and faces or movements動き
67
225804
3461
目や顔を付けたり
人が無意識に
感情と結び付けるような
04:01
that people automatically自動的に,
subconsciously無意識のうちに associate関連付ける
68
229289
3259
動作をさせることによって
04:04
with states of mindマインド.
69
232572
2020
04:06
And there's an entire全体 body of research研究
calledと呼ばれる human-robotヒューマンロボット interactionインタラクション
70
234616
3293
そういった現象について研究する
「ヒューマン-ロボット・インタラクション」
という分野もあります
04:09
that really showsショー how well this works作品.
71
237933
1826
04:11
So for example, researchers研究者
at Stanfordスタンフォード University大学 found見つけた out
72
239783
3126
たとえばスタンフォード大の研究者が
発見したことですが
04:14
that it makes作る people really uncomfortable不快な
73
242933
2001
ロボットであっても
陰部に触れるよう言われると
04:16
when you ask尋ねる them to touchタッチ
a robot'sロボットの privateプライベート parts部品.
74
244958
2472
人はすごく気まずく
感じるんです
04:19
(Laughter笑い)
75
247454
2120
(笑)
04:21
So from this, but from manyたくさんの other studies研究,
76
249598
2023
多くの研究から
04:23
we know, we know that people
respond応答する to the cues合図 given与えられた to them
77
251645
4223
こういう生き物のように
見えるロボットが出す合図に対し
人間は作り物だと
知りながら
04:27
by these lifelike生き生きとした machines機械,
78
255892
2022
04:29
even if they know that they're not realリアル.
79
257938
2017
反応することが
分かっています
04:33
Now, we're headed先行 towards方向 a world世界
where robotsロボット are everywhereどこにでも.
80
261654
4056
私達はロボットが至るところに
いるような世界へと向かっています
04:37
Roboticロボット technology技術 is moving動く out
from behind後ろに factory工場 walls.
81
265734
3065
ロボット技術は
もはや工場の中だけのものではなく
04:40
It's entering入る workplaces職場, households世帯.
82
268823
3013
オフィスや家庭へと
進出しています
04:43
And as these machines機械 that can senseセンス
and make autonomous自律的 decisions決定 and learn学ぶ
83
271860
6209
そういった場所へと
入ってくる
知覚し 自律的に決断し
学ぶことのできる機械に対して
04:50
enter入る into these shared共有 spacesスペース,
84
278093
2552
04:52
I think that maybe the bestベスト
analogy類推 we have for this
85
280669
2496
最善のアナロジーとなるのは
04:55
is our relationship関係 with animals動物.
86
283189
1935
動物との関係かもしれません
04:57
Thousands何千もの of years ago,
we started開始した to domesticate飼いならす animals動物,
87
285523
3888
数千年前に人類は
動物を家畜化するようになり
労働や戦争のため また遊び相手として
飼い慣らしてきました
05:01
and we trained訓練された them for work
and weaponry兵器 and companionship仲間.
88
289435
4045
05:05
And throughout全体を通して history歴史, we've私たちは treated治療された
some animals動物 like toolsツール or like products製品,
89
293504
4985
歴史を通して
ある動物は道具や商品として扱われ
ある動物は
思いやりをもって扱われ
05:10
and other animals動物,
we've私たちは treated治療された with kindness親切
90
298513
2174
05:12
and we've私たちは given与えられた a place場所 in society社会
as our companionsコンパニオン.
91
300711
3078
社会の中で 人間の仲間としての
位置を与えられました
05:15
I think it's plausibleもっともらしい we mightかもしれない start開始
to integrate統合する robotsロボット in similar類似 ways方法.
92
303813
3849
ロボットもまた同じように取り込まれて
いくというのは ありそうなことです
05:21
And sure, animals動物 are alive生きている.
93
309484
3096
もちろん動物は生きており
ロボットは生きてはいません
05:24
Robotsロボット are not.
94
312604
1150
ロボット研究者と一緒に
働いている経験から言えますが
05:27
And I can tell you,
from workingワーキング with roboticistsロボット学者,
95
315626
2580
05:30
that we're prettyかなり far遠い away from developing現像
robotsロボット that can feel anything.
96
318230
3522
感情を持つロボットができるのは
随分先の話です
05:35
But we feel for them,
97
323072
1460
でも人間はロボットに同情し
そこが重要なんです
05:37
and that matters問題,
98
325835
1207
05:39
because if we're trying試す to integrate統合する
robotsロボット into these shared共有 spacesスペース,
99
327066
3627
ロボットを社会に
取り込んでいくのであれば
05:42
we need to understandわかる that people will
treat治療する them differently異なって than other devicesデバイス,
100
330717
4628
人はロボットに対し
他の機械とは違った扱いをすることを
理解しておく必要があります
05:47
and that in some cases症例,
101
335369
1844
たとえば兵士が
一緒に働くロボットに
05:49
for example, the case場合 of a soldier兵士
who becomes〜になる emotionally感情的に attached添付された
102
337237
3172
05:52
to the robotロボット that they work with,
103
340433
2047
愛着を抱く場合などには
05:54
that can be anything
from inefficient非効率的な to dangerous危険な.
104
342504
2504
非効率さや危険をもたらす
可能性もあります
05:58
But in other cases症例,
it can actually実際に be useful有用
105
346551
2138
でも他の場合には
ロボットへの感情的な繋がりを
育むことが 有用であり得ます
06:00
to foster育てる this emotional感情の
connection接続 to robotsロボット.
106
348713
2623
すでに素晴らしい実例が
知られています
06:04
We're already既に seeing見る some great use cases症例,
107
352184
2134
06:06
for example, robotsロボット workingワーキング
with autistic自閉症 children子供
108
354342
2604
たとえば自閉症の子供が
ロボット相手に
06:08
to engage従事する them in ways方法
that we haven't持っていない seen見た previously前に,
109
356970
3634
これまで見られなかった
反応を見せるとか
教師がロボットを使い 子供の学習で
新たな結果が得られているとか
06:12
or robotsロボット workingワーキング with teachers教師 to engage従事する
kids子供たち in learning学習 with new新しい results結果.
110
360628
4000
06:17
And it's not just for kids子供たち.
111
365433
1381
またこれは
子供に限った話ではなく
医療現場でロボットが
06:19
Early早い studies研究 showショー that robotsロボット
can help doctors医師 and patients患者
112
367750
3223
医師や患者の助けに
なり得ることが示されています
06:22
in health健康 careお手入れ settings設定.
113
370997
1427
これは「パロ」という
赤ちゃんアザラシのロボットで
06:25
This is the PAROパロ baby赤ちゃん sealシール robotロボット.
114
373535
1810
06:27
It's used in nursing看護 homes
and with dementia痴呆 patients患者.
115
375369
3285
養護施設や認知症患者のケアに
使われていて
06:30
It's been around for a while.
116
378678
1570
結構前からあるものです
06:32
And I remember思い出す, years ago,
beingであること at a partyパーティー
117
380272
3325
よく覚えていますが
何年も前にパーティーで
このロボットの話をしたところ
06:35
and telling伝える someone誰か about this robotロボット,
118
383621
2571
相手がこう言ったんです
06:38
and her response応答 was,
119
386216
2126
「それひどくないですか
06:40
"Oh my goshうんざり.
120
388366
1262
人間じゃなくロボットに
世話をさせるなんて信じられない」
06:42
That's horrible恐ろしい.
121
390508
1188
06:45
I can't believe we're giving与える people
robotsロボット instead代わりに of human人間 careお手入れ."
122
393056
3397
これは ごく一般的な反応で
06:50
And this is a really common一般 response応答,
123
398540
1875
06:52
and I think it's absolutely絶対に correct正しい,
124
400439
2499
まったくもって
正しいと思います
06:54
because that would be terribleひどい.
125
402962
2040
もしそうなら
酷い話ですから
06:57
But in this case場合,
it's not what this robotロボット replaces置き換える.
126
405795
2484
でもこの場合 人間がロボットに
置き換わるわけではありません
07:00
What this robotロボット replaces置き換える is animal動物 therapy治療
127
408858
3120
置き換わるのは
動物介在療法で
07:04
in contexts文脈 where
we can't use realリアル animals動物
128
412002
3198
本物の動物が
使えない場合に
ロボットを使うんです
07:07
but we can use robotsロボット,
129
415224
1168
07:08
because people will consistently一貫して treat治療する
them more like an animal動物 than a deviceデバイス.
130
416416
5230
人はロボットを機械よりは
動物のように扱いますから
このロボットに対する感情的な
繋がりが分かっていれば
07:15
Acknowledging確認応答 this emotional感情の
connection接続 to robotsロボット
131
423502
2380
07:17
can alsoまた、 help us anticipate予期する challenges挑戦
132
425906
1969
ロボットがより身近な存在に
なったときに起きる問題も
07:19
as these devicesデバイス move動く into more intimate親密な
areasエリア of people's人々の lives人生.
133
427899
3451
予期できるように
なるでしょう
07:24
For example, is it OK
if your child's子供の teddyテディ bearくま robotロボット
134
432111
3404
たとえば子供の
テディベアロボットが
私的な会話を録音するのは
良いのかとか
07:27
records記録 privateプライベート conversations会話?
135
435539
2237
07:29
Is it OK if your sexセックス robotロボット
has compelling説得力のある in-appアプリ内 purchases購入?
136
437800
4063
セックスロボットがApp内課金を促すのを
認めて良いのかとか
07:33
(Laughter笑い)
137
441887
1396
(笑)
07:35
Because robotsロボット plusプラス capitalism資本主義
138
443307
2501
ロボットと資本主義の
組み合わせには
07:37
equals等しい questions質問 around
consumer消費者 protection保護 and privacyプライバシー.
139
445832
3705
消費者保護やプライバシーの問題が
からんできますから
でも機械に対する人間の振る舞いが
問題になりうるのは
07:42
And those aren'tない the only reasons理由
140
450549
1612
07:44
that our behavior動作 around
these machines機械 could matter問題.
141
452185
2570
そういう理由ばかり
ではありません
07:48
A few少数 years after that first
initial初期 experience経験 I had
142
456747
3270
あの赤ちゃん恐竜ロボットでの
07:52
with this baby赤ちゃん dinosaur恐竜 robotロボット,
143
460041
2311
最初の経験から数年後に
07:54
I did a workshopワークショップ
with my friend友人 Hannesハンネス GassertGassert.
144
462376
2501
私は友人のハネス・ガッサートと
ワークショップを開きました
07:56
And we took取った five
of these baby赤ちゃん dinosaur恐竜 robotsロボット
145
464901
2897
赤ちゃん恐竜ロボットを
5体用意し
07:59
and we gave与えた them to five teamsチーム of people.
146
467822
2453
それぞれ5つのグループに渡し
08:02
And we had them name them
147
470299
1697
名前を付けて
08:04
and play遊びます with them and interact相互作用する with them
for about an hour時間.
148
472020
3809
1時間くらい
それで遊んでもらいました
08:08
And then we unveiled発表された
a hammerハンマー and a hatchet帽子
149
476707
2206
それからハンマーと
斧を出して
ロボットを痛め付けて
殺すように言いました
08:10
and we told them to torture拷問
and kill殺します the robotsロボット.
150
478937
2278
08:13
(Laughter笑い)
151
481239
3007
(笑)
これは予期していたよりも
08:16
And this turned回した out to be
a little more dramatic劇的
152
484857
2294
少しばかりショックを与えたようで
08:19
than we expected期待される it to be,
153
487175
1278
08:20
because noneなし of the participants参加者
would even so much as strikeストライク
154
488477
3072
参加者の誰も
赤ちゃん恐竜ロボットを
叩こうとさえしません
08:23
these baby赤ちゃん dinosaur恐竜 robotsロボット,
155
491573
1307
08:24
so we had to improvise即興 a little,
and at some pointポイント, we said,
156
492904
5150
それでもっと後押ししなければ
ならなくなって 言いました
08:30
"OK, you can saveセーブ your team'sチームの robotロボット
if you destroy破壊する another別の team'sチームの robotロボット."
157
498078
4437
「他のチームのロボットを壊せば
自分のチームのロボットは壊さなくていいです」
08:34
(Laughter笑い)
158
502539
1855
(笑)
それでもうまくいかず
みんな手をこまねいています
08:36
And even that didn't work.
They couldn'tできなかった do it.
159
504839
2195
最後には
こう言いました
08:39
So finally最後に, we said,
160
507058
1151
08:40
"We're going to destroy破壊する all of the robotsロボット
161
508233
2032
「誰かが斧を手に取って
どれか1つに振り下ろさないなら
08:42
unless限り someone誰か takes
a hatchet帽子 to one of them."
162
510289
2285
ロボットをみんな壊します」
08:45
And this guy stood立っていた up,
and he took取った the hatchet帽子,
163
513586
3579
それで1人が立ち上がって
斧を手にし
ロボットの首に
斧を振り下ろすと
08:49
and the whole全体 roomルーム wincedウィンチド
as he brought持ってきた the hatchet帽子 down
164
517189
2706
部屋にいたみんなが
ギクッとしました
08:51
on the robot'sロボットの neckネック,
165
519919
1780
08:53
and there was this half-joking半冗談,
half-serious半分深刻な moment瞬間 of silence沈黙 in the roomルーム
166
521723
6338
そして半分冗談 半分真剣な
しばしの沈黙が
倒れたロボットに
捧げられました
09:00
for this fallen倒れた robotロボット.
167
528085
1698
09:01
(Laughter笑い)
168
529807
1406
(笑)
09:03
So that was a really
interesting面白い experience経験.
169
531237
3694
すごく面白い経験でした
これは対照試験では
ありませんでしたが
09:06
Now, it wasn'tなかった a controlled制御された
study調査, obviously明らかに,
170
534955
2459
09:09
but it did lead to some
later後で research研究 that I did at MITMIT
171
537438
2850
後に私がパラッシュ・ナンディーと
シンシア・ブリジールと一緒に
09:12
with Palashパラシュ Nandyアシシュ and Cynthiaシンシア Breazealブレアジール,
172
540312
2228
MITで行った研究に
繋がりました
09:14
where we had people come into the lab研究室
and smashスマッシュ these HEXBUGsHEXBUGs
173
542564
3627
実験室に来てもらった人たちに
この昆虫みたいな
生き物のように動き回る
HEXBUGを潰してもらいました
09:18
that move動く around in a really
lifelike生き生きとした way, like insects昆虫.
174
546215
3087
09:21
So instead代わりに of choosing選択 something cute可愛い
that people are drawn描かれた to,
175
549326
3134
可愛くて惹かれる
ようなものではなく
もっと簡素なロボットを
使ったんですが
09:24
we chose選択した something more basic基本的な,
176
552484
2093
09:26
and what we found見つけた
was that high-empathy高共感 people
177
554601
3480
共感力の強い人ほど
HEXBUGを潰すことに
ためらいを感じることが
分かりました
09:30
would hesitate躊躇する more to hitヒット the HEXBUGSHEXBUGS.
178
558105
2143
これはちっぽけな研究ですが
09:33
Now this is just a little study調査,
179
561575
1564
09:35
but it's part of a larger大きい body of research研究
180
563163
2389
ずっと大きな研究領域の一部で
09:37
that is starting起動 to indicate示す
that there mayかもしれない be a connection接続
181
565576
2944
人の共感傾向とロボットに対する
振る舞いの間には
09:40
betweenの間に people's人々の tendencies傾向 for empathy共感
182
568544
2373
繋がりがあることが
示されつつあります
09:42
and their彼らの behavior動作 around robotsロボット.
183
570941
1976
来るべき人とロボット共生の
時代への疑問は
09:45
But my question質問 for the coming到来 era時代
of human-robotヒューマンロボット interactionインタラクション
184
573721
3627
09:49
is not: "Do we empathize共感する with robotsロボット?"
185
577372
3055
「人はロボットに共感するのか?」
ではなく
09:53
It's: "Can robotsロボット change変化する
people's人々の empathy共感?"
186
581211
2920
「ロボットは人の共感性を変えられるのか?」
ということです
たとえばロボット犬を
蹴らないよう
09:57
Is there reason理由 to, for example,
187
585489
2287
09:59
prevent防ぐ your child
from kicking蹴る a roboticロボット dog,
188
587800
2333
子供をしつけることに
効果はあるのか—
10:03
not just out of respect尊敬 for propertyプロパティ,
189
591228
2914
物を大事にする
という点だけでなく
10:06
but because the child mightかもしれない be
more likelyおそらく to kickキック a realリアル dog?
190
594166
2953
本物の犬を蹴るような人間に
ならないようにするために
これも子供に限ったこと
ではありません
10:10
And again, it's not just kids子供たち.
191
598507
1883
10:13
This is the violent暴力的な videoビデオ gamesゲーム question質問,
but it's on a completely完全に new新しい levelレベル
192
601564
4056
暴力的ゲームの問題と同じに聞こえますが
まったく別次元の話で
10:17
because of this visceral内臓の physicality身体的
that we respond応答する more intensely激しく to
193
605644
4760
画面上のイメージよりも
形あるものに対して
私たちはより強く
反応するからです
10:22
than to imagesイメージ on a screen画面.
194
610428
1547
特に生き物に似せてデザインされた
ロボットに対して
10:25
When we behave行動する violently激しく towards方向 robotsロボット,
195
613674
2578
10:28
specifically具体的に robotsロボット
that are designed設計 to mimic模倣する life,
196
616276
3120
暴力的に振る舞うのは
暴力性に対する
健全なはけ口になるのか
10:31
is that a healthy健康 outlet出口
for violent暴力的な behavior動作
197
619420
3892
それとも暴力性を
強めることになるのか?
10:35
or is that trainingトレーニング our cruelty残酷 muscles筋肉?
198
623336
2544
分かりません
10:39
We don't know ...
199
627511
1150
10:42
But the answer回答 to this question質問 has
the potential潜在的な to impact影響 human人間 behavior動作,
200
630622
3945
でもこの問いへの答えは
人間の行動や社会規範に
影響する可能性があり
10:46
it has the potential潜在的な
to impact影響 socialソーシャル norms規範,
201
634591
2768
ロボットに対して何ができ
何ができないかという
10:49
it has the potential潜在的な to inspireインスピレーション rulesルール
around what we can and can't do
202
637383
3849
ルールに繋がる
可能性があります
10:53
with certainある robotsロボット,
203
641256
1151
10:54
similar類似 to our animal動物 cruelty残酷 laws法律.
204
642431
1848
ちょうど動物虐待防止法のように—
ロボットは何も感じないとしても
10:57
Because even if robotsロボット can't feel,
205
645228
2864
ロボットに対する振る舞いは
私たち自身に影響するかもしれないんです
11:00
our behavior動作 towards方向 them
mightかもしれない matter問題 for us.
206
648116
3080
11:04
And regardless関係なく of whetherかどうか
we end終わり up changing変化 our rulesルール,
207
652889
2855
そして法律を変えることに
なるかどうかにかかわらず
11:08
robotsロボット mightかもしれない be ableできる to help us
come to a new新しい understanding理解 of ourselves自分自身.
208
656926
3556
ロボットは人間についての
新たな理解をもたらすかもしれません
11:14
Most最も of what I've learned学んだ
over the past過去 10 years
209
662276
2316
この10年で私の
学んできたことの多くは
11:16
has not been about technology技術 at all.
210
664616
2238
テクノロジーに
関することではなく
11:18
It's been about human人間 psychology心理学
211
666878
2503
人間の心理 共感
他人との関わり方についてです
11:21
and empathy共感 and how we relate関連する to othersその他.
212
669405
2603
11:25
Because when a child is kind種類 to a Roombaルームバ,
213
673524
2365
子供がルンバに対して
優しく接するとき
11:29
when a soldier兵士 tries試行する to saveセーブ
a robotロボット on the battlefield戦場,
214
677262
4015
兵士が戦場でロボットを
救おうとするとき
人々が赤ちゃん恐竜ロボットを
傷つけることを拒むとき
11:33
or when a groupグループ of people refuses拒否
to harm a roboticロボット baby赤ちゃん dinosaur恐竜,
215
681301
3638
11:38
those robotsロボット aren'tない just motorsモーター
and gears歯車 and algorithmsアルゴリズム.
216
686248
3191
ロボットはモーターと歯車と
プログラムだけのものではありません
11:42
They're reflections反射 of our own自分の humanity人類.
217
690501
1905
私達自身の人間性の
反映なのです
11:45
Thank you.
218
693523
1151
ありがとうございました
11:46
(Applause拍手)
219
694698
3397
(拍手)
Translated by Yasushi Aoki
Reviewed by Kazunori Akashi

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com