ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

کیت دارلینگ: چرا ما با روبات‌ها ارتباط احساسی برقرار می‌کنیم

Filmed:
2,403,010 views

کیت دارلینگ متخصص روبات، می‌گوید ما همچنان از روبات‌های توسعه یافته با قابلیت درک احساسات فاصله داریم، اما نسبت به روبات‌ها برخورد عاطفی داریم و یک غریزه مثل این می‌تواند عواقب داشته باشد. بیشتر بدانید درباره چگونگی برقراری ارتباط زیستی‌مان با تصور هدف و زندگی برای ماشین‌هایی همچون روبات‌ها و این شناخت چگونه می‌تواند به ما در درک بهتر از خودمان کمک کند.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsسالها agoپیش,
0
1047
2508
یک روز حدوداً ۱۰ سال قبل،
00:15
when I askedپرسید: a friendدوست to holdنگه دارید
a babyعزیزم dinosaurدایناسور robotربات upsideبالا رفتن down.
1
3579
3944
از دوستی خواستم روبات
بچه دایناسور را وارونه نگه‌دارد.
00:21
It was this toyاسباب بازی calledبه نام a PleoPleo
that I had orderedدستور داد,
2
9889
3446
اسم این عروسک پلیو نام داشت
که سفارش داده بودم،
00:25
and I was really excitedبرانگیخته about it
because I've always lovedدوست داشتنی robotsروبات ها.
3
13359
4401
و من واقعاً برای داشتن آن هیجان زده بودم
زیرا همیشه روبات‌ها را دوست داشتنم.
00:29
And this one has really coolسرد
technicalفنی featuresامکانات.
4
17784
2279
و این یکی واقعاً ویژگی‌های فنی جالبی داشت.
00:32
It had motorsموتورها and touchدست زدن به sensorsسنسورها
5
20087
2119
دارای موتور، سنسور لمسی
00:34
and it had an infraredفرو سرخ cameraدوربین.
6
22230
2244
و دوربین مادون قرمز بود.
00:36
And one of the things it had
was a tiltشیب sensorسنسور,
7
24498
2763
و سنسور شیب،
یکی دیگر از چیز‌هایی که آن داشت.
00:39
so it knewمی دانست what directionجهت it was facingروبرو شدن.
8
27285
2318
بنابراین می‌دانست به چه سمتی قرار دارد.
00:42
And when you heldبرگزار شد it upsideبالا رفتن down,
9
30095
2134
و وقتی شما آن را وارونه نگه می‌داشتید،
00:44
it would startشروع کن to cryگریه کردن.
10
32253
1572
آن شروع به گریه می‌کرد.
00:46
And I thought this was superفوق العاده coolسرد,
so I was showingنشان دادن it off to my friendدوست,
11
34527
3496
و من فکر کردم این فوق العاده جالب است
بنابراین من آن را به دوستم نشان دادم
00:50
and I said, "Oh, holdنگه دارید it up by the tailدم.
See what it does."
12
38047
2805
و به او گفتم، "اُه، دم این را بگیر،
ببین چکار می‌کند."
00:55
So we're watchingتماشا کردن
the theatricsنمایشگاه ها of this robotربات
13
43268
3625
ما نمایش این روبات را نظاره می‌کردیم.
00:58
struggleتقلا and cryگریه کردن out.
14
46917
2199
تقلا و زاری کردن.
01:02
And after a fewتعداد کمی secondsثانیه,
15
50767
2047
و بعد از چند ثانیه،
01:04
it startsشروع می شود to botherزحمت me a little,
16
52838
1972
آن کمی موجب رنجش خاطرم شد،
01:07
and I said, "OK, that's enoughکافی now.
17
55744
3424
و من گفتم، "خوب، کافیه.
01:11
Let's put him back down."
18
59930
2305
بیا بگذاریمش زمین."
01:14
And then I petحیوان خانگی the robotربات
to make it stop cryingگریان.
19
62259
2555
من روبات را نوازش کردم
تا گریه‌اش متوقف شد.
01:18
And that was kindنوع of
a weirdعجیب و غریب experienceتجربه for me.
20
66973
2452
و این یک تجربه عجیب برای من بود.
01:22
For one thing, I wasn'tنبود the mostاکثر
maternalمادری personفرد at the time.
21
70084
4569
آن زمان من برای روبات، مانند مادر بودم.
01:26
Althoughبا اينكه sinceاز آنجا که then I've becomeتبدیل شدن به
a motherمادر, nineنه monthsماه ها agoپیش,
22
74677
2731
اگرچه از آن زمان به بعد،
یعنی ۹ ماه پیش من مادر شدم.
01:29
and I've learnedیاد گرفتم that babiesنوزادان alsoهمچنین squirmچرت زدن
when you holdنگه دارید them upsideبالا رفتن down.
23
77432
3433
و من یادگرفتم هنگامیکه بچه‌ها را
سر و ته بگیریم بچه‌ها ناراحت می‌شوند.
01:32
(Laughterخنده)
24
80889
1563
(خنده)
01:35
But my responseواکنش to this robotربات
was alsoهمچنین interestingجالب هست
25
83023
2358
اما واکنش من به این روبات جالب بود.
01:37
because I knewمی دانست exactlyدقیقا
how this machineدستگاه workedکار کرد,
26
85405
4101
زیرا من حقیقتاً درک کردم
چطور این ماشین کار کرد،
01:41
and yetهنوز I still feltنمد
compelledمجبور to be kindنوع to it.
27
89530
3262
و هنوز احساس می‌کنم
مجبورم با آن مهربان باشم.
01:46
And that observationمشاهده sparkedجرقه زد a curiosityکنجکاوی
28
94450
2707
و آن مشاهدات حس کنجکاوی من را برانگیخت
01:49
that I've spentصرف شده the pastگذشته decadeدهه pursuingپیگیری.
29
97181
2832
که من ده سال گذشته را دنبال کرده‌ام.
01:52
Why did I comfortراحتی this robotربات?
30
100911
1793
چرا من این روبات را راحت کردم؟
01:56
And one of the things I discoveredکشف شده
was that my treatmentرفتار of this machineدستگاه
31
104228
3579
و یکی از چیز‌هایی که من به آن پی بردم
طرز رفتار من با این دستگاه بود
01:59
was more than just an awkwardبی دست و پا - به شکلی نامناسب momentلحظه
in my livingزندگي كردن roomاتاق,
32
107831
3701
برای بیش از یک لحظه
نامتعارف در اتاق نشیمنم،
02:03
that in a worldجهان where we're increasinglyبه طور فزاینده
integratingیکپارچه سازی robotsروبات ها into our livesزندگی می کند,
33
111556
5420
که در دنیا ما به طور فزاینده‌ای
روبات‌ها را در زندگی خود وارد کرده‌ایم،
02:09
an instinctغریزه like that
mightممکن actuallyدر واقع have consequencesعواقب,
34
117000
3126
و غریزه بمانند این ممکن است واقعاً
مشکلاتی را بهمراه داشته باشد.
02:13
because the first thing that I discoveredکشف شده
is that it's not just me.
35
121452
3749
زیرا اولین چیزی که من کشف کردم
این است که فقط من نیستم.
02:19
In 2007, the Washingtonواشنگتن Postپست
reportedگزارش داد that the Unitedیونایتد Statesایالت ها militaryنظامی
36
127249
4802
در سال ۲۰۰۷، واشنگتن پست
گزارش داد که ارتش ایالات متحده
02:24
was testingآزمایش کردن this robotربات
that defusedتخریب شده landزمین minesمعادن.
37
132075
3230
آزمایشی روی روبات خنثی‌ساز
مین‌های باقیمانده در زمین انجام داده است.
02:27
And the way it workedکار کرد
was it was shapedشکل گرفته like a stickچوب insectحشره
38
135329
2912
روشی که این روبات کار می‌کند
مانند حشره‌ای تحت نام چوبک است
02:30
and it would walkراه رفتن
around a minefieldمیدان مین on its legsپاها,
39
138265
2651
وبا پا‌های خود برروی منطقه
مین‌گذاری شده راه می‌رود.
02:32
and everyهرکدام time it steppedگام برداشت on a mineمال خودم,
one of the legsپاها would blowفوت کردن، دمیدن up,
40
140940
3206
و هر زمانی که روی یک مین گام برمی‌دارد
یکی از پاهاش منفجر خواهد شد،
02:36
and it would continueادامه دهید on the other legsپاها
to blowفوت کردن، دمیدن up more minesمعادن.
41
144170
3057
و مسیر را با پا‌های باقیمانده خود ادامه
خواهد داد تا مین‌های بیشتری را منفجر کند.
02:39
And the colonelسرهنگ who was in chargeشارژ
of this testingآزمایش کردن exerciseورزش
42
147251
3786
و سرهنگی که مسئول این آزمایش بود
02:43
endsبه پایان می رسد up callingصدا زدن it off,
43
151061
2118
فرمان توقف می‌داد،
02:45
because, he saysمی گوید, it's too inhumaneغیر انسانی
44
153203
2435
بدلیل اینکه او می‌گفت، این
عمل خیلی غیرانسانی است
02:47
to watch this damagedآسیب دیده robotربات
dragکشیدن itselfخودش alongدر امتداد the minefieldمیدان مین.
45
155662
4516
تماشای این روبات آسیب‌دیده
که خود را در امتداد میدان مین می‌کشد.
02:54
Now, what would causeسبب می شود
a hardenedسخت است militaryنظامی officerافسر
46
162978
3897
در حال حاضر، چه چیزی باعث خواهد شد
یک افسر ارتش مقاوم و خشن
02:58
and someoneکسی like myselfخودم
47
166899
2043
و شخصی همچون من
03:00
to have this responseواکنش to robotsروبات ها?
48
168966
1857
اینچنین واکنشی در برابر
روبات‌ها داشته باشد؟
03:03
Well, of courseدوره, we're primedپر شده
by scienceعلوم پایه fictionداستان and popپاپ cultureفرهنگ
49
171537
3310
خوب، البته، با علوم تخیلی و رسم
و رسوم رایج بارآمدیم
03:06
to really want to personifyشخصیت کردن these things,
50
174871
2579
و واقعاً می‌خواهیم به این‌ها
شخصیت بدهیم و همزاد پنداری کنیم،
03:09
but it goesمی رود a little bitبیت deeperعمیق تر than that.
51
177474
2789
اما در این خصوص کمی افراط داریم.
03:12
It turnsچرخش out that we're biologicallyبیولوژیکی
hardwiredسخت افزار to projectپروژه intentقصد and life
52
180287
5309
به نظر می‌رسد که ما از نظر بیولوژیکی
چشم انداز‌های برنامه‌ها و زندگیمان را
03:17
ontoبه سوی any movementجنبش in our physicalفیزیکی spaceفضا
that seemsبه نظر می رسد autonomousخود مختار to us.
53
185620
4766
به هر اقدامی در فضای مستقل
اطرافمان متصل نموده‌ایم.
03:23
So people will treatدرمان شود all sortsانواع
of robotsروبات ها like they're aliveزنده است.
54
191214
3465
بنابراین مردم با روبات‌ها همچون
موجودات زنده رفتار می‌کنند.
03:26
These bomb-disposalدفع بمب unitsواحد ها get namesنام ها.
55
194703
2683
واحد‌های خنثی‌سازی بمب
نام‌گذاری می‌شوند.
03:29
They get medalsمدالها of honorافتخار.
56
197410
1682
مدال افتخار می‌گیرند.
03:31
They'veآنها دارند had funeralsتشییع جنازه for them
with gunاسلحه salutesسلام.
57
199116
2325
برای آن‌ها مراسم نظامی
تدفین گرفته می‌شود.
03:34
And researchپژوهش showsنشان می دهد that we do this
even with very simpleساده householdلوازم منزل robotsروبات ها,
58
202380
3833
و تحقیقات نشان می‌دهد ما حتی با روبات‌های
کوچک خانه‌دار خود این کار را می‌کنیم.
03:38
like the RoombaRoomba vacuumخلاء cleanerپاک کننده.
59
206237
2135
همچون روبات جاروبرقی.
03:40
(Laughterخنده)
60
208396
1291
(خنده)
03:41
It's just a discدیسک that roamsroams
around your floorکف to cleanپاک کن it,
61
209711
3089
آن شبیه یک بشقابی است که در طبقات
شما برای تمیز کردن پرسه می‌زند،
03:44
but just the factواقعیت it's movingدر حال حرکت
around on its ownخودت
62
212824
2306
اما در واقع حرکت در اطراف محدوده خودش
03:47
will causeسبب می شود people to nameنام the RoombaRoomba
63
215154
2167
سبب شد که مردم آن را رومبا بنامند
03:49
and feel badبد for the RoombaRoomba
when it getsمی شود stuckگیر underزیر the couchنیمکت.
64
217345
3182
و برای رومبا ناراحت شوند
وقتی زیر فرش گیر می‌افتد.
03:52
(Laughterخنده)
65
220551
1865
(خنده)
03:54
And we can designطرح robotsروبات ها
specificallyبه طور مشخص to evokeتحریک کردن this responseواکنش,
66
222440
3340
و ما بویژه می‌توانیم روبات‌ها را
طراحی کنیم برای پاسخ‌های احساسی
03:57
usingاستفاده كردن eyesچشم ها and facesچهره ها or movementsحرکات
67
225804
3461
با استفاده از چشم‌ها
و حالت‎‌های چهره یا حرکات بدنی
04:01
that people automaticallyبطور خودکار,
subconsciouslyناخودآگاه associateوابسته
68
229289
3259
بطوریکه ناخوداگاه انسان‌ها
04:04
with statesایالت ها of mindذهن.
69
232572
2020
وابستگی پیدا می‌کنند.
04:06
And there's an entireکل bodyبدن of researchپژوهش
calledبه نام human-robotانسان ربات interactionاثر متقابل
70
234616
3293
و موضوع تحقیقاتی تحت عنوان
روابط انسان-روبات وجود دارد.
04:09
that really showsنشان می دهد how well this worksآثار.
71
237933
1826
که بدرستی چگونگی این
روابط را نشان می‌دهد.
04:11
So for exampleمثال, researchersمحققان
at Stanfordاستنفورد Universityدانشگاه foundپیدا شد out
72
239783
3126
برای مثال، پژوهشگران
دانشگاه استفورد پی بردند که
04:14
that it makesباعث می شود people really uncomfortableناراحت
73
242933
2001
واقعاً احساس انسان‌ها را ناخوشایند می‌کند
04:16
when you askپرسیدن them to touchدست زدن به
a robot'sربات privateخصوصی partsقطعات.
74
244958
2472
وقتی شما بخواهید تا بخش‌های
خصوصی روبات‌ها را لمس کنید.
04:19
(Laughterخنده)
75
247454
2120
(خنده)
04:21
So from this, but from manyبسیاری other studiesمطالعات,
76
249598
2023
ما در این تحقیقات دانستیم که
04:23
we know, we know that people
respondپاسخ دادن to the cuesنشانه givenداده شده to them
77
251645
4223
انسان‌ها به این حالت‌های احساسی
04:27
by these lifelikeواقعی machinesماشین آلات,
78
255892
2022
این ماشین‌های به ظاهر زنده
واکنش نشان می‌دهند،
04:29
even if they know that they're not realواقعی.
79
257938
2017
حتی اگر بدانند که واقعاً
آن‌ها زنده نیستند.
04:33
Now, we're headedهدایت towardsبه سمت a worldجهان
where robotsروبات ها are everywhereدر همه جا.
80
261654
4056
حالا، ما به سمت دنیایی می‌رویم
که روبات‌ها همه جا وجود خواهند داشت.
04:37
Roboticرباتیک technologyتکنولوژی is movingدر حال حرکت out
from behindپشت factoryکارخانه wallsدیوارها.
81
265734
3065
تکنولوژی روباتیک از پشت
دیوار‌های کارخانه‌ها بیرون می‌آیند.
04:40
It's enteringورود workplacesمحل کار, householdsخانوارها.
82
268823
3013
به مکان‌های اشتغال و زندگی ما وارد می‌شوند
04:43
And as these machinesماشین آلات that can senseاحساس
and make autonomousخود مختار decisionsتصمیمات and learnیاد گرفتن
83
271860
6209
و این ماشین‌ها با توانایی احساسی،
یادگیری و تصمیم‌سازی مستقل،
04:50
enterوارد into these sharedبه اشتراک گذاشته شده spacesفضاها,
84
278093
2552
به محدوده روابط قدم می‌گذارند،
04:52
I think that maybe the bestبهترین
analogyتقلید we have for this
85
280669
2496
به نظر من شاید ارتباطی
که ما با حیوانات داریم
04:55
is our relationshipارتباط with animalsحیوانات.
86
283189
1935
بهترین قرابت و همخوانی را
با این قضیه داشته باشد.
04:57
Thousandsهزاران نفر of yearsسالها agoپیش,
we startedآغاز شده to domesticateاهلی کردن animalsحیوانات,
87
285523
3888
چندین هزار سال پیش ما اقدام به
اهلی کردن حیوانات نمودیم.
05:01
and we trainedآموزش دیده them for work
and weaponryسلاح and companionshipهمراهی.
88
289435
4045
و حیوانات را به منظور کار، اقدامات
نظامی و مصاحبت آموزش دادیم.
05:05
And throughoutدر سراسر historyتاریخ, we'veما هستیم treatedتحت درمان
some animalsحیوانات like toolsابزار or like productsمحصولات,
89
293504
4985
و در سرتاسر تاریخ، ما با برخی از حیوانات
همچون ابزار یا کالا رفتار کردیم،
05:10
and other animalsحیوانات,
we'veما هستیم treatedتحت درمان with kindnessمهربانی
90
298513
2174
و با دیگر حیوانات با مهربانی رفتار کردیم
05:12
and we'veما هستیم givenداده شده a placeمحل in societyجامعه
as our companionsهمراهان.
91
300711
3078
و به آن‌ها طبقه اجتماعی
همچون دوست و همدم دادیم.
05:15
I think it's plausibleمحتمل we mightممکن startشروع کن
to integrateادغام کردن robotsروبات ها in similarمشابه waysراه ها.
92
303813
3849
به نظر من این احتمال وجود دارد که ما
با روباتها رفتار مشابه‌ای را آغاز نماییم.
05:21
And sure, animalsحیوانات are aliveزنده است.
93
309484
3096
و به طور قطع، حیوانات زنده هستند
05:24
Robotsروبات ها are not.
94
312604
1150
اما روبات‌ها نه.
05:27
And I can tell you,
from workingکار کردن with roboticistsروباتیک,
95
315626
2580
و ما براساس شناختی که از علوم
روباتیک دارم، می‌توانم به شما بگویم،
05:30
that we're prettyبسیار farدور away from developingدر حال توسعه
robotsروبات ها that can feel anything.
96
318230
3522
که ما کاملاً از روبات‌های توسعه یافته که
قادر به احساس همه چیز باشند فاصله داریم.
05:35
But we feel for them,
97
323072
1460
اما ما برای آن‌ها احساس می‌کنیم،
05:37
and that mattersمسائل,
98
325835
1207
و این مهم است،
05:39
because if we're tryingتلاش کن to integrateادغام کردن
robotsروبات ها into these sharedبه اشتراک گذاشته شده spacesفضاها,
99
327066
3627
زیرا ما سعی می‌کنیم روبات‌ها را
وارد فضای ارتباطی خود کنیم،
05:42
we need to understandفهمیدن that people will
treatدرمان شود them differentlyمتفاوت است than other devicesدستگاه ها,
100
330717
4628
ما باید درک کنیم که انسان‌ها با روبات‌ها
متفاوت از دیگر وسایل رفتار می‌کنند،
05:47
and that in some casesموارد,
101
335369
1844
و در برخی از موارد برای مثال،
05:49
for exampleمثال, the caseمورد of a soldierسرباز
who becomesتبدیل می شود emotionallyعاطفی attachedمتصل شده
102
337237
3172
در مورد سربازی که به صورت احساسی
05:52
to the robotربات that they work with,
103
340433
2047
با روبات ارتباط برقرار می‌کند،
05:54
that can be anything
from inefficientناکارآمد to dangerousخطرناک است.
104
342504
2504
که می‌تواند هر رفتاری
از بی‌کفایتی تا مخاطره‌انگیز باشد.
05:58
But in other casesموارد,
it can actuallyدر واقع be usefulمفید است
105
346551
2138
اما در پاره‌ای از موارد
06:00
to fosterفاستر this emotionalعاطفی
connectionارتباط to robotsروبات ها.
106
348713
2623
آموزش روابط احساسی
به روبات‌ها واقعاً می‌تواند مفید باشد.
06:04
We're alreadyقبلا seeingدیدن some great use casesموارد,
107
352184
2134
ما موارد مصرف
قابل توجهی از روبات‌ها دیده‌ایم
06:06
for exampleمثال, robotsروبات ها workingکار کردن
with autisticاوتیستیک childrenفرزندان
108
354342
2604
برای مثال روبات‌ها
با کودکان اوتیسمی کار می‌کنند
06:08
to engageمشغول کردن them in waysراه ها
that we haven'tنه seenمشاهده گردید previouslyقبلا,
109
356970
3634
و آنگونه آنها را سرگرم می‌کنند
که ما قبلاً شاهد نبوده‌ایم،
06:12
or robotsروبات ها workingکار کردن with teachersمعلمان to engageمشغول کردن
kidsبچه ها in learningیادگیری with newجدید resultsنتایج.
110
360628
4000
یا نتایج جدید یاری رساندن روبات‌ها
به معلمین در آموزش کودکان.
06:17
And it's not just for kidsبچه ها.
111
365433
1381
و آن تنها برای کودکان نیست.
06:19
Earlyزود studiesمطالعات showنشان بده that robotsروبات ها
can help doctorsپزشکان and patientsبیماران
112
367750
3223
مطالعات اخیر نشان داده
که روباتها قادرند تا دکترها یا بیماران را
06:22
in healthسلامتی careاهميت دادن settingsتنظیمات.
113
370997
1427
در زمینه مراقبت‌های بهداشتی یاری دهند.
06:25
This is the PAROپارو babyعزیزم sealمهر robotربات.
114
373535
1810
این یک روبات بچه فُک به نام پارو است.
06:27
It's used in nursingپرستاری homesخانه ها
and with dementiaزوال عقل patientsبیماران.
115
375369
3285
پارو در خانه سالمندان و با بیماران
مبتلا به فراموشی استفاده می‌شود.
06:30
It's been around for a while.
116
378678
1570
برای مدتی استفاده شده است.
06:32
And I rememberیاد آوردن, yearsسالها agoپیش,
beingبودن at a partyمهمانی
117
380272
3325
و من بخاطر دارم، سال‌ها پیش، در یک مهمانی
06:35
and tellingگفتن someoneکسی about this robotربات,
118
383621
2571
با کسی درباره این روبات صحبت کردم،
06:38
and her responseواکنش was,
119
386216
2126
و واکنش آن شخص این بود،
06:40
"Oh my goshخدایا.
120
388366
1262
"وای خدای من.
06:42
That's horribleناگوار.
121
390508
1188
وحشتناک است.
06:45
I can't believe we're givingدادن people
robotsروبات ها insteadبجای of humanانسان careاهميت دادن."
122
393056
3397
باور نمی‌کنم به روبات‌ها نقش‌های
مراقبتی همچون انسان‌ها داده شود."
06:50
And this is a really commonمشترک responseواکنش,
123
398540
1875
و این واقعاً واکنشی متعارف بود،
06:52
and I think it's absolutelyکاملا correctدرست,
124
400439
2499
و من فکر می‌کنم کاملاً درست است،
06:54
because that would be terribleوحشتناک.
125
402962
2040
بدلیل آنکه آن واقعاً وحشتناک است.
06:57
But in this caseمورد,
it's not what this robotربات replacesجایگزین می شود.
126
405795
2484
اما در این مورد، روبات قابل جایگزینی نیست.
07:00
What this robotربات replacesجایگزین می شود is animalحیوانات therapyدرمان
127
408858
3120
این روبات جایگزین حیوان درمان است.
07:04
in contextsزمینه ها where
we can't use realواقعی animalsحیوانات
128
412002
3198
در مواردی که ما قادر به
استفاده از حیوانات واقعی نیستیم
07:07
but we can use robotsروبات ها,
129
415224
1168
اما می‌توانیم از روبات‌ها استفاده کنیم،
07:08
because people will consistentlyهمواره treatدرمان شود
them more like an animalحیوانات than a deviceدستگاه.
130
416416
5230
چون انسان‌ها با آن‌ها بیشتر به عنوان
حیوان رفتار می‌کنند تا روبات.
07:15
Acknowledgingبرسمیت شناختن this emotionalعاطفی
connectionارتباط to robotsروبات ها
131
423502
2380
شناخت این روابط عاطفی با روبات‌ها
07:17
can alsoهمچنین help us anticipateپیش بینی کنید challengesچالش ها
132
425906
1969
همچنین می‌تواند ما را در
پیش‌بینی چالش‌های آینده یاری دهد
07:19
as these devicesدستگاه ها moveحرکت into more intimateصمیمی
areasمناطق of people'sمردم livesزندگی می کند.
133
427899
3451
همانطور که این وسایل به محیط شخصی
زندگی مردم وارد می‌شوند.
07:24
For exampleمثال, is it OK
if your child'sفرزند teddyعروسکی bearخرس robotربات
134
432111
3404
برای مثال، آیا خوب است که
روبات اسباب‌بازی خرس تدی
07:27
recordsسوابق privateخصوصی conversationsگفتگو?
135
435539
2237
مکالمات شخصی شما را ضبط کند؟
07:29
Is it OK if your sexارتباط جنسی robotربات
has compellingمتقاعد کننده in-appدر برنامه purchasesخرید?
136
437800
4063
آیا خوب است روبات سکس شما خریدهای
جالب توجه درون-نرم‌افزاری داشته باشد؟
07:33
(Laughterخنده)
137
441887
1396
(خنده)
07:35
Because robotsروبات ها plusبه علاوه capitalismنظام سرمایه داری
138
443307
2501
بدلیل اینکه روبات بعلاوه سیستم سرمایه‌داری
07:37
equalsبرابر است questionsسوالات around
consumerمصرف كننده protectionحفاظت and privacyحریم خصوصی.
139
445832
3705
مساوی است با پرسش‌هایی در
خصوص حقوق و حریم شخصی مشتری.
07:42
And those aren'tنه the only reasonsدلایل
140
450549
1612
و موارد اشاره شده تنها دلیل بر این نیستند
07:44
that our behaviorرفتار around
these machinesماشین آلات could matterموضوع.
141
452185
2570
که رفتار ما با این وسایل
می‌تواند مهم باشد.
07:48
A fewتعداد کمی yearsسالها after that first
initialاولیه experienceتجربه I had
142
456747
3270
چندین سال بعد از اولین تجربه‌ای که من با
07:52
with this babyعزیزم dinosaurدایناسور robotربات,
143
460041
2311
روبات اسباب‌بازی دایناسور داشتم،
07:54
I did a workshopکارگاه
with my friendدوست Hannesهانس GassertGassert.
144
462376
2501
من کارگاه آموزشی با دوستم هانس گسرت داشتم.
07:56
And we tookگرفت fiveپنج
of these babyعزیزم dinosaurدایناسور robotsروبات ها
145
464901
2897
و ما ۵ عدد از این
روبات‌های دایناسور دریافت کردیم
07:59
and we gaveداد them to fiveپنج teamsتیم ها of people.
146
467822
2453
و آن‌ها را به ۵ گروه از مردم دادیم.
08:02
And we had them nameنام them
147
470299
1697
و از آنها خواستیم
روی آنها نام بگذارند
08:04
and playبازی with them and interactتعامل with them
for about an hourساعت.
148
472020
3809
وبرای حدود یک ساعت با آن‌ها بازی
کنند و با آن‌ها ارتباط برقرار کنند.
08:08
And then we unveiledآشکار شد
a hammerچکش and a hatchetچنگال
149
476707
2206
و سپس ما یک چکش و یک تبر نشان دادیم
08:10
and we told them to tortureشکنجه
and killکشتن the robotsروبات ها.
150
478937
2278
و گفتیم که روبات‌ها را شکنجه کنید و بکشید.
08:13
(Laughterخنده)
151
481239
3007
(خنده)
08:16
And this turnedتبدیل شد out to be
a little more dramaticنمایشی
152
484857
2294
و کمی دراماتیک‌تر از آن چیزی شد
08:19
than we expectedانتظار می رود it to be,
153
487175
1278
که انتظارش را داشتیم،
08:20
because noneهیچ کدام of the participantsشركت كنندگان
would even so much as strikeضربه
154
488477
3072
چرا که هیچ یک از شرکت کنندگان
حتی یک ضربه هم
08:23
these babyعزیزم dinosaurدایناسور robotsروبات ها,
155
491573
1307
به این روبات‌های
دایناسور اسباب بازی نزدند،
08:24
so we had to improviseبداهه بکش a little,
and at some pointنقطه, we said,
156
492904
5150
بنابراین مجبور شدیم کمی
بداهه‌پردازی کنیم و گفتیم،
08:30
"OK, you can saveصرفه جویی your team'sتیم robotربات
if you destroyاز بین رفتن anotherیکی دیگر team'sتیم robotربات."
157
498078
4437
"خوب، شما می‌توانید روبات گروه خود را نگه دارید
به شرطی که روبات گروه دیگر را متلاشی کنید."
08:34
(Laughterخنده)
158
502539
1855
(خنده)
08:36
And even that didn't work.
They couldn'tنمی توانستم do it.
159
504839
2195
و حتی این هم افاقه نکرد.
آن‌ها دست به این کار نزدند.
08:39
So finallyسرانجام, we said,
160
507058
1151
پس در نهایت، ما گفتیم،
08:40
"We're going to destroyاز بین رفتن all of the robotsروبات ها
161
508233
2032
"ما قصد داریم تمامی
روباتها را از بین ببریم
08:42
unlessمگر اینکه someoneکسی takes
a hatchetچنگال to one of them."
162
510289
2285
مگر اینکه کسی به یکی از
روباتها با تبر ضربه بزند."
08:45
And this guy stoodایستاد up,
and he tookگرفت the hatchetچنگال,
163
513586
3579
و این شخص ایستاد و تبر را گرفت،
08:49
and the wholeکل roomاتاق wincedپیچیدگی
as he broughtآورده شده the hatchetچنگال down
164
517189
2706
و در کل اتاق همهمه پیچید
هنگامیکه او تبر را
08:51
on the robot'sربات neckگردن,
165
519919
1780
بر گردن روبات فرود آورد،
08:53
and there was this half-jokingنیمه شوخی,
half-seriousنیمه جدی momentلحظه of silenceسکوت in the roomاتاق
166
521723
6338
و سکوتی نیم شوخی، نیم جدی اتاق را گرفت
09:00
for this fallenافتاده robotربات.
167
528085
1698
برای روبات افتاده.
09:01
(Laughterخنده)
168
529807
1406
(خنده)
09:03
So that was a really
interestingجالب هست experienceتجربه.
169
531237
3694
این واقعاً آزمایش جالبی بود.
09:06
Now, it wasn'tنبود a controlledکنترل شده است
studyمطالعه, obviouslyبدیهی است,
170
534955
2459
بطور مشخص این یک مطالعه کنترل شده نبود،
09:09
but it did leadسرب to some
laterبعد researchپژوهش that I did at MITMIT
171
537438
2850
اما منجر به تحقیقات بعدی من
در انستیتو تکنولوژی ماساچوست شد.
09:12
with PalashPalash NandyNandy and Cynthiaسینتیا BreazealBreazeal,
172
540312
2228
با پالاش ناندی و سینتیا بریزیل،
09:14
where we had people come into the labآزمایشگاه
and smashدرهم کوبیدن these HEXBUGsHEXBUGs
173
542564
3627
جاییکه مردم به آزمایشگاه ما می‌آیند
و این روبات‌های هگزباگ را خراب می‌کنند
09:18
that moveحرکت around in a really
lifelikeواقعی way, like insectsحشرات.
174
546215
3087
که واقعاً مانند حشرات زنده
به اطراف حرکت می‌کنند.
09:21
So insteadبجای of choosingانتخاب کردن something cuteجذاب
that people are drawnکشیده شده to,
175
549326
3134
بنابراین بجای انتخاب چیزی
جالب که مردم را جذب کند،
09:24
we choseانتخاب کرد something more basicپایه ای,
176
552484
2093
ما چیز خیلی ساده‌ای را انتخاب کردیم،
09:26
and what we foundپیدا شد
was that high-empathyهمدلی بالا people
177
554601
3480
و ما پی بردیم که انسان‌های خیلی دلسوز
09:30
would hesitateتردید more to hitاصابت the HEXBUGSHEXBUGS.
178
558105
2143
از ضربه زدن به روبات هگزباگس طفره رفتند.
09:33
Now this is just a little studyمطالعه,
179
561575
1564
این تقریباً یک بررسی کوچک بود،
09:35
but it's partبخشی of a largerبزرگتر bodyبدن of researchپژوهش
180
563163
2389
اما بخشی از یک تحقیق وسیعتر
09:37
that is startingراه افتادن to indicateنشان می دهد
that there mayممکن است be a connectionارتباط
181
565576
2944
که نشان داد که ممکن است ارتباطی میان
09:40
betweenبین people'sمردم tendenciesتمایلات for empathyیکدلی
182
568544
2373
گرایش انسان‌ها به همدلی و
09:42
and theirخودشان behaviorرفتار around robotsروبات ها.
183
570941
1976
رفتار آن‌ها با روبات‌ها وجود داشته باشد.
09:45
But my questionسوال for the comingآینده eraدوران
of human-robotانسان ربات interactionاثر متقابل
184
573721
3627
اما پرسش ما برای دوره پیشرو از
ارتباطات انسان-روبات این نیست:
09:49
is not: "Do we empathizeهمدردی with robotsروبات ها?"
185
577372
3055
" آیا ما با روباتها احساس همدرهی کنیم؟"
09:53
It's: "Can robotsروبات ها changeتغییر دادن
people'sمردم empathyیکدلی?"
186
581211
2920
بلکه "آیا روبات‌ها قادرند حس
همدلی انسانها را تغییر دهند؟"
09:57
Is there reasonدلیل to, for exampleمثال,
187
585489
2287
برای مثال آیا دلیلی وجود دارد
09:59
preventجلوگیری کردن your childکودک
from kickingلگد زدن a roboticروباتیک dogسگ,
188
587800
2333
فرزندانمان را از ضربه زدن
به یک سگ روباتیک
10:03
not just out of respectتوجه for propertyویژگی,
189
591228
2914
نه تنها بدلیل حفظ متعلقات باز بداریم،
10:06
but because the childکودک mightممکن be
more likelyاحتمال دارد to kickضربه زدن a realواقعی dogسگ?
190
594166
2953
بلکه به این دلیل که کودکان
به احتمال زیاد سگ واقعی را می‌زنند؟
10:10
And again, it's not just kidsبچه ها.
191
598507
1883
و دوباره خاطر نشان می‌شود،
این تنها مختص به کودکان نیست
10:13
This is the violentخشن videoویدئو gamesبازی ها questionسوال,
but it's on a completelyبه صورت کامل newجدید levelسطح
192
601564
4056
مسئله بازی‌های ویدیویی خشونت‌آمیز است،
اما این یک سطح کاملاً جدید است
10:17
because of this visceralذره ای physicalityفیزیکی
that we respondپاسخ دادن more intenselyشدیدا to
193
605644
4760
بدلیل اینکه این یک واکنش
ناخودآگاه شدیدی است که ما به تصاویر
10:22
than to imagesتصاویر on a screenصفحه نمایش.
194
610428
1547
تلویزیون نشان می‌دهیم.
10:25
When we behaveرفتار كردن violentlyخشونت آمیز towardsبه سمت robotsروبات ها,
195
613674
2578
هنگامیکه ما رفتار شدیدی
با روبات‌ها به ویژه
10:28
specificallyبه طور مشخص robotsروبات ها
that are designedطراحی شده to mimicتقلید کردن life,
196
616276
3120
روبات‌های که برای تقلید
زندگی طراحی شده‌اند،
10:31
is that a healthyسالم outletپریز
for violentخشن behaviorرفتار
197
619420
3892
آیا آن یک بازخورد درست
برای رفتار خشونت آمیز است
10:35
or is that trainingآموزش our crueltyظلم musclesعضلات?
198
623336
2544
یا آن که ابزار بی‌رحمی را پرورش می‌دهند؟
10:39
We don't know ...
199
627511
1150
ما نمی‌دانیم …
10:42
But the answerپاسخ to this questionسوال has
the potentialپتانسیل to impactتأثیر humanانسان behaviorرفتار,
200
630622
3945
اما پاسخ به این پرسش دارای
نقش تاثیرگذار بر رفتار انسانی است،
10:46
it has the potentialپتانسیل
to impactتأثیر socialاجتماعی normsهنجارها,
201
634591
2768
دارای پتانسیل تاثیرگذاری بر
هنجار‌های اجتماعی است،
10:49
it has the potentialپتانسیل to inspireالهام بخشیدن rulesقوانین
around what we can and can't do
202
637383
3849
دارای پتانسیل تاثیرگذار بر اصول الهام بخش
در محدوده آنچه می‌توانیم و نمی‌توانیم
10:53
with certainمسلم - قطعی robotsروبات ها,
203
641256
1151
با روبات‌های ویژه همچون
10:54
similarمشابه to our animalحیوانات crueltyظلم lawsقوانین.
204
642431
1848
قوانین آزار حیوانات انجام دهیم.
10:57
Because even if robotsروبات ها can't feel,
205
645228
2864
زیرا اگرچه روبات‌ها قادر به احساس نیستند،
11:00
our behaviorرفتار towardsبه سمت them
mightممکن matterموضوع for us.
206
648116
3080
رفتار ما با آن‌ها ممکن است
برای ما اهمیت داشته باشد.
11:04
And regardlessبدون در نظر گرفتن of whetherچه
we endپایان up changingتغییر دادن our rulesقوانین,
207
652889
2855
و فارغ از اینکه ما در نهایت
قوانین‌مان تغییر بدهیم،
11:08
robotsروبات ها mightممکن be ableتوانایی to help us
come to a newجدید understandingدرك كردن of ourselvesخودمان.
208
656926
3556
روبات‌ها باید قادر باشند تا ما را
یاری دهند تا خودمان را بهتر بشناسیم.
11:14
Mostاکثر of what I've learnedیاد گرفتم
over the pastگذشته 10 yearsسالها
209
662276
2316
بیشترین چیزی که من
طی ۱۰ سال گذشته یاد گرفته‌ام
11:16
has not been about technologyتکنولوژی at all.
210
664616
2238
هرگز درباره تکنولوژی نبوده است.
11:18
It's been about humanانسان psychologyروانشناسی
211
666878
2503
آن درباره روانشناسی انسان
11:21
and empathyیکدلی and how we relateمربوط بودن to othersدیگران.
212
669405
2603
و همدلی و طریقه ارتباط ما با دیگران است.
11:25
Because when a childکودک is kindنوع to a RoombaRoomba,
213
673524
2365
زیرا هنگامیکه کودکی
با روبات رومبا مهربان باشد،
11:29
when a soldierسرباز triesتلاش می کند to saveصرفه جویی
a robotربات on the battlefieldمیدان جنگ,
214
677262
4015
هنگامیکه سربازی سعی می‌کند
روباتی را در جبهه جنگ نجات دهد،
11:33
or when a groupگروه of people refusesامتناع می کند
to harmصدمه a roboticروباتیک babyعزیزم dinosaurدایناسور,
215
681301
3638
یا هنگامیکه گروهی از مردم از آسیب زدن
به یک روبات دایناسور سر بازمی‌زنند.
11:38
those robotsروبات ها aren'tنه just motorsموتورها
and gearsدنده ها and algorithmsالگوریتم ها.
216
686248
3191
این روباتها تنها موتور،
چرخ دنده‌ها و الگوریتم‌ها نیستند.
11:42
They're reflectionsانعکاس of our ownخودت humanityبشریت.
217
690501
1905
آن‌ها بازتاب انسانیت خود ما هستند.
11:45
Thank you.
218
693523
1151
متشکرم.
11:46
(Applauseتشویق و تمجید)
219
694698
3397
(تشویق)
Translated by ahmad rahbari
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com