ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

كايت دارلينج: لماذا نكون رابط عاطفي مع الروبوتات؟ |Kate Darling

Filmed:
2,403,010 views

نحن مازلنا بعيدين عن تطوير روبوتات لديها قدرة على الإحساس والعاطفة، ولكننا نملك عاطفة إتجاههم، كما تقول أخصائية أخلاقيات الروبوتات كايت دارلينج، ويمكن أن تكون لغريزة مثل هذه عواقب. لنتعلم أكثر كيف أن بنيتنا البيولوجية تعمل على إعطاء هذه الآلات أهداف وحياة لهم. وكيف يمكن أن تساعدنا على فهم أنفسنا بطريقة أفضل.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

في أحد الأيام، قبل حوالي عشر سنوات،
00:13
There was a day, about 10 yearsسنوات agoمنذ,
0
1047
2508
00:15
when I askedطلبت a friendصديق to holdمعلق
a babyطفل dinosaurديناصور robotإنسان آلي upsideرأسا على عقل down.
1
3579
3944
طلبت من صديق لي أن يمسك
روبوت على شكل طفل ديناصور رأسًا على عقب.
00:21
It was this toyعروسه لعبه calledمسمي a Pleoبليو
that I had orderedأمر,
2
9889
3446
كانت لعبة إسمها "بليو"
وقد اشتريتها سابقاً،
00:25
and I was really excitedفرح about it
because I've always lovedأحب robotsالروبوتات.
3
13359
4401
وكنت متحمسة للحصول عليها
لأنني لطالما أحببت الروبوتات.
00:29
And this one has really coolبارد
technicalتقني featuresالميزات.
4
17784
2279
وكانت هذه اللعبة تحتوي
على ميزات تقنية رائعة.
00:32
It had motorsالمحركات and touchلمس. اتصال. صلة sensorsأجهزة الاستشعار
5
20087
2119
كانت تحتوي على محركات وحساسات لمس
00:34
and it had an infraredالأشعة تحت الحمراء cameraالة تصوير.
6
22230
2244
وكذلك كاميرا بالأشعة تحت الحمراء.
00:36
And one of the things it had
was a tiltإمالة sensorالمستشعر,
7
24498
2763
وأحد الأشياء التي كانت بها
مستشعر للإمالة،
00:39
so it knewعرف what directionاتجاه it was facingمواجهة.
8
27285
2318
لذا كانت تعرف الإتجاه الذي كانت توجه له.
00:42
And when you heldمقبض it upsideرأسا على عقل down,
9
30095
2134
وعندما كنت تمسكها رأسًا على عقب،
00:44
it would startبداية to cryيبكي.
10
32253
1572
فإنها تبدأ بالبكاء.
00:46
And I thought this was superممتاز coolبارد,
so I was showingتظهر it off to my friendصديق,
11
34527
3496
وخطر لي أن هذا أمر رائع،
وكنت أرغب في عرضها لصديقي،
00:50
and I said, "Oh, holdمعلق it up by the tailذيل.
See what it does."
12
38047
2805
فقلت له: " أمسكها من الذيل،
وشاهد ماذا ستفعل".
00:55
So we're watchingمشاهدة
the theatricsمسرحية of this robotإنسان آلي
13
43268
3625
بدأنا نشاهد التصرفات الدرامية
التي بدأ يصدرها هذا الروبوت
00:58
struggleصراع and cryيبكي out.
14
46917
2199
المعاناة والبكاء.
01:02
And after a fewقليل secondsثواني,
15
50767
2047
وبعد بضع ثوان،
01:04
it startsيبدأ to botherيزعج me a little,
16
52838
1972
بدأ الأمر يسبب لي الضيق قليلًا،
01:07
and I said, "OK, that's enoughكافية now.
17
55744
3424
وقلت: "يكفي هذا حتى الآن.
01:11
Let's put him back down."
18
59930
2305
لنضعه على الأرض مرة أخرى".
01:14
And then I petحيوان اليف the robotإنسان آلي
to make it stop cryingبكاء.
19
62259
2555
ثم قمت بالمسح على رأس الروبوت
لكي يتوقف عن البكاء.
01:18
And that was kindطيب القلب of
a weirdعجيب experienceتجربة for me.
20
66973
2452
كانت هذه تجربة غريبة بالنسبة لي.
01:22
For one thing, I wasn'tلم يكن the mostعظم
maternalأمومية personشخص at the time.
21
70084
4569
لم تكن لدي مشاعر أمومة كبيرة في ذلك الوقت.
01:26
Althoughبرغم من sinceمنذ then I've becomeيصبح
a motherأم, nineتسعة monthsالشهور agoمنذ,
22
74677
2731
وقد أصبحت أمًا منذ ذلك الحين،
منذ تسعة أشهر مضت،
01:29
and I've learnedتعلم that babiesأطفال alsoأيضا squirmتشنج
when you holdمعلق them upsideرأسا على عقل down.
23
77432
3433
كما تعملت أن الأطفال لايحبون
عندما تمسكهم رأسًا على عقب.
01:32
(Laughterضحك)
24
80889
1563
(ضحك)
01:35
But my responseاستجابة to this robotإنسان آلي
was alsoأيضا interestingمثير للإعجاب
25
83023
2358
ولكن تفاعلي مع هذا الروبوت
كان مثيرًا للاهتمام
01:37
because I knewعرف exactlyبالضبط
how this machineآلة workedعمل,
26
85405
4101
لأنني كنت أعرف طريقة عمل
هذا الروبوت بالصبط،
01:41
and yetبعد I still feltشعور
compelledمجبرا to be kindطيب القلب to it.
27
89530
3262
وبالرغم من ذلك، شعرت أنني
يجب أن أكون لطيفه معه.
01:46
And that observationالملاحظة sparkedأثار a curiosityحب الاستطلاع
28
94450
2707
وقد أثارت تلك الملاحظة فضولي
01:49
that I've spentأنفق the pastالماضي decadeعقد pursuingمتابعة.
29
97181
2832
حيث قضيت العقد الماضي أحقق بها.
01:52
Why did I comfortراحة this robotإنسان آلي?
30
100911
1793
لماذا عملت على مراضاة هذا الروبوت؟
01:56
And one of the things I discoveredمكتشف
was that my treatmentعلاج او معاملة of this machineآلة
31
104228
3579
أحد الأشياء التي اكتشفتها
أن طريقة تعاملي مع هذه الآلة
01:59
was more than just an awkwardغير ملائم momentلحظة
in my livingالمعيشة roomمجال,
32
107831
3701
تتعدى تلك اللحظة الغريبة
التي حدثت في غرفة معيشتي،
02:03
that in a worldالعالمية where we're increasinglyعلى نحو متزايد
integratingدمج robotsالروبوتات into our livesالأرواح,
33
111556
5420
حيث أننا نعيش في عالم يتزايد به
الدور الذي تلعبه الروبوتات في حياتنا،
02:09
an instinctغريزه like that
mightربما actuallyفعلا have consequencesالآثار,
34
117000
3126
لأن غريزة كهذه
يمكن أن يكون لها عواقب،
02:13
because the first thing that I discoveredمكتشف
is that it's not just me.
35
121452
3749
لأن أول شيء اكتشفته
أن هذا الأمر لاينحصر بي فقط.
02:19
In 2007, the Washingtonواشنطن Postبريد
reportedذكرت that the Unitedمتحد Statesتنص على militaryالجيش
36
127249
4802
كتبت الواشنطن بوست تقريرًا
عام 2007 أن جيش الولايات المتحدة
02:24
was testingاختبارات this robotإنسان آلي
that defusedنزع فتيل landأرض minesالألغام.
37
132075
3230
كان يختبر روبوت
لكي يقوم بتفكيك الألغام.
02:27
And the way it workedعمل
was it was shapedعلى شكل like a stickعصا insectحشرة
38
135329
2912
وهو مصمم على شكل حشرة العصى المتحركة
وتمشي مثلها أيضًا
02:30
and it would walkسير
around a minefieldحقل ألغام on its legsالساقين,
39
138265
2651
حيث أنها تمشي
في حقل الألغام على أرجلها،
02:32
and everyكل time it steppedصعدت on a mineالخاص بي,
one of the legsالساقين would blowعاصفة up,
40
140940
3206
وتنفجر إحدى الأرجل
في كل مرة تطئ أحد الألغام،
ثم تمشي على الأرجل الأخرى
لكي تفجر ألغام إضافية.
02:36
and it would continueاستمر on the other legsالساقين
to blowعاصفة up more minesالألغام.
41
144170
3057
وقد قام العقيد المسؤول عن الإختبار
02:39
And the colonelكولونيل who was in chargeالشحنة
of this testingاختبارات exerciseممارسه الرياضه
42
147251
3786
بإيقافه وإلغاءه،
02:43
endsنهايات up callingدعوة it off,
43
151061
2118
حيث يقول أنه عمل غير إنساني
02:45
because, he saysيقول, it's too inhumaneغير إنساني
44
153203
2435
أن نرى هذا الروبوت وهو يجر نفسه
عبر حقل الألغام.
02:47
to watch this damagedالتالفة robotإنسان آلي
dragسحب itselfبحد ذاتها alongعلى طول the minefieldحقل ألغام.
45
155662
4516
02:54
Now, what would causeسبب
a hardenedتصلب militaryالجيش officerضابط
46
162978
3897
ما الذي قد يدفع ضابط عسكري متمرس
02:58
and someoneشخصا ما like myselfنفسي
47
166899
2043
وشخص مثلي أنا
03:00
to have this responseاستجابة to robotsالروبوتات?
48
168966
1857
ليكون لدينا ذات المشاعر للروبوتات؟
03:03
Well, of courseدورة, we're primedتستعد
by scienceعلم fictionخيال and popفرقعة cultureحضاره
49
171537
3310
نحن نتأثر بالثقافة المنتشرة والخيال العلمي
03:06
to really want to personifyجسد these things,
50
174871
2579
حيث نرغب في أن نمنحها شخصية كالإنسان،
03:09
but it goesيذهب a little bitقليلا deeperأعمق than that.
51
177474
2789
لكن الأمر أعمق من هذا.
03:12
It turnsيتحول out that we're biologicallyبيولوجيا
hardwiredماثلة to projectمشروع intentنوايا and life
52
180287
5309
من الواضح أن بنيتنا البيولوجية تدفعنا
لإعطاء صفة الحياة وهدف لوجود
03:17
ontoعلى any movementحركة in our physicalجسدي - بدني spaceالفراغ
that seemsيبدو autonomousواثق من نفسه to us.
53
185620
4766
لكل ما يتحرك في فضائنا المادي
ويكون غير معتمدًا علينا.
03:23
So people will treatيعالج all sortsأنواع
of robotsالروبوتات like they're aliveعلى قيد الحياة.
54
191214
3465
لذا يتعامل الناس مع الروبوتات
وكأنها كائن حي.
03:26
These bomb-disposalالتخلص من القنابل unitsوحدات get namesأسماء.
55
194703
2683
يتم إطلاق أسماء على الوحدات
التي تتخلص من القنابل.
03:29
They get medalsميداليات of honorشرف.
56
197410
1682
كما يحصلون على ميداليات الشرف.
03:31
They'veلقد had funeralsالجنازات for them
with gunبندقية salutesتحيي.
57
199116
2325
وحصل بعضهم على جنازات
مع تحية السلاح.
03:34
And researchابحاث showsعروض that we do this
even with very simpleبسيط householdمنزلي robotsالروبوتات,
58
202380
3833
وتبين الأبحاث أننا نقوم بهذا
مع أبسط روبوتات الأعمال المنزلية،
03:38
like the Roombaرومبا vacuumمكنسة كهرباء cleanerمنظف.
59
206237
2135
مثل مكنسة (رومبا) الآلية.
03:40
(Laughterضحك)
60
208396
1291
(ضحك)
03:41
It's just a discالقرص that roamsيطوف
around your floorأرضية to cleanنظيف it,
61
209711
3089
هي عبارة عن قرص
يتحرك في أرجاء الأرضية لتنظيفها،
03:44
but just the factحقيقة it's movingمتحرك
around on its ownخاصة
62
212824
2306
ولكن حقيقة أنها تتحرك لوحدها
03:47
will causeسبب people to nameاسم the Roombaرومبا
63
215154
2167
سيدفع الناس أن يعطوا أسماء لها
03:49
and feel badسيئة for the Roombaرومبا
when it getsيحصل على stuckعالق underتحت the couchأريكة.
64
217345
3182
ويشعرون بالضيق اتجاهها
عندما تنحشر تحت إحدى الآرائك.
03:52
(Laughterضحك)
65
220551
1865
(ضحك)
03:54
And we can designالتصميم robotsالروبوتات
specificallyعلى وجه التحديد to evokeأثار this responseاستجابة,
66
222440
3340
يمكننا تصميم روبوتات
لكي تقوم بإثارة ردة الفعل هذه تحديدًا،
03:57
usingاستخدام eyesعيون and facesوجوه or movementsالحركات
67
225804
3461
بإستخدام الأعين والأوجه أو الحركات
04:01
that people automaticallyتلقائيا,
subconsciouslyلا شعوريا associateمساعد
68
229289
3259
بحيث يكون الناس رابطًا لا شعوريًا
بشكل تلقائي
04:04
with statesتنص على of mindعقل.
69
232572
2020
مع الحالة الذهنية أو النفسية.
04:06
And there's an entireكامل bodyالجسم of researchابحاث
calledمسمي human-robotبين الإنسان والروبوت interactionالتفاعل
70
234616
3293
هناك مجموعة كاملة من الأبحاث تسمى
التفاعل الإنساني مع الروبوتات
04:09
that really showsعروض how well this worksأعمال.
71
237933
1826
الذي يهتم بإظهار مدى نجاح هذا الأمر.
04:11
So for exampleمثال, researchersالباحثين
at Stanfordستانفورد Universityجامعة foundوجدت out
72
239783
3126
فمثلا، وجد الباحثون في جامعة ستانفورد
04:14
that it makesيصنع people really uncomfortableغير مريح
73
242933
2001
أن الناس يكونوا غير مرتاحين إطلاقًا
04:16
when you askيطلب them to touchلمس. اتصال. صلة
a robot'sالروبوت privateنشر partsأجزاء.
74
244958
2472
عندما تطلب منهم لمس
أجزاء الروبوتات الخاصة.
04:19
(Laughterضحك)
75
247454
2120
(ضحك)
04:21
So from this, but from manyكثير other studiesدراسات,
76
249598
2023
من هذه الدراسة
ومن دراسات أخرى مشابهه،
04:23
we know, we know that people
respondرد to the cuesيدل givenمعطى to them
77
251645
4223
نعرف أن الناس تتجاوب
مع الإشارات التي تظهر لهم
04:27
by these lifelikeنابض بالحياة machinesآلات,
78
255892
2022
من هذه الآلات
التي هي أقرب ما تكون للحياة،
04:29
even if they know that they're not realحقيقة.
79
257938
2017
حتى وإن كانوا يعلمون أنها ليست حية.
04:33
Now, we're headedذو رأس towardsتجاه a worldالعالمية
where robotsالروبوتات are everywhereفي كل مكان.
80
261654
4056
نحن نتجه الآن لعالم توجد به الروبوتات
في جميع نواحي الحياة.
لم تعد تكنولوجيا الروبوتات
محصورة في جدران المصانع.
04:37
Roboticالروبوتية technologyتقنية is movingمتحرك out
from behindخلف factoryمصنع wallsالجدران.
81
265734
3065
بل بدأنا نجدها في أماكن عملنا ومنازلنا.
04:40
It's enteringدخول workplacesأماكن العمل, householdsالأسر.
82
268823
3013
04:43
And as these machinesآلات that can senseإحساس
and make autonomousواثق من نفسه decisionsقرارات and learnتعلم
83
271860
6209
بدأت هذه الآلات التي تقدر أن تشعر
وتتخذ قرارات مستقلة وتتعلم
04:50
enterأدخل into these sharedمشترك spacesالمساحات,
84
278093
2552
تتواجد في هذه الأماكن المشتركة،
04:52
I think that maybe the bestالأفضل
analogyتشابه جزئي we have for this
85
280669
2496
أعتقد أن أفضل مثال
يمكن أن نقدمه لهذه الحالة
04:55
is our relationshipصلة with animalsالحيوانات.
86
283189
1935
هي علاقتنا مع الحيوانات.
04:57
Thousandsالآلاف of yearsسنوات agoمنذ,
we startedبدأت to domesticateروض animalsالحيوانات,
87
285523
3888
حيث بدأنا نستأنس الحيوانات
منذ آلاف السنوات،
05:01
and we trainedمتدرب them for work
and weaponryأسلحة and companionshipرفقة.
88
289435
4045
دربناهم للقيام بأعمال
أو ليكونوا سلاح ما أو ليكونوا رفقاء لنا.
05:05
And throughoutعلى مدار historyالتاريخ, we'veقمنا treatedيعالج
some animalsالحيوانات like toolsأدوات or like productsمنتجات,
89
293504
4985
وقد عاملنا بعض هذه الحيوانات
كأدوات أو بضائع على مر التاريخ،
05:10
and other animalsالحيوانات,
we'veقمنا treatedيعالج with kindnessلطف
90
298513
2174
وعاملنا أنواع أخرى برقة وحنان
05:12
and we'veقمنا givenمعطى a placeمكان in societyالمجتمع
as our companionsالصحابة.
91
300711
3078
وتم منحهم مكانة في المجتمع
على أنهم رفقاء لنا.
05:15
I think it's plausibleمعقول we mightربما startبداية
to integrateدمج robotsالروبوتات in similarمماثل waysطرق.
92
303813
3849
أعتقد أنه من الممكن أن نبدأ
دمج الروبوتات بطرق مشابهه.
05:21
And sure, animalsالحيوانات are aliveعلى قيد الحياة.
93
309484
3096
وبالطبع، الحيوانات كائنات حية.
05:24
Robotsالروبوتات are not.
94
312604
1150
بعكس الروبوتات.
05:27
And I can tell you,
from workingعامل with roboticistsالروبوتات,
95
315626
2580
ويمكنني أن أخبركم،
من خلال عملي في مجال الروبوتات،
05:30
that we're prettyجميلة farبعيدا away from developingتطوير
robotsالروبوتات that can feel anything.
96
318230
3522
أننا بعيدين للغاية من تطوير
روبوت قادر على الإحساس بأي شيء.
05:35
But we feel for them,
97
323072
1460
ولكننا نمتلك أحاسيس نحوها،
05:37
and that mattersالقضايا,
98
325835
1207
وهذا شيء مهم،
05:39
because if we're tryingمحاولة to integrateدمج
robotsالروبوتات into these sharedمشترك spacesالمساحات,
99
327066
3627
لأننا إن كنا نحاول دمج الروبوتات
في تلك الأماكن المشتركة،
05:42
we need to understandتفهم that people will
treatيعالج them differentlyبشكل مختلف than other devicesالأجهزة,
100
330717
4628
يتوجب علينا أن نعلم أن الناس ستتعامل معها
بطريقة تختلف عن الأجهزة الأخرى،
05:47
and that in some casesالحالات,
101
335369
1844
كما في بعض الحالات،
05:49
for exampleمثال, the caseقضية of a soldierجندي
who becomesيصبح emotionallyعاطفيا attachedتعلق
102
337237
3172
مثل الجندي الذي يصبح لديه إرتباط عاطفي
05:52
to the robotإنسان آلي that they work with,
103
340433
2047
مع الروبوت الذي يعمل معه،
05:54
that can be anything
from inefficientغير فعال to dangerousخطير.
104
342504
2504
والذي يمكن أن يكون أمرًا خطيرًا
أو يصبح غير فعال.
05:58
But in other casesالحالات,
it can actuallyفعلا be usefulمفيد
105
346551
2138
ولكنه قد يكون مفيدًا في حالات أخرى،
06:00
to fosterالحاضنة this emotionalعاطفي
connectionصلة to robotsالروبوتات.
106
348713
2623
أن نعزز هذا الإتصال العاطفي
مع الروبوتات.
06:04
We're alreadyسابقا seeingرؤية some great use casesالحالات,
107
352184
2134
بدأنا بالفعل نرى
بعض حالات الإستخدام الرائعة،
06:06
for exampleمثال, robotsالروبوتات workingعامل
with autisticمتوحد عقليا childrenالأطفال
108
354342
2604
فمثلا، الروبوتات التي تعمل
مع الأطفال المصابين بالتوحد
06:08
to engageجذب them in waysطرق
that we haven'tلم seenرأيت previouslyسابقا,
109
356970
3634
وتشجيعهم على المشاركة
بأساليب لم نكن نراها سابقًا،
06:12
or robotsالروبوتات workingعامل with teachersمعلمون to engageجذب
kidsأطفال in learningتعلم with newالجديد resultsالنتائج.
110
360628
4000
أو الروبوتات التي تعمل مع المدرسين
لتعزيز مشاركة الأطفال معطية نتائج جديدة.
06:17
And it's not just for kidsأطفال.
111
365433
1381
وليس الأطفال فقط.
06:19
Earlyمبكرا studiesدراسات showتبين that robotsالروبوتات
can help doctorsالأطباء and patientsالمرضى
112
367750
3223
تبين دراسات أولية أن الروبوتات
يمكن أن تساعد الأطباء والمرضى
06:22
in healthالصحة careرعاية settingsإعدادات.
113
370997
1427
في أماكن الرعاية الصحية.
06:25
This is the PAROبارو babyطفل sealاغلاق محكم robotإنسان آلي.
114
373535
1810
هذا روبوت (بارو) على شكل طفل الفقمة.
06:27
It's used in nursingتمريض homesمنازل
and with dementiaمرض عقلي patientsالمرضى.
115
375369
3285
تستخدم في دور رعاية المسنين
ومع مرضى الخرف.
06:30
It's been around for a while.
116
378678
1570
وهي موجودة منذ فترة.
06:32
And I rememberتذكر, yearsسنوات agoمنذ,
beingيجرى at a partyحفل
117
380272
3325
وأذكر أنني كنت في حفلة من سنوات عدة،
06:35
and tellingتقول someoneشخصا ما about this robotإنسان آلي,
118
383621
2571
وأخبرت أحد صديقاتي عن هذا الروبوت،
06:38
and her responseاستجابة was,
119
386216
2126
وكان ردة فعلها،
06:40
"Oh my goshيا الهي.
120
388366
1262
"يا إلهي،
06:42
That's horribleرهيب.
121
390508
1188
هذا فظيع،
06:45
I can't believe we're givingإعطاء people
robotsالروبوتات insteadفي حين أن of humanبشري careرعاية."
122
393056
3397
لا أصدقك أننا نعطي المرضى روبوتات
بدلًا من الرعاية البشرية".
06:50
And this is a really commonمشترك responseاستجابة,
123
398540
1875
وكان هذا هو الرد المتكرر دومًا،
06:52
and I think it's absolutelyإطلاقا correctصيح,
124
400439
2499
وأعتقد أنهم مصيبين جدًا،
06:54
because that would be terribleرهيب.
125
402962
2040
لأن هذا الأمر سيكون مريعًا.
06:57
But in this caseقضية,
it's not what this robotإنسان آلي replacesيستبدل.
126
405795
2484
لكن الأمر لايقتصر
على ما الذي تحل الروبوتات مكانه.
07:00
What this robotإنسان آلي replacesيستبدل is animalحيوان therapyعلاج
127
408858
3120
تستخدم هذه الروبوتات كبديل
للعلاج بالحيوانات
07:04
in contextsالسياقات where
we can't use realحقيقة animalsالحيوانات
128
412002
3198
وذلك في إطار أننا لا نستطيع
أن نستخدم حيوانات حقيقية
ولكن يمكننا إستخدام الروبوتات،
07:07
but we can use robotsالروبوتات,
129
415224
1168
07:08
because people will consistentlyباتساق treatيعالج
them more like an animalحيوان than a deviceجهاز.
130
416416
5230
لأن الناس سيتعاملون معها كحيوان
بدلًا من أن يعاملوها كآلة.
07:15
Acknowledgingالاعتراف this emotionalعاطفي
connectionصلة to robotsالروبوتات
131
423502
2380
ملاحظة هذا الترابط العاطفي مع الروبوتات
07:17
can alsoأيضا help us anticipateتوقع challengesالتحديات
132
425906
1969
يساعدنا في التنبؤ بالتحديات
07:19
as these devicesالأجهزة moveنقل into more intimateحميم
areasالمناطق of people'sوالناس livesالأرواح.
133
427899
3451
لدخول هذه الآلات لمناطق
أكثر حميمية في حياة الناس.
07:24
For exampleمثال, is it OK
if your child'sالطفل teddyدمية bearيتحمل robotإنسان آلي
134
432111
3404
مثلًا، هل من المقبول
أن يقوم روبوت طفلك على شكل دب
07:27
recordsتسجيل privateنشر conversationsالمحادثات?
135
435539
2237
أن يسجل المحادثات الخاصة؟
07:29
Is it OK if your sexجنس robotإنسان آلي
has compellingقهري in-appفي التطبيق purchasesالمشتريات?
136
437800
4063
هل من المقبول أن يقوم روبوت حميمي
بإجراء مشتريات من خلال تطبيقات؟
07:33
(Laughterضحك)
137
441887
1396
(ضحك)
07:35
Because robotsالروبوتات plusزائد capitalismرأسمالية
138
443307
2501
لأن وجود الروبوتات في نظام رأس مالي
07:37
equalsيساوي questionsالأسئلة around
consumerمستهلك protectionحماية and privacyالإجمالية.
139
445832
3705
ينتج عنه تساؤلات حول
حماية المستهلك والخصوصية.
07:42
And those aren'tلا the only reasonsأسباب
140
450549
1612
وهذه ليست الأسباب الوحيدة
07:44
that our behaviorسلوك around
these machinesآلات could matterشيء.
141
452185
2570
أن يكون تعاملنا مع هذه الآلات
يحظى بأهمية ما.
07:48
A fewقليل yearsسنوات after that first
initialمبدئي experienceتجربة I had
142
456747
3270
بعد بضع سنوات من الموقف الذي اختبرته
07:52
with this babyطفل dinosaurديناصور robotإنسان آلي,
143
460041
2311
مع روبوت صغير الديناصور،
07:54
I did a workshopورشة عمل
with my friendصديق Hannesهانز Gassertgassert.
144
462376
2501
قمت بإجراء ورشة عملية
مع صديقي "هانيز جاسيرت".
07:56
And we tookأخذ fiveخمسة
of these babyطفل dinosaurديناصور robotsالروبوتات
145
464901
2897
وأعطينا خمسة من هذه الروبوتات
صغار الديناصور
07:59
and we gaveأعطى them to fiveخمسة teamsفرق of people.
146
467822
2453
وأعطيناها لخمسة فرق.
08:02
And we had them nameاسم them
147
470299
1697
وطلبنا منهم إطلاق أسماء عليها
08:04
and playلعب with them and interactتفاعل with them
for about an hourساعة.
148
472020
3809
واللعب والتفاعل معها لمدة ساعة تقريبًا.
08:08
And then we unveiledكشف
a hammerشاكوش and a hatchetفأس صغيرة
149
476707
2206
ثم قدمنا لهم مطرقة وفأس
08:10
and we told them to tortureتعذيب
and killقتل the robotsالروبوتات.
150
478937
2278
وطلبنا منهم تعذيب الروبوتات وقتلها.
08:13
(Laughterضحك)
151
481239
3007
(ضحك)
08:16
And this turnedتحول out to be
a little more dramaticدراماتيكي
152
484857
2294
وبدا الأمر دراميًا
08:19
than we expectedمتوقع it to be,
153
487175
1278
أكثر مما توقعنا،
08:20
because noneلا شيء of the participantsالمشاركين
would even so much as strikeإضراب
154
488477
3072
لأنه لم يقدم أحد من المشاركين
على مجرد ضرب قليلًا
08:23
these babyطفل dinosaurديناصور robotsالروبوتات,
155
491573
1307
روبوتات صغار الديناصور هذه،
08:24
so we had to improviseارتجل a little,
and at some pointنقطة, we said,
156
492904
5150
لذا توجب علينا الارتجال قليلًا
إلى أن قلنا في مرحلة ما،
08:30
"OK, you can saveحفظ your team'sفرق robotإنسان آلي
if you destroyهدم anotherآخر team'sفرق robotإنسان آلي."
157
498078
4437
"يمكنكم إنقاذ روبوت فريقكم
إن قمتم بتدمير روبوت الفريق الآخر".
08:34
(Laughterضحك)
158
502539
1855
(ضحك)
08:36
And even that didn't work.
They couldn'tلم أستطع do it.
159
504839
2195
لم يفلح هذا الأمر أيضًا.
لم يقدروا على فعل هذا.
08:39
So finallyأخيرا, we said,
160
507058
1151
ولذا قلنا أخيرًا،
08:40
"We're going to destroyهدم all of the robotsالروبوتات
161
508233
2032
"سوف نحطم جميع هذه الروبوتات
08:42
unlessما لم someoneشخصا ما takes
a hatchetفأس صغيرة to one of them."
162
510289
2285
إلا إذا قام أحدكم بضرب
أحد الروبوتات بالفأس"
08:45
And this guy stoodوقف up,
and he tookأخذ the hatchetفأس صغيرة,
163
513586
3579
ثم وقف أحدهم، وأخذ الفأس،
08:49
and the wholeكامل roomمجال wincedجافل
as he broughtجلبت the hatchetفأس صغيرة down
164
517189
2706
وانتفضت الغرفة بكاملها
حين قام بضرب الفأس
08:51
on the robot'sالروبوت neckالعنق,
165
519919
1780
على رقبة أحد الروبوتات،
08:53
and there was this half-jokingالمزاح-نصف,
half-seriousنصف خطيره momentلحظة of silenceالصمت in the roomمجال
166
521723
6338
سادت لحظة صمت في الغرفة
التي كانت خليطًا بين الجد والمزاح
09:00
for this fallenساقط robotإنسان آلي.
167
528085
1698
لهذا الروبوت الذي فقدناه.
09:01
(Laughterضحك)
168
529807
1406
(ضحك)
09:03
So that was a really
interestingمثير للإعجاب experienceتجربة.
169
531237
3694
كانت تلك تجربة مثيرة بحق.
09:06
Now, it wasn'tلم يكن a controlledخاضع للسيطرة
studyدراسة, obviouslyبوضوح,
170
534955
2459
بالطبع، لم تكن تلك دراسة
ذات قواعد كما هو واضح
09:09
but it did leadقيادة to some
laterفي وقت لاحق researchابحاث that I did at MITMIT
171
537438
2850
لكنها مهدت لأبحاث قمت بها
في معهد ماساتشوستس للتكنولوجيا
09:12
with PalashPalash Nandyناندي and Cynthiaسينثيا BreazealBreazeal,
172
540312
2228
مع "بلاش ناندي" و"سينثيا بريزيل"،
09:14
where we had people come into the labمختبر
and smashتحطيم these HEXBUGsالأخطاء السداسية
173
542564
3627
حيث أحضرنا أشخاص للمعمل
لكي يحطموا "آلات سداسية الأرجل"
09:18
that moveنقل around in a really
lifelikeنابض بالحياة way, like insectsالحشرات.
174
546215
3087
وكانت تتحرك في كل مكان
كالحشرات الحقيقية.
09:21
So insteadفي حين أن of choosingاختيار something cuteجذاب
that people are drawnمسحوب to,
175
549326
3134
ولذا بدلًا من أحد الأشكال اللطيفة
التي قد يتعاطف الناس معها،
09:24
we choseاختار something more basicالأساسية,
176
552484
2093
اخترنا شيئ أكثر بساطة،
09:26
and what we foundوجدت
was that high-empathyعاليه التعاطف people
177
554601
3480
ووجدنا أن الأشخاص
الذين لديهم قدر أكبر من التعاطف
09:30
would hesitateتردد more to hitنجاح the HEXBUGSهيكسيبق.
178
558105
2143
ترددوا أكثر في ضرب
تلك الألات السداسية الأرجل.
09:33
Now this is just a little studyدراسة,
179
561575
1564
هذه مجرد دراسة بسيطة،
09:35
but it's partجزء of a largerأكبر bodyالجسم of researchابحاث
180
563163
2389
ولكنها جزء ضمن بحث أكبر
09:37
that is startingابتداء to indicateتشير
that there mayقد be a connectionصلة
181
565576
2944
الذي بدأ يعطي مؤشرات
أنه لربما كانت هناك علاقة ما
09:40
betweenما بين people'sوالناس tendenciesالميول for empathyالعطف
182
568544
2373
بين ميل الناس لإظهار تعاطفهم
09:42
and theirهم behaviorسلوك around robotsالروبوتات.
183
570941
1976
وطريقة تصرفهم عند وجود الروبوتات.
09:45
But my questionسؤال for the comingآت eraعصر
of human-robotبين الإنسان والروبوت interactionالتفاعل
184
573721
3627
إلا أن سؤالي للمرحلة القادمة
من التعامل بين الإنسان والروبوت
09:49
is not: "Do we empathizeالتعاطف with robotsالروبوتات?"
185
577372
3055
هو ليس: "هل نتعاطف مع الروبوتات؟"
09:53
It's: "Can robotsالروبوتات changeيتغيرون
people'sوالناس empathyالعطف?"
186
581211
2920
بل: "هل يمكن أن تغيرالروبوتات
الطريقة التي يتعاطف بها الناس؟"
09:57
Is there reasonالسبب to, for exampleمثال,
187
585489
2287
فمثلًا، هل هناك سبب ما
09:59
preventيحول دون your childطفل
from kickingالركل a roboticالروبوتية dogالكلب,
188
587800
2333
يمنع طفلك من ركل روبوت على شكل كلب،
10:03
not just out of respectاحترام for propertyخاصية,
189
591228
2914
ليس فقط لأنه يحترم ملكية الآخرين.
10:06
but because the childطفل mightربما be
more likelyالمحتمل أن to kickركلة a realحقيقة dogالكلب?
190
594166
2953
ولكن لأن الطفل قد يكون
أكثر قابلية لركل كلب حقيقي؟
10:10
And again, it's not just kidsأطفال.
191
598507
1883
مرة أخرى، الأمر لا يقتصر على الأطفال.
10:13
This is the violentعنيف videoفيديو gamesألعاب questionسؤال,
but it's on a completelyتماما newالجديد levelمستوى
192
601564
4056
هو ذات السؤال الخاص بألعاب الفيديو العنيفة
ولكن على مستوى جديد تمامًا
10:17
because of this visceralالأحشاء physicalityالبدنية
that we respondرد more intenselyمكثف to
193
605644
4760
هذا العنف الداخلي الذي نستخدمة
بشكل أكثر حدة
10:22
than to imagesصور on a screenشاشة.
194
610428
1547
مقارنة بصور على شاشة ما.
10:25
When we behaveتصرف violentlyبعنف towardsتجاه robotsالروبوتات,
195
613674
2578
عندما نظهر العنف اتجاه الروبوتات،
10:28
specificallyعلى وجه التحديد robotsالروبوتات
that are designedتصميم to mimicمقلد الصوت والحركة life,
196
616276
3120
خصوصًا الروبوتات
المصممة لمحاكاة مخلوقات حية،
10:31
is that a healthyصحي outletمخرج
for violentعنيف behaviorسلوك
197
619420
3892
هل هذا منفذ صحي للسلوك العنيف
10:35
or is that trainingتدريب our crueltyقسوة musclesالعضلات?
198
623336
2544
أم أن هذا مجرد تمرين للمشاعر العدوانية؟
10:39
We don't know ...
199
627511
1150
نحن لا نعلم
10:42
But the answerإجابة to this questionسؤال has
the potentialمحتمل to impactتأثير humanبشري behaviorسلوك,
200
630622
3945
إلا أن إجابة هذا السؤال قد
تكون قادرة على التأثير على السلوك البشري،
10:46
it has the potentialمحتمل
to impactتأثير socialاجتماعي normsأعراف,
201
634591
2768
قد تكون قادرة على التأثير
على الأنماط الإجتماعية،
10:49
it has the potentialمحتمل to inspireألهم rulesقواعد
around what we can and can't do
202
637383
3849
قد يكون لديها تأثير لإستنباط
قواعد تحدد ما يمكننا وما لا يمكننا فعله
10:53
with certainالمؤكد robotsالروبوتات,
203
641256
1151
مع روبوتات معينة،
10:54
similarمماثل to our animalحيوان crueltyقسوة lawsقوانين.
204
642431
1848
مشابهة لقوانين تجريم العنف نحو الحيوان.
10:57
Because even if robotsالروبوتات can't feel,
205
645228
2864
لأنه حتى وإن لم تقدر الروبوتات على الشعور،
11:00
our behaviorسلوك towardsتجاه them
mightربما matterشيء for us.
206
648116
3080
ربما كانت طريقة تعاملنا معها
مهمة لنا نحن.
11:04
And regardlessبغض النظر of whetherسواء
we endالنهاية up changingمتغير our rulesقواعد,
207
652889
2855
وبغض النظر إن قمنا بتغير قوانيننا أم لا،
11:08
robotsالروبوتات mightربما be ableقادر to help us
come to a newالجديد understandingفهم of ourselvesأنفسنا.
208
656926
3556
ربما تمكنت الروبوتات من أن تعطينا
فهم أفضل عن أنفسنا.
11:14
Mostعظم of what I've learnedتعلم
over the pastالماضي 10 yearsسنوات
209
662276
2316
معظم ما تعلمته خلال العشر سنوات الماضية
11:16
has not been about technologyتقنية at all.
210
664616
2238
لم يكن يتعلق بالتكنولوجيا إطلاقًا.
11:18
It's been about humanبشري psychologyعلم النفس
211
666878
2503
بل كان يتعلق بعلم النفس البشري
11:21
and empathyالعطف and how we relateترتبط to othersالآخرين.
212
669405
2603
والتعاطف وكيفية التواصل مع الآخرين.
11:25
Because when a childطفل is kindطيب القلب to a Roombaرومبا,
213
673524
2365
لأنه عندما يكون طفل لطيفًا
مع مكنسة (رومبا)،
11:29
when a soldierجندي triesيحاول to saveحفظ
a robotإنسان آلي on the battlefieldساحة المعركة,
214
677262
4015
عندما يحاول جندي إنقاذ
روبوت في ساحة الحرب،
11:33
or when a groupمجموعة of people refusesيرفض
to harmضرر a roboticالروبوتية babyطفل dinosaurديناصور,
215
681301
3638
أو عندما ترفض مجموعة من الأشخاص
أن يؤذوا روبوتات على شكل ديناصورات صغيرة،
11:38
those robotsالروبوتات aren'tلا just motorsالمحركات
and gearsالتروس and algorithmsخوارزميات.
216
686248
3191
فإن هذه الروبوتات ليست فقط
محركات وتروس وبرمجيات.
11:42
They're reflectionsخواطر of our ownخاصة humanityإنسانية.
217
690501
1905
ولكنها إنعكاس لأنسانيتنا كذلك.
11:45
Thank you.
218
693523
1151
شكرًا جزيلًا.
11:46
(Applauseتصفيق)
219
694698
3397
(تصفيق)
Translated by Hani Eldalees
Reviewed by Nada Qanbar

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com