ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

קייט דרלינג: למה אנחנו נקשרים רגשית לרובוטים?

Filmed:
2,403,010 views

אנחנו עדיין לא יכולים לפתח רובוטים בעלי רגשות, אבל כבר יש לנו רגשות כלפיהם, לדברי קייט דרלינג, שעוסקת באתיקה רובוטית, ולאינסטינקט הזה יכולות להיות השלכות. למדו עוד על המנגנון הביולוגי שגורם לנו לייחס כוונה וחיים למכונות - ואיך הן יכולות לעזור לנו להבין את עצמנו טוב יותר.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsשנים agoלִפנֵי,
0
1047
2508
יום אחד, לפני עשר שנים בערך,
00:15
when I askedשאל a friendחָבֵר to holdלְהַחזִיק
a babyתִינוֹק dinosaurדינוזאור robotרוֹבּוֹט upsideהפוך down.
1
3579
3944
ביקשתי מחבר להחזיק רובוט
של דינוזאור תינוק הפוך.
00:21
It was this toyצַעֲצוּעַ calledשקוראים לו a PleoPleo
that I had orderedהורה,
2
9889
3446
זה היה צעצוע בשם פליאו שהזמנתי,
00:25
and I was really excitedנִרגָשׁ about it
because I've always lovedאהוב robotsרובוטים.
3
13359
4401
והייתי נרגשת מאוד כי תמיד אהבתי רובוטים.
00:29
And this one has really coolמגניב
technicalטֶכנִי featuresמאפיינים.
4
17784
2279
ולרובוט הזה היו תכונות ממש מגניבות.
00:32
It had motorsמנועים and touchלגעת sensorsחיישנים
5
20087
2119
היו לו מנועים וחיישני נגיעה
00:34
and it had an infraredאינפרא אדום cameraמַצלֵמָה.
6
22230
2244
ומצלמת אינפרא-אדום.
00:36
And one of the things it had
was a tiltלְהַטוֹת sensorחיישן,
7
24498
2763
והיה לו גם חיישן הטייה,
00:39
so it knewידע what directionכיוון it was facingמוּל.
8
27285
2318
כך שהוא ידע באיזה כיוון מחזיקים אותו
ביחס לאדמה.
00:42
And when you heldמוּחזָק it upsideהפוך down,
9
30095
2134
וכשהחזיקו אותו הפוך,
00:44
it would startהַתחָלָה to cryבוכה.
10
32253
1572
הוא היה מתחיל לבכות.
00:46
And I thought this was superסוּפֶּר coolמגניב,
so I was showingמראה it off to my friendחָבֵר,
11
34527
3496
אני חשבתי שזה ממש מגניב,
אז הראיתי את זה לחבר שלי,
00:50
and I said, "Oh, holdלְהַחזִיק it up by the tailזָנָב.
See what it does."
12
38047
2805
ואמרתי, "תחזיק אותו מהזנב
ותראה מה הוא עושה."
00:55
So we're watchingצופה
the theatricstheatrics of this robotרוֹבּוֹט
13
43268
3625
אז עמדנו וצפינו ברובוט
00:58
struggleמַאֲבָק and cryבוכה out.
14
46917
2199
שהתחיל להיאבק ולבכות.
01:02
And after a fewמְעַטִים secondsשניות,
15
50767
2047
ואחרי כמה שניות,
01:04
it startsמתחיל to botherלְהטרִיד me a little,
16
52838
1972
זה התחיל להציק לי קצת,
01:07
and I said, "OK, that's enoughמספיק now.
17
55744
3424
ואמרתי, "בסדר, זה מספיק.
01:11
Let's put him back down."
18
59930
2305
בוא נניח אותו."
01:14
And then I petחיית מחמד the robotרוֹבּוֹט
to make it stop cryingבְּכִי.
19
62259
2555
ואז ליטפתי את הרובוט כדי שיפסיק לבכות.
01:18
And that was kindסוג of
a weirdמְשׁוּנֶה experienceניסיון for me.
20
66973
2452
זו הייתה חוויה די משונה בשבילי.
01:22
For one thing, I wasn'tלא היה the mostרוב
maternalאִמָהִי personאדם at the time.
21
70084
4569
מצד אחד, לא הייתי מאוד אימהית בזמנו.
01:26
Althoughלמרות ש sinceמאז then I've becomeהפכו
a motherאִמָא, nineתֵשַׁע monthsחודשים agoלִפנֵי,
22
74677
2731
למרות שמאז הפכתי לאם,
לפני תשעה חודשים,
01:29
and I've learnedמְלוּמָד that babiesתינוקות alsoגַם squirmלְהִתְפַּתֵל
when you holdלְהַחזִיק them upsideהפוך down.
23
77432
3433
ולמדתי שגם תינוקות מתחילים לבכות
כשמחזיקים אותם הפוך.
01:32
(Laughterצחוק)
24
80889
1563
(צחוק)
01:35
But my responseתְגוּבָה to this robotרוֹבּוֹט
was alsoגַם interestingמעניין
25
83023
2358
אבל התגובה שלי לרובוט הזה הייתה מעניינת
01:37
because I knewידע exactlyבְּדִיוּק
how this machineמְכוֹנָה workedעבד,
26
85405
4101
כי ידעתי בדיוק כיצד המכונה הזאת עובדת,
01:41
and yetעדיין I still feltהרגיש
compelledנאלץ to be kindסוג to it.
27
89530
3262
ובכל זאת הרגשתי צורך להיות נחמדה אליה.
01:46
And that observationתַצְפִּית sparkedנצצו a curiosityסַקרָנוּת
28
94450
2707
ההבחנה הזו הציתה בי סקרנות
01:49
that I've spentמוּתַשׁ the pastעבר decadeעָשׂוֹר pursuingרודף.
29
97181
2832
שהובילה את המחקר שלי בעשור האחרון.
01:52
Why did I comfortנוחות this robotרוֹבּוֹט?
30
100911
1793
למה ליטפתי וניחמתי את הרובוט?
01:56
And one of the things I discoveredגילה
was that my treatmentיַחַס of this machineמְכוֹנָה
31
104228
3579
ואחד הדברים שגיליתי,
היה שהיחס שלי למכונה הזו
01:59
was more than just an awkwardמוזר momentרֶגַע
in my livingחַי roomחֶדֶר,
32
107831
3701
היה יותר מרגע מביך בסלון שלי.
02:03
that in a worldעוֹלָם where we're increasinglyיותר ויותר
integratingשילוב robotsרובוטים into our livesחיים,
33
111556
5420
שבעולם שבו יותר ויותר רובוטים
משתלבים בחיינו,
02:09
an instinctיֵצֶר like that
mightאולי actuallyלמעשה have consequencesהשלכות,
34
117000
3126
לאינסטינקט כזה יכולות להיות השלכות.
02:13
because the first thing that I discoveredגילה
is that it's not just me.
35
121452
3749
כי הדבר הראשון שגיליתי
היה שאני לא היחידה.
02:19
In 2007, the Washingtonוושינגטון Postהודעה
reportedדיווח that the Unitedמאוחד Statesמדינות militaryצבאי
36
127249
4802
בשנת 2007, העיתון וושינגטון פוסט
דיווח שצבא ארה"ב
02:24
was testingבדיקה this robotרוֹבּוֹט
that defusedמנוטרל landארץ minesמוקשים.
37
132075
3230
ערך ניסויים עם רובוט לנטרול מוקשים.
02:27
And the way it workedעבד
was it was shapedמְעוּצָב like a stickמקל insectחֶרֶק
38
135329
2912
זה היה רובוט בצורת חרק מקלוני
02:30
and it would walkלָלֶכֶת
around a minefieldשדה מוקשים on its legsרגליים,
39
138265
2651
שהיה אמור ללכת בשדות מוקשים,
02:32
and everyכֹּל time it steppedצעד on a mineשלי,
one of the legsרגליים would blowלנשוף up,
40
140940
3206
ובכל פעם שדרך על מוקש,
אחת מרגליו היתה מתפוצצת,
02:36
and it would continueלְהַמשִׁיך on the other legsרגליים
to blowלנשוף up more minesמוקשים.
41
144170
3057
והוא היה ממשיך ללכת על הרגליים שנותרו לו
ולפוצץ מוקשים נוספים.
02:39
And the colonelאלוף משנה who was in chargeלחייב
of this testingבדיקה exerciseתרגיל
42
147251
3786
הקולונל שהיה אחראי לבדיקת הרובוט
02:43
endsמסתיים up callingיִעוּד it off,
43
151061
2118
עצר את הבדיקה בשלב מסויים,
02:45
because, he saysאומר, it's too inhumaneלֹא אֶנוֹשִׁי
44
153203
2435
כיוון שלטענתו זה היה אכזרי מדי
02:47
to watch this damagedפגום robotרוֹבּוֹט
dragלִגרוֹר itselfעצמה alongלְאוֹרֶך the minefieldשדה מוקשים.
45
155662
4516
לצפות ברובוט הפגוע ממשיך לגרור
את עצמו על הרגליים שנותרו לו בשדה המוקשים.
02:54
Now, what would causeגורם
a hardenedמוּקשֶׁה militaryצבאי officerקָצִין
46
162978
3897
עכשיו, מה יכול לגרום לקצין צבא קשוח
02:58
and someoneמִישֶׁהוּ like myselfעצמי
47
166899
2043
ולאישה כמוני
03:00
to have this responseתְגוּבָה to robotsרובוטים?
48
168966
1857
להגיב באופן כזה לרובוטים?
03:03
Well, of courseקוּרס, we're primedדרוך
by scienceמַדָע fictionספרות בדיונית and popפּוֹפּ cultureתַרְבּוּת
49
171537
3310
ובכן, כמובן, המדע הבדיוני ותרבות הפופ
השפיעו עלינו
03:06
to really want to personifyלְגַלֵם these things,
50
174871
2579
וגרמו לנו להשליך רגשות ותכונות אנושיות
על החפצים האלו,
03:09
but it goesהולך a little bitbit deeperעמוק יותר than that.
51
177474
2789
אבל זה טיפה יותר עמוק מזה.
03:12
It turnsפונה out that we're biologicallyביולוגית
hardwiredקשה to projectפּרוֹיֶקט intentכוונה and life
52
180287
5309
מסתבר שאנחנו מתוכנתים ביולוגית
להניח את קיומם של כוונות וחיים
03:17
ontoעַל גַבֵּי any movementתְנוּעָה in our physicalגוּפָנִי spaceמֶרחָב
that seemsנראה autonomousאוטונומי to us.
53
185620
4766
עבור כל דבר שנע במרחב ונראה אוטונומי.
03:23
So people will treatטיפול all sortsמיני
of robotsרובוטים like they're aliveבחיים.
54
191214
3465
כך שאנשים יתייחסו לכל מני רובוטים
כאילו הם חיים.
03:26
These bomb-disposalסילוק פצצות unitsיחידות get namesשמות.
55
194703
2683
הרובוטים לפירוק מוקשים מקבלים שמות.
03:29
They get medalsמדליות of honorכָּבוֹד.
56
197410
1682
הם מקבלים מדליות.
03:31
They'veהם עשו זאת had funeralsהלוויות for them
with gunאֶקְדָח salutesמצדיע.
57
199116
2325
ערכו להם הלוויות צבאיות מכובדות.
03:34
And researchמחקר showsמופעים that we do this
even with very simpleפָּשׁוּט householdבית robotsרובוטים,
58
202380
3833
והמחקר מראה שאנחנו עושים את זה
אפילו עם רובוטים ביתיים פשוטים,
03:38
like the Roombaרומבה vacuumלִשְׁאוֹב cleanerמְנַקֶה.
59
206237
2135
כמו הרובוט שואב האבק.
03:40
(Laughterצחוק)
60
208396
1291
(צחוק)
03:41
It's just a discדיסק that roamsשוטטות
around your floorקוֹמָה to cleanלְנַקוֹת it,
61
209711
3089
זה בסה"כ משהו עגול שמסתובב
על הרצפה ומנקה אותה,
03:44
but just the factעוּבדָה it's movingמעבר דירה
around on its ownשֶׁלוֹ
62
212824
2306
אבל עצם העובדה שהוא נע בכוחות עצמו
03:47
will causeגורם people to nameשֵׁם the Roombaרומבה
63
215154
2167
תגרום לאנשים לתת לו שם
03:49
and feel badרַע for the Roombaרומבה
when it getsמקבל stuckתָקוּעַ underתַחַת the couchסַפָּה.
64
217345
3182
ולהרגיש רע עבורו כשהוא נתקע מתחת לספה.
03:52
(Laughterצחוק)
65
220551
1865
(צחוק)
03:54
And we can designלְעַצֵב robotsרובוטים
specificallyבאופן ספציפי to evokeלְהַעֲלוֹת זִכרוֹנוֹת this responseתְגוּבָה,
66
222440
3340
ואנחנו יכולים לתכנן רובוטים במיוחד כדי
לעורר את התגובה הזו,
03:57
usingבאמצעות eyesעיניים and facesפרצופים or movementsתנועות
67
225804
3461
בעזרת עיניים ופנים או תנועה
04:01
that people automaticallyבאופן אוטומטי,
subconsciouslyתת הכרתי associateחָבֵר
68
229289
3259
כך שאנשים ייחסו להם תכונות ורגשות
04:04
with statesמדינות of mindאכפת.
69
232572
2020
באופן אוטומטי, תת מודע.
04:06
And there's an entireשלם bodyגוּף of researchמחקר
calledשקוראים לו human-robotרובוט אנושי interactionאינטראקציה
70
234616
3293
ויש תחום מחקר שלם,
שנקרא יחסי אדם-רובוט
04:09
that really showsמופעים how well this worksעובד.
71
237933
1826
שמראה עד כמה טוב זה עובד.
04:11
So for exampleדוגמא, researchersחוקרים
at Stanfordסטנפורד Universityאוּנִיבֶרְסִיטָה foundמצאתי out
72
239783
3126
לדוגמה, חוקרים באוניברסיטת סטנפורד
גילו שאנשים מרגישים לא בנוח
04:14
that it makesעושה people really uncomfortableלא נוח
73
242933
2001
כשמבקשים מהם לגעת
באיברים המוצנעים של הרובוט.
04:16
when you askלִשְׁאוֹל them to touchלגעת
a robot'sשל רובוט privateפְּרָטִי partsחלקים.
74
244958
2472
04:19
(Laughterצחוק)
75
247454
2120
(צחוק)
04:21
So from this, but from manyרב other studiesלימודים,
76
249598
2023
מהמחקר הזה, וממחקרים רבים נוספים,
04:23
we know, we know that people
respondלְהָגִיב to the cuesרמזים givenנָתוּן to them
77
251645
4223
אנחנו יודעים שאנשים מגיבים לסימנים
שנותנות המכונות דמויות-החיים הללו
04:27
by these lifelikeכְּמוֹ בַּחַיִים machinesמכונה,
78
255892
2022
04:29
even if they know that they're not realאמיתי.
79
257938
2017
אפילו כשהם יודעים שזה לא אמיתי.
04:33
Now, we're headedבראשותו towardsלִקרַאת a worldעוֹלָם
where robotsרובוטים are everywhereבכל מקום.
80
261654
4056
עכשיו, אנחנו צועדים לעבר עולם שבו
הרובוטים נמצאים בכל מקום.
04:37
Roboticרובוטית technologyטֶכנוֹלוֹגִיָה is movingמעבר דירה out
from behindמֵאָחוֹר factoryבית חרושת wallsקירות.
81
265734
3065
הטכנולוגיה הרובוטית יוצאת מגבולות
המפעלים והתעשייה.
04:40
It's enteringכניסה workplacesמקומות עבודה, householdsמשקי בית.
82
268823
3013
היא נכנסת למקומות עבודה ולבתים פרטיים.
04:43
And as these machinesמכונה that can senseלָחוּשׁ
and make autonomousאוטונומי decisionsהחלטות and learnלִלמוֹד
83
271860
6209
וכשהמכונות האלו, שיכולות לחוש
ולקבל החלטות וללמוד
04:50
enterלהיכנס into these sharedמְשׁוּתָף spacesרווחים,
84
278093
2552
נכנסות לחללים המשותפים הללו,
04:52
I think that maybe the bestהטוב ביותר
analogyאֲנָלוֹגִיָה we have for this
85
280669
2496
אני חושבת שהאנלוגיה הטובה ביותר שיש
לנו עבור זה
04:55
is our relationshipמערכת יחסים with animalsבעלי חיים.
86
283189
1935
היא היחס שלנו לבעלי החיים.
04:57
Thousandsאלפים of yearsשנים agoלִפנֵי,
we startedהתחיל to domesticateלבית animalsבעלי חיים,
87
285523
3888
לפני אלפי שנים,
התחלנו לביית חיות,
05:01
and we trainedמְאוּמָן them for work
and weaponryנֶשֶׁק and companionshipרֵעוּת.
88
289435
4045
ואימנו אותם לעבודה, למלחמה וללוויה.
05:05
And throughoutבְּמֶשֶך historyהִיסטוֹרִיָה, we'veיש לנו treatedטופל
some animalsבעלי חיים like toolsכלים or like productsמוצרים,
89
293504
4985
לאורך ההיסטוריה, התייחסנו לחיות מסויימות
כאל כלים או מוצרים,
05:10
and other animalsבעלי חיים,
we'veיש לנו treatedטופל with kindnessחסד
90
298513
2174
ולחיות אחרות התייחסנו בחמלה
05:12
and we'veיש לנו givenנָתוּן a placeמקום in societyחֶברָה
as our companionsחברים.
91
300711
3078
ונתנו להן מקום בחברה כבני הלוויה שלנו.
05:15
I think it's plausibleמִתקָבֵּל עַל הַדַעַת we mightאולי startהַתחָלָה
to integrateלשלב robotsרובוטים in similarדוֹמֶה waysדרכים.
92
303813
3849
נראה לי הגיוני שנתחיל
לשלב רובוטים באופן דומה.
05:21
And sure, animalsבעלי חיים are aliveבחיים.
93
309484
3096
וכמובן, בעלי חיים הם חיים.
05:24
Robotsרובוטים are not.
94
312604
1150
רובוטים אינם חיים.
05:27
And I can tell you,
from workingעובד with roboticistsרובוטים,
95
315626
2580
ואני יכולה לספר לכן,
מעבודתי בתחום הרובוטיקה,
05:30
that we're prettyיפה farרָחוֹק away from developingמתפתח
robotsרובוטים that can feel anything.
96
318230
3522
שאנחנו רחוקים מאוד מהיכולת לפתח
רובוטים בעלי רגשות.
05:35
But we feel for them,
97
323072
1460
אבל אנחנו מזדהים איתם,
05:37
and that mattersעניינים,
98
325835
1207
וזה חשוב,
05:39
because if we're tryingמנסה to integrateלשלב
robotsרובוטים into these sharedמְשׁוּתָף spacesרווחים,
99
327066
3627
כי אם אנחנו מנסים להכניס רובוטים
לחללים המשותפים הללו,
05:42
we need to understandמבין that people will
treatטיפול them differentlyבאופן שונה than other devicesהתקנים,
100
330717
4628
אנחנו צריכים להבין שאנשים יתייחסו אליהם
אחרת מאשר למכשירים אחרים,
05:47
and that in some casesבמקרים,
101
335369
1844
ושבמקרים מסויימים,
05:49
for exampleדוגמא, the caseמקרה of a soldierלוֹחֶם
who becomesהופך emotionallyרגשית attachedמְצוֹרָף
102
337237
3172
לדוגמה, במקרה של חייל שנקשר רגשית
05:52
to the robotרוֹבּוֹט that they work with,
103
340433
2047
לרובוט שעבד איתו,
05:54
that can be anything
from inefficientלֹא יָעִיל to dangerousמְסוּכָּן.
104
342504
2504
זה יכול להיות לא יעיל ואף מסוכן.
05:58
But in other casesבמקרים,
it can actuallyלמעשה be usefulמוֹעִיל
105
346551
2138
אבל במקרים אחרים,
זה יכול להיות שימושי
06:00
to fosterלְטַפֵּחַ this emotionalרִגשִׁי
connectionחיבור to robotsרובוטים.
106
348713
2623
לחזק את הקשר הרגשי לרובוטים.
06:04
We're alreadyכְּבָר seeingרְאִיָה some great use casesבמקרים,
107
352184
2134
אנחנו כבר רואים מקרים כאלו.
06:06
for exampleדוגמא, robotsרובוטים workingעובד
with autisticאוֹטִיסטִי childrenיְלָדִים
108
354342
2604
לדוגמה, רובוטים שעובדים עם ילדים אוטיסטים
06:08
to engageלְהַעֲסִיק them in waysדרכים
that we haven'tלא seenלראות previouslyקוֹדֶם,
109
356970
3634
ומצליחים להגיע אליהם באופנים חדשים,
06:12
or robotsרובוטים workingעובד with teachersמורים to engageלְהַעֲסִיק
kidsילדים in learningלְמִידָה with newחָדָשׁ resultsתוצאות.
110
360628
4000
או רובוטים שעובדים עם מורים
לאתגר תלמידים שמראים תוצאות חדשות.
06:17
And it's not just for kidsילדים.
111
365433
1381
וזה לא רק עבור ילדים.
06:19
Earlyמוקדם studiesלימודים showלְהַצִיג that robotsרובוטים
can help doctorsרופאים and patientsחולים
112
367750
3223
מחקרים ראשוניים מראים שרובוטים
יכולים לעזור לרופאים ולמטופלים
06:22
in healthבְּרִיאוּת careלְטַפֵּל settingsהגדרות.
113
370997
1427
לנהל טוב יותר את הטיפול הרפואי.
06:25
This is the PAROפארו babyתִינוֹק sealחותם robotרוֹבּוֹט.
114
373535
1810
זה רובוט בצורת כלב-ים תינוק של חברת PARO
06:27
It's used in nursingהֲנָקָה homesבתים
and with dementiaדמנציה patientsחולים.
115
375369
3285
משתמשים בו בבתי אבות
ובאופן כללי עבור חולי דמנציה.
06:30
It's been around for a while.
116
378678
1570
הוא נמצא בשימוש כבר זמן מה.
06:32
And I rememberלִזכּוֹר, yearsשנים agoלִפנֵי,
beingלהיות at a partyמפלגה
117
380272
3325
ואני זוכרת שלפני שנים, הייתי במסיבה
06:35
and tellingאומר someoneמִישֶׁהוּ about this robotרוֹבּוֹט,
118
383621
2571
וסיפרתי למישהי על הרובוט הזה.
06:38
and her responseתְגוּבָה was,
119
386216
2126
והתגובה שלה היתה,
06:40
"Oh my goshגוש.
120
388366
1262
"אלוהים אדירים.
06:42
That's horribleמַחרִיד.
121
390508
1188
זה איום ונורא.
06:45
I can't believe we're givingמַתָן people
robotsרובוטים insteadבמקום זאת of humanבן אנוש careלְטַפֵּל."
122
393056
3397
אני לא מאמינה שאנחנו נותנים לאנשים
רובוטים במקום טיפול אנושי."
06:50
And this is a really commonמשותף responseתְגוּבָה,
123
398540
1875
זו תגובה נפוצה,
06:52
and I think it's absolutelyבהחלט correctנכון,
124
400439
2499
ואני חושבת שהיא נכונה לחלוטין,
06:54
because that would be terribleנורא.
125
402962
2040
כי זה באמת יהיה נורא.
06:57
But in this caseמקרה,
it's not what this robotרוֹבּוֹט replacesמחליף.
126
405795
2484
אבל במקרה הזה,
הרובוט לא מחליף את הטיפול האנושי.
07:00
What this robotרוֹבּוֹט replacesמחליף is animalבעל חיים therapyתֶרַפּיָה
127
408858
3120
הרובוט הזה מחליף תרפיה ע"י טיפול בבע"ח
07:04
in contextsהקשרים where
we can't use realאמיתי animalsבעלי חיים
128
412002
3198
במקרים בהם אי אפשר לתת
למטופל לטפל בבעלי חיים אמיתיים
07:07
but we can use robotsרובוטים,
129
415224
1168
אבל אפשר להשתמש ברובוטים,
07:08
because people will consistentlyבאופן עקבי treatטיפול
them more like an animalבעל חיים than a deviceהתקן.
130
416416
5230
כי אנשים מתייחסים אליהם כמו אל
בעלי חיים ולא כמו אל מכשירים.
07:15
Acknowledgingהכרה this emotionalרִגשִׁי
connectionחיבור to robotsרובוטים
131
423502
2380
אם נכיר בקשר הרגשי הזה עם הרובוטים
07:17
can alsoגַם help us anticipateלְצַפּוֹת challengesאתגרים
132
425906
1969
נהיה מסוגלים לצפות את האתגרים
שנכונים לנו
07:19
as these devicesהתקנים moveמהלך \ לזוז \ לעבור into more intimateאִינטִימִי
areasאזורי of people'sשל אנשים livesחיים.
133
427899
3451
כשהמכשירים הללו יכנסו לתחומים
אישיים יותר בחיינו.
07:24
For exampleדוגמא, is it OK
if your child'sילדים teddyדובי bearדוב robotרוֹבּוֹט
134
432111
3404
לדוגמא, האם זה בסדר
שהרובוט-צעצוע של הילד שלכם
07:27
recordsרשומות privateפְּרָטִי conversationsשיחות?
135
435539
2237
יקליט שיחות אישיות?
07:29
Is it OK if your sexמִין robotרוֹבּוֹט
has compellingמשכנע in-appב- app purchasesרכישות?
136
437800
4063
האם זה בסדר שרובוט-הסקס שלכם
יציע אפשרויות רכישה?
07:33
(Laughterצחוק)
137
441887
1396
(צחוק)
07:35
Because robotsרובוטים plusועוד capitalismקָפִּיטָלִיזם
138
443307
2501
כי אם משלבים רובוטים וקפיטליזם
07:37
equalsשווים questionsשאלות around
consumerצַרכָן protectionהֲגָנָה and privacyפְּרָטִיוּת.
139
445832
3705
מקבלים סוגיות של פרטיות והגנה על הצרכן.
07:42
And those aren'tלא the only reasonsסיבות
140
450549
1612
ואלו אינן הסיבות היחידות
07:44
that our behaviorהִתְנַהֲגוּת around
these machinesמכונה could matterחוֹמֶר.
141
452185
2570
בגללן ההתנהגות שלנו
כלפי המכונות האלו משנה.
07:48
A fewמְעַטִים yearsשנים after that first
initialהתחלתי experienceניסיון I had
142
456747
3270
כמה שנים לאחר ההתנסות הראשונית שלי
07:52
with this babyתִינוֹק dinosaurדינוזאור robotרוֹבּוֹט,
143
460041
2311
עם הרובוט בצורת דינוזאור תינוק
07:54
I did a workshopסדנה
with my friendחָבֵר Hannesהאנס GassertGassert.
144
462376
2501
העברתי סדנא עם חברי הנס גאזרט
07:56
And we tookלקח fiveחָמֵשׁ
of these babyתִינוֹק dinosaurדינוזאור robotsרובוטים
145
464901
2897
ולקחנו חמישה רובוטים כאלו
07:59
and we gaveנתן them to fiveחָמֵשׁ teamsצוותים of people.
146
467822
2453
ונתנו אותם לחמש קבוצות של אנשים.
08:02
And we had them nameשֵׁם them
147
470299
1697
וביקשנו מהם לתת להם שמות
08:04
and playלְשַׂחֵק with them and interactאינטראקציה with them
for about an hourשָׁעָה.
148
472020
3809
ולשחק איתם ולתקשר איתם במשך כשעה.
08:08
And then we unveiledחשפה
a hammerפטיש and a hatchetגַרזֶן
149
476707
2206
ואז חשפנו בפניהם פטיש וגרזן
08:10
and we told them to tortureלַעֲנוֹת
and killלַהֲרוֹג the robotsרובוטים.
150
478937
2278
וביקשנו מהם לענות ולהרוג את הרובוטים.
08:13
(Laughterצחוק)
151
481239
3007
(צחוק)
08:16
And this turnedפנה out to be
a little more dramaticדְרָמָטִי
152
484857
2294
וזה הפך להיות יותר דרמטי
08:19
than we expectedצָפוּי it to be,
153
487175
1278
מכפי שציפינו שזה יהיה,
08:20
because noneאף אחד of the participantsמשתתפים
would even so much as strikeלְהַכּוֹת
154
488477
3072
כי אף אחד מהמשתתפים
לא היה מוכן אפילו להכות
08:23
these babyתִינוֹק dinosaurדינוזאור robotsרובוטים,
155
491573
1307
את הרובוט דינוזאור-תינוק,
08:24
so we had to improviseלְאַלתֵר a little,
and at some pointנְקוּדָה, we said,
156
492904
5150
אז אילתרנו קצת,
ובשלב מסויים אמרנו,
08:30
"OK, you can saveלשמור your team'sצוות robotרוֹבּוֹט
if you destroyלהרוס anotherאַחֵר team'sצוות robotרוֹבּוֹט."
157
498078
4437
"בסדר, תוכלו להציל את הרובוט של הקבוצה שלכם
אם תשמידו את הרובוט של הקבוצה השנייה."
08:34
(Laughterצחוק)
158
502539
1855
(צחוק)
ואפילו אז לא הצלחנו.
הם לא היו מסוגלים לעשות את זה.
08:36
And even that didn't work.
They couldn'tלא יכול do it.
159
504839
2195
08:39
So finallyסוף כל סוף, we said,
160
507058
1151
אז לבסוף אמרנו,
08:40
"We're going to destroyלהרוס all of the robotsרובוטים
161
508233
2032
"אנחנו הולכים להרוס את כל הרובוטים
08:42
unlessאֶלָא אִם someoneמִישֶׁהוּ takes
a hatchetגַרזֶן to one of them."
162
510289
2285
אלא אם כן מישהו מכן יכה באחד מהם בגרזן."
08:45
And this guy stoodקם up,
and he tookלקח the hatchetגַרזֶן,
163
513586
3579
ובחור אחד נעמד, ולקח את הגרזן,
08:49
and the wholeכֹּל roomחֶדֶר wincedנרתעתי
as he broughtהביא the hatchetגַרזֶן down
164
517189
2706
וכל החדר נרתע כשהוא הכה בגרזן
08:51
on the robot'sשל רובוט neckעורף,
165
519919
1780
על צוואר הרובוט,
08:53
and there was this half-jokingחצי צחוק,
half-seriousחצי-רציני momentרֶגַע of silenceשתיקה in the roomחֶדֶר
166
521723
6338
והיתה דקת דומייה,
חצי-בצחוק חצי-רצינית
09:00
for this fallenנָפוּל robotרוֹבּוֹט.
167
528085
1698
לזכרו של הרובוט.
09:01
(Laughterצחוק)
168
529807
1406
(צחוק)
09:03
So that was a really
interestingמעניין experienceניסיון.
169
531237
3694
זו הייתה חוויה מאוד מעניינת.
09:06
Now, it wasn'tלא היה a controlledמְבוּקָר
studyלימוד, obviouslyמובן מאליו,
170
534955
2459
ברור שזה לא היה ניסוי מבוקר,
אבל הוא הוביל למחקר נוסף שערכתי ב-MIT
09:09
but it did leadעוֹפֶרֶת to some
laterיותר מאוחר researchמחקר that I did at MITMIT
171
537438
2850
09:12
with PalashPalash NandyNandy and Cynthiaסינתיה BreazealBreazeal,
172
540312
2228
עם פלש ננדי וסינתיה בריזיל,
09:14
where we had people come into the labמַעבָּדָה
and smashלְרַסֵק these HEXBUGsHEXBUGs
173
542564
3627
שבו הכנסנו אנשים למעבדה וביקשנו מהם
לרמוס רובוטי HEXBUG
09:18
that moveמהלך \ לזוז \ לעבור around in a really
lifelikeכְּמוֹ בַּחַיִים way, like insectsחרקים.
174
546215
3087
שהתרוצצו על הרצפה ממש כמו חרקים אמתיים.
09:21
So insteadבמקום זאת of choosingבְּחִירָה something cuteחָמוּד
that people are drawnשָׁלוּף to,
175
549326
3134
במקום לבחור משהו חמוד
שאנשים נמשכים אליו,
09:24
we choseבחר something more basicבסיסי,
176
552484
2093
בחרנו משהו יותר בסיסי
09:26
and what we foundמצאתי
was that high-empathyגבוהה-אמפתיה people
177
554601
3480
וגילינו שאנשים מאוד אמפתיים
09:30
would hesitateלְהַסֵס more to hitמכה the HEXBUGSHEXBUGS.
178
558105
2143
היססו יותר לפגוע ב-HEXBUG.
09:33
Now this is just a little studyלימוד,
179
561575
1564
זה רק מחקר אחד קטן,
09:35
but it's partחֵלֶק of a largerיותר גדול bodyגוּף of researchמחקר
180
563163
2389
אבל הוא חלק מגוף ידע הולך וגדל
09:37
that is startingהחל to indicateמצביע
that there mayמאי be a connectionחיבור
181
565576
2944
שמצביע על קשר אפשרי
09:40
betweenבֵּין people'sשל אנשים tendenciesמגמות for empathyאֶמפַּתִיָה
182
568544
2373
בין היכולת של אנשים לגלות אמפתיה
09:42
and theirשֶׁלָהֶם behaviorהִתְנַהֲגוּת around robotsרובוטים.
183
570941
1976
להתנהגות שלהם כלפי רובוטים.
09:45
But my questionשְׁאֵלָה for the comingמגיע eraתְקוּפָה
of human-robotרובוט אנושי interactionאינטראקציה
184
573721
3627
אבל השאלה שלי, עבור העידן המתקרב
של אינטראקציה בין רובוטים לבני אדם
09:49
is not: "Do we empathizeלהזדהות with robotsרובוטים?"
185
577372
3055
אינה:
"האם אנו מרגישים אמפתיה כלפי רובוטים?"
09:53
It's: "Can robotsרובוטים changeשינוי
people'sשל אנשים empathyאֶמפַּתִיָה?"
186
581211
2920
אלא: "האם רובוטים יכולים לשנות את
היכולת של אנשים לחוש אמפתיה?"
09:57
Is there reasonסיבה to, for exampleדוגמא,
187
585489
2287
האם יש סיבה, לדוגמא,
09:59
preventלִמְנוֹעַ your childיֶלֶד
from kickingבועט a roboticרובוטית dogכֶּלֶב,
188
587800
2333
למנוע מילד לבעוט בכלב רובוטי,
10:03
not just out of respectכבוד for propertyנכס,
189
591228
2914
לא כדי ללמד אותו כבוד לרכוש,
10:06
but because the childיֶלֶד mightאולי be
more likelyסָבִיר to kickבְּעִיטָה a realאמיתי dogכֶּלֶב?
190
594166
2953
אלא כיוון שהוא עלול לבעוט בעתיד
בכלבים אמתיים?
10:10
And again, it's not just kidsילדים.
191
598507
1883
ושוב, לא מדובר רק בילדים.
10:13
This is the violentאַלִים videoוִידֵאוֹ gamesמשחקים questionשְׁאֵלָה,
but it's on a completelyלַחֲלוּטִין newחָדָשׁ levelרָמָה
192
601564
4056
זו אותה שאלה שעולה לגבי משחקי
וידאו אלימים, אבל ברמה אחרת לגמרי
10:17
because of this visceralהקרביים physicalityפיזית
that we respondלְהָגִיב more intenselyבעוצמה to
193
605644
4760
כי אנחנו מגיבים בעוצמה גבוהה
הרבה יותר לעצמים פיזיים
10:22
than to imagesתמונות on a screenמָסָך.
194
610428
1547
מאשר לתמונות על מסך.
10:25
When we behaveלְהִתְנַהֵג violentlyבאלימות towardsלִקרַאת robotsרובוטים,
195
613674
2578
כשאנחנו אלימים כלפי רובוטים,
10:28
specificallyבאופן ספציפי robotsרובוטים
that are designedמְעוּצָב to mimicלְחַקוֹת life,
196
616276
3120
במיוחד רובוטים שעוצבו כך שהם מחקים חיים,
10:31
is that a healthyבָּרִיא outletמוֹצָא
for violentאַלִים behaviorהִתְנַהֲגוּת
197
619420
3892
האם זאת דרך בריאה לשחרר יצרים אלימים
10:35
or is that trainingהַדְרָכָה our crueltyאַכְזָרִיוּת musclesשרירים?
198
623336
2544
או אימון של שריר האכזריות שלנו?
10:39
We don't know ...
199
627511
1150
אנחנו לא יודעים...
10:42
But the answerתשובה to this questionשְׁאֵלָה has
the potentialפוטנציאל to impactפְּגִיעָה humanבן אנוש behaviorהִתְנַהֲגוּת,
200
630622
3945
אבל לתשובה על השאלה הזו יש את היכולת
להשפיע על ההתנהגות האנושית,
10:46
it has the potentialפוטנציאל
to impactפְּגִיעָה socialחֶברָתִי normsהנורמות,
201
634591
2768
יש לה את היכולת להשפיע
על הנורמות החברתיות,
10:49
it has the potentialפוטנציאל to inspireהשראה rulesכללים
around what we can and can't do
202
637383
3849
יש לה את היכולת לעצב חוקים
לגבי מה מותר ואסור
לעשות עם רובוטים מסוג מסויים,
10:53
with certainמסוים robotsרובוטים,
203
641256
1151
10:54
similarדוֹמֶה to our animalבעל חיים crueltyאַכְזָרִיוּת lawsחוקי.
204
642431
1848
בדומה לחוקי צער בעלי חיים.
10:57
Because even if robotsרובוטים can't feel,
205
645228
2864
כיוון שאפילו אם רובוטים אינם מרגישים דבר,
11:00
our behaviorהִתְנַהֲגוּת towardsלִקרַאת them
mightאולי matterחוֹמֶר for us.
206
648116
3080
ההתנהגות שלנו כלפיהם עלולה לשנות אותנו.
11:04
And regardlessללא קשר of whetherהאם
we endסוֹף up changingמִשְׁתַנֶה our rulesכללים,
207
652889
2855
ובין אם בסופו של דבר
נשנה את החוקים או לא
11:08
robotsרובוטים mightאולי be ableיכול to help us
come to a newחָדָשׁ understandingהֲבָנָה of ourselvesבְּעָצמֵנוּ.
208
656926
3556
הרובוטים יכולים לעזור לנו
להבין את עצמנו טוב יותר.
11:14
Mostרוב of what I've learnedמְלוּמָד
over the pastעבר 10 yearsשנים
209
662276
2316
לרוב מה שלמדתי בעשר השנים האחרונות
11:16
has not been about technologyטֶכנוֹלוֹגִיָה at all.
210
664616
2238
לא היה כל קשר לטכנולוגיה.
11:18
It's been about humanבן אנוש psychologyפְּסִיכוֹלוֹגִיָה
211
666878
2503
למדתי על הפסיכולוגיה האנושית
11:21
and empathyאֶמפַּתִיָה and how we relateמתייחס to othersאחרים.
212
669405
2603
על אמפתיה ועל איך שאנחנו
מתייחסים האחד לשני.
11:25
Because when a childיֶלֶד is kindסוג to a Roombaרומבה,
213
673524
2365
כי כשילד מגלה חמלה כלפי רובוט שואב-אבק,
11:29
when a soldierלוֹחֶם triesמנסה to saveלשמור
a robotרוֹבּוֹט on the battlefieldשדה קרב,
214
677262
4015
כשחייל מנסה להציל רובוט בשדה הקרב,
11:33
or when a groupקְבוּצָה of people refusesמסרב
to harmלפגוע a roboticרובוטית babyתִינוֹק dinosaurדינוזאור,
215
681301
3638
או כשקבוצת אנשים מסרבת לפגוע
בדינוזאור-תינוק רובוטי,
11:38
those robotsרובוטים aren'tלא just motorsמנועים
and gearsהילוכים and algorithmsאלגוריתמים.
216
686248
3191
הרובוטים האלו אינם רק מנוע
וגלגלי שיניים ואלגוריתמים.
11:42
They're reflectionsהשתקפויות of our ownשֶׁלוֹ humanityאֶנוֹשִׁיוּת.
217
690501
1905
הם השתקפויות של האנושיות שלנו.
11:45
Thank you.
218
693523
1151
תודה.
11:46
(Applauseתְשׁוּאוֹת)
219
694698
3397
(מחיאות כפיים)
Translated by maor madmon
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com