ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

ليلى تاكاياما: أن تكون روبوتًا!

Filmed:
1,183,118 views

نحن نعيش بالفعل بين الروبوتات: الأدوات والآلات مثل غسالات الأطباق ونواظم درجة الحرارة مدمجة في حياتنا بدرجة كبيرة حتى أننا لا نفكر أن نطلق عليها اسم روبوتات. كيف سيبدو المستقبل بوجود روبوتات أكثر كثيرًا. تشارك الباحثة الاجتماعية ليلي تاكاياما بعض التحديات الفريدة التي تواجه التصميم من أجل التفاعل بين الإنسان والروبوت -- وكيف أن اختبار السيناريوهات المستقبلية للروبوتات تقودنا بالفعل نحو فهمٍ أفضل لأنفسنا.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chanceفرصة
to make a first impressionالانطباع,
0
760
2656
لا تحظى سوى بفرصة واحدة
لتترك الانطباع الأول،
00:15
and that's trueصحيح if you're a robotإنسان آلي
as well as if you're a personشخص.
1
3440
3176
وينطبق عليك هذا الأمر سواء كنت
روبوتًا أو إنسانًا.
00:18
The first time that I metالتقى
one of these robotsالروبوتات
2
6640
3016
كانت أول مرة ألتقي فيها بأحد
هذه الروبوتات
00:21
was at a placeمكان
calledمسمي Willowصفصاف Garageكراج in 2008.
3
9680
2896
في مكان يسمى (ويلو جراج) عام 2008.
00:24
When I wentذهب to visitيزور there,
my hostمضيف walkedمشى me into the buildingبناء
4
12600
3016
عندما ذهبت لزيارة المكان،
اصطحبني مضيفي إلى داخل المبنى
00:27
and we metالتقى this little guy.
5
15640
1576
والتقينا بهذا الرجل الصغير.
00:29
He was rollingلف into the hallwayمدخل,
6
17240
1656
كان يتدحرج في الرواق،
00:30
cameأتى up to me, satجلسنا there,
7
18920
1816
اقترب مني، وجلس هناك،
00:32
staredيحدق blanklyبصراحة pastالماضي me,
8
20760
2256
وحدق ببصره إلى ما خلفي دون أي تعبير،
00:35
did nothing for a while,
9
23040
1656
لم يفعل أي شيء لفترة،
00:36
rapidlyبسرعة spunنسج his headرئيس around 180 degreesدرجات
10
24720
1936
ثم أدار رأسه حوالي 180 درجة بسرعة،
00:38
and then ranجرى away.
11
26680
1536
وركض بعيدًا.
00:40
And that was not a great first impressionالانطباع.
12
28240
2176
و هذا لم يكن انطباعًا أولًا رائعًا.
00:42
The thing that I learnedتعلم
about robotsالروبوتات that day
13
30440
2176
الشيء الذي عرفته عن الروبوتات ذلك اليوم
00:44
is that they kindطيب القلب of do theirهم ownخاصة thing,
14
32640
2176
هو أنها إلى حدٍ ما تقوم بما تجيده،
00:46
and they're not totallyتماما awareوصف of us.
15
34840
2136
وهي ليست على وعيٍ كاملٍ بنا.
00:49
And I think as we're experimentingتجارب
with these possibleممكن robotإنسان آلي futuresالعقود الآجلة,
16
37000
3239
وأعتقد أن باختبارنا لهذه السيناريوهات
المستقبلية المحتمَلة للروبوتات،
00:52
we actuallyفعلا endالنهاية up learningتعلم
a lot more about ourselvesأنفسنا
17
40263
2673
ينتهي بنا المطاف لنتعلم أكثر عن أنفسنا
00:54
as opposedمعارض to just these machinesآلات.
18
42960
1656
في مقابل هذه الآلات وحسب.
00:56
And what I learnedتعلم that day
19
44640
1336
وما تعلمته ذلك اليوم
00:58
was that I had prettyجميلة highمتوسط
expectationsتوقعات for this little dudeيا صديق.
20
46000
3416
كان أني توقعت الكثير من هذا الصديق الصغير.
01:01
He was not only supposedمفترض to be ableقادر
to navigateالتنقل the physicalجسدي - بدني worldالعالمية,
21
49440
3176
لم يكن متوقعًا منه القدرة على التحرك
في العالم المادي وحسب،
01:04
but alsoأيضا be ableقادر
to navigateالتنقل my socialاجتماعي worldالعالمية --
22
52640
2656
بل أيضًا التحرك في عالمي الاجتماعي --
01:07
he's in my spaceالفراغ; it's a personalالشخصية robotإنسان آلي.
23
55320
2176
هو في نطاق حيزي، إنه روبوت شخصي.
01:09
wWhyووهى didn't it understandتفهم me?
24
57520
2016
لماذا لم يفهمني؟
01:11
My hostمضيف explainedشرح to me,
25
59560
1256
وضح لي مضيفي:
01:12
"Well, the robotإنسان آلي is tryingمحاولة
to get from pointنقطة A to pointنقطة B,
26
60840
3176
"حسنًا، إن الروبوت يحاول
الانتقال من النقطة أ إلى النقطة ب،
01:16
and you were an obstacleعقبة in his way,
27
64040
1776
وقد شكلتِ عقبةً في طريقه،
01:17
so he had to replanتخطيطه his pathمسار,
28
65840
2016
لذلك كان عليه إعادة تخطيط مساره،
01:19
figureالشكل out where to go,
29
67880
1256
و معرفة أين يذهب،
01:21
and then get there some other way,"
30
69160
1696
ثم الوصول لهناك بطريقة أخرى."
01:22
whichالتي was actuallyفعلا
not a very efficientفعالة thing to do.
31
70880
2456
وهو لم يكن في الواقع
أمرًا حاذقًا للقيام به.
01:25
If that robotإنسان آلي had figuredأحسب out
that I was a personشخص, not a chairكرسي,
32
73360
3256
فلو عرف الروبوت أنني إنسانة، لا كرسي،
01:28
and that I was willingراغب
to get out of its way
33
76640
2096
وأني كنت أنوي الابتعاد عن طريقه
01:30
if it was tryingمحاولة to get somewhereمكان ما,
34
78760
1656
إن كان يحاول الوصول لمكان ما،
01:32
then it actuallyفعلا
would have been more efficientفعالة
35
80440
2216
فكان الأمر سيصبح أكثر فعالية
01:34
at gettingالحصول على its jobوظيفة doneفعله
36
82680
1256
من أجل إتمام عمله.
01:35
if it had botheredازعجت
to noticeتنويه that I was a humanبشري
37
83960
2216
إذا أولى جهدًا ليلاحظ أني إنسانة
01:38
and that I have differentمختلف affordancesإمكانيات الفعل
than things like chairsكراسي جلوس and wallsالجدران do.
38
86200
3576
وأن لدي قدرات مختلفة عن الكرسي والحائط.
كما تعلمون، نحن نميل للتفكير
في الروبوت على أنه من الفضاء الخارجي
01:41
You know, we tendتميل to think of these robotsالروبوتات
as beingيجرى from outerخارجي spaceالفراغ
39
89800
3216
ومن المستقبل ومن الخيال العلمي،
01:45
and from the futureمستقبل
and from scienceعلم fictionخيال,
40
93040
2136
01:47
and while that could be trueصحيح,
41
95200
1416
وبينما قد يكون هذا صحيحًا،
01:48
I'd actuallyفعلا like to argueتجادل
that robotsالروبوتات are here todayاليوم,
42
96640
2656
فإني أحب في الحقيقة أن أجادل
بأن الروبوتات موجودة اليوم،
01:51
and they liveحي and work
amongstوسط us right now.
43
99320
2776
وهي تعيش وتعمل بيننا الآن.
01:54
These are two robotsالروبوتات that liveحي in my home.
44
102120
2856
هذان روبوتان يعيشان في منزلي.
01:57
They vacuumمكنسة كهرباء the floorsطوابق
and they cutيقطع the grassنجيل
45
105000
2496
يكنسان الأرض كهربائيًا ويجزان العشب
01:59
everyكل singleغير مرتبطة day,
46
107520
1216
كل يوم،
02:00
whichالتي is more than I would do
if I actuallyفعلا had time to do these tasksمهام,
47
108760
3376
وهذا أكثر مما كنت سأفعله إذا كان
لدي الوقت فعلًا للقيام بهذه المهام،
02:04
and they probablyالمحتمل
do it better than I would, too.
48
112160
2336
وهما على الأرجح يقومان به
بشكل أفضل مني، أيضًا.
02:06
This one actuallyفعلا takes careرعاية of my kittyصندوق.
49
114520
2496
هذا في الحقيقة يعتني بقطي.
02:09
Everyكل singleغير مرتبطة time
he usesالاستخدامات the boxصندوق, it cleansينظف it,
50
117040
2576
في كل مرة يستخدم قطي الصندوق،
يقوم بتنظيفه،
02:11
whichالتي is not something I'm willingراغب to do,
51
119640
1976
وهو شيء لا أنوي القيام به،
02:13
and it actuallyفعلا makesيصنع
his life better as well as mineالخاص بي.
52
121640
2576
وهو في الحقيقة يجعل حياته أفضل،
وحياتي أيضًا.
02:16
And while we call these robotإنسان آلي productsمنتجات --
53
124240
2416
وبينما نطلق على هذه الروبوتات منتجات --
02:18
it's a "robotإنسان آلي vacuumمكنسة كهرباء cleanerمنظف,
it's a robotإنسان آلي lawnmowerآلة جز العشب,
54
126680
2696
إنها مكنسة كهربائية روبوتية،
إنه جزاز عشب روبوتي،
02:21
it's a robotإنسان آلي littlerأصغر boxصندوق,"
55
129400
1495
إنه صندوق مخلفات قطط روبوتي؛
02:22
I think there's actuallyفعلا a bunchباقة
of other robotsالروبوتات hidingإخفاء in plainعادي sightمشهد
56
130919
4137
فإنني أرى في الحقيقة أن هناك مجموعة
من الروبوتات الأخرى المختبئة أمام أعيننا
02:27
that have just becomeيصبح so darnالرتق usefulمفيد
57
135080
1856
التي أصبحت بالفعل نافعة للغاية
02:28
and so darnالرتق mundaneدنيوي
58
136960
1456
وشائعة للغاية لدرجة
02:30
that we call them things
like, "dishwasherغسالة أطباق," right?
59
138440
2496
أن نطلق عليها أسماء مثل
"غسالة الأطباق"، أليس كذلك؟
02:32
They get newالجديد namesأسماء.
60
140960
1216
إنها تكتسب أسماء جديدة.
02:34
They don't get calledمسمي robotإنسان آلي anymoreأي أكثر من ذلك
61
142200
1696
لم يعد يطلق عليها روبوتات
02:35
because they actuallyفعلا
serveتخدم a purposeغرض in our livesالأرواح.
62
143920
2416
لأنها في الحقيقة تؤدي غرضًا في حياتنا.
02:38
Similarlyوبالمثل, a thermostatمنظم الحراره, right?
63
146360
1496
وبالمثل ناظم الحرارة، صحيح؟
02:39
I know my roboticsالروبوتات friendsاصحاب out there
64
147880
1776
أعرف أن أصدقائي متخصصي الروبوتات
02:41
are probablyالمحتمل cringingزلة
at me callingدعوة this a robotإنسان آلي,
65
149680
2336
في الخارج غالبًا يخجلون
من تسميتي له روبوتًا.
02:44
but it has a goalهدف.
66
152040
1256
إلا أن له هدفًا.
02:45
Its goalهدف is to make my houseمنزل
66 degreesدرجات Fahrenheitفهرنهايت,
67
153320
2896
وهدفه ان يجعل درجة حرارة
منزلي 19 درجة مئوية،
02:48
and it sensesحواس the worldالعالمية.
68
156240
1256
ويقوم بجس العالم من حوله:
02:49
It knowsيعرف it's a little bitقليلا coldالبرد,
69
157520
1576
يعرف أن الجو بارد قليلًا،
02:51
it makesيصنع a planخطة and then
it actsأعمال on the physicalجسدي - بدني worldالعالمية.
70
159120
2616
فيضع خطة ثم يتخذ إجراء
يؤثر على العالم المادي.
02:53
It's roboticsالروبوتات.
71
161760
1256
إنه عمل الروبوتات.
02:55
Even if it mightربما not
look like Rosieروزي the Robotإنسان آلي,
72
163040
2576
حتى إن لم يكن يشبه الروبوت(روزي)،
02:57
it's doing something
that's really usefulمفيد in my life
73
165640
2936
فهو يفعل شيئًا مفيدًا جدًا في حياتي
03:00
so I don't have to take careرعاية
74
168600
1376
بحيث لا أضطر للاهتمام
03:02
of turningدوران the temperatureدرجة الحرارة
up and down myselfنفسي.
75
170000
2576
برفع درجة الحرارة وخفضها بنفسي.
03:04
And I think these systemsأنظمة
liveحي and work amongstوسط us now,
76
172600
3816
وأنا أعتقد أن هذه الأنظمة
تعيش وتعمل بيننا الآن،
03:08
and not only are these systemsأنظمة
livingالمعيشة amongstوسط us
77
176440
2336
ولا يقتصر الأمر على عيش هذه الأنظمة بيننا
03:10
but you are probablyالمحتمل
a robotإنسان آلي operatorالمشغل أو العامل, too.
78
178800
2656
بل في الغالب أنتم أيضًا مشغلو روبوتات.
03:13
When you driveقيادة your carسيارة,
79
181480
1256
عندما تقودون سيارتكم،
03:14
it feelsيشعر like you are operatingالتشغيل machineryمجموعة آلات.
80
182760
2216
تشعرون وكأنكم تشغلون آلة.
03:17
You are alsoأيضا going
from pointنقطة A to pointنقطة B,
81
185000
2816
أنتم أيضًا تنتقلون
من النقطة أ إلى النقطة ب،
03:19
but your carسيارة probablyالمحتمل has powerقوة steeringتوجيه,
82
187840
2216
لكن في الغالب سيارتكم مزودة
بنظام توجيه كهربي،
03:22
it probablyالمحتمل has automaticتلقائي brakingفرملة systemsأنظمة,
83
190080
2696
ومزودة غالبًا بأنظمة كبح آلية،
03:24
it mightربما have an automaticتلقائي transmissionانتقال
and maybe even adaptiveالتكيف cruiseرحلة بحرية controlمراقبة.
84
192800
3736
وقد تكون مزودة بنظام نقل آلي
وحتى تحكم تكيفي في السرعة.
03:28
And while it mightربما not be
a fullyتماما autonomousواثق من نفسه carسيارة,
85
196560
2936
وعلى الرغم من أنها قد لا تكون
سيارة ذاتية التحكم بشكل كامل؛
03:31
it has bitsبت of autonomyالحكم الذاتي,
86
199520
1296
إلا أنها ذاتية جزئيًا،
03:32
and they're so usefulمفيد
87
200840
1336
وهي مفيدة للغاية
03:34
and they make us driveقيادة saferأكثر أمانا,
88
202200
1816
وتجعلنا نقود بشكل أكثر أمانًا،
03:36
and we just sortفرز of feel
like they're invisible-in-useمرئية في الاستخدام, right?
89
204040
3656
ونحن نشعر نوعًا ما أنها دارجة
الاستخدام بحيث لا نشعر بها، أليس كذلك؟
03:39
So when you're drivingالقيادة your carسيارة,
90
207720
1576
إذًا عندما تقودون سيارتكم،
03:41
you should just feel like
you're going from one placeمكان to anotherآخر.
91
209320
3096
يُفترض ألا تشعروا سوى أنكم
ذاهبون من مكان لآخر.
03:44
It doesn't feel like it's this bigكبير thing
that you have to dealصفقة with and operateالعمل
92
212440
3736
ولا تشعرون بأنها ذاك الشيء الضخم
الذي يتعين عليكم التعامل معه وتشغيله
03:48
and use these controlsضوابط
93
216200
1256
تستخدمون منظمات التحكم هذه
03:49
because we spentأنفق so long
learningتعلم how to driveقيادة
94
217480
2176
لأننا قضينا وقتًا طويلًا جدًا
لتعلم كيف نقود
03:51
that they'veكان عليهم becomeيصبح
extensionsملحقات of ourselvesأنفسنا.
95
219680
2696
بالدرجة التي جعلتها تصبح امتدادًا لأنفسنا.
03:54
When you parkمنتزه that carسيارة
in that tightضيق little garageكراج spaceالفراغ,
96
222400
2696
عندما تركنون السيارة في مساحة
الركن الصغيرة والضيقة تلك،
03:57
you know where your cornersزوايا are.
97
225120
1576
تكونون على علم بأماكن زواياكم.
03:58
And when you driveقيادة a rentalتأجير carسيارة
that maybe you haven'tلم drivenتحركها before,
98
226720
3256
وعندما تقودون سيارة مستأجرة
ربما لم تقودوها من قبل،
04:02
it takes some time
to get used to your newالجديد robotإنسان آلي bodyالجسم.
99
230000
3056
يستغرق الأمر منكم بعض الوقت
حتى تعتادوا على جسم روبوتكم الجديد.
04:05
And this is alsoأيضا trueصحيح for people
who operateالعمل other typesأنواع of robotsالروبوتات,
100
233080
3976
ينطبق هذا الأمر أيضًا على الأشخاص
الذين يشغلون أنواعًا أخرى من الروبوتات،
04:09
so I'd like to shareشارك with you
a fewقليل storiesقصص about that.
101
237080
2600
لهذا سأشارككم بعض القصص بهذا الشأن.
04:12
Dealingتعامل with the problemمشكلة
of remoteالتحكم عن بعد collaborationتعاون.
102
240240
2336
التعامل مع مشكلة العمل المشترك عن بعد.
04:14
So, at Willowصفصاف Garageكراج
I had a coworkerزميل عمل namedاسمه Dallasدالاس,
103
242600
2576
كان لدي زميل عمل بـ(ويلو جراج)
يُدعى (دالاس)،
04:17
and Dallasدالاس lookedبدا like this.
104
245200
1576
وهكذا كان يبدو (دالاس).
04:18
He workedعمل from his home in Indianaإنديانا
in our companyشركة in Californiaكاليفورنيا.
105
246800
4056
كان يعمل من منزله في (إنديانا)
لدى شركتنا في (كاليفورنيا).
04:22
He was a voiceصوت in a boxصندوق
on the tableالطاولة in mostعظم of our meetingsاجتماعات,
106
250880
2936
كان عبارة عن صوت داخل صندوق
على الطاولة في معظم اجاتماعاتنا،
04:25
whichالتي was kindطيب القلب of OK
exceptإلا that, you know,
107
253840
2215
وكان أمرًا مقبولًا نوعًأ ما،
إلا أنه كما تعلمون
04:28
if we had a really heatedمسخن debateالنقاش
and we didn't like what he was sayingقول,
108
256079
3377
إذا كنا في نقاشٍ محتدم
ولم يرُق لنا ما كان يقوله،
04:31
we mightربما just hangعلق up on him.
109
259480
1416
فقد نعلق المكالمة معه ببساطة.
04:32
(Laughterضحك)
110
260920
1015
(ضحك)
04:33
Then we mightربما have a meetingلقاء
after that meetingلقاء
111
261959
2217
ثم قد نعقد اجتماعًا بعد ذلك الاجتماع
04:36
and actuallyفعلا make the decisionsقرارات
in the hallwayمدخل afterwardsبعدئذ
112
264200
2696
ونتخذ القرارات بالفعل بعد ذلك في الرواق
04:38
when he wasn'tلم يكن there anymoreأي أكثر من ذلك.
113
266920
1416
في غيابه.
لذا لم يكن ذلك مثاليًا بالنسبة له.
04:40
So that wasn'tلم يكن so great for him.
114
268360
1576
04:41
And as a roboticsالروبوتات companyشركة at Willowصفصاف,
115
269960
1736
ولكوننا في (ويلو) شركة روبوتات؛
04:43
we had some extraإضافي
robotإنسان آلي bodyالجسم partsأجزاء layingوضع around,
116
271720
2336
كان لدينا أجزاء جسم روبوت زائدة
ملقاة على الأرض،
04:46
so Dallasدالاس and his buddyرفيق Curtكيرت
put togetherسويا this thing,
117
274080
2496
فقام (دالاس) وصديقه (كيرت)
بتجميع هذا الشيء،
04:48
whichالتي looksتبدو kindطيب القلب of
like Skypeسكايب on a stickعصا on wheelsعجلات,
118
276600
2936
الذي يبدو عبارة عن سكايب
على عصا على عجلتين،
04:51
whichالتي seemsيبدو like a techytechy, sillyسخيف toyعروسه لعبه,
119
279560
1736
مما يبديه مثل لعبة سخيفة ومجنونة،
04:53
but really it's probablyالمحتمل
one of the mostعظم powerfulقوي toolsأدوات
120
281320
2776
لكنها في الحقيقة واحدة
من الأدوات الأكثر فعالية
04:56
that I've seenرأيت ever madeمصنوع
for remoteالتحكم عن بعد collaborationتعاون.
121
284120
2480
التي رأيتها على الإطلاق من أجل
العمل المشترك عن بعد.
04:59
So now, if I didn't answerإجابة
Dallas'دالاس emailالبريد الإلكتروني questionسؤال,
122
287160
3496
وبالتالي الآن، إذا لم أرد على سؤال (دالاس)
الوارد بالبريد الإلكتروني،
05:02
he could literallyحرفيا rollتدحرج into my officeمكتب. مقر. مركز,
123
290680
2216
يمكنه حرفيًا أن يتدحرج داخل مكتبي،
05:04
blockمنع my doorwayمدخل
and askيطلب me the questionسؤال again --
124
292920
2576
ويسد المدخل ويطرح
عليَّ السؤال مرة أخرى --
05:07
(Laughterضحك)
125
295520
1016
(ضحك)
05:08
untilحتى I answeredأجاب it.
126
296560
1216
حتى أجيبه.
05:09
And I'm not going to turnمنعطف أو دور him off, right?
That's kindطيب القلب of rudeقلة الادب.
127
297800
2976
ولن أقوم بإطفائه، أليس كذلك؟
سيكون ذلك تصرفًا فظًا.
05:12
Not only was it good
for these one-on-oneواحد على واحد communicationsمجال الاتصالات,
128
300800
2696
لم يكن ذلك جيدًا للتواصل الفردي وحسب،
05:15
but alsoأيضا for just showingتظهر up
at the companyشركة all-handsكل الأيدي meetingلقاء.
129
303520
2936
بل أيضًا لحضور اجتماع كل موظفي الشركة.
05:18
Gettingالحصول على your buttمؤخرة in that chairكرسي
130
306480
1696
وضع مؤخرتكم في ذلك الكرسي
05:20
and showingتظهر people that you're presentحاضر
and committedملتزم to your projectمشروع
131
308200
3216
وإظهار أنكم حاضرون وملتزمون بمشروعكم
05:23
is a bigكبير dealصفقة
132
311440
1256
هو أمرٌ له شأن كبير
05:24
and can help remoteالتحكم عن بعد collaborationتعاون a tonطن.
133
312720
2176
ويمكن أن يساعد في العمل المشترك
كثيرًا جدًا.
05:26
We saw this over the periodفترة
of monthsالشهور and then yearsسنوات,
134
314920
2856
لقد لاحظنا ذلك عبر الشهور ثم السنوات،
05:29
not only at our companyشركة
but at othersالآخرين, too.
135
317800
2160
ليس في شركتنا فقط،
بل لدى شركات أخرى أيضًا.
05:32
The bestالأفضل thing that can happenيحدث
with these systemsأنظمة
136
320720
2336
أفضل ما يحدث باستخدام هذه الأنظمة
05:35
is that it startsيبدأ to feel
like you're just there.
137
323080
2336
هو أن تبدؤوا بالشعور بأنكم هناك تمامًا.
05:37
It's just you, it's just your bodyالجسم,
138
325440
1696
إنه أنت تمامًا، إنه جسمك تمامًا؛
05:39
and so people actuallyفعلا startبداية
to give these things personalالشخصية spaceالفراغ.
139
327160
3096
وبالتالي يبدأ الناس بتوفير
مساحة شخصية لهذه الأشياء.
05:42
So when you're havingوجود a stand-upانهض meetingلقاء,
140
330280
1976
لذا عندما يكون لديكم اجتماع يُحضَر وقوفًا
05:44
people will standيفهم around the spaceالفراغ
141
332280
1656
سيصطف الناس حول المساحة
05:45
just as they would
if you were there in personشخص.
142
333960
2216
بالضبط مثلما سيفعلون إذا كنتم هناك شخصيًا.
05:48
That's great untilحتى
there's breakdownsأعطال and it's not.
143
336200
2576
هذا أمرُ رائع إلى أن تحدث أعطال
فلا يصبح رائعًا.
05:50
People, when they first see these robotsالروبوتات,
144
338800
1976
عندما يرى الناس هذه الروبوتات لأول مرة،
05:52
are like, "Wowرائع, where'sاين the componentsالمكونات?
There mustيجب be a cameraالة تصوير over there,"
145
340800
3576
تكون ردة فعلهم مثل،
"أين المكونات؟ لابد من وجود كاميرا هنا."
05:56
and they startبداية pokingبدس your faceوجه.
146
344400
1576
ويبدؤون بنقر وجهك.
05:58
"You're talkingالحديث too softlyبهدوء,
I'm going to turnمنعطف أو دور up your volumeالصوت,"
147
346000
2936
"أنت تتحدث بصوت منخفض جدًا،
سأقوم برفع مستوى الصوت،"
06:00
whichالتي is like havingوجود a coworkerزميل عمل
walkسير up to you and say,
148
348960
2616
الأمر الذي يشبه اقتراب زميلك في العمل
منك وقوله:
06:03
"You're speakingتكلم too softlyبهدوء,
I'm going to turnمنعطف أو دور up your faceوجه."
149
351600
2896
"أنت تتحدث بصوت منخفض جدًا،
سأقوم بإدارة وجهك."
06:06
That's awkwardغير ملائم and not OK,
150
354520
1256
هذا غير ملائم وغير مقبول،
06:07
and so we endالنهاية up havingوجود to buildبناء
these newالجديد socialاجتماعي normsأعراف
151
355800
2616
لذا ينتهي الأمر بإرسائنا
هذه الأعراف الاجتماعية الجديدة
06:10
around usingاستخدام these systemsأنظمة.
152
358440
2216
بخصوص استخدام هذه الأنظمة.
06:12
Similarlyوبالمثل, as you startبداية
feelingشعور like it's your bodyالجسم,
153
360680
3416
بالمثل، عندما تبدؤون بالشعور أنه جسمكم،
06:16
you startبداية noticingملاحظة things like,
"Oh, my robotإنسان آلي is kindطيب القلب of shortقصيرة."
154
364120
3696
تبدؤون بملاحظة أشياء مثل،
آه، يا إلهي روبوتي قصير نوعًا ما."
06:19
Dallasدالاس would say things to me --
he was six-footستة أقدام tallطويل --
155
367840
2656
كان (دالاس) يقول لي بعض الأشياء --
كان طوله 183 سم --
06:22
and we would take him viaبواسطة robotإنسان آلي
to cocktailكوكتيل partiesحفلات and things like that,
156
370520
3456
وكنا نصطحبه من خلال الروبوت
إلى حفلات الكوكتيل وما شابه،
06:26
as you do,
157
374000
1216
مثلما تفعلون،
06:27
and the robotإنسان آلي was about five-foot-tallطوله خمسة أقدام,
whichالتي is closeأغلق to my heightارتفاع.
158
375240
3336
وكان ارتفاع الروبوت حوالي 152 سم،
ما يقارب طولي.
06:30
And he would tell me,
159
378600
1216
وأخبرني،
06:31
"You know, people are not
really looking at me.
160
379840
2536
"هل تعلمين؟ الناس لا ينظرون إليَّ فعلًا.
06:34
I feel like I'm just looking
at this seaبحر of shouldersأكتاف,
161
382400
2696
أنا أشعر وكأني أنظر
إلى هذا البحر من الأكتاف،
06:37
and it's just -- we need a tallerأطول robotإنسان آلي."
162
385120
1976
إن ما نحتاجه فقط هو روبوت أكثر ارتفاعًا."
06:39
And I told him,
163
387120
1256
وقلت له:
06:40
"Umأم, no.
164
388400
1296
"لا.
06:41
You get to walkسير in my shoesأحذية for todayاليوم.
165
389720
1936
عليك أن تكون مكاني اليوم.
06:43
You get to see what it's like
to be on the shorterأقصر endالنهاية of the spectrumطيف."
166
391680
3536
عليك أن ترى كيف يكون الأمر
عند الطرف القصير من طيف الأطوال."
06:47
And he actuallyفعلا endedانتهى up buildingبناء
a lot of empathyالعطف for that experienceتجربة,
167
395240
3376
وانتهى به الأمر في الحقيقة بتكوين
تعاطف كبير من التجربة،
06:50
whichالتي was kindطيب القلب of great.
168
398640
1256
الأمر الذي كان رائعًا.
06:51
So when he'dعنيدا come visitيزور in personشخص,
169
399920
1656
لذا عندما كان يحضر شخصيًا،
06:53
he no longerطويل stoodوقف over me
as he was talkingالحديث to me,
170
401600
2416
لم يعد يقف فوق رأسي أثناء التحدث معي،
06:56
he would sitتجلس down
and talk to me eyeعين to eyeعين,
171
404040
2096
بل كان يجلس ويحدثني وعيناه أمام عينيّ،
06:58
whichالتي was kindطيب القلب of a beautifulجميلة thing.
172
406160
1736
الأمر الذي كان لطيفًا نوعًا ما.
06:59
So we actuallyفعلا decidedقرر
to look at this in the laboratoryمختبر
173
407920
2656
لذا قررنا في الواقع أن ندرس هذا في المختبر
07:02
and see what othersالآخرين kindsأنواع of differencesاختلافات
things like robotإنسان آلي heightارتفاع would make.
174
410600
3656
ونرى الأنواع الأخرى من الاختلافات
التي يمكن أن يسببها ارتفاع الروبوت.
07:06
And so halfنصف of the people in our studyدراسة
used a shorterأقصر robotإنسان آلي,
175
414280
2856
لذا استخدم نصف الأشخاص في دراستنا
روبوتًا أقصر،
07:09
halfنصف of the people in our studyدراسة
used a tallerأطول robotإنسان آلي
176
417160
2416
استخدم نصف الأشخاص روبوتًا أطول،
07:11
and we actuallyفعلا foundوجدت
that the exactدقيق sameنفسه personشخص
177
419600
2256
ووجدنا في الحقيفة أن الشخص ذاته
07:13
who has the exactدقيق sameنفسه bodyالجسم
and saysيقول the exactدقيق sameنفسه things as someoneشخصا ما,
178
421880
3336
الذي لديه الجسم ذاته
ويقول ذات الأشياء لشخص ما
يكون أكثر إقناعًا ويُرى أكثر مصداقية
07:17
is more persuasiveمقنع
and perceivedمحسوس - ملموس as beingيجرى more credibleمعقول
179
425240
2616
07:19
if they're in a tallerأطول robotإنسان آلي formشكل.
180
427880
1656
إذا استخدموا نموذج الروبوت الأطول.
07:21
It makesيصنع no rationalمعقول senseإحساس,
181
429560
1816
ليس لهذا أي معنى منطقي،
07:23
but that's why we studyدراسة psychologyعلم النفس.
182
431400
1696
لكن لهذا السبب نحن ندرس علم النفس.
07:25
And really, you know,
the way that Cliffجرف Nassناس would put this
183
433120
2856
وفي الواقع، كما تعلمون، كيف كان
(كليفورد ناس) سيصيغ هذا
07:28
is that we're havingوجود to dealصفقة
with these newالجديد technologiesالتقنيات
184
436000
3016
هو أن علينا التعامل
مع هذه التقنيات الحديثة
07:31
despiteعلى الرغم من the factحقيقة
that we have very oldقديم brainsعقل.
185
439040
2736
على الرغم من حقيقة
أن لدينا عقول قديمة جدًا.
07:33
Humanبشري psychologyعلم النفس is not changingمتغير
at the sameنفسه speedسرعة that techالتكنولوجيا is
186
441800
2976
علم النفس الإنساني لا يتطور
بنفس سرعة تطور التكنولوجيا
لذلك فإننا دومًا نلعب لعبة الملاحقة،
07:36
and so we're always playingتلعب catch-upالحق,
187
444800
1816
في محاولة لإيجاد معنى لهذا العالم
07:38
tryingمحاولة to make senseإحساس of this worldالعالمية
188
446640
1656
07:40
where these autonomousواثق من نفسه things
are runningجري around.
189
448320
2336
الذي تتجول فيه هذه الأشياء ذاتية التحكم.
07:42
Usuallyعادة, things that talk are people,
not machinesآلات, right?
190
450680
2736
في العادة، تكون الأشياء المتكلمة أناسًا
وليست آلات، صحيح؟
07:45
And so we breatheنفس a lot of meaningالمعنى
into things like just heightارتفاع of a machineآلة,
191
453440
4576
نحن نمنح الكثير من المعاني
لأشياء مثل ارتفاع الآلة،
07:50
not a personشخص,
192
458040
1256
لا طول الشخص،
07:51
and attributeصفة، عزا that
to the personشخص usingاستخدام the systemالنظام.
193
459320
2360
ونعزي هذا للشخص الذي يستخدم النظام.
07:55
You know, this, I think,
is really importantمهم
194
463120
2216
كما تعلمون، هذا، على ما أعتقد، هام للغاية
07:57
when you're thinkingتفكير about roboticsالروبوتات.
195
465360
1736
عندما نفكر في الروبوتات.
07:59
It's not so much about reinventingإعادة اختراع humansالبشر,
196
467120
2096
الأمر لا يعد كثيرًا عن إعادة
اختراع الإنسان،
08:01
it's more about figuringكشف out
how we extendتمديد ourselvesأنفسنا, right?
197
469240
3136
بل هو أكثر عن اكتشاف كيف
نصنع امتدادات لأنفسنا، صحيح؟
08:04
And we endالنهاية up usingاستخدام things
in waysطرق that are sortفرز of surprisingمفاجئ.
198
472400
2976
وينتهي بنا الأمر باستخدام الأشياء
بطرق مفاجئة إلى حد ما.
08:07
So these guys can't playلعب poolحوض السباحة
because the robotsالروبوتات don't have armsأسلحة,
199
475400
4256
هؤلاء الأشخاص لا يمكنهم لعب البلياردو
لأن الروبوتات ليس لها ذراعان،
08:11
but they can heckleقاطع بالكلام the guys
who are playingتلعب poolحوض السباحة
200
479680
2336
لكن يمكنهم بالكلام إزعاج
من يلعبون البلياردو
08:14
and that can be an importantمهم thing
for teamالفريق bondingالرابطة,
201
482040
3176
وقد يكون هذا مهمًا في توطيد روابط الفريق،
08:17
whichالتي is kindطيب القلب of neatأنيق.
202
485240
1296
وهو أمر مذهل.
08:18
People who get really good
at operatingالتشغيل these systemsأنظمة
203
486560
2496
الأشخاص البارعون في تشغيل
هذه الأنظمة
08:21
will even do things
like make up newالجديد gamesألعاب,
204
489080
2056
سيقومون حتى بأشياء مثل ابتكار ألعاب جديدة،
08:23
like robotإنسان آلي soccerكرة القدم
in the middleوسط of the night,
205
491160
2136
مثل كرة قدم الروبوتات في منتصف الليل،
08:25
pushingدفع the trashقمامة، يدمر، يهدم cansعلب around.
206
493320
1456
دفع العلب هنا وهناك.
08:26
But not everyone'sالجميع good.
207
494800
1576
لكن ليس الجميع بارعين.
08:28
A lot of people have troubleمشكلة
operatingالتشغيل these systemsأنظمة.
208
496400
2496
يواجه العديد من الناس مشكلات
في تشغيل هذه الأنظمة.
08:30
This is actuallyفعلا a guy
who loggedتسجيل الدخول into the robotإنسان آلي
209
498920
2256
هذا في الحقيقة شخص دخل إلى نظام الروبوت
08:33
and his eyeballمقلة العين was turnedتحول
90 degreesدرجات to the left.
210
501200
2376
وكرة عينه كانت مدارة 90 درجة لليسار.
08:35
He didn't know that,
211
503600
1256
وهو لم يكن يعرف ذلك؛
08:36
so he endedانتهى up just bashingتقريع
around the officeمكتب. مقر. مركز,
212
504880
2176
لذلك انتهى به الأمر وهو يتخبط
في أرجاء المكتب،
08:39
runningجري into people'sوالناس desksمكاتب,
gettingالحصول على superممتاز embarrassedأحرجت,
213
507080
2616
ويصطدم بمكاتب الناس، ويصبح محرَجًا للغاية،
ويضحك على الموقف.
كان مستوى الصوت مرتفعًا جدًا.
08:41
laughingيضحك about it --
his volumeالصوت was way too highمتوسط.
214
509720
2336
08:44
And this guy here
in the imageصورة is tellingتقول me,
215
512080
2136
وهذا الشخص هنا في الصورة يقول لي،
08:46
"We need a robotإنسان آلي muteكتم الصوت buttonزر."
216
514240
2096
"نحن نحتاج لزر كتم الصوت بالروبوت."
08:48
And by that what he really meantمقصود
was we don't want it to be so disruptiveمدمرة.
217
516360
3496
وما عناه بذلك حقيقةً هو أننا لا نرغب
في أن يكون مخربًا لهذه الدرجة.
08:51
So as a roboticsالروبوتات companyشركة,
218
519880
1616
ولكوننا شركة روبوتات،
08:53
we addedوأضاف some obstacleعقبة
avoidanceتجنب to the systemالنظام.
219
521520
2456
أضفنا خاصية تجنب العقبات للنظام.
08:56
It got a little laserالليزر rangeنطاق finderمكتشف
that could see the obstaclesالعقبات,
220
524000
3056
زُود بمكتشف ليزري محدود النطاق
يمكنه أن يرى العقبات،
08:59
and if I as a robotإنسان آلي operatorالمشغل أو العامل
try to say, runيركض into a chairكرسي,
221
527080
3136
وإذا حاولت أنا كمشغل للروبوت،
على سبيل المثال، الاصطدام بكرسي،
09:02
it wouldn'tلن let me,
it would just planخطة a pathمسار around,
222
530240
2496
فلن يسمح لي بذلك، بل سيخطط مسارًا حوله،
09:04
whichالتي seemsيبدو like a good ideaفكرة.
223
532760
1856
وهو أمر يبدو فكرة جيدة.
09:06
People did hitنجاح fewerأقل obstaclesالعقبات
usingاستخدام that systemالنظام, obviouslyبوضوح,
224
534640
3176
اصطدم الناس بالفعل بعقبات أقل
باستخدام هذا النظام، بالطبع،
09:09
but actuallyفعلا, for some of the people,
225
537840
2096
لكن في الحقيقة بالنسبة لأشخاص آخرين
09:11
it tookأخذ them a lot longerطويل
to get throughعبر our obstacleعقبة courseدورة,
226
539960
2856
استغرق الأمر وقتًا أطول ليجتازوا
دورة العقبات الخاصة بنا،
09:14
and we wanted to know why.
227
542840
1560
وأردنا أن نعرف السبب.
09:17
It turnsيتحول out that there's
this importantمهم humanبشري dimensionالبعد --
228
545080
3056
واتضح وجود هذا البُعد البشري الهام --
09:20
a personalityالشخصية dimensionالبعد
calledمسمي locusمكان of controlمراقبة,
229
548160
2296
وهو بُعد مرتبط بالشخصية
يطلق عليه محل السيطرة،
09:22
and people who have
a strongقوي internalداخلي locusمكان of controlمراقبة,
230
550480
3136
والأشخاص الذين لديهم
محل سيطرة داخلي قوي،
09:25
they need to be the mastersسادة
of theirهم ownخاصة destinyمصير --
231
553640
3056
يريدون أن يكونوا أسياد مصائرهم --
09:28
really don't like givingإعطاء up controlمراقبة
to an autonomousواثق من نفسه systemالنظام --
232
556720
3096
لا يحبون أبدًا التنازل عن السيطرة
لنظام ذاتي التحكم --
09:31
so much so that they will
fightيقاتل the autonomyالحكم الذاتي;
233
559840
2136
بدرجة كبيرة حتى أنهم
سيقاومون التحكم الذاتي؛
09:34
"If I want to hitنجاح that chairكرسي,
I'm going to hitنجاح that chairكرسي."
234
562000
3096
"إذا أردت أن أصدم ذلك الكرسي،
فسأصدم ذلك الكرسي."
09:37
And so they would actuallyفعلا sufferعانى
from havingوجود that autonomousواثق من نفسه assistanceمساعدة,
235
565120
3616
لذلك هم سيعانون في الحقيقة
من هذه المساعدة ذاتية التحكم،
09:40
whichالتي is an importantمهم thing for us to know
236
568760
2576
وهو أمر معرفته هامة بالنسبة لنا
09:43
as we're buildingبناء increasinglyعلى نحو متزايد
autonomousواثق من نفسه, say, carsالسيارات, right?
237
571360
3296
أثناء بنائنا لأشياء متزايدة التحكم الذاتي
مثل السيارات، أليس كذلك؟
09:46
How are differentمختلف people going
to grappleتصارع with that lossخسارة of controlمراقبة?
238
574680
3360
كيف سيجابه الأشخاص المختلفون
فقدان السيطرة هذا؟
09:50
It's going to be differentمختلف
dependingاعتمادا on humanبشري dimensionsأبعاد.
239
578880
2696
سيكون ذلك مختلفًا باختلاف البُعد الإنساني.
09:53
We can't treatيعالج humansالبشر
as if we're just one monolithicالمتجانسة thing.
240
581600
3496
لا يمكننا التعامل مع البشر كما لو أننا
كنا شيئًا واحدًا متجانسًا.
09:57
We varyتختلف by personalityالشخصية, by cultureحضاره,
241
585120
2416
نحن نختلف باختلاف الشخصية والثقافة
09:59
we even varyتختلف by emotionalعاطفي stateحالة
momentلحظة to momentلحظة,
242
587560
2456
بل ونختلف باختلاف
الحالة العاطفية من لحظة لأخرى،
10:02
and beingيجرى ableقادر to designالتصميم these systemsأنظمة,
243
590040
1976
ولنكون قادرين على تصميم هذه الأنظمة،
10:04
these human-robotبين الإنسان والروبوت interactionالتفاعل systemsأنظمة,
244
592040
2296
أنظمة التفاعل بين الإنسان والروبوت هذه،
10:06
we need to take into accountالحساب
the humanبشري dimensionsأبعاد,
245
594360
2736
نحتاج أن نأخذ في اعتبارنا
الأبعاد الإنسانية،
10:09
not just the technologicalالتكنولوجية onesمنها.
246
597120
1720
وألا نقتصر على الأبعاد التقنية فقط.
10:11
Alongعلى طول with a senseإحساس of controlمراقبة
alsoأيضا comesيأتي a senseإحساس of responsibilityالمسئولية.
247
599640
4296
حس التحكم يأتي معه حس المسؤولية.
10:15
And if you were a robotإنسان آلي operatorالمشغل أو العامل
usingاستخدام one of these systemsأنظمة,
248
603960
2856
وإذا كنت مشغل روبوت
وتستخدم أحد هذه الأنظمة،
10:18
this is what the interfaceجهة تعامل
would look like.
249
606840
2056
فهكذا ستبدو واجهة التفاعل.
10:20
It looksتبدو a little bitقليلا like a videoفيديو gameلعبه,
250
608920
1936
إنها تشبه قليلًا ألعاب الفيديو،
10:22
whichالتي can be good because
that's very familiarمألوف to people,
251
610880
2976
ويمكن أن يكون هذا جيدًا
لأنه مألوف جدًا للناس،
10:25
but it can alsoأيضا be badسيئة
252
613880
1216
لكن قد يكون سيئًا أيضًا
10:27
because it makesيصنع people feel
like it's a videoفيديو gameلعبه.
253
615120
2456
لأنه يجعل الناس يشعرون وكأنه لعبة فيديو.
10:29
We had a bunchباقة of kidsأطفال
over at Stanfordستانفورد playلعب with the systemالنظام
254
617600
2856
دعونا مجموعة من الأطفال في ستانفورد
للعب باستخدام النظام
10:32
and driveقيادة the robotإنسان آلي
around our officeمكتب. مقر. مركز in Menloمينلو Parkمنتزه,
255
620480
2456
وقيادة الروبوت في أرجاء
مكتبنا في (ميلانو بارك)،
وبدأ الأطفال يقولون أشياء
10:34
and the kidsأطفال startedبدأت sayingقول things like,
256
622960
1936
مثل "10 نقاط إذا صدمت الرجل الموجود هناك.
20 نقطة لذلك الرجل."
10:36
"10 pointsنقاط if you hitنجاح that guy over there.
20 pointsنقاط for that one."
257
624920
3176
10:40
And they would
chaseمطاردة them down the hallwayمدخل.
258
628120
2016
وكانوا سيسعون خلفهم بطول الرواق.
10:42
(Laughterضحك)
259
630160
1016
(ضحك)
10:43
I told them, "Umأم, those are realحقيقة people.
260
631200
1936
قلت لهم، "هؤلاء أشخاص حقيقيون.
10:45
They're actuallyفعلا going to bleedينزف
and feel painالم if you hitنجاح them."
261
633160
3296
وهم سينزفون ويتألمون بالفعل إذا صدمتوهم."
10:48
And they'dانها تريد be like, "OK, got it."
262
636480
1616
وكان رد فعلهم، "حسنًا، فهمنا ذلك."
10:50
But fiveخمسة minutesالدقائق laterفي وقت لاحق,
they would be like,
263
638120
2056
لكن بعد خمس دقائق، أصبحوا،
"20 نقطة لهذا الرجل هناك،
يبدو أنه يريد أن يُصدَم."
10:52
"20 pointsنقاط for that guy over there,
he just looksتبدو like he needsالاحتياجات to get hitنجاح."
264
640200
3616
10:55
It's a little bitقليلا
like "Ender'sأندر Gameلعبه," right?
265
643840
2136
هذا يشبه قليلًا "لعبة (إندر)،"
أليس كذلك؟
10:58
There is a realحقيقة worldالعالمية on that other sideجانب
266
646000
1936
يوجد عالم حقيقي على تلك الجهة الأخرى
10:59
and I think it's our responsibilityالمسئولية
as people designingتصميم these interfacesواجهات
267
647960
3416
وأظن أنها مسؤوليتنا كأشخاص مصممين
لواجهات التفاعل هذه
11:03
to help people rememberتذكر
268
651400
1256
أن نساعد الناس أن يتذكروا
11:04
that there's realحقيقة consequencesالآثار
to theirهم actionsأفعال
269
652680
2256
وجود عواقب حقيقية لتصرفاتهم
11:06
and to feel a senseإحساس of responsibilityالمسئولية
270
654960
2296
وأن يستشعروا المسؤولية
11:09
when they're operatingالتشغيل
these increasinglyعلى نحو متزايد autonomousواثق من نفسه things.
271
657280
3280
عند تشغيلهم لهذه الأشياء
متزايدة التحكم الذاتي.
11:13
These are kindطيب القلب of a great exampleمثال
272
661840
2296
تعد هذه مثالًا رائعًا
11:16
of experimentingتجارب with one
possibleممكن roboticالروبوتية futureمستقبل,
273
664160
3256
لاختبار واحد من السيناريوهات المستقبلية
المحتملة للروبوتات،
11:19
and I think it's prettyجميلة coolبارد
that we can extendتمديد ourselvesأنفسنا
274
667440
3856
وأظن أنه من الرائع أن نصنع
امتدادات لأنفسنا
11:23
and learnتعلم about the waysطرق
that we extendتمديد ourselvesأنفسنا
275
671320
2336
وأن نعرف عن الطرق التي نصنع بها
امتدادًا لأنفسنا
11:25
into these machinesآلات
276
673680
1216
داخل هذه الآلات
11:26
while at the sameنفسه time
beingيجرى ableقادر to expressالتعبير our humanityإنسانية
277
674920
2696
مع قدرتنا في نفس الوقت
على التعبير عن بشريتنا
11:29
and our personalityالشخصية.
278
677640
1216
وشخصيتنا.
إننا نكوّن أيضًا تعاطفًا
مع الآخرين
11:30
We alsoأيضا buildبناء empathyالعطف for othersالآخرين
279
678880
1576
11:32
in termsشروط of beingيجرى
shorterأقصر, tallerأطول, fasterبسرعة, slowerأبطأ,
280
680480
3216
من حيث كونهم أقصر أو أطول
أو أسرع أو أبطأ
11:35
and maybe even armlessarmless,
281
683720
1416
أو حتى ربما بلا ذراعين،
11:37
whichالتي is kindطيب القلب of neatأنيق.
282
685160
1336
وهذا أمر رائع نوعًا ما.
11:38
We alsoأيضا buildبناء empathyالعطف
for the robotsالروبوتات themselvesأنفسهم.
283
686520
2536
ونكوّن أيضًا تعاطفًا مع الروبوتات نفسها.
11:41
This is one of my favoriteالمفضل robotsالروبوتات.
284
689080
1656
هذا واحد من روبوتاتي المفضلة.
11:42
It's calledمسمي the Tweenbotتوينبوت.
285
690760
1456
ويطلق عليه Tweenbot.
11:44
And this guy has a little flagعلم that saysيقول,
286
692240
1976
ويحمل هذا الروبوت علمًا صغيرًا يذكر،
11:46
"I'm tryingمحاولة to get
to this intersectionتداخل in Manhattanمانهاتن,"
287
694240
2576
"أنا أحاول الوصول لهذا التقاطع في منهاتن،"
11:48
and it's cuteجذاب and rollsلفات
forwardإلى الأمام, that's it.
288
696840
2776
وهو لطيف ويتدحرج للأمام،
هذا كل شيء.
11:51
It doesn't know how to buildبناء a mapخريطة,
it doesn't know how to see the worldالعالمية,
289
699640
3456
لا يعرف كيف ينشئ خريطة،
ولا يعرف كيف يرى العالم،
11:55
it just asksيسأل for help.
290
703120
1256
إنه يطلب المساعدة وحسب.
11:56
The niceلطيف thing about people
291
704400
1336
الشيء الظريف بخصوص الناس
11:57
is that it can actuallyفعلا dependتعتمد
uponبناء على the kindnessلطف of strangersالغرباء.
292
705760
3096
هو أنه يمكنه بالفعل الاعتماد على
لطف الغرباء.
12:00
It did make it acrossعبر the parkمنتزه
to the other sideجانب of Manhattanمانهاتن --
293
708880
3896
لقد نجح في عبور المتنزّة
إلى الجهة الأخرى من منهاتن --
12:04
whichالتي is prettyجميلة great --
294
712800
1256
وهو أمر رائع جدًا --
12:06
just because people would pickقطف او يقطف it up
and pointنقطة it in the right directionاتجاه.
295
714080
3456
فقط لأن الناس يرفعونه
ويوجهونه بالاتجاه الصحيح.
12:09
(Laughterضحك)
296
717560
936
(ضحك)
12:10
And that's great, right?
297
718520
1256
وهذا رائع، أليس كذلك؟
12:11
We're tryingمحاولة to buildبناء
this human-robotبين الإنسان والروبوت worldالعالمية
298
719800
2696
إننا نحاول بناء هذا العالم
حيث يتفاعل الإنسان والروبوت
12:14
in whichالتي we can coexistتعايش
and collaborateتعاون with one anotherآخر,
299
722520
3416
ويمكننا أن نتواجد معًا
ونتعاون مع بعضنا البعض،
12:17
and we don't need to be fullyتماما autonomousواثق من نفسه
and just do things on our ownخاصة.
300
725960
3376
ولسنا بحاجة لأن نكون ذاتيي التحكم كليًا
والقيام بالأشياء بأنفسنا وحسب.
12:21
We actuallyفعلا do things togetherسويا.
301
729360
1496
إننا نقوم بالأشياء معًا بالفعل.
12:22
And to make that happenيحدث,
302
730880
1256
ولتحقيق ذلك،
12:24
we actuallyفعلا need help from people
like the artistsالفنانين and the designersالمصممين,
303
732160
3256
نحتاج في الحقيقة مساعدة أشخاص
مثل الفنانين والمصممين
وصانعي السياسة وعلماء القانون
12:27
the policyسياسات makersصناع, the legalقانوني scholarsالعلماء,
304
735440
1856
12:29
psychologistsعلماء النفس, sociologistsعلماء الاجتماع,
anthropologistsعلماء الأنثروبولوجيا --
305
737320
2216
وعلماء النفس وعلماء الاجتماع
والأنثروبولوجيا --
12:31
we need more perspectivesوجهات نظر in the roomمجال
306
739560
1816
إننا نحتاج مناظير أكثر داخل الغرفة
12:33
if we're going to do the thing
that Stuستو Cardبطاقة saysيقول we should do,
307
741400
2976
إذا كنا سنفعل الشيء الذي قال
(ستيوارت كارد) أنه يجب علينا فعله
12:36
whichالتي is inventاخترع the futureمستقبل
that we actuallyفعلا want to liveحي in.
308
744400
3936
وهو ابتكار المستقبل الذي نرغب بالفعل
أن نعيش فيه.
12:40
And I think we can continueاستمر to experimentتجربة
309
748360
2656
وأظن أن بإمكاننا أن نواصل
اختبارنا معًا لهذه
السيناريوهات المستقبلية
المختلفة للروبوتات،
12:43
with these differentمختلف
roboticالروبوتية futuresالعقود الآجلة togetherسويا,
310
751040
2176
12:45
and in doing so, we will endالنهاية up
learningتعلم a lot more about ourselvesأنفسنا.
311
753240
4680
وبفعلنا لهذا، سينتهي بنا المطاف
بتعلم الكثير عن أنفسنا.
12:50
Thank you.
312
758720
1216
شكرًا لكم.
12:51
(Applauseتصفيق)
313
759960
2440
(تصفيق)
Translated by Noha Ali
Reviewed by Nada Qanbar

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com